Stanford twierdzi, że modele AI generujące obrazy są szkolone na wyraźnych obrazach dzieci
W skrócie
Popularne narzędzia sztucznej inteligencji do przetwarzania tekstu na obraz, w tym Stable Diffusion, są szkoleni na podstawie tysięcy obrazów przedstawiających wykorzystywanie seksualne dzieci.
Popularna funkcja zamiany tekstu na obraz generatywna sztuczna inteligencja narzędzia, w tym Stable Diffusion od Stability AI Jak wynika z raportu badawczego Stanford Internet Observatory, są szkoleni na podstawie tysięcy obrazów przedstawiających wykorzystywanie seksualne dzieci.
W raporcie dodano, że obrazy te ułatwiają generowanie realistycznych, wulgarnych treści z udziałem fałszywych dzieci i przekształcanie ubranych nastolatków w nagie zdjęcia, co wzywa firmy stojące za takimi narzędziami do natychmiastowego działania.
Dochodzenie Stanford Internet Observatory skupiło się na Baza danych LAION, ogromne repozytorium obrazów i podpisów online wykorzystywanych przez wiodących Twórcy obrazów AI lubić Stable Diffusion, do szkolenia modeli sztucznej inteligencji.
Przed sprawdzeniem narzędzi AI generujących obrazy badacze byli zdania, że narzędzia AI wytwarzają obelżywe obrazy dzieci, łącząc informacje z pornografii dla dorosłych i łagodnych zdjęć dzieci. Jednak ustalenia Obserwatorium przynoszą niepokojący zwrot: w zbiorze danych LAION zidentyfikowano ponad 3,200 zdjęć przedstawiających podejrzenia wykorzystywania seksualnego dzieci.
Chociaż LAION szybko zareagował na raport, tymczasowo usuwając swoje zbiory danych, konsekwencje tych obrazów są dalekosiężne. Chociaż stanowią one ułamek ogromnego indeksu LAION obejmującego 5.8 miliarda obrazów, grupa ze Stanford twierdzi, że prawdopodobnie wpływają one na zdolność Narzędzia AI do generowania szkodliwych wyników.
Istotnym graczem w rozwoju bazy LAION jest Stability AI, londyńskiego startupu odpowiedzialnego za kształtowanie zbioru danych. W raporcie podkreślono, że starsza wersja ich Stable Diffusion model wprowadzony w zeszłym roku jest nadal obecny w różnych zastosowaniach, jako główne źródło generowania wyraźnych obrazów.
Chociaż Stability AI twierdzi, że hostuje wyłącznie wersje filtrowane i podjął kroki w celu ograniczenia nadużyć, wyzwaniem jest powszechność starszego modelu.
Wdrożenie generatywnej sztucznej inteligencji wymaga rygorystycznej walidacji
Według Davida Thiela, głównego technologa w Stanford Internet Observatory, sedno problemu leży w szybkim wdrażaniu na rynek wielu projektów generatywnej sztucznej inteligencji.
Thiel zwraca uwagę, że projekty te często były szeroko udostępniane ze względu na intensywną konkurencję w tej dziedzinie, bez niezbędnej rygorystycznej uwagi na etapie opracowywania.
Badacze ze Stanford opowiadają się za drastycznymi środkami, aby skutecznie rozwiązać ten problem. Zalecenia obejmują usunięcie lub wyczyszczenie zestawów treningowych pochodzących z LAION-5B i utworzenie starszej wersji Stable Diffusion mniej dostępne.
Jednakże złożoność czyszczenia danych z mocą wsteczną stanowi poważne wyzwanie, co skłania do wezwania do współpracy z ekspertami ds. bezpieczeństwa dzieci podczas opracowywania Bazy danych AI.
Ponieważ szkoły i organy ścigania na całym świecie wyrażają zaniepokojenie potencjalnymi konsekwencjami tych ustaleń, uwaga skupia się obecnie na: Przemysł AI pilnie zająć się i naprawić szkodliwe wady swojej technologii.
Odpowiedzialność
Zgodnie z Zaufaj wytycznym projektu, należy pamiętać, że informacje zawarte na tej stronie nie mają na celu i nie powinny być interpretowane jako porady prawne, podatkowe, inwestycyjne, finansowe lub jakiekolwiek inne formy porad. Ważne jest, aby inwestować tylko tyle, na utratę czego możesz sobie pozwolić, a w przypadku jakichkolwiek wątpliwości zasięgnąć niezależnej porady finansowej. Aby uzyskać więcej informacji, sugerujemy zapoznać się z warunkami oraz stronami pomocy i wsparcia udostępnianymi przez wydawcę lub reklamodawcę. MetaversePost zobowiązuje się do sporządzania dokładnych i bezstronnych raportów, jednakże warunki rynkowe mogą ulec zmianie bez powiadomienia.
O autorze
Kumar jest doświadczonym dziennikarzem technicznym ze specjalizacją w dynamicznych skrzyżowaniach AI/ML, technologii marketingowej i nowych dziedzin, takich jak kryptowaluty, blockchain i NFTS. Dzięki ponad 3-letniemu doświadczeniu w branży Kumar zdobył udokumentowane doświadczenie w tworzeniu fascynujących narracji, przeprowadzaniu wnikliwych wywiadów i dostarczaniu kompleksowych spostrzeżeń. Doświadczenie Kumara polega na tworzeniu treści o dużym wpływie, w tym artykułów, raportów i publikacji badawczych dla czołowych platform branżowych. Dzięki unikalnemu zestawowi umiejętności, który łączy wiedzę techniczną i opowiadanie historii, Kumar przoduje w przekazywaniu złożonych koncepcji technologicznych różnym odbiorcom w jasny i wciągający sposób.
Więcej artykułówKumar jest doświadczonym dziennikarzem technicznym ze specjalizacją w dynamicznych skrzyżowaniach AI/ML, technologii marketingowej i nowych dziedzin, takich jak kryptowaluty, blockchain i NFTS. Dzięki ponad 3-letniemu doświadczeniu w branży Kumar zdobył udokumentowane doświadczenie w tworzeniu fascynujących narracji, przeprowadzaniu wnikliwych wywiadów i dostarczaniu kompleksowych spostrzeżeń. Doświadczenie Kumara polega na tworzeniu treści o dużym wpływie, w tym artykułów, raportów i publikacji badawczych dla czołowych platform branżowych. Dzięki unikalnemu zestawowi umiejętności, który łączy wiedzę techniczną i opowiadanie historii, Kumar przoduje w przekazywaniu złożonych koncepcji technologicznych różnym odbiorcom w jasny i wciągający sposób.