Modelele AI care generează imagini sunt instruite pe imagini explicite pentru copii, susține Stanford
Pe scurt
Instrumente populare AI generative text-to-image, inclusiv Stable Diffusion, sunt instruiți cu privire la mii de imagini de abuz sexual asupra copiilor.
Popular text-to-image AI generativă instrumente, inclusiv Stable Diffusion din Stability AI sunt instruiți cu privire la mii de imagini de abuz sexual asupra copiilor, conform raportului de cercetare de la Stanford Internet Observatory.
Raportul a adăugat că aceste imagini facilitează generarea de conținut explicit realist care implică copii falși și transformarea adolescenților îmbrăcați în imagini nud, îndemnând companiile din spatele acestor instrumente să acționeze imediat.
Investigația Observatorului de Internet Stanford s-a concentrat pe baza de date LAION, un depozit masiv de imagini și subtitrări online utilizate de lider Creatori de imagini AI ca Stable Diffusion, pentru a antrena modele AI.
Înainte de a verifica instrumentele AI care generează imagini, cercetătorii au fost de părere că instrumentele AI au produs imagini abuzive ale copiilor, combinând informații din pornografia pentru adulți și fotografii benigne ale copiilor. Cu toate acestea, constatările Observatorului prezintă o întorsătură tulburătoare, cu peste 3,200 de imagini cu suspecte de abuz sexual asupra copiilor identificate în setul de date LAION.
În timp ce LAION a răspuns rapid la raport, eliminând temporar seturile de date, implicațiile acestor imagini sunt de amploare. Deși ele constituie o fracțiune din vastul indice al LAION de 5.8 miliarde de imagini, grupul Stanford afirmă că influențează probabil capacitatea de a Instrumente AI pentru a genera ieșiri dăunătoare.
Un jucător important în dezvoltarea bazei de date LAION este Stability AI, un startup din Londra responsabil de modelarea setului de date. Raportul subliniază că o versiune mai veche a lor Stable Diffusion model, introdus anul trecut este încă prezent în diverse aplicații, ca sursă primară pentru generarea de imagini explicite.
Cu toate ca Stability AI pretinde că găzduiește doar versiuni filtrate și a luat măsuri pentru a atenua utilizarea necorespunzătoare, provocarea constă în omniprezentarea modelului mai vechi.
Implementarea AI generativă necesită o validare riguroasă
Miezul problemei provine din desfășurarea rapidă a multor proiecte AI generative pe piață, conform lui David Thiel, tehnolog-șef la Observatorul Internet Stanford.
Thiel subliniază că aceste proiecte au fost adesea făcute accesibile pe scară largă datorită concurenței intense în domeniu, fără atenția riguroasă necesară în faza de dezvoltare.
Cercetătorii de la Stanford pledează pentru măsuri drastice pentru a aborda problema în mod eficient. Recomandările includ ștergerea sau curățarea seturi de antrenament derivate din LAION-5B și realizarea unei versiuni mai vechi de Stable Diffusion mai putin accesibile.
Cu toate acestea, complexitatea curățării retroactive a datelor reprezintă o provocare considerabilă, determinând un apel la colaborare cu experții în siguranța copiilor în timpul dezvoltării baze de date AI.
Pe măsură ce școlile și agențiile de aplicare a legii din întreaga lume își exprimă alarma cu privire la potențialele consecințe ale acestor descoperiri, atenția se află acum pe industria AI să abordeze și să remedieze urgent defectele dăunătoare din tehnologia lor.
Declinare a responsabilităţii
În conformitate cu Ghidurile proiectului Trust, vă rugăm să rețineți că informațiile furnizate pe această pagină nu sunt destinate și nu trebuie interpretate ca fiind consiliere juridică, fiscală, investițională, financiară sau orice altă formă de consiliere. Este important să investești doar ceea ce îți poți permite să pierzi și să cauți sfaturi financiare independente dacă ai îndoieli. Pentru informații suplimentare, vă sugerăm să consultați termenii și condițiile, precum și paginile de ajutor și asistență furnizate de emitent sau agent de publicitate. MetaversePost se angajează să raporteze corecte, imparțial, dar condițiile de piață pot fi modificate fără notificare.
Despre autor
Kumar este un jurnalist tehnic cu experiență, cu o specializare în intersecțiile dinamice ale AI/ML, tehnologie de marketing și domenii emergente, cum ar fi cripto, blockchain și NFTs. Cu peste 3 ani de experiență în industrie, Kumar și-a stabilit o experiență dovedită în elaborarea de narațiuni convingătoare, realizarea de interviuri perspicace și furnizarea de informații cuprinzătoare. Expertiza lui Kumar constă în producerea de conținut de mare impact, inclusiv articole, rapoarte și publicații de cercetare pentru platforme proeminente din industrie. Cu un set unic de abilități care combină cunoștințele tehnice și povestirea, Kumar excelează în comunicarea conceptelor tehnologice complexe către diverse audiențe într-o manieră clară și captivantă.
Mai multe articoleKumar este un jurnalist tehnic cu experiență, cu o specializare în intersecțiile dinamice ale AI/ML, tehnologie de marketing și domenii emergente, cum ar fi cripto, blockchain și NFTs. Cu peste 3 ani de experiență în industrie, Kumar și-a stabilit o experiență dovedită în elaborarea de narațiuni convingătoare, realizarea de interviuri perspicace și furnizarea de informații cuprinzătoare. Expertiza lui Kumar constă în producerea de conținut de mare impact, inclusiv articole, rapoarte și publicații de cercetare pentru platforme proeminente din industrie. Cu un set unic de abilități care combină cunoștințele tehnice și povestirea, Kumar excelează în comunicarea conceptelor tehnologice complexe către diverse audiențe într-o manieră clară și captivantă.