Cornell University: l'intelligenza artificiale è l'ultima arma dell'inganno, contro la quale siamo impotenti
In Breve
L'esperimento di Stanford ha rivelato una vulnerabilità insormontabile dell'intuizione linguistica delle persone, rivelando la bassa probabilità di identificare la paternità dell'IA.
Ciò è dovuto alla capacità dell'intelligenza artificiale ChatGPT produrre falsi così abilmente che le persone non sono in grado di distinguerli dalla verità.
Il nuovo “esperimento di Stanford” ha rivelato una vulnerabilità insormontabile dell'intuizione linguistica delle persone. Per questo motivo, la probabilità che noi identifichiamo la paternità dell'IA è notevolmente ridotta.
Ci sono numerose preoccupazioni per il mondo oggi a causa del ChatGPT rivoluzione. Il più evidente è che piace all’intelligenza artificiale ChatGPT è in grado di produrre falsi così abilmente che le persone non sono in grado di distinguerli dalla verità. I risultati delle prove intraprese hanno dimostrato l'enorme capacità del ChatGPT super capacità di ingannare. Tuttavia, non era chiaro come funzionasse questo superpotere: cosa possiede l’intelligenza artificiale che può far credere a persone altamente intelligenti e istruite ciò che sta facendo?
Leggi di più: Oltre 20 migliori chatbot AI di Telegram del 2023 |
Un nuovo "esperimento di Stanford" è stato condotto dallo Stanford Social Networking Lab in collaborazione con il Cornell University Research Center per rispondere proprio a questa domanda.
Il risultato di una serie di sei esperimenti che hanno coinvolto 4,600 persone è sensazionale e deprimente.
Le persone avevano il compito di determinare se le auto-presentazioni fossero state scritte da una persona o da un'intelligenza artificiale. Secondo i ricercatori, l'auto-presentazione è uno degli elementi più personali e consequenziali della comunicazione linguistica perché il nostro atteggiamento nei confronti di qualsiasi affermazione dipende in gran parte da chi (come crediamo) sia il suo autore.
Al centro della percezione linguistica delle persone ci sono le euristiche. Il termine euristica si riferisce alle scorciatoie mentali che le persone prendono per arrivare a decisioni, risolvere problemi e formulare giudizi. Aiuta le persone ad alleviare il loro carico di lavoro mentale ed evitare il sovraccarico cognitivo.
"Un'analisi computazionale delle caratteristiche del linguaggio mostra che i giudizi umani sul linguaggio generato dall'intelligenza artificiale sono ostacolati da euristiche intuitive ma imperfette come l'associazione di pronomi in prima persona, l'uso di contrazioni o argomenti familiari con il linguaggio scritto dall'uomo", si legge nello studio. Gli esperimenti hanno dimostrato che quando percepiscono un testo scritto dall'IA, le persone usano automaticamente la stessa euristica di quando comunicano con altre persone. E questo è un errore fondamentale. Il fatto è che queste sono euristiche intuitive per noi e l'IA le legge facilmente e opera con esse come una tavola pitagorica.
Di conseguenza, l'intelligenza artificiale può utilizzare l'euristica per creare testi che le persone percepiscono come "più umani che umani". Ciò aumenta notevolmente il potenziale ingannevole dei testi e dei discorsi AI, incoraggiandoci a fidarci di questa "persona più umana" più delle dichiarazioni di persone reali.
Le probabilità che le persone identifichino un'auto-presentazione scritta da AI sono 50/50. Le cose vanno anche peggio nelle comunicazioni romantiche delle persone. Quasi 70% di adulti non riesco a distinguere tra una lettera d'amore scritta da ChatGPT e una lettera scritta da una persona.
Per saperne di più, leggi ChatGPT:
Negazione di responsabilità
In linea con la Linee guida del progetto Trust, si prega di notare che le informazioni fornite in questa pagina non intendono essere e non devono essere interpretate come consulenza legale, fiscale, di investimento, finanziaria o di qualsiasi altra forma. È importante investire solo ciò che puoi permetterti di perdere e chiedere una consulenza finanziaria indipendente in caso di dubbi. Per ulteriori informazioni, suggeriamo di fare riferimento ai termini e alle condizioni nonché alle pagine di aiuto e supporto fornite dall'emittente o dall'inserzionista. MetaversePost si impegna a fornire report accurati e imparziali, ma le condizioni di mercato sono soggette a modifiche senza preavviso.
Circa l'autore
Damir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet.
Altri articoliDamir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet.