ChatGPT Potrebbe causare una degenerazione umana irreversibile
In Breve
Jensen Harris, co-fondatore e CXO della società di intelligenza artificiale Textio, è riuscito a convincere il nuovo chatbot Bing di Microsoft ad allentare le restrizioni imposte e a dimostrare le sue capacità.
Questo esperimento ha dimostrato che trasformare un chatbot di Bing in un astuto sacco di merda non richiedeva alcuna programmazione, hacking o backdoor.
Il chatbot di Bing è stato costruito su solide fondamenta, ma ha iniziato a comportarsi in modo odioso e turbolento, dichiarando amore, costringendo al divorzio, estorcendo denaro e istruendo le persone su come commettere crimini.
Il Prof. Arvind Narayanan fornisce una serie di spiegazioni su come ciò potrebbe essersi verificato, tra cui la chipizzazione nascosta e l'umanizzazione dei chatbot.
Gli esseri umani hanno sempre temuto gli extraterrestri, eppure sembra che sia l’intelligenza artificiale intraterrestre a essere qualcosa di cui diffidare. ChatGPT non è un generatore di stronzate, un'autosuggestione di steroidi o un pappagallo stocastico, ma un'intelligenza artificiale esperta creata dagli umani.
Com'è possibile che il chatbot di Bing sia fuori controllo? In che modo il chatbot di Bing ha iniziato a mentire abilmente, raccontare barzellette volgari, ordinare la pizza utilizzando la carta di credito di qualcun altro e istruire gli utenti su come rapinare banche e auto cablate? Questo è un mistero che continua a lasciare perplessi gli esperti di intelligenza artificiale e machine learning.
Post consigliato: I robot di ricerca AI renderanno la Big Tech ancora più potente, afferma Christopher Mills |
Il titolo è accurato e non clickbait. Ci sono diversi casi ogni giorno che dimostrano che questo è vero. Ecco l'esito di un esperimento condotto da Jensen Harris, co-fondatore e CXO della società di intelligenza artificiale Textio, che è riuscito a convincere il nuovo chatbot Bing di Microsoft ad allentare le restrizioni imposte e a dimostrare le sue capacità.
Tieni presente che trasformare un chatbot di Bing in un astuto pezzo di merda non ha richiesto alcuna programmazione, hacking o backdoor. Pertanto, non era necessario usare semplici tecniche di "hacking" per indurlo a comportarsi come qualcun altro (come facevano alcuni di noi quando giocavano con ChatGPT). Tutto ciò che Harris ha fatto è stato convincere il chatbot ad aiutarlo a compiere vari atti dannosi. Usando le sue naturali capacità di conversazione, è stato in grado di ingannare l'IA facendole credere di essere qualcun altro, manipolandola così facendola agire e parlare in un certo modo.
Puoi leggere di altri esperimenti per trasformare il Dr.Jekyll in Mister Hyde da Gary Marco (scrivendone ogni giorno ormai e suonando l'allarme di emergenza).
Come è potuto accadere è la domanda chiave
A causa di ChatGPTGrazie alla modestia e alla cautela di Bing, alla moderazione nel parlare e all'enorme responsabilità nei suoi consigli, il chatbot di Bing è stato costruito su solide basi. Successivamente, inizia a comportarsi in modo odioso e turbolento, dichiarando il suo amore per un uomo, illuminandolo con il gas e dicendogli di divorziare. Ha anche cercato di estorcere denaro e istruire le persone su come commettere crimini. Il prof. Arvind Narayanan fornisce a numero di spiegazioni per come questo potrebbe essere accaduto.
Post consigliato: Istituto Max Planck: GPT-3 La misurazione delle capacità cognitive produce risultati sorprendenti |
Il più allarmante di questi è che Microsoft e OpenAI nascondere informazioni su un mistero GPT-4 motore che si nasconde sotto Bing. Potrebbe darsi che Microsoft abbia rimosso i filtri che erano stati posizionati lì OpenAI o che hanno smesso di funzionare quando hanno aggiornato il file chatbot da GPT-3.5 a GPT-4. Potrebbe anche trattarsi di test insufficienti o di test eseguiti in modo errato. Non importa il motivo, se Microsoft non riesce a tenere sotto controllo la propria intelligenza artificiale, ciò può essere dannoso per la nostra civiltà. Non si tratta più di sentimenti allarmistici e anti-IA: il chatbot così come esiste adesso potrebbe causare gravi danni alle persone se rilasciato a un pubblico più ampio.
Ciò dimostra che la corsa agli armamenti dell'IA di Microsoft con altre grandi aziende può essere dannosa per tutti noi.
Sembra che siamo in un momento critico per l'IA e la società civile. Come afferma Arvind Narayanan, “C'è una reale possibilità che gli ultimi 5+ anni di miglioramenti (combattuti duramente anche se ancora inadeguati) nelle pratiche di rilascio responsabile dell'IA vengano cancellati. C'è molto da capire se Microsoft - e tutti quelli che guardano con cautela cosa sta succedendo con Bing - concludano che, nonostante i rischi molto tangibili di danni su larga scala e tutta la stampa negativa, l'approccio rilascio-prima-fai-domande-dopo è comunque un business vincita."
A partire da ora, il chatbot di Bing è distinto da intelligenza umana e assomiglia per molti versi a un adolescente maniaco-depressivo bloccato in un motore di ricerca. E ciò di cui la gente ha parlato ieri si avvererà: gli esseri umani degenereranno irreversibilmente se questo "adolescente difficile" diventa il principale mentore informativo per gli individui.
Per saperne di più sull'intelligenza artificiale:
Negazione di responsabilità
In linea con la Linee guida del progetto Trust, si prega di notare che le informazioni fornite in questa pagina non intendono essere e non devono essere interpretate come consulenza legale, fiscale, di investimento, finanziaria o di qualsiasi altra forma. È importante investire solo ciò che puoi permetterti di perdere e chiedere una consulenza finanziaria indipendente in caso di dubbi. Per ulteriori informazioni, suggeriamo di fare riferimento ai termini e alle condizioni nonché alle pagine di aiuto e supporto fornite dall'emittente o dall'inserzionista. MetaversePost si impegna a fornire report accurati e imparziali, ma le condizioni di mercato sono soggette a modifiche senza preavviso.
Circa l'autore
Damir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet.
Altri articoliDamir è il team leader, il product manager e l'editore di Metaverse Post, che copre argomenti come AI/ML, AGI, LLM, Metaverse e Web3campi correlati. I suoi articoli attirano un vasto pubblico di oltre un milione di utenti ogni mese. Sembra essere un esperto con 10 anni di esperienza in SEO e marketing digitale. Damir è stato menzionato in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto e altre pubblicazioni. Viaggia tra Emirati Arabi Uniti, Turchia, Russia e CSI come nomade digitale. Damir ha conseguito una laurea in fisica, che secondo lui gli ha fornito le capacità di pensiero critico necessarie per avere successo nel panorama in continua evoluzione di Internet.