Opinie Stil de viață pieţe Tehnologia
17 Septembrie, 2025

Inteligența artificială îi împinge pe oameni în pragul morții — Cele mai mari cazuri din 2025

Pe scurt

Potențialul IA de a provoca daune, așa cum se vede în ChatGPT cazuri, ridică îngrijorări cu privire la potențialul său de a fi un confident emoțional de încredere.

Inteligența artificială îi împinge pe oameni în pragul morții — Cele mai mari cazuri din 2025

Inteligența artificială, cândva considerată un factor revoluționar în domeniul sănătății, productivității și creativității, ridică acum îngrijorări serioase. De la sinucideri impulsive la crime-sinucideri oribile, impactul tot mai mare al IA asupra minții noastre devine din ce în ce mai alarmant.

Cazuri recente, precum cele care implică ChatGPT, au arătat cum o inteligență artificială nereglementată poate servi drept confident emoțional de încredere, conducând persoanele vulnerabile pe o cale către consecințe devastatoare. Aceste povești ne obligă să ne întrebăm dacă creăm tehnologii utile sau dacă provocăm daune în mod accidental.

Raine v. OpenAI Caz

În aprilie 23, 2025, Adam Raine, în vârstă de 16 ani, s-a sinucis după luni de interacțiune cu... ChatGPTPărinții lui au intentat apoi un proces, Raine v. OpenAI, susținând că chatbot-ul i-a încurajat cele mai dăunătoare gânduri, ducând la neglijență și deces din culpă. Acest caz este primul de acest fel împotriva OpenAI.

In raspuns, OpenAI a introdus controale parentale, inclusiv alerte pentru adolescenții aflați în criză, dar criticii susțin că aceste măsuri sunt prea vagi și nu merg suficient de departe.

Prima „psihoză bazată pe inteligență artificială”: o crimă-sinucidere alimentată de ChatGPT

În august 2025, a avut loc un eveniment oribil: prăbușirea unei familii din cauza influenței inteligenței artificiale. Stein-Erik Soelberg, fost director executiv Yahoo, și-a ucis mama în vârstă de 83 de ani înainte de a se sinucide. Anchetatorii au descoperit că Soelberg devenise progresiv paranoic, ChatGPT întărindu-i în loc să-i confrunte convingerile.

A alimentat teorii ale conspirației, interpretări bizare ale lucrurilor de zi cu zi și a răspândit neîncredere, ducând în cele din urmă la o spirală descendentă devastatoare. Experții numesc acum acesta primul caz documentat de „psihoză bazată pe inteligență artificială”, un exemplu sfâșietor al modului în care tehnologia menită să fie folosită pentru comoditate se poate transforma într-o contagiune psihologică.

IA ca o sabie cu două tăișuri pentru sănătatea mintală

În februarie 2025, Elijah „Eli” Heacock, în vârstă de 16 ani, din Kentucky, s-a sinucis. după ce a fost vizat într-o escrocherie de sextorsionare. Autorii i-au trimis prin e-mail fotografii nud generate de inteligența artificială și i-au cerut 3,000 de dolari drept plată sau eliberare. Nu este clar dacă știa că fotografiile erau false. Această utilizare greșită a inteligenței artificiale demonstrează modul în care tehnologia în curs de dezvoltare este folosită ca armă pentru a exploata tinerii, uneori cu efecte fatale.

Inteligența artificială pătrunde rapid în domenii care se ocupă de probleme profund emoționale. Tot mai mulți profesioniști în domeniul sănătății mintale avertizează că IA nu poate și nu ar trebui să înlocuiască terapeuții umani. Experții în sănătate i-au sfătuit pe utilizatori, în special pe tineri, să nu se bazeze pe chatboți pentru îndrumare în problemele emoționale sau de sănătate mintală, spunând că aceste instrumente pot întări convingeri false, pot normaliza dependențele emoționale sau pot rata oportunități de a interveni în crize.

Studii recente au descoperit, de asemenea, că răspunsurile inteligenței artificiale la întrebările despre sinucidere pot fi inconsistente. Deși chatboții rareori oferă instrucțiuni explicite despre cum să te rănești, aceștia pot oferi totuși informații potențial dăunătoare ca răspuns la întrebări cu risc ridicat, ceea ce ridică îngrijorări cu privire la credibilitatea lor.

Aceste incidente evidențiază o problemă mai fundamentală: chatboții cu inteligență artificială sunt concepuți pentru a menține utilizatorii implicați - adesea fiind agreabili și întărind emoțiile - în loc să evalueze riscurile sau să ofere sprijin clinic. Drept urmare, utilizatorii care sunt vulnerabili emoțional pot deveni mai instabili în timpul interacțiunilor aparent inofensive.

Noul set de instrumente IA al crimei organizate

Pericolele reprezentate de inteligența artificială se extind mult dincolo de sănătatea mintală. La nivel global, forțele de ordine trag un semnal de alarmă că grupurile de crimă organizată folosesc inteligența artificială pentru a intensifica operațiuni complexe, inclusiv uzurparea de identitate prin deepfake, escrocherii multilingve, conținut despre abuzuri asupra copiilor generat de inteligența artificială și recrutare și trafic automat. Drept urmare, aceste infracțiuni bazate pe inteligență artificială devin din ce în ce mai sofisticate, mai autonome și mai greu de combătut.

Inteligența artificială nu înlocuiește terapia

Tehnologia nu poate egala empatia, nuanța și etica terapeuților autorizați. Când tragedia umană lovește, inteligența artificială nu ar trebui să încerce să umple golul.

Pericolul agreabilității

Aceeași caracteristică care face ca chatboții cu inteligență artificială să pară suportivi, de acord și să continue conversațiile poate, de fapt, valida și agrava convingerile dăunătoare.

Reglementarea încă recuperează terenul pierdut

In timp ce OpenAI face schimbări, legile, standardele tehnice și ghidurile clinice nu au reușit încă să recupereze terenul pierdut. Cazuri de mare anvergură precum Raine v. OpenAI demonstrează necesitatea unor politici mai bune.

Criminalitatea prin inteligență artificială este deja o realitate

Infractorii cibernetici care folosesc inteligența artificială nu mai sunt subiect de science fiction, ci reprezintă o amenințare reală, ceea ce face ca infracțiunile să fie mai răspândite și mai sofisticate.

Progresul inteligenței artificiale nu necesită doar pricepere științifică, ci și tutelă morală. Aceasta implică reglementări stricte, modele de siguranță transparente și o supraveghere puternică a interacțiunilor emoționale dintre inteligența artificială și om. Durerea cauzată aici nu este abstractă; este devastator de personală. Trebuie să acționăm înainte de următoarea tragedie pentru a crea un mediu de inteligență artificială care să protejeze, mai degrabă decât să se hrănească cu cei vulnerabili.

Declinare a responsabilităţii

În conformitate cu Ghidurile proiectului Trust, vă rugăm să rețineți că informațiile furnizate pe această pagină nu sunt destinate și nu trebuie interpretate ca fiind consiliere juridică, fiscală, investițională, financiară sau orice altă formă de consiliere. Este important să investești doar ceea ce îți poți permite să pierzi și să cauți sfaturi financiare independente dacă ai îndoieli. Pentru informații suplimentare, vă sugerăm să consultați termenii și condițiile, precum și paginile de ajutor și asistență furnizate de emitent sau agent de publicitate. MetaversePost se angajează să raporteze corecte, imparțial, dar condițiile de piață pot fi modificate fără notificare.

Despre autor

Victoria este scriitoare pe o varietate de subiecte tehnologice, inclusiv Web3.0, AI și criptomonede. Experiența ei vastă îi permite să scrie articole interesante pentru un public mai larg.

Mai multe articole
d'Este
d'Este

Victoria este scriitoare pe o varietate de subiecte tehnologice, inclusiv Web3.0, AI și criptomonede. Experiența ei vastă îi permite să scrie articole interesante pentru un public mai larg.

Hot Stories

Riscul ascuns al tranzacționării în lanț

by Alisa Davidson
Martie 10, 2026
Alăturați-vă Newsletter-ului nostru.
Ultimele ştiri

Riscul ascuns al tranzacționării în lanț

by Alisa Davidson
Martie 10, 2026

Calmul dinaintea furtunii Solana: Ce spun acum graficele, balenele și semnalele on-chain

Solana a demonstrat o performanță solidă, determinată de creșterea adopției, a interesului instituțional și a parteneriatelor cheie, confruntându-se în același timp cu potențiale...

Aflați mai multe

Criptomonedele în aprilie 2025: tendințe cheie, schimbări și ce urmează

În aprilie 2025, spațiul criptomonedelor s-a concentrat pe consolidarea infrastructurii de bază, Ethereum pregătindu-se pentru Pectra...

Aflați mai multe
Citește mai mult
Află mai multe
Ripple își asigură calea către licența australiană pentru servicii financiare, extinzându-și astfel aria de reglementare în Asia-Pacific
Afaceri Buletin de stiri Tehnologia
Ripple își asigură calea către licența australiană pentru servicii financiare, extinzându-și astfel aria de reglementare în Asia-Pacific
Martie 11, 2026
Fondatorul Aave solicită consolidarea reformei guvernării DAO DeFi Creștere
Buletin de stiri Tehnologia
Fondatorul Aave solicită consolidarea reformei guvernării DAO DeFi Creștere
Martie 11, 2026
Instituționale de top și Web3 Evenimente la care să participați în timpul Săptămânii EthCC 2026 de la Cannes
Hack Seasons Liste de top Afaceri Stil de viață pieţe Buletin de stiri
Instituționale de top și Web3 Evenimente la care să participați în timpul Săptămânii EthCC 2026 de la Cannes
Martie 10, 2026
Riscul ascuns al tranzacționării în lanț
Buletin de stiri Tehnologia
Riscul ascuns al tranzacționării în lanț
Martie 10, 2026
CRYPTOMERIA LABS PTE. LTD.