AI Wiki Tehnologia
18 Mai, 2023

Top 10 AI și ChatGPT Riscuri și pericole în 2023

Odată cu progresele inteligenței artificiale (AI) și tehnologiei chatbot, mai multe companii urmăresc soluții automate de servicii pentru clienți ca mijloc de a-și îmbunătăți experiența clienților și de a reduce costurile generale. Deși există multe beneficii în folosirea modelelor AI și a soluțiilor de chatbot, rămân, de asemenea, diverse riscuri și pericole asociate cu tehnologia, în special pe măsură ce acestea devin mai răspândite și integrate în viața noastră de zi cu zi în următorul deceniu.

Săptămâna aceasta, toată lumea din Senatul SUA l-a ascultat pe Sam Altman vorbind despre reglementarea și riscurile modelelor AI. Iată o descriere de bază:

Arme biologice

Arme biologice
@Midjourney

Utilizarea inteligenței artificiale (AI) în dezvoltarea armelor biologice prezintă un mod periculos de metodic și eficient de a crea arme puternice și letale de distrugere în masă. ChatGPT roboţii sunt asistenți de conversație bazați pe inteligență artificială care sunt capabili să țină conversații realiste cu oameni. Preocuparea cu ChatGPT boții este că au potențialul de a fi folosiți pentru a răspândi informații false și pentru a manipula mințile pentru a influența opinia publică.

Am avertizat despre posibila utilizare greșită a IA în crearea de arme biologice și am subliniat necesitatea unei reglementări pentru a preveni astfel de scenarii.

Sam Altman

Reglementarea este o componentă cheie pentru prevenirea utilizării abuzive a IA și ChatGPT roboți în dezvoltarea și desfășurarea armelor biologice. Guvernele trebuie să dezvolte planuri naționale de acțiune pentru a aborda potențiala utilizare abuzivă a tehnologiei, iar companiile ar trebui să răspundă pentru orice potențială utilizare abuzivă a acestora. AI și ChatGPT roboţii. Organizațiile internaționale ar trebui să investească în inițiative care se concentrează pe formare, monitorizare și educare AI și ChatGPT roboții.

Pierderea locului de muncă

Pierderea locului de muncă
@Midjourney

Potențialul de pierdere a locurilor de muncă din cauza AI și ChatGPT în 2023 se estimează că va fi de trei ori mai mult decât în ​​2020. AI și ChatGPT poate duce la creșterea insecurității la locul de muncă, la considerente etice și la impact psihologic asupra lucrătorilor. AI și ChatGPT poate fi folosit pentru a monitoriza comportamentul și activitățile angajaților, permițând angajatorilor să ia decizii rapid și fără a necesita implicarea personalului uman. În plus, AI și ChatGPT poate provoca decizii nedrepte și părtinitoare care pot duce la insecuritate financiară, socială și emoțională la locul de muncă.

Am subliniat că dezvoltarea IA ar putea duce la pierderi semnificative de locuri de muncă și la creșterea inegalității.

Sam Altman

Regulamentul AI

Regulamentul AI
@Midjourney

Acest articol explorează riscuri potențiale și pericolele din jurul AI și ChatGPT reglementare în 2023. AI și ChatGPT tehnici de poate fi folosit pentru a efectua activități potențial rău intenționate, cum ar fi profilarea persoanelor pe baza comportamentelor și activităților acestora. O lipsă de corectitudine Regulamentul AI ar putea duce la consecințe nedorite, cum ar fi încălcarea datelor sau discriminarea. Reglementarea AI poate ajuta la atenuarea acestui risc prin stabilirea unor linii directoare stricte pentru a asigura acest lucru ChatGPT sisteme nu sunt utilizate într-un mod rău intenționat. În cele din urmă, AI și ChatGPT ar putea deveni un factor de control în viețile noastre, controlând lucruri precum fluxul de trafic și piețele financiare și chiar fiind folosite pentru a ne influența viața politică și socială. Pentru a preveni acest tip de dezechilibru de putere, trebuie implementate reglementări stricte.

Am sugerat crearea unei noi agenții pentru licențiere și reglementează AI activități dacă capacitățile lor depășesc un anumit prag.

Sam Altman

Standarde de securitate

Standarde de securitate
@Midjourney

Tehnologiile AI și chatbot provoacă un progres în modul în care ne gestionăm viața de zi cu zi. Pe măsură ce aceste tehnologii devin mai avansate, ele au potențialul de a deveni autonome și de a lua decizii pe cont propriu. Pentru a preveni acest lucru, standarde de securitate trebuie stabilit că aceste modele trebuie să se întâlnească înainte de a putea fi implementate. Unul dintre principalele standarde de securitate propuse de Altman în 2023 este un test pentru auto-replicare, care ar asigura că modelul AI nu se poate autoreplica fără autorizație. Al doilea standard de securitate propus de Altman în 2023 este un test pentru exfiltrarea datelor, care ar asigura că modelele AI nu sunt capabile să exfiltreze datele dintr-un sistem fără autorizație. Guvernele din întreaga lume au început să acționeze pentru a proteja cetățenii de potențiale riscuri.

Trebuie să implementăm standarde de securitate pe care modelele AI trebuie să le îndeplinească înainte de implementare, inclusiv teste pentru auto-replicare și exfiltrare a datelor.

Sam Altman

Audituri independente

Audituri independente
@Midjourney

În 2023, nevoia de audituri independente ale tehnologiilor AI și LLM devine din ce în ce mai importantă. AI prezintă o varietate de riscuri, cum ar fi algoritmi de învățare automată nesupravegheați care pot modifica și chiar șterge datele involuntar, iar atacurile cibernetice vizează din ce în ce mai mult AI și ChatGPT. Modelele create de IA încorporează părtiniri, ceea ce poate duce la practici discriminatorii. Un audit independent ar trebui să includă o revizuire a modelează AI este antrenat, designul algoritmului și rezultatul modelului pentru a vă asigura că nu afișează codare părtinitoare sau rezultate. În plus, auditul ar trebui să includă o revizuire a politicilor și procedurilor de securitate utilizate pentru a proteja datele utilizatorului și să asigure un mediu sigur.

Auditurile independente să fie efectuate pentru a se asigura că modelele AI îndeplinesc standardele de securitate stabilite.

Sam Altman

Fără un audit independent, companiile și utilizatorii sunt expuși potențial periculos și riscuri costisitoare care ar fi putut fi evitate. Este esențial ca toate companiile care utilizează această tehnologie să aibă un audit independent finalizat înainte de implementare pentru a se asigura că tehnologia este sigură și etică.

AI ca instrument

AI ca instrument
@Midjourney

AI s-a dezvoltat exponențial și progrese precum GPT-4 au condus la interacțiuni mai realiste și mai sofisticate cu computerele. Cu toate acestea, Altman a subliniat că AI ar trebui văzută ca instrumente, nu ca creaturi sensibile. GPT-4 este un model de procesare a limbajului natural care poate genera conținut aproape imposibil de distins de conținutul scris de oameni, luând o parte din munca de la scriitori și permițând utilizatorilor să aibă o experiență mai umană cu tehnologia.

AI, în special modele avansate, cum ar fi GPT-4, ar trebui privite ca instrumente, nu ființe simțitoare.

Sam Altman

Cu toate acestea, Sam Altman avertizează că prea mult accent pe inteligența artificială ca mai mult decât un instrument poate duce la așteptări nerealiste și convingeri false despre capacitățile sale. El subliniază, de asemenea, că inteligența artificială nu este lipsită de implicațiile sale etice și că, chiar dacă nivelurile avansate de inteligență artificială pot fi folosite în bine, ar putea fi totuși folosite în rău, ceea ce duce la profiluri rasiale periculoase, încălcări de confidențialitate, și chiar amenințări de securitate. Altman subliniază importanța înțelegerii AI este doar un instrument și că ar trebui privit ca un instrument pentru a accelera progresul uman, nu pentru a înlocui oamenii.

Conștiința AI

Conștiința AI
@Midjourney

Dezbaterea cu privire la inteligența artificială și dacă poate sau nu obține o conștientizare conștientă a crescut. Mulți cercetători susțin că mașinile sunt incapabile să experimenteze stări emoționale, mentale sau conștiente, în ciuda arhitecturii lor computaționale complexe. Unii cercetători acceptă posibilitatea ca AI să obțină o conștientizare conștientă. Principalul argument pentru această posibilitate este că AI este construit pe programe care o fac capabilă replicând anumite procese fizice și mentale găsite în creierul uman. Cu toate acestea, principalul contraargument este că AI nu are inteligență emoțională reală.

Deși AI ar trebui văzută ca un instrument, recunosc dezbaterea în curs în comunitatea științifică cu privire la potențiala conștiință a AI.

Sam Altman

Mulți cercetători AI sunt de acord că nu există nicio dovadă științifică care să sugereze că IA este capabilă să obțină conștientizarea conștientă în același mod în care o poate fi umană. Elon Musk, unul dintre cei mai vocali susținători ai acestui punct de vedere, consideră că capacitatea AI de a imita formele biologice de viață este extrem de limitată și ar trebui să se pună mai mult accent pe mașinile de predare a valorilor etice.

Aplicații militare

Aplicații militare
@Midjourney

IA în contexte militare avansează rapid și are potențialul de a îmbunătăți modul în care armatele desfășoară războiul. Oamenii de știință se tem că IA în armată ar putea prezenta o serie de probleme etice și legate de riscuri, cum ar fi imprevizibilitatea, incalculabilitatea și lipsa de transparență.

Recunosc potențialul utilizării AI în aplicații militare, cum ar fi dronele autonome și am cerut reglementări care să guverneze o astfel de utilizare.

Sam Altman

Sistemele AI sunt vulnerabile în fața actorilor rău intenționați care ar putea fie să reprograma sistemele, fie să se infiltreze în sisteme, ceea ce poate duce la un rezultat devastator. Pentru a aborda acestea Preocupări, comunitatea internațională a făcut un prim pas sub forma Convenției sale internaționale privind anumite arme convenționale din 1980, care prevede anumite interdicții privind utilizarea anumitor arme. Experții în IA au pledat pentru un Comitet Internațional care să supravegheze procese precum evaluarea, instruirea și desfășurarea AI în aplicațiile militare.

AGI

AGI
@Midjourney

Tehnologia AI devine din ce în ce mai avansată și omniprezentă, ceea ce face importantă înțelegerea riscurilor potențiale prezentate de agenții și sistemele AI. Primul și cel mai evident risc asociat agenților AI este pericolul ca mașinile să depășească oamenii. Agenții AI își pot depăși cu ușurință creatorii preluând luarea deciziilor, procesele de automatizare și alte sarcini avansate. În plus, automatizarea bazată pe inteligență artificială ar putea crește inegalitatea, deoarece înlocuiește oamenii în piața locurilor de muncă.

Avertizez că sistemele AI mai puternice și mai complexe pot fi mai aproape de realitate decât cred mulți și am subliniat necesitatea măsurilor de pregătire și de prevenire.

Sam Altman

Algoritmii AI și utilizarea lor în procesul de luare a deciziilor complexe ridică o preocupare pentru lipsa de transparență. Organizațiile pot atenuarea riscurilor asociat cu agenții AI, asigurându-se în mod proactiv că IA este dezvoltată etic, folosind date care sunt conforme cu standardele etice și supunând algoritmii unor teste de rutină pentru a se asigura că nu sunt părtinitori și sunt responsabili cu utilizatorii și datele.

Concluzie

Altman a mai spus că, deși este posibil să nu putem gestiona China, trebuie să negociem cu ea. Criteriile propuse de evaluare şi modelele de reglementare AI includ capacitatea de a sintetiza probe biologice, manipularea credințelor oamenilor, cantitatea de putere de procesare cheltuită și așa mai departe.

O temă semnificativă este că Sam ar trebui să aibă „relații” cu statul. Sperăm că nu vor urma exemplul Europei, așa cum am menționat anterior.

Întrebări frecvente

Riscurile legate de inteligența artificială includ potențialul ca sistemele de inteligență artificială să manifeste un comportament părtinitor sau discriminatoriu, să fie utilizate în mod rău intenționat sau inadecvat sau să funcționeze defectuos în moduri care provoacă prejudicii. Dezvoltarea și implementarea tehnologiilor AI pot prezenta riscuri pentru confidențialitate și securitatea datelor, precum și pentru siguranța și securitatea oamenilor și a sistemelor.

Cele cinci riscuri principale asociate cu IA sunt: ​​pierderea locurilor de muncă, Riscuri de securitate, Prejudecăți sau discriminare, Arme biologice și AGI.

Cel mai periculos aspect al IA este potențialul său de a provoca șomaj în masă.

Declinare a responsabilităţii

În conformitate cu Ghidurile proiectului Trust, vă rugăm să rețineți că informațiile furnizate pe această pagină nu sunt destinate și nu trebuie interpretate ca fiind consiliere juridică, fiscală, investițională, financiară sau orice altă formă de consiliere. Este important să investești doar ceea ce îți poți permite să pierzi și să cauți sfaturi financiare independente dacă ai îndoieli. Pentru informații suplimentare, vă sugerăm să consultați termenii și condițiile, precum și paginile de ajutor și asistență furnizate de emitent sau agent de publicitate. MetaversePost se angajează să raporteze corecte, imparțial, dar condițiile de piață pot fi modificate fără notificare.

Despre autor

Damir este liderul echipei, manager de produs și editor la Metaverse Post, care acoperă subiecte precum AI/ML, AGI, LLM-uri, Metaverse și Web3-domenii conexe. Articolele sale atrag o audiență masivă de peste un milion de utilizatori în fiecare lună. El pare a fi un expert cu 10 ani de experiență în SEO și marketing digital. Damir a fost menționat în Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto și alte publicații. Călătorește între Emiratele Arabe Unite, Turcia, Rusia și CSI ca nomad digital. Damir a obținut o diplomă de licență în fizică, despre care crede că i-a oferit abilitățile de gândire critică necesare pentru a avea succes în peisajul în continuă schimbare al internetului. 

Mai multe articole
Damir Yalalov
Damir Yalalov

Damir este liderul echipei, manager de produs și editor la Metaverse Post, care acoperă subiecte precum AI/ML, AGI, LLM-uri, Metaverse și Web3-domenii conexe. Articolele sale atrag o audiență masivă de peste un milion de utilizatori în fiecare lună. El pare a fi un expert cu 10 ani de experiență în SEO și marketing digital. Damir a fost menționat în Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto și alte publicații. Călătorește între Emiratele Arabe Unite, Turcia, Rusia și CSI ca nomad digital. Damir a obținut o diplomă de licență în fizică, despre care crede că i-a oferit abilitățile de gândire critică necesare pentru a avea succes în peisajul în continuă schimbare al internetului. 

Hot Stories
Alăturați-vă Newsletter-ului nostru.
Ultimele ştiri

Apetitul instituțional crește față de ETF-urile Bitcoin pe fondul volatilității

Dezvăluirile prin dosarele 13F dezvăluie investitori instituționali de seamă care se amestecă în ETF-uri Bitcoin, subliniind o acceptare tot mai mare a...

Aflați mai multe

Sosește ziua sentinței: soarta lui CZ este în echilibru, în timp ce tribunalul american ia în considerare pledoaria DOJ

Changpeng Zhao este pe cale de a fi condamnat astăzi într-un tribunal american din Seattle.

Aflați mai multe
Alăturați-vă comunității noastre tehnologice inovatoare
Citeste mai mult
Află mai multe
Stacks, Moonriver Network, Hedera și Iron Fish vor participa la programul de amplificator interchain al Axelar
Buletin de stiri Tehnologia
Stacks, Moonriver Network, Hedera și Iron Fish vor participa la programul de amplificator interchain al Axelar
7 Mai, 2024
Tesla îmbrățișează Dogecoin: spor major pentru moneda Meme, deoarece devine o opțiune de plată pe magazinul online Tesla
pieţe Povești și recenzii Tehnologia
Tesla îmbrățișează Dogecoin: spor major pentru moneda Meme, deoarece devine o opțiune de plată pe magazinul online Tesla
7 Mai, 2024
Morph își prezintă rețeaua Holesky Testnet cu integrare optimistă zkEVM, mecanism de punte și caracteristici de rețea de secvențiere descentralizate
Buletin de stiri Tehnologia
Morph își prezintă rețeaua Holesky Testnet cu integrare optimistă zkEVM, mecanism de punte și caracteristici de rețea de secvențiere descentralizate
6 Mai, 2024
Robinhood Crypto primește o notificare Wells de la Securities and Exchange Commission cu privire la presupuse încălcări ale valorilor mobiliare
pieţe Buletin de stiri Tehnologia
Robinhood Crypto primește o notificare Wells de la Securities and Exchange Commission cu privire la presupuse încălcări ale valorilor mobiliare
6 Mai, 2024
CRYPTOMERIA LABS PTE. LTD.