AI Wiki Tehnologija
Neka 18, 2023

10 najboljih AI i ChatGPT Rizici i opasnosti u 2023

S napretkom umjetne inteligencije (AI) i chatbot tehnologije, sve više tvrtki teži automatiziranim rješenjima za korisničku podršku kao sredstvu za poboljšanje korisničkog iskustva i smanjenje režijskih troškova. Iako postoje mnoge prednosti korištenja modela umjetne inteligencije i rješenja za chatbot, također ostaju različiti rizici i opasnosti povezani s tehnologijom, osobito budući da postaju sve prodornije i integrirane u naše svakodnevne živote tijekom sljedećeg desetljeća.

Ovaj tjedan svi u američkom Senatu slušali su Sama Altmana kako govori o regulaciji i rizicima AI modela. Evo osnovnog pregleda:

Biološko oružje

Biološko oružje
@Midjourney

Korištenje umjetne inteligencije (AI) u razvoju biološkog oružja predstavlja opasno metodičan i učinkovit način stvaranja snažnog i smrtonosnog oružja za masovno uništenje. ChatGPT robota su pomoćnici za razgovor vođeni umjetnom inteligencijom koji su sposobni voditi realistične razgovore s ljudima. Zabrinutost sa ChatGPT botova je da imaju potencijal da se koriste za širenje lažnih informacija i manipuliranje umovima kako bi se utjecalo javno mišljenje.

Upozorio sam na moguću zlouporabu umjetne inteligencije u stvaranju biološkog oružja i naglasio potrebu za regulativom koja bi spriječila takve scenarije.

Sam Altman

Regulacija je ključna komponenta za sprječavanje zlouporabe umjetne inteligencije i ChatGPT robota u razvoju i upotrebi biološkog oružja. Vlade trebaju razviti nacionalne akcijske planove za rješavanje potencijalne zlouporabe tehnologije, a tvrtke bi trebale biti odgovorne za svaku potencijalnu zlouporabu svojih AI i ChatGPT robota. Međunarodne organizacije trebale bi ulagati u inicijative koje su usredotočene na obuku, praćenje i obrazovanje AI i ChatGPT botovi.

Gubitak posla

Gubitak posla
@Midjourney

Mogućnost gubitka posla zbog umjetne inteligencije i ChatGPT u 2023. predviđa se da će biti tri puta više nego što je bilo u 2020. AI i ChatGPT može dovesti do povećane nesigurnosti na radnom mjestu, etičkih razmatranja i psihološkog utjecaja na radnike. AI i ChatGPT može se koristiti za praćenje ponašanja i aktivnosti zaposlenika, omogućujući poslodavcima brzo donošenje odluka i bez potrebe za uključivanjem ljudskog osoblja. Osim toga, AI i ChatGPT može uzrokovati nepravedne i pristrane odluke koje mogu dovesti do financijske, društvene i emocionalne nesigurnosti na radnom mjestu.

Naglasio sam da bi razvoj umjetne inteligencije mogao dovesti do značajnog gubitka radnih mjesta i povećanja nejednakosti.

Sam Altman

Uredba AI

Uredba AI
@Midjourney

Ovaj članak istražuje potencijalni rizici i opasnosti koje okružuju AI i ChatGPT regulacija u 2023. AI i ChatGPT Tehnike može se koristiti za izvođenje potencijalno zlonamjernih aktivnosti, kao što je profiliranje ljudi na temelju njihova ponašanja i aktivnosti. Nedostatak odgovarajućeg AI regulacija može dovesti do neželjenih posljedica, poput povrede podataka ili diskriminacije. Propisi o umjetnoj inteligenciji mogu pomoći u ublažavanju ovog rizika postavljanjem strogih smjernica kako bi se to osiguralo ChatGPT sustavi ne koriste se na zlonamjeran način. Konačno, AI i ChatGPT mogao postati kontrolni čimbenik u našim životima, kontrolirajući stvari poput protoka prometa i financijskih tržišta, pa čak i biti korišten za utjecaj na naše političke i društvene živote. Kako bi se spriječila ovakva neravnoteža snage, potrebno je primijeniti stroge propise.

Predložili smo osnivanje nove agencije za licenciranje i regulirati AI aktivnosti ako njihove sposobnosti prelaze određeni prag.

Sam Altman

Sigurnosni standardi

Sigurnosni standardi
@Midjourney

AI i chatbot tehnologije uzrokuju napredak u načinu na koji upravljamo svakodnevnim životom. Kako te tehnologije postaju sve naprednije, one imaju potencijal postati autonomne i samostalno donositi odluke. Da biste to spriječili, sigurnosni standardi mora se utvrditi da ti modeli moraju zadovoljiti prije nego što se mogu implementirati. Jedan od glavnih sigurnosnih standarda koji je predložio Altman 2023. je test za samoreplikaciju, koji bi osigurao da se AI model ne može samoreplicirati bez autorizacije. Drugi sigurnosni standard koji je predložio Altman 2023. je test za eksfiltraciju podataka, koji bi osigurao da AI modeli ne mogu neovlašteno eksfiltrirati podatke iz sustava. Vlade diljem svijeta počele su djelovati kako bi zaštitile građane od potencijalnih rizika.

Moramo implementirati sigurnosne standarde koje AI modeli moraju zadovoljiti prije implementacije, uključujući testove za samoreplikaciju i eksfiltraciju podataka.

Sam Altman

Neovisne revizije

Neovisne revizije
@Midjourney

U 2023. potreba za neovisnim revizijama AI i LLM tehnologija postaje sve važnija. AI predstavlja različite rizike, kao što su nenadzirani algoritmi strojnog učenja koji mogu nenamjerno mijenjati, pa čak i brisati podatke, a kibernetički napadi sve više ciljaju AI i ChatGPT. Modeli stvoreni umjetnom inteligencijom uključuju pristranost, što može dovesti do diskriminatorne prakse. Neovisna revizija trebala bi uključivati ​​pregled modelira AI obučava se o dizajnu algoritma i izlazu modela kako bi se osiguralo da ne prikazuje pristrano kodiranje ili rezultate. Dodatno, revizija bi trebala uključivati ​​pregled sigurnosnih politika i postupaka koji se koriste za zaštitu korisnicki podaci i osigurati sigurno okruženje.

Provesti će se neovisne revizije kako bi se osiguralo da modeli umjetne inteligencije zadovoljavaju utvrđene sigurnosne standarde.

Sam Altman

Bez neovisne revizije, tvrtke i korisnici izloženi su potencijalno opasno i skupe rizike koji su se mogli izbjeći. Od ključne je važnosti da sve tvrtke koje koriste ovu tehnologiju imaju neovisnu reviziju prije implementacije kako bi se osiguralo da je tehnologija sigurna i etična.

AI kao alat

AI kao alat
@Midjourney

AI se eksponencijalno razvio, i napredovanja poput GPT-4 doveli su do realističnije i sofisticiranije interakcije s računalima. Međutim, Altman je naglasio da AI treba promatrati kao alate, a ne kao živa bića. GPT-4 je model obrade prirodnog jezika koji može generirati sadržaj koji se gotovo ne razlikuje od sadržaja koji su napisali ljudi, oduzimajući dio posla piscima i dopuštajući korisnicima da imaju više ljudsko iskustvo s tehnologijom.

AI, posebno napredni modeli kao što su GPT-4, treba promatrati kao alate, a ne kao živa bića.

Sam Altman

Međutim, Sam Altman upozorava da preveliki naglasak na umjetnoj inteligenciji kao više od alata može dovesti do nerealnih očekivanja i lažnih uvjerenja o njezinim sposobnostima. Također ističe da umjetna inteligencija nije bez svojih etičkih implikacija, te da čak i ako se napredne razine umjetne inteligencije mogu koristiti za dobro, još uvijek se mogu koristiti za loše, što dovodi do opasnog rasnog profiliranja, kršenja privatnosti, pa čak i sigurnosne prijetnje. Altman naglašava važnost razumijevanja da je umjetna inteligencija samo alat i da je treba promatrati kao alat za ubrzavanje ljudskog napretka, a ne kao zamjenu za ljude.

AI svijest

AI svijest
@Midjourney

Rasprava o umjetnoj inteligenciji i može li ili ne postići svjesnu svijest raste. Mnogi istraživači tvrde da strojevi nisu sposobni iskusiti emocionalna, mentalna ili svjesna stanja, unatoč njihovoj složenoj arhitekturi računanja. Neki istraživači prihvaćaju mogućnost da AI postiže svjesnu svijest. Glavni argument za ovu mogućnost je da je AI izgrađen na programima koji ga čine sposobnim za repliciranje određeni fizički i mentalni procesi koji se nalaze u ljudskom mozgu. Međutim, glavni protuargument je da umjetna inteligencija nema stvarnu emocionalnu inteligenciju.

Iako bi se umjetna inteligencija trebala promatrati kao alat, priznajem stalnu raspravu u znanstvenoj zajednici o potencijalnoj svijesti o umjetnoj inteligenciji.

Sam Altman

Mnogi istraživači umjetne inteligencije slažu se da ne postoje znanstveni dokazi koji bi sugerirali da je umjetna inteligencija sposobna postići svjesnu svijest na isti način na koji to može ljudsko biće. Elon Musk, jedan od najglasnijih zagovornika ovog stajališta, vjeruje da je sposobnost umjetne inteligencije da oponaša biološke oblike života krajnje ograničena i da bi se veći naglasak trebao staviti na učenje strojeva etičkim vrijednostima.

Vojne primjene

Vojne primjene
@Midjourney

AI u vojnom kontekstu brzo napreduje i ima potencijal poboljšati način na koji vojske vode rat. Znanstvenici se brinu da bi umjetna inteligencija u vojsci mogla predstavljati niz etičkih problema i problema povezanih s rizikom, poput nepredvidivosti, neuračunljivosti i nedostatka transparentnosti.

Prepoznajem potencijal korištenja umjetne inteligencije u vojnim aplikacijama kao što su autonomni dronovi i pozivam na to propisi kojima se upravlja takvu upotrebu.

Sam Altman

Sustavi umjetne inteligencije ranjivi su na zlonamjerne aktere koji bi mogli ili reprogramirati sustave ili se infiltrirati u sustave, što potencijalno može dovesti do razornog ishoda. Za rješavanje ovih zabrinutost, međunarodna zajednica poduzela je prvi korak u obliku svoje Međunarodne konvencije o određenim konvencionalnim oružjima iz 1980. godine, koja postavlja određene zabrane na korištenje određenih oružja. Stručnjaci za umjetnu inteligenciju zagovarali su Međunarodni odbor koji bi nadgledao procese kao što su evaluacija, obuka i implementacija umjetne inteligencije u vojne primjene.

AGI

AGI
@Midjourney

Tehnologija umjetne inteligencije postaje sve naprednija i sveprisutnija, zbog čega je važno razumjeti potencijalne rizike koje predstavljaju agenti i sustavi umjetne inteligencije. Prvi i najočitiji rizik povezan s agentima umjetne inteligencije jest opasnost da strojevi nadmudre ljude. AI agenti mogu lako nadmašiti svoje kreatore preuzimanjem donošenja odluka, procesa automatizacije i drugih naprednih zadataka. Osim toga, automatizacija koju pokreće AI mogla bi povećati nejednakost jer zamjenjuje ljude u tržište rada.

Upozoravam da bi moćniji i složeniji sustavi umjetne inteligencije mogli biti bliži stvarnosti nego što mnogi misle i naglašavaju potrebu za pripravnošću i preventivnim mjerama.

Sam Altman

Algoritmi umjetne inteligencije i njihova upotreba u složenom donošenju odluka izazivaju zabrinutost zbog nedostatka transparentnosti. Organizacije mogu ublažiti rizike povezani s agentima umjetne inteligencije proaktivno osiguravajući da se umjetna inteligencija razvija etički, koristeći podatke koji su u skladu s etičkim standardima i podvrgavaju algoritme rutinskim testovima kako bi se osiguralo da nisu pristrani i odgovorni prema korisnicima i podacima.

Zaključak

Altman je također izjavio da iako možda ne možemo upravljati Kinom, moramo pregovarati s njom. Predloženi kriteriji za ocjenjivanje i reguliranje AI modeli uključuju sposobnost sintetiziranja bioloških uzoraka, manipulacija uvjerenjima ljudi, količina utrošene procesorske snage, i tako dalje.

Značajna tema je da Sam treba imati "odnose" s državom. Nadamo se da neće slijediti primjer Europe, kao što smo već spomenuli.

PITANJA I ODGOVORI

Rizici umjetne inteligencije uključuju mogućnost da se sustavi umjetne inteligencije ponašaju pristrano ili diskriminirajuće, da se koriste zlonamjerno ili neprikladno ili da ne rade ispravno na načine koji uzrokuju štetu. Razvoj i implementacija AI tehnologija može predstavljati rizike za privatnost i sigurnost podataka, kao i za sigurnost i sigurnost ljudi i sustava.

Pet glavnih rizika povezanih s umjetnom inteligencijom su: gubitak posla, Sigurnosni rizici, Predrasude ili diskriminacija, Biološko oružje i AGI.

Najopasniji aspekt umjetne inteligencije je njezin potencijal da izazove masovnu nezaposlenost.

Izjava o odricanju od odgovornosti

U skladu s Smjernice projekta povjerenja, imajte na umu da informacije navedene na ovoj stranici nemaju namjeru i ne smiju se tumačiti kao pravni, porezni, investicijski, financijski ili bilo koji drugi oblik savjeta. Važno je ulagati samo ono što si možete priuštiti izgubiti i potražiti neovisni financijski savjet ako imate bilo kakvih nedoumica. Za dodatne informacije predlažemo da pogledate odredbe i uvjete, kao i stranice za pomoć i podršku koje pruža izdavatelj ili oglašivač. MetaversePost je predan točnom, nepristranom izvješćivanju, ali tržišni uvjeti podložni su promjenama bez prethodne najave.

O autoru

Damir je voditelj tima, product manager i urednik u Metaverse Post, koji pokriva teme kao što su AI/ML, AGI, LLMs, Metaverse i Web3- srodna polja. Njegovi članci privlače ogromnu publiku od preko milijun korisnika svakog mjeseca. Čini se da je stručnjak s 10 godina iskustva u SEO-u i digitalnom marketingu. Damir je spomenut u Mashableu, Wiredu, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i druge publikacije. Putuje između UAE, Turske, Rusije i CIS-a kao digitalni nomad. Damir je stekao diplomu prvostupnika fizike, za koju vjeruje da mu je dala vještine kritičkog razmišljanja potrebne za uspjeh u stalno promjenjivom okruženju interneta. 

Više članaka
Damir Yalalov
Damir Yalalov

Damir je voditelj tima, product manager i urednik u Metaverse Post, koji pokriva teme kao što su AI/ML, AGI, LLMs, Metaverse i Web3- srodna polja. Njegovi članci privlače ogromnu publiku od preko milijun korisnika svakog mjeseca. Čini se da je stručnjak s 10 godina iskustva u SEO-u i digitalnom marketingu. Damir je spomenut u Mashableu, Wiredu, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i druge publikacije. Putuje između UAE, Turske, Rusije i CIS-a kao digitalni nomad. Damir je stekao diplomu prvostupnika fizike, za koju vjeruje da mu je dala vještine kritičkog razmišljanja potrebne za uspjeh u stalno promjenjivom okruženju interneta. 

Institucionalni apetit raste prema Bitcoin ETF-ovima usred volatilnosti

Objave putem 13F prijava otkrivaju značajne institucionalne ulagače koji se upuštaju u Bitcoin ETF-ove, naglašavajući sve veće prihvaćanje ...

Znati više

Stiže dan izricanja presude: CZ-ova sudbina visi na ravnoteži dok američki sud razmatra izjavu DOJ-a

Changpeng Zhao danas će se suočiti s kaznom na američkom sudu u Seattleu.

Znati više
Pridružite se našoj zajednici inovativnih tehnologija
opširnije
Čitaj više
Stacks, Moonriver Network, Hedera i Iron Fish za sudjelovanje u Axelarovom Interchain Amplifier programu
Vijesti Tehnologija
Stacks, Moonriver Network, Hedera i Iron Fish za sudjelovanje u Axelarovom Interchain Amplifier programu
Neka 7, 2024
Tesla prihvaća Dogecoin: veliki poticaj za Meme Coin jer postaje opcija plaćanja u Teslinoj internetskoj trgovini
tržišta Priče i recenzije Tehnologija
Tesla prihvaća Dogecoin: veliki poticaj za Meme Coin jer postaje opcija plaćanja u Teslinoj internetskoj trgovini
Neka 7, 2024
Morph predstavlja svoj Holesky Testnet s optimističkom zkEVM integracijom, mehanizmom mosta i značajkama mreže decentraliziranog sekvencera
Vijesti Tehnologija
Morph predstavlja svoj Holesky Testnet s optimističkom zkEVM integracijom, mehanizmom mosta i značajkama mreže decentraliziranog sekvencera
Neka 6, 2024
Robinhood Crypto prima obavijest Wellsa od Komisije za vrijednosne papire i burzu zbog navodnih kršenja vrijednosnih papira
tržišta Vijesti Tehnologija
Robinhood Crypto prima obavijest Wellsa od Komisije za vrijednosne papire i burzu zbog navodnih kršenja vrijednosnih papira
Neka 6, 2024
CRYPTOMERIA LABS PTE. LTD.