AI Wiki Teknologier
Maj 18, 2023

Top 10 AI og ChatGPT Risici og farer i 2023

Med fremskridtene inden for kunstig intelligens (AI) og chatbot-teknologi forfølger flere virksomheder automatiserede kundeserviceløsninger som et middel til at forbedre deres kundeoplevelse og reducere overheadomkostninger. Selvom der er mange fordele ved at udnytte AI-modeller og chatbot-løsninger, er der også stadig forskellige risici og farer forbundet med teknologien, især da de bliver mere gennemgående og integreret i vores daglige liv i løbet af det kommende årti.

I denne uge lyttede alle i det amerikanske senat til Sam Altman tale om reguleringen og risiciene ved AI-modeller. Her er en grundlæggende gennemgang:

biovåben

biovåben
@Midjourney

Brugen af ​​kunstig intelligens (AI) i udviklingen af ​​biovåben præsenterer en farlig metodisk og effektiv måde at skabe kraftfulde og dødelige masseødelæggelsesvåben. ChatGPT bots er AI-drevne samtaleassistenter, der er i stand til at føre livagtige samtaler med mennesker. Bekymringen med ChatGPT bots er, at de har potentialet til at blive brugt til at sprede falsk information og manipulere sind for at påvirke offentlige mening.

Jeg advarede om mulig misbrug af kunstig intelligens til at skabe biologiske våben og understregede behovet for regulering for at forhindre sådanne scenarier.

Sam Altman

Regulering er en nøglekomponent til at forhindre misbrug af kunstig intelligens og ChatGPT bots i udvikling og implementering af biovåben. Regeringer er nødt til at udvikle nationale handlingsplaner for at imødegå det potentielle misbrug af teknologien, og virksomheder bør holdes ansvarlige for ethvert potentielt misbrug af deres teknologi. AI og ChatGPT bots. Internationale organisationer bør investere i initiativer, der fokuserer på træning, overvågning og uddannelse af kunstig intelligens og ChatGPT bots.

Jobtab

Jobtab
@Midjourney

Potentialet for jobtab på grund af AI og ChatGPT i 2023 forventes at være tre gange mere, end det var i 2020. AI og ChatGPT kan føre til øget usikkerhed på arbejdspladsen, etiske overvejelser og psykologisk påvirkning af medarbejderne. AI og ChatGPT kan bruges til at overvåge medarbejdernes adfærd og aktiviteter, hvilket giver arbejdsgivere mulighed for at træffe beslutninger hurtigt og uden at kræve, at menneskeligt personale skal involveres. Derudover AI og ChatGPT kan forårsage uretfærdige og partiske beslutninger, der kan føre til økonomisk, social og følelsesmæssig usikkerhed på arbejdspladsen.

Jeg understregede, at udviklingen af ​​kunstig intelligens kunne føre til betydelige tab af arbejdspladser og øget ulighed.

Sam Altman

AI-forordningen

AI-forordningen
@Midjourney

Denne artikel udforsker potentielle risici og farer omkring AI og ChatGPT regulering i 2023. AI og ChatGPT teknikker kan bruges til at udføre potentielt ondsindede aktiviteter, såsom profilering af mennesker baseret på deres adfærd og aktiviteter. En mangel på ordentlig AI-regulering kan føre til utilsigtede konsekvenser, såsom databrud eller diskrimination. AI-regulering kan hjælpe med at mindske denne risiko ved at fastsætte strenge retningslinjer for at sikre det ChatGPT systemer ikke bruges på en ondsindet måde. Endelig AI og ChatGPT kunne blive en kontrollerende faktor i vores liv, kontrollere ting som trafikflow og finansielle markeder, og endda blive brugt til at påvirke vores politiske og sociale liv. For at forhindre denne form for magtubalance skal der implementeres strenge regler.

Vi foreslog at oprette et nyt bureau til at licensere og regulere AI aktiviteter, hvis deres kapacitet overstiger en vis tærskel.

Sam Altman

Sikkerhedsstandarder

Sikkerhedsstandarder
@Midjourney

AI og chatbot-teknologier forårsager fremskridt i den måde, vi styrer vores daglige liv på. Efterhånden som disse teknologier bliver mere avancerede, har de potentialet til at blive autonome og træffe beslutninger på egen hånd. For at forhindre dette, sikkerhedsstandarder skal fastslås, at disse modeller skal opfyldes, før de kan tages i brug. En af de vigtigste sikkerhedsstandarder foreslået af Altman i 2023 er en test for selvreplikering, som ville sikre, at AI-modellen ikke er i stand til selv at replikere uden autorisation. Den anden sikkerhedsstandard foreslået af Altman i 2023 er en test for dataeksfiltrering, som ville sikre, at AI-modeller ikke er i stand til at eksfiltrere data fra et system uden autorisation. Regeringer over hele verden er begyndt at handle for at beskytte borgerne mod de potentielle risici.

Vi er nødt til at implementere sikkerhedsstandarder, som AI-modeller skal opfylde før implementering, inklusive test for selvreplikering og dataeksfiltrering.

Sam Altman

Uafhængige revisioner

Uafhængige revisioner
@Midjourney

I 2023 bliver behovet for uafhængige revisioner af AI- og LLM-teknologier stadig vigtigere. AI udgør en række risici, såsom uovervågede Machine Learning-algoritmer, der kan ændre og endda slette data ufrivilligt, og cyberangreb er i stigende grad rettet mod AI og ChatGPT. AI-skabte modeller inkorporerer bias, som kan føre til diskriminerende praksis. En uafhængig revision bør omfatte en gennemgang af modellerer AI er trænet i, algoritmedesignet og modellens output for at sikre, at den ikke viser skæv kodning eller resultater. Derudover bør revisionen omfatte en gennemgang af sikkerhedspolitikker og -procedurer, der bruges til at beskytte brugerdata og sikre et sikkert miljø.

De uafhængige revisioner udføres for at sikre, at AI-modeller opfylder etablerede sikkerhedsstandarder.

Sam Altman

Uden en uafhængig revision bliver virksomheder og brugere udsat for potentielt farligt og dyre risici, der kunne have været undgået. Det er afgørende, at alle virksomheder, der bruger denne teknologi, får gennemført en uafhængig revision før implementering for at sikre, at teknologien er sikker og etisk.

AI som et værktøj

AI som et værktøj
@Midjourney

AI har udviklet sig eksponentielt, og fremskridt som GPT-4 har ført til mere realistiske og sofistikerede interaktioner med computere. Altman har dog understreget, at AI skal ses som værktøjer, ikke følende væsner. GPT-4 er en naturlig sprogbehandlingsmodel, der kan generere indhold, der næsten ikke kan skelnes fra menneskeskreven indhold, hvilket tager noget af arbejdet fra forfattere og giver brugerne mulighed for at få en mere menneskelignende oplevelse med teknologi.

AI, især avancerede modeller som f.eks GPT-4, skal ses som redskaber, ikke følende væsener.

Sam Altman

Sam Altman advarer dog om, at for meget vægt på kunstig intelligens som mere end et værktøj kan føre til urealistiske forventninger og falske overbevisninger om dets muligheder. Han påpeger også, at AI ikke er uden sine etiske implikationer, og at selvom avancerede niveauer af AI kan bruges til gode, kan det stadig bruges til dårligt, hvilket fører til farlig raceprofilering, krænkelser af privatlivets fred, og endda sikkerhedstrusler. Altman fremhæver vigtigheden af ​​at forstå, at AI kun er et værktøj, og at det skal ses som et værktøj til at accelerere menneskelige fremskridt, ikke til at erstatte mennesker.

AI-bevidsthed

AI-bevidsthed
@Midjourney

Debatten om AI, og hvorvidt den kan opnå bevidst bevidsthed eller ej, har været voksende. Mange forskere hævder, at maskiner er ude af stand til at opleve følelsesmæssige, mentale eller bevidste tilstande på trods af deres komplekse beregningsarkitektur. Nogle forskere accepterer muligheden for, at AI kan opnå bevidst bevidsthed. Hovedargumentet for denne mulighed er, at AI er bygget på programmer, der gør den i stand til replikere visse fysiske og mentale processer, der findes i den menneskelige hjerne. Det vigtigste modargument er dog, at AI ikke har nogen reel følelsesmæssig intelligens.

Selvom AI skal ses som et værktøj, anerkender jeg den igangværende debat i det videnskabelige samfund om potentiel AI-bevidsthed.

Sam Altman

Mange AI-forskere er enige om, at der ikke er noget videnskabeligt bevis for, at AI er i stand til at opnå bevidst bevidsthed på samme måde, som et menneske kan. Elon Musk, en af ​​de mest højlydte fortalere for dette synspunkt, mener, at AI's evne til at efterligne biologiske livsformer er ekstremt begrænset, og der bør lægges mere vægt på at lære maskiner etiske værdier.

Militære applikationer

Militære applikationer
@Midjourney

AI i militære sammenhænge er hurtigt fremme og har potentialet til at forbedre den måde, hvorpå militær udfører krigsførelse. Forskere bekymrer sig om, at kunstig intelligens i militæret kan frembyde en række etiske og risikorelaterede problemer, såsom uforudsigelighed, uoverskuelighed og manglen på gennemsigtighed.

Jeg anerkender potentialet ved at bruge kunstig intelligens i militære applikationer såsom autonome droner og efterlyste regler at styre sådan brug.

Sam Altman

AI-systemer er sårbare over for ondsindede aktører, som enten kan omprogrammere systemerne eller infiltrere systemerne, hvilket potentielt kan føre til et ødelæggende resultat. For at tage fat på disse bekymringer, har det internationale samfund taget et første skridt i form af sin internationale konvention om visse konventionelle våben fra 1980, som lægger visse forbud mod brugen af ​​visse våben. AI-eksperter har slået til lyd for en international komité til at føre tilsyn med processer såsom evaluering, træning og indsættelse af AI i militære applikationer.

AGI

AGI
@Midjourney

AI-teknologi bliver stadig mere avanceret og udbredt, hvilket gør det vigtigt at forstå de potentielle risici, som AI-agenter og -systemer udgør. Den første og mest åbenlyse risiko forbundet med AI-agenter er faren for, at maskiner overliste mennesker. AI-agenter kan nemt overgå deres skabere ved at overtage beslutningstagning, automatiseringsprocesser og andre avancerede opgaver. Derudover kunne AI-drevet automatisering øge uligheden, da den erstatter mennesker i jobmarkedet.

Jeg advarer om, at mere kraftfulde og komplekse AI-systemer kan være tættere på virkeligheden, end mange tror, ​​og understregede behovet for beredskab og forebyggende foranstaltninger.

Sam Altman

AI-algoritmer og deres brug i kompleks beslutningstagning giver anledning til bekymring for manglende gennemsigtighed. Organisationer kan mindske risiciene forbundet med AI-agenter ved proaktivt at sikre, at AI udvikles etisk, ved at bruge data, der er i overensstemmelse med etiske standarder, og udsætte algoritmer for rutinetests for at sikre, at de ikke er forudindtaget og er ansvarlige over for brugere og data.

Konklusion

Altman udtalte også, at selvom vi måske ikke er i stand til at styre Kina, skal vi forhandle med det. De foreslåede kriterier for evaluering og regulerende AI-modeller omfatter evnen til at syntetisere biologiske prøver, manipulation af folks overbevisninger, mængden af ​​brugt processorkraft og så videre.

Et væsentligt tema er, at Sam skal have "forhold" til staten. Vi håber ikke, at de følger Europas eksempel, som vi nævnte før.

Ofte Stillede Spørgsmål

AI-risici omfatter potentialet for, at AI-systemer udviser partisk eller diskriminerende adfærd, at de bliver brugt ondsindet eller uhensigtsmæssigt, eller at de ikke fungerer på måder, der forårsager skade. Udviklingen og implementeringen af ​​AI-teknologier kan udgøre risici for privatlivets fred og datasikkerhed, såvel som for sikkerheden og sikkerheden for mennesker og systemer.

De fem hovedrisici forbundet med kunstig intelligens er: Jobtab, Sikkerhedsrisici, Fordomme eller diskrimination, Biovåben og AGI.

Det farligste aspekt ved kunstig intelligens er dets potentiale til at forårsage massearbejdsløshed.

Ansvarsfraskrivelse

I tråd med den Trust Project retningslinjer, bemærk venligst, at oplysningerne på denne side ikke er beregnet til at være og ikke skal fortolkes som juridiske, skattemæssige, investeringsmæssige, finansielle eller nogen anden form for rådgivning. Det er vigtigt kun at investere, hvad du har råd til at tabe, og at søge uafhængig finansiel rådgivning, hvis du er i tvivl. For yderligere information foreslår vi at henvise til vilkårene og betingelserne samt hjælpe- og supportsiderne fra udstederen eller annoncøren. MetaversePost er forpligtet til nøjagtig, objektiv rapportering, men markedsforholdene kan ændres uden varsel.

Om forfatteren

Damir er teamleder, produktchef og redaktør på Metaverse Post, der dækker emner som AI/ML, AGI, LLM'er, Metaverse og Web3-relaterede felter. Hans artikler tiltrækker et massivt publikum på over en million brugere hver måned. Han ser ud til at være en ekspert med 10 års erfaring i SEO og digital markedsføring. Damir er blevet nævnt i Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto og andre publikationer. Han rejser mellem UAE, Tyrkiet, Rusland og SNG som en digital nomade. Damir tog en bachelorgrad i fysik, som han mener har givet ham de kritiske tænkningskompetencer, der er nødvendige for at få succes i internettets evigt skiftende landskab. 

Flere artikler
Damir Yalalov
Damir Yalalov

Damir er teamleder, produktchef og redaktør på Metaverse Post, der dækker emner som AI/ML, AGI, LLM'er, Metaverse og Web3-relaterede felter. Hans artikler tiltrækker et massivt publikum på over en million brugere hver måned. Han ser ud til at være en ekspert med 10 års erfaring i SEO og digital markedsføring. Damir er blevet nævnt i Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto og andre publikationer. Han rejser mellem UAE, Tyrkiet, Rusland og SNG som en digital nomade. Damir tog en bachelorgrad i fysik, som han mener har givet ham de kritiske tænkningskompetencer, der er nødvendige for at få succes i internettets evigt skiftende landskab. 

Institutionel appetit vokser mod Bitcoin ETF'er midt i volatilitet

Afsløringer gennem 13F-arkivering afslører bemærkelsesværdige institutionelle investorer, der dytter i Bitcoin ETF'er, hvilket understreger en voksende accept af ...

Vide mere

Straffeudmålingsdagen ankommer: CZ's skæbne hænger i balance, da amerikansk domstol overvejer DOJ's anbringende

Changpeng Zhao står klar til at blive dømt ved en amerikansk domstol i Seattle i dag.

Vide mere
Tilmeld dig vores innovative teknologifællesskab
Læs mere
Læs mere
Stacks, Moonriver Network, Hedera og Iron Fish til at deltage i Axelars Interchain Amplifier Program
Nyheds rapport Teknologier
Stacks, Moonriver Network, Hedera og Iron Fish til at deltage i Axelars Interchain Amplifier Program
Maj 7, 2024
Tesla omfavner Dogecoin: Stort boost for Meme-mønten, da den bliver en betalingsmulighed i Teslas onlinebutik
Markeder Historier og anmeldelser Teknologier
Tesla omfavner Dogecoin: Stort boost for Meme-mønten, da den bliver en betalingsmulighed i Teslas onlinebutik
Maj 7, 2024
Morph introducerer sit Holesky-testnet med optimistisk zkEVM-integration, bromekanisme og decentraliserede Sequencer-netværksfunktioner
Nyheds rapport Teknologier
Morph introducerer sit Holesky-testnet med optimistisk zkEVM-integration, bromekanisme og decentraliserede Sequencer-netværksfunktioner
Maj 6, 2024
Robinhood Crypto modtager Wells-meddelelse fra værdipapir- og børskommissionen om påståede krænkelser af værdipapirer
Markeder Nyheds rapport Teknologier
Robinhood Crypto modtager Wells-meddelelse fra værdipapir- og børskommissionen om påståede krænkelser af værdipapirer
Maj 6, 2024