AI Wiki Tecnologia
Pot 18, 2023

Les 10 millors IA i ChatGPT Riscos i perills el 2023

Amb els avenços de la intel·ligència artificial (IA) i la tecnologia de chatbot, més empreses busquen solucions automatitzades d'atenció al client com a mitjà per millorar l'experiència del client i reduir els costos generals. Tot i que l'aprofitament de models d'IA i solucions de chatbot té molts avantatges, també hi ha diversos riscos i perills associats a la tecnologia, especialment a mesura que es fan més generalitzats i s'integren a la nostra vida quotidiana durant la propera dècada.

Aquesta setmana tothom al Senat dels Estats Units va escoltar Sam Altman parlar sobre la regulació i els riscos dels models d'IA. Aquí teniu un resum bàsic:

Armes biològiques

Armes biològiques
@Midjourney

L'ús de la intel·ligència artificial (AI) en el desenvolupament d'armes biològiques presenta una manera perillosament metòdica i eficient de crear armes de destrucció massiva poderoses i letals. ChatGPT els robots són assistents de conversa basats en IA que són capaços de mantenir converses reals amb humans. La preocupació per ChatGPT bots és que tenen el potencial de ser utilitzats per difondre informació falsa i manipular les ments per influir opinió pública.

Vaig advertir del possible mal ús de la IA en la creació d'armes biològiques i vaig subratllar la necessitat d'una regulació per prevenir aquests escenaris.

Sam Altman

La regulació és un component clau per prevenir l'ús indegut de la IA i ChatGPT robots en el desenvolupament i desplegament d'armes biològiques. Els governs han de desenvolupar plans d'acció nacionals per abordar el possible mal ús de la tecnologia, i les empreses haurien de ser responsables de qualsevol possible mal ús de la seva tecnologia. IA i ChatGPT els robots. Les organitzacions internacionals haurien d'invertir en iniciatives que se centren en la formació, el seguiment i l'educació de la IA i ChatGPT brossa.

Pèrdua de feina

Pèrdua de feina
@Midjourney

El potencial de pèrdua de feina a causa de la IA i ChatGPT el 2023 es preveu que sigui tres vegades més que el 2020. IA i ChatGPT pot provocar una major inseguretat en el lloc de treball, consideracions ètiques i impacte psicològic en els treballadors. IA i ChatGPT es pot utilitzar per controlar el comportament i les activitats dels empleats, permetent als empresaris prendre decisions ràpidament i sense que hi hagi que intervenir personal humà. A més, IA i ChatGPT pot provocar decisions injustes i esbiaixades que poden provocar inseguretat financera, social i emocional en el lloc de treball.

Vaig destacar que el desenvolupament de la IA podria provocar pèrdues de llocs de treball importants i augmentar la desigualtat.

Sam Altman

Reglament AI

Reglament AI
@Midjourney

Aquest article explora el riscos potencials i els perills que envolten la IA i ChatGPT regulació el 2023. AI i ChatGPT tècniques es pot utilitzar per dur a terme activitats potencialment malicioses, com ara perfilar persones en funció dels seus comportaments i activitats. Una manca d'adequació Regulació de la IA podria comportar conseqüències no desitjades, com ara violacions de dades o discriminació. La regulació de la IA pot ajudar a mitigar aquest risc establint directrius estrictes per garantir-ho ChatGPT sistemes no s'utilitzen de manera maliciosa. Finalment, IA i ChatGPT podria convertir-se en un factor de control a les nostres vides, controlant coses com el flux de trànsit i els mercats financers, i fins i tot servint-nos per influir en les nostres vides polítiques i socials. Per evitar aquest tipus de desequilibri de poder, s'han d'implementar regulacions estrictes.

Vam suggerir la creació d'una nova agència per llicència i regular la IA activitats si les seves capacitats superen un determinat llindar.

Sam Altman

Normes de seguretat

Normes de seguretat
@Midjourney

Les tecnologies d'IA i de chatbot estan provocant un avenç en la manera com gestionem la nostra vida diària. A mesura que aquestes tecnologies són més avançades, tenen el potencial d'esdevenir autònoms i prendre decisions per si mateixes. Per evitar-ho, estàndards de seguretat s'ha d'establir que aquests models s'han de complir abans de poder desplegar-se. Un dels principals estàndards de seguretat proposats per Altman el 2023 és una prova d'autoreplicació, que garantiria que el model d'IA no es pugui autoreplicar sense autorització. El segon estàndard de seguretat proposat per Altman el 2023 és una prova d'exfiltració de dades, que garantiria que els models d'IA no puguin exfiltrar dades d'un sistema sense autorització. Els governs de tot el món han començat a actuar per protegir els ciutadans dels riscos potencials.

Hem d'implementar estàndards de seguretat que han de complir els models d'IA abans del desplegament, incloses proves d'autoreplicació i d'exfiltració de dades.

Sam Altman

Auditories independents

Auditories independents
@Midjourney

El 2023, la necessitat d'auditories independents de les tecnologies d'IA i LLMs esdevé cada cop més important. La IA comporta una varietat de riscos, com ara algorismes d'aprenentatge automàtic no supervisats que poden alterar i fins i tot eliminar dades involuntàriament, i els ciberatacs s'apunten cada cop més a la IA i ChatGPT. Els models creats per IA incorporen biaix, que poden conduir a pràctiques discriminatòries. Una auditoria independent hauria d'incloure una revisió del modela la IA s'entrena, el disseny de l'algorisme i la sortida del model per assegurar-se que no mostri codificació ni resultats esbiaixats. A més, l'auditoria hauria d'incloure una revisió de les polítiques i procediments de seguretat utilitzats per protegir Dades d'usuari i garantir un entorn segur.

Les auditories independents es realitzaran per garantir que els models d'IA compleixen els estàndards de seguretat establerts.

Sam Altman

Sense una auditoria independent, les empreses i els usuaris estan exposats potencialment perillós i riscos costosos que es podrien haver evitat. És fonamental que totes les empreses que utilitzen aquesta tecnologia tinguin una auditoria independent completada abans del desplegament per garantir que la tecnologia sigui segura i ètica.

La IA com a eina

La IA com a eina
@Midjourney

La IA s'ha desenvolupat de manera exponencial i avenços com GPT-4 han donat lloc a interaccions més realistes i sofisticades amb els ordinadors. Tanmateix, Altman ha subratllat que la IA s'ha de veure com a eines, no com a criatures sensibles. GPT-4 és un model de processament de llenguatge natural que pot generar contingut gairebé indistingible del contingut escrit per humans, allunyant part del treball als escriptors i permetent als usuaris tenir una experiència més humana amb la tecnologia.

IA, especialment models avançats com ara GPT-4, s'han de veure com a eines, no com a éssers sensibles.

Sam Altman

Tanmateix, Sam Altman adverteix que posar massa èmfasi en la IA com a més que una eina pot provocar expectatives poc realistes i creences falses sobre les seves capacitats. També assenyala que la IA no està exempta de les seves implicacions ètiques, i que fins i tot si els nivells avançats d'IA es poden utilitzar per a bé, encara es podria utilitzar per a mal, la qual cosa condueix a un perfil racial perillós. violacions de la privadesa, i fins i tot amenaces de seguretat. Altman destaca la importància d'entendre que la IA és només una eina i que s'ha de veure com una eina per accelerar el progrés humà, no per substituir els humans.

AI Consciència

AI Consciència
@Midjourney

El debat sobre la IA i si pot o no aconseguir una consciència conscient ha anat creixent. Molts investigadors argumenten que les màquines són incapaces d'experimentar estats emocionals, mentals o conscients, malgrat la seva complexa arquitectura computacional. Alguns investigadors accepten la possibilitat que la IA aconsegueixi una consciència conscient. L'argument principal d'aquesta possibilitat és que la IA es basa en programes que la fan capaç replicant determinats processos físics i mentals que es troben al cervell humà. Tanmateix, el principal argument contrari és que la IA no té cap intel·ligència emocional real.

Tot i que la IA hauria de ser vista com una eina, reconec el debat en curs a la comunitat científica sobre la possible consciència de la IA.

Sam Altman

Molts investigadors d'IA coincideixen que no hi ha cap prova científica que suggereixi que la IA sigui capaç d'aconseguir la consciència conscient de la mateixa manera que ho pot fer un ésser humà. Elon Musk, un dels defensors més vocals d'aquest punt de vista, creu que la capacitat de la IA per imitar les formes de vida biològiques és extremadament limitada i s'hauria de posar més èmfasi en l'ensenyament dels valors ètics de les màquines.

Aplicacions militars

Aplicacions militars
@Midjourney

La IA en contextos militars està avançant ràpidament i té el potencial de millorar la manera en què els militars duen a terme la guerra. Els científics temen que la IA a l'exèrcit pugui presentar una sèrie de problemes ètics i relacionats amb el risc, com ara la imprevisibilitat, la incalculabilitat i la falta de transparència.

Reconec el potencial d'utilitzar la IA en aplicacions militars com ara drons autònoms i ho demano normativa per governar tal ús.

Sam Altman

Els sistemes d'IA són vulnerables als actors maliciosos que podrien reprogramar els sistemes o infiltrar-s'hi, la qual cosa podria provocar un resultat devastador. Per abordar aquests preocupacions, la comunitat internacional ha fet un primer pas amb la seva Convenció internacional sobre determinades armes convencionals de 1980, que imposa determinades prohibicions a l'ús de determinades armes. Els experts en IA han defensat un Comitè Internacional per supervisar processos com ara l'avaluació, la formació i el desplegament de la IA en aplicacions militars.

AGI

AGI
@Midjourney

La tecnologia d'IA és cada cop més avançada i generalitzada, per la qual cosa és important entendre els riscos potencials que plantegen els agents i sistemes d'IA. El primer i més evident risc associat amb els agents d'IA és el perill que les màquines superen els humans. Els agents d'IA poden superar fàcilment els seus creadors fent-se càrrec de la presa de decisions, els processos d'automatització i altres tasques avançades. A més, l'automatització impulsada per IA podria augmentar la desigualtat, ja que substitueix els humans mercat laboral.

Adverteixo que els sistemes d'IA més potents i complexos poden estar més a prop de la realitat del que molts pensen i vaig subratllar la necessitat de mesures preventives i de preparació.

Sam Altman

Els algorismes d'IA i el seu ús en la presa de decisions complexes plantegen una preocupació per la falta de transparència. Les organitzacions poden mitigar els riscos associat amb els agents d'IA assegurant-se de manera proactiva que la IA es desenvolupi de manera ètica, utilitzant dades que compleixen els estàndards ètics i sotmetent els algorismes a proves rutinàries per assegurar-se que no estan esbiaixats i són responsables amb els usuaris i les dades.

Conclusió

Altman també va afirmar que, tot i que potser no podem gestionar la Xina, hem de negociar amb ella. Els criteris proposats per a l'avaluació i els models de regulació d'IA inclouen la capacitat de sintetitzar mostres biològiques, la manipulació de les creences de la gent, la quantitat de poder de processament gastat, etc.

Un tema important és que Sam hauria de tenir "relacions" amb l'estat. Esperem que no segueixin l'exemple d'Europa, com hem comentat abans.

Preguntes freqüents

Els riscos d'IA inclouen la possibilitat que els sistemes d'IA mostrin un comportament esbiaixat o discriminatori, que s'utilitzin de manera malintencionada o inadequada, o que funcionin malament de manera que causen danys. El desenvolupament i el desplegament de tecnologies d'IA poden suposar riscos per a la privadesa i la seguretat de les dades, així com per a la seguretat de les persones i els sistemes.

Els cinc riscos principals associats a la IA són: Pèrdues de llocs de treball, Riscos de seguretat, Biaixos o discriminació, Bioweapons i AGI.

L'aspecte més perillós de la IA és el seu potencial per causar atur massiu.

renúncia

En línia amb la Directrius del projecte Trust, si us plau, tingueu en compte que la informació proporcionada en aquesta pàgina no pretén ni s'ha d'interpretar com a assessorament legal, fiscal, d'inversió, financer o de cap altra forma. És important invertir només el que et pots permetre perdre i buscar assessorament financer independent si tens dubtes. Per obtenir més informació, us suggerim que feu referència als termes i condicions, així com a les pàgines d'ajuda i assistència proporcionades per l'emissor o l'anunciant. MetaversePost es compromet a fer informes precisos i imparcials, però les condicions del mercat estan subjectes a canvis sense previ avís.

About The Autor

Damir és el líder d'equip, cap de producte i editor de Metaverse Post, que cobreix temes com AI/ML, AGI, LLMs, Metaverse i Web3-camps relacionats. Els seus articles atrauen una audiència massiva de més d'un milió d'usuaris cada mes. Sembla ser un expert amb 10 anys d'experiència en SEO i màrqueting digital. Damir ha estat esmentat a Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i altres publicacions. Viatja entre els Emirats Àrabs Units, Turquia, Rússia i la CEI com a nòmada digital. Damir va obtenir una llicenciatura en física, que creu que li ha donat les habilitats de pensament crític necessàries per tenir èxit en el paisatge en constant canvi d'Internet. 

més articles
Damir Yalalov
Damir Yalalov

Damir és el líder d'equip, cap de producte i editor de Metaverse Post, que cobreix temes com AI/ML, AGI, LLMs, Metaverse i Web3-camps relacionats. Els seus articles atrauen una audiència massiva de més d'un milió d'usuaris cada mes. Sembla ser un expert amb 10 anys d'experiència en SEO i màrqueting digital. Damir ha estat esmentat a Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i altres publicacions. Viatja entre els Emirats Àrabs Units, Turquia, Rússia i la CEI com a nòmada digital. Damir va obtenir una llicenciatura en física, que creu que li ha donat les habilitats de pensament crític necessàries per tenir èxit en el paisatge en constant canvi d'Internet. 

Hot Stories
Uneix-te al nostre butlletí.
Últimes notícies

L'apetit institucional creix cap als ETF de Bitcoin enmig de la volatilitat

Les divulgacions a través de les presentacions 13F revelen inversors institucionals notables que s'estan incursionant en els ETF de Bitcoin, subratllant una acceptació creixent de...

saber Més

Arriba el dia de la sentència: el destí de CZ està en equilibri mentre el tribunal nord-americà considera la petició del DOJ

Changpeng Zhao està a punt d'enfrontar-se avui a la sentència en un tribunal dels Estats Units a Seattle.

saber Més
Uneix-te a la nostra comunitat tecnològica innovadora
Més...
Llegeix més
Crypto Exchange Bybit integra USDe d'Ethena Labs com a actiu col·lateral, permet les parelles comercials BTC-USDe i ETH-USDe
mercats Informe de notícies Tecnologia
Crypto Exchange Bybit integra USDe d'Ethena Labs com a actiu col·lateral, permet les parelles comercials BTC-USDe i ETH-USDe
Pot 7, 2024
Bitget Wallet presenta GetDrop Airdrop La plataforma i llança el primer esdeveniment de monedes memes amb premis de 130,000 dòlars
mercats Informe de notícies Tecnologia
Bitget Wallet presenta GetDrop Airdrop La plataforma i llança el primer esdeveniment de monedes memes amb premis de 130,000 dòlars
Pot 7, 2024
Del simple reflex als agents d'aprenentatge: consulteu els diferents tipus d'agents d'IA i els seus rols a les aplicacions modernes
Estil de vida Software Històries i ressenyes Tecnologia
Del simple reflex als agents d'aprenentatge: consulteu els diferents tipus d'agents d'IA i els seus rols a les aplicacions modernes
Pot 7, 2024
Meson Network permet als miners criptogràfics obtenir fitxes mitjançant la mineria. Airdrops I estan arribant els programes de recompra
mercats Informe de notícies Tecnologia
Meson Network permet als miners criptogràfics obtenir fitxes mitjançant la mineria. Airdrops I estan arribant els programes de recompra
Pot 7, 2024
CRYPTOMERIA LABS PTE. LTD.