Nangungunang 10 AI at ChatGPT Mga Panganib at Panganib sa 2023
Sa pagsulong ng artificial intelligence (AI) at teknolohiya ng chatbot, mas maraming kumpanya ang naghahangad ng mga automated na solusyon sa serbisyo sa customer bilang isang paraan ng pagpapabuti ng kanilang karanasan sa customer at pagbabawas ng mga gastos sa overhead. Bagama't maraming benepisyo ang paggamit ng mga modelo ng AI at mga solusyon sa chatbot, nananatili rin ang iba't ibang panganib at panganib na nauugnay sa teknolohiya, lalo na kapag nagiging mas malaganap ang mga ito at isinama sa ating pang-araw-araw na buhay sa darating na dekada.
Sa linggong ito lahat ng tao sa US Senate ay nakinig kay Sam Altman na nagsasalita tungkol sa regulasyon at mga panganib ng mga modelo ng AI. Narito ang isang pangunahing rundown:
Bioweapons
Ang paggamit ng Artipisyal na Katalinuhan (AI) sa pagbuo ng mga bioweapons ay nagpapakita ng isang mapanganib na pamamaraan at mahusay na paraan ng paglikha ng makapangyarihan at nakamamatay na mga sandata ng malawakang pagkawasak. ChatGPT bot ay mga katulong sa pakikipag-usap na hinimok ng AI na may kakayahang makipag-usap sa mga tao. Ang pag-aalala kay ChatGPT Ang mga bot ay mayroon silang potensyal na magamit upang maikalat ang maling impormasyon at manipulahin ang mga isipan upang maimpluwensyahan opinyon ng publiko.
Ang regulasyon ay isang mahalagang bahagi sa pagpigil sa maling paggamit ng AI at ChatGPT mga bot sa pagbuo at pag-deploy ng mga bioweapon. Kailangang bumuo ng mga pambansang plano ng aksyon ang mga pamahalaan upang matugunan ang potensyal na maling paggamit ng teknolohiya, at dapat managot ang mga kumpanya para sa anumang potensyal na maling paggamit ng kanilang AI at ChatGPT bot. Dapat mamuhunan ang mga internasyonal na organisasyon sa mga inisyatiba na nakatuon sa pagsasanay, pagsubaybay, at pagtuturo sa AI at ChatGPT bots
Pagkawala ng Trabaho
Ang potensyal para sa pagkawala ng trabaho dahil sa AI at ChatGPT sa 2023 ay inaasahang magiging tatlong beses na mas mataas kaysa noong 2020. AI at ChatGPT ay maaaring humantong sa pagtaas ng kawalan ng kapanatagan sa lugar ng trabaho, etikal na pagsasaalang-alang, at sikolohikal na epekto sa mga manggagawa. AI at ChatGPT ay maaaring gamitin upang subaybayan ang pag-uugali at aktibidad ng empleyado, na nagpapahintulot sa mga tagapag-empleyo na gumawa ng mga desisyon nang mabilis at nang hindi nangangailangan ng mga tauhan ng tao na kasangkot. Bukod pa rito, AI at ChatGPT ay maaaring magdulot ng hindi patas at may kinikilingan na mga desisyon na maaaring humantong sa pinansyal, panlipunan, at emosyonal na kawalan ng kapanatagan sa lugar ng trabaho.
Regulasyon ng AI
Tinutuklas ng artikulong ito ang mga potensyal na peligro at mga panganib na nakapalibot sa AI at ChatGPT regulasyon sa 2023. AI at ChatGPT diskarte ay maaaring gamitin upang magsagawa ng mga potensyal na nakakahamak na aktibidad, tulad ng pag-profile ng mga tao batay sa kanilang mga pag-uugali at aktibidad. Isang kakulangan ng nararapat regulasyon ng AI ay maaaring humantong sa hindi sinasadyang mga kahihinatnan, tulad ng mga paglabag sa data o diskriminasyon. Ang regulasyon ng AI ay maaaring makatulong na mabawasan ang panganib na ito sa pamamagitan ng pagtatakda ng mga mahigpit na alituntunin upang matiyak iyon ChatGPT system ay hindi ginagamit sa malisyosong paraan. Sa wakas, AI at ChatGPT ay maaaring maging isang controlling factor sa ating buhay, pagkontrol sa mga bagay tulad ng daloy ng trapiko at financial market, at maging ginagamit upang maimpluwensyahan ang ating buhay pampulitika at panlipunan. Upang maiwasan ang ganitong uri ng power imbalance, kailangang may mahigpit na regulasyon na ipinatupad.
Mga Pamantayan sa Seguridad
Ang mga teknolohiya ng AI at chatbot ay nagdudulot ng pag-unlad sa paraan ng pamamahala natin sa ating pang-araw-araw na buhay. Habang nagiging mas advanced ang mga teknolohiyang ito, may potensyal silang maging autonomous at gumawa ng mga desisyon nang mag-isa. Upang maiwasan ito, mga pamantayan sa seguridad dapat itatag na ang mga modelong ito ay dapat matugunan bago sila mai-deploy. Ang isa sa mga pangunahing pamantayan sa seguridad na iminungkahi ni Altman noong 2023 ay isang pagsubok para sa pagtitiklop sa sarili, na titiyakin na ang modelo ng AI ay hindi magagawang mag-self-replicate nang walang pahintulot. Ang pangalawang pamantayan sa seguridad na iminungkahi ni Altman noong 2023 ay isang pagsubok para sa data exfiltration, na magtitiyak na ang mga modelo ng AI ay hindi makakapag-exfiltrate ng data mula sa isang system nang walang pahintulot. Ang mga pamahalaan sa buong mundo ay nagsimulang kumilos upang protektahan ang mga mamamayan mula sa mga potensyal na panganib.
Mga Independiyenteng Pag-audit
Sa 2023, ang pangangailangan para sa mga independiyenteng pag-audit ng mga teknolohiya ng AI at LLM ay lalong nagiging mahalaga. Ang AI ay nagdudulot ng iba't ibang mga panganib, tulad ng hindi pinangangasiwaang Machine Learning na mga algorithm na maaaring magbago at magtanggal ng data nang hindi sinasadya, at ang mga cyberattacks ay lalong nagta-target sa AI at ChatGPT. Ang mga modelong ginawa ng AI ay may kasamang bias, na maaaring humantong sa mga kasanayan sa diskriminasyon. Ang isang independiyenteng pag-audit ay dapat magsama ng pagsusuri sa modelo ng AI ay sinanay, ang disenyo ng algorithm, at ang output ng modelo upang matiyak na hindi ito nagpapakita ng bias na coding o mga resulta. Bukod pa rito, ang pag-audit ay dapat magsama ng pagsusuri ng mga patakaran sa seguridad at mga pamamaraang ginagamit upang protektahan data ng gumagamit at tiyakin ang isang ligtas na kapaligiran.
Kung walang independiyenteng pag-audit, nalantad ang mga negosyo at user potensyal na mapanganib at mga mamahaling panganib na sana ay naiwasan. Napakahalaga na ang lahat ng negosyong gumagamit ng teknolohiyang ito ay may independiyenteng pag-audit na nakumpleto bago i-deploy upang matiyak na ang teknolohiya ay ligtas at etikal.
AI Bilang Tool
Ang AI ay umunlad nang husto, at pagsulong tulad ng GPT-4 ay humantong sa mas makatotohanan at sopistikadong pakikipag-ugnayan sa mga computer. Gayunpaman, binigyang-diin ni Altman na ang AI ay dapat tingnan bilang mga kasangkapan, hindi mga nilalang na nararamdaman. GPT-4 ay isang natural na modelo ng pagpoproseso ng wika na maaaring makabuo ng nilalaman na halos hindi makilala sa nilalamang isinulat ng tao, na inaalis ang ilan sa mga gawain mula sa mga manunulat at nagbibigay-daan sa mga user na magkaroon ng mas katulad ng tao na karanasan sa teknolohiya.
Gayunpaman, nagbabala si Sam Altman na ang labis na pagbibigay-diin sa AI bilang higit pa sa isang tool ay maaaring humantong sa hindi makatotohanang mga inaasahan at maling paniniwala tungkol sa mga kakayahan nito. Itinuturo din niya na ang AI ay walang mga etikal na implikasyon nito, at na kahit na ang mga advanced na antas ng AI ay magagamit para sa kabutihan maaari pa rin itong magamit para sa masama, na humahantong sa mapanganib na pag-profile ng lahi, mga paglabag sa privacy, at maging ang mga banta sa seguridad. Itinatampok ni Altman ang kahalagahan ng pag-unawa na ang AI ay isang tool lamang, at dapat itong makita bilang isang tool upang mapabilis ang pag-unlad ng tao, hindi upang palitan ang mga tao.
AI Kamalayan
Ang debate tungkol sa AI at kung makakamit o hindi nito ang kamalayan ng kamalayan ay lumalaki. Maraming mga mananaliksik ang nangangatwiran na ang mga makina ay walang kakayahang makaranas ng emosyonal, mental, o kamalayan na mga estado, sa kabila ng kanilang kumplikadong arkitektura ng computational. Ang ilang mga mananaliksik ay tinatanggap ang posibilidad ng AI na makamit ang mulat na kamalayan. Ang pangunahing argumento para sa posibilidad na ito ay ang AI ay binuo sa mga programa na ginagawang kaya nito kinokopya ilang pisikal at mental na proseso na matatagpuan sa utak ng tao. Gayunpaman, ang pangunahing kontra argumento ay ang AI ay walang anumang tunay na emosyonal na katalinuhan.
Maraming mga mananaliksik ng AI ang sumasang-ayon na walang siyentipikong patunay na magmumungkahi na ang AI ay may kakayahang makamit ang mulat na kamalayan sa parehong paraan na magagawa ng isang tao. Elon hayop, isa sa mga pinaka-vocal na tagapagtaguyod ng pananaw na ito, ay naniniwala na ang kakayahan ng AI na gayahin ang mga biyolohikal na anyo ng buhay ay napakalimitado at higit na dapat bigyan ng diin ang pagtuturo sa mga makina ng mga etikal na halaga.
Mga Aplikasyon ng Militar
Ang AI sa mga konteksto ng militar ay mabilis na sumusulong at may potensyal na mapabuti ang paraan kung saan ang mga militar ay nagsasagawa ng pakikidigma. Nag-aalala ang mga siyentipiko na ang AI sa militar ay maaaring magpakita ng isang hanay ng mga problemang etikal at nauugnay sa panganib, tulad ng hindi mahuhulaan, hindi makalkula, at kawalan ng transparency.
Ang mga AI system ay mahina sa mga malisyosong aktor na maaaring mag-reprogram ng mga system o makalusot sa mga system, na posibleng humantong sa isang mapangwasak na resulta. Upang matugunan ang mga ito alalahanin, ang internasyonal na komunidad ay gumawa ng unang hakbang sa anyo ng kanyang International Convention on Certain Conventional Weapons ng 1980, na naglalagay ng ilang partikular na pagbabawal sa paggamit ng ilang armas. Ang mga eksperto sa AI ay nagtaguyod para sa isang International Committee upang pangasiwaan ang mga proseso tulad ng pagsusuri, pagsasanay, at pag-deploy ng AI sa mga aplikasyon ng militar.
AGI
Ang teknolohiya ng AI ay nagiging mas advanced at lumaganap, na ginagawang mahalagang maunawaan ang mga potensyal na panganib na dulot ng mga ahente at system ng AI. Ang una at pinaka-halatang panganib na nauugnay sa mga ahente ng AI ay ang panganib ng mga makina na lumalampas sa mga tao. Madaling malampasan ng mga ahente ng AI ang kanilang mga tagalikha sa pamamagitan ng pagkuha sa paggawa ng desisyon, mga proseso ng automation, at iba pang mga advanced na gawain. Bukod pa rito, ang automation na pinapagana ng AI ay maaaring magpataas ng hindi pagkakapantay-pantay, dahil pinapalitan nito ang mga tao sa trabaho market.
Ang mga algorithm ng AI at ang paggamit ng mga ito sa kumplikadong paggawa ng desisyon ay nagdudulot ng pag-aalala sa kawalan ng transparency. Maaari ang mga organisasyon pagaanin ang mga panganib na nauugnay sa mga ahente ng AI sa pamamagitan ng aktibong pagtitiyak na ang AI ay binuo nang etikal, gamit ang data na sumusunod sa mga pamantayang etikal, at pagpapailalim sa mga algorithm sa mga nakagawiang pagsubok upang matiyak na hindi sila bias at responsable sa mga user at data.
Konklusyon
Sinabi rin ni Altman na kahit na hindi natin kayang pamahalaan ang Tsina, kailangan nating makipag-ayos dito. Ang iminungkahing pamantayan para sa pagsusuri at Kasama sa pagre-regulate ang mga modelo ng AI ang kakayahang mag-synthesize ng mga biological sample, ang pagmamanipula ng mga paniniwala ng mga tao, ang dami ng ginugol na kapangyarihan sa pagproseso, at iba pa.
Ang isang makabuluhang tema ay ang Sam ay dapat magkaroon ng "relasyon" sa estado. Inaasahan namin na hindi nila tularan ang halimbawa ng Europa, tulad ng nabanggit namin dati.
FAQs
Kasama sa mga panganib sa AI ang potensyal para sa mga AI system na magpakita ng bias o diskriminasyong pag-uugali, gamitin sa malisyosong o hindi naaangkop, o mag-malfunction sa mga paraan na nagdudulot ng pinsala. Ang pagbuo at pag-deploy ng mga teknolohiya ng AI ay maaaring magdulot ng mga panganib sa privacy at seguridad ng data, gayundin sa kaligtasan at seguridad ng mga tao at system.
Ang limang pangunahing panganib na nauugnay sa AI ay: Pagkawala ng Trabaho, Mga Panganib sa Seguridad, Mga bias o diskriminasyon, Bioweapons at AGI.
Ang pinaka-mapanganib na aspeto ng AI ay ang potensyal nitong magdulot ng malawakang kawalan ng trabaho.
Pagtanggi sa pananagutan
Sa linya na may Mga alituntunin ng Trust Project, pakitandaan na ang impormasyong ibinigay sa pahinang ito ay hindi nilayon at hindi dapat bigyang-kahulugan bilang legal, buwis, pamumuhunan, pananalapi, o anumang iba pang paraan ng payo. Mahalagang mamuhunan lamang kung ano ang maaari mong mawala at humingi ng independiyenteng payo sa pananalapi kung mayroon kang anumang mga pagdududa. Para sa karagdagang impormasyon, iminumungkahi naming sumangguni sa mga tuntunin at kundisyon pati na rin sa mga pahina ng tulong at suporta na ibinigay ng nagbigay o advertiser. MetaversePost ay nakatuon sa tumpak, walang pinapanigan na pag-uulat, ngunit ang mga kondisyon ng merkado ay maaaring magbago nang walang abiso.
Tungkol sa Ang May-akda
Si Damir ang pinuno ng pangkat, tagapamahala ng produkto, at editor sa Metaverse Post, sumasaklaw sa mga paksa gaya ng AI/ML, AGI, LLMs, Metaverse, at Web3-mga kaugnay na larangan. Ang kanyang mga artikulo ay umaakit ng napakalaking madla na mahigit sa isang milyong user bawat buwan. Mukhang isa siyang eksperto na may 10 taong karanasan sa SEO at digital marketing. Nabanggit si Damir sa Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto, at iba pang publikasyon. Naglalakbay siya sa pagitan ng UAE, Turkey, Russia, at ng CIS bilang digital nomad. Nakamit ni Damir ang bachelor's degree sa physics, na pinaniniwalaan niyang nagbigay sa kanya ng mga kritikal na kasanayan sa pag-iisip na kailangan para maging matagumpay sa pabago-bagong tanawin ng internet.
Mas marami pang artikuloSi Damir ang pinuno ng pangkat, tagapamahala ng produkto, at editor sa Metaverse Post, sumasaklaw sa mga paksa gaya ng AI/ML, AGI, LLMs, Metaverse, at Web3-mga kaugnay na larangan. Ang kanyang mga artikulo ay umaakit ng napakalaking madla na mahigit sa isang milyong user bawat buwan. Mukhang isa siyang eksperto na may 10 taong karanasan sa SEO at digital marketing. Nabanggit si Damir sa Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto, at iba pang publikasyon. Naglalakbay siya sa pagitan ng UAE, Turkey, Russia, at ng CIS bilang digital nomad. Nakamit ni Damir ang bachelor's degree sa physics, na pinaniniwalaan niyang nagbigay sa kanya ng mga kritikal na kasanayan sa pag-iisip na kailangan para maging matagumpay sa pabago-bagong tanawin ng internet.