Топ 10 АИ и ChatGPT Ризици и опасности у 2023
Са напретком вештачке интелигенције (АИ) и цхатбот технологије, све више компанија тражи аутоматизована решења за корисничку подршку као средство за побољшање корисничког искуства и смањење режијских трошкова. Иако постоје многе предности коришћења АИ модела и решења за цхат ботове, постоје и различити ризици и опасности повезани са технологијом, посебно пошто постају све присутнији и интегрисани у наш свакодневни живот током наредне деценије.
Ове недеље су сви у америчком Сенату слушали Сема Алтмана како говори о регулацији и ризицима АИ модела. Ево основног прегледа:
Биовеапонс
Употреба вештачке интелигенције (AI) у развоју биолошког оружја представља опасно методичан и ефикасан начин стварања моћног и смртоносног оружја за масовно уништење. ChatGPT ботови су конверзацијски асистенти вођени АИ који су способни да воде реалистичне разговоре са људима. Забринутост са ChatGPT ботови је да имају потенцијал да се користе за ширење лажних информација и манипулисање умовима како би утицали јавно мњење.
Регулатива је кључна компонента за спречавање злоупотребе АИ и ChatGPT ботови у развоју и примени биолошког оружја. Владе треба да развију националне акционе планове за решавање потенцијалне злоупотребе технологије, а компаније треба да буду одговорне за сваку потенцијалну злоупотребу њихове АИ и ChatGPT ботови. Међународне организације треба да улажу у иницијативе које се фокусирају на обуку, праћење и едукацију АИ и ChatGPT ботови.
Губитак посла
Потенцијал за губитак посла због АИ и ChatGPT у 2023. предвиђа се да ће бити три пута више него што је било 2020. АИ и ChatGPT може довести до повећане несигурности на радном месту, етичких разматрања и психолошког утицаја на раднике. АИ и ChatGPT може се користити за праћење понашања и активности запослених, омогућавајући послодавцима да брзо доносе одлуке и без потребе за укључењем људског особља. Поред тога, АИ и ChatGPT може изазвати неправедне и пристрасне одлуке које могу довести до финансијске, социјалне и емоционалне несигурности на радном месту.
АИ Регулатион
Овај чланак истражује потенцијални ризици и опасности које окружују АИ и ChatGPT пропис у 2023. АИ и ChatGPT технике може се користити за обављање потенцијално злонамерних активности, као што је профилисање људи на основу њиховог понашања и активности. Недостатак одговарајућег АИ регулација може довести до нежељених последица, као што су кршење података или дискриминација. Регулација вештачке интелигенције може помоћи у ублажавању овог ризика постављањем строгих смерница како би се то осигурало ChatGPT Системи се не користе на злонамеран начин. Коначно, АИ и ChatGPT може постати контролни фактор у нашим животима, контролишући ствари као што су ток саобраћаја и финансијска тржишта, па чак и да се користи да утиче на наше политичке и друштвене животе. Да би се спречила оваква неравнотежа снага, потребно је применити строге прописе.
Стандарди безбедности
АИ и технологије за ћаскање изазивају напредак у начину на који управљамо својим свакодневним животима. Како ове технологије постају све напредније, оне имају потенцијал да постану аутономне и саме доносе одлуке. Да би се ово спречило, безбедносни стандарди мора се утврдити да се ови модели морају испунити пре него што се могу применити. Један од главних безбедносних стандарда које је Алтман предложио 2023. је тест за саморепликацију, који би обезбедио да АИ модел не може да се самореплицира без овлашћења. Други безбедносни стандард који је Алтман предложио 2023. је тест за ексфилтрацију података, који би обезбедио да АИ модели не могу да ексфилтрирају податке из система без овлашћења. Владе широм света почеле су да делују како би заштитиле грађане од потенцијалних ризика.
Независне ревизије
У 2023. години, потреба за независним ревизијама АИ и ЛЛМ технологија постаје све важнија. АИ представља низ ризика, као што су алгоритми машинског учења без надзора који могу да мењају, па чак и невољно бришу податке, а сајбер напади све више циљају на вештачку интелигенцију и ChatGPT. Модели направљени од вештачке интелигенције укључују пристрасност, што може довести до дискриминаторних пракси. Независна ревизија треба да укључи преглед моделира АИ је обучен, дизајн алгоритма и излаз модела како би се осигурало да не приказује пристрасно кодирање или резултате. Поред тога, ревизија треба да укључи преглед безбедносних политика и процедура које се користе за заштиту кориснички подаци и обезбедити безбедно окружење.
Без независне ревизије, предузећа и корисници су изложени потенцијално опасан и скупи ризици који су се могли избећи. Од кључне је важности да сва предузећа која користе ову технологију имају независну ревизију пре примене да би се осигурало да је технологија безбедна и етичка.
АИ као алат
АИ се експоненцијално развио, и напредовања попут GPT-4 довеле су до реалистичнијих и софистициранијих интеракција са рачунарима. Међутим, Алтман је нагласио да АИ треба посматрати као оруђе, а не као разумна створења. GPT-4 је модел за обраду природног језика који може да генерише садржај који се готово не разликује од садржаја писаног од стране људи, одузимајући део посла писцима и омогућавајући корисницима да имају више људско искуство са технологијом.
Међутим, Сем Алтман упозорава да превелики нагласак на АИ као више од алата може довести до нереалних очекивања и лажних уверења о њеним могућностима. Он такође истиче да вештачка интелигенција није без својих етичких импликација, и да чак и ако се напредни нивои вештачке интелигенције могу користити за добро, она би се и даље могла користити за лоше, што доводи до опасног расног профилисања, кршења приватности, па чак и безбедносне претње. Алтман наглашава важност разумевања вештачке интелигенције само као алат и да је треба посматрати као средство за убрзање људског напретка, а не за замену људи.
АИ Цонсциоуснесс
Дебата о вештачкој интелигенцији и о томе да ли она може да постигне свесну свест расте. Многи истраживачи тврде да машине нису у стању да доживе емоционална, ментална или свесна стања, упркос њиховој сложеној рачунарској архитектури. Неки истраживачи прихватају могућност да АИ постигне свесну свест. Главни аргумент за ову могућност је да је вештачка интелигенција изграђена на програмима који је чине способном реплицирање одређене физичке и менталне процесе који се налазе у људском мозгу. Међутим, главни контра аргумент је да АИ нема никакву праву емоционалну интелигенцију.
Многи истраживачи вештачке интелигенције се слажу да не постоји научни доказ који би сугерисао да је вештачка интелигенција способна да постигне свесну свест на исти начин на који то може људско биће. Елон Муск, један од најгласнијих заговорника овог гледишта, верује да је способност вештачке интелигенције да опонаша биолошке облике живота изузетно ограничена и да би већи нагласак требало ставити на учење машина етичким вредностима.
Војне примене
АИ у војном контексту брзо напредује и има потенцијал да побољша начин на који војска води рат. Научници се брину да би вештачка интелигенција у војсци могла да представља низ етичких проблема и проблема повезаних са ризиком, као што су непредвидљивост, неурачунљивост и недостатак транспарентности.
Системи вештачке интелигенције су рањиви на злонамерне актере који могу или репрограмирати системе или се инфилтрирати у системе, што потенцијално може довести до разарајућег исхода. За решавање ових забринутостгодине, међународна заједница је направила први корак у виду своје Међународне конвенције о одређеним конвенционалним оружјима из 1980. године, која поставља одређене забране употребе одређеног оружја. Стручњаци за вештачку интелигенцију су се залагали за Међународни комитет који би надгледао процесе као што су евалуација, обука и примена АИ у војним апликацијама.
АГИ
Технологија вештачке интелигенције постаје све напреднија и свеприсутнија, због чега је важно разумети потенцијалне ризике које представљају АИ агенти и системи. Први и најочигледнији ризик повезан са АИ агентима је опасност да машине надмудре људе. АИ агенти могу лако да надмаше своје креаторе тако што ће преузети доношење одлука, процесе аутоматизације и друге напредне задатке. Поред тога, аутоматизација заснована на вештачкој интелигенцији могла би да повећа неједнакост, јер замењује људе у тржиште рада.
Алгоритми вештачке интелигенције и њихова употреба у сложеном доношењу одлука изазивају забринутост због недостатка транспарентности. Организације могу ублажити ризике повезани са АИ агентима проактивно осигуравајући да се АИ развија етички, користећи податке који су у складу са етичким стандардима и подвргавајући алгоритме рутинским тестовима како би се осигурало да нису пристрасни и да су одговорни према корисницима и подацима.
Zakljucak
Алтман је такође изјавио да, иако можда не можемо да управљамо Кином, морамо да преговарамо са њом. Предложени критеријуми за оцењивање и регулишући АИ модели укључују способност синтезе биолошких узорака, манипулација веровањима људи, количина утрошене процесорске снаге и тако даље.
Значајна тема је да Сем треба да има „односе“ са државом. Надамо се да неће следити европски пример, као што смо раније споменули.
ФАК
Ризици од вештачке интелигенције укључују могућност да системи вештачке интелигенције испоље пристрасно или дискриминаторско понашање, да буду коришћени злонамерно или неприкладно, или да не функционишу на начин који узрокује штету. Развој и примена АИ технологија може представљати ризик по приватност и безбедност података, као и по безбедност и безбедност људи и система.
Пет главних ризика повезаних са АИ су: Губитак посла, Безбедносни ризици, Пристрасности или дискриминација, Биолошко оружје и АГИ.
Најопаснији аспект вештачке интелигенције је њен потенцијал да изазове масовну незапосленост.
Одрицање од одговорности
У складу са Смернице пројекта Труст, имајте на уму да информације дате на овој страници нису намењене и не треба да се тумаче као правни, порески, инвестициони, финансијски или било који други облик савета. Важно је да инвестирате само оно што можете приуштити да изгубите и да тражите независан финансијски савет ако сумњате. За додатне информације, предлажемо да погледате одредбе и услове, као и странице помоћи и подршке које пружа издавач или оглашивач. MetaversePost је посвећен тачном, непристрасном извештавању, али тржишни услови су подложни променама без претходне најаве.
О аутору
Дамир је вођа тима, менаџер производа и уредник у Metaverse Post, покривајући теме као што су АИ/МЛ, АГИ, ЛЛМ, Метаверсе и Web3-сродна поља. Његови чланци привлаче огромну публику од преко милион корисника сваког месеца. Чини се да је стручњак са 10 година искуства у СЕО и дигиталном маркетингу. Дамир се помиње у Масхабле, Виред, Cointelegraph, Тхе Нев Иоркер, Инсиде.цом, Ентрепренеур, БеИнЦрипто и друге публикације. Путује између УАЕ, Турске, Русије и ЗНД као дигитални номад. Дамир је стекао диплому физике, за коју верује да му је дало вештине критичког размишљања које су му потребне да буде успешан у свету интернета који се стално мења.
više чланакаДамир је вођа тима, менаџер производа и уредник у Metaverse Post, покривајући теме као што су АИ/МЛ, АГИ, ЛЛМ, Метаверсе и Web3-сродна поља. Његови чланци привлаче огромну публику од преко милион корисника сваког месеца. Чини се да је стручњак са 10 година искуства у СЕО и дигиталном маркетингу. Дамир се помиње у Масхабле, Виред, Cointelegraph, Тхе Нев Иоркер, Инсиде.цом, Ентрепренеур, БеИнЦрипто и друге публикације. Путује између УАЕ, Турске, Русије и ЗНД као дигитални номад. Дамир је стекао диплому физике, за коју верује да му је дало вештине критичког размишљања које су му потребне да буде успешан у свету интернета који се стално мења.