AI Wiki технологија
Може 18, 2023

Топ 10 АИ и ChatGPT Ризици и опасности у 2023

Са напретком вештачке интелигенције (АИ) и цхатбот технологије, све више компанија тражи аутоматизована решења за корисничку подршку као средство за побољшање корисничког искуства и смањење режијских трошкова. Иако постоје многе предности коришћења АИ модела и решења за цхат ботове, постоје и различити ризици и опасности повезани са технологијом, посебно пошто постају све присутнији и интегрисани у наш свакодневни живот током наредне деценије.

Ове недеље су сви у америчком Сенату слушали Сема Алтмана како говори о регулацији и ризицима АИ модела. Ево основног прегледа:

Биовеапонс

Биовеапонс
@Midjourney

Употреба вештачке интелигенције (AI) у развоју биолошког оружја представља опасно методичан и ефикасан начин стварања моћног и смртоносног оружја за масовно уништење. ChatGPT ботови су конверзацијски асистенти вођени АИ који су способни да воде реалистичне разговоре са људима. Забринутост са ChatGPT ботови је да имају потенцијал да се користе за ширење лажних информација и манипулисање умовима како би утицали јавно мњење.

Упозорио сам на могућу злоупотребу вештачке интелигенције у стварању биолошког оружја и нагласио потребу за регулацијом како би се спречили такви сценарији.

Сам Алтман

Регулатива је кључна компонента за спречавање злоупотребе АИ и ChatGPT ботови у развоју и примени биолошког оружја. Владе треба да развију националне акционе планове за решавање потенцијалне злоупотребе технологије, а компаније треба да буду одговорне за сваку потенцијалну злоупотребу њихове АИ и ChatGPT ботови. Међународне организације треба да улажу у иницијативе које се фокусирају на обуку, праћење и едукацију АИ и ChatGPT ботови.

Губитак посла

Губитак посла
@Midjourney

Потенцијал за губитак посла због АИ и ChatGPT у 2023. предвиђа се да ће бити три пута више него што је било 2020. АИ и ChatGPT може довести до повећане несигурности на радном месту, етичких разматрања и психолошког утицаја на раднике. АИ и ChatGPT може се користити за праћење понашања и активности запослених, омогућавајући послодавцима да брзо доносе одлуке и без потребе за укључењем људског особља. Поред тога, АИ и ChatGPT може изазвати неправедне и пристрасне одлуке које могу довести до финансијске, социјалне и емоционалне несигурности на радном месту.

Нагласио сам да би развој вештачке интелигенције могао довести до значајног губитка радних места и повећања неједнакости.

Сам Алтман

АИ Регулатион

АИ Регулатион
@Midjourney

Овај чланак истражује потенцијални ризици и опасности које окружују АИ и ChatGPT пропис у 2023. АИ и ChatGPT технике може се користити за обављање потенцијално злонамерних активности, као што је профилисање људи на основу њиховог понашања и активности. Недостатак одговарајућег АИ регулација може довести до нежељених последица, као што су кршење података или дискриминација. Регулација вештачке интелигенције може помоћи у ублажавању овог ризика постављањем строгих смерница како би се то осигурало ChatGPT Системи се не користе на злонамеран начин. Коначно, АИ и ChatGPT може постати контролни фактор у нашим животима, контролишући ствари као што су ток саобраћаја и финансијска тржишта, па чак и да се користи да утиче на наше политичке и друштвене животе. Да би се спречила оваква неравнотежа снага, потребно је применити строге прописе.

Предложили смо стварање нове агенције за лиценцирање и регулишу АИ активности ако њихове могућности прелазе одређени праг.

Сам Алтман

Стандарди безбедности

Стандарди безбедности
@Midjourney

АИ и технологије за ћаскање изазивају напредак у начину на који управљамо својим свакодневним животима. Како ове технологије постају све напредније, оне имају потенцијал да постану аутономне и саме доносе одлуке. Да би се ово спречило, безбедносни стандарди мора се утврдити да се ови модели морају испунити пре него што се могу применити. Један од главних безбедносних стандарда које је Алтман предложио 2023. је тест за саморепликацију, који би обезбедио да АИ модел не може да се самореплицира без овлашћења. Други безбедносни стандард који је Алтман предложио 2023. је тест за ексфилтрацију података, који би обезбедио да АИ модели не могу да ексфилтрирају податке из система без овлашћења. Владе широм света почеле су да делују како би заштитиле грађане од потенцијалних ризика.

Морамо да применимо безбедносне стандарде које АИ модели морају да испуне пре примене, укључујући тестове за саморепликацију и ексфилтрацију података.

Сам Алтман

Независне ревизије

Независне ревизије
@Midjourney

У 2023. години, потреба за независним ревизијама АИ и ЛЛМ технологија постаје све важнија. АИ представља низ ризика, као што су алгоритми машинског учења без надзора који могу да мењају, па чак и невољно бришу податке, а сајбер напади све више циљају на вештачку интелигенцију и ChatGPT. Модели направљени од вештачке интелигенције укључују пристрасност, што може довести до дискриминаторних пракси. Независна ревизија треба да укључи преглед моделира АИ је обучен, дизајн алгоритма и излаз модела како би се осигурало да не приказује пристрасно кодирање или резултате. Поред тога, ревизија треба да укључи преглед безбедносних политика и процедура које се користе за заштиту кориснички подаци и обезбедити безбедно окружење.

Независне ревизије ће бити спроведене како би се осигурало да модели вештачке интелигенције испуњавају утврђене безбедносне стандарде.

Сам Алтман

Без независне ревизије, предузећа и корисници су изложени потенцијално опасан и скупи ризици који су се могли избећи. Од кључне је важности да сва предузећа која користе ову технологију имају независну ревизију пре примене да би се осигурало да је технологија безбедна и етичка.

АИ као алат

АИ као алат
@Midjourney

АИ се експоненцијално развио, и напредовања попут GPT-4 довеле су до реалистичнијих и софистициранијих интеракција са рачунарима. Међутим, Алтман је нагласио да АИ треба посматрати као оруђе, а не као разумна створења. GPT-4 је модел за обраду природног језика који може да генерише садржај који се готово не разликује од садржаја писаног од стране људи, одузимајући део посла писцима и омогућавајући корисницима да имају више људско искуство са технологијом.

АИ, посебно напредни модели као нпр GPT-4, треба посматрати као оруђе, а не као жива бића.

Сам Алтман

Међутим, Сем Алтман упозорава да превелики нагласак на АИ као више од алата може довести до нереалних очекивања и лажних уверења о њеним могућностима. Он такође истиче да вештачка интелигенција није без својих етичких импликација, и да чак и ако се напредни нивои вештачке интелигенције могу користити за добро, она би се и даље могла користити за лоше, што доводи до опасног расног профилисања, кршења приватности, па чак и безбедносне претње. Алтман наглашава важност разумевања вештачке интелигенције само као алат и да је треба посматрати као средство за убрзање људског напретка, а не за замену људи.

АИ Цонсциоуснесс

АИ Цонсциоуснесс
@Midjourney

Дебата о вештачкој интелигенцији и о томе да ли она може да постигне свесну свест расте. Многи истраживачи тврде да машине нису у стању да доживе емоционална, ментална или свесна стања, упркос њиховој сложеној рачунарској архитектури. Неки истраживачи прихватају могућност да АИ постигне свесну свест. Главни аргумент за ову могућност је да је вештачка интелигенција изграђена на програмима који је чине способном реплицирање одређене физичке и менталне процесе који се налазе у људском мозгу. Међутим, главни контра аргумент је да АИ нема никакву праву емоционалну интелигенцију.

Иако АИ треба посматрати као алат, признајем текућу дебату у научној заједници у вези са потенцијалном АИ свешћу.

Сам Алтман

Многи истраживачи вештачке интелигенције се слажу да не постоји научни доказ који би сугерисао да је вештачка интелигенција способна да постигне свесну свест на исти начин на који то може људско биће. Елон Муск, један од најгласнијих заговорника овог гледишта, верује да је способност вештачке интелигенције да опонаша биолошке облике живота изузетно ограничена и да би већи нагласак требало ставити на учење машина етичким вредностима.

Војне примене

Војне примене
@Midjourney

АИ у војном контексту брзо напредује и има потенцијал да побољша начин на који војска води рат. Научници се брину да би вештачка интелигенција у војсци могла да представља низ етичких проблема и проблема повезаних са ризиком, као што су непредвидљивост, неурачунљивост и недостатак транспарентности.

Препознајем потенцијал коришћења вештачке интелигенције у војним апликацијама као што су аутономне беспилотне летелице и тражим прописе којима треба управљати такву употребу.

Сам Алтман

Системи вештачке интелигенције су рањиви на злонамерне актере који могу или репрограмирати системе или се инфилтрирати у системе, што потенцијално може довести до разарајућег исхода. За решавање ових забринутостгодине, међународна заједница је направила први корак у виду своје Међународне конвенције о одређеним конвенционалним оружјима из 1980. године, која поставља одређене забране употребе одређеног оружја. Стручњаци за вештачку интелигенцију су се залагали за Међународни комитет који би надгледао процесе као што су евалуација, обука и примена АИ у војним апликацијама.

АГИ

АГИ
@Midjourney

Технологија вештачке интелигенције постаје све напреднија и свеприсутнија, због чега је важно разумети потенцијалне ризике које представљају АИ агенти и системи. Први и најочигледнији ризик повезан са АИ агентима је опасност да машине надмудре људе. АИ агенти могу лако да надмаше своје креаторе тако што ће преузети доношење одлука, процесе аутоматизације и друге напредне задатке. Поред тога, аутоматизација заснована на вештачкој интелигенцији могла би да повећа неједнакост, јер замењује људе у тржиште рада.

Упозоравам да моћнији и сложенији системи вештачке интелигенције могу бити ближи стварности него што многи мисле и наглашавам потребу за приправношћу и превентивним мерама.

Сам Алтман

Алгоритми вештачке интелигенције и њихова употреба у сложеном доношењу одлука изазивају забринутост због недостатка транспарентности. Организације могу ублажити ризике повезани са АИ агентима проактивно осигуравајући да се АИ развија етички, користећи податке који су у складу са етичким стандардима и подвргавајући алгоритме рутинским тестовима како би се осигурало да нису пристрасни и да су одговорни према корисницима и подацима.

Zakljucak

Алтман је такође изјавио да, иако можда не можемо да управљамо Кином, морамо да преговарамо са њом. Предложени критеријуми за оцењивање и регулишући АИ модели укључују способност синтезе биолошких узорака, манипулација веровањима људи, количина утрошене процесорске снаге и тако даље.

Значајна тема је да Сем треба да има „односе“ са државом. Надамо се да неће следити европски пример, као што смо раније споменули.

ФАК

Ризици од вештачке интелигенције укључују могућност да системи вештачке интелигенције испоље пристрасно или дискриминаторско понашање, да буду коришћени злонамерно или неприкладно, или да не функционишу на начин који узрокује штету. Развој и примена АИ технологија може представљати ризик по приватност и безбедност података, као и по безбедност и безбедност људи и система.

Пет главних ризика повезаних са АИ су: Губитак посла, Безбедносни ризици, Пристрасности или дискриминација, Биолошко оружје и АГИ.

Најопаснији аспект вештачке интелигенције је њен потенцијал да изазове масовну незапосленост.

Одрицање од одговорности

У складу са Смернице пројекта Труст, имајте на уму да информације дате на овој страници нису намењене и не треба да се тумаче као правни, порески, инвестициони, финансијски или било који други облик савета. Важно је да инвестирате само оно што можете приуштити да изгубите и да тражите независан финансијски савет ако сумњате. За додатне информације, предлажемо да погледате одредбе и услове, као и странице помоћи и подршке које пружа издавач или оглашивач. MetaversePost је посвећен тачном, непристрасном извештавању, али тржишни услови су подложни променама без претходне најаве.

О аутору

Дамир је вођа тима, менаџер производа и уредник у Metaverse Post, покривајући теме као што су АИ/МЛ, АГИ, ЛЛМ, Метаверсе и Web3-сродна поља. Његови чланци привлаче огромну публику од преко милион корисника сваког месеца. Чини се да је стручњак са 10 година искуства у СЕО и дигиталном маркетингу. Дамир се помиње у Масхабле, Виред, Cointelegraph, Тхе Нев Иоркер, Инсиде.цом, Ентрепренеур, БеИнЦрипто и друге публикације. Путује између УАЕ, Турске, Русије и ЗНД као дигитални номад. Дамир је стекао диплому физике, за коју верује да му је дало вештине критичког размишљања које су му потребне да буде успешан у свету интернета који се стално мења. 

više чланака
Дамир Иалалов
Дамир Иалалов

Дамир је вођа тима, менаџер производа и уредник у Metaverse Post, покривајући теме као што су АИ/МЛ, АГИ, ЛЛМ, Метаверсе и Web3-сродна поља. Његови чланци привлаче огромну публику од преко милион корисника сваког месеца. Чини се да је стручњак са 10 година искуства у СЕО и дигиталном маркетингу. Дамир се помиње у Масхабле, Виред, Cointelegraph, Тхе Нев Иоркер, Инсиде.цом, Ентрепренеур, БеИнЦрипто и друге публикације. Путује између УАЕ, Турске, Русије и ЗНД као дигитални номад. Дамир је стекао диплому физике, за коју верује да му је дало вештине критичког размишљања које су му потребне да буде успешан у свету интернета који се стално мења. 

Hot Stories
Придружите се нашем билтену.
Најновије вести

Институционални апетит расте према Битцоин ЕТФ-овима усред волатилности

Откривања путем 13Ф поднесака откривају значајне институционалне инвеститоре који се баве Битцоин ЕТФ-овима, наглашавајући све веће прихватање ...

Знате више

Стиже дан изрицања пресуде: Судбина ЦЗ-а виси у равнотежи док амерички суд разматра изјашњење Министарства правде

Цхангпенг Зхао се данас суочава са изрицањем казне на америчком суду у Сијетлу.

Знате више
Придружите се нашој заједници иновативних технологија
Опширније
opširnije
Црипто Екцханге Бибит интегрише УСДе Етхена Лабс као колатералну имовину, омогућава трговачке парове БТЦ-УСДе и ЕТХ-УСДе
tržišta Новински извештај технологија
Црипто Екцханге Бибит интегрише УСДе Етхена Лабс као колатералну имовину, омогућава трговачке парове БТЦ-УСДе и ЕТХ-УСДе
Може 7, 2024
Битгет новчаник представља ГетДроп Airdrop Платформа и покреће први Меме Цоин догађај са наградним фондом од 130,000 долара
tržišta Новински извештај технологија
Битгет новчаник представља ГетДроп Airdrop Платформа и покреће први Меме Цоин догађај са наградним фондом од 130,000 долара
Може 7, 2024
Од једноставног рефлекса до агената за учење: погледајте различите типове АИ агената и њихове улоге у модерним апликацијама
Lifestyle софтвер Приче и критике технологија
Од једноставног рефлекса до агената за учење: погледајте различите типове АИ агената и њихове улоге у модерним апликацијама
Може 7, 2024
Месон Нетворк омогућава крипто рударима да добију токене путем рударења. Airdropс И програми откупа долазе
tržišta Новински извештај технологија
Месон Нетворк омогућава крипто рударима да добију токене путем рударења. Airdropс И програми откупа долазе
Може 7, 2024
ЦРИПТОМЕРИА ЛАБС ПТЕ. ЛТД.