AI Wiki Технологии
Май 18, 2023

Топ 10 на AI и ChatGPT Рискове и опасности през 2023 г

С напредъка на изкуствения интелект (AI) и технологията за чатбот все повече компании се стремят към решения за автоматизирано обслужване на клиенти като средство за подобряване на клиентското изживяване и намаляване на режийните разходи. Въпреки че има много ползи от използването на AI модели и чатбот решения, остават и различни рискове и опасности, свързани с технологията, особено след като те стават все по-разпространени и интегрирани в ежедневието ни през следващото десетилетие.

Тази седмица всички в Сената на САЩ слушаха Сам Олтман да говори за регулирането и рисковете от моделите на ИИ. Ето основно резюме:

Биооръжия

Биооръжия
@Midjourney

Използването на изкуствен интелект (AI) в разработването на биооръжия представлява опасно методичен и ефективен начин за създаване на мощни и смъртоносни оръжия за масово унищожение. ChatGPT ботове са управлявани от AI асистенти за разговори, които са способни да поддържат реалистични разговори с хора. Загрижеността с ChatGPT ботове е, че те имат потенциала да бъдат използвани за разпространение на невярна информация и манипулиране на умовете с цел влияние обществено мнение.

Предупредих за възможната злоупотреба с ИИ при създаването на биологични оръжия и подчертах необходимостта от регулиране за предотвратяване на подобни сценарии.

Сам Алтман

Регулирането е ключов компонент за предотвратяване на злоупотребата с AI и ChatGPT ботове в разработването и внедряването на биооръжия. Правителствата трябва да разработят национални планове за действие за справяне с потенциалната злоупотреба с технологията, а компаниите трябва да носят отговорност за всяка потенциална злоупотреба с техните AI и ChatGPT ботове. Международните организации трябва да инвестират в инициативи, които се фокусират върху обучение, наблюдение и обучение на AI и ChatGPT ботове.

Загуба на работа

Загуба на работа
@Midjourney

Потенциалът за загуба на работа поради AI и ChatGPT през 2023 г. се очаква да бъде три пъти повече, отколкото през 2020 г. AI и ChatGPT може да доведе до повишена несигурност на работното място, етични съображения и психологическо въздействие върху работниците. AI и ChatGPT може да се използва за наблюдение на поведението и дейностите на служителите, което позволява на работодателите да вземат решения бързо и без да се изисква участието на човешки персонал. Освен това AI и ChatGPT може да причини несправедливи и пристрастни решения, които могат да доведат до финансова, социална и емоционална несигурност на работното място.

Подчертах, че развитието на ИИ може да доведе до значителни загуби на работни места и увеличаване на неравенството.

Сам Алтман

Регламент за ИИ

Регламент за ИИ
@Midjourney

Тази статия изследва потенциални рискове и опасностите около AI и ChatGPT регулация през 2023 г. AI и ChatGPT техники може да се използва за извършване на потенциално злонамерени дейности, като профилиране на хора въз основа на тяхното поведение и дейности. Липса на правилно AI регулиране може да доведе до непредвидени последици, като нарушаване на данните или дискриминация. Регулирането на ИИ може да помогне за смекчаване на този риск чрез определяне на строги насоки, за да се гарантира това ChatGPT системи не се използват по злонамерен начин. И накрая, AI и ChatGPT може да се превърне в контролиращ фактор в живота ни, като контролира неща като трафика и финансовите пазари и дори да бъде използван за влияние върху нашия политически и социален живот. За да се предотврати този вид дисбаланс на мощността, трябва да има въведени строги разпоредби.

Предложихме създаването на нова агенция за лицензиране и регулират AI дейности, ако техните възможности надхвърлят определен праг.

Сам Алтман

Стандарти за сигурност

Стандарти за сигурност
@Midjourney

AI и чатбот технологиите водят до напредък в начина, по който управляваме ежедневието си. Тъй като тези технологии стават все по-напреднали, те имат потенциала да станат автономни и да вземат решения сами. За да предотвратите това, стандарти за сигурност трябва да се установи, че тези модели трябва да отговарят, преди да могат да бъдат разгърнати. Един от основните стандарти за сигурност, предложен от Алтман през 2023 г., е тест за самовъзпроизвеждане, което би гарантирало, че AI моделът не може да се самовъзпроизвежда без разрешение. Вторият стандарт за сигурност, предложен от Altman през 2023 г., е тест за ексфилтрация на данни, който ще гарантира, че AI моделите не могат да ексфилтрират данни от система без разрешение. Правителствата по света започнаха да действат, за да защитят гражданите от потенциалните рискове.

Трябва да внедрим стандарти за сигурност, на които AI моделите трябва да отговарят преди внедряване, включително тестове за самовъзпроизвеждане и ексфилтрация на данни.

Сам Алтман

Независими одити

Независими одити
@Midjourney

През 2023 г. необходимостта от независими одити на AI и LLMs технологии става все по-важна. AI крие различни рискове, като например неконтролирани алгоритми за машинно обучение, които могат да променят и дори да изтрият данни неволно, а кибератаките все повече са насочени към AI и ChatGPT. Моделите, създадени от AI, включват пристрастия, които могат да доведат до дискриминационни практики. Независимият одит трябва да включва преглед на моделира AI се обучава върху дизайна на алгоритъма и изхода на модела, за да се увери, че не показва предубедено кодиране или резултати. Освен това одитът трябва да включва преглед на политиките за сигурност и процедурите, използвани за защита потребителски данни и осигуряване на сигурна среда.

Независимите одити се провеждат, за да се гарантира, че моделите на AI отговарят на установените стандарти за сигурност.

Сам Алтман

Без независим одит фирмите и потребителите са изложени на потенциално опасни и скъпи рискове, които биха могли да бъдат избегнати. Изключително важно е всички фирми, използващи тази технология, да преминат независим одит преди внедряването, за да се гарантира, че технологията е безопасна и етична.

AI като инструмент

AI като инструмент
@Midjourney

AI се разви експоненциално и напредъци като GPT-4 са довели до по-реалистични и усъвършенствани взаимодействия с компютри. Алтман обаче подчерта, че ИИ трябва да се разглежда като инструменти, а не като съзнателни същества. GPT-4 е модел за обработка на естествен език, който може да генерира съдържание, почти неразличимо от съдържание, написано от хора, отнемайки част от работата на писателите и позволявайки на потребителите да имат по-човешки опит с технологията.

AI, особено напреднали модели като GPT-4, трябва да се разглеждат като инструменти, а не като съзнателни същества.

Сам Алтман

Сам Олтман обаче предупреждава, че прекаленото наблягане върху ИИ като нещо повече от инструмент може да доведе до нереалистични очаквания и погрешни вярвания относно неговите възможности. Той също така посочва, че изкуственият интелект не е лишен от етични последици и че дори ако напредналите нива на изкуствен интелект могат да се използват за добро, той все още може да се използва за лошо, което води до опасно расово профилиране, нарушения на поверителносттаи дори заплахи за сигурността. Алтман подчертава значението на разбирането, че AI е само инструмент и че трябва да се разглежда като инструмент за ускоряване на човешкия прогрес, а не като замяна на хората.

AI Съзнание

AI Съзнание
@Midjourney

Дебатът относно изкуствения интелект и дали той може или не може да постигне съзнателно съзнание нараства. Много изследователи твърдят, че машините не са в състояние да изпитат емоционални, умствени или съзнателни състояния, въпреки тяхната сложна изчислителна архитектура. Някои изследователи приемат възможността AI да постига съзнателно съзнание. Основният аргумент за тази възможност е, че AI е изграден върху програми, които го правят способен на репликиране някои физически и умствени процеси, открити в човешкия мозък. Основният контрааргумент обаче е, че AI няма реална емоционална интелигентност.

Въпреки че AI трябва да се разглежда като инструмент, признавам продължаващия дебат в научната общност относно потенциалното съзнание за AI.

Сам Алтман

Много изследователи на ИИ са съгласни, че няма научно доказателство, което да предполага, че ИИ е способен да постигне съзнателно съзнание по същия начин, по който може едно човешко същество. Елон Мъск, един от най-гласните поддръжници на тази гледна точка, вярва, че способността на ИИ да имитира биологични форми на живот е изключително ограничена и трябва да се наблегне повече на обучението на машини на етични ценности.

Военни приложения

Военни приложения
@Midjourney

ИИ във военен контекст бързо напредва и има потенциала да подобри начина, по който военните водят война. Учените се притесняват, че ИИ в армията може да създаде редица етични и свързани с риска проблеми, като непредсказуемост, неизчислимост и липса на прозрачност.

Признавам потенциала на използването на AI във военни приложения като автономни дронове и призовавам за това регламенти за управление такава употреба.

Сам Алтман

AI системите са уязвими за злонамерени участници, които биха могли или да препрограмират системите, или да проникнат в системите, което потенциално води до опустошителен резултат. За справяне с тези опасения, международната общност направи първа стъпка под формата на своята Международна конвенция за определени конвенционални оръжия от 1980 г., която налага определени забрани върху използването на определени оръжия. Експертите по ИИ се застъпиха за международен комитет, който да наблюдава процеси като оценка, обучение и внедряване на ИИ във военни приложения.

AGI

AGI
@Midjourney

AI технологията става все по-напреднала и широко разпространена, което прави важно да се разберат потенциалните рискове, породени от AI агенти и системи. Първият и най-очевиден риск, свързан с агентите на ИИ, е опасността машините да надхитрят хората. AI агентите могат лесно да надминат създателите си, като поемат вземането на решения, процесите на автоматизация и други усъвършенствани задачи. Освен това автоматизацията, задвижвана от AI, може да увеличи неравенството, тъй като замества хората в пазар на труда.

Предупреждавам, че по-мощните и сложни AI системи може да са по-близо до реалността, отколкото мнозина си мислят и подчертават необходимостта от готовност и превантивни мерки.

Сам Алтман

Алгоритмите на ИИ и тяхното използване при вземане на сложни решения пораждат безпокойство за липсата на прозрачност. Организациите могат смекчаване на рисковете свързани с AI агенти, като проактивно гарантират, че AI се разработва етично, като се използват данни, които са в съответствие с етичните стандарти, и подлагат алгоритмите на рутинни тестове, за да се гарантира, че те не са предубедени и са отговорни към потребителите и данните.

Заключение

Алтман също така заяви, че макар да не сме в състояние да управляваме Китай, трябва да преговаряме с него. Предложените критерии за оценка и регулиращите AI модели включват способността да се синтезират биологични проби, манипулирането на вярванията на хората, количеството изразходвана мощност за обработка и т.н.

Важна тема е, че Сам трябва да има „взаимоотношения“ с държавата. Надяваме се да не последват примера на Европа, както споменахме по-рано.

Въпроси и Отговори

Рисковете за ИИ включват потенциала системите за ИИ да проявяват предубедено или дискриминационно поведение, да бъдат използвани злонамерено или неподходящо или да работят неизправно по начини, които причиняват вреда. Разработването и внедряването на AI технологии може да представлява риск за поверителността и сигурността на данните, както и за безопасността и сигурността на хората и системите.

Петте основни риска, свързани с ИИ, са: Загуба на работа, Рискове за сигурността, Пристрастия или дискриминация, Биооръжия и AGI.

Най-опасният аспект на ИИ е неговият потенциал да причини масова безработица.

Отказ от отговорност

В съответствие с Доверете се насоките на проекта, моля, имайте предвид, че предоставената на тази страница информация не е предназначена да бъде и не трябва да се тълкува като правен, данъчен, инвестиционен, финансов или каквато и да е друга форма на съвет. Важно е да инвестирате само това, което можете да си позволите да загубите, и да потърсите независим финансов съвет, ако имате някакви съмнения. За допълнителна информация предлагаме да се обърнете към правилата и условията, както и към страниците за помощ и поддръжка, предоставени от издателя или рекламодателя. MetaversePost се ангажира с точно, безпристрастно отчитане, но пазарните условия подлежат на промяна без предизвестие.

За автора

Дамир е ръководител на екип, продуктов мениджър и редактор в Metaverse Post, обхващащи теми като AI/ML, AGI, LLMs, Metaverse и Web3- свързани полета. Статиите му привличат огромна аудитория от над милион потребители всеки месец. Изглежда, че е експерт с 10 години опит в SEO и дигитален маркетинг. Дамир е споменат в Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto и други публикации. Той пътува между ОАЕ, Турция, Русия и ОНД като дигитален номад. Дамир получава бакалавърска степен по физика, която според него му е дала уменията за критично мислене, необходими за успех в непрекъснато променящия се пейзаж на интернет. 

Още статии
Дамир Ялалов
Дамир Ялалов

Дамир е ръководител на екип, продуктов мениджър и редактор в Metaverse Post, обхващащи теми като AI/ML, AGI, LLMs, Metaverse и Web3- свързани полета. Статиите му привличат огромна аудитория от над милион потребители всеки месец. Изглежда, че е експерт с 10 години опит в SEO и дигитален маркетинг. Дамир е споменат в Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto и други публикации. Той пътува между ОАЕ, Турция, Русия и ОНД като дигитален номад. Дамир получава бакалавърска степен по физика, която според него му е дала уменията за критично мислене, необходими за успех в непрекъснато променящия се пейзаж на интернет. 

Hot Stories
Присъединете се към нашия бюлетин.
Последни новини

Институционалният апетит нараства към биткойн ETF на фона на волатилност

Оповестяванията чрез документи 13F разкриват забележителни институционални инвеститори, занимаващи се с биткойн ETF, което подчертава нарастващото приемане на...

Научете още

Пристига денят на присъдата: Съдбата на CZ виси на равновесие, докато американският съд разглежда молбата на DOJ

Changpeng Zhao е готов да бъде осъден днес в американски съд в Сиатъл.

Научете още
Присъединете се към нашата иновативна техническа общност
Вижте повече
Прочети повече
Morph представя своя Holesky Testnet с оптимистична zkEVM интеграция, мостов механизъм и децентрализирани мрежови функции на секвенсор
Новини Технологии
Morph представя своя Holesky Testnet с оптимистична zkEVM интеграция, мостов механизъм и децентрализирани мрежови функции на секвенсор
Май 6, 2024
Robinhood Crypto получава известие Wells от Комисията по ценни книжа и борси за предполагаеми нарушения на ценни книжа
пазари Новини Технологии
Robinhood Crypto получава известие Wells от Комисията по ценни книжа и борси за предполагаеми нарушения на ценни книжа
Май 6, 2024
QuickSwap се внедрява в X Layer Mainnet и разширява Polygon CDK мрежата с Citadel Launch
Новини Технологии
QuickSwap се внедрява в X Layer Mainnet и разширява Polygon CDK мрежата с Citadel Launch 
Май 6, 2024
Layer 2 Network Linea инициира ZERO Token Claiming For на ZeroLend Airdrop Потребители и инвеститори
пазари Новини Технологии
Layer 2 Network Linea инициира ZERO Token Claiming For на ZeroLend Airdrop Потребители и инвеститори
Май 6, 2024
CRYPTOMERIA LABS PTE. LTD.