AI Wiki Технологія
Травень 18, 2023

10 кращих ШІ та ChatGPT Ризики та небезпеки у 2023 році

Завдяки прогресу штучного інтелекту (AI) і технології чат-ботів все більше компаній шукають рішення для автоматизованого обслуговування клієнтів, щоб покращити взаємодію з клієнтами та зменшити накладні витрати. Незважаючи на те, що використання моделей штучного інтелекту та рішень для чат-ботів має багато переваг, залишаються різні ризики та небезпеки, пов’язані з технологією, особливо тому, що вона стане все більш поширеною та інтегрованою в наше повсякденне життя протягом наступного десятиліття.

Цього тижня всі в Сенаті США слухали Сема Альтмана, який говорив про регулювання та ризики моделей ШІ. Ось основний виклад:

Біозброя

Біозброя
@Midjourney

Використання штучного інтелекту (AI) у розробці біологічної зброї представляє небезпечний методичний та ефективний спосіб створення потужної та смертоносної зброї масового знищення. ChatGPT боти це помічники для розмови, керовані ШІ, які здатні підтримувати реалістичні розмови з людьми. Концерн с ChatGPT ботів полягає в тому, що їх можна використовувати для поширення неправдивої інформації та маніпулювання свідомістю з метою впливу громадська думка.

Я попередив про можливе зловживання штучним інтелектом у створенні біологічної зброї та наголосив на необхідності регулювання для запобігання таким сценаріям.

Сем Альтман

Регулювання є ключовим компонентом для запобігання зловживанням ШІ та ChatGPT ботів у розробці та розгортанні біологічної зброї. Урядам необхідно розробити національні плани дій щодо можливого зловживання технологією, а компанії повинні нести відповідальність за будь-яке потенційне зловживання технологією. ШІ та ChatGPT боти. Міжнародні організації повинні інвестувати в ініціативи, які зосереджуються на навчанні, моніторингу та навчанні ШІ та ChatGPT ботів.

Втрата роботи

Втрата роботи
@Midjourney

Можливість втрати роботи через ШІ та ChatGPT прогнозується, що у 2023 році буде втричі більше, ніж у 2020 році. ШІ та ChatGPT може призвести до підвищення незахищеності на робочому місці, етичних міркувань і психологічного впливу на працівників. ШІ та ChatGPT може використовуватися для моніторингу поведінки та діяльності працівників, дозволяючи роботодавцям приймати рішення швидко й без залучення людського персоналу. Крім того, ШІ та ChatGPT може спричинити несправедливі та упереджені рішення, які можуть призвести до фінансової, соціальної та емоційної незахищеності на робочому місці.

Я підкреслив, що розвиток штучного інтелекту може призвести до значної втрати робочих місць і збільшення нерівності.

Сем Альтман

Регулювання ШІ

Регулювання ШІ
@Midjourney

Ця стаття досліджує потенційні ризики і небезпеки навколо ШІ та ChatGPT регулювання 2023 р. А. І. і ChatGPT методи може використовуватися для виконання потенційно зловмисних дій, таких як створення профілю людей на основі їхньої поведінки та діяльності. Відсутність належного Регулювання ШІ може призвести до небажаних наслідків, таких як порушення даних або дискримінація. Регулювання штучного інтелекту може допомогти зменшити цей ризик, встановивши суворі вказівки для забезпечення цього ChatGPT системи не використовуються зі зловмисною метою. Нарешті, А.І ChatGPT може стати керуючим чинником у нашому житті, контролюючи такі речі, як рух транспорту та фінансові ринки, і навіть використовуватися для впливу на наше політичне та соціальне життя. Щоб запобігти такому дисбалансу влади, необхідно впровадити суворі правила.

Ми запропонували створити нове агентство з ліцензування та регулюють ШІ діяльності, якщо їхні можливості перевищують певний поріг.

Сем Альтман

Стандарти безпеки

Стандарти безпеки
@Midjourney

Технології ШІ та чат-ботів спричиняють прогрес у тому, як ми керуємо повсякденним життям. Оскільки ці технології стають більш досконалими, вони мають потенціал стати автономними та приймати рішення самостійно. Щоб запобігти цьому, стандарти безпеки необхідно встановити, що ці моделі повинні відповідати, перш ніж їх можна буде розгорнути. Одним із основних стандартів безпеки, запропонованих Альтманом у 2023 році, є тест на самовідтворення, який би гарантував, що модель ШІ не зможе самовідтворюватися без авторизації. Другий стандарт безпеки, запропонований Альтманом у 2023 році, — це тест на викрадання даних, який гарантує, що моделі AI не зможуть викрадати дані із системи без авторизації. Уряди в усьому світі почали діяти, щоб захистити громадян від потенційних ризиків.

Ми маємо запровадити стандарти безпеки, яким мають відповідати моделі ШІ перед розгортанням, включаючи тести на самовідтворення та викрадання даних.

Сем Альтман

Незалежні аудити

Незалежні аудити
@Midjourney

У 2023 році потреба в незалежних аудитах технологій ШІ та LLM стає все більш важливою. ШІ створює різноманітні ризики, наприклад неконтрольовані алгоритми машинного навчання, які можуть мимовільно змінювати та навіть видаляти дані, а кібератаки все частіше спрямовані на ШІ та ChatGPT. Моделі, створені штучним інтелектом, містять упередження, що може призвести до дискримінаційної практики. Незалежний аудит повинен включати перевірку моделює ШІ навчається, розробці алгоритму та результату моделі, щоб переконатися, що вона не відображає упередженого кодування чи результатів. Крім того, аудит повинен включати перевірку політик безпеки та процедур, які використовуються для захисту даних користувача і забезпечити безпечне середовище.

Необхідно провести незалежні перевірки, щоб переконатися, що моделі ШІ відповідають встановленим стандартам безпеки.

Сем Альтман

Без незалежного аудиту компанії та користувачі піддаються ризику потенційно небезпечний і дорогі ризики, яких можна було б уникнути. Дуже важливо, щоб усі підприємства, які використовують цю технологію, перед розгортанням пройшли незалежний аудит, щоб переконатися, що технологія є безпечною та етичною.

ШІ як інструмент

ШІ як інструмент
@Midjourney

ШІ розвивався експоненціально, і досягнення, як GPT-4 призвели до більш реалістичної та витонченої взаємодії з комп’ютерами. Однак Альтман підкреслив, що штучний інтелект слід розглядати як інструменти, а не як розумні створіння. GPT-4 це модель обробки природної мови, яка може генерувати вміст, який майже не відрізняється від вмісту, написаного людьми, знімаючи частину роботи з авторів і дозволяючи користувачам отримати більш схожий на людину досвід роботи з технологіями.

AI, особливо просунуті моделі, такі як GPT-4, слід розглядати як інструменти, а не як живі істоти.

Сем Альтман

Однак Сем Альтман попереджає, що надмірний акцент на штучному інтелекті як на більш ніж простому інструменті може призвести до нереалістичних очікувань і помилкових переконань щодо його можливостей. Він також зазначає, що штучний інтелект не позбавлений етичних наслідків, і що навіть якщо сучасні рівні штучного інтелекту можна використовувати на користь, він все одно може використовуватися на зло, що призведе до небезпечного расового профілювання, порушення конфіденційностіі навіть загрози безпеці. Альтман наголошує на важливості розуміння того, що штучний інтелект є лише інструментом, і що його слід розглядати як інструмент для прискорення прогресу людства, а не як засіб заміни людей.

ШІ Свідомість

ШІ Свідомість
@Midjourney

Дебати щодо ШІ та того, чи може він досягти свідомого усвідомлення, зростають. Багато дослідників стверджують, що машини не здатні переживати емоційні, розумові чи свідомі стани, незважаючи на їх складну обчислювальну архітектуру. Деякі дослідники визнають можливість ШІ досягти свідомого усвідомлення. Основним аргументом на користь такої можливості є те, що ШІ побудований на програмах, які роблять його здатним тиражування певні фізичні та розумові процеси, що відбуваються в мозку людини. Однак основним контраргументом є те, що штучний інтелект не має справжнього емоційного інтелекту.

Хоча ШІ слід розглядати як інструмент, я визнаю, що в науковому співтоваристві тривають дебати щодо потенційної свідомості ШІ.

Сем Альтман

Багато дослідників штучного інтелекту погоджуються, що немає наукових доказів того, що штучний інтелект здатний досягати свідомого усвідомлення так само, як і людина. Елон Маск, один із найбільш гучних прихильників цієї точки зору, вважає, що здатність штучного інтелекту імітувати біологічні форми життя вкрай обмежена, і більше уваги слід приділяти навчанню машин етичним цінностям.

Військові додатки

Військові додатки
@Midjourney

Штучний інтелект у військовому контексті швидко розвивається та має потенціал для покращення того, як військові ведуть війну. Вчені стурбовані тим, що штучний інтелект у військових може спричинити низку етичних проблем і проблем, пов’язаних із ризиком, таких як непередбачуваність, непрорахованість і відсутність прозорості.

Я визнаю потенціал використання штучного інтелекту у військових програмах, таких як автономні безпілотні літальні апарати правила для регулювання таке використання.

Сем Альтман

Системи штучного інтелекту вразливі для зловмисників, які можуть або перепрограмувати системи, або проникнути в системи, що потенційно може призвести до руйнівного результату. Для вирішення цих проблеми, міжнародне співтовариство зробило перший крок у формі своєї Міжнародної конвенції про певні види звичайної зброї 1980 року, яка встановлює певні заборони на використання певної зброї. Експерти з штучного інтелекту виступають за створення Міжнародного комітету для нагляду за такими процесами, як оцінка, навчання та розгортання штучного інтелекту у військових цілях.

AGI

AGI
@Midjourney

Технологія штучного інтелекту стає все більш прогресивною та поширеною, тому важливо розуміти потенційні ризики, створені агентами та системами ШІ. Перший і найбільш очевидний ризик, пов’язаний з агентами штучного інтелекту, — це небезпека того, що машини перехитрить людей. Агенти штучного інтелекту можуть легко перевершити своїх творців, взявши на себе прийняття рішень, процеси автоматизації та інші складні завдання. Крім того, автоматизація на основі штучного інтелекту може збільшити нерівність, оскільки вона замінює людей ринок праці.

Я попереджаю, що більш потужні та складні системи штучного інтелекту можуть бути ближчими до реальності, ніж багато хто думає, і наголосив на необхідності готовності та запобіжних заходів.

Сем Альтман

Алгоритми штучного інтелекту та їх використання в процесі прийняття складних рішень викликають занепокоєння через відсутність прозорості. Організації можуть зменшити ризики пов’язані з агентами штучного інтелекту шляхом проактивного забезпечення етичної розробки штучного інтелекту, використання даних, які відповідають етичним стандартам, і піддавання алгоритмів регулярним тестам, щоб переконатися, що вони не є упередженими та відповідають за користувачів і дані.

Висновок

Альтман також заявив, що хоча ми можемо не в змозі керувати Китаєм, ми повинні вести з ним переговори. Запропоновані критерії оцінювання та регулюючі моделі ШІ включають здатність синтезувати біологічні зразки, маніпулювання переконаннями людей, кількість витраченої процесорної потужності тощо.

Важливою темою є те, що Сем повинен мати «стосунки» з державою. Сподіваємось, вони не візьмуть приклад Європи, як ми вже згадували.

Питання і відповіді

Ризики штучного інтелекту включають можливість того, що системи штучного інтелекту можуть проявляти упереджену чи дискримінаційну поведінку, використовуватися зловмисно чи неналежним чином або працювати неправильно, що завдає шкоди. Розробка та розгортання технологій штучного інтелекту може створювати ризики для конфіденційності та безпеки даних, а також для безпеки та безпеки людей і систем.

П’ять основних ризиків, пов’язаних із штучним інтелектом: втрата роботи, Ризики безпеки, Упередження або дискримінація, Біозброя та AGI.

Найнебезпечнішим аспектом ШІ є його здатність викликати масове безробіття.

відмова

Відповідно до Правила проекту Trust, будь ласка, зверніть увагу, що інформація, надана на цій сторінці, не призначена і не повинна тлумачитися як юридична, податкова, інвестиційна, фінансова або будь-яка інша форма консультації. Важливо інвестувати лише те, що ви можете дозволити собі втратити, і звернутися за незалежною фінансовою порадою, якщо у вас виникнуть сумніви. Щоб отримати додаткову інформацію, ми пропонуємо звернутися до положень та умов, а також до сторінок довідки та підтримки, наданих емітентом або рекламодавцем. MetaversePost прагне до точного, неупередженого звітування, але ринкові умови можуть змінюватися без попередження.

про автора

Дамір є керівником групи, менеджером із продуктів і редактором Metaverse Post, що охоплює такі теми, як AI/ML, AGI, LLMs, Metaverse тощо Web3- суміжні поля. Його статті щомісяця приваблюють величезну аудиторію понад мільйон користувачів. Здається, він є експертом із 10-річним досвідом роботи в SEO та цифровому маркетингу. Даміра згадували в Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto та інші видання. Він подорожує між ОАЕ, Туреччиною, Росією та СНД як цифровий кочівник. Дамір отримав ступінь бакалавра з фізики, що, на його думку, дало йому навички критичного мислення, необхідні для досягнення успіху в Інтернеті, який постійно змінюється. 

інші статті
Дамір Ялалов
Дамір Ялалов

Дамір є керівником групи, менеджером із продуктів і редактором Metaverse Post, що охоплює такі теми, як AI/ML, AGI, LLMs, Metaverse тощо Web3- суміжні поля. Його статті щомісяця приваблюють величезну аудиторію понад мільйон користувачів. Здається, він є експертом із 10-річним досвідом роботи в SEO та цифровому маркетингу. Даміра згадували в Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto та інші видання. Він подорожує між ОАЕ, Туреччиною, Росією та СНД як цифровий кочівник. Дамір отримав ступінь бакалавра з фізики, що, на його думку, дало йому навички критичного мислення, необхідні для досягнення успіху в Інтернеті, який постійно змінюється. 

Hot Stories
Приєднуйтеся до нашої розсилки.
Останні новини

Криптопрорив у травні 2024 року: тріумф монети Bitgert

by Григорій Пудовський
Травень 06, 2024

Інституційний апетит зростає до біткойн ETF на тлі волатильності

Розкриття інформації через документи 13F свідчить про те, що відомі інституційні інвестори займаються біткойн ETF, підкреслюючи зростаюче визнання ...

Дізнайтеся більше

Настав день винесення вироку: суд США розглядає прохання Міністерства юстиції щодо долі CZ.

Changpeng Zhao готовий зіткнутися з вироком у американському суді в Сіетлі сьогодні.

Дізнайтеся більше
Приєднуйтесь до нашої спільноти інноваційних технологій
Детальніше
Читати далі
Мережа рівня 2 Linea ініціює вимогу ZERO Token від ZeroLend Airdrop Користувачі та інвестори
ринки Звіт про новини Технологія
Мережа рівня 2 Linea ініціює вимогу ZERO Token від ZeroLend Airdrop Користувачі та інвестори
Травень 6, 2024
Binance припиняє підтримку продуктів і послуг BIDR і рекомендує користувачам конвертувати кошти до 20 серпня
ринки Звіт про новини Технологія
Binance припиняє підтримку продуктів і послуг BIDR і рекомендує користувачам конвертувати кошти до 20 серпня
Травень 6, 2024
Порушення безпеки вразило GNUS.AI екосистеми Fantom, призвело до збитків у розмірі 1.27 млн ​​доларів
ринки Звіт про новини Технологія
Порушення безпеки вразило GNUS.AI екосистеми Fantom, призвело до збитків у розмірі 1.27 млн ​​доларів
Травень 6, 2024
Через 1 років після запуску мережа Bitcoin перевищила XNUMX мільярд транзакцій
ринки Звіт про новини Технологія
Через 1 років після запуску мережа Bitcoin перевищила XNUMX мільярд транзакцій
Травень 6, 2024
CRYPTOMERIA LABS PTE. LTD.