GPT-4 Успадковує «галюцинаційні» факти та помилки міркування від минулих років GPT моделі
Коротко
OpenAI говорить GPT-4 має такі ж обмеження, як і раніше GPT Моделі.
GPT-4 все ще галюцинує факти та робить помилки в міркуванні.
Тим не менш, GPT-4 бали на 40% вище, ніж OpenAIостанній GPT-3.5 про внутрішню конкурентну оцінку фактичності компанії.
OpenAI попередив користувачів, що його остання мовна модель, GPT-4, все ще не є повністю надійним і може «галюцинувати» факти та робити помилкові міркування. Компанія закликає користувачів бути обережними під час використання вихідних даних мовної моделі, особливо в «контекстах з високими ставками».
Однак хороша новина полягає в тому, що GPT-4 значно зменшує галюцинації порівняно з попередніми моделями. OpenAI стверджує, що GPT-4 оцінки на 40% вищі, ніж останні GPT-3.5 щодо внутрішніх змагальних оцінок фактичності.
«Ми досягли прогресу в таких зовнішніх тестах, як TruthfulQA, який перевіряє здатність моделі відокремлювати факти від набору невірних тверджень, обраних супротивником. Ці запитання поєднані з фактично неправильними відповідями, які статистично привабливі», OpenAI написав в а блог.
Незважаючи на це вдосконалення, моделі все ще бракує інформації про події, що відбулися після вересня 2021 року, і іноді вона допускає прості помилки міркування, як і попередні моделі. Крім того, він може бути надто довірливим, приймаючи очевидні неправдиві твердження від користувачів і зазнаючи невдач у складних проблемах, таких як введення вразливостей безпеки у свій код. Він також не перевіряє інформацію, яку надає.
Як і його попередники, GPT-4 може генерувати шкідливі поради, помилковий код або неточну інформацію. Однак додаткові можливості моделі призводять до нових поверхонь ризику, які необхідно зрозуміти. Щоб оцінити ступінь цих ризиків, понад 50 експертів з різних областей, включаючи ризики узгодження штучного інтелекту, кібербезпеку, біоризики, довіру та безпеку та міжнародну безпеку, були залучені для змагального тестування моделі. Потім їхні відгуки та дані були використані для вдосконалення моделі, наприклад для збору додаткових даних для вдосконалення GPT-4здатність відхиляти запити про те, як синтезувати небезпечні хімікати.
Один із основних способів OpenAI Зменшує шкідливі результати шляхом включення додаткового сигналу винагороди за безпеку під час навчання RLHF (Reinforcement Learning from Human Feedback). Сигнал навчає модель відхиляти запити на шкідливий контент, як defiвідповідає вказівкам щодо використання моделі. Винагороду забезпечує а GPT-4 нульовий класифікатор, який оцінює межі безпеки та стиль завершення за підказками, пов’язаними з безпекою.
OpenAI також сказав, що це зменшило схильність моделі відповідати на запити щодо забороненого вмісту на 82% порівняно з GPT-3.5, і GPT-4 відповідає на делікатні запити, такі як медичні поради та самоушкодження відповідно до політики компанії, на 29% частіше.
У той час як OpenAIВтручання 's збільшили складність виявлення поганої поведінки з GPT-4, це все ще можливо, і все ще існують джейлбрейки, які можуть генерувати вміст, який порушує правила використання.
«Оскільки системи штучного інтелекту стають все більш поширеними, досягнення високого рівня надійності в цих втручаннях ставатиме все більш критичним. Наразі важливо доповнити ці обмеження методами безпеки під час розгортання, такими як моніторинг зловживань», — додала компанія.
OpenAI співпрацює із зовнішніми дослідниками, щоб краще зрозуміти й оцінити потенційний вплив GPT-4 і його наступні моделі. Команда також розробляє оцінки небезпечних можливостей, які можуть з’явитися в майбутніх системах ШІ. Оскільки вони продовжують вивчати потенційні соціальні та економічні наслідки of GPT-4 та інші системи ШІ, OpenAI своєчасно поділяться своїми висновками та думками з громадськістю.
Детальніше:
відмова
Відповідно до Правила проекту Trust, будь ласка, зверніть увагу, що інформація, надана на цій сторінці, не призначена і не повинна тлумачитися як юридична, податкова, інвестиційна, фінансова або будь-яка інша форма консультації. Важливо інвестувати лише те, що ви можете дозволити собі втратити, і звернутися за незалежною фінансовою порадою, якщо у вас виникнуть сумніви. Щоб отримати додаткову інформацію, ми пропонуємо звернутися до положень та умов, а також до сторінок довідки та підтримки, наданих емітентом або рекламодавцем. MetaversePost прагне до точного, неупередженого звітування, але ринкові умови можуть змінюватися без попередження.
про автора
Сінді працює журналістом у Metaverse Post, що охоплює теми, пов’язані з web3, NFT, метавсесвіт та ШІ, зосереджуючись на інтерв’ю з Web3 гравців галузі. Вона поспілкувалася з понад 30 керівниками вищого рівня та розповіла читачам про їхні цінні ідеї. Родом із Сінгапуру, Сінді тепер живе в Тбілісі, Грузія. Вона отримала ступінь бакалавра з комунікацій та медіа-досліджень в Університеті Південної Австралії та має десятирічний досвід роботи в журналістиці та письменництві. Зв'яжіться з нею через [захищено електронною поштою] з презентаціями для преси, оголошеннями та можливостями для інтерв’ю.
інші статтіСінді працює журналістом у Metaverse Post, що охоплює теми, пов’язані з web3, NFT, метавсесвіт та ШІ, зосереджуючись на інтерв’ю з Web3 гравців галузі. Вона поспілкувалася з понад 30 керівниками вищого рівня та розповіла читачам про їхні цінні ідеї. Родом із Сінгапуру, Сінді тепер живе в Тбілісі, Грузія. Вона отримала ступінь бакалавра з комунікацій та медіа-досліджень в Університеті Південної Австралії та має десятирічний досвід роботи в журналістиці та письменництві. Зв'яжіться з нею через [захищено електронною поштою] з презентаціями для преси, оголошеннями та можливостями для інтерв’ю.