OpenAI Викликає тривогу щодо потенціалу суперінтелекту та штучного інтелекту перевершити людські можливості в наступне десятиліття
Коротко
OpenAI закликає до регулювання суперінтелекту, підкреслюючи потребу в управлінні у світлі швидкого прогресу ШІ.
Передбачається, що системи штучного інтелекту перевершать досвід людини корпоративної продуктивності протягом десяти років, Згідно OpenAI.
OpenAI підкреслює важливість громадського нагляду та демократичного контролю для потужних систем ШІ.
OpenAI, творець Росії ChatGPT, зробив заклик до роздумів регулювання суперінтелекту, проводячи паралелі з регулюванням ядерної енергії. У недавньому блог, OpenAI підкреслив потенційні наслідки швидкого розвитку штучного інтелекту та підкреслив нагальну потребу в управлінні в цьому ландшафті, що розвивається. У компанії заявили, що системи штучного інтелекту перевершать експертів і найбільші корпорації за продуктивністю і навичками протягом десяти років.
«Ми також повинні пом’якшити ризики, пов’язані з сучасними технологіями штучного інтелекту, але суперінтелект вимагатиме особливого ставлення та координації», – Сем Альтман, Грег Брокман та Ілля Сацкевер з OpenAI підкреслено.
Суперінтелект описує сутність, яка перевищує загальний людський інтелект або деякі конкретні аспекти інтелекту. За словами авторів, суперінтелект ШІ матиме неперевершений рівень потужності, охоплюючи як позитивні, так і негативні аспекти.
Розвиток і ризики неминучого суперінтелекту
OpenAI визначив три важливі ідеї, які відіграють ключову роль у успішному розвитку суперінтелекту. Вони включають координацію провідних зусиль у галузі розвитку, створення міжнародного органу, схожого на Міжнародне агентство з атомної енергії (МАГАТЕ), і розвиток технічних можливостей для безпеки.
У той час як OpenAI визнає, що системи ШІ пов’язані з ризиками, ці ризики можна порівняти з ризиками, пов’язаними з іншими технологіями, пов’язаними з Інтернетом. Альтман, Брокман і Сацкевер також висловлюють упевненість, що нинішні підходи суспільства до управління цими ризиками придатні. Однак головне занепокоєння викликають майбутні системи, які матимуть безпрецедентну потужність.
«Натомість системи, які нас турбують, матимуть потужність, що перевищує будь-яку ще створену технологію, і ми повинні бути обережними, щоб не зменшити увагу до них, застосовуючи подібні стандарти до технологій, які набагато нижчі за цю планку», — йдеться в повідомленні в блозі.
Автори стверджують, що потужні системи ШІ потребують громадського нагляду та демократичного контролю. Вони також пояснюють, чому створюють цю технологію OpenAI: створити кращий світ і уникнути ризиків його зупинки. ШІ допомагає в різних сферах, включаючи освіту, творчість і продуктивність, а також загальне економічне зростання.
OpenAI вважає, що це важко і ризиковано припинити суперінтелект від створення. Суперінтелект має значні переваги, щороку дешевшає, над ним працює більше людей, і це частина технологічного шляху компанії.
Ільман Шажаєв, технічний підприємець у сфері ШІ та співзасновник Лабораторії Фаркана, поділився кількома коментарями щодо новини. Прогнози свідчать про те, що якщо ним не керувати належним чином, суперінтелект може стати одним із найруйнівніших винаходів людини всіх часів. Однак розмови про розгортання технології залишаються суперечливими, оскільки вона ще не розроблена. Прагнення до зупинки розвитку на основі страху перед прогнозами може позбавити людство можливостей, які може мати нова технологія.
"OpenAIДецентралізований підхід до управління може допомогти зберегти його загальну безпеку. За наявності відповідних правил програму можна було б закрити в разі становить загрозу. Якщо ці гарантії будуть на місці, тоді суперінтелект може стати інновацією, яку варто вивчити», — сказав Шажаєв.
Відкрито обговорюючи свої погляди на суперінтелект ШІ та запропоновані регуляторні заходи, OpenAI здається, сприяє інформованим дискусіям і запрошує різні точки зору.
Сем Альтман твердо вірить у широкій доступності ШІ для громадськості. Визнаючи, що передбачити всі проблеми наперед неможливо, він виступає за вирішення проблем на якомога ранніших стадіях. Однак Альтман також наголошує на важливості незалежного аудиту для таких систем, як ChatGPT до звільнення. Крім того, він визнає можливість впровадження таких заходів, як обмеження темпів створення нової моделі або створення комітету для оцінити безпеку моделей ШІ до виходу на ринок. Примітно, що Альтман передбачає, що кількість розуму у Всесвіті подвоюватиметься кожні 18 місяців.
Детальніше:
відмова
Відповідно до Правила проекту Trust, будь ласка, зверніть увагу, що інформація, надана на цій сторінці, не призначена і не повинна тлумачитися як юридична, податкова, інвестиційна, фінансова або будь-яка інша форма консультації. Важливо інвестувати лише те, що ви можете дозволити собі втратити, і звернутися за незалежною фінансовою порадою, якщо у вас виникнуть сумніви. Щоб отримати додаткову інформацію, ми пропонуємо звернутися до положень та умов, а також до сторінок довідки та підтримки, наданих емітентом або рекламодавцем. MetaversePost прагне до точного, неупередженого звітування, але ринкові умови можуть змінюватися без попередження.
про автора
Агне — журналістка, яка висвітлює останні тенденції та події в метавсесвіті, ШІ та Web3 промисловості для Metaverse Post. Її пристрасть до оповідання привела її до численних інтерв’ю з експертами в цих галузях, завжди прагнучи розкрити захоплюючі та привабливі історії. Агне має ступінь бакалавра літератури та має великий досвід написання текстів на різноманітні теми, включаючи подорожі, мистецтво та культуру. Вона також була волонтером редактора організації з прав тварин, де допомагала підвищувати обізнаність про проблеми добробуту тварин. Зв'яжіться з нею [захищено електронною поштою].
інші статтіАгне — журналістка, яка висвітлює останні тенденції та події в метавсесвіті, ШІ та Web3 промисловості для Metaverse Post. Її пристрасть до оповідання привела її до численних інтерв’ю з експертами в цих галузях, завжди прагнучи розкрити захоплюючі та привабливі історії. Агне має ступінь бакалавра літератури та має великий досвід написання текстів на різноманітні теми, включаючи подорожі, мистецтво та культуру. Вона також була волонтером редактора організації з прав тварин, де допомагала підвищувати обізнаність про проблеми добробуту тварин. Зв'яжіться з нею [захищено електронною поштою].