Звіт про новини Технологія
Травень 23, 2023

OpenAI Викликає тривогу щодо потенціалу суперінтелекту та штучного інтелекту перевершити людські можливості в наступне десятиліття

Коротко

OpenAI закликає до регулювання суперінтелекту, підкреслюючи потребу в управлінні у світлі швидкого прогресу ШІ.

Передбачається, що системи штучного інтелекту перевершать досвід людини корпоративної продуктивності протягом десяти років, Згідно OpenAI.

OpenAI підкреслює важливість громадського нагляду та демократичного контролю для потужних систем ШІ.

OpenAI Викликає тривогу щодо потенціалу суперінтелекту та штучного інтелекту перевершити людські можливості в наступне десятиліття

OpenAI, творець Росії ChatGPT, зробив заклик до роздумів регулювання суперінтелекту, проводячи паралелі з регулюванням ядерної енергії. У недавньому блог, OpenAI підкреслив потенційні наслідки швидкого розвитку штучного інтелекту та підкреслив нагальну потребу в управлінні в цьому ландшафті, що розвивається. У компанії заявили, що системи штучного інтелекту перевершать експертів і найбільші корпорації за продуктивністю і навичками протягом десяти років.

«Ми також повинні пом’якшити ризики, пов’язані з сучасними технологіями штучного інтелекту, але суперінтелект вимагатиме особливого ставлення та координації», – Сем Альтман, Грег Брокман та Ілля Сацкевер з OpenAI підкреслено. 

Суперінтелект описує сутність, яка перевищує загальний людський інтелект або деякі конкретні аспекти інтелекту. За словами авторів, суперінтелект ШІ матиме неперевершений рівень потужності, охоплюючи як позитивні, так і негативні аспекти.

Розвиток і ризики неминучого суперінтелекту

OpenAI визначив три важливі ідеї, які відіграють ключову роль у успішному розвитку суперінтелекту. Вони включають координацію провідних зусиль у галузі розвитку, створення міжнародного органу, схожого на Міжнародне агентство з атомної енергії (МАГАТЕ), і розвиток технічних можливостей для безпеки.

У той час як OpenAI визнає, що системи ШІ пов’язані з ризиками, ці ризики можна порівняти з ризиками, пов’язаними з іншими технологіями, пов’язаними з Інтернетом. Альтман, Брокман і Сацкевер також висловлюють упевненість, що нинішні підходи суспільства до управління цими ризиками придатні. Однак головне занепокоєння викликають майбутні системи, які матимуть безпрецедентну потужність.

«Натомість системи, які нас турбують, матимуть потужність, що перевищує будь-яку ще створену технологію, і ми повинні бути обережними, щоб не зменшити увагу до них, застосовуючи подібні стандарти до технологій, які набагато нижчі за цю планку», — йдеться в повідомленні в блозі.

Автори стверджують, що потужні системи ШІ потребують громадського нагляду та демократичного контролю. Вони також пояснюють, чому створюють цю технологію OpenAI: створити кращий світ і уникнути ризиків його зупинки. ШІ допомагає в різних сферах, включаючи освіту, творчість і продуктивність, а також загальне економічне зростання.

OpenAI вважає, що це важко і ризиковано припинити суперінтелект від створення. Суперінтелект має значні переваги, щороку дешевшає, над ним працює більше людей, і це частина технологічного шляху компанії.

Ільман Шажаєв, технічний підприємець у сфері ШІ та співзасновник Лабораторії Фаркана, поділився кількома коментарями щодо новини. Прогнози свідчать про те, що якщо ним не керувати належним чином, суперінтелект може стати одним із найруйнівніших винаходів людини всіх часів. Однак розмови про розгортання технології залишаються суперечливими, оскільки вона ще не розроблена. Прагнення до зупинки розвитку на основі страху перед прогнозами може позбавити людство можливостей, які може мати нова технологія.

"OpenAIДецентралізований підхід до управління може допомогти зберегти його загальну безпеку. За наявності відповідних правил програму можна було б закрити в разі становить загрозу. Якщо ці гарантії будуть на місці, тоді суперінтелект може стати інновацією, яку варто вивчити», — сказав Шажаєв. 

Відкрито обговорюючи свої погляди на суперінтелект ШІ та запропоновані регуляторні заходи, OpenAI здається, сприяє інформованим дискусіям і запрошує різні точки зору.

Сем Альтман твердо вірить у широкій доступності ШІ для громадськості. Визнаючи, що передбачити всі проблеми наперед неможливо, він виступає за вирішення проблем на якомога ранніших стадіях. Однак Альтман також наголошує на важливості незалежного аудиту для таких систем, як ChatGPT до звільнення. Крім того, він визнає можливість впровадження таких заходів, як обмеження темпів створення нової моделі або створення комітету для оцінити безпеку моделей ШІ до виходу на ринок. Примітно, що Альтман передбачає, що кількість розуму у Всесвіті подвоюватиметься кожні 18 місяців.

Детальніше:

відмова

Відповідно до Правила проекту Trust, будь ласка, зверніть увагу, що інформація, надана на цій сторінці, не призначена і не повинна тлумачитися як юридична, податкова, інвестиційна, фінансова або будь-яка інша форма консультації. Важливо інвестувати лише те, що ви можете дозволити собі втратити, і звернутися за незалежною фінансовою порадою, якщо у вас виникнуть сумніви. Щоб отримати додаткову інформацію, ми пропонуємо звернутися до положень та умов, а також до сторінок довідки та підтримки, наданих емітентом або рекламодавцем. MetaversePost прагне до точного, неупередженого звітування, але ринкові умови можуть змінюватися без попередження.

про автора

Агне — журналістка, яка висвітлює останні тенденції та події в метавсесвіті, ШІ та Web3 промисловості для Metaverse Post. Її пристрасть до оповідання привела її до численних інтерв’ю з експертами в цих галузях, завжди прагнучи розкрити захоплюючі та привабливі історії. Агне має ступінь бакалавра літератури та має великий досвід написання текстів на різноманітні теми, включаючи подорожі, мистецтво та культуру. Вона також була волонтером редактора організації з прав тварин, де допомагала підвищувати обізнаність про проблеми добробуту тварин. Зв'яжіться з нею [захищено електронною поштою].

інші статті
Агне Цимерман
Агне Цимерман

Агне — журналістка, яка висвітлює останні тенденції та події в метавсесвіті, ШІ та Web3 промисловості для Metaverse Post. Її пристрасть до оповідання привела її до численних інтерв’ю з експертами в цих галузях, завжди прагнучи розкрити захоплюючі та привабливі історії. Агне має ступінь бакалавра літератури та має великий досвід написання текстів на різноманітні теми, включаючи подорожі, мистецтво та культуру. Вона також була волонтером редактора організації з прав тварин, де допомагала підвищувати обізнаність про проблеми добробуту тварин. Зв'яжіться з нею [захищено електронною поштою].

Hot Stories
Приєднуйтеся до нашої розсилки.
Останні новини

Настав день винесення вироку: суд США розглядає прохання Міністерства юстиції щодо долі CZ.

Changpeng Zhao готовий зіткнутися з вироком у американському суді в Сіетлі сьогодні.

Дізнайтеся більше

Засновників гаманця Samourai Wallet звинувачують у сприянні угодам у Darknet на суму 2 мільярди доларів

Занепокоєння засновників гаманця Samourai Wallet є помітною невдачею для галузі, підкреслюючи постійне...

Дізнайтеся більше
Приєднуйтесь до нашої спільноти інноваційних технологій
Детальніше
Читати далі
Google Med-Gemini готовий дати перевагу GPT-4 Завдяки чудовій ефективності в охороні здоров’я
AI Wiki Новини Софтвер Технологія
Google Med-Gemini готовий дати перевагу GPT-4 Завдяки чудовій ефективності в охороні здоров’я
Травень 2, 2024
Член законодавчої ради Гонконгу Ву Цзечжуан подає цивільний позов проти криптовалютної біржі JPEX
Business Звіт про новини Технологія
Член законодавчої ради Гонконгу Ву Цзечжуан подає цивільний позов проти криптовалютної біржі JPEX
Травень 2, 2024
AltLayer вступає в другу фазу своєї ініціативи щодо ставки, представляючи токен reALT
ринки Звіт про новини Технологія
AltLayer вступає в другу фазу своєї ініціативи щодо ставки, представляючи токен reALT
Травень 2, 2024
Мережа BNB опублікувала звіт за 1 квартал 2024 року, у якому відзначається зниження втрати вартості на 55.8%, тоді як BSC TVL зросла на 70.8%
ринки Звіт про новини Технологія
Мережа BNB опублікувала звіт за 1 квартал 2024 року, у якому відзначається зниження втрати вартості на 55.8%, тоді як BSC TVL зросла на 70.8%
Травень 2, 2024
CRYPTOMERIA LABS PTE. LTD.