Експерти по изкуствен интелект и обществени фигури вдигат тревога за риска от изчезване на изкуствен интелект
Накратко
Изтъкнати AI експерти и влиятелни фигури изразяват споделеното си опасения относно рисковете, свързани с ИИ.
Въпреки значителния напредък в ИИ, много предизвикателства, свързани с риска от ИИ, остават неразрешени.
Изтъкнати експерти по ИИ и обществени фигури излязоха с изявление, в което предупреждават, че ИИ може да представлява заплаха за оцеляването на човечеството, сравнима или дори по-голяма от рисковете от пандемии и ядрена война. 350-те подписали твърдят, че изкуственият интелект може да има непредвидени и катастрофални последици, като отприщване на автономни оръжия, нарушаване на социалните и икономически системи или създаване на суперинтелигентни агенти, които могат да надхитрят и надвият хората.
Те призовават политиците да приемат сериозно тези рискове и да приемат мерки за осигуряване на безопасно и полезно развитие на ИИ. The изявление е подписан от някои от водещите фигури в изследванията и развитието на AI, като напр OpenAI Главният изпълнителен директор Сам Алтман, съоснователят на Skype Яан Талин, главният изпълнителен директор на DeepMind Демис Хасабис и компютърният учен с изкуствен интелект Джефри Хинтън, както и влиятелни публични личности като музиканта Граймс и подкастъра Сам Харис.
Сред подписалите бяха носители на наградата Тюринг за 2018 г. за техния принос към дълбокото обучение: Джефри Хинтън и Йошуа Бенгио. Към тях се присъединиха професори от престижни университети като Харвард и университета Цинхуа в Китай, както и Макс Тегмарк от MIT.
„Намаляването на риска от изчезване от ИИ трябва да бъде глобален приоритет наред с други рискове от обществен мащаб като пандемии и ядрена война“,
гласи писмото, публикувано от CAIS.
Центърът за безопасност на ИИ (CAIS), организация с нестопанска цел, базирана в Сан Франциско, има за цел да отговори на проблемите, свързани с безопасността, свързани с изкуствения интелект. Докато признава потенциалните ползи от AI, CAIS подчертава необходимостта от неговото разработване и използване безопасно. Въпреки значителния напредък в AI, множество фундаментални предизвикателства в безопасността на AI остават неразрешени, смята компанията. Според неговия уебсайт, мисията на CAIS е да смекчава рисковете чрез провеждане на изследвания за безопасност, насърчаване на общност от изследователи на безопасността на ИИ и застъпничество за стандарти за безопасност.
„Има много „важни и неотложни рискове от ИИ“, не само рискът от изчезване; например системни пристрастия, дезинформация, злонамерена употреба, кибератаки и въоръжение. Всичко това са важни рискове, на които трябва да се обърне внимание. Обществата могат да управляват множество рискове наведнъж; не е „или/или“, а „да/и“. От гледна точка на управлението на риска, точно както би било безразсъдно да се приоритизират изключително настоящите вреди, също така би било безразсъдно и да ги игнорирате,“
Дан Хендрикс, директор на CAIS пише на Twitter.
През март над 1,100 технически експерти подписан отворено писмо с искане за шестмесечно спиране на обучението на AI системи, превъзхождащи GPT-4. Европейските законодатели също наскоро одобрен по-строг проект на законодателство, известен като Закон за изкуствения интелект, регулиращ инструменти за изкуствен интелект като ChatGPT. Актът включва изисквания за проверки на безопасността, управление на данните и смекчаване на риска за основните модели на ИИ и забранява практики като манипулативни техники и определени употреби на биометрични данни.
Чети повече:
- OpenAI Разкрива най-новия си подход за осигуряване на безопасност на AI
- Google ще обяви ли генератор на текст към аватар за геймъри?
- CodeWhisperer на Amazon дава на разработчиците предимството, от което се нуждаят в AI Arena
- Виталик Бутерин и директорът на MIRI Нейт Соарес се задълбочават в опасностите от ИИ
Отказ от отговорност
В съответствие с Доверете се насоките на проекта, моля, имайте предвид, че предоставената на тази страница информация не е предназначена да бъде и не трябва да се тълкува като правен, данъчен, инвестиционен, финансов или каквато и да е друга форма на съвет. Важно е да инвестирате само това, което можете да си позволите да загубите, и да потърсите независим финансов съвет, ако имате някакви съмнения. За допълнителна информация предлагаме да се обърнете към правилата и условията, както и към страниците за помощ и поддръжка, предоставени от издателя или рекламодателя. MetaversePost се ангажира с точно, безпристрастно отчитане, но пазарните условия подлежат на промяна без предизвестие.
За автора
Агне е журналист, който отразява най-новите тенденции и развития в метавселената, ИИ и Web3 индустрии за Metaverse Post. Нейната страст към разказването на истории я кара да провежда множество интервюта с експерти в тези области, като винаги се стреми да разкрива вълнуващи и ангажиращи истории. Агне има бакалавърска степен по литература и има богат опит в писането на широк спектър от теми, включително пътуване, изкуство и култура. Тя също е била доброволец като редактор на организацията за правата на животните, където е помогнала за повишаване на осведомеността относно проблемите, свързани с хуманното отношение към животните. Свържете се с нея на [имейл защитен].
Още статииАгне е журналист, който отразява най-новите тенденции и развития в метавселената, ИИ и Web3 индустрии за Metaverse Post. Нейната страст към разказването на истории я кара да провежда множество интервюта с експерти в тези области, като винаги се стреми да разкрива вълнуващи и ангажиращи истории. Агне има бакалавърска степен по литература и има богат опит в писането на широк спектър от теми, включително пътуване, изкуство и култура. Тя също е била доброволец като редактор на организацията за правата на животните, където е помогнала за повишаване на осведомеността относно проблемите, свързани с хуманното отношение към животните. Свържете се с нея на [имейл защитен].