Новини Технологии
Октомври 24, 2023

Експертите по изкуствен интелект се застъпват за необходимостта от повишени инвестиции в безопасност на изкуствения интелект от страна на правителствата и бизнеса

Накратко

Група изследователи на AI издадоха съвместно писмо, призоваващо компаниите за изкуствен интелект и правителствата да отделят повече средства, за да дадат приоритет на безопасното и етично използване на системите с AI.

Експертите изразяват загриженост относно бързото развитие на AI технологията и нейния потенциал да изостри социалните несправедливости, да дестабилизира обществото и да създаде глобални заплахи за сигурността.

Експертите по изкуствен интелект призовават за по-високи разходи за безопасност на изкуствения интелект от правителствата и бизнеса Проучване на Google: Иновациите, управлявани от изкуствен интелект, могат да генерират £400 милиарда икономическа стойност за Обединеното кралство до 2030 г.

Водещи изследователи на ИИ, включително носители на наградата Тюринг и Нобелови лауреати, призовават компаниите за изкуствен интелект и правителствата да разпределят минимум една трета от финансирането си за изследвания и развитие на ИИ, за да осигурят безопасното и етично използване на системите за ИИ. 

В съвместно писмо публикувани точно преди международната среща на върха за безопасността на ИИ в Лондон, експертите очертаха мерки за справяне с рисковете, свързани с ИИ. Те също така се застъпват за това правителствата законно да държат компаниите отговорни за предвидими щети, причинени от техните усъвършенствани системи за изкуствен интелект.

„Системите с изкуствен интелект могат бързо да превъзхождат хората в нарастващ брой задачи… Те заплашват да засилят социалната несправедливост, да подкопаят социалната стабилност и да отслабят споделеното ни разбиране за реалността, което е в основата на обществото“, видни фигури в областта на изкуствения интелект, като напр. Джефри Хинтън, Андрю Яо, Даниел Канеман, Доун Сонг и Ювал Ноа Харари, пишат в писмото.

„Те биха могли също така да позволят мащабни престъпни или терористични дейности. Особено в ръцете на няколко могъщи актьори, AI може да циментира или изостри глобалните неравенства или да улесни автоматизираната война, персонализирана масова манипулация и широко разпространено наблюдение.

Необходими са спешни действия за безопасно и етично разработване на ИИ

Неотложността на това правно основание произтича от убеждението, че настоящите разпоредби не успяват да се справят адекватно с бързия прогрес на AI технологията.

В разработването на AI експертите осъзнават належащата необходимост да се изправят пред сложни предизвикателства. Те твърдят, че простото укрепване на възможностите на AI няма да постигне целта. Тези предизвикателства включват надзор и честност, при което усъвършенстваният AI може да използва уязвимости при тестване, както и проблеми, свързани със стабилността, интерпретируемостта, оценката на риска и възникващите предизвикателства. 

Бъдещите AI системи може да проявят неочаквани режими на повреда, подчертавайки значението на големите технологични компании и публичните финансиращи организации, които отделят значителна част от бюджета си за изследвания и развитие на AI, за да дадат приоритет на безопасността и етиката заедно с подобряването на възможностите на AI.

Според писмото липсата на управление на ИИ може да изкуши компаниите и нациите да дадат приоритет на способностите пред безопасността или да делегират важни обществени функции на системи с ИИ с ограничен човешки надзор.

За ефективно регулиране правителствата спешно се нуждаят от цялостна представа за развитието на ИИ. Освен това, допълнителните мерки са от съществено значение за високомощните системи с ИИ, включително лицензиране на тяхното развитие, временно спиране в отговор на загрижени способности, контрол на достъпа и стабилна информационна сигурност.

Въпреки някои опасения от страна на компаниите за ИИ по отношение на разходите за съответствие и рисковете от отговорност, поддръжниците твърдят, че стабилните регулации са от съществено значение за смекчаване на потенциалните рискове, свързани с неконтролираното развитие на ИИ.

„ИИ може да е технологията, която оформя този век. Въпреки че възможностите на ИИ напредват бързо, напредъкът в безопасността и управлението изостава. За да насочим ИИ към положителни резултати и далеч от катастрофата, трябва да се преориентираме. Има отговорен път, ако имаме мъдростта да го поемем“, завършва писмото.

Чети повече:

Отказ от отговорност

В съответствие с Доверете се насоките на проекта, моля, имайте предвид, че предоставената на тази страница информация не е предназначена да бъде и не трябва да се тълкува като правен, данъчен, инвестиционен, финансов или каквато и да е друга форма на съвет. Важно е да инвестирате само това, което можете да си позволите да загубите, и да потърсите независим финансов съвет, ако имате някакви съмнения. За допълнителна информация предлагаме да се обърнете към правилата и условията, както и към страниците за помощ и поддръжка, предоставени от издателя или рекламодателя. MetaversePost се ангажира с точно, безпристрастно отчитане, но пазарните условия подлежат на промяна без предизвестие.

За автора

Агне е журналист, който отразява най-новите тенденции и развития в метавселената, ИИ и Web3 индустрии за Metaverse Post. Нейната страст към разказването на истории я кара да провежда множество интервюта с експерти в тези области, като винаги се стреми да разкрива вълнуващи и ангажиращи истории. Агне има бакалавърска степен по литература и има богат опит в писането на широк спектър от теми, включително пътуване, изкуство и култура. Тя също е била доброволец като редактор на организацията за правата на животните, където е помогнала за повишаване на осведомеността относно проблемите, свързани с хуманното отношение към животните. Свържете се с нея на [имейл защитен].

Още статии
Агне Цимерман
Агне Цимерман

Агне е журналист, който отразява най-новите тенденции и развития в метавселената, ИИ и Web3 индустрии за Metaverse Post. Нейната страст към разказването на истории я кара да провежда множество интервюта с експерти в тези области, като винаги се стреми да разкрива вълнуващи и ангажиращи истории. Агне има бакалавърска степен по литература и има богат опит в писането на широк спектър от теми, включително пътуване, изкуство и култура. Тя също е била доброволец като редактор на организацията за правата на животните, където е помогнала за повишаване на осведомеността относно проблемите, свързани с хуманното отношение към животните. Свържете се с нея на [имейл защитен].

Hot Stories
Присъединете се към нашия бюлетин.
Последни новини

Спокойствието преди бурята Солана: Какво казват графиките, китовете и сигналите на веригата сега

Солана демонстрира силно представяне, обусловено от нарастващото приемане, институционалния интерес и ключовите партньорства, като същевременно е изправена пред потенциални...

Научете още

Крипто през април 2025 г.: Ключови тенденции, промени и какво предстои

През април 2025 г. крипто пространството се фокусира върху укрепването на основната инфраструктура, като Ethereum се подготвяше за Pectra ...

Научете още
Вижте повече
Прочети повече
Прогноза за биткойн за средата на февруари: Финансирането е отрицателно, липсва спот търсене
Новини Технологии
Прогноза за биткойн за средата на февруари: Финансирането е отрицателно, липсва спот търсене
Февруари 16, 2026
Qwen въвежда нов модел на визуален език, за да подобри кодирането, разсъжденията и мултимодалната производителност на изкуствения интелект
Новини Технологии
Qwen въвежда нов модел на визуален език, за да подобри кодирането, разсъжденията и мултимодалната производителност на изкуствения интелект
Февруари 16, 2026
Onchain Perpetual Futures: Преодоляване на разликата между CeFi и DeFi За институционални търговци
Новини Технологии
Onchain Perpetual Futures: Преодоляване на разликата между CeFi и DeFi За институционални търговци
Февруари 16, 2026
OpenAI: GPT‑5.2 Извежда и доказва нова формула в първия пробив на изкуствения интелект във физиката
Новини Технологии
OpenAI: GPT‑5.2 Извежда и доказва нова формула в първия пробив на изкуствения интелект във физиката
Февруари 16, 2026
CRYPTOMERIA LABS PTE. LTD.