Новостной репортаж Технологии
24 октября 2023

Эксперты по искусственному интеллекту выступают за необходимость увеличения инвестиций в безопасность искусственного интеллекта со стороны правительств и бизнеса

Коротко

Группа исследователей искусственного интеллекта опубликовала совместное письмо, призывающее компании, занимающиеся искусственным интеллектом, и правительства выделять больше средств для уделения приоритетного внимания безопасному и этичному использованию систем искусственного интеллекта.

Эксперты выражают обеспокоенность по поводу быстрого развития технологий искусственного интеллекта и их способности усугублять социальную несправедливость, дестабилизировать общество и создавать угрозы глобальной безопасности.

Эксперты по искусственному интеллекту призывают правительства и предприятия увеличить расходы на безопасность искусственного интеллекта Исследование Google: инновации, основанные на искусственном интеллекте, могут принести Великобритании экономическую ценность в 400 миллиардов фунтов стерлингов к 2030 году

Ведущие исследователи искусственного интеллекта, в том числе лауреаты премии Тьюринга и нобелевские лауреаты, призывают компании, занимающиеся искусственным интеллектом, и правительства выделять минимум одну треть своего финансирования на исследования и разработки в области искусственного интеллекта, чтобы обеспечить безопасное и этичное использование систем искусственного интеллекта. 

В совместное письмо В опубликованном накануне международного саммита по безопасности ИИ в Лондоне эксперты изложили меры по устранению рисков, связанных с ИИ. Они также выступают за то, чтобы правительства по закону привлекали компании к ответственности за предсказуемый ущерб, причиненный их передовыми системами искусственного интеллекта.

«Системы искусственного интеллекта могут быстро превзойти людей в решении все большего числа задач… Они угрожают усилить социальную несправедливость, подорвать социальную стабильность и ослабить наше общее понимание реальности, которое является основополагающим для общества», — видные деятели в области искусственного интеллекта, такие как В письме написали Джеффри Хинтон, Эндрю Яо, Дэниел Канеман, Дон Сонг и Юваль Ной Харари.

«Они также могут способствовать крупномасштабной преступной или террористической деятельности. Особенно в руках нескольких влиятельных игроков ИИ может укрепить или усугубить глобальное неравенство или способствовать автоматизированной войне, индивидуальному массовому манипулированию и всепроникающей слежке».

Необходимы срочные действия для безопасной и этичной разработки ИИ

Актуальность этого призыва проистекает из убеждения, что нынешние правила не способны адекватно решить проблему быстрого прогресса технологий искусственного интеллекта.

В сфере разработки искусственного интеллекта эксперты признают острую необходимость решения сложных проблем. Они утверждают, что простое расширение возможностей ИИ не принесет желаемого результата. Эти проблемы включают в себя надзор и честность, при этом продвинутый ИИ может использовать уязвимости тестирования, а также проблемы, связанные с надежностью, интерпретируемостью, оценкой рисков и возникающими проблемами. 

Будущие системы искусственного интеллекта могут проявлять непредвиденные режимы сбоев, подчеркивая важность того, чтобы крупные технологические компании и государственные спонсоры выделяли значительную часть своего бюджета на исследования и разработки в области искусственного интеллекта, чтобы уделять приоритетное внимание безопасности и этике наряду с расширением возможностей искусственного интеллекта.

Согласно письму, отсутствие управления ИИ может побудить компании и страны отдать приоритет возможностям над безопасностью или делегировать важные социальные функции системам ИИ с ограниченным контролем со стороны человека.

Для эффективного регулирования правительствам срочно необходимо комплексное понимание развития ИИ. Более того, для очень мощных систем искусственного интеллекта необходимы дополнительные меры, включая лицензирование их разработки, временные остановки в ответ на возникающие проблемы, контроль доступа и надежную информационную безопасность.

Несмотря на некоторую обеспокоенность компаний, занимающихся ИИ, относительно затрат на соблюдение требований и рисков ответственности, сторонники утверждают, что надежные правила необходимы для смягчения потенциальных рисков, связанных с бесконтрольной разработкой ИИ.

«ИИ может стать технологией, которая будет формировать это столетие. Хотя возможности искусственного интеллекта быстро развиваются, прогресс в области безопасности и управления отстает. Чтобы направить ИИ к положительным результатам и избежать катастрофы, нам необходимо переориентироваться. Есть ответственный путь, если у нас хватит мудрости пойти по нему», — заключалось в письме.

Прочитайте больше:

Отказ от ответственности

В соответствии с Руководство трастового проектаОбратите внимание, что информация, представленная на этой странице, не предназначена и не должна интерпретироваться как юридическая, налоговая, инвестиционная, финансовая или любая другая форма консультации. Важно инвестировать только то, что вы можете позволить себе потерять, и обращаться за независимой финансовой консультацией, если у вас есть какие-либо сомнения. Для получения дополнительной информации мы предлагаем обратиться к положениям и условиям, а также к страницам справки и поддержки, предоставленным эмитентом или рекламодателем. MetaversePost стремится предоставлять точную и объективную отчетность, однако рыночные условия могут быть изменены без предварительного уведомления.

Об авторе

Агне — журналист, освещающий последние тенденции и разработки в области метавселенной, искусственного интеллекта и Web3 отрасли для Metaverse Post. Ее страсть к рассказыванию историй побудила ее проводить многочисленные интервью с экспертами в этих областях, всегда стремясь раскрыть захватывающие и увлекательные истории. Агне имеет степень бакалавра литературы и имеет обширный опыт написания статей на самые разные темы, включая путешествия, искусство и культуру. Она также работала волонтером в качестве редактора организации по защите прав животных, где помогала повышать осведомленность о проблемах защиты животных. Свяжитесь с ней по [электронная почта защищена].

Другие статьи
Агне Цимерман
Агне Цимерман

Агне — журналист, освещающий последние тенденции и разработки в области метавселенной, искусственного интеллекта и Web3 отрасли для Metaverse Post. Ее страсть к рассказыванию историй побудила ее проводить многочисленные интервью с экспертами в этих областях, всегда стремясь раскрыть захватывающие и увлекательные истории. Агне имеет степень бакалавра литературы и имеет обширный опыт написания статей на самые разные темы, включая путешествия, искусство и культуру. Она также работала волонтером в качестве редактора организации по защите прав животных, где помогала повышать осведомленность о проблемах защиты животных. Свяжитесь с ней по [электронная почта защищена].

Hot Stories
Подпишитесь на нашу рассылку.
Новости

От Ripple до The Big Green DAO: как криптовалютные проекты способствуют благотворительности

Давайте рассмотрим инициативы по использованию потенциала цифровых валют в благотворительных целях.

Узнать больше

AlphaFold 3, Med-Gemini и другие: как искусственный интеллект трансформирует здравоохранение в 2024 году

ИИ проявляется в здравоохранении по-разному: от открытия новых генетических корреляций до расширения возможностей роботизированных хирургических систем...

Узнать больше
Присоединяйтесь к нашему сообществу инновационных технологий
Узнать больше
Читать далее
От Ripple до The Big Green DAO: как криптовалютные проекты способствуют благотворительности
Анализ Крипта Wiki Бизнес Обучение Образ жизни Области применения: Software Технологии
От Ripple до The Big Green DAO: как криптовалютные проекты способствуют благотворительности
13 мая 2024
AlphaFold 3, Med-Gemini и другие: как искусственный интеллект трансформирует здравоохранение в 2024 году
AI Wiki Анализ Digest Обзор Бизнес Области применения: Новостной репортаж Software Истории и обзоры Технологии
AlphaFold 3, Med-Gemini и другие: как искусственный интеллект трансформирует здравоохранение в 2024 году
13 мая 2024
Nim Network развернет систему токенизации владения ИИ и проведет продажу доходности, дата снимка запланирована на май
Области применения: Новостной репортаж Технологии
Nim Network развернет систему токенизации владения ИИ и проведет продажу доходности, дата снимка запланирована на май
13 мая 2024
Binance сотрудничает с Аргентиной в борьбе с киберпреступностью
Обзор Бизнес Области применения: Новостной репортаж Software Технологии
Binance сотрудничает с Аргентиной в борьбе с киберпреступностью
13 мая 2024
CRYPTOMERIA LABS PTE. ООО