Эксперты по ИИ и общественные деятели бьют тревогу по поводу риска исчезновения ИИ
Коротко
Выдающиеся эксперты в области искусственного интеллекта и влиятельные деятели выражают свое общее мнение. опасения относительно рисков, связанных с ИИ.
Несмотря на значительный прогресс в области ИИ, многие проблемы, связанные с риском ИИ, остаются нерешенными.
Известные эксперты по искусственному интеллекту и общественные деятели выступили с заявлением, предупреждающим, что искусственный интеллект может представлять угрозу для выживания человечества, сравнимую или даже большую, чем риски пандемий и ядерной войны. 350 подписантов утверждают, что ИИ может иметь непредвиденные и катастрофические последствия, такие как использование автономного оружия, разрушение социальных и экономических систем или создание сверхразумных агентов, которые могут перехитрить и победить людей.
Они призывают политиков серьезно отнестись к этим рискам и принять меры для обеспечения безопасного и полезного развития ИИ. заявление подписан некоторыми ведущими фигурами в области исследований и разработок в области ИИ, такими как OpenAI Генеральный директор Сэм Альтман, соучредитель Skype Яан Таллинн, генеральный директор DeepMind Демис Хассабис и ученый-компьютерщик Джеффри Хинтон, а также влиятельные общественные деятели, такие как музыкант Граймс и подкастер Сэм Харрис.
Среди подписантов были лауреаты премии Тьюринга 2018 года за вклад в глубокое обучение: Джеффри Хинтон и Йошуа Бенджио. К ним присоединились профессора престижных университетов, таких как Гарвард и Университет Цинхуа в Китае, а также Макс Тегмарк из Массачусетского технологического института.
«Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война».
говорится в письме, опубликованном CAIS.
Центр безопасности ИИ (CAIS), некоммерческая организация, базирующаяся в Сан-Франциско, стремится решить проблемы безопасности, связанные с искусственным интеллектом. Признавая потенциальные преимущества ИИ, CAIS подчеркивает необходимость его разработки и безопасного использования. Компания считает, что, несмотря на значительные достижения в области ИИ, многочисленные фундаментальные проблемы безопасности ИИ остаются нерешенными. Согласно его веб-сайту, миссия CAIS состоит в том, чтобы снизить риски путем проведения исследований в области безопасности, создания сообщества исследователей безопасности ИИ и отстаивания стандартов безопасности.
«Существует множество «важных и неотложных рисков, связанных с ИИ», не только риск исчезновения; например, системная предвзятость, дезинформация, злонамеренное использование, кибератаки и использование оружия. Все это важные риски, которые необходимо устранить. Общество может управлять несколькими рисками одновременно; это не «или/или», а «да/и». С точки зрения управления рисками было бы безрассудно отдавать приоритет исключительно текущему ущербу, также было бы безрассудно игнорировать его».
Дэн Хендрикс, директор CAIS писал на Twitter.
В марте более 1,100 технических специалистов подписанный открытое письмо с требованием приостановить на шесть месяцев обучение систем искусственного интеллекта, превосходящих GPT-4. Европейские законодатели также недавно утвержденный более строгий законопроект, известный как Закон об ИИ, регулирующий такие инструменты ИИ, как ChatGPT. Закон включает требования к проверкам безопасности, управлению данными и снижению рисков для базовых моделей ИИ и запрещает такие методы, как манипулятивные методы и определенные виды использования биометрии.
Прочитайте больше:
- OpenAI представляет новейший подход к обеспечению безопасности ИИ
- Собирается ли Google анонсировать генератор текста в аватар для геймеров?
- CodeWhisperer от Amazon дает разработчикам необходимое преимущество на арене искусственного интеллекта
- Виталик Бутерин и директор MIRI Нейт Соарес углубляются в опасности ИИ
Отказ от ответственности
В соответствии с Руководство трастового проектаОбратите внимание, что информация, представленная на этой странице, не предназначена и не должна интерпретироваться как юридическая, налоговая, инвестиционная, финансовая или любая другая форма консультации. Важно инвестировать только то, что вы можете позволить себе потерять, и обращаться за независимой финансовой консультацией, если у вас есть какие-либо сомнения. Для получения дополнительной информации мы предлагаем обратиться к положениям и условиям, а также к страницам справки и поддержки, предоставленным эмитентом или рекламодателем. MetaversePost стремится предоставлять точную и объективную отчетность, однако рыночные условия могут быть изменены без предварительного уведомления.
Об авторе
Агне — журналист, освещающий последние тенденции и разработки в области метавселенной, искусственного интеллекта и Web3 отрасли для Metaverse Post. Ее страсть к рассказыванию историй побудила ее проводить многочисленные интервью с экспертами в этих областях, всегда стремясь раскрыть захватывающие и увлекательные истории. Агне имеет степень бакалавра литературы и имеет обширный опыт написания статей на самые разные темы, включая путешествия, искусство и культуру. Она также работала волонтером в качестве редактора организации по защите прав животных, где помогала повышать осведомленность о проблемах защиты животных. Свяжитесь с ней по [электронная почта защищена].
Другие статьиАгне — журналист, освещающий последние тенденции и разработки в области метавселенной, искусственного интеллекта и Web3 отрасли для Metaverse Post. Ее страсть к рассказыванию историй побудила ее проводить многочисленные интервью с экспертами в этих областях, всегда стремясь раскрыть захватывающие и увлекательные истории. Агне имеет степень бакалавра литературы и имеет обширный опыт написания статей на самые разные темы, включая путешествия, искусство и культуру. Она также работала волонтером в качестве редактора организации по защите прав животных, где помогала повышать осведомленность о проблемах защиты животных. Свяжитесь с ней по [электронная почта защищена].