Новостной репортаж Технологии
27 октября 2023

Компании, занимающиеся искусственным интеллектом, должны тратить 30% своего финансирования на исследования и разработки в области безопасности и этики

Ущерб, причиненный предрассудками и ложной информацией, уже очевиден. Есть признаки того, что могут возникнуть и другие опасности. Крайне важно смягчить текущие риски и предвидеть возникающие.

Компании, занимающиеся искусственным интеллектом, должны тратить 30% своего финансирования на исследования и разработки в области безопасности и этики

Мы бы не знали, как обеспечить безопасность передовых автономных систем или искусственного интеллекта или как их протестировать, если бы они были доступны прямо сейчас. Более того, правительствам не хватает институтов, необходимых для прекращения злоупотреблений и внедрения безопасной практики, даже если бы они это сделали. Авторы поддерживают развитие эффективного государственного надзора и перенаправление усилий в области исследований и разработок на безопасность и этику.

Контроль и честность (более сложные системы могут перехитрить тестирование, давая ложные, но убедительные ответы), надежность (в новых условиях со сдвигом распределения или состязательными входными данными), интерпретируемость (понимание работы), оценка риска (появляются новые способности, которые трудно предсказать), и появление новых проблем (беспрецедентные виды отказов) — вот некоторые из проблем НИОКР, которые не будут решены разработка более мощных систем искусственного интеллекта.

Авторы предполагают, что безопасность и этика должны получать не менее трети финансирования исследований и разработок в области ИИ.

Необходимо обеспечить соблюдение стандартов как в отношении национальных институтов, так и в отношении глобального управления. У ИИ их нет, но есть в фармацевтической, финансовой и атомной отраслях. Теперь у стран и бизнеса есть стимулы экономить за счет безопасности. Компании могут получать прибыль от достижений в области искусственного интеллекта, оставляя общество нести ответственность за последствия, подобно тому, как промышленные предприятия сбрасывают отходы в реки.

Сильные технические ноу-хау и способность быстро действовать являются требованиями к национальным учреждениям. На глобальной арене важное значение имеют партнерские отношения и соглашения. Необходимо избегать бюрократических препятствий для небольших и предсказуемых моделей, чтобы защитить академические исследования и приложения с низким уровнем риска. Передовые модели — избранная группа наиболее мощных систем, созданных на суперкомпьютерах стоимостью в миллиарды долларов, — должны получить наибольшее внимание.

Правительства должны быть более открытыми в отношении происходящих событий, чтобы регулирование было эффективным. Регуляторы должны обязать регистрацию моделей, защищать внутренних информаторов, обязать сообщать об инцидентах и ​​следить за разработкой моделей и использованием суперкомпьютеров.

Регулирующие органы также должны иметь доступ к этим системам до их запуска в производство, чтобы оценить потенциально вредный такие функции, как генерация патогенов, самовоспроизведение и проникновение в систему.

Системы, потенциально опасные, нуждаются в различных методах управления. Пограничная модель создатели также должны нести юридическую ответственность за любой ущерб их системам, которого можно было избежать. Это должно стимулировать инвестиции в безопасность. Дополнительные функции, такие как государственное лицензирование, возможность остановить разработку в ответ на потенциально опасный возможности, контроль доступа и меры информационной безопасности, неуязвимые для хакеров государственного уровня, могут потребоваться для чрезвычайно мощных систем.

Хотя правил нет, предприятиям следует быстро прояснить свои обязанности «если-то», описав точные шаги, которые они предпримут, если определенные возможности модели пересекут красную линию. Эти меры должны быть подробно объяснены и независимо подтверждены. Так оно и есть. Отдельный Дополнение к политике составляет резюме тезисов.

  • В октябре Форум Frontier Model Forum учредил Фонд безопасности искусственного интеллекта в размере более 10 миллионов долларов США., стремясь способствовать прогрессу в исследованиях безопасности ИИ. Фонд, созданный в результате сотрудничества Frontier Model Forum и благотворительных партнеров, будет оказывать поддержку независимым исследователям по всему миру, связанным с академическими учреждениями, исследовательскими организациями и стартапами. Основными участниками инициативы являются Anthropic, Google, Microsoft, OpenAI, а также благотворительные организации, такие как Фонд Патрика Дж. Макговерна, Фонд Дэвида и Люсиль Паккард, Эрика Шмидта и Яана Таллинна. Фонд безопасности ИИ в первую очередь фокусируется на поддержке разработки новых методов оценки и подходов «красной команды» для моделей ИИ с целью выявления потенциальных опасностей. Форум планирует создать Консультативный совет в ближайшие месяцы и вскоре после этого объявит первый конкурс заявок и предоставит гранты.
Похожие страницы:: Управление по конкуренции и рынкам Великобритании запускает обзор моделей ИИ по мере усиления усилий правительства по регулированию

Отказ от ответственности

В соответствии с Руководство трастового проектаОбратите внимание, что информация, представленная на этой странице, не предназначена и не должна интерпретироваться как юридическая, налоговая, инвестиционная, финансовая или любая другая форма консультации. Важно инвестировать только то, что вы можете позволить себе потерять, и обращаться за независимой финансовой консультацией, если у вас есть какие-либо сомнения. Для получения дополнительной информации мы предлагаем обратиться к положениям и условиям, а также к страницам справки и поддержки, предоставленным эмитентом или рекламодателем. MetaversePost стремится предоставлять точную и объективную отчетность, однако рыночные условия могут быть изменены без предварительного уведомления.

Об авторе

Дамир — руководитель группы, менеджер по продукту и редактор в Metaverse Post, охватывающие такие темы, как AI/ML, AGI, LLM, Metaverse и Web3-связанные поля. Его статьи ежемесячно привлекают огромную аудиторию, насчитывающую более миллиона пользователей. Похоже, он эксперт с 10-летним опытом работы в области SEO и цифрового маркетинга. Дамир упоминается в Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto и другие издания. Он путешествует между ОАЭ, Турцией, Россией и СНГ в качестве цифрового кочевника. Дамир получил степень бакалавра в области физики, что, по его мнению, дало ему навыки критического мышления, необходимые для достижения успеха в постоянно меняющемся мире Интернета. 

Другие статьи
Дамир Ялалов
Дамир Ялалов

Дамир — руководитель группы, менеджер по продукту и редактор в Metaverse Post, охватывающие такие темы, как AI/ML, AGI, LLM, Metaverse и Web3-связанные поля. Его статьи ежемесячно привлекают огромную аудиторию, насчитывающую более миллиона пользователей. Похоже, он эксперт с 10-летним опытом работы в области SEO и цифрового маркетинга. Дамир упоминается в Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto и другие издания. Он путешествует между ОАЭ, Турцией, Россией и СНГ в качестве цифрового кочевника. Дамир получил степень бакалавра в области физики, что, по его мнению, дало ему навыки критического мышления, необходимые для достижения успеха в постоянно меняющемся мире Интернета. 

Hot Stories
Подпишитесь на нашу рассылку.
Новости

Безумие DOGE: анализ недавнего роста стоимости Dogecoin (DOGE)

Криптовалютная индустрия стремительно расширяется, и мем-монеты готовятся к значительному подъему. Догекоин (DOGE), ...

Узнать больше

Эволюция контента, созданного искусственным интеллектом, в Метавселенной

Появление генеративного ИИ-контента — одно из самых интересных событий в виртуальной среде…

Узнать больше
Присоединяйтесь к нашему сообществу инновационных технологий
Узнать больше
Читать далее
Лучшие предложения этой недели, крупные инвестиции в искусственный интеллект, информационные технологии, Web3и Крипто (22-26.04)
Digest Бизнес Области применения: Технологии
Лучшие предложения этой недели, крупные инвестиции в искусственный интеллект, информационные технологии, Web3и Крипто (22-26.04)
26 апреля 2024
Виталик Бутерин прокомментировал централизацию PoW, отметив, что это был временный этап до PoS
Новостной репортаж Технологии
Виталик Бутерин прокомментировал централизацию PoW, отметив, что это был временный этап до PoS
26 апреля 2024
Offchain Labs сообщает об обнаружении двух критических уязвимостей в доказательствах мошенничества OP Stack от Optimism
Новостной репортаж Software Технологии
Offchain Labs сообщает об обнаружении двух критических уязвимостей в доказательствах мошенничества OP Stack от Optimism
26 апреля 2024
Открытый рынок Dymension для обеспечения ликвидности от RollApps eIBC запускается в основной сети
Новостной репортаж Технологии
Открытый рынок Dymension для обеспечения ликвидности от RollApps eIBC запускается в основной сети 
26 апреля 2024
CRYPTOMERIA LABS PTE. ООО