Новини Технологии
Октомври 27, 2023

Компаниите с изкуствен интелект трябва да изразходват 30% от финансирането си за научноизследователска и развойна дейност в областта на безопасността и етиката

Щетите от предразсъдъците и невярната информация вече са очевидни. Има индикации, че могат да се появят и други опасности. Изключително важно е да се смекчат настоящите рискове и да се предвидят възникващи такива.

Компаниите с изкуствен интелект трябва да изразходват 30% от финансирането си за научноизследователска и развойна дейност в областта на безопасността и етиката

Не бихме знаели как да гарантираме, че напредналите автономни системи или AGI са безопасни или как да ги тестваме, ако бяха налични в момента. Освен това правителствата нямат необходимите институции, за да спрат злоупотребите и да въведат безопасни практики, дори и да го направят. Авторите подкрепят развитието на ефективен правителствен надзор и пренасочване на усилията за научноизследователска и развойна дейност към безопасност и етика.

Контрол и честност (по-сложните системи могат да надхитрят тестването, като дават неверни, но убедителни отговори), устойчивост (в нови условия с промяна на дистрибуцията или противопоставяне на входове), интерпретируемост (разбиране на работата), оценка на риска (появяват се нови способности, които са трудни за предвиждане), и появата на нови предизвикателства (безпрецедентни режими на повреда) са някои от предизвикателствата за научноизследователска и развойна дейност, които няма да бъдат разрешени от разработване на по-мощни AI системи.

Авторите предполагат, че безопасността и етиката трябва да получат поне една трета от финансирането за НИРД.

Стандартите трябва да бъдат наложени по отношение както на националните институции, така и на глобалното управление. ИИ ги няма, но във фармацевтичната, финансовата и ядрената индустрия го има. Сега има стимули за нациите и бизнеса да икономисват за сметка на сигурността. Компаниите могат да печелят от напредъка на ИИ, като същевременно оставят обществото да понесе последствията, подобно на индустриите, които изхвърлят отпадъците в реките.

Силното техническо ноу-хау и способността за бързо движение са изисквания към националните институции. На глобалната сцена партньорствата и споразуменията са от съществено значение. Бюрократичните пречки пред малките и предвидими модели трябва да се избягват, за да се защитят академичните изследвания и нискорисковите приложения. Граничните модели - избрана група от най-мощните системи, обучени на суперкомпютри за милиарди долари - трябва да получат най-голям фокус.

Правителствата трябва да бъдат по-отворени относно развитието, за да бъдат регулациите ефективни. Регулаторите трябва да задължат регистрацията на модела, да защитят вътрешните информатори, да задължат докладването на инциденти и да следят разработването на модели и използването на суперкомпютри.

Регулаторите също трябва да имат достъп до тези системи преди пускането им в производство, за да направят оценка потенциално вредни функции като генериране на патогени, самовъзпроизвеждане и проникване в системата.

Системите с потенциал да бъдат опасни се нуждаят от различни методи за контрол. Граничен модел създателите също трябва да носят правна отговорност за всякакви щети на техните системи, които биха могли да бъдат избегнати. Това трябва да насърчи инвестициите в сигурността. Повече функции, като правителствено лицензиране, капацитет за спиране на развитието в отговор на потенциално опасни възможности, контрол на достъпа и мерки за сигурност на информацията, непроницаеми за хакери на държавно ниво, може да са необходими за изключително способни системи.

Въпреки че няма правила, фирмите трябва бързо да изяснят своите ако-тогава отговорности, като очертаят точните стъпки, които ще предприемат, ако определени възможности на модела преминат червената линия. Тези мерки трябва да бъдат подробно обяснени и независимо потвърдени. Така е. Отделно Допълнение към политиката съставя резюме на тези.

  • През октомври Frontier Model Forum въведе фонд за безопасност на ИИ от над 10 милиона долара, с цел да стимулира напредъка в изследванията за безопасност на ИИ. Фондът, сътрудничество между Frontier Model Forum и филантропски партньори, ще предостави подкрепа на независими изследователи по целия свят, свързани с академични институции, изследователски организации и стартиращи компании. Основните участници в инициативата са Anthropic, Google, Microsoft, OpenAI, заедно с филантропски организации като фондация Patrick J. McGovern, фондация David and Lucile Packard, Eric Schmidt и Jaan Tallinn. Фондът за безопасност на изкуствения интелект се фокусира основно върху подпомагане на разработването на нови техники за оценка и подходи за червен екип за модели на изкуствен интелект, с цел разкриване на потенциални опасности. Форумът планира да създаде консултативен съвет през следващите месеци и скоро след това ще публикува първата си покана за предложения и отпускане на безвъзмездни средства.
сроден: Органът за конкуренция и пазари на Обединеното кралство започва преглед на моделите на ИИ, тъй като усилията на правителството за регулиране ескалират

Отказ от отговорност

В съответствие с Доверете се насоките на проекта, моля, имайте предвид, че предоставената на тази страница информация не е предназначена да бъде и не трябва да се тълкува като правен, данъчен, инвестиционен, финансов или каквато и да е друга форма на съвет. Важно е да инвестирате само това, което можете да си позволите да загубите, и да потърсите независим финансов съвет, ако имате някакви съмнения. За допълнителна информация предлагаме да се обърнете към правилата и условията, както и към страниците за помощ и поддръжка, предоставени от издателя или рекламодателя. MetaversePost се ангажира с точно, безпристрастно отчитане, но пазарните условия подлежат на промяна без предизвестие.

За автора

Дамир е ръководител на екип, продуктов мениджър и редактор в Metaverse Post, обхващащи теми като AI/ML, AGI, LLMs, Metaverse и Web3- свързани полета. Статиите му привличат огромна аудитория от над милион потребители всеки месец. Изглежда, че е експерт с 10 години опит в SEO и дигитален маркетинг. Дамир е споменат в Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto и други публикации. Той пътува между ОАЕ, Турция, Русия и ОНД като дигитален номад. Дамир получава бакалавърска степен по физика, която според него му е дала уменията за критично мислене, необходими за успех в непрекъснато променящия се пейзаж на интернет. 

Още статии
Дамир Ялалов
Дамир Ялалов

Дамир е ръководител на екип, продуктов мениджър и редактор в Metaverse Post, обхващащи теми като AI/ML, AGI, LLMs, Metaverse и Web3- свързани полета. Статиите му привличат огромна аудитория от над милион потребители всеки месец. Изглежда, че е експерт с 10 години опит в SEO и дигитален маркетинг. Дамир е споменат в Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto и други публикации. Той пътува между ОАЕ, Турция, Русия и ОНД като дигитален номад. Дамир получава бакалавърска степен по физика, която според него му е дала уменията за критично мислене, необходими за успех в непрекъснато променящия се пейзаж на интернет. 

Hot Stories
Присъединете се към нашия бюлетин.
Последни новини

Институционалният апетит нараства към биткойн ETF на фона на волатилност

Оповестяванията чрез документи 13F разкриват забележителни институционални инвеститори, занимаващи се с биткойн ETF, което подчертава нарастващото приемане на...

Научете още

Пристига денят на присъдата: Съдбата на CZ виси на равновесие, докато американският съд разглежда молбата на DOJ

Changpeng Zhao е готов да бъде осъден днес в американски съд в Сиатъл.

Научете още
Присъединете се към нашата иновативна техническа общност
Вижте повече
Прочети повече
Последното предупреждение на Едуард Сноудън към биткойн разработчиците: „Направете поверителността приоритет на ниво протокол или рискувайте да я загубите
пазари Охрана Wiki Софтуер Истории и рецензии Технологии
Последното предупреждение на Едуард Сноудън към биткойн разработчиците: „Направете поверителността приоритет на ниво протокол или рискувайте да я загубите
Май 10, 2024
Захранван от оптимизъм Ethereum Layer 2 Network Mint ще пусне основната си мрежа на 15 май
Новини Технологии
Захранван от оптимизъм Ethereum Layer 2 Network Mint ще пусне основната си мрежа на 15 май
Май 10, 2024
Най-добрите оферти за тази седмица, големи инвестиции в AI, IT, Web3и крипто (06-10.04)
резюме Бизнес пазари Софтуер Технологии
Най-добрите оферти за тази седмица, големи инвестиции в AI, IT, Web3и крипто (06-10.04)
Май 10, 2024
StaFi интегрира поддръжка за LRT на EigenLayer в своя стек Liquid-Staking-as-a-Service
пазари Новини Технологии
StaFi интегрира поддръжка за LRT на EigenLayer в своя стек Liquid-Staking-as-a-Service
Май 10, 2024
CRYPTOMERIA LABS PTE. LTD.