Компаниите с изкуствен интелект трябва да изразходват 30% от финансирането си за научноизследователска и развойна дейност в областта на безопасността и етиката
Щетите от предразсъдъците и невярната информация вече са очевидни. Има индикации, че могат да се появят и други опасности. Изключително важно е да се смекчат настоящите рискове и да се предвидят възникващи такива.
Не бихме знаели как да гарантираме, че напредналите автономни системи или AGI са безопасни или как да ги тестваме, ако бяха налични в момента. Освен това правителствата нямат необходимите институции, за да спрат злоупотребите и да въведат безопасни практики, дори и да го направят. Авторите подкрепят развитието на ефективен правителствен надзор и пренасочване на усилията за научноизследователска и развойна дейност към безопасност и етика.
Контрол и честност (по-сложните системи могат да надхитрят тестването, като дават неверни, но убедителни отговори), устойчивост (в нови условия с промяна на дистрибуцията или противопоставяне на входове), интерпретируемост (разбиране на работата), оценка на риска (появяват се нови способности, които са трудни за предвиждане), и появата на нови предизвикателства (безпрецедентни режими на повреда) са някои от предизвикателствата за научноизследователска и развойна дейност, които няма да бъдат разрешени от разработване на по-мощни AI системи.
Авторите предполагат, че безопасността и етиката трябва да получат поне една трета от финансирането за НИРД.
Стандартите трябва да бъдат наложени по отношение както на националните институции, така и на глобалното управление. ИИ ги няма, но във фармацевтичната, финансовата и ядрената индустрия го има. Сега има стимули за нациите и бизнеса да икономисват за сметка на сигурността. Компаниите могат да печелят от напредъка на ИИ, като същевременно оставят обществото да понесе последствията, подобно на индустриите, които изхвърлят отпадъците в реките.
Силното техническо ноу-хау и способността за бързо движение са изисквания към националните институции. На глобалната сцена партньорствата и споразуменията са от съществено значение. Бюрократичните пречки пред малките и предвидими модели трябва да се избягват, за да се защитят академичните изследвания и нискорисковите приложения. Граничните модели - избрана група от най-мощните системи, обучени на суперкомпютри за милиарди долари - трябва да получат най-голям фокус.
Правителствата трябва да бъдат по-отворени относно развитието, за да бъдат регулациите ефективни. Регулаторите трябва да задължат регистрацията на модела, да защитят вътрешните информатори, да задължат докладването на инциденти и да следят разработването на модели и използването на суперкомпютри.
Регулаторите също трябва да имат достъп до тези системи преди пускането им в производство, за да направят оценка потенциално вредни функции като генериране на патогени, самовъзпроизвеждане и проникване в системата.
Системите с потенциал да бъдат опасни се нуждаят от различни методи за контрол. Граничен модел създателите също трябва да носят правна отговорност за всякакви щети на техните системи, които биха могли да бъдат избегнати. Това трябва да насърчи инвестициите в сигурността. Повече функции, като правителствено лицензиране, капацитет за спиране на развитието в отговор на потенциално опасни възможности, контрол на достъпа и мерки за сигурност на информацията, непроницаеми за хакери на държавно ниво, може да са необходими за изключително способни системи.
Въпреки че няма правила, фирмите трябва бързо да изяснят своите ако-тогава отговорности, като очертаят точните стъпки, които ще предприемат, ако определени възможности на модела преминат червената линия. Тези мерки трябва да бъдат подробно обяснени и независимо потвърдени. Така е. Отделно Допълнение към политиката съставя резюме на тези.
- През октомври Frontier Model Forum въведе фонд за безопасност на ИИ от над 10 милиона долара, с цел да стимулира напредъка в изследванията за безопасност на ИИ. Фондът, сътрудничество между Frontier Model Forum и филантропски партньори, ще предостави подкрепа на независими изследователи по целия свят, свързани с академични институции, изследователски организации и стартиращи компании. Основните участници в инициативата са Anthropic, Google, Microsoft, OpenAI, заедно с филантропски организации като фондация Patrick J. McGovern, фондация David and Lucile Packard, Eric Schmidt и Jaan Tallinn. Фондът за безопасност на изкуствения интелект се фокусира основно върху подпомагане на разработването на нови техники за оценка и подходи за червен екип за модели на изкуствен интелект, с цел разкриване на потенциални опасности. Форумът планира да създаде консултативен съвет през следващите месеци и скоро след това ще публикува първата си покана за предложения и отпускане на безвъзмездни средства.
Отказ от отговорност
В съответствие с Доверете се насоките на проекта, моля, имайте предвид, че предоставената на тази страница информация не е предназначена да бъде и не трябва да се тълкува като правен, данъчен, инвестиционен, финансов или каквато и да е друга форма на съвет. Важно е да инвестирате само това, което можете да си позволите да загубите, и да потърсите независим финансов съвет, ако имате някакви съмнения. За допълнителна информация предлагаме да се обърнете към правилата и условията, както и към страниците за помощ и поддръжка, предоставени от издателя или рекламодателя. MetaversePost се ангажира с точно, безпристрастно отчитане, но пазарните условия подлежат на промяна без предизвестие.
За автора
Дамир е ръководител на екип, продуктов мениджър и редактор в Metaverse Post, обхващащи теми като AI/ML, AGI, LLMs, Metaverse и Web3- свързани полета. Статиите му привличат огромна аудитория от над милион потребители всеки месец. Изглежда, че е експерт с 10 години опит в SEO и дигитален маркетинг. Дамир е споменат в Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto и други публикации. Той пътува между ОАЕ, Турция, Русия и ОНД като дигитален номад. Дамир получава бакалавърска степен по физика, която според него му е дала уменията за критично мислене, необходими за успех в непрекъснато променящия се пейзаж на интернет.
Още статииДамир е ръководител на екип, продуктов мениджър и редактор в Metaverse Post, обхващащи теми като AI/ML, AGI, LLMs, Metaverse и Web3- свързани полета. Статиите му привличат огромна аудитория от над милион потребители всеки месец. Изглежда, че е експерт с 10 години опит в SEO и дигитален маркетинг. Дамир е споменат в Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto и други публикации. Той пътува между ОАЕ, Турция, Русия и ОНД като дигитален номад. Дамир получава бакалавърска степен по физика, която според него му е дала уменията за критично мислене, необходими за успех в непрекъснато променящия се пейзаж на интернет.