Хирошима AI процес
Какво е Хирошима AI процес?
Тази година Япония беше домакин на срещата на върха на Г-7 през май 2023 г., както всяка година. Европейският съюз, Канада, Япония, Италия, Франция, Съединените щати и Обединеното кралство са сред нациите, представени на срещата на върха на Г-7. Мястото беше Хирошима и AI беше основната тема на дискусия на тази конференция на G7. Най-важните заключения от тази среща на върха показват, че лидерите са поставили като приоритет укрепването на регулаторната рамка за намаляване на възможните опасности, свързани с ИИ, и ускоряване на използването на ИИ за благоприятни случаи на употреба в правителството и икономиката.
Разбиране на процеса Хирошима AI
През май 2023 г. страните от Г-7 се съгласиха да дадат приоритет на сътрудничеството за приобщаващ ИИ управление, стремейки се да разработят сигурни и надеждни системи, като същевременно максимизират ползите от технологията, включително за развиващи се и нововъзникващи икономики, чрез преодоляване на дигиталното разделение.
Принципите на Хирошима за усъвършенствани AI модели, включително основни модели и генеративни AI системи, бяха одобрени от G7 миналия октомври. Те са набор от 11 международни ръководни принципа, предназначени да се прилагат за всички участници в ИИ и обхващат проектирането, разработването, внедряването и използването на усъвършенствани системи с ИИ.
- Вземете подходящи мерки по време на разработването на усъвършенствани AI системи, включително преди и по време на тяхното внедряване и пускане на пазара, за идентифициране, оценка и смекчаване на рисковете през целия жизнен цикъл на AI.
- Идентифицирайте и смекчавайте уязвимостите и, когато е уместно, инциденти и модели на злоупотреба след внедряване, включително пускане на пазара.
- Публично докладвайте възможностите, ограниченията и областите на подходяща и неподходяща употреба на усъвършенстваните AI системи, за да подпомогнете осигуряването на достатъчна прозрачност, като по този начин допринасяте за увеличаване на отчетността.
- Работете за отговорно споделяне на информация и докладване на инциденти между организации, разработващи усъвършенствани AI системи, включително с индустрията, правителствата, гражданското общество и академичните среди.
- Разработване, внедряване и разкриване на политики за управление на ИИ и управление на риска, основани на подход, основан на риска – включително политики за поверителност и мерки за смекчаване, по-специално за организации, разработващи усъвършенствани системи за ИИ.
- Инвестирам и прилагайте стабилни мерки за сигурност, включително физическа сигурност, киберсигурност и предпазни мерки за вътрешни заплахи през целия жизнен цикъл на AI.
- Разработвайте и внедрявайте надеждно съдържание заверка и механизми за произход, когато това е технически осъществимо, като воден знак или други техники, които позволяват на потребителите да идентифицират генерирано от AI съдържание.
- Дайте приоритет на научните изследвания за смекчаване на рисковете за обществото, безопасността и сигурността и дайте приоритет на инвестициите в ефективни мерки за смекчаване.
- Дайте приоритет на разработването на усъвършенствани системи за изкуствен интелект за справяне с най-големите предизвикателства в света, по-специално, но не само климатичната криза, глобалното здравеопазване и образование.
- Напредък в разработването и, където е уместно, приемането на международни технически стандарти.
- Приложете подходящи мерки за въвеждане на данни и защита на личните данни и интелектуалната собственост.
Тези принципи от своя страна послужиха като основа за създаването на a кодекс на поведение за AI разработчици. Придържането от страна на компаниите към тези принципи е доброволно и логично би трябвало да се адаптира към спецификите на всяка юрисдикция.
Последни новини за процеса на Хирошима AI
- Индустриалните страни от Г-7 са готови да се споразумеят за кодекс на поведение за компаниите, развиващи се напреднали изкуствен интелект системи. Кодът от 11 точки има за цел да популяризира безопасен, сигурен и надежден AI в световен мащаб. Процесът, иницииран по време на „процеса на Хирошима AI“, има за цел да отговори на проблемите, свързани с поверителността и рисковете за сигурността. Кодексът задължава компаниите да оповестяват публично доклади за възможностите, ограниченията и злоупотребата с ИИ.
- Премиерът на Обединеното кралство Риши Сунак обяви първия в света Институт за безопасност на ИИ, който има за цел да оцени и тества модели на ИИ за справяне с пристрастия, дезинформация и екстремни заплахи. Срещата на върха, насрочена за 1-2 ноември, ще събере заинтересовани страни и експерти в областта на ИИ, за да се постигне международен консенсус относно безопасността на ИИ. Предпазливата позиция на Обединеното кралство относно AI регулиране и фокусът му върху иновациите ще бъде подчертан.
Последни публикации в социалните мрежи за процеса на изкуствен интелект в Хирошима
«Назад към речника на речникаОтказ от отговорност
В съответствие с Доверете се насоките на проекта, моля, имайте предвид, че предоставената на тази страница информация не е предназначена да бъде и не трябва да се тълкува като правен, данъчен, инвестиционен, финансов или каквато и да е друга форма на съвет. Важно е да инвестирате само това, което можете да си позволите да загубите, и да потърсите независим финансов съвет, ако имате някакви съмнения. За допълнителна информация предлагаме да се обърнете към правилата и условията, както и към страниците за помощ и поддръжка, предоставени от издателя или рекламодателя. MetaversePost се ангажира с точно, безпристрастно отчитане, но пазарните условия подлежат на промяна без предизвестие.
За автора
Виктория е писател по различни технологични теми, включително Web3.0, AI и криптовалути. Нейният богат опит й позволява да пише проницателни статии за по-широка аудитория.
Още статииВиктория е писател по различни технологични теми, включително Web3.0, AI и криптовалути. Нейният богат опит й позволява да пише проницателни статии за по-широка аудитория.