OpenAI Zavádí „rámec připravenosti“ pro řešení rizik rozvoje AI
Stručně
OpenAI představila svůj „rámec připravenosti“ – sadu nástrojů a procesů, které řeší obavy ohledně bezpečnosti vývoje modelu umělé inteligence.
Společnost AI podporovaná Microsoftem OpenAI, představila svůj „rámec připravenosti“ – sadu nástrojů a procesů k řešení rostoucích obav z bezpečnostních důsledků vývoje modelu pokročilé umělé inteligence (AI).
Projekt Sam AltmanSpolečnost -run to oznámila prostřednictvím podrobného plánu zveřejněného na svých webových stránkách, jehož cílem je předvést OpenAIodhodlání řídit potenciální rizika spojená s jejími špičkovými technologiemi. Společnost také poskytla další podrobnosti o rámci na sociálních sítích platforma X .
OpenAIRámec umožňuje správní radě zvrátit bezpečnostní rozhodnutí učiněná vedoucími pracovníky a zavádí vrstvu dohledu při zavádění nejnovější technologie. Kromě toho společnost nastínila přísné podmínky pro nasazení s důrazem na hodnocení bezpečnosti v kritických oblastech, jako je kybernetická bezpečnost a jaderné hrozby.
Jedním z důležitých prvků strategie společnosti je ustavení poradní skupiny, která má za úkol přezkoumávat bezpečnostní zprávy. Zjištění z této skupiny budou sdělena vedoucím pracovníkům a představenstvu společnosti, přičemž bude zdůrazněn přístup založený na spolupráci při řešení obavy o bezpečnost.
Zodpovědný přístup k průmyslovým zájmům
Pohyb OpenAI přichází v důsledku narůstajících obav v rámci komunity AI ohledně potenciálních rizik spojených se stále výkonnějšími modely. V dubnu se koalice předních představitelů a odborníků v oboru umělé inteligence zasadila o šestiměsíční pauzu ve vývoji systémů výkonnějších než OpenAIJe GPT-4s odkazem na možná společenská rizika.
Pod vedením Sama Altmana, OpenAI posiluje své interní bezpečnostní procesy, aby proaktivně čelila vyvíjejícím se hrozbám, které představuje škodlivá umělá inteligence. Specializovaný tým bude dohlížet na technickou práci a rozhodování o bezpečnosti, přičemž bude zavedena provozní struktura usnadňující účinné reakce na vznikající rizika.
Tento rámec zahrnuje vývoj rizikových „scorecards“ pro sledování různých ukazatelů potenciální újmy, spouštění přezkumů a zásahů, když je dosaženo konkrétních prahových hodnot rizika.
„Budeme provádět hodnocení a neustále aktualizovat ‚scorecards‘ pro naše modely. Vyhodnotíme všechny naše hraniční modely, včetně každého 2x efektivního navýšení výpočtu během tréninkových jízd. Posouváme modely na jejich limity,“ uvedl ChatGPT výrobce.
„V našich základních bezpečnostních liniích lze nasadit pouze modely se středním nebo nižším skóre po zmírnění a dále lze vyvíjet pouze modely se skóre po zmírnění vysokým nebo nižším. Zvyšujeme také bezpečnostní ochranu úměrnou riziku modelu,“ dodal.
Kromě toho společnost zdůrazňuje dynamickou povahu svého rámce a zavazuje se k neustálému zdokonalování na základě nových dat, zpětné vazby a výzkumu. Zavazuje se také, že bude úzce spolupracovat s externími stranami a interními týmy na sledování skutečného zneužívání, prokazuje závazek k odpovědnosti a zodpovědná AI rozvoj.
As OpenAI podniká proaktivní kroky k řešení bezpečnostních problémů, společnosti musí vytvořit precedens pro etický a bezpečný vývoj umělé inteligence v době, kdy schopnosti generativní technologie umělé inteligence nadále uchvacují a zároveň vyvolávají důležité otázky o jejich potenciálním dopadu na společnost.
Odmítnutí odpovědnosti
V souladu s Pokyny k projektu Trust, prosím vezměte na vědomí, že informace uvedené na této stránce nejsou určeny a neměly by být vykládány jako právní, daňové, investiční, finanční nebo jakékoli jiné formy poradenství. Je důležité investovat jen to, co si můžete dovolit ztratit, a v případě pochybností vyhledat nezávislé finanční poradenství. Pro další informace doporučujeme nahlédnout do smluvních podmínek a také na stránky nápovědy a podpory poskytnuté vydavatelem nebo inzerentem. MetaversePost se zavázala poskytovat přesné a nezaujaté zprávy, ale podmínky na trhu se mohou bez upozornění změnit.
O autorovi
Kumar je zkušený technický novinář se specializací na dynamické průniky AI/ML, marketingové technologie a nově vznikající obory, jako jsou kryptoměny, blockchain a NFTs. S více než 3 lety zkušeností v oboru si Kumar vytvořil prokazatelné výsledky ve vytváření působivých příběhů, vedení zasvěcených rozhovorů a poskytování komplexních poznatků. Kumarova odbornost spočívá ve vytváření vysoce působivého obsahu, včetně článků, zpráv a výzkumných publikací pro prominentní průmyslové platformy. Díky jedinečné sadě dovedností, které kombinují technické znalosti a vyprávění příběhů, Kumar vyniká v komunikaci složitých technologických konceptů pro různé publikum jasným a poutavým způsobem.
Další článkyKumar je zkušený technický novinář se specializací na dynamické průniky AI/ML, marketingové technologie a nově vznikající obory, jako jsou kryptoměny, blockchain a NFTs. S více než 3 lety zkušeností v oboru si Kumar vytvořil prokazatelné výsledky ve vytváření působivých příběhů, vedení zasvěcených rozhovorů a poskytování komplexních poznatků. Kumarova odbornost spočívá ve vytváření vysoce působivého obsahu, včetně článků, zpráv a výzkumných publikací pro prominentní průmyslové platformy. Díky jedinečné sadě dovedností, které kombinují technické znalosti a vyprávění příběhů, Kumar vyniká v komunikaci složitých technologických konceptů pro různé publikum jasným a poutavým způsobem.