人工智慧公司應將30%的資金用於安全和道德研發
偏見和虛假資訊造成的損害已經顯而易見。 有跡象表明其他危險也可能浮現。 減輕當前風險並預見新出現的風險至關重要。
我們不知道如何確保先進的自主系統或通用人工智慧的安全,也不知道如何測試它們(如果它們現在可用)。 此外,即使政府這樣做了,也缺乏制止虐待和採取安全措施所需的機構。 作者支持建立有效的政府監管並將研發工作轉向安全和道德。
控制和誠實(更複雜的系統可以透過產生錯誤但令人信服的答案來智勝測試),穩健性(在分佈轉移或對抗性輸入的新條件下),可解釋性(理解工作),風險評估(出現難以預測的新能力),新挑戰(前所未有的故障模式)的出現是一些研發挑戰無法通過 開發更強大的人工智慧系統.
作者建議,安全和道德應該獲得至少三分之一的人工智慧研發資金。
需要執行與國家機構和全球治理相關的標準。 人工智慧缺乏這些,但製藥、金融和核工業卻有。 現在,國家和企業有動機以犧牲安全為代價來節省開支。 公司可以從人工智慧的進步中獲利,同時讓社會承擔後果,就像工業將廢物倒入河流一樣。
強大的技術知識和快速行動的能力是國家機構的要求。 在全球舞台上,夥伴關係和協議至關重要。 為了保護學術研究和低風險應用,必須避免對小型和可預測模型的官僚障礙。 前沿模型——一組在價值數十億美元的超級電腦上訓練的最強大的系統——應該受到最多的關注。
政府必須對事態發展更加開放,以使監管有效。 監管機構應該強制模型註冊、保護內部線人、強制事件報告並密切關注模型的開發和超級電腦的使用。
監管機構還必須在這些系統投入生產之前訪問這些系統,以便評估 潛在有害 病原體產生、自我複製和系統滲透等特徵。
具有潛在危險的系統需要多種控制方法。 前沿模型 創作者還必須對其係統造成的任何本來可以避免的損害承擔法律責任。 這應該會鼓勵安全投資。 更多功能,例如政府許可、根據情況停止開發的能力 潛在危險 對於功能極其強大的系統來說,可能需要不受國家級駭客影響的功能、存取控制和資訊安全措施。
儘管沒有規則,但企業應快速明確自己的「如果-那麼」責任,概述在某些模型功能跨越紅線時將採取的精確步驟。 這些措施需要徹底解釋和獨立確認。 確實如此。 獨立 政策補充 編制論文摘要。
- XNUMX月前沿模型論壇 推出了超過 10 萬美元的人工智慧安全基金,旨在推動人工智慧安全研究的進步。 該基金是前沿模型論壇和慈善合作夥伴之間的合作項目,將為世界各地附屬於學術機構、研究組織和新創公司的獨立研究人員提供支援。 該計劃的主要貢獻者包括 Anthropic、Google、Microsoft、 OpenAI以及帕特里克·J·麥戈文基金會、大衛和露西爾·帕卡德基金會、埃里克·施密特和賈恩·塔林等慈善組織。 人工智慧安全基金主要致力於支援人工智慧模型新評估技術和紅隊方法的開發,旨在發現潛在危險。 論壇計劃在未來幾個月內建立一個諮詢委員會,並將在不久後發出第一次提案徵集並授予獎項。
免責聲明
在與線 信託專案指南,請注意,本頁提供的資訊無意且不應被解釋為法律、稅務、投資、財務或任何其他形式的建議。 重要的是,僅投資您可以承受損失的金額,並在有任何疑問時尋求獨立的財務建議。 如需了解更多信息,我們建議您參閱條款和條件以及發行人或廣告商提供的幫助和支援頁面。 MetaversePost 致力於提供準確、公正的報告,但市場狀況如有變更,恕不另行通知。
關於作者
Damir 是團隊領導、產品經理和編輯 Metaverse Post,涵蓋 AI/ML、AGI、LLM、Metaverse 等主題 Web3- 相關領域。 他的文章每月吸引超過一百萬用戶的大量讀者。 他似乎是一位在 SEO 和數字營銷方面擁有 10 年經驗的專家。 達米爾曾在 Mashable、Wired、 Cointelegraph、《紐約客》、Inside.com、Entrepreneur、BeInCrypto 和其他出版物。 他作為數字游牧者往返於阿聯酋、土耳其、俄羅斯和獨聯體國家之間。 達米爾獲得了物理學學士學位,他認為這賦予了他在不斷變化的互聯網格局中取得成功所需的批判性思維技能。
更多文章Damir 是團隊領導、產品經理和編輯 Metaverse Post,涵蓋 AI/ML、AGI、LLM、Metaverse 等主題 Web3- 相關領域。 他的文章每月吸引超過一百萬用戶的大量讀者。 他似乎是一位在 SEO 和數字營銷方面擁有 10 年經驗的專家。 達米爾曾在 Mashable、Wired、 Cointelegraph、《紐約客》、Inside.com、Entrepreneur、BeInCrypto 和其他出版物。 他作為數字游牧者往返於阿聯酋、土耳其、俄羅斯和獨聯體國家之間。 達米爾獲得了物理學學士學位,他認為這賦予了他在不斷變化的互聯網格局中取得成功所需的批判性思維技能。