OpenAI 推出確保人工智能安全的最新方法
簡單來說
OpenAI 在最近對安全和隱私以及調查的擔憂之後,發布了一篇博客文章,概述了其改進的安全方法。
該公司承諾進行嚴格的測試,聘請外部專家提供反饋,並與政府合作確定最佳方案 人工智能監管方法.
在面臨有關安全和隱私的擔憂並關注之後 最近的研究 在一些歐洲國家, OpenAI 有 發布 一篇概述公司改進的安全方法的博客文章。
OpenAI 承諾進行嚴格的測試,在發布任何新系統之前聘請外部專家徵求反饋,並與政府合作確定人工智能監管的最佳方法。
此前,該公司花了六個多月的時間致力於其最新車型的安全性和調整, GPT-4,然後再公開發布。 為了確保其最新語言模型的安全, GPT-4, OpenAI 僱用 一個由 50 多名專家組成的團隊:人工智能安全、倫理和政策專家,包括研究人員和工程師。
“至關重要的是,我們認為社會必須有時間更新和適應能力越來越強的人工智能,並且每個受到這項技術影響的人都應該對人工智能如何進一步發展有重要的發言權,”
OpenAI 中寫道。
OpenAI關注兒童安全和隱私
意大利被禁 ChatGPT引用 OpenAI儘管是為 13 歲及以上的個人設計的,但未能驗證用戶的年齡是原因之一。 公司安全工作的一個關鍵焦點已轉向通過實施年齡驗證選項來保護兒童,這 OpenAI 目前正在探索,特別是因為人工智能工具適用於 18 歲或以上或經父母批准的 13 歲或以上的個人。
本公司嚴格禁止生成仇恨、騷擾、暴力或成人內容,且 GPT-4 與相比,回應禁止內容請求的可能性已經降低了 82% GPT-35。
OpenAI 建立了一個強大的系統來監控濫用行為,並希望使 GPT-4 隨著時間的推移,可供更多人使用。 該公司與非營利可汗學院等開發人員合作制定量身定制的安全緩解措施,並正在開發功能以支援更嚴格的模型輸出標準。
改善隱私是另一個安全方面 OpenAI 正在關注,尤其是在最近的 數據洩露. 這家人工智能公司的大型語言模型是在大量文本上進行訓練的,這些文本包括公開內容、許可內容和人工審閱者生成的內容; 它使用數據使人工智能模型對人們更有幫助。
OpenAI 正在採取措施保護個人隱私,包括從訓練數據中刪除個人信息、微調模型以拒絕個人信息請求,以及根據請求從系統中刪除個人信息。 這減少了人工智能模型生成包含個人信息的響應的機會。
OpenAI的方法 解決人工智能安全問題的關鍵在於研究有效的緩解措施 和對齊技術並測試它們在現實世界中的濫用情況。 它還承諾在創建和部署更強大的模型時更加謹慎,並加強安全預防措施。 人工智能開發和部署的有效治理對於確保安全至關重要,這需要技術和製度創新。
閱讀更多:
免責聲明
在與線 信託專案指南,請注意,本頁提供的資訊無意且不應被解釋為法律、稅務、投資、財務或任何其他形式的建議。 重要的是,僅投資您可以承受損失的金額,並在有任何疑問時尋求獨立的財務建議。 如需了解更多信息,我們建議您參閱條款和條件以及發行人或廣告商提供的幫助和支援頁面。 MetaversePost 致力於提供準確、公正的報告,但市場狀況如有變更,恕不另行通知。
關於作者
Agne 是一名記者,負責報導虛擬宇宙、人工智能和人工智能領域的最新趨勢和發展。 Web3 行業為 Metaverse Post。 她對講故事的熱情促使她對這些領域的專家進行了大量採訪,總是試圖發現令人興奮和引人入勝的故事。 Agne 擁有文學學士學位,在旅行、藝術和文化等廣泛主題的寫作方面擁有豐富的背景。 她也志願擔任動物權利組織的編輯,幫助提高人們對動物福利議題的認識。 聯繫她 [電子郵件保護].
更多文章Agne 是一名記者,負責報導虛擬宇宙、人工智能和人工智能領域的最新趨勢和發展。 Web3 行業為 Metaverse Post。 她對講故事的熱情促使她對這些領域的專家進行了大量採訪,總是試圖發現令人興奮和引人入勝的故事。 Agne 擁有文學學士學位,在旅行、藝術和文化等廣泛主題的寫作方面擁有豐富的背景。 她也志願擔任動物權利組織的編輯,幫助提高人們對動物福利議題的認識。 聯繫她 [電子郵件保護].