GPT-4 繼承了早期的「幻覺」事實和推理錯誤 GPT 模特兒
簡單來說
OpenAI 說 GPT-4 與之前有類似的限制 GPT 模型.
GPT-4 仍然對事實產生幻覺並犯下推理錯誤。
然而, GPT-4 分數比高出40% OpenAI最新 GPT-3.5 關於公司內部的對抗性事實評估。
OpenAI 已警告用戶其最新的語言模型, GPT-4,仍然不完全可靠,可能會“幻覺”事實並犯推理錯誤。 該公司敦促用戶在使用語言模型輸出時務必謹慎,尤其是在「高風險環境」中。
然而,好消息是 GPT-4 與先前的模型相比,顯著減少了幻覺。 OpenAI 聲稱 GPT-4 比最新分數高40% GPT-3.5 關於內部對抗性事實評估。
“我們在 TruthfulQA 等外部基準方面取得了進展,該基準測試模型將事實與對抗性選擇的一組不正確陳述分開的能力。 這些問題與事實上不正確的答案相結合,但在統計上很有吸引力。” OpenAI 寫在 博客文章.
儘管有這種改進,但該模型仍然缺乏對 2021 年 XNUMX 月之後發生的事件的了解,有時會像早期模型一樣犯簡單的推理錯誤。 此外,它在接受用戶明顯的虛假陳述時可能過於輕信,並在難題上失敗,例如在其代碼中引入安全漏洞。 它也不會對其提供的信息進行事實核查。
像它的前輩一樣 GPT-4 可能會產生有害的建議、有缺陷的程式碼或不準確的資訊。 然而,該模型的附加功能導致了需要理解的新風險面。 為了評估這些風險的程度, 50多位專家 來自人工智慧一致性風險、網路安全、生物風險、信任與安全以及國際安全等各個領域的專家參與了該模型的對抗性測試。 然後他們的回饋和數據被用來改進模型,例如收集額外的數據來增強 GPT-4能夠拒絕有關如何合成危險化學品的請求。
主要途徑之一 OpenAI 減少有害輸出的方法是在 RLHF(人類反饋強化學習)訓練期間納入額外的安全獎勵信號。 該信號訓練模型拒絕有害內容的請求,如 defi由模型的使用指南指定。 獎勵由 GPT-4 零樣本分類器,根據安全相關提示判斷安全邊界和完成方式。
OpenAI 也表示,與先前相比,該模型對禁止內容請求的回應傾向降低了 82% GPT-3。5和 GPT-4 根據公司政策回應醫療建議和自殘等敏感請求的頻率提高了 29%。
而 OpenAI的介入增加了引發不良行為的難度 GPT-4,這仍然是可能的,並且仍然存在可以產生違反使用指南的內容的越獄。
“隨著人工智能係統變得越來越普遍,在這些干預措施中實現高度的可靠性將變得越來越重要。 目前,必須通過監控濫用等部署時安全技術來補充這些限制,”該公司補充道。
OpenAI 正在與外部研究人員合作,以更好地了解和評估潛在影響 GPT-4 及其後繼型號。 該團隊也正在開發對未來人工智慧系統中可能出現的危險能力的評估。 隨著他們繼續研究潛在的社會和 經濟影響 of GPT-4 和其他人工智慧系統, OpenAI 將適時與公眾分享他們的發現和見解。
閱讀更多:
免責聲明
在與線 信託專案指南,請注意,本頁提供的資訊無意且不應被解釋為法律、稅務、投資、財務或任何其他形式的建議。 重要的是,僅投資您可以承受損失的金額,並在有任何疑問時尋求獨立的財務建議。 如需了解更多信息,我們建議您參閱條款和條件以及發行人或廣告商提供的幫助和支援頁面。 MetaversePost 致力於提供準確、公正的報告,但市場狀況如有變更,恕不另行通知。
關於作者
辛迪是一名記者 Metaverse Post,涵蓋相關主題 web3, NFT、元宇宙和人工智能,重點是採訪 Web3 行業參與者。她曾與 30 多位 C 級高管進行過交談,並將他們的寶貴見解帶給讀者。辛蒂來自新加坡,現居住在喬治亞第比利斯。她擁有南澳大利亞大學傳播與媒體研究學士學位,並擁有十年的新聞和寫作經驗。透過以下方式與她聯繫 [電子郵件保護] 有新聞發布會、公告和採訪機會。
更多文章辛迪是一名記者 Metaverse Post,涵蓋相關主題 web3, NFT、元宇宙和人工智能,重點是採訪 Web3 行業參與者。她曾與 30 多位 C 級高管進行過交談,並將他們的寶貴見解帶給讀者。辛蒂來自新加坡,現居住在喬治亞第比利斯。她擁有南澳大利亞大學傳播與媒體研究學士學位,並擁有十年的新聞和寫作經驗。透過以下方式與她聯繫 [電子郵件保護] 有新聞發布會、公告和採訪機會。