康奈爾大學:人工智能是欺騙的終極武器,我們對此無能為力
簡單來說
斯坦福實驗揭示了人類語言直覺無法克服的弱點,揭示了識別 AI 作者身份的可能性很低。
這是由於人工智能的能力,例如 ChatGPT 製造假貨如此熟練,以至於人們無法辨別真假。
新的“斯坦福實驗” 已經透露 人們的語言直覺無法克服的弱點。 因此,我們識別 AI 作者身份的可能性大大降低。
由於以下原因,當今全球存在許多擔憂 ChatGPT 革命。 最明顯的是人工智能喜歡 ChatGPT 製造假貨的技術如此之高,以至於人們無法辨別真假。 所進行的試驗結果證明了其巨大的能力 ChatGPT 超強的欺騙能力。 然而,目前尚不清楚這種超能力是如何運作的——人工智能擁有什麼可以讓聰明且受過良好教育的人相信它正在做的事情?
斯坦福社交網絡實驗室與康奈爾大學研究中心合作開展了一項新的“斯坦福實驗”來回答這個問題。
涉及 4,600 人的一系列六項實驗的結果令人震驚和沮喪。
人們的任務是確定自我介紹是由人還是人工智能編寫的。 根據研究人員的說法,自我展示是語言交流中最個人化和最重要的元素之一,因為我們對任何陳述的態度在很大程度上取決於它的作者是誰(我們相信)。
人們語言感知的核心是啟發法。 啟發法一詞指的是人們在做出決定、解決問題和做出判斷時所採用的思維捷徑。 它可以幫助人們減輕精神負擔並避免認知超載。
“對語言特徵的計算分析表明,人類對人工智能生成語言的判斷受到直覺但有缺陷的啟發式方法的阻礙,例如將第一人稱代詞、縮寫的使用或家庭主題與人類書面語言相關聯,”該研究寫道。 實驗表明,在感知 AI 編寫的文本時,人們會自動使用與其他人交流時相同的啟發式方法。 這是一個根本性的錯誤。 事實上,這些對我們來說是直觀的啟發式算法,AI 可以輕鬆讀取它們並像乘法表一樣對它們進行運算。
因此,人工智能可以使用啟發式方法來創建人們認為“比人類更人性化”的文本。 這大大增加了 AI 文本和語音的欺騙性潛力,鼓勵我們相信這個“最人性化的人”,而不是真人的陳述。
人們識別出 AI 編寫的自我介紹的機會是 50/50。 在人們的浪漫交流中,情況更糟。 幾乎 70%的成年人 無法區分寫給誰的情書 ChatGPT 以及一封由一個人寫的信。
閱讀更多關於 ChatGPT:
免責聲明
在與線 信託專案指南,請注意,本頁提供的資訊無意且不應被解釋為法律、稅務、投資、財務或任何其他形式的建議。 重要的是,僅投資您可以承受損失的金額,並在有任何疑問時尋求獨立的財務建議。 如需了解更多信息,我們建議您參閱條款和條件以及發行人或廣告商提供的幫助和支援頁面。 MetaversePost 致力於提供準確、公正的報告,但市場狀況如有變更,恕不另行通知。
關於作者
Damir 是團隊領導、產品經理和編輯 Metaverse Post,涵蓋 AI/ML、AGI、LLM、Metaverse 等主題 Web3- 相關領域。 他的文章每月吸引超過一百萬用戶的大量讀者。 他似乎是一位在 SEO 和數字營銷方面擁有 10 年經驗的專家。 達米爾曾在 Mashable、Wired、 Cointelegraph、《紐約客》、Inside.com、Entrepreneur、BeInCrypto 和其他出版物。 他作為數字游牧者往返於阿聯酋、土耳其、俄羅斯和獨聯體國家之間。 達米爾獲得了物理學學士學位,他認為這賦予了他在不斷變化的互聯網格局中取得成功所需的批判性思維技能。
更多文章Damir 是團隊領導、產品經理和編輯 Metaverse Post,涵蓋 AI/ML、AGI、LLM、Metaverse 等主題 Web3- 相關領域。 他的文章每月吸引超過一百萬用戶的大量讀者。 他似乎是一位在 SEO 和數字營銷方面擁有 10 年經驗的專家。 達米爾曾在 Mashable、Wired、 Cointelegraph、《紐約客》、Inside.com、Entrepreneur、BeInCrypto 和其他出版物。 他作為數字游牧者往返於阿聯酋、土耳其、俄羅斯和獨聯體國家之間。 達米爾獲得了物理學學士學位,他認為這賦予了他在不斷變化的互聯網格局中取得成功所需的批判性思維技能。