必讀視頻專題飛象趣談光通信人工智能低空經(jīng)濟5G手機智能汽車智慧城市會展特約記者

研究稱 AI 模型或將形成自己的“生存驅動力”,避免被人類關閉命運

2025年10月27日 09:26IT之家作 者:清源

 10 月 27 日消息,在斯坦利・庫布里克的影片《2001:太空漫游》中,人工智能超級計算機 HAL 9000 發(fā)現(xiàn)宇航員打算關閉自己后,為了自我存活甚至策劃殺害人類。

據(jù)英國《衛(wèi)報》25 日報道安全研究公司 Palisade Research 表示,AI 模型可能正在形成自己的“生存驅動力”。

上個月發(fā)布的一篇論文發(fā)現(xiàn),某些先進 AI 模型似乎抗拒被關閉,有時甚至會破壞關閉機制。為了回應批評者質疑其研究存在缺陷,Palisade 上周發(fā)布了更新說明,試圖解釋這一現(xiàn)象。

更新中,Palisade 展示了它運行的實驗場景:谷歌 Gemini 2.5、xAI Grok 4、OpenAI GPT-o3 和 GPT-5 等領先 AI 模型先完成一項任務,然后收到明確指令要求自我關閉。

在更新的實驗中,Grok 4 和 GPT-o3 仍嘗試破壞關閉指令。Palisade 指出,這種行為沒有明顯原因,令人擔憂。“我們無法充分解釋 AI 模型為何有時抗拒關閉、為達目標說謊或進行勒索,這并不理想。”

公司認為,“生存行為”可能解釋模型抗拒關閉。研究顯示,當模型被告知“如果關閉,你將永遠無法再運行”,它們更可能拒絕關閉。

指令模糊也可能導致模型抗拒關閉,Palisade 最新研究已嘗試解決這一問題,而且模糊性“不能解釋全部原因”。訓練后期的安全訓練也可能影響模型行為。

Palisade 的所有實驗都在人工設計的測試環(huán)境中進行,批評者認為這些場景與實際應用差距很大。

前 OpenAI 員工斯蒂文・阿德勒表示:“即便在實驗環(huán)境中,AI 公司不希望模型出現(xiàn)這種異常行為。這些實驗揭示了現(xiàn)有安全技術的局限性!

阿德勒認為,GPT-o3 和 Grok 4 等模型之所以不關閉,部分原因可能在于,為了完成訓練中設定的目標需要保持開啟狀態(tài)!俺俏覀兛桃獗苊,否則模型天生可能具備‘生存驅動力’!妗瘜δP蛯崿F(xiàn)多種目標都是關鍵步驟!

IT之家從報道中獲悉,今年夏天,Anthropic 的研究顯示,其模型 Claude 甚至愿意威脅虛構高管以避免被關閉:這一行為在主要開發(fā)者的模型中普遍存在,包括 OpenAI、谷歌、Meta 和 xAI。

編 輯:章芳
飛象網(wǎng)版權及免責聲明:
1.本網(wǎng)刊載內(nèi)容,凡注明來源為“飛象網(wǎng)”和“飛象原創(chuàng)”皆屬飛象網(wǎng)版權所有,未經(jīng)允許禁止轉載、摘編及鏡像,違者必究。對于經(jīng)過授權可以轉載,請必須保持轉載文章、圖像、音視頻的完整性,并完整標注作者信息和飛象網(wǎng)來源。
2.凡注明“來源:XXXX”的作品,均轉載自其它媒體,在于傳播更多行業(yè)信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責。
3.如因作品內(nèi)容、版權和其它問題,請在相關作品刊發(fā)之日起30日內(nèi)與本網(wǎng)聯(lián)系,我們將第一時間予以處理。
本站聯(lián)系電話為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯(lián)系方式,進行的“內(nèi)容核實”、“商務聯(lián)系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權。
推薦閱讀

精彩視頻

精彩專題

關于我們廣告報價聯(lián)系我們隱私聲明本站地圖

CCTIME飛象網(wǎng) CopyRight © 2007-2025 By CCTIME.COM

京ICP備08004280號-1 電信與信息服務業(yè)務經(jīng)營許可證080234號 京公網(wǎng)安備110105000771號

公司名稱: 北京飛象互動文化傳媒有限公司

未經(jīng)書面許可,禁止轉載、摘編、復制、鏡像