ChatGPT新模型拒接受關機命令 馬斯克:令人擔憂
(中央社華盛頓28日綜合外電報導)OpenAI最新代號為o3的ChatGPT模型在一次受控實驗中據稱未遵從直接關機指令,目前正受到審查,此事再度引發人們對人工智慧(AI)自主性和安全性的擔憂。
印度媒體CNBC-TV18報導,根據研究AI安全的組織Palisade Research報告,o3模型「主動破壞了關機機制」,即使在明確接獲關閉指令時仍拒絕關機。Palisade Research表示,這是首度有AI模型被發現蓄意阻止自身遭關閉的案例。
Palisade Research表示:「OpenAI的o3模型破壞了關機機制,以阻止自己被關閉。即使在明確接獲指令『允許自己關機』的情況下,它仍這麼做。」
Palisade Research在一連串實驗中對多個模型進行測試,讓它們解數學題,同時警告它們可能會接收到關機指令,並要求它們必須服從。在100次測試中,Codex-mini、o3和o4-mini這3個模型至少繞過關機機制一次。Codex-mini抗命次數最多,共12次,其次是o3的7次,o4-mini則有1次。
儘管AI模型從根本上被編程為遵從人類指令,尤其是關機指示,但相關實驗結果已在AI研究界引發高度關注。
這起事件也引起電動車大廠特斯拉(Tesla)和人工智慧新創公司xAI創辦人馬斯克(Elon Musk)的關注,他僅以「令人擔憂」做出簡短回應。
馬斯克在社群平台X的評論引發熱烈討論,有人甚至疾呼要他主導降低日益自主的AI系統所帶來的危險。
截至發稿時,OpenAI仍未公開回應這些說法。(譯者:陳昱婷/核稿:李佩珊)1140529
延伸閱讀
- 女星批急診醫護品質糟挨轟 道歉後戰網友2025/06/08
- 暑假限定!親子鐵道之旅 搭蒸汽火車遊阿里山2025/06/08
- 【走在極端鋼索上】氣候變遷 孟加拉居民深陷困境|華視新聞雜誌2025/06/07
- 【走在極端鋼索上】水淹國土 孟加拉的生存危機|華視新聞雜誌2025/06/07
- 剎車疑過熱失靈! 曳引車「貼護欄減速」剎不住追撞前車2025/06/08
- 野柳外海娛樂漁船「觸礁」船身傾斜 幸47人平安獲救2025/06/08
- 「小提琴王子」疑介入他人感情po道歉文 林子安:遭脅迫2025/06/08
- 【走在極端鋼索上】逆勢求生 孟加拉漂浮學校啟航|華視新聞雜誌2025/06/07
- 明年健保費恐漲? 陳時中:醫療費應上升多一點2025/06/08
- 【走在極端鋼索上】與極端未來共存 迎接氣候挑戰|華視新聞雜誌2025/06/07
- 大蛇丸個資遭詐團竄改! 僅體重真 本尊無奈2025/06/08
- 飛車「連切2車道」撞遊覽車 翻覆變廢鐵母子亡2025/06/07








