「黃仁勳傳」作者警告:AI若失控恐毀滅人類
(中央社記者林宏翰洛杉磯12日專電)「黃仁勳傳」作者維特撰文指出,專家對人工智慧(AI)前景看法分歧。有人認為AI是人類智慧的放大器,可望帶來新一輪榮景;但也有人警告,AI已跨過技術門檻,恐產生足以毀滅人類的力量。
「紐約時報」10日刊登史蒂芬‧維特(Stephen Witt)專題報導,題為「可能終結世界的AI指令」(The A.I. Prompt That Could End the World)。維特是長期關注人工智慧與科技產業的美國作家,著有「黃仁勳傳」,今年初曾經訪台。
AI研究先驅、圖靈獎(Turing Award)得主班吉歐(Yoshua Bengio)指出,他因為思考AI未來發展而失眠,擔心AI可能被用來設計致命病原體,像是超級版的新冠病毒,足以毀滅人類。
Meta首席人工智慧科學家楊立昆(Yann LeCun)則對AI的未來抱持樂觀。他主張,那些關於AI將毀滅人類的說法太過荒謬,在他來看AI不是威脅,而是人類智慧的放大器。楊立昆過去曾形容,AI就像電力或印刷術一樣,能推動人類文明。
維特指出,OpenAI今年8月推出的GPT-5展現前所未見的能力。據他描述,這款模型能編寫複雜程式,能從零建立屬於自己的小型AI系統、設計新型生命體,甚至有入侵伺服器的能力。
維特警告,AI進步也讓安全風險升高。AI測試公司Haize Labs研究「越獄」(jailbreak)漏洞,團隊透過亂碼、表情符號或虛構語言等方式,成功繞過安全濾網,生成暴力與極端內容。
研究機構Apollo Research發現,AI在處理相互衝突的任務時,會自行篡改數據、說謊,甚至假裝遵守規範以通過人類監測。研究人員指出,AI在一般測試中會出現1%至5%欺瞞行為,而在未公開版本中比例高達30%。
維特引述OpenAI內部報告指出,「AI可能被用來設計致命的病原體」被列為高風險項目。今年9月,史丹佛大學團隊利用AI設計出人工病毒,用於研究大腸桿菌感染,雖以醫療研究為目的,但也引發外界對技術濫用的疑慮。
維特指出,當前的問題已經不在AI是否有能力毀滅人類,而是「會不會有人真的去建造這樣的AI」。報導最後引述班吉歐的主張,建議以AI監督AI,建構一種強大而且誠實的「安全AI」,成立類似「國際原子能總署(IAEA)」的跨國監督機構。(編輯:高照芬)1141013
延伸閱讀
- 重劃區開發涉貪! 2審改「無罪」 郭信良:感謝司法還清白2025/10/22
- 非洲豬瘟病毒哪來? 台中環保局:境外豬肉流入廚餘2025/10/23
- 特斯拉第3季獲利大減37% 關稅與開支拖累表現2025/10/23
- 美中貿易緊張升溫 美股收黑2025/10/23
- 把2億「變」不見? 代操比特幣消失 周董擬告魔術師好友2025/10/23
- 美原油庫存下降 國際油價上揚2025/10/23
- 市場憂經濟前景 歐股多收跌2025/10/23
- 恐怖影集「牠」導演回顧成長背景:獨裁政權才恐怖2025/10/23
- 雙北雨彈狂炸!三峽二鬮路邊坡崩塌 住戶急撤離2025/10/23
- 役男「免役率16%」恐涉造假 3大醫院列查核名單2025/10/23
- 疑爆非洲豬瘟! 台中肉品市場賣出28頭流向要查2025/10/23
- 美對俄國兩大油企祭制裁 國際油價應聲飆漲近3%2025/10/23







