美智庫:AI模型每7個月能力翻倍 失控恐瓦解民主
(中央社記者張欣瑜舊金山3日專電)美國智庫METR發布報告指出,大語言模型每7個月能力翻倍,遠超過摩爾定律速度。研究員評估,預計到2030年,模型花數小時即能完成人類1個月工作;而失業並非最糟情況,若發展失控,恐致科技獨裁、政變、瓦解民主制度。
加州柏克萊智庫「模型評估與威脅研究」(Model Evaluation & Threat Research, METR)日前發布報告指出,大語言模型(LLM)能力呈現指數型成長,每7個月翻倍,遠超過摩爾定律(指晶片上可容納的電晶體密度,約每18至24個月便會增加1倍)。
根據METR研究,倘若這樣的趨勢持續下去,到了2030年初,人工智慧(AI)幾小時便能勝任人類花1個月才能完成的任務。
全球深具權威性的科技和工程類刊物IEEE Spectrum訪問METR研究人員奇尼蒙(Megan Kinniment),2日刊文指出,大語言模型(LLM)能力呈現指數型成長。
根據METR研究,大語言模型能力每7個月翻倍,遠超過摩爾定律(指晶片上可容納的電晶體密度,約每18至24個月便會增加1倍),倘若這樣的趨勢持續下去,到了2030年初,人工智慧(AI)幾小時便能勝任人類花1個月才能完成的任務。
奇尼蒙表示,自己原先沒預料到結果會呈現指數型成長趨勢。她進一步闡述,「1個月」是指167小時,也就是人類每個月投入的工作時數,目前模型成功完成任務的可靠性機率約50%。
奇尼蒙分析,就這樣的結果來看,AI對經濟層面上的衝擊或許沒有預想中來得劇烈,但足以加速AI自身研發,形成AI打造AI,導致AI能力極為快速發展。如此一來,人類的控制將變得更加困難,全世界都將面臨巨大的適應壓力。
針對最先進AI可能帶來的風險,奇尼蒙指出,不僅是單純的失業潮問題,還有更深層的社會和政治結構瓦解風險;倘若幾乎所有人類都失業,或者所有工作都不再需要人類來執行,「你可能也不需要人類來維持軍隊運作,或者只需要極少數人運作。」
奇尼蒙表示,「這樣的情況會讓某個人或某個組織更容易發動政變或奪權。」
另外一個風險是,如果有一大批類似天才的AI被集中在某個資料中心,這會讓擁有它的人變得極其強大。一旦這樣的智慧被用來生產軍事裝備,那麼權力很可能會被高度集中,「甚至導致民主制度瓦解」。
被問到AI是否會有「意識」,奇尼蒙表示,假設AI具備某種意識,其實也不是什麼荒謬的想法,畢竟它們會變得非常聰明、智能極高。
由於大語言模型主要輸出文字,品質較難衡量,對其表現進行評估相對不易,METR研究人員替模型安排複雜程度不一的任務,並觀察模型完成任務的可靠性,得出上述結果。(編輯:陳慧萍)1140704
延伸閱讀
- 傳中企赴馬國使用輝達伺服器訓練AI 馬來西亞展開調查2025/06/19
- 美智庫籲關稅大刀勿砍向晶片 徵25%十年損1.4兆美元2025/05/28
- 黃仁勳「美中台」通吃? 外媒:成「地緣政治明星」2025/05/21
- 美AI地圖秀共軍在台海蹤跡 邱義仁參展考察2025/06/09
- 台灣新創企業赴美 用AI吸引紐約創投界2025/06/27
- 美中AI冷戰 川普廢晶片管制挫中共野心2025/05/15
- 美留學生年貢獻440億美元 停招損失非多收國內生可補2025/05/29
- 美法官裁定 Anthropic以版權書訓練AI屬合理使用2025/06/25
- AI商機與提前拉貨加持 5月出口首見500億美元2025/06/09
- 財部樂觀估上半年出口上看2798.6億美元 衝同期新高2025/06/09
- 來台前先跑商務行程! 黃仁勳赴中東為哪樁?2025/05/13
- 輝達投資美國再+1! 黃仁勳卻收國會「警告信」2025/05/31






