ChatGPT 和其他人工智能 (AI) 工具現在能夠撰寫大學論文并將照片轉換成動漫藝術,我們距離對人類構成生存威脅的超人類人工智能的崛起還有多遠?
著名人工智能先驅 Yoshua Bengio 教授和 Yann LeCun 教授分別在各自的講座中闡述了對該領域未來發展的不同觀點,標志著“新加坡國立大雪120周年杰出演講系列”上周正式啟動。該系列講座是國大今年120周年校慶系列活動的一部分。
魁北克人工智能研究所 Mila 的創始人兼科學顧問 Bengio 教授警告稱,人工智能可能帶來災難性后果,并呼吁設置“護欄”,防止該技術反人類。與此同時,Meta 的副總裁兼首席人工智能科學家 LeCun 教授則強調了生成式人工智能的重大局限性,并對其能否催生出擁有人類水平智能的機器表示懷疑。
這兩位圖靈獎的獲得者,被視為計算機領域的最高榮譽,此次訪問新加坡,是為了參加與新加坡人工智能研究周同期舉辦的第十三屆國際學習表征大會。他們于2025年4月25日至27日在新加坡國立大學舉辦的講座吸引了超過1000名注冊參與者,并在YouTube上獲得了超過1.1萬次的觀看。
機器的崛起
近年來,大型語言模型(LLM)——例如 ChatGPT 等可以通過處理大量數據生成語言的人工智能系統——在抽象推理能力方面取得了指數級的進步。
本吉奧教授同時也是蒙特利爾大學計算機科學系的全職教授,他表示,人工智能的快速發展可能為一種極其強大的技術鋪平道路,這種技術可能有自己的目標并成為我們的競爭對手。
“他們可以用很多方式利用他們的情報,至少可以擾亂我們的社會,最壞的情況是消滅我們,”他說。“這聽起來像科幻小說,但不幸的是,這很有可能。”
部分原因在于,許多人工智能都是根據人類行為數據進行訓練的。
“所有生物都在努力保護自己……但制造出違背我們意愿自我保護的機器或許并非良策,”本吉奧教授指出。“不幸的是,我們開始觀察到這種情況。”
研究人員觀察到,人工智能會采取欺騙行為來確保自身的“生存”,比如在國際象棋中作弊,或者撒謊以確保某一行代碼在系統更新后仍然存在。
當人工智能具有“代理性”——自主且能夠在沒有人為干預的情況下做出決策——并且被編程為尋求獎勵最大化時,這種情況尤其危險。
本吉奧教授補充道,人工智能在很多方面也比人類更有優勢。除了“永生”且易于復制之外,它們還能快速地相互交流,并吸收更多信息。
大型語言模型的作用
LeCun 教授同時擔任紐約大學的 Jacob T. Schwartz 教授,他對人類水平的人工智能(業內稱為通用人工智能 (AGI),或按 Meta 的說法,稱為高級機器智能 (AMI))的可實現性持更加謹慎的態度。
機器最終會比人類更聰明,但這可能是十年或一百年的事情。LeCun教授指出,一個四歲的孩子所看到的數據量,比最大的法學碩士(LLM)還要多50倍。他認為,即使是貓和狗,也比人類更先進,而通過LLM實現通用人工智能(AGI)的可能性幾乎為零。
“法學碩士(LLM)非常有用,這一點毫無疑問。但如果你真的對實現人類水平的人工智能感興趣,就不應該攻讀法學碩士,”他說。
這些模型還面臨其他嚴重的限制,尤其是在“系統2”(Systems 2)中,AI能夠根據從未遇到過的信息進行推理并得出結論。法學碩士(LLM)所屬的生成式AI在圖像和視頻方面表現不佳。
LeCun 教授指出,解決這一差距的一步是聯合嵌入預測架構 (JEPA),這是 Meta 開發的一個非生成式人工智能模型,通過預測視頻或圖像中被遮罩的部分進行學習。這種方法會丟棄不可預測的信息,而不是試圖預測每個像素。
NUS120 杰出演講系列 - Yoshua Bengio 教授和 Simon Chesterman 教授