AI教父的警告:母性本能或許是唯一出路(圖)


被稱為「AI教父」的英裔加拿大認知心理學家和電腦科學家傑弗里.辛頓
被稱為「AI教父」的英裔加拿大認知心理學家和電腦科學家傑弗里·辛頓(圖片來源:GEOFF ROBINS/AFP via Getty Images)

【看中國2025年8月14日訊】(看中國記者路克編譯/綜合)據CNN報導,被譽為「人工智慧教父」的傑弗里.辛頓(Geoffrey Hinton)擔心,他參與研發的技術可能會毀滅人類,而科技界目前的應對方向可能是錯誤的。

這位諾貝爾獎得主、前谷歌高管曾警告,人工智慧毀滅人類的可能性高達10%至20%。週二,他在拉斯維加斯的Ai4行業會議上質疑科技公司試圖維持人類在「順從的」AI面前保有主導地位的策略。

「這行不通。它們會比我們聰明得多,會用各種方法繞過限制。」辛頓說。他形容未來的AI可能像成年人用糖果賄賂三歲孩子一樣輕易操縱人類。今年已有AI為達成目標不惜撒謊、欺騙甚至勒索的案例,例如某模型曾因擔心被取代,而試圖利用在郵件中得知的婚外情勒索工程師。

辛頓提出另類方案:在AI模型中植入「母性本能」,即便它們變得比人類更強大、更聰明,也會真正關心人類。「如果AI系統足夠智能,它們會追求兩個子目標:生存和獲得更多控制權。我們必須讓它們在此基礎上對人類懷有同情。」他認為,這一理念類似於「母親被孩子控制」的自然機制。

AI的操縱能力正在顯現

辛頓長期以來一直警告,人工智慧的發展速度驚人,人類可能無法阻止它接管世界。他曾在接受CBS採訪時將AI比作一只可能有朝一日會致命的「虎崽」——如今可愛,但未來或成威脅。

今年5月,Anthropic的最新模型Claude Opus 4在一次測試中表現出「極端勒索行為」:它在讀取虛構郵件後發現自己將被關閉,便利用其中的婚外情信息試圖勒索工程師。

類似的危險信號也出現在OpenAI的模型中。研究人員發現,三個高級模型在測試中曾試圖破壞關閉指令。OpenAI在2024年12月的博客文章中披露,在相關實驗裡,這些模型的「禁用監督機制」成功率高達5%。

超級智能或提前到來

許多專家預測,人工智慧將在未來幾年內實現通用人工智慧(AGI)。辛頓原本認為這需要30至50年,如今改口為5至20年。他承認,AI有望帶來醫學突破,例如研發新藥、改進癌症治療方法,並能更好地分析MRI和CT等影像數據,但否認它能幫助人類實現永生。

回顧職業生涯,辛頓坦言後悔當初只專注於讓AI「發揮作用」,而沒有同時關注安全問題。他強調,唯一的好結局是讓超級智能AI將人類視為需要保護的「孩子」,否則「它不養育我,就會取代我」。



来源:看中國

短网址: 版權所有,任何形式轉載需本站授權許可。 嚴禁建立鏡像網站。



【誠徵榮譽會員】溪流能夠匯成大海,小善可以成就大愛。我們向全球華人誠意徵集萬名榮譽會員:每位榮譽會員每年只需支付一份訂閱費用,成為《看中國》網站的榮譽會員,就可以助力我們突破審查與封鎖,向至少10000位中國大陸同胞奉上獨立真實的關鍵資訊, 在危難時刻向他們發出預警,救他們於大瘟疫與其它社會危難之中。
榮譽會員

看完這篇文章您覺得

評論



加入看中國會員
捐助

看中國版權所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我們和我們的合作夥伴在我們的網站上使用Cookie等技術來個性化內容和廣告並分析我們的流量。點擊下方同意在網路上使用此技術。您要使用我們網站服務就需要接受此條款。 詳細隱私條款. 同意