ChatGPT之父因激進研究恐致「AI滅絕人類」被炒?(圖)


ChatGPT之父奧特曼(Sam Altman)
奧特曼(Sam Altman)11月16日出席三藩市亞太經合組織(APEC)論壇,討論AI發展。(圖片來源:Justin Sullivan/Getty Images)

【看中國2023年11月19日訊】(看中國記者楊天資綜合報導)OpenAI人事大地震成為這個週末科技業界的大新聞,ChatGPT之父奧特曼(Sam Altman)於11月17日被董事會解僱的消息震驚全球,並引起外界無限猜想。且目前尚不清楚董事會成員解僱奧特曼的真實動機,有消息披露奧特曼在開展AI研究時可能過於激進,這可能導致AI人工智慧「終有一天會導致人類滅絕」

奧特曼的突然遭炒魷魚確實暗示了未來業界將出現的一場爭論,發展AI與安全的矛盾——有如一些科學研究、如基因改造的禁忌一樣,AI的發展今後也會被設置道德的界限。

ChatGPT之父因激進研究恐致「AI滅絕人類」被炒?OpenAI人事風暴內情曝光 

山姆.奧特曼(Sam Altman)被炒的消息過於突然,相信他事前也不知道。因為奧特曼(Sam Altman在被炒的前一天16日還在三藩市出席亞太經合組織(APEC)會議的一個論壇,談論AI的發展。

據董事會主席布羅克曼(Greg Brockman)所述,奧特曼是在當地時間11月17日在董事會議被即時解僱。OpenAI技術總監(CTO)穆拉蒂(Mira Murati)其後被任命為臨時CEO。

根據OpenAI的聲明,奧特曼被辭退是因董事會認為他與董事會溝通的過程中「不夠坦誠」,阻礙董事會履行職責的能力,因此「不再相信他能繼續帶領公司」。

據《紐約時報》18日引述消息報道,OpneAI的高層當日告訴員工,董事會做出解僱決定,並非因為奧特曼的不當行為,或與財務、業務、安全或隱私的事件有關,而是緣於奧特曼與董事會的溝通問題。

路透社11月18日引述美國網站「臨界點」(The Verge)報導,OpenAI董事會正與奧特曼Sam Altman討論讓他重新回巢擔任CEO。其中一名消息人士透露,奧特曼對回歸舊東家感矛盾,他希望公司進行重大的治理變革。

OpenAI建造的ChatGPT在科技業界引起革命,推動生成式AI的快速發展。在今天所有文字的生成式AI,包括微軟所使用的AI軟件,都是建立自ChatGPT上。

ChatGPT在2022年11月發布,短短一年全球使用者突破1億,有200萬人正參與開發,發展速度之快讓人驚訝。

AI人工智慧「終有一天會導致人類滅絕」 的真正原因 

一些安全倡導者指出,OpenAI和其他公司發展AI的速度過快,忽視了提倡謹慎行事的聲音。這爭論在OpenAI的員工中已持續了多年,2020年一群OpenAI的員工因為擔心公司過於商業化,把利益放置在安全之上而辭職,部份員工後來成立了Anthropic,他們認為奧特曼(Sam Altman在開展AI研究時可能過於激進。

OpenAI在2015年成立,當時是一間非牟利研究機構,至2019年才成立一家有限盈利的子公司。OpenAI聲稱這是一種創新安排,投資者的回報受到限制,目的是讓公司保留非營利組織的使命。公司賦予了董事會管理有限利潤實體的權力。這與其它一般企業不同,奧特曼作為公司的領導者,不直接持有OpenAI的任何股份,而董事會有權投票直接開除他。

董事會成員中最少有兩人、即是麥考利(Tasha McCauley)和托納(Helen Toner)與有效利他主義(Effective Altruism)運動有關聯,這是一個倫理運動,運動的成員推動了對AI的安全研究,他們認為失控的強大的AI終有一天會導致人類滅絕。

從英國著名理論物理學家史蒂芬.霍金(Stephen Hawking)到特斯拉創始人伊隆.馬斯克(Elon Musk)等世界頂尖人工智慧(AI)專家,都曾表示過人工智慧對人類生存的威脅。

已經去世的史蒂芬.霍金於2015年8月在美國Reddit網站上,首次提出對人工智慧的“威脅論”,他確信「優異的AI絕對會實現它的目標,因此當人類與它道不同時,絕對有間接或直接剷除人類的可能」。

後來又不斷地警告:「人工智能系统會自行啟動,並以前所未有的速度不斷的重新設計、自我改良。」

「研究人工智慧如同在召唤惡魔」

「全面性的開發人工智慧有一天可能會導致人類滅亡!」。

另一位美國的科學天才馬斯克(2002年創建私人太空發射公司SpaceX)於2017年7月,一次由美國各州、領地及聯邦組成的「國家管理者協會」(National Governors Association)的會議上,再次重申了他對AI發展的遠期擔憂——「我接觸過最先進的人工智能,我認為人類的確應該對它感到擔心。」

他還說:「這是人類文明所面對過的最大挑戰。」

馬斯克海表示沒人聽他的警:「我試圖說服人們降低AI的發展速度、監管AI,但是無效。我試了很多年,沒有人聽。」、「AI的發展似乎不受人類控制」

「人工智能比核能武器更危险」!

美國、英國、歐盟以至聯合國,都先後為AI召開討論,試圖設立機制確保AI發展可運用在正確對人類及社會有益的事項上,間接引證各國對這一波AI發展感到擔憂。

加州大學伯克利分校(University of California,Berkeley)的斯圖爾特.羅素教授(Stuart Russell)是該領域的專家。他在《人類相容:人工智慧與控制問題》(Human Compatible:AI and the Problem of Control)一書中指出,這種威脅並非來自機器人開始有了自我意識,並起來反抗人類主人。而是因為這些機器人能力變得超強,最後有可能是因為人類的疏忽,為機器人設置了錯誤的目標,讓他們無意中把我們都消滅了。

羅素教授表示,這才是我們應該擔心的,而不是像好萊塢大片中所描繪的那樣,人工智慧開始有自主意識,並向人類倒戈,最後把我們都殺光。

羅素教授強調:我們應該擔憂的不是意識,而是它們的「超強能力」(competence)。

羅素教授在接受BBC的採訪時表示,假設我們發明瞭一個可以用於控制氣候變化的強大人工智慧系統,並且能將大氣中的二氧化碳水平恢復到工業革命前的水平。

該人工智慧系統經過分析後認為,最容易的方式就是消滅人類,因為人類活動是產生二氧化碳的最主要來源。

當然人類可能會對機器人說,你做什麼都可以但就是不能把人類全滅絶。人工智慧系統然後可能會說服人類少生孩子,直到最後沒有人生孩子,人類慢慢滅絶為止。

 



来源:看中國

短网址: 版權所有,任何形式轉載需本站授權許可。 嚴禁建立鏡像網站。



【誠徵榮譽會員】溪流能夠匯成大海,小善可以成就大愛。我們向全球華人誠意徵集萬名榮譽會員:每位榮譽會員每年只需支付一份訂閱費用,成為《看中國》網站的榮譽會員,就可以助力我們突破審查與封鎖,向至少10000位中國大陸同胞奉上獨立真實的關鍵資訊, 在危難時刻向他們發出預警,救他們於大瘟疫與其它社會危難之中。
榮譽會員

看完這篇文章您覺得

評論



加入看中國會員
捐助

看中國版權所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我們和我們的合作夥伴在我們的網站上使用Cookie等技術來個性化內容和廣告並分析我們的流量。點擊下方同意在網路上使用此技術。您要使用我們網站服務就需要接受此條款。 詳細隱私條款. 同意