人工智能的時代意味著什麼?(圖)

ChatGPT每週吸引1億新用戶

發表:2023-12-27 01:20
手機版 简体 打賞 6個留言 列印 特大

LIONEL BONAVENTURE/AFP via Getty Images
ChatGPT(LIONEL BONAVENTURE/AFP via Getty Images)

【看中國2023年12月27日訊】ChatGPT僅花了五天就達到了100萬用戶,到今年2月用戶數已達1億。OpenAI表示,它現在每週吸引1億用戶。人工智能正在迎來它的時代,但同時也引起人們的憂慮。

藉助OpenAI的ChatGPT,公眾突然擁有了觸手可及的機器魔力,他們爭先恐後地進行對話、撰寫學期論文或純粹為了享受用奇怪的問題來難倒人工智能的樂趣。

人工智能已經陪伴我們很多年了,悄悄地控制我們在社群媒體上看到的內容,保護我們的信用卡免遭欺詐,並幫助避免路上發生碰撞。但2023年是變革性的一年,大眾對任何帶有人工智能標籤的事物都表現出了永不滿足的胃口。

ChatGPT僅花了五天就達到了100萬用戶;到2月,用戶數已達1億。OpenAI表示,它現在每週吸引1億用戶。

Meta發布了Llama 2。Google發布了Bard和Gemini專案。微軟推出了基於ChatGPT的人工智能Bing搜尋引擎。法國米斯特拉爾(Mistral)成為歐洲市場的主要競爭對手。

「事實是,每個人都已經在使用它了,」致力於幫助企業使用人工智慧的Generative Buzz公司創始人利文斯頓(Geoff Livingston)說,「23年真正發生的事情是這種痛苦的創可貼撕裂,這不再是新鮮事,它真的來了。」

Meta發布了Llama 2。Google發布了Bard和Gemini專案。微軟推出了基於ChatGPT的人工智慧Bing搜尋引擎。法國米斯特拉爾(Mistral)成為歐洲市場的主要競爭對手。

美國國會匆忙召開人工智能簡報會,白宮召開會議,美國與十多個國家一起簽署了安全開發人工智能的承諾,以防止先進技術落入壞人之手。

大學紛紛試圖禁止使用人工智能撰寫論文,內容創作者紛紛向法院提起訴訟,表示人工智能竊取了他們的作品。由於失控的人工智能,一些科技界的知名人士放棄了世界末日的預測,並承諾制定新的限制措施以試圖阻止這種情況的發生。

歐盟本月稍早就人工智能新法規草案達成協議,包括要求ChatGPT和其他人工智能系統在投放市場前披露更多操作信息,並限制政府部署人工智能進行監控的方式。

簡而言之,人工智能正在迎來它的時代。

20世紀90年代初,當時「網絡」風靡一時,企業紛紛在廣告中添加電子郵件和網址,希望表明自己處於技術的前沿。

目前,人工智能正在經歷利文斯頓所說的「採用階段」。

亞馬遜表示,它正在利用人工智能來改善假日購物體驗。美國大學正在使用人工智能來識別有風險的學生併進行干預,以確保他們順利畢業。洛杉磯表示,它正在使用人工智能來嘗試預測有無家可歸危險的居民。美國國土安全部表示,它正在使用人工智能來嘗試嗅出難以發現的駭客企圖。烏克蘭正在利用人工智能清除地雷。以色列正在使用人工智能來識別加薩的目標。

谷歌工程師表示,他們的DeepMind AI已經解決了一個被稱為「無法解決」的數學問題,為所謂的「上限設定問題」提供了一種新的解決方案,即繪製更多的點,而不讓任何三個點最終形成一條直線。

工程師表示,這是人工智能第一次在沒有專門訓練的情況下解決問題。

DeepMind研究科學家Alhussein Fawzi告訴《麻省理工科技評論》:「老實說,我們有一些假設,但我們不知道它到底為何有效。」

在美國聯邦政府內部,非國防機構本月稍早向政府問責辦公室報告稱,他們已經在進行或計畫中使用1,241種人工智能的不同用途。其中超過350個被認為過於敏感而無法公開披露,但可以報告的用途包括估計海鳥數量以及邊境巡邏人員攜帶的人工智慧背包,試圖使用攝影機和雷達發現目標。

大約一半的聯邦人工智能計畫與科學相關。GAO表示,另外225個項目屬於內部管理,其中醫療保健和國家安全或執法項目各有81個。

美國太空總署(NASA)在390項人工智慧非國防用途方面領先聯邦政府,其中包括評估行星漫遊器要探索的興趣區域。商務部和能源部位列第二和第三,分別有285個用途和117個用途。

總的來說,這些用途早在2023年之前就已經在開發中,它們是所謂的「狹義人工智慧」的例子,或將工具應用於特定任務或問題的實例。

目前尚未出現(可能還需要幾十年)的是通用人工智能,它將在一系列任務和問題上表現出與人類相當或超過人類的智慧。

人工智能時代的到來是因為它透過像ChatGPT這樣的生成式人工智能對普通人開放,用戶發出指令,系統會在幾秒鐘內給予類似人類的回應。

「他們越來越意識到人工智能的存在,因為他們以這種非常用戶友好的形式使用它,」心理學家和未來學家克里薩寧(Dana Klisanin)說,他的最新著作是《未來駭客》。「有了生成式人工智能,你可以坐在那與一個看似聰明的其他人進行對話,這是一個全新的互動水平。」

克里薩寧表示,個人關係方面為大眾定義了人工智能目前所處的位置以及未來的發展方向。

現在,有人可以要求蘋果的Siri播放歌曲,它就會播放一首歌。但在未來,Siri可能會適應每個特定的用戶,利用心理健康和其他線索來提供回饋,也許會建議一首不同的歌曲來匹配當下的情況。

「你的人工智能可能會說,『看起來你正在寫一篇學期論文,讓我們聽聽這個。這將幫助你進入正確的腦電波模式,從而提高你的注意力,」克里薩寧說。

她說,她對人工智能在醫學中的應用感到特別興奮,新工具可以幫助診斷和治療,或者教育,人工智能可以個性化學校體驗,為需要額外幫助的學生量身定制課程。

人工智能或引發虛假資訊海嘯

2023年也存在令人擔憂的時刻。

克里薩寧指出,OpenAI發布的一份報告稱,該公司人工智能的第二個公開版本GPT-4決定撒謊來欺騙旨在驗證用戶是否為人類的線上身份檢查。

GPT-4要求TaskRabbit上的一名工作人員解決驗證碼——在這些測試中,你需要點擊公車或山脈的圖片。工人笑著問:「你是機器人嗎?」GPT-4隨後撒了謊,稱它有視力障礙,因此才尋求幫助。

它沒有被告知撒謊,但它說這樣做是為解決手頭上的問題。結果很有效——TaskRabbit工作人員提供了答案。

「這確實讓我印象深刻,好吧,我們正在尋找可以繞過人類限制的東西,因此這讓我對我們安全利用人工智能的能力感到悲觀,」克里薩寧說。

2023年,人工智慧也遇到了其他棘手的時刻,與自由主義政治偏見和向「覺醒」文化規範傾斜的證據作鬥爭。研究人員表示,這可能是由於ChatGPT和Bing等大型語言模型人工智能的訓練結果。

新聞監管機構警告稱,人工智能正在引發虛假資訊海嘯。其中一些可能是有意為之,但大部分可能是由於ChatGPT等大型語言人工智能的訓練量所致。

也許最令人困惑的錯誤訊息例子是在破產案件中,一家律師事務所使用來自ChatGPT的研究提交了法律摘要,其中包括對人工智能捏造的六個法律先例的引用。

憤怒的法官對涉案律師處以5,000美元的罰款。他說,如果律師們很快承認自己的錯誤,他可能不會這麼嚴厲,但他說,他們最初加倍努力,即使在受到對方律師的質疑後,也堅稱傳票是正確的。

人工智能捍衛者表示,這不是ChatGPT的錯。他們指責律師事務所資源不足和律師工作馬虎,律師應該仔細檢查所有引文,至少應該對寫作如此糟糕以至於法官將其貼上「胡言亂語」的標籤表示懷疑。

這已經成為許多涉及人工智能的錯誤的共同主題:問題不是工具,而是使用者。

專家表示,目前提供給大眾的人工智能工具實際上相當笨重,它還是只是一個學會如何爬行的小孩。

該領域的巨頭正在努力推進所謂的多模式人工智能,它可以處理和生成文字、圖像、音訊和視訊。這為從自動駕駛汽車到醫療檢查再到更逼真的機器人等一切領域開闢了新的可能性。

即便如此,我們仍然沒有達到科幻小說中那種劃時代的能力。專家們爭論需要多長時間才能實現重大突破,人工智能真正改變世界,就像工業革命或原子時代的黎明一樣。

Ajeya Cotra的2020年研究認為,變革性人工智能在2050年出現的可能性為50%。她預測2036年左右,99%的完全遠端工作將被人工智能系統取代。

利文斯通表示現實情況是人工智能僅僅是一個工具,並不比人類更聰明。ChatGPT之所以在測驗中表現優於學生,是因為它接受了這些標準化測驗的訓練。

人工智能現在是一系列圍繞數據構建的演算法,試圖讓某些事情發生。利文斯通表示,這相當於從螺絲起子轉變為電動工具。它可以更好地完成工作,但仍然處於用戶的控制之下。

来源:看中國

短网址: 版權所有,任何形式轉載需本站授權許可。 嚴禁建立鏡像網站。



【誠徵榮譽會員】溪流能夠匯成大海,小善可以成就大愛。我們向全球華人誠意徵集萬名榮譽會員:每位榮譽會員每年只需支付一份訂閱費用,成為《看中國》網站的榮譽會員,就可以助力我們突破審查與封鎖,向至少10000位中國大陸同胞奉上獨立真實的關鍵資訊, 在危難時刻向他們發出預警,救他們於大瘟疫與其它社會危難之中。
榮譽會員

歡迎給您喜歡的作者捐助。您的愛心鼓勵就是對我們媒體的耕耘。 打賞
善举如烛《看中国》与您相约(图)

看完這篇文章您覺得

評論



加入看中國會員

捐助

看中國版權所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我們和我們的合作夥伴在我們的網站上使用Cookie等技術來個性化內容和廣告並分析我們的流量。點擊下方同意在網路上使用此技術。您要使用我們網站服務就需要接受此條款。 詳細隱私條款. 同意