極客網·極客觀察11月7日 2011年時谷歌DeepMind聯合創始人Shane Legg曾預言,2028年之前AI有50%的概率可能會變得和人一樣聰明。最近Shane Legg接受采訪,他強調自己的觀點未變,依然認為研究人員有50%的概率實現通用人工智能(AGI,又叫強人工智能)。
現在科技產業對AI的興趣越來越大,人類實現AGI似乎真的有了一些希望。2011年Shane Legg能有這樣的判斷讓人驚訝,OpenAI CEO Sam Altman也在鼓吹AGI。雖然有眾多大佬捧場,但人類到底離AGI還有多遠?真的能在未來一段時間實現嗎?
DeepMind聯合創始人Shane Legg:2028年前有50%概率會實現AGI
1999年時谷歌AI專家Ray Kurzweil曾出版一本名為《精神機器時代》(The Age of Spiritual Machines)的書,他在書中介紹了“超人AI”的未來,Shane Legg明顯受到了這本書的影響。
Shane Legg說:“書中有兩個很重要的觀點值得關注,我漸漸相信它是真的。第一個觀點,在未來至少幾十年里,計算力會呈現出指數級增長的態勢。第二個觀點,在未來幾十年里,全球數據量將會呈現指數級增長態勢?!?/p>
2011年時深度學習技術已經出現,漸漸流行起來,Shane Legg認為,將這些新技術與計算力、數據量結合,AGI有可能會變成現實,在本個十年末人類有50%的概率實現AGI。不過這有一個提前:不要出現核戰一樣瘋狂的變故!
十多年后的今天Shane Legg再次強調,AGI會在本個十年末出現,但出現有幾個必要前提。
第一個前提,AGI的定義依賴于人類智力定律,人類智力是相當復雜的,難以準確測量。
Shane Legg認為,人類到底能做什么?至今我們仍然無法完全確知。人類可以回憶過去發生的事,可以理解視頻,如果研究人員能對人類智力進行一系列測試,讓AI模型擊敗人類,那我們就可以說AI達到了AGI的水平。
目前AI有沒有在單項測試中達到AGI的水平呢?Shane Legg認為還沒有。他說:“現在AI還沒有做到,因為這是通用人工智能,所以AI應該做許多不同的事情,而且不能與人有太大差距?!?/p>
第二個前提,AI訓練模型應該具有擴展能力。Shane Legg解釋稱:“開發算法,讓它具有更強的擴展能力,這樣的算法收益很高。我認為,行業很可能會著手研究可擴展AI算法?!?/p>
Shane Legg還說,只有擁有強大的計算力才有可能實現AGI。第一步就是用龐大的數據訓練AI模型,這種數量是人一生都體驗不了的。Shane Legg認為,這一步人類應該已經做到了。
軟銀創始人孫正義:20年內將會誕生超人工智能ASI
軟銀創始人孫正義也持相同看法,他認為,在未來20年內將會誕生超人工智能 (Artificial Super Intelligence,ASI),AI可以自己發展出思考技能。
孫正義堅信,無論是國家還是個人,如果不能擁抱AI就會落后。他還說,使用AGI和不使用,彼此之間的差距會像人的智力的猴子的智力一樣大。孫正義甚至夸張地說,不使用ChatGPT就像拒絕使用電力一樣。
他認為,90年代時日本沒有擁抱數字技術,最終沒有一家日本企業進入世界前十位。如果現在的企業不擁抱AI,十年之后也會面臨相同的下場。通過商品制造成為領導者的時代已經過去很久,專注于互聯網的大型科技企業也會成為過去。
按照孫正義的預測:“未來AGI將會覆蓋所有行業,包括投靠、金融、物流,所有產業。重視的企業將會在十年內成為領導者,新世界將會以AGI作為中心?!彼f,在未來,無人駕駛將會變得極為安全,供應鏈與需求完美匹配,數字客服將會變得極為聰明,靶向基因治療將會流行。
OpenAI聯合創始人Ilya Sutskever:AGI很快就會實現
OpenAI聯合創始人、首席科學家Ilya Sutskever也談到了AGI。當初OpenAI還很弱小時Ilya Sutskever就曾警告說,OpenAI開發的AI技術將會改變世界。
他曾在紀錄片中談到:“AI很好,因為AI可以解決我們遇到的所有問題。它能解決就業問題,疾病問題,貧困問題,但也會創造新的問題?!?/p>
在紀錄片中,Ilya Sutskever預測AGI很快就會實現。他說AI是可以做任何工作、執行任何任務的計算機系統,這些原本由人來做,但AI做得比人還要好。
人類會如何對待AGI?Ilya Sutskever用動物來類比,我們對動物并不友善,不是因為我們不愛動物,是因為漠視動物對人類來說更方便。
“我們并不討厭動物,但是當我們準備在兩座城市之間修一條高速公路時,不會去征詢動物的意見,我們只管修,因為公路對我們來說很重要?!盜lya Sutskever類比道,“人類和AGI的關系會像人類和動物的關系一樣。AGI會是真正自主的,它們按自己的方式運行?!?/p>
Ilya Sutskever的觀點相當可怕,人類必須讓AGI變得正確,否則會存在很大風險。他說:“如果人類沒有這樣做,自然進化、自然選擇會偏愛AGI系統,AGI會將自己的幸存放在第一位?!保ㄐ〉叮?/p>
- 蜜度索驥:以跨模態檢索技術助力“企宣”向上生長
- 分析師:華為手機對蘋果有沖擊,但影響還不夠大
- 一年學習從新手到金獎選手!昇騰AI優秀開發者養成記
- AI加速“科技權勢”集中,巨頭壟斷AI會造成嚴重后果嗎?
- 安防行業智能躍升,中聯云創攜手華為“感知萬物”
- 起底OpenAI“地震”中的焦點人物Ilya,他對AI到底有何看法?
- 從云原生向AI原生,2023華為開發者大賽見證開發范式再躍升
- 微軟開發定制AI芯片“由軟變硬”,到底打的什么算盤?
- 大模型東風吹暖智慧交通 中科視語斬獲昇騰AI創新大賽2023金獎
- 學而優則“創”!西電學子助力openGauss教學“破圈”,一舉斬獲金獎
- 高通衛星短信功能夭折?或因為商業模式不清晰
免責聲明:本網站內容主要來自原創、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。