對于大眾來說,人工智能(AI,artificial intelligence)可以說已經(jīng)非常常見和熟悉了。但是通用人工智能(AGI,Artificial General Intelligence)呢?它是一個長期以來在科幻和哲學中討論的概念,它指的是具有類似人類推理能力的AI。
當聊天機器人和生成式人工智能逐步進入了消費大眾的視線,AI掌握了一定的自學習能力,技術(shù)迭代的速度大幅提升。然而,大多數(shù)專家意識到它們無法像人類那樣進行推理。
IEEE會員Karthik K.認為,盡管取得了許多突破,但生成式人工智能缺乏類似人類的推理能力,因為它基于模式和數(shù)據(jù)進行操作,而沒有掌握它們的含義,無法將已經(jīng)學到的概念擴展到新的使用場景中。
那么AI和AGI之間有什么區(qū)別呢?我們?nèi)绾沃浪螘r達到了人類決策的水平?這些問題很難回答,部分原因是沒有一個公認的AI定義,更不用說AGI了。
但這些問題仍然很重要,因為它們闡明了當今技術(shù)的能力和局限性。
AI沒有明確的定義
人工智能的定義是模糊的,涉及多個學科!禝EEE人工智能匯刊》(https://ieeexplore.ieee.org/document/9523786)的一篇社論指出,來自計算機科學、心理學、生物學、數(shù)學和物理學等多個學科的學者試圖對其進行定義。
社論指出:“每一個定義都受到了批評,所以未能在每一個學科內(nèi)達成共識,更不用說普遍共識了!
AGI測試
在缺乏對AGI的明確定義的情況下,許多理論家提出了對通用人工智能的各種測試。這個想法是,我們可能無法定義它,但也許當我們看到它時就會知道。
最著名的是1950年的圖靈測試,該測試設(shè)想召集一組專家向“先知”提問。同樣,如果專家們無法判斷答案來自人類還是機器,那么根據(jù)測試 ——AGI被認為具有人類智能。
蘋果公司的創(chuàng)始人之一、IEEE Fellow Steve Wozniak將咖啡測試作為AGI的一項指標。在測試過程中,機器人必須進入普通家庭并嘗試制作咖啡。這意味著要找到所有的工具,找出它們?nèi)绾芜\作,然后執(zhí)行任務(wù)。能夠完成這個測試的機器人將被認為是AGI的一個例子。
聊天機器人正處于AGI的風口浪尖上嗎?
根據(jù)IEEE計算機學會出版的《計算機》雜志的一篇深入討論(https://www.computer.org/csdl/magazine/co/2023/10/10255223/1QzypCsRrgs),AI與其類人對應(yīng)物之間的差異存在于一個連續(xù)體上。早期的AI發(fā)展了單一領(lǐng)域的專業(yè)知識,比如國際象棋和圍棋。今天的高級人工智能可以理解語言,將語言翻譯成圖像,并分析圖像中癌癥的跡象等。
盡管這些成就令人印象深刻,但它們并不像人類那樣思考和推理。
那么,聊天機器人離實現(xiàn)AGI還有多遠呢?
乍一看,像ChatGPT這樣的聊天機器人非常接近通過圖靈測試,被歸類為AGI。他們可以自信地寫出覆蓋各種學科種類的合理優(yōu)秀的文章。
雖然聊天機器人甚至可以通過法律等領(lǐng)域的專業(yè)許可考試,但它們在基礎(chǔ)層面也會面臨失敗 —— 聊天機器人經(jīng)常把數(shù)學題弄錯。他們對引用的屬性錯誤,并不總是理解因果關(guān)系,在推理問題上得出錯誤的答案。
IEEE會員Sukanya Mandal表示:“實現(xiàn)AGI的下一步可能涉及開發(fā)人工智能系統(tǒng),這些系統(tǒng)可以在廣泛的領(lǐng)域展示更先進的推理、解決問題和學習能力。這可能包括將知識從一個環(huán)境轉(zhuǎn)移到另一個環(huán)境的能力,從有限的數(shù)據(jù)或例子中學習的能力,以及在新的情況下表現(xiàn)出創(chuàng)造力和適應(yīng)性的能力!