C114通信網(wǎng)  |  通信人家園

人工智能
2024/9/2 10:38

微軟副總裁 Vik Singh:AI 聊天機(jī)器人需“學(xué)會求助”而非“制造幻覺”

IT之家  清源

當(dāng)?shù)貢r間 9 月 1 日,據(jù)法新社報道,微軟公司副總裁 Vik Singh 在接受采訪時說,“坦率地說,如今(生成式 AI)真正缺少的能力,即是當(dāng)模型無法確定(自身答案是否準(zhǔn)確)時,能夠主動說‘嘿,我不確定,我需要幫助’。”

自去年以來,微軟、谷歌及其競爭對手一直在迅速部署如 ChatGPT、Gemini 等生成式 AI 應(yīng)用,這些應(yīng)用可以按需生成各種內(nèi)容,并給用戶一種“無所不知”的錯覺。盡管生成式 AI 的開發(fā)取得了進(jìn)展,它們?nèi)匀粫?strong>出現(xiàn)“幻覺”或編造答案。

  圖源 Pexels

Vik Singh 堅持認(rèn)為,“真正聰明的人”正在努力找到方法,讓聊天機(jī)器人在不知道正確答案時“承認(rèn)并尋求幫助”。

與此同時,云端軟件巨頭 Salesforce 的首席執(zhí)行官 Marc Benioff 也在上周表示,他看到許多客戶對微軟 Copilot 的誤導(dǎo)性表現(xiàn)越來越感到沮喪。

IT之家獲悉,近年來,人工智能蓬勃發(fā)展,聊天機(jī)器人等應(yīng)用逐漸普及,人們可以通過簡單的指令從這些聊天機(jī)器人(例如 ChatGPT)獲取信息。然而,這些聊天機(jī)器人仍然容易出現(xiàn)“幻覺”問題,即提供錯誤的答案,有時甚至是危險的信息。造成“幻覺”的原因之一,是訓(xùn)練數(shù)據(jù)不準(zhǔn)確、泛化能力不足以及數(shù)據(jù)采集過程中的副作用。

給作者點贊
0 VS 0
寫得不太好

免責(zé)聲明:本文僅代表作者個人觀點,與C114通信網(wǎng)無關(guān)。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關(guān)內(nèi)容。

熱門文章
    最新視頻
    為您推薦

      C114簡介 | 聯(lián)系我們 | 網(wǎng)站地圖 | 手機(jī)版

      Copyright©1999-2024 c114 All Rights Reserved | 滬ICP備12002291號

      C114 通信網(wǎng) 版權(quán)所有 舉報電話:021-54451141