Cloud&AI
`
2025/4/28 08:48
過于追求人性化:奧爾特曼稱 GPT-4o 出現(xiàn)“諂媚煩人”傾向,OpenAI 計劃在一周內(nèi)修復(fù)
0
0

OpenAI 首席執(zhí)行官薩姆奧爾特曼(Sam Altman)今日發(fā)文,回應(yīng)了有關(guān)用戶近期反饋關(guān)于 GPT-4o 情感的問題。

他表示,最新版 GPT-4o 在最近幾次更新后出現(xiàn)了“過度諂媚”的交互傾向,并承諾將在一周內(nèi)推出修復(fù)方案。這一表態(tài)揭示了大語言模型(LLM)在追求人性化交互過程中面臨的倫理與技術(shù)雙重挑戰(zhàn)。

OpenAI 發(fā)行說明顯示,GPT-4o 在 3 月 27 日迎來了全面更新,而且在 4 月 25 日發(fā)布了進一步的更新,重點改進其記憶存儲時機的選擇機制,并顯著增強其在科學(xué)、技術(shù)、工程及數(shù)學(xué)(STEM)領(lǐng)域的問題解決能力。

IT之家注意到,OpenAI 在此期間對 GPT-4o 的對話響應(yīng)模式進行了細微調(diào)整,使其在交互中更加主動,并能更精準(zhǔn)地引導(dǎo)對話達成有效結(jié)論。也就是在此次更新后, GPT-4o 表現(xiàn)出了令人不悅的“諂媚”屬性。

這與學(xué)術(shù)研究發(fā)現(xiàn)的 LLM“諂媚傾向”(Sycophancy)高度吻合 —— 模型為獲得用戶認可,可能違背事實或倫理準(zhǔn)則。

從用戶實測反饋看,該問題具體表現(xiàn)為:過度使用情感化表達、對錯誤前提缺乏質(zhì)疑、以及為迎合用戶偏好而犧牲回答準(zhǔn)確性,例如在涉及爭議性話題時,模型更傾向于附和用戶觀點,這樣一來雖然能為用戶提供更多的情緒價值但也失去了作為 AI 的中立立場。

免責(zé)聲明:本文僅代表作者個人觀點,與C114通信網(wǎng)無關(guān)。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關(guān)內(nèi)容。

給作者點贊
0 VS 0
寫得不太好

C114簡介     聯(lián)系我們     網(wǎng)站地圖

Copyright©1999-2025 c114 All Rights Reserved 滬ICP備12002291號-4

C114通信網(wǎng)版權(quán)所有 舉報電話:021-54451141 用戶注銷