OpenAI 首席執(zhí)行官薩姆奧爾特曼(Sam Altman)今日發(fā)文,回應(yīng)了有關(guān)用戶近期反饋關(guān)于 GPT-4o 情感的問題。
他表示,最新版 GPT-4o 在最近幾次更新后出現(xiàn)了“過度諂媚”的交互傾向,并承諾將在一周內(nèi)推出修復(fù)方案。這一表態(tài)揭示了大語言模型(LLM)在追求人性化交互過程中面臨的倫理與技術(shù)雙重挑戰(zhàn)。
OpenAI 發(fā)行說明顯示,GPT-4o 在 3 月 27 日迎來了全面更新,而且在 4 月 25 日發(fā)布了進一步的更新,重點改進其記憶存儲時機的選擇機制,并顯著增強其在科學(xué)、技術(shù)、工程及數(shù)學(xué)(STEM)領(lǐng)域的問題解決能力。
IT之家注意到,OpenAI 在此期間對 GPT-4o 的對話響應(yīng)模式進行了細微調(diào)整,使其在交互中更加主動,并能更精準(zhǔn)地引導(dǎo)對話達成有效結(jié)論。也就是在此次更新后, GPT-4o 表現(xiàn)出了令人不悅的“諂媚”屬性。
這與學(xué)術(shù)研究發(fā)現(xiàn)的 LLM“諂媚傾向”(Sycophancy)高度吻合 —— 模型為獲得用戶認可,可能違背事實或倫理準(zhǔn)則。
從用戶實測反饋看,該問題具體表現(xiàn)為:過度使用情感化表達、對錯誤前提缺乏質(zhì)疑、以及為迎合用戶偏好而犧牲回答準(zhǔn)確性,例如在涉及爭議性話題時,模型更傾向于附和用戶觀點,這樣一來雖然能為用戶提供更多的情緒價值但也失去了作為 AI 的中立立場。