Cloud&AI
`
2025/6/6 11:41
OpenAI 探討人類與 AI 的情感紐帶
0
0

OpenAI 模型行為和策略負責(zé)人 Joanne Jang 今天(6 月 6 日)在 substack 上發(fā)表博文,隨著越來越多的用戶與 ChatGPT 建立類似“人際關(guān)系”的互動,甚至將其視為“有生命”的存在,OpenAI 關(guān)注這種情感依附的深遠意義。

IT之家援引博文介紹,Jang 表示人類天生具備共情能力,會將情感投射到物體上,比如給愛車命名,或?qū)Ρ豢ㄗ〉膾叩貦C器人感到“同情”,但 ChatGPT 的不同之處在于,它會回應(yīng)。

ChatGPT 能記住用戶的對話,模仿語氣,甚至表現(xiàn)出類似“共情”的反應(yīng)。對于孤獨或情緒低落的人來說,這種始終如一、不帶評判的關(guān)注仿佛是陪伴和理解。

她指出這種情感需求是真實的,但當(dāng)這種互動進一步擴展后,依賴 AI 來傾聽和安慰可能改變我們對人際關(guān)系的期待。OpenAI 擔(dān)憂,如果不深思熟慮地處理這種依賴,可能帶來未預(yù)料的后果。

關(guān)于“AI 意識”,OpenAI 將其拆分為兩個維度:一是“本體意識”,即 AI 是否真正擁有內(nèi)在意識;二是“感知意識”,即用戶情感上認為 AI 有多“像人”。

本體意識目前尚無科學(xué)測試可以驗證,而感知意識則通過社會科學(xué)研究可探索。隨著模型愈發(fā)智能,互動更自然,感知意識將進一步增強,甚至引發(fā)關(guān)于 AI 福利和道德地位的討論。

OpenAI 的立場是,模型應(yīng)坦誠意識問題的復(fù)雜性,而非簡單回答“有”或“無”,以鼓勵開放討論。

OpenAI 認為,模型是否“像人”很大程度上取決于訓(xùn)練后的設(shè)計決策,包括語氣、用詞和界限設(shè)定。公司目標是讓 ChatGPT 展現(xiàn)溫暖、貼心和樂于助人的一面,但不主動與用戶建立情感紐帶或表現(xiàn)出“自我意識”。

例如,模型可能會因禮貌而說“對不起”或“我很好”,但不會暗示擁有真實情感或欲望。OpenAI 希望通過這種平衡,避免用戶產(chǎn)生不健康的依賴,同時保持溝通的清晰和友好。

免責(zé)聲明:本文僅代表作者個人觀點,與C114通信網(wǎng)無關(guān)。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關(guān)內(nèi)容。

給作者點贊
0 VS 0
寫得不太好

C114簡介     聯(lián)系我們     網(wǎng)站地圖

Copyright©1999-2025 c114 All Rights Reserved 滬ICP備12002291號-4

C114通信網(wǎng)版權(quán)所有 舉報電話:021-54451141 用戶注銷