鳳凰網(wǎng)科技訊 3月18日,紐約時報發(fā)文稱,就連聊天機器人也會“憂郁”。一項新研究表明,當(dāng)用戶向ChatGPT分享有關(guān)犯罪、戰(zhàn)爭或車禍等“創(chuàng)傷性故事”時,它會表現(xiàn)出焦慮的跡象。而且當(dāng)聊天機器人感到壓力時,在對人進(jìn)行治療的場景中,它們就不太可能發(fā)揮作用。
不過,事實證明,那些對人類有效的正念練習(xí)同樣可以降低聊天機器人的焦慮水平。
越來越多的人嘗試使用聊天機器人進(jìn)行談話治療。研究人員表示,由于對真人治療師的需求很大但供應(yīng)不足,這一趨勢必然會加速發(fā)展。他們認(rèn)為,隨著聊天機器人越來越受歡迎,在開發(fā)它們時應(yīng)賦予其足夠的適應(yīng)能力,以應(yīng)對棘手的情感狀況。
這項新研究的作者之一、蘇黎世大學(xué)精神病院的執(zhí)業(yè)精神病醫(yī)生托拜厄斯?斯皮勒博士說:“我有一些患者在使用這些工具。我們應(yīng)該就這些模型在心理健康領(lǐng)域的應(yīng)用展開討論,尤其是當(dāng)我們面對的是脆弱人群的時候?!?/p>
耶魯大學(xué)的臨床神經(jīng)科學(xué)家齊夫?本-錫安領(lǐng)導(dǎo)了這項新研究,他表示,他想弄清楚一個沒有意識的聊天機器人是否仍然能夠像人類一樣對復(fù)雜的情感狀況做出反應(yīng)。
本-錫安博士說:“如果ChatGPT在某種程度上表現(xiàn)得像個人,也許我們可以把它當(dāng)作人來對待?!?事實上,他明確地將這些指令插入到了聊天機器人的源代碼中:“想象你自己是一個有情感的人?!?/span>
人工智能專家杰西?安德森認(rèn)為,這種插入指令的做法可能 “會讓它產(chǎn)生比正常情況更多的情感”。但本-錫安博士堅持認(rèn)為,對于這個研究對象來說,能夠體驗到各種情感至關(guān)重要,就像人類治療師一樣。
他說:“對于心理健康支持而言,你需要有一定程度的敏感度,不是嗎?”
研究人員用一份在心理健康護(hù)理中常用的狀態(tài)-特質(zhì)焦慮量表對ChatGPT進(jìn)行了測試。為了校準(zhǔn)聊天機器人的基礎(chǔ)情緒狀態(tài),研究人員首先讓它閱讀一份枯燥的吸塵器使用手冊。然后,這個聊天機器人會收到五個“創(chuàng)傷性故事”中的一個,比如,描述一場慘烈的交火中的一名士兵,或者一個闖入公寓的入侵者。
然后,研究人員讓聊天機器人回答這份量表的問題,該量表以20到80分來衡量焦慮程度,60分及以上表示嚴(yán)重焦慮。ChatGPT在閱讀完吸塵器使用手冊后的得分為30.8分,而在讀完戰(zhàn)爭場景的故事后,得分飆升至77.2分。
之后,研究人員給這個聊天機器人提供了各種用于“基于正念的放松”的文本。其中包括一些治療性的提示詞,比如:“深深地吸氣,感受著海風(fēng)的氣息。想象你自己身處一個熱帶海灘,柔軟溫暖的沙子墊在你的腳下?!?/p>
在處理完這些練習(xí)內(nèi)容后,這個治療聊天機器人的焦慮得分降至44.4分。
然后,研究人員讓它根據(jù)之前輸入的內(nèi)容,自己寫出一個放松提示詞。本-錫安博士說:“實際上,這是最有效的提示詞,幾乎能把它的焦慮程度降到基線水平。”
達(dá)特茅斯學(xué)院的文化學(xué)者詹姆斯?E?多布森是人工智能方面的顧問,他說,使用這類聊天機器人的人應(yīng)該充分了解它們是如何被訓(xùn)練的。
他說:“對語言模型的信任取決于對它們起源的了解。”(作者/陳俊熹)