為什么我們需要AI心理醫(yī)生?
2024-01-25 07:03 星期四
作者:實(shí)習(xí)生朱泓頤 責(zé)編:許若瑜
人工智能將帶來精神保健領(lǐng)域的范式轉(zhuǎn)變。

近日,美國心理學(xué)會(American Psychological Association)發(fā)布了2024年12大心理學(xué)發(fā)展趨勢,其中指出心理學(xué)家正在研究生成式人工智能(generative artificial intelligence)對其工作的影響,并將帶頭把社會科學(xué)洞見引入生成式人工智能工具的創(chuàng)建和部署之中。

一項(xiàng)由提供衛(wèi)生政策信息的非政府組織KFF和CNN聯(lián)合發(fā)布的調(diào)查顯示,90%的公眾認(rèn)為當(dāng)今美國存在心理健康危機(jī)。阻礙人們獲得心理健康服務(wù)的因素包括成本高、心理健康保險(xiǎn)未被健康保險(xiǎn)所覆蓋、心理治療師數(shù)量不足、看心理醫(yī)生的羞恥心態(tài)等。針對這些問題,美國心理學(xué)會認(rèn)為盡管聊天機(jī)器人在生理結(jié)構(gòu)、生活經(jīng)驗(yàn)和言辭習(xí)慣上與人類治療師存在差異,但它們有填補(bǔ)心理健康服務(wù)空白的潛力。福布斯雜志也指出人工智能將引發(fā)精神保健領(lǐng)域的范式轉(zhuǎn)變,提供克服各種障礙的潛在手段。

多維度的心理治療潛力

目前,多款心理健康應(yīng)用程序的出現(xiàn)呼應(yīng)著人工智能在心理治療層面的潛力。Wysa是一款于2016年推出的基于人工智能的“情感智能”App。它是一只袖珍企鵝形狀的聊天機(jī)器人,同時(shí)也是經(jīng)過臨床驗(yàn)證的心理醫(yī)生,通過對話促進(jìn)用戶積極的自我表達(dá),幫助恢復(fù)心理彈性,主要應(yīng)用于抑郁、焦慮以及慢性疼痛等相關(guān)癥狀。根據(jù)2022年的同行評議*,Wysa在多種心理療法中的效果與治療聯(lián)盟*相當(dāng),甚至更為出色,例如面對面認(rèn)知行為療法、面對面團(tuán)體治療和在線認(rèn)知行為療法等。這表明AI心理醫(yī)生在一定程度上能夠與人類治療師相媲美。(*注:同行評議peer review是一種學(xué)術(shù)和科學(xué)研究領(lǐng)域的評估機(jī)制,由同行專業(yè)人士對研究的質(zhì)量、方法、結(jié)論等進(jìn)行評估以保證其科學(xué)性和可信度;治療聯(lián)盟therapeutic alliance是指心理健康專業(yè)人員與患者在心理治療任務(wù)與目標(biāo)上的合作,以及情感上的聯(lián)結(jié)。)

image

基于人工智能的心理健康A(chǔ)pp Wysa
圖片來源:wysa.com

與Wysa類似,Youper也是一款由人工智能驅(qū)動的心理健康遠(yuǎn)程治療App,用戶可以隨時(shí)隨地使用手機(jī)調(diào)節(jié)情緒,其干預(yù)效果經(jīng)過了斯坦福大學(xué)研究的證實(shí)。同時(shí),這些心理健康應(yīng)用程序還在不斷更新升級,以更好地應(yīng)對各種心理問題。在新冠肺炎疫情期間,Woebot App推出了名為Perspectives的產(chǎn)品和專門處理悲傷和經(jīng)濟(jì)困難的主題,擴(kuò)大了免費(fèi)、及時(shí)和便利的心理健康服務(wù)的支持范圍。

事實(shí)上,自誕生起,人工智能聊天機(jī)器人便與心理學(xué)有著深厚淵源。上世紀(jì)60年代中期誕生的ELIZA被認(rèn)為是世界上第一批聊天機(jī)器人,并以“心理治療師”的身份而聞名。它的設(shè)計(jì)初衷是在“DOCTOR”的腳本下模仿治療師,通過提出開放式問題并給予簡單回復(fù)來安撫患者。隨著人工智能技術(shù)的發(fā)展,技術(shù)與心理學(xué)的交叉繼續(xù)重塑著心理醫(yī)療保健的方式。英國新聞周報(bào)《經(jīng)濟(jì)學(xué)人》預(yù)測生成式人工智能將在2024年成為主流,醫(yī)療保健和金融服務(wù)等以數(shù)據(jù)為中心的公司將率先獲益。

image

與最早的AI心理治療師ELIZA的對話
圖片來源:wikipedia.org

目前,心理健康保健領(lǐng)域面臨著治療師資源不足的挑戰(zhàn)。根據(jù)世界衛(wèi)生組織2022年發(fā)布的《世界心理健康報(bào)告:改變所有人的心理健康》數(shù)據(jù)顯示,心理健康問題在全球范圍內(nèi)普遍存在。每年,抑郁癥和焦慮癥造成的經(jīng)濟(jì)損失約為1萬億美元。而全球約有一半人口生活在心理醫(yī)生嚴(yán)重不足的國家,一名醫(yī)生至少需要為20萬人提供服務(wù)。

AI聊天機(jī)器人能夠一定程度上填補(bǔ)這一空缺,在心理健康服務(wù)的提供端與接收端都獲得支持。一方面,多款心理健康A(chǔ)pp在各年齡組的身心功能方面都取得了積極的臨床效果。Wysa因能夠減少老年人慢性病的疼痛與心理困擾獲得了美國食品藥品監(jiān)督管理局(FDA)的“突破性設(shè)備”認(rèn)定。該公司的首席心理學(xué)家Smriti Joshi表示:“Wysa并不是為了代替心理學(xué)家和人類的工作,而是一種獲得精神支持的新方式。”

另一方面,人們可能對AI心理治療師有著較高的接受度。獨(dú)立醫(yī)療服務(wù)提供商Tebra的一項(xiàng)調(diào)查顯示,有25%的患者表示他們更愿意與聊天機(jī)器人交流,而不是參加傳統(tǒng)的心理療法。此外,80%曾使用過ChatGPT尋求心理健康建議的人認(rèn)為它是常規(guī)治療的良好替代方案。這表明人們對于與AI心理醫(yī)生進(jìn)行交流的態(tài)度可能較為積極。

image

圖片來源:apaservices.org

TEAM-CBT心理療法*的創(chuàng)始人David Burns表示,與人類治療師相比,AI治療師每周7天、每天24小時(shí)的服務(wù)擴(kuò)大了心理治療的可及性。而軟件開發(fā)公司Binariks認(rèn)為,AI治療師跨越了地理界限,使全球范圍內(nèi)的心理健康資源更具可用性,促進(jìn)了護(hù)理的公平化并為社會帶來更廣泛的公平。同時(shí),對于容易產(chǎn)生社交焦慮或?qū)葱睦磲t(yī)生有羞恥心態(tài)的人來說,線上交談可能沒有拿起電話或者面對面交流那樣令人抵觸。正如哈佛醫(yī)學(xué)院教授、馬薩諸塞州總醫(yī)院數(shù)字心理健康中心主任Sabine Wilhelm所言,人工智能進(jìn)入心理領(lǐng)域真正美妙的地方在于,不同偏好的人們可以得到不同程度的支持。(*注:TEAM-CBT是“Team Cognitive Behavioral Therapy”的縮寫,翻譯為“團(tuán)隊(duì)認(rèn)知行為療法”,結(jié)合了認(rèn)知療法和行為療法的原理并強(qiáng)調(diào)團(tuán)隊(duì)合作,致力于促進(jìn)個(gè)體更健康的情緒和生活體驗(yàn)。)

不僅如此,AI心理醫(yī)生既可以作為獨(dú)立工具使用,也可融入傳統(tǒng)治療中。在心理學(xué)實(shí)踐中,AI心理醫(yī)生可以協(xié)助人類心理醫(yī)生自動化行政任務(wù),進(jìn)行新醫(yī)生培訓(xùn),作為教育工具傳播心理健康信息,并在例行檢查、輕度心理問題或生活困難疏導(dǎo)等方面發(fā)揮作用。人類心理醫(yī)生可以憑借同理心和情感聯(lián)結(jié)與患者動態(tài)互動,處理更復(fù)雜的問題。此外,Binariks公司認(rèn)為人工智能可以處理大數(shù)據(jù),根據(jù)家族遺傳、個(gè)人病史、生活方式、治療反應(yīng)等為患者制定個(gè)性化策略,還可與虛擬現(xiàn)實(shí)(VR)技術(shù)結(jié)合,提供身臨其境的創(chuàng)傷治療體驗(yàn),為心理治療領(lǐng)域帶來了更多可能性和創(chuàng)新。

image

圖片來源:Google DeepMind

風(fēng)險(xiǎn)與缺陷并存

美國市場數(shù)據(jù)分析公司CB Insights指出,2021年全球心理健康科技投資活動同比增長139%,而在其近期評選的2023年50家數(shù)字健康初創(chuàng)企業(yè)中有33家借助人工智能以增強(qiáng)其解決方案。隨著越來越多健康醫(yī)療企業(yè)入局人工智能領(lǐng)域,技術(shù)本身所攜帶的問題也引發(fā)更多憂慮,特別是在ChatGPT全面激發(fā)的AI熱潮后,人們在對科幻小說變?yōu)楝F(xiàn)實(shí)感到新鮮的同時(shí),數(shù)據(jù)隱私、偏見歧視等問題也隨之成為熱門議題。

以大型語言模型聊天機(jī)器人(如ChatGPT)為代表的生成式人工智能是指具有學(xué)習(xí)文本、圖像、視頻等數(shù)據(jù)模型能力、并生成類似新數(shù)據(jù)的人工智能。由于“輸入-學(xué)習(xí)-輸出”的技術(shù)特性,生成式人工智能需要海量信息作為訓(xùn)練數(shù)據(jù)。OpenAI公布的隱私政策中描述了ChatGPT的個(gè)人信息收集、使用和披露的情況,其中,收集的信息包括賬戶相關(guān)信息與設(shè)備數(shù)據(jù)、輸入內(nèi)容文本與使用數(shù)據(jù)、通信信息與日志數(shù)據(jù)、社交媒體賬戶互動信息等,目前用戶有權(quán)利刪除、更正個(gè)人信息。Google推出的對話式AI工具Bard同樣承諾會使用自動化工具刪除個(gè)人信息,設(shè)置防護(hù)墻阻止Bard回復(fù)包含用戶個(gè)人信息的內(nèi)容。

image

圖片來源:apa.org

但是對于人工智能的憂慮并未被隱私管理政策全然安撫。悉尼大學(xué)在一篇文章中將ChatGPT稱為“數(shù)據(jù)隱私的噩夢”。而波士頓咨詢集團(tuán)人工智能倫理首席執(zhí)行官Steve Mills認(rèn)為大多數(shù)公司對于這些工具的最大擔(dān)憂在于“無意中泄露的敏感信息”,有時(shí)用戶甚至開發(fā)人員都不會意識到隱藏的風(fēng)險(xiǎn)。他建議不要與聊天機(jī)器人分享任何不想與他人分享的東西。因此,在面對一些隱秘的心理問題時(shí),AI心理醫(yī)生與人類心理醫(yī)生一樣,它們是否值得信任似乎都需要被再三琢磨。

2023年10月,美國一家非營利的在線情感支持聊天平臺Koko在人們不知情的情況下利用ChatGPT-3為約4000人提供了咨詢服務(wù)。該平臺實(shí)驗(yàn)一經(jīng)披露便激起了強(qiáng)烈反對,被批評為不道德的、欺騙的。Koko創(chuàng)始人Robert Morris指出,包含ChatGPT-3參與的回答在評價(jià)上明顯優(yōu)于純粹由人類編寫的回答。然而,一旦人們意識到人工智能參與其中,評價(jià)的風(fēng)向就改變了。

image

圖片來源:economist.com

不過,Morris也提到,由于缺乏同理心,虛擬的人工智能并非完美或獨(dú)一無二的解決方案。不是所有的數(shù)字心理健康服務(wù)的回答都是由人類共同編寫的,一些AI心理醫(yī)生采用機(jī)械、照本宣科的回應(yīng)方式,難以治療較為嚴(yán)重的心理疾病。同時(shí)科學(xué)領(lǐng)域作家Elizabeth Svoboda認(rèn)為,AI心理醫(yī)生可能受到算法偏見和數(shù)據(jù)偏見的影響,因?yàn)樗鼈兪褂玫淖匀徽Z言處理算法建立在人類文本數(shù)據(jù)庫之上,這樣的訓(xùn)練可能導(dǎo)致不同種族、性別或社會群體在與聊天機(jī)器人溝通時(shí)獲得不同結(jié)果。由于存在“算法黑箱”,軟件的開發(fā)者甚至難以解釋人工智能模型的決策過程,從而無法推知偏見是否存在。

德克薩斯大學(xué)奧斯汀分校的心理學(xué)家Adela Timmons建議,公司在應(yīng)用程序開發(fā)及發(fā)布后的每個(gè)階段都應(yīng)進(jìn)行潛在數(shù)據(jù)偏見的例行評估,其中包括多樣化主題的臨床試驗(yàn)。圣塔克拉拉大學(xué)的心理學(xué)家和倫理學(xué)家Thomas Plante認(rèn)為,人工智能公司還需要向用戶更明確地說明治療機(jī)器人的能力和局限。聯(lián)合國人工智能咨詢機(jī)構(gòu)發(fā)布的《臨時(shí)報(bào)告:為人類治理人工智能》呼吁國際社會更加緊密地跟進(jìn)人工智能的開發(fā)和推廣,敦促AI開發(fā)者“將人類置于利潤之上”,倡導(dǎo)以人為本開發(fā)和使用生成式人工智能。

image

聯(lián)合國的人工智能咨詢機(jī)構(gòu)頁面(網(wǎng)站截圖)

同樣,心理學(xué)本身也在塑造著人工智能的未來。美國心理學(xué)會指出,科技領(lǐng)導(dǎo)者已經(jīng)將注意力轉(zhuǎn)向心理研究,以深入了解人類如何安全地與人工智能、社交媒體和游戲等創(chuàng)新技術(shù)互動,建立可持續(xù)的關(guān)系。臨床醫(yī)生、華盛頓大學(xué)醫(yī)學(xué)院的兼職教授David Luxton認(rèn)為,心理學(xué)領(lǐng)域在公眾對人工智能的信任方面發(fā)揮著相當(dāng)重要的作用。數(shù)字健康干預(yù)方法涵蓋各種方式,包含從改善睡眠的健康應(yīng)用程序到針對抑郁癥等病癥的全面臨床治療。心理學(xué)的介入將有利于改進(jìn)人工智能在倫理方面的問題,確??茖W(xué)真正促進(jìn)福祉的發(fā)展。

回顧上世紀(jì)60年代,ELIZA的發(fā)明者、計(jì)算機(jī)科學(xué)家、麻省理工學(xué)院教授Joseph Weizenbaum驚訝地發(fā)現(xiàn)許多用戶,包括他的學(xué)生與秘書在內(nèi),會花費(fèi)數(shù)小時(shí)沉浸在與ELIZA的循環(huán)對話中。這是因?yàn)槿藗儍A向于通過“擬人化”心理傾向,將人的特質(zhì)投射到無生命物體上,將聊天機(jī)器人視為有意識的個(gè)體。在某種程度上,人們尋求心理醫(yī)生幫助的本質(zhì)在于從交流中獲得更好的情感體驗(yàn),通過專業(yè)的治療感到被理解、被支持。在未來發(fā)展中,AI心理醫(yī)生有望滿足這一需求,成為良好的傾聽與建議對象。

題圖來源:apa.org
圖片來源于網(wǎng)絡(luò),版權(quán)歸原作者所有。

收藏
97.51W
要聞
股市
關(guān)聯(lián)話題
0 人關(guān)注