人工智能將帶來(lái)精神保健領(lǐng)域的范式轉(zhuǎn)變。
近日,美國(guó)心理學(xué)會(huì)(American Psychological Association)發(fā)布了2024年12大心理學(xué)發(fā)展趨勢(shì),其中指出心理學(xué)家正在研究生成式人工智能(generative artificial intelligence)對(duì)其工作的影響,并將帶頭把社會(huì)科學(xué)洞見(jiàn)引入生成式人工智能工具的創(chuàng)建和部署之中。
一項(xiàng)由提供衛(wèi)生政策信息的非政府組織KFF和CNN聯(lián)合發(fā)布的調(diào)查顯示,90%的公眾認(rèn)為當(dāng)今美國(guó)存在心理健康危機(jī)。阻礙人們獲得心理健康服務(wù)的因素包括成本高、心理健康保險(xiǎn)未被健康保險(xiǎn)所覆蓋、心理治療師數(shù)量不足、看心理醫(yī)生的羞恥心態(tài)等。針對(duì)這些問(wèn)題,美國(guó)心理學(xué)會(huì)認(rèn)為盡管聊天機(jī)器人在生理結(jié)構(gòu)、生活經(jīng)驗(yàn)和言辭習(xí)慣上與人類治療師存在差異,但它們有填補(bǔ)心理健康服務(wù)空白的潛力。福布斯雜志也指出人工智能將引發(fā)精神保健領(lǐng)域的范式轉(zhuǎn)變,提供克服各種障礙的潛在手段。
多維度的心理治療潛力
目前,多款心理健康應(yīng)用程序的出現(xiàn)呼應(yīng)著人工智能在心理治療層面的潛力。Wysa是一款于2016年推出的基于人工智能的“情感智能”App。它是一只袖珍企鵝形狀的聊天機(jī)器人,同時(shí)也是經(jīng)過(guò)臨床驗(yàn)證的心理醫(yī)生,通過(guò)對(duì)話促進(jìn)用戶積極的自我表達(dá),幫助恢復(fù)心理彈性,主要應(yīng)用于抑郁、焦慮以及慢性疼痛等相關(guān)癥狀。根據(jù)2022年的同行評(píng)議*,Wysa在多種心理療法中的效果與治療聯(lián)盟*相當(dāng),甚至更為出色,例如面對(duì)面認(rèn)知行為療法、面對(duì)面團(tuán)體治療和在線認(rèn)知行為療法等。這表明AI心理醫(yī)生在一定程度上能夠與人類治療師相媲美。(*注:同行評(píng)議peer review是一種學(xué)術(shù)和科學(xué)研究領(lǐng)域的評(píng)估機(jī)制,由同行專業(yè)人士對(duì)研究的質(zhì)量、方法、結(jié)論等進(jìn)行評(píng)估以保證其科學(xué)性和可信度;治療聯(lián)盟therapeutic alliance是指心理健康專業(yè)人員與患者在心理治療任務(wù)與目標(biāo)上的合作,以及情感上的聯(lián)結(jié)。)
基于人工智能的心理健康A(chǔ)pp Wysa
圖片來(lái)源:wysa.com
與Wysa類似,Youper也是一款由人工智能驅(qū)動(dòng)的心理健康遠(yuǎn)程治療App,用戶可以隨時(shí)隨地使用手機(jī)調(diào)節(jié)情緒,其干預(yù)效果經(jīng)過(guò)了斯坦福大學(xué)研究的證實(shí)。同時(shí),這些心理健康應(yīng)用程序還在不斷更新升級(jí),以更好地應(yīng)對(duì)各種心理問(wèn)題。在新冠肺炎疫情期間,Woebot App推出了名為Perspectives的產(chǎn)品和專門處理悲傷和經(jīng)濟(jì)困難的主題,擴(kuò)大了免費(fèi)、及時(shí)和便利的心理健康服務(wù)的支持范圍。
事實(shí)上,自誕生起,人工智能聊天機(jī)器人便與心理學(xué)有著深厚淵源。上世紀(jì)60年代中期誕生的ELIZA被認(rèn)為是世界上第一批聊天機(jī)器人,并以“心理治療師”的身份而聞名。它的設(shè)計(jì)初衷是在“DOCTOR”的腳本下模仿治療師,通過(guò)提出開(kāi)放式問(wèn)題并給予簡(jiǎn)單回復(fù)來(lái)安撫患者。隨著人工智能技術(shù)的發(fā)展,技術(shù)與心理學(xué)的交叉繼續(xù)重塑著心理醫(yī)療保健的方式。英國(guó)新聞周報(bào)《經(jīng)濟(jì)學(xué)人》預(yù)測(cè)生成式人工智能將在2024年成為主流,醫(yī)療保健和金融服務(wù)等以數(shù)據(jù)為中心的公司將率先獲益。
與最早的AI心理治療師ELIZA的對(duì)話
圖片來(lái)源:wikipedia.org
目前,心理健康保健領(lǐng)域面臨著治療師資源不足的挑戰(zhàn)。根據(jù)世界衛(wèi)生組織2022年發(fā)布的《世界心理健康報(bào)告:改變所有人的心理健康》數(shù)據(jù)顯示,心理健康問(wèn)題在全球范圍內(nèi)普遍存在。每年,抑郁癥和焦慮癥造成的經(jīng)濟(jì)損失約為1萬(wàn)億美元。而全球約有一半人口生活在心理醫(yī)生嚴(yán)重不足的國(guó)家,一名醫(yī)生至少需要為20萬(wàn)人提供服務(wù)。
AI聊天機(jī)器人能夠一定程度上填補(bǔ)這一空缺,在心理健康服務(wù)的提供端與接收端都獲得支持。一方面,多款心理健康A(chǔ)pp在各年齡組的身心功能方面都取得了積極的臨床效果。Wysa因能夠減少老年人慢性病的疼痛與心理困擾獲得了美國(guó)食品藥品監(jiān)督管理局(FDA)的“突破性設(shè)備”認(rèn)定。該公司的首席心理學(xué)家Smriti Joshi表示:“Wysa并不是為了代替心理學(xué)家和人類的工作,而是一種獲得精神支持的新方式?!?/p>
另一方面,人們可能對(duì)AI心理治療師有著較高的接受度。獨(dú)立醫(yī)療服務(wù)提供商Tebra的一項(xiàng)調(diào)查顯示,有25%的患者表示他們更愿意與聊天機(jī)器人交流,而不是參加傳統(tǒng)的心理療法。此外,80%曾使用過(guò)ChatGPT尋求心理健康建議的人認(rèn)為它是常規(guī)治療的良好替代方案。這表明人們對(duì)于與AI心理醫(yī)生進(jìn)行交流的態(tài)度可能較為積極。
圖片來(lái)源:apaservices.org
TEAM-CBT心理療法*的創(chuàng)始人David Burns表示,與人類治療師相比,AI治療師每周7天、每天24小時(shí)的服務(wù)擴(kuò)大了心理治療的可及性。而軟件開(kāi)發(fā)公司Binariks認(rèn)為,AI治療師跨越了地理界限,使全球范圍內(nèi)的心理健康資源更具可用性,促進(jìn)了護(hù)理的公平化并為社會(huì)帶來(lái)更廣泛的公平。同時(shí),對(duì)于容易產(chǎn)生社交焦慮或?qū)葱睦磲t(yī)生有羞恥心態(tài)的人來(lái)說(shuō),線上交談可能沒(méi)有拿起電話或者面對(duì)面交流那樣令人抵觸。正如哈佛醫(yī)學(xué)院教授、馬薩諸塞州總醫(yī)院數(shù)字心理健康中心主任Sabine Wilhelm所言,人工智能進(jìn)入心理領(lǐng)域真正美妙的地方在于,不同偏好的人們可以得到不同程度的支持。(*注:TEAM-CBT是“Team Cognitive Behavioral Therapy”的縮寫(xiě),翻譯為“團(tuán)隊(duì)認(rèn)知行為療法”,結(jié)合了認(rèn)知療法和行為療法的原理并強(qiáng)調(diào)團(tuán)隊(duì)合作,致力于促進(jìn)個(gè)體更健康的情緒和生活體驗(yàn)。)
不僅如此,AI心理醫(yī)生既可以作為獨(dú)立工具使用,也可融入傳統(tǒng)治療中。在心理學(xué)實(shí)踐中,AI心理醫(yī)生可以協(xié)助人類心理醫(yī)生自動(dòng)化行政任務(wù),進(jìn)行新醫(yī)生培訓(xùn),作為教育工具傳播心理健康信息,并在例行檢查、輕度心理問(wèn)題或生活困難疏導(dǎo)等方面發(fā)揮作用。人類心理醫(yī)生可以憑借同理心和情感聯(lián)結(jié)與患者動(dòng)態(tài)互動(dòng),處理更復(fù)雜的問(wèn)題。此外,Binariks公司認(rèn)為人工智能可以處理大數(shù)據(jù),根據(jù)家族遺傳、個(gè)人病史、生活方式、治療反應(yīng)等為患者制定個(gè)性化策略,還可與虛擬現(xiàn)實(shí)(VR)技術(shù)結(jié)合,提供身臨其境的創(chuàng)傷治療體驗(yàn),為心理治療領(lǐng)域帶來(lái)了更多可能性和創(chuàng)新。
圖片來(lái)源:Google DeepMind
風(fēng)險(xiǎn)與缺陷并存
美國(guó)市場(chǎng)數(shù)據(jù)分析公司CB Insights指出,2021年全球心理健康科技投資活動(dòng)同比增長(zhǎng)139%,而在其近期評(píng)選的2023年50家數(shù)字健康初創(chuàng)企業(yè)中有33家借助人工智能以增強(qiáng)其解決方案。隨著越來(lái)越多健康醫(yī)療企業(yè)入局人工智能領(lǐng)域,技術(shù)本身所攜帶的問(wèn)題也引發(fā)更多憂慮,特別是在ChatGPT全面激發(fā)的AI熱潮后,人們?cè)趯?duì)科幻小說(shuō)變?yōu)楝F(xiàn)實(shí)感到新鮮的同時(shí),數(shù)據(jù)隱私、偏見(jiàn)歧視等問(wèn)題也隨之成為熱門議題。
以大型語(yǔ)言模型聊天機(jī)器人(如ChatGPT)為代表的生成式人工智能是指具有學(xué)習(xí)文本、圖像、視頻等數(shù)據(jù)模型能力、并生成類似新數(shù)據(jù)的人工智能。由于“輸入-學(xué)習(xí)-輸出”的技術(shù)特性,生成式人工智能需要海量信息作為訓(xùn)練數(shù)據(jù)。OpenAI公布的隱私政策中描述了ChatGPT的個(gè)人信息收集、使用和披露的情況,其中,收集的信息包括賬戶相關(guān)信息與設(shè)備數(shù)據(jù)、輸入內(nèi)容文本與使用數(shù)據(jù)、通信信息與日志數(shù)據(jù)、社交媒體賬戶互動(dòng)信息等,目前用戶有權(quán)利刪除、更正個(gè)人信息。Google推出的對(duì)話式AI工具Bard同樣承諾會(huì)使用自動(dòng)化工具刪除個(gè)人信息,設(shè)置防護(hù)墻阻止Bard回復(fù)包含用戶個(gè)人信息的內(nèi)容。
圖片來(lái)源:apa.org
但是對(duì)于人工智能的憂慮并未被隱私管理政策全然安撫。悉尼大學(xué)在一篇文章中將ChatGPT稱為“數(shù)據(jù)隱私的噩夢(mèng)”。而波士頓咨詢集團(tuán)人工智能倫理首席執(zhí)行官Steve Mills認(rèn)為大多數(shù)公司對(duì)于這些工具的最大擔(dān)憂在于“無(wú)意中泄露的敏感信息”,有時(shí)用戶甚至開(kāi)發(fā)人員都不會(huì)意識(shí)到隱藏的風(fēng)險(xiǎn)。他建議不要與聊天機(jī)器人分享任何不想與他人分享的東西。因此,在面對(duì)一些隱秘的心理問(wèn)題時(shí),AI心理醫(yī)生與人類心理醫(yī)生一樣,它們是否值得信任似乎都需要被再三琢磨。
2023年10月,美國(guó)一家非營(yíng)利的在線情感支持聊天平臺(tái)Koko在人們不知情的情況下利用ChatGPT-3為約4000人提供了咨詢服務(wù)。該平臺(tái)實(shí)驗(yàn)一經(jīng)披露便激起了強(qiáng)烈反對(duì),被批評(píng)為不道德的、欺騙的。Koko創(chuàng)始人Robert Morris指出,包含ChatGPT-3參與的回答在評(píng)價(jià)上明顯優(yōu)于純粹由人類編寫(xiě)的回答。然而,一旦人們意識(shí)到人工智能參與其中,評(píng)價(jià)的風(fēng)向就改變了。
圖片來(lái)源:economist.com
不過(guò),Morris也提到,由于缺乏同理心,虛擬的人工智能并非完美或獨(dú)一無(wú)二的解決方案。不是所有的數(shù)字心理健康服務(wù)的回答都是由人類共同編寫(xiě)的,一些AI心理醫(yī)生采用機(jī)械、照本宣科的回應(yīng)方式,難以治療較為嚴(yán)重的心理疾病。同時(shí)科學(xué)領(lǐng)域作家Elizabeth Svoboda認(rèn)為,AI心理醫(yī)生可能受到算法偏見(jiàn)和數(shù)據(jù)偏見(jiàn)的影響,因?yàn)樗鼈兪褂玫淖匀徽Z(yǔ)言處理算法建立在人類文本數(shù)據(jù)庫(kù)之上,這樣的訓(xùn)練可能導(dǎo)致不同種族、性別或社會(huì)群體在與聊天機(jī)器人溝通時(shí)獲得不同結(jié)果。由于存在“算法黑箱”,軟件的開(kāi)發(fā)者甚至難以解釋人工智能模型的決策過(guò)程,從而無(wú)法推知偏見(jiàn)是否存在。
德克薩斯大學(xué)奧斯汀分校的心理學(xué)家Adela Timmons建議,公司在應(yīng)用程序開(kāi)發(fā)及發(fā)布后的每個(gè)階段都應(yīng)進(jìn)行潛在數(shù)據(jù)偏見(jiàn)的例行評(píng)估,其中包括多樣化主題的臨床試驗(yàn)。圣塔克拉拉大學(xué)的心理學(xué)家和倫理學(xué)家Thomas Plante認(rèn)為,人工智能公司還需要向用戶更明確地說(shuō)明治療機(jī)器人的能力和局限。聯(lián)合國(guó)人工智能咨詢機(jī)構(gòu)發(fā)布的《臨時(shí)報(bào)告:為人類治理人工智能》呼吁國(guó)際社會(huì)更加緊密地跟進(jìn)人工智能的開(kāi)發(fā)和推廣,敦促AI開(kāi)發(fā)者“將人類置于利潤(rùn)之上”,倡導(dǎo)以人為本開(kāi)發(fā)和使用生成式人工智能。
聯(lián)合國(guó)的人工智能咨詢機(jī)構(gòu)頁(yè)面(網(wǎng)站截圖)
同樣,心理學(xué)本身也在塑造著人工智能的未來(lái)。美國(guó)心理學(xué)會(huì)指出,科技領(lǐng)導(dǎo)者已經(jīng)將注意力轉(zhuǎn)向心理研究,以深入了解人類如何安全地與人工智能、社交媒體和游戲等創(chuàng)新技術(shù)互動(dòng),建立可持續(xù)的關(guān)系。臨床醫(yī)生、華盛頓大學(xué)醫(yī)學(xué)院的兼職教授David Luxton認(rèn)為,心理學(xué)領(lǐng)域在公眾對(duì)人工智能的信任方面發(fā)揮著相當(dāng)重要的作用。數(shù)字健康干預(yù)方法涵蓋各種方式,包含從改善睡眠的健康應(yīng)用程序到針對(duì)抑郁癥等病癥的全面臨床治療。心理學(xué)的介入將有利于改進(jìn)人工智能在倫理方面的問(wèn)題,確保科學(xué)真正促進(jìn)福祉的發(fā)展。
回顧上世紀(jì)60年代,ELIZA的發(fā)明者、計(jì)算機(jī)科學(xué)家、麻省理工學(xué)院教授Joseph Weizenbaum驚訝地發(fā)現(xiàn)許多用戶,包括他的學(xué)生與秘書(shū)在內(nèi),會(huì)花費(fèi)數(shù)小時(shí)沉浸在與ELIZA的循環(huán)對(duì)話中。這是因?yàn)槿藗儍A向于通過(guò)“擬人化”心理傾向,將人的特質(zhì)投射到無(wú)生命物體上,將聊天機(jī)器人視為有意識(shí)的個(gè)體。在某種程度上,人們尋求心理醫(yī)生幫助的本質(zhì)在于從交流中獲得更好的情感體驗(yàn),通過(guò)專業(yè)的治療感到被理解、被支持。在未來(lái)發(fā)展中,AI心理醫(yī)生有望滿足這一需求,成為良好的傾聽(tīng)與建議對(duì)象。