
[NOWnews今日新聞] 生成式人工智慧(AI)與聊天機器人在這一年來迅速崛起,許多人除了讓AI協助處理工作,還有不少人會讓AI「陪聊」,向AI傾訴心事。有外媒報導指出,台灣和中國的年輕人會讓AI聊天機器人陪聊,當成傾訴心事與解決煩惱的「科技心理師」,不過專家認為,將AI用於心理諮商有一定的隱憂。
AI陪聊成新趨勢 年輕人視其為「科技心理師」
根據衛報報導,一名30歲台灣女子李小姐在凌晨時分焦慮萬分,她最近被診斷出患有嚴重健康問題,想要找人傾訴,但她還沒告訴家人,而朋友們都還在睡覺。於是,她選擇找ChatGPT。
李小姐表示,「在這樣的夜晚,和AI談話容易多了。」
另一名來自中國廣東、25歲的楊小姐,從今年初開始與AI聊天機器人互動後,就從未看過精神科醫師。她表示,獲得心理健康服務非常困難,而且她無法想像向家人或朋友傾訴,「要對真人說實話,幾乎是不可能的。」不過楊小姐可以與AI聊天機器人日以繼夜交談,甚至讓他懷疑自己的問題是否有嚴重到需要專業協助。
專家憂心:AI取代心理諮商師成新常態
報導指出,李小姐和楊小姐是越來越多選擇AI聊天機器人、取代人類心理諮商師的華語使用者之一。不過專家認為,AI在心理健康領域具有巨大潛力,但也對那些情緒困擾者求助AI而非人類專業協助的情況感到擔憂。
雖然缺乏官方統計數據,但台灣與中國的心理健康專業人士指出,已有越來越多個案是在看專業人士之前,改為先和AI「諮詢」,甚至是完全取代看診。《哈佛商業評論》近期發布的一份全球分析在內的多項調查顯示,「心理協助」已成為成人使用AI聊天機器人的主要原因之一。在社群媒體上,讚揚AI在情緒支持方面的幫助的貼文更超過數十萬篇。
「壓抑情緒」文化下 AI幫助提供匿名出口
這樣的現象出現在台灣與中國心理疾病比例攀升的背景下,尤其在年輕族群中更為明顯。但心理諮商等相關服務並沒有跟上病患增加的速度:很難預約到看診名額,而且費用昂貴。使用聊天機器人的人表示,AI省時省錢,回答也直白,且在在一個對心理健康仍然存在偏見的社會中,更具隱私性。
台灣「初色心理治療所」副所長蘇益賢指出,「在某些層面上,聊天機器人真的有幫助,它很容易上手,尤其是華裔族群傾向於壓抑或淡化自身感受的狀況下。」
蘇益賢表示,「我和Z世代學生交談過,他們顯得更願意討論問題和困難……但還有很多努力空間。」
在台灣,最受歡迎的聊天機器人是 ChatGPT;而在中國,則有百度的「文心一言」(Ernie Bot)或近期推出的「DeepSeek」等。這些工具的發展迅速,並因應需求逐漸納入心理健康與輔導元素。

AI回應制式 危機處理能力有限
使用聊天機器人談論心理問題的用戶體驗各不相同。李小姐表示,ChatGPT會給出她想聽的回答,但這些內容有時太制式、缺乏深度。她也懷念在諮商過程中逐步自我探索的過程,「我覺得 AI 很容易直接給你答案,就是那種你可能要進行兩三次諮商才會得到的結論。」
現居倫敦、27歲的台灣人劉娜碧(Nabi Liu,音譯)則覺得這樣的互動很有價值。她表示,「有時候你對朋友傾訴,他們未必能真正理解你。但ChatGPT的回應總是認真且即時。我覺得它每次都是真的在對我說話。」
專家表示,這樣的工具可以幫助像李這樣還不到需要專業協助階段的人,或是那些需要一點鼓勵才能邁出下一步的人。
楊小姐坦言,「直到最近,我才開始意識到,也許真的需要到醫院接受正式的診斷。從『可以跟AI講話』到『可以跟真人講話』,聽起來簡單、很基本,但對以前的我來說,完全無法想像。」
這正是專家擔憂的地方。若非像楊女這樣有病識感的人,可能陷入困境而不自知,也無法獲得幫助。近年來出現數起案例,年輕人在情緒困擾下向聊天機器人求助,卻未獲得實質協助,最終選擇結束生命。
非語言訊號難捕捉 專業人員仍不可或缺
蘇益賢表示,「AI處理的大多是文字內容,但我們在臨床上還有所謂『非語言線索』。當一位個案進來時,他們的行為表現可能和說話內容不同,但我們能看出端倪。」
台灣諮商心理學會發言人則指出,AI 可以是「輔助工具」,但無法取代專業協助,「更遑論在危機時刻進行心理師的介入與治療。」
發言人表示,「AI確實有潛力成為推廣心理健康的重要資源。然而,臨床情境的複雜性與人際深度,仍需專業心理師的『親身在場』。」
AI非萬靈丹 治療仍存多重風險
台灣諮商心理學會也指出了其他缺點,AI可能過於樂觀、忽略警訊,甚至延誤必要的醫療處置。此外,它也不受心理學專業的審查機制與倫理規範所約束。「長期來看,除非AI發展出超越現階段想像的重大技術突破,否則心理治療的核心結構不該被動搖。」
蘇益賢說,他對AI能夠為心理健康產業帶來現代化與改善感到期待,尤其是在專業訓練、網路危機辨識等方面可能有所助益。但他也建議使用者應謹慎看待這項工具,「它是種模擬,是個好工具,但有其限制,而且你不知道答案是怎麼生成出來的。」