【資策會科法所專欄】生成式AI應用於心理健康之風險、監管與專業指引:美國食品藥物管理局(FDA)及美國心理學會(APA)之觀察與建議

【資策會科法所專欄】生成式AI應用於心理健康之風險、監管與專業指引:美國食品藥物管理局(FDA)及美國心理學會(APA)之觀察與建議
2025/11/21

文/焦汝安 資策會科技法律研究所法律研究員

美國刻正面臨嚴重心理健康危機,近5,780萬人患有可診斷之精神疾病,2019–2023 年間心理健康診斷率更上升39.8%,但仍有大量民眾無法獲得適切治療。隨著AI應用於心理健康產品日益普及,為彌補照護缺口,市面上已出現數以萬計的數位心理健康技術(digital mental health technology)與心理健康App,部分可與穿戴式裝置整合,用於追蹤使用者行為及健康數據(如身體活動、睡眠模式),近年來亦開始導入大型語言模型(Large Language Models, LLM)與生成式AI

然而,多數產品僅屬一般健康/情緒管理工具,並非美國食品及藥物管理局(U.S. Food and Drug Administration, FDA)監管之醫療器材,消費者往往難以分辨其「治療/診斷」與「健康促進」之差異,近期美國發生未成年人因「AI陪伴式聊天機器人」互動而可能受到傷害之案例,生成式AI大型語言模型(LLM亦為數位醫療與監管領域帶來未知風險與高度複雜性。

美國數位心理健康技術產品監管趨勢情形

FDA所屬的數位健康諮詢委員會(Digital Health Advisory Committee, DHAC)前於 20241120–21日,針對AI醫材之監議題召開「生成式AI啟用醫療器材的全產品生命週期(Total Product Life Cycle, TPLC)考量」會議;本次則於今年116日再次召開「生成式AI支援之數位心理健康醫療器材」會議[1],針對生成式AI技術支援之心理健康醫療器材在TPLC各階段的安全性、有效性與風險管理要求進行深入討論。

FDA目前所監管之數位心理健康技術醫材僅兩種類別:數位治療(digital therapeutics)、數位診斷(digital diagnostics),以上兩種類別均需要醫療專業人員開立處方,且產品宣稱符合「診斷、治療、減輕或預防疾病」之用途,則屬於FDA監管範圍。目前真正屬於具治療與診斷功能之心理健康醫療器材產品極少,且獲FDA授權許可之產品不到20件,且皆非生成式AI裝置。 

FDA擬建立生成式AI應用於心理健康醫材之監管架構

在前次DHAC「生成式AI啟用醫療器材的TPLC考量」會議中,委員提出FDA應針對AI醫材從上市前到上市後各階段進行全面管理,包括上市前應注意完整器材描述、嚴謹效能評估與風險管理;上市後需進行效能監測、追蹤不良事件,以及強化基礎模型評估與資料共享機制。 

本次會議中除了針對數位心理健康科技進行概述及定義,擬將「生成式AI心理健康軟體」納入醫療器材監管,FDA亦提出未來的監管重點及風險管理等核心議題。依201(h)法規,只要軟體宣稱用於診斷或治療精神疾病,即屬於醫療器材,且因生成式AI風險較高,其醫材分類與上市途徑可能會以De NovoPMA進行,關鍵原則為透明(transparency)、可監督(oversight)、持續監測(monitoring)、風險導向(risk-based)、清楚的臨床證據(clinical evidence)與產品生命週期管理(TPLC)。上市後尤其需要持續監測資料漂移(data drift)、偵測幻覺或危險輸出、收集錯誤案例與臨床矯正情況、自動化品質檢查以及監測多點部署一致性等項目,同時FDA提出可透過預先變更控制計畫(Predetermined Change Control Plan, PCCP),允許透明且受控的模型更新。 

另外,會議中亦提及,專為兒童/青少年設計之生成式AI數位心理健康醫療器材,需特別考量其在與兒少互動時可能產生的特殊風險,且上市前的證據要求與上市後的追蹤監測皆需提高;並應為兒少族群制定專屬的可用性測試與安全防護強度,同時加強使用者教育、家長或專業監督等相關要求。 

隨著AI應用於心理健康產品日益普及,生成式AI數位心理健康醫療器材,需特別考量其在與兒少互動時可能產生的特殊風險。(圖片來源/freepik)隨著AI應用於心理健康產品日益普及,生成式AI數位心理健康醫療器材,需特別考量其在與兒少互動時可能產生的特殊風險。(圖片來源/freepik)

美國心理學會提出針對AI應用心理健康之建議

美國心理學會(American Psychological Association, APA)亦於今年1113日發表《生成式AI聊天機器人與健康應用程式在心理健康使用之建議》[2],針對全球越來越多使用者透過AI聊天機器人與健康App,以彌補心理健康照護不足,而這些工具並未受到FDA管理,大多沒有臨床設計、科學驗證亦缺乏安全監督,尤以生成式AI被民眾大量使用作為心理治療(如尋求情緒支持、情感建議、人際關係諮詢及對話陪伴等),實際上亦出現危險互動案例(如青少年自殺可能與AI聊天有關[3]),APA透過本報告提出應多方行動之核心建議。 

除了呼籲生成式AI應用於心理健康領域應有專業、倫理及監管要求外,並提出以下幾點重要建議:

  1. 不要依賴生成式AI或健康App作為心理治療:研究顯示生成式AI可以作為輔助,無法取代專業治療。
  2. 需預防與AI建立不健康的依附:需留意是否出現過度依賴徵兆,且調查顯示33%青少年會選擇與AI討論嚴肅問題,家長應特別注意孩子對AI的「唯一傾訴現象」。
  3. 優先保護隱私:使用者需檢查隱私設定,避免提供可識別資訊。
  4. 防止誤導與偏誤:AI幻覺,或種族、性別、文化之偏誤。
  5. 保護兒童、青少年與弱勢族群。
  6. 建立AI與數位通識教育:如應教育使用者AI如何運作、資訊收集、偏誤等可能造成錯誤,以及如何選擇安全產品。
  7. 優先進行高品質科學研究:如增加臨床試驗、建立獨立評估框架及強化多族群、弱勢群體研究。
  8. 呼籲政府不要讓AI取代心理健康系統改革:建議AI可以協助臨床、降低行政負擔與改善流程,而非取代臨床。 

結語  

FDA所召開之數位諮詢委員會議重點摘述中,目前獲得FDA許可之AI數位心理健康技術醫材極少,且非生成式AI產品,然而市面上一般之生成式AI或數位健康App雖未宣稱具有治療與診斷之效果,卻因使用者普及被應用於心理健康範疇,可能造成使用者風險,其中尤以兒童、青少年及弱勢族群風險更高,由美國目前各州紛紛提出修法與FDA擬採取之監管行動,可預測生成式AI應用於心理健康將面對臨床和倫理方面的考量,以及逐漸升高之監管和法律壓力。

 


[1] FDA, November 6, 2025: Digital Health Advisory Committee Meeting Announcement (Nov. 6, 2025) https://www.fda.gov/advisory-committees/advisory-committee-calendar/november-6-2025-digital-health-advisory-committee-meeting-announcement-11062025 (last visited Nov. 13, 2025)

[2] APA, Use of generative AI chatbots and wellness applications for mental health (Nov. 13, 2025) https://www.apa.org/topics/artificial-intelligence-machine-learning/health-advisory-chatbots-wellness-apps (last visited Nov. 13, 2025)

[3] 詳見前文:美國伊利諾州(Illinois)20258月初通過《心理資源健康與監督法》(WOPRA),禁止非專業證照人士或AI提供心理健康之治療或服務 (https://www.ankecare.com/article/3934-2025-10-05-15-36-33

喜歡這篇文章嗎?加入會員即可收藏文章、產品及供應商