在本次公開演講結束後,主辦單位安排了一場延伸的技術座談,作為對演講內容的進一步討論與交流。與會者包含學術研究者、醫療臨床人員、醫院資訊與 AI 團隊,以及實際參與系統開發的工程人員,討論重心聚焦於大型語言模型與多模態系統在醫療場域中的實際應用問題。這場座談以開放問答的形式進行,圍繞著模型角色定位、系統設計邊界、資料與評估方式等議題,延伸出多項具體而實務導向的技術討論,成為本次演講之外,另一段重要的交流內容。

一、LLM 在醫療系統中的角色定位與責任邊界
在這場延伸對談中,最早被反覆提出的問題,圍繞在大型語言模型是否適合直接參與醫療決策,以及一旦系統產生錯誤時,責任應如何界定。這類提問來自不同角色的共同焦慮,無論是臨床端、資訊單位或系統開發者,都意識到醫療場域與一般應用最大的差異,在於錯誤本身即可能帶來實質風險,而非僅是體驗不佳。當語言模型具備高度擬真的表達能力時,更容易讓使用者誤以為其具備判斷與決策資格,這也使角色定位成為設計初期無法迴避的問題。
對此陳縕儂教授提出她的看法:「LLM 在醫療系統中應被視為輔助工具,而非決策主體」。模型可以協助整理資訊、補充背景知識,甚至引導使用者思考,但不應被賦予做出診斷或臨床判斷的責任。這樣的定位並非限制技術能力,而是回到系統設計的初衷,確保最終判斷仍掌握在人類專業者手中。
在實作層面,關鍵不在於模型「怎麼說」,而在於系統是否能清楚界定「什麼情況下可以回應、什麼情況下必須拒答或轉介人工」。這種界線若僅仰賴提示詞或語氣調整,往往難以在複雜情境中維持一致性。相較之下,透過架構層面的設計,例如在生成前加入風險判斷、將高風險問題導向固定流程,才能建立較為穩定的防線。對於醫療這類高風險場域,結構性的限制遠比事後修正輸出內容來得可靠,這不僅是技術選擇,更是責任意識的體現。
二、對話策略建模與「何時停止」的控制問題
在對談中,另一個反覆被提出的問題,是對話系統在醫療場域中容易出現的發散現象。多位與談者提到,當系統具備持續追問與回應能力時,對話往往會偏離原本的目的,甚至在不適當的情境下持續引導使用者補充資訊。這種行為在一般服務應用中或許僅影響體驗,但在醫療場景中,卻可能讓使用者誤以為系統正在進行某種形式的問診,進而模糊人機之間的責任界線。
陳縕儂教授建議在回應這類問題時,將焦點放在「策略」而非單一回應品質上。她指出,若僅要求模型產生語言回應,系統將缺乏對整體互動流程的掌握能力,因此容易陷入過度對話或無法適時收斂的狀態。相較之下,若能將專業人員在實務中採取的互動策略顯性化,並讓模型在回應前先進行策略層級的判斷,對話行為便能受到更有效的控制。
教授進一步說明,這類策略建模的重點,在於讓模型學會判斷當下的對話是否仍具備繼續的價值,以及是否已達到系統應停止回應、轉交人工處理的條件。透過在訓練過程中引入這類判斷機制,並在評估時將冗長或低效的對話視為需要被修正的行為,系統才能逐步學會「適時結束」。這樣的設計,並非降低模型能力,而是讓對話系統在複雜場域中維持可預期的行為邊界。
