1月18日,世界衛生組織(WHO)發布了關于多模態大模型倫理標準和治理指南一文,指出人工智能(AI)在整個醫療衛生領域應用前景廣闊,但同時也要防范其中可能出現的諸如“自動化偏見”導致的過度依賴等風險。
上述指南概述了40多項建議,供各國政府、技術公司和醫療服務提供者予以參考,以確保適當使用人工智能技術,促進和保護人口健康。
作為一項快速發展的生成式人工智能技術,多模態大模型是指能夠處理圖像、文本、聲音等多種類型數據的深度學習模型,廣泛應用于醫療衛生領域。其普及速度比歷史上任何消費應用都要快,如ChatGPT、Bard等多個平臺于2023年在人群中快速流行。
世衛組織首席科學家Jeremy Farrar博士指出,生成式人工智能技術具有改善衛生保健的潛力,但前提是這些技術的開發、管理和使用人員能夠識別并充分考慮到相關風險,并對其進行監管并制定相關規范。
Farrar表示,我們需要透明的信息和政策來管理多模態大模型的設計、開發和使用,以實現更好的醫療成果,并克服持續存在的不公平現象。
風險和建議
世衛組織在最新的指南中概述了多模態大模型在醫療衛生領域的五種廣泛應用:
診斷和臨床護理,例如回復患者的書面詢問;
患者指導使用,例如用于調查癥狀和治療;
文書和行政工作例如在電子健康記錄中記錄和匯總患者就診情況;
醫療和護理教育,包括為受訓人員提供模擬病人接觸的機會;
科學研究和藥物開發,包括識別新的化合物。
世衛組織也提到了多模態大模型使用時可能的風險,如產生虛假、不準確、有偏見或不完整陳述的信息,這可能會損害使用此類信息做出健康決定的人。
此外,多模態大模型可能在質量較差或有偏見的數據上進行訓練,無論是種族、民族、血統、性別、性別認同還是年齡等方面。
該指南還詳細說明了衛生系統面臨的更廣泛風險,例如表現最佳的多模態大模型的可及性和可負擔性;多模態大模型可能助長“自動化偏見”,使醫療專業人員和患者過于依賴人工智能,忽略原本可以由人發現的差錯,或把困難的選擇不恰當地交給多模態大模型;多模態大模型與其他形式的人工智能一樣,也容易受到網絡安全風險的影響,從而危及患者信息安全、有損算法的可信度等。
基于上述風險,世衛組織認為各國政府負有制定多模態大模型使用規范的主要責任,以便將其整合和用于公共衛生和醫療目的。
世衛組織建議稱,政府應該投資或提供非營利的公共基礎設施,包括算力和公共數據集,供公共、私人和非營利部門的開發人員訪問,這要求用戶遵守道德原則和價值觀,以換取訪問權限。在大規模部署大模型時,應該由獨立第三方實施強制性的審計和影響評估,包括數據保護和人權方面的評估。
注:文章來源于大健康派,如有侵權,請聯系刪除