WHOは「人間のウエルビーイング、人間の安全、自律性を保護 ・ 促進し、公衆衛生を守るため」に、人工知能 (AI : artificial intelligence) が生成した大規模言語モデルツール (LLM : large language model) を使用する際には注意を払うよう呼びかけています。
LLMには、ChatGPT、Bard、Bertなど、人間のコミュニケーションの理解、処理、生成を模倣する、最も急速に拡大しているプラットフォームがあり、LLMの急速な普及と健康関連の実験的利用の増加は、人々の健康ニーズをサポートする可能性について大きな興奮を呼んでいます。
しかし、通常新しいテクノロジーに対して行使されるはずの警戒が、LLMでは一貫して行使されていないことが懸念されており、未検証のシステムの普及は、医療従事者の過誤を招き、患者に害を及ぼし、AIに対する信頼を損ない、その結果、世界中でそのような技術がもたらす潜在的な長期的利益と利用を損なう (あるいは遅らせる) 可能性があります。
そのため、技術が安全で効果的かつ倫理的な方法で使用されるために必要な厳格な監視が必要で、WHOは、政策立案者が患者の安全と保護を担保した上で、テクノロジー企業がLLMの商業化に取り組むことを推奨し、健康のためのAIを設計、開発、導入する際に、「健康のためのAIの倫理とガバナンスに関するWHOガイダンス」に従った、倫理原則と適切なガバナンスを適用することを推奨、再確認しています。