大規模言語モデル(LLM)への医療誤情報混入の脆弱性に関する最新研究を解説。わずか0.01%の誤情報追加で10%以上の誤った回答が生成される危険性や、不可視テキストを使用した攻撃手法、そして具体的な対策までを詳しく分析しています。
引用をストックしました
引用するにはまずログインしてください
引用をストックできませんでした。再度お試しください
限定公開記事のため引用できません。