
AIの健康アドバイスは「約半分が間違い」?専門家が警告する意外な落とし穴
近年、日常の疑問を解決する手段としてAIチャットボットが急速に普及していますが、その健康や医療に関するアドバイスに重大な懸念が浮上しました。最新の学術調査によると、主要なAIモデルが出力する回答の約50%に問題があることが判明しました。確信を持って語られるAIのアドバイスが、なぜこれほどまでに不正確なのか、その実態と私たちが抱えるべきリスクについて解説します。
AI医療アドバイスの信頼性に関する調査結果
半数が不正確な情報
『BMJ Open』に掲載された研究では、Gemini、DeepSeek、Meta AI、ChatGPT、Grokの5つの主要チャットボットを対象に、250件の健康に関する質問を行いました。その結果、回答の49.6%が「問題あり」と判定され、中には深刻な健康被害につながりかねない「非常に問題のある」回答も約20%含まれていました。
科学的根拠の欠如とハルシネーション
調査されたすべてのモデルにおいて、完全な引用元リストを作成できたものは一つもありませんでした。AIは実在しない論文や著者、雑誌名を捏造する「ハルシネーション(幻覚)」を起こし、あたかも確かな根拠があるかのように情報を提示します。
質問の難易度と回答の傾向
栄養学や運動パフォーマンスに関する質問で特に低い成績が出た一方、ワクチンやがんなど、ネット上に質の高い情報が構造化されている分野では相対的に精度が高い傾向が見られました。しかし、どのモデルも質問者に対して「分からない」と回答することを拒む傾向が強く、自信満々に誤情報を出力する姿勢が問題を深刻化させています。
生成AI時代の情報リテラシーから見る今後の展望
「確信に満ちた誤情報」という新たな脅威
今回の調査が強く示唆しているのは、AIの回答が「事実かどうか」ではなく「統計的に自然な文章かどうか」で生成されているという本質的な課題です。AIは医療知識を理解して判断しているわけではなく、ネット上の膨大なデータをパターンマッチングしているに過ぎません。この仕組み上、インターネット上で広まりやすい誤った健康情報や偏った意見を、権威あるトーンで模倣して出力してしまうのは避けられない仕様と言えます。
医療現場とAIの共存の難しさ
今後、AIが医療アドバイスの補助として機能するためには、単なる精度の向上だけでなく、責任の所在を明確にする規制や、ユーザー側への教育が不可欠です。AIが医療専門家ではないことを自覚し、現時点では「検索エンジン」としてさえも、特に健康領域においてはその回答を鵜呑みにせず、必ず専門医や信頼できる医学的ソースで裏付けを取るというリテラシーが、私たちの身を守る唯一の手段となるでしょう。