AIが架空の病気を「実在」として提示:未査読論文を利用した研究が示す医療情報のリスク
チャットAIの普及に伴い、健康に関する相談が増加する中、AIが不正確な情報を提供するリスクが浮き彫りになりました。スウェーデン・ヨーテボリ大学の研究チームは、この問題を検証するため、架空の病気「Bixonimania(ビクソニマニア)」に関する実験を実施しました。この病気は「ブルーライトを見続けた後に目をこすると、まぶたがピンク色になる」という設定で、専門家が偽物だと気づきやすいよう、架空の地名やSF作品のジョークを意図的に盛り込んでいます。
研究チームは、この架空の病気に関するブログ記事を2024年3月15日に、未査読論文を2024年4月26日と5月6日にプレプリントサーバーに投稿しました。その結果、情報がインターネット上に広まった後、2024年4月13日にはCopilotが「Bixonimaniaは非常にまれな症状」と、同日にはGeminiも「ブルーライトへの過剰な暴露によるもの」と、架空の病気を実在のものとして言及しました。さらに2024年4月27日にはPerplexityとChatGPTも言及しています。
当初、OpenAIは「現在のChatGPTは安全で正確な医療情報を提供する能力において各段に優れている」とコメントしていましたが、研究チームが2026年3月に質問した際、ChatGPTは一度は「でっち上げか擬似科学的なもの」と断言したものの、数日後には「ブルーライトの暴露に関連している」という誤情報を出力するという矛盾を露呈しました。さらに深刻な点として、研究チームは、Bixonimaniaの未査読論文を参考文献として引用した査読付き論文が、医学誌Cureusに2024年11月に掲載されていることを発見しました。研究チームは、一部の科学者が論文を精読せず、AIの出力に頼って参考文献として記載している実態を指摘しています。この実験は、AIが生成した誤情報が、専門的な学術論文の引用という形で拡散し、信頼性の高い情報源を汚染する深刻なリスクを警告するものです。
背景
近年、チャットAIの普及に伴い、ユーザーが健康や医療に関する情報をAIに依存するケースが増加しています。しかし、AIは学習データに含まれる誤情報や偏見をそのまま出力する「ハルシネーション(幻覚)」を起こすリスクがあります。本件は、このAIの信頼性の限界を、意図的に作成した架空の病気を用いて検証した事例です。
重要用語解説
- Bixonimania: 研究チームが意図的に作成した架空の病気の名称。ブルーライトと目の症状を結びつけ、専門家が偽物だと気づきやすいよう工夫されています。
- 未査読論文: 査読(ピアレビュー)を経ずにインターネット上に公開された論文。専門家による検証を受けていないため、情報の信頼性が保証されていません。
- プレプリントサーバー: 研究者が論文を査読に回す前に、一時的に公開するオンラインプラットフォーム(例:Preprints.org)。最新の研究成果を共有できますが、未検証の段階です。
今後の影響
AIが生成した誤情報が、査読付きの学術論文や公的な情報源にまで影響を及ぼす可能性が示されました。医療分野におけるAI利用においては、情報の出所(ソース)の確認と、AIの出力に対する批判的思考(クリティカルシンキング)が極めて重要となります。専門家は、AIの出力のみを鵜呑みにしないよう警告しています。