Hallucination
ハルシネーション
はるしねえしょん
Definition
A hallucination is a phenomenon where a model generates plausible-sounding content that is factually incorrect. Understanding it helps you design mitigations like retrieval, citations, and refusals.
AIに質問したら、もっともらしい回答が返ってきたのに内容が完全に間違っていた——この経験がある人は少なくないはずです。ハルシネーション(幻覚)とは、LLMが事実に基づかない情報を、あたかも正しいかのように生成してしまう現象です。存在しない論文の引用、架空の統計データ、実在しない法律の条文など、その形態はさまざまです。
なぜAIは「嘘」をつくのか
ハルシネーションが起きる根本的な理由は、LLMの動作原理にあります。LLMは「与えられた文脈に対して、次に来る可能性が最も高いトークン(単語の断片)を予測する」仕組みで動いています。つまり、事実を検索して回答しているのではなく、学習データのパターンから「それらしい文章」を生成しているのです。このため、学習データに含まれない情報や、学習後に変化した情報については、もっともらしいが誤った内容を生成してしまいます。
3つのパターン
ハルシネーションにはいくつかのパターンがあります。事実と異なる情報を断言する「事実性ハルシネーション」、ユーザーの質問の前提を否定せず誤った前提に沿って回答する「忠実性ハルシネーション」、そして情報源を求められた際に実在しない文献を作り上げる「引用ハルシネーション」が代表的です。
どう防ぐか
対策として現在もっとも効果的なのがRAG(検索拡張生成)です。LLM単体で回答させるのではなく、まず外部のデータベースから根拠となる情報を検索し、その情報を参照しながら回答を生成させることで、事実に基づいた回答の割合を大幅に高められます。
モデル側の改善も進んでいます。最新のLLMは「わからないことはわからないと答える」能力が向上しており、回答の確信度を示す機能や、出典を明示する機能が搭載されるようになっています。OpenAIのGPT-5やGoogleのGemini 2.5では、ハルシネーション率が以前のバージョンと比較して大幅に低下したと報告されています。
AIを使う上での心構え
それでもハルシネーションを完全にゼロにすることは現時点では困難です。AIを業務で活用する際は、「AIの出力は下書きであり、事実確認は人間が行う」というワークフローを前提にすることが重要です。特に法律、医療、財務など正確性が求められる分野では、AIの回答を必ず一次情報と照合する習慣をつけることが推奨されます。