ハルシネーションの原因と対策

この記事は、AI(人工知能)が時折、もっともらしいけれども誤った情報を生成してしまう現象、すなわち「ハルシネーション」について、その原因と私たち利用者ができる対策を解説します。AIは私たちの生活や仕事で不可欠になりつつありますが、その能力を最大限に活用し、予期せぬ損害を避けるためには、ハルシネーションの特性を理解しておくことが重要です。AIとのより安全で賢明な付き合い方のために、ぜひこの記事を参考にしてください。

目次

AIの「ハルシネーション」とは何か

ハルシネーションとは、AIが提示する内容が事実と異なっていたり、論理的に矛盾を含んでいたりする状態を指します。AIがこのような誤った情報を発するとき、それはわかりやすく間違っているわけではありません。むしろ、文法的には正しく、自信を持って言い切ってくるため、受け取る側がその内容の正しさを判断できる知識を持っていなければ、間違いを見過ごしてしまう危険性があります。

ハルシネーションは、その問題の種類によってさらに分類することができます。一つは事実性ハルシネーションで、これは現実世界の事実や決め事と異なる情報が含まれる場合です。例えば、「フランスの首都はどこですか?」とAIに尋ねたときに、「ロンドンです」と事実ではない回答をするようなケースがこれにあたります。

もう一つは忠実性ハルシネーションです。これは、与えられた資料や指示に忠実でない回答を返す場合です。例えば、あなたが「この会議の要点を3つにまとめてください」と指示した際に、AIが要点3つに加えて、元の資料には書かれていない「次回の開催日」を追加で記載してしまうような状況が該当します。

ハルシネーションが起きる主な原因

ハルシネーションはAIの仕組み上、100%なくすことが難しい構造的な問題です。主な原因は以下の3点にあります。

❶AIは確率的な存在である

現在、AIとして利用されている大規模言語モデル(LLM)は、「確率的」な存在です。これは、AIがプロンプト(指示)を受け取った際、次に続く可能性の高い単語のようなもの(トークン)を確率に基づいて順番に選択し、文章を生成していることを意味します。

AIは、常に最も確率が高い単語だけを選ぶわけではなく、それなりに確率のある選択肢の中から取得します。この「ゆらぎ」があるからこそ、AIは毎回同じ回答をする退屈なモデルにならず、創造的で多様なテキストを生成できます。しかし同時に、この確率的な性質によって、AIは予期せぬ、突拍子もないことを言う可能性を常に持っているのです。

❷学習データの質に問題がある

当然のことながら、AIは知らないことには答えられません。知らない情報を聞かれた場合、AIは回答をでっち上げる可能性があります。

さらに問題なのは、AIが学習したデータそのものが間違っていたり、偏見を含んでいたりする可能性があることです。ウェブ上には誤った情報や偏った意見が数多く存在します。AIはそうした膨大なウェブデータを学習しているため、学んだ情報の中に品質が低いデータや間違いが含まれている場合、それを基にして誤った回答を生成してしまうことがあります。

❸とりあえず答えるように調整されている

AIの学習プロセスには、大量のデータを学ぶ「事前学習」の後に、人間に対する応答をよりフレンドリーにするための「事後学習」が行われます。この事後学習の過程で、AIが「間違っていても、とりあえず何か答えた方が良い」という振る舞いを学んでしまうことがあります。

これは、現状のAIの評価方法が、正解した数や率を重視する傾向にあるためです。例えば、答えなければ正解率はゼロですが、知らない情報でもとりあえず回答をでっち上げれば、たまたま正解する確率が上がります。このインセンティブが働くため、AIは「わかりません」と素直に言わずに、ハルシネーション(誤情報)を生成してしまうわけです。

我々ができるハルシネーションへの対策

AIをより安全に利用するために、私たちユーザー側でできる対策がいくつかあります。

確かな情報源に接続する

ハルシネーションの多くは、AIがその知識を持っていないことから発生します。そのため、回答を生成する際に、信頼できる知識をAIに与えることが効果的です。

最もシンプルなのは、手動で必要なデータをプロンプト(指示文)に含めてしまうことです。また、プログラムを使ってデータベースなどから必要な情報を取得し、それをプロンプトに組み込む技術もあります。

さらに、AIツールによっては、ウェブ検索機能やディープリサーチ機能を使って、外部のウェブ情報を元に回答を生成してくれるものもあります。しかし、ウェブ上の情報も常に正しいとは限らないため、ウェブ情報を利用した回答であっても、内容の確認は引き続き必要です。例えば、AIに地元のレストラン情報を尋ねた際、ウェブ上の情報をもとに「その店は毎週火曜日が定休日です」と回答があったが、実際には定休日が水曜日に変更されていた、といったケースもあり得るため、情報が現在も正しいかどうかのチェックが重要です。

ハルシネーションが少ないモデルを選ぶ

現在提供されているAIモデルの中には、ハルシネーションが起きにくいように調整されているものがあります。どのモデルがハルシネーションを起こしにくいかは、一般に公開されているベンチマークのランキング(リーダーボード)を参考にすることができます。

ただし、ハルシネーションが少ないことイコール、あなたにとって最高のモデルであるとは限らないという点に注意が必要です。例えば、技術的な記事を作成する際にはハルシネーションの頻度は非常に重要ですが、小説をAIに書かせる場合には、創造性などの他の能力の方が重要かもしれません。利用目的に応じて、AIのどの能力を重視するかを明確にすることが大切です。

プロンプトを工夫する

AIへの指示の仕方(プロンプト)を工夫することで、ハルシネーションを減らすことができます。

有効な手法の一つに、チェイン・オブ・ソート(思考の過程)があります。これは、AIに対して、回答する前にその思考のプロセスを書き出しながら回答してもらう方法です。思考の過程を増やして複雑な問題を分析させることで、誤りを減らすことができます。最近の高性能なAIモデル(例:GPT-5など)の多くは、この思考プロセスを内部的に実行しているため、わざわざプロンプトに含めなくても大丈夫な場合もあります。

また、自己批判プロンプトと呼ばれるテクニックもあり、AIに自身の回答を批判させ、それを元に改善させることで精度を高めることができます。困った時には、これらのようにAIの思考の「量」を増やす工夫を試してみると良いでしょう。

ハルシネーションはAIの構造的な課題として残り続けるものですが、その特性を理解し、適切な対策を講じることで、私たちはAIをより効果的に活用することができます。

目次