あらゆる企業に求められるDX推進に必要な技術「AI」。しかしAIが発達するにつれて、AIのメリットだけでなくデメリットも明らかになりつつあります。そのなかでも大きなデメリットとされるのが「ハルシネーション」です。ハルシネーションとは生成AIが事実と異なる回答を生成する現象で、誤った回答により、さまざまなリスクをもたらします。
ここでは、ハルシネーションの概要とその原因や対策、ハルシネーションについて理解したうえで生成AIを活用するために必要なポイントなどを紹介します。
DX推進における生成AIの役割とは
生成AIを導入することで、DX推進にもつながる次のようなメリットが生まれます。
- 効率化、コスト削減、生産性向上を実現する
作業の自動化に、専門的な知識や経験をもとにした判断を加えることができます。 - 作業を高度化する
専門的な知識が必要な作業でも、ある程度自動化が可能になります。 - 新しいアイデアやビジネスモデルを生み出す
新しいコンテンツの提案や生成、ユーザーとの相談などが可能です。 - 顧客満足度を向上させる
商品やサービス、顧客対応のクオリティが上がることで、顧客満足度も向上します。 - 意思決定をサポートする
より緻密で素早いデータの分析・予測が可能になります。
生成AIとDXの関係は、「生成AIとは?DXとの関連は?活用の広がりが期待される技術」も参考になります。また、あらためてDXがどのようなものか確認したい場合は、「【徹底解説】DX(デジタルトランスフォーメーション)とは?必要性から成功事例まで」をご覧ください。
生成AIとハルシネーション
多くのメリットがある生成AIですが、生成AIを利用しているとハルシネーションが発生する恐れが出てきます。そもそもハルシネーションとはどのようなものなのか、なぜ発生するのか、どのような種類があるのかを見ていきましょう。
ハルシネーションとは
ハルシネーション(Hallucination)とはもともと「幻覚、幻影」という意味です。生成AIがユーザーの質問に対して、事実とは異なる情報を利用して回答を生成することを指し、「もっともらしいうそ」といった意味合いで、こう呼ばれるようになりました。
ハルシネーションからトラブルにつながることも少なくありません。
生成AIは回答のもとになるデータを表示しないことも多いため、ユーザーはその回答が真実かどうかを、その場ですぐに判断することができません。
そういったことから、ハルシネーションの発生は問題視されているのです。
ハルシネーションはなぜ発生するのか
ハルシネーションの原因は次のようなものと考えられています。
- 学習データに間違いがある、古い
- AIが学習データを正確に理解・把握できていない
- 学習データが不足している
- 学習データを誤って組み合わせている
- 学習データを理解せずに推測している
- 構築したAIモデルのアーキテクチャや学習プロセスに問題がある
このように、ハルシネーションは学習データおよびその理解に起因しています。
しかし現在では、AIの学習に完全なデータを用意できていません。現状ではハルシネーションをなくすことはできないのです。
ハルシネーションの種類
ハルシネーションには、2つの種類があります。
- Intrinsic Hallucinations
これは学習データとは異なる内容の回答を出力するものです。
例えば、学習データには「『ユーグレナ』という名称の由来は、ラテン語の『美しい目』」といった情報が含まれていたにもかかわらず、AIが「ミドリムシの由来はラテン語の美しい目です」と回答をするなどが、Intrinsic Hallucinationsです。 - Extrinsic Hallucinations
これは学習データに存在しない内容を回答として出力するものです。
例えば、まったく学習データにはない、「ミドリムシの名前の由来は、『緑があまりに鮮やかで無視できない存在』といった意味です」といった回答を捏造するなどが、Extrinsic Hallucinationsです。
ハルシネーションのリスクと対策
ハルシネーションのもたらすリスクとその対策を説明します。
ハルシネーションがもたらすリスク
ハルシネーションが起こることで、次のようなリスクがあります。
- AIの誤った回答をもとに、誤った情報が広まる
- 誤った情報をもとにしているので、正確な意思決定を行えない
企業が利用しているAIでハルシネーションが発生すれば、企業としての評価や信頼性の低下にもつながります。
ハルシネーションが発生しないようなリスク管理
ハルシネーションを発生させないためには、次のようなリスク管理が必要です。
- 学習データの品質を管理し向上させる
誤りのあるデータをできるだけなくしておきます。 - グラウンディング
学習に使うデータや利用するURLを指定して、データの質を管理します。 - AIモデルの学習プロセスを監視する
設計に問題があると、不適切なAIモデルや学習プロセスになります。その場合はAIモデルや学習プロセスを見直します。 - RLHF(Reinforcement Learning from Human Feedback)
人間からのフィードバックをもとにして強化学習を行います。 - プロンプトの調整
プロンプト(AIへの質問)の仕方によってはハルシネーションが起きやすくなるので、そのようなプロンプトを使わないようにします。
ハルシネーションの発生への対応
AIを導入している企業では、AIのすべての回答にハルシネーションの発生を疑う必要があります。そのため、次のような対応が求められます。
- ユーザーへの教育
生成AIではハルシネーションが発生する可能性があることを認識させます。 - ガイドラインを作成する
学習データの質やプロンプトの作成方法について、ガイドラインを作成し配布します。 - ファクトチェック
回答を利用する前に、誤った情報や不正確な回答ではないかを確認し、生成AIの出力内容を検証します。
確認のプロセスも構築しておきましょう。 - 出力の結果にフィルターをかける
人が作成したフィルターをかけることで、偏りや誤りが出ないように調整します。何が偏りで何が誤りなのかを判断するのは人でなければなりません。
生成AIを活用するうえでの最適なプラクティス
現在では、生成AIを利用すればハルシネーションがある程度発生することを防ぐことはできません。ハルシネーションが起こることを前提にして利用する必要があります。そのため、現段階ではユーザーの側が生成AIをうまく使うスキルを養うことが必要です。
一般的な企業であれば、すべてを生成AIで処理する必要はありません。業務のデジタル化(デジタライゼーション)の段階なら、正しいデータや情報だけで物事を判断し、そのうえで業務効率化を行うことも可能です。
まずは企業内のデジタライゼーションを進めていき、生成AIは必要に応じて利用するということを考えても遅くはないでしょう。
デジタライゼーションについては、「デジタライゼーションとは?効果や業種別の具体例と推進のステップ」を参考にしてください。
生成AIにはハルシネーションが発生することを理解して利用しよう
ハルシネーションとは、期待とは異なり、生成AIが誤った内容、もしくは真偽を確認できない内容の回答を生成することです。その多くは学習データに原因があります。
現状では、ハルシネーションの発生を抑えることはできません。また、ハルシネーションが発生してもすぐに見分けられないことも多いです。そのため、生成AIを利用する場合はファクトチェックが欠かせません。
また、あらかじめハルシネーションが発生しないようなリスク管理も必要になります。ハルシネーションにより誤った情報を発信すれば、企業の信頼性にも関わるからです。
ハルシネーションを避けるには、必要以上に生成AIを使わないという選択肢もあります。デジタライゼーションであれば、ハルシネーションの発生を気にせずに、業務効率化を推し進めることが可能です。実際の現場でも、デジタライゼーションで十分な場面も多いでしょう。
企業の業務を大きく効率化できるデジタライゼーションの推進については、ユーザックシステムにご相談ください。
[…] https://www.sciencedirect.com/topics/neuroscience/hallucination%5B7%5D https://usknet.com/dxgo/contents/dx-technology/what-is-hallucination/%5B8%5D https://atmarkit.itmedia.co.jp/ait/articles/2303/30/news027.html%5B9%5D […]