ハルシネーション

ハルシネーションとは、

人工知能(AI)が事実とは異なる情報を生成する現象です。


AIが幻覚を見ているかのように、

  もっともらしい嘘(事実とは異なる内容)を出力するため、

     この言葉が使われています。



ハルシネーション(hallucination)

発生原因:

学習データの不足や偏り、モデルの過学習など


影響:

誤った情報を基にした意思決定や、社会的信用の低下につながる可能性がある


対策:

学習データの質を上げたり、学習のプロセスを改善したりする



ハルシネーションは、生成AI(大規模言語モデルや画像生成モデルなど)が広く活用される中で、ビジネスや教育、医療などさまざまな分野問題となっています。


ハルシネーションの発生例としては、次のようなものがあります。


「2020年にノーベル平和賞を受賞した日本人は誰ですか?」という質問に、実際には存在しない人物名を回答する


特定の分野や時代背景に偏ったデータセットで学習させると、多様な情報に対応できず、不正確な内容を生成する


ハルシネーションを回避するには、特定の知識や情報源(例えばナレッジベースなど)によって言語モデルの回答や生成内容を裏付けることが有効です。








0コメント

  • 1000 / 1000