ハルシネーションとは、
人工知能(AI)が事実とは異なる情報を生成する現象です。
AIが幻覚を見ているかのように、
もっともらしい嘘(事実とは異なる内容)を出力するため、
この言葉が使われています。
ハルシネーション(hallucination)
発生原因:
学習データの不足や偏り、モデルの過学習など
影響:
誤った情報を基にした意思決定や、社会的信用の低下につながる可能性がある
対策:
学習データの質を上げたり、学習のプロセスを改善したりする
ハルシネーションは、生成AI(大規模言語モデルや画像生成モデルなど)が広く活用される中で、ビジネスや教育、医療などさまざまな分野で問題となっています。
ハルシネーションの発生例としては、次のようなものがあります。
「2020年にノーベル平和賞を受賞した日本人は誰ですか?」という質問に、実際には存在しない人物名を回答する
特定の分野や時代背景に偏ったデータセットで学習させると、多様な情報に対応できず、不正確な内容を生成する
ハルシネーションを回避するには、特定の知識や情報源(例えばナレッジベースなど)によって言語モデルの回答や生成内容を裏付けることが有効です。
0コメント