「スカイツリーは歩いて登れる」と答えるAI
日進月歩で進化する生成AI。ChatGPTから始まった生成AIのムーブメントも、今やClaude、Gemini、llamaといった代表的なものだけではなく、日本語に特化したELYZA LLMなど、多様な大規模言語モデルが登場している。
生成AIによって教育、アートなどの様々な分野で良い効果を生むと同時に倫理的な問題なども生じ、その使用について議論が盛んになっている。
同様に、ビジネスの現場でも課題が現れている。AIの『ハルシネーション』、事実と異なる情報を生成してしまう問題だ。
たとえば、東京の観光案内について尋ねると「スカイツリーを歩いて登れるんですよ」など、実際には不可能な情報を回答したり(ちなみに、東京タワーは外階段を歩いて登ることができる)実際には存在しない技術や商標について詳細に語ったりすることがあり、ビジネス活用においても信頼性に不安が残る。

このようなハルシネーションが起きる主な理由は、AIが学習データから抽出した情報を組み合わせて回答を生成する際に、現実世界の物理的な制約や実現可能性を十分に理解できていないためだと考えられている。「タワー」と「登る」という概念は理解していても、その具体的な制約については人間のような実体験に基づく理解が不足しているのだ。
AIに身体性を与える
どうすればハルシネーションを抑えられるのだろうか。
一般的な方法として挙げられるのが、プロンプトエンジニアリングと呼ばれる手法だ。