ChatGPTは、人間ではなく、訓練とデータに基づいて回答を提供するため、不正確な回答を生成することがある。それを「ハルシネーション(Hallucination 幻覚)」という。人間が脳内の想像で「幻覚」を見る現象と同様に、人工知能が幻覚をみて回答を出力していることを例え、いつわりの回答を生成する現象をハルシネーションというのである。
ChatGPTは、人間ではなく、訓練とデータに基づいて回答を提供するため、不正確な回答を生成することがある。それを「ハルシネーション(Hallucination 幻覚)」という。人間が脳内の想像で「幻覚」を見る現象と同様に、人工知能が幻覚をみて回答を出力していることを例え、いつわりの回答を生成する現象をハルシネーションというのである。