최근 생성형 AI 기술, 특히 ChatGPT와 같은 모델의 발전으로 업계에서는 할루시네이션 문제를 줄이는 것이 주요 과제로 떠오르고 있습니다. 광범위한 데이터를 학습하는 생성형 AI의 특성상, 할루시네이션은 불가피한 오류로 여겨지고 있습니다. ‘할루시네이션’(Hallucination)은 생성형 AI가 잘못된 정보를 실제 사실처럼 생성하거나 전달하는 현상을 의미합니다. 이는 AI가 허위 사실을 진실로 오인하여 제공하거나, 처리한 정보의 맥락을 잘못 해석해 부정확한 내용을 표현하는 경우 등을 포함합니다. 할루시네이션은 크게 두 가지 유형으로 구분됩니다. 내재적 환각은 실제 사실과 AI가 처리한 정보 간에 불일치가 발생하는 경우를 말하며, 외재적 환각은 존재하지 않는 내용을 새롭게 만들어내는 현상을 의미합니다..