최근 생성형 AI 기술, 특히 ChatGPT와 같은 모델의 발전으로 업계에서는 할루시네이션 문제를 줄이는 것이 주요 과제로 떠오르고 있습니다. 광범위한 데이터를 학습하는 생성형 AI의 특성상, 할루시네이션은 불가피한 오류로 여겨지고 있습니다.
‘할루시네이션’(Hallucination)은 생성형 AI가 잘못된 정보를 실제 사실처럼 생성하거나 전달하는 현상을 의미합니다. 이는 AI가 허위 사실을 진실로 오인하여 제공하거나, 처리한 정보의 맥락을 잘못 해석해 부정확한 내용을 표현하는 경우 등을 포함합니다.
할루시네이션은 크게 두 가지 유형으로 구분됩니다. 내재적 환각은 실제 사실과 AI가 처리한 정보 간에 불일치가 발생하는 경우를 말하며, 외재적 환각은 존재하지 않는 내용을 새롭게 만들어내는 현상을 의미합니다.
마이크로소프트가 빙 AI를 공개했을 당시, 의류 브랜드 갭(Gap)의 수익 보고서를 분석하라는 요청에 AI가 잘못된 분석을 제시한 사례가 있었습니다. 또한, 구글의 AI 챗봇 ‘바드’와 마이크로소프트의 ‘빙’이 최근 이스라엘-팔레스타인 간의 상황에 대해 실제와 다르게 “휴전 중”이라는 부정확한 답변을 내놓은 사례도 보고된 바 있습니다.
특히 GPT-3와 같이 학습 데이터가 제한적인 AI 모델일수록 할루시네이션 발생 빈도가 높은 편입니다. 이는 AI의 답변이 정보를 단순히 나열한 것일 뿐, 이를 실제로 이해하고 제공하는 것이 아니기 때문입니다.
정확도를 높이기 위해서는 질문 시 공식 보고서나 논문과 같은 출처를 인용해서 답변하도록 요구하거나, 최근 5년간 국내 언론에서 확인 가능한 내용을 조건으로 제시하는 등의 방식이 효과적입니다. 이를 통해 AI의 답변 정확성을 한층 향상시킬 수 있습니다.
↓↓↓ 더 자세한 내용을 알고 싶으시다면 아래 링크를 참고해 주세요. ↓↓↓