AI의 '환각 현상', 그 원인은 무엇인가?
최근 인공지능(AI) 기술의 발전과 함께 대형언어모델(LLM)의 '환각' 문제가 주목받고 있습니다. '환각'이란 AI가 실제 존재하지 않는 내용을 사실처럼 만들어내는 현상입니다. 최근 파이낸셜 타임스는 철학자 해리 프랑크푸르트의 이론을 인용해 AI가 보여주는 이 '헛소리'의 위험성을 강조했습니다.
AI의 헛소리, 거짓말보다 위험하다?
프랑크푸르트는 '헛소리에 관하여(On Bullshit)'라는 유명한 에세이를 통해 "진실의 가장 큰 적은 거짓말이 아니라 헛소리"라고 주장했습니다. 거짓말은 진실을 알고 있으면서도 속이는 것이지만, 헛소리는 진실 자체에 관심이 없기 때문에 더욱 위험하다는 것입니다. 이러한 논의는 최근 챗GPT와 같은 AI 모델의 문제점을 정확히 지적한 것으로 평가됩니다.
워싱턴대의 칼 버그스트롬 교수와 제빈 웨스트 교수 역시 "LLM의 가장 큰 강점이자 위험은 사실의 정확성과 무관하게 모든 주제에 권위 있어 보이는 답변을 생성하는 능력"이라고 지적하며, AI의 헛소리가 큰 문제임을 강조했습니다.
왜 AI는 환각을 일으키는가?
LLM의 환각 현상은 단순한 버그가 아니라, 모델 설계의 근본적 특성에서 비롯됩니다. LLM은 트랜스포머 아키텍처의 자기 회귀 모델로, 다음 단어를 확률적으로 예측하는 방식으로 작동합니다. 이런 구조 때문에, 구글 연구진은 과거 논문에서 "LLM은 의미 없는 앵무새(Stochastic Parrots)에 불과하다"고 비판하기도 했습니다.
특히 'o3', 'o4-미니'와 같은 최신 AI 모델은 성능이 뛰어나지만, 오히려 환각 빈도가 늘어난 것으로 나타났습니다. 성능 향상과 환각 감소가 비례하지 않는다는 점에서 AI 환각 문제는 더욱 복잡해졌습니다.
AI 개발사들의 태도 변화
과거에는 AI 개발자들이 환각 문제를 개선의 대상으로 인식했지만, 최근에는 환각 현상 자체를 문제시하기보다 AI의 창의성과 기발함을 나타내는 특성으로 바라보는 시각도 나타나고 있습니다. 앤트로픽 CEO 다리오 아모데이는 "환각을 AI 성능 평가의 기준으로 삼는 것은 불합리하다"며 AI의 환각을 어쩔 수 없는 과정으로 설명하기도 했습니다.
AI를 사용하는 올바른 자세
AI의 환각 문제를 완전히 해결하는 것은 쉽지 않습니다. 알트먼 오픈AI CEO는 "사실적인 근거가 없는 답을 하지 말라"는 지시로 해결 가능하지만, 이는 AI의 창의적 활용을 제한할 수 있습니다. 결국 사용자는 AI의 답변을 무조건 신뢰하지 않고 비판적으로 접근해야 합니다.
AI의 진실성을 무조건 믿는 것이 아니라, 비판적으로 활용하는 지혜가 필요한 시점입니다.