개발/기술 정보 이야기

ChatGPT가 틀린 말을 할 때는 왜 그런가? 인공지능의 오류와 그 원인

devbake 2025. 8. 24. 11:30

ChatGPT는 매우 자연스럽고 유창한 언어로 질문에 답변한다. 하지만 종종 틀린 정보, 존재하지 않는 사실, 실제와 다른 내용을 말하는 경우가 있다. 많은 사용자들이 이러한 현상을 겪고 혼란을 느낀다.

 

 

 

이 글에서는 ChatGPT가 왜 틀린 말을 하는지, 그 기술적인 배경과 한계는 무엇인지, 그리고 사용자가 어떻게 오류를 줄이면서 활용할 수 있는지를 설명한다. 인공지능을 제대로 이해하고 활용하고 싶은 사람들을 위한 정보성 글이다.

 

 

1. ChatGPT가 틀린 말을 할 때가 있다?

ChatGPT는 마치 전문가처럼 유창하게 대답하지만, 그 내용이 항상 정확하다고 보장할 수는 없다.
실제로 많은 사용자들이 다음과 같은 경험을 한다.

  • “존재하지 않는 책 제목을 말한다”
  • “틀린 수학 계산을 한다”
  • “없는 기능이나 코드 라이브러리를 제안한다”

이러한 현상은 ChatGPT가 ‘할루시네이션(Hallucination)’이라는 AI 특유의 오류 패턴을 가질 수 있기 때문이다.

 

2. 할루시네이션이란 무엇인가?

ChatGPT가 틀린 말을 할 때는 왜 그런가? 인공지능의 오류와 그 원인

할루시네이션은 원래 환각이라는 뜻이다. AI 분야에서는 사실이 아닌 내용을 마치 사실인 것처럼 생성하는 현상을 말한다.

예를 들어, 사용자가 “AI 관련 유명한 한국 책 3권을 추천해줘”라고 했을 때, 실제로 존재하지 않는 책 제목과 저자를 만들어내기도 한다. 이는 AI가 진짜 사실을 기억해서 말하는 것이 아니라, 확률적으로 가장 그럴듯한 문장을 조합해서 응답하기 때문이다.

 

3. 왜 이런 오류가 발생하는가?

 1) 훈련 방식의 한계

ChatGPT는 인터넷에 존재하는 방대한 텍스트 데이터를 학습한다. 하지만 이 학습에는 진실 여부를 판단하는 기준이 없다.
사실과 허위 정보가 섞여 있고, AI는 그 중에서 문맥상 적절한 내용을 뽑아낼 뿐이다.

 2) 확률적 언어 모델의 특성

AI는 질문에 대해 ‘정답’을 찾는 게 아니라, 통계적으로 다음에 나올 법한 단어를 예측해 문장을 만든다.
이 방식은 문장은 자연스러우나, 사실 여부는 확인하지 않는다.

 3) 출처 기반 응답이 아님

ChatGPT는 웹페이지 링크나 논문, 공식 문서에서 직접 정보를 가져오는 것이 아니라, 이전에 학습한 데이터를 바탕으로 스스로 문장을 만들어낸다. 즉, 출처 없는 답변이 많고, 검증되지 않은 정보가 섞일 수 있다.

 

 

4. 실제 예시

ChatGPT의 잘못된 응답

❌ 잘못된 응답 예시:

“한국에서 출간된 ‘AI 윤리와 기술의 미래’(2022, 김기훈 저)는 ChatGPT의 원리를 잘 설명한 책입니다.”

→ 검색해보면 이 책은 존재하지 않는다. 하지만 제목과 저자 모두 그럴듯하게 보이기 때문에 사용자는 진짜라고 착각하기 쉽다.

 

 

5. 사용자가 주의해야 할 점

  • AI의 답변을 항상 검증하는 습관이 필요하다.
  • 특히 정보 제공형 질문(사실 기반, 숫자, 통계, 논문 등)은 AI의 답변을 그대로 믿지 않고 추가 검색을 통해 교차 확인해야 한다.
  • “출처를 명시해줘” 또는 “위 내용의 근거를 말해줘”라고 요청하면 때때로 거짓 정보를 줄이거나, 인용 여부를 점검할 수 있다.

 

 

6. 오류를 줄이는 프롬프트 활용법

프롬프트를 더 구체적이고 조건적으로 작성하면 할루시네이션 발생 확률을 줄일 수 있다.

 

예시:

❌ “AI 윤리 관련 책 추천해줘”
✅ “한국에서 2020년 이후 출간된, 실제 존재하는 AI 윤리 관련 도서를 3권 추천해줘. 출처 또는 ISBN을 함께 알려줘.”

 

이런 방식은 AI가 허구의 정보를 생성하는 대신, 이미 존재하는 데이터 내에서 제한적으로 응답하도록 유도한다.

 

 

7. 결론

 

 

ChatGPT는 매우 강력한 도구이지만, 그 구조상 사실 판단 기능이 내장되어 있지 않다. 따라서 틀린 말을 할 수 있다는 점을 인식하고 사용하는 것이 중요하다. AI는 ‘답을 아는 존재’가 아니라 ‘그럴듯한 말을 만들어내는 언어 예측 시스템’이라는 본질을 이해한다면, 우리는 더욱 현명하게 이 도구를 활용할 수 있다.