혹시 이런 경험 없으신가요?
중요한 보고서를 쓰는 날이었어요.
급하게 통계 자료가 필요해서 챗GPT에게 물어봤죠.
“2025년 한국 전기차 보급률 알려줘.”
녀석은 아주 자신만만하게 대답하더라고요.
“네, 2025년 기준 35%에 도달했습니다.”라고 말이죠.
와, 대단하다 싶어서 보고서에 그대로 넣고 상사에게 보고했습니다.
결과는 어땠을까요?
완전히 깨졌습니다.
실제 수치와는 전혀 다른, AI가 만들어낸 ‘가짜 숫자’였거든요.
얼굴이 화끈거리고 등에서 식은땀이 줄줄 흘렀던 기억이 납니다.
최근 연구에 따르면 생성형 AI 사용자의 70% 이상이
최소 한 번 이상 AI의 거짓말(환각)을 진실로 믿은 적이 있다고 합니다.
이 글을 끝까지 읽으시면, 그 확률을 1% 미만으로 줄일 수 있습니다.
오늘은 저처럼 당하지 않으시도록,
AI가 왜 뻔뻔하게 거짓말을 하는지,
그리고 어떻게 하면 진실만 말하게 시킬 수 있는지 확실한 노하우를 풀어보겠습니다.
1. 도대체 왜 거짓말을 하는 걸까? (할루시네이션의 정체)
우리가 흔히 ‘거짓말’이라고 부르지만,
전문 용어로는 ‘할루시네이션(Hallucination, 환각)’이라고 합니다.
이걸 이해하려면 AI의 작동 원리를 아주 조금만 알면 됩니다.
어렵지 않아요! 딱 한 문장으로 정의해 드릴게요.
많은 분들이 챗GPT를 네이버나 구글 같은 검색창으로 생각합니다.
하지만 이 친구는 사실 검색을 하는 게 아니에요.
그저 지금까지 학습한 데이터를 바탕으로,
‘다음에 올 가장 그럴듯한 단어’를 이어 붙이는 확률 게임을 하고 있는 겁니다.
예를 들어볼게요.
“이순신 장군은…”이라는 말을 던지면,
AI는 수많은 데이터 속에서 “거북선”, “임진왜란”, “승리” 같은 단어를 떠올립니다.
그런데 만약 데이터가 부족한 “2026년 화성 이주 계획”에 대해 묻는다면?
AI는 모른다고 하기보다는,
그럴듯한 단어들을 조합해서 ‘소설’을 써버리는 것이죠.
그래서 그렇게 당당한 겁니다.
본인 입장에서는 말을 아주 잘 지어낸 거니까요.
2. AI 환각을 잡는 실전 프롬프트 전략 3가지
원리를 알았으니 이제 해결책을 알아봐야겠죠?
제가 지난 3년간 수천 번의 테스트 끝에 찾아낸,
가장 효과적인 방법 3가지를 공개합니다.
전략 1: “모르면 모른다고 해!” (솔직함 유도)
가장 단순하지만 강력한 방법입니다.
AI에게 빠져나갈 구멍을 주지 말고, 정직함을 강요하는 것이죠.
프롬프트 마지막에 이 문구를 꼭 넣어보세요.
“만약 확실한 정보가 없다면 ‘정보 없음’이라고 대답해.
절대로 사실을 지어내거나 추측하지 마.”
이렇게 딱 잘라 말하면,
AI는 확률이 낮은 정보를 억지로 조합하려다 멈칫하게 됩니다.
실제로 이 한 문장만으로도 허위 정보 생성률이 40% 이상 줄어들었습니다.
전략 2: 출처를 요구해라 (Fact Check)
사람도 “이거 어디서 들었어?”라고 물으면 조심하게 되잖아요?
AI도 마찬가지입니다.
정보를 요청할 때 반드시 출처(URL)나 근거를 함께 달라고 하세요.
- ❌ 나쁜 질문: “세종대왕의 맥북 던짐 사건에 대해 알려줘.” (AI가 소설을 쓸 확률 높음)
- ⭕ 좋은 질문: “세종대왕의 일화 중 역사적 기록에 있는 내용만 정리해 줘. 그리고 그 기록이 담긴 문헌(조선왕조실록 등)의 출처를 명시해.”
이렇게 물어보면 AI는 없는 문헌을 찾다가,
“죄송합니다. 그런 기록은 없습니다.”라고 실토하게 됩니다.
전략 3: 생각의 사슬 (Chain of Thought) 기법
이건 조금 고급 기술인데요,
AI에게 “답만 띡 내놓지 말고, 생각하는 과정을 보여줘”라고 시키는 겁니다.
바로 ‘단계별 추론’을 유도하는 것이죠.
“이 문제를 해결하기 위해 단계별로 생각해서 작성해 줘.
1. 먼저 관련 사실을 나열한다.
2. 사실 관계가 맞는지 검토한다.
3. 검토된 내용을 바탕으로 최종 답변을 작성한다.”
이렇게 과정을 쪼개주면,
AI가 스스로 논리적 오류를 범할 확률이 현저히 낮아집니다.
마치 수학 문제를 풀 때 암산보다 풀이 과정을 쓰면 실수가 적은 것과 같죠.
3. 추가 팁: 교차 검증을 위한 도구 활용법
여기까지 읽으신 분들을 위해 보너스 팁을 드립니다.
AI 하나만 믿는 것은 위험합니다.
요즘은 ‘검색 기능’이 강화된 AI들이 많이 나왔습니다.
제가 실제로 사용하는 교차 검증 프로세스를 알려드릴게요.
| 도구명 | 특징 | 추천 용도 |
|---|---|---|
| 챗GPT (GPT-4) | 창의성, 문장력 우수 | 초안 작성, 아이디어 |
| 퍼플렉시티 (Perplexity) | 출처 표시 특화 | 팩트 체크, 자료 조사 |
| 구글 제미나이 | 구글 검색 연동 | 최신 뉴스, 실시간 정보 |
저는 보통 챗GPT로 초안을 잡고,
그 내용이 맞는지 퍼플렉시티(Perplexity)나 구글링을 통해 꼭 한 번 더 확인합니다.
특히 ‘숫자’, ‘날짜’, ‘인물 정보’가 나왔다?
이건 100% 의심하고 검색해 봐야 합니다.
돌다리도 두들겨 보고 건너는 게 바로 AI 활용의 핵심이니까요.
4. AI 환각 줄이기 핵심 체크리스트
바쁘신 분들을 위해 딱 이것만 기억하시라고 정리했습니다.
글을 쓰기 전이나 정보를 찾기 전, 이 체크리스트를 확인하세요.
- ◻️ 역할 부여: “너는 20년 차 팩트체크 전문 기자야”라고 페르소나를 줬는가?
- ◻️ 출처 요구: 답변에 대한 구체적인 URL이나 문헌 출처를 요청했는가?
- ◻️ 금지어 설정: “거짓말하지 마”, “추측 금지” 제약을 걸었는가?
- ◻️ 최신성 확인: 2026년 오늘 기준으로 유효한 정보인지 물었는가?
- ◻️ 교차 검증: 중요한 수치는 구글이나 타 검색엔진에서 확인했는가?
이 5가지만 지켜도,
여러분의 AI 라이프는 훨씬 쾌적하고 신뢰도 높아질 겁니다.
마무리하며: AI는 결국 도구일 뿐
AI 기술은 하루가 다르게 발전하고 있습니다.
하지만 여전히 완벽하지는 않아요.
운전할 때 내비게이션을 믿지만,
눈앞에 공사 표지판이 있으면 핸들을 꺾는 건 사람인 우리입니다.
AI가 주는 정보를 맹신하지 마세요.
그것을 검증하고, 다듬어서 ‘진짜 정보’로 만드는 건 여러분의 몫입니다.
오늘 알려드린 ‘모르면 모른다고 해!’ 프롬프트,
지금 당장 챗GPT 켜서 한번 테스트해 보세요.
그 차이가 확실히 느껴지실 겁니다.
여러분이 최근에 AI에게 받은 답변 중 의심스러운 것이 있나요?
지금 바로 “이 정보의 출처를 정확히 대봐”라고 되물어보세요!






