“박사 수준의 인공지능?” ChatGPT-5, 맞춤법과 지리에서 ‘낙제점’
지난 며칠 사이 AI 커뮤니티와 기술 트위터, 블루스카이는 OpenAI의 대규모 언어 모델 최신 버전, ChatGPT-5의 등장으로 들썩였습니다. OpenAI CEO 샘 알트먼은 이 모델을 “박사 수준의 지능”이라 칭하며, 포켓 속 지식인처럼 사용할 수 있다고 홍보했죠.
하지만, 실제 사용자들의 반응은 어땠을까요? 다소 당혹스러운 ‘현실 체크’가 이어졌습니다.
박사님… 블루베리에 ‘B’가 몇 개죠?
ChatGPT-5는 사용자의 철자 검토 요청에 대해 “블루베리는 B가 세 개나 있다”고 당당하게 답했습니다. “b-b-better pay attention”이라는 농담까지 곁들이며 그럴 듯하게 설명했지만, 정작 맞춤법 기준으로는 완전히 틀린 이야기였죠. 실제로 blueberry에는 B가 두 개밖에 없습니다.
유사 사례는 한둘이 아닙니다. 어떤 사용자가 “R이 들어간 미국 주를 나열해달라”는 요청을 했을 때, GPT-5는 “Krizona”, “Vermoni”, “Mitroinia”, “New Jefst” 등 듣도 보도 못한 가상의 주 이름들을 ‘자신 있게’ 나열했습니다. 심지어 캘리포니아를 두 번 작성하는 일도 있었고요.
이쯤 되면 모두의 뇌리에 떠오르는 질문 하나—정말로 이 AI는 박사 수준의 지능을 갖춘 걸까요?
‘생각’을 시켜야 더 나아진다는 GPT-5, 그 이유는?
이러한 오류가 반복되자 사용자들은 AI가 단순히 잘못 훈련됐거나 지적 능력이 낮다고 생각할 수 있습니다. 하지만, OpenAI 측은 이와 같은 문제의 원인을 GPT-5의 ‘라우터(Router)’ 기능에서 찾고 있습니다.
GPT-5는 사용자의 요청에 따라 다양한 AI 모델 중 하나를 실시간으로 선택해서 응답을 생성합니다. 가벼운 대화에는 빠르게 결과를 도출하는 모델을, 복잡한 추론이 필요한 요청에는 ‘추론 전용 모델’을 사용하는 방식입니다.
즉, “생각 좀 해봐” 같은 명령어를 포함시키면 더 정밀한 분석을 하게 되는 구조인데, 반대로 아무 조정 없이 질문하면 덜 정교한 모델이 사용될 수도 있다는 거죠.
Dan Shipper라는 AI 스타트업 CEO는 이에 대해 다음과 같이 예를 들었습니다.
“소설의 한 장면을 사진으로 찍어서 GPT-5에게 설명을 요청하면, 때때로 AI가 자신만의 이야기를 만들어내곤 합니다. 하지만 ‘더 깊게 생각해봐’라고 지시하면 훨씬 정확한 설명을 내놓죠.”
이처럼 하나의 모델이 아니라 ‘모델 집합’을 기반으로 작동하는 방식이기 때문에, 사용자 의도나 맥락 설정에 따라 결과의 품질이 아주 달라질 수 있습니다.
이런 오류가 중요한 이유
단순히 웃고 넘길 수 있는 실수 같지만, GPT-5가 ‘박사 수준’이라는 타이틀을 달고 출시되었다는 점에서 이번 해프닝은 의미가 큽니다.
실제로 기업들은 이런 AI 모델을 고객 응대, 의사결정 보조, 콘텐츠 제작에 활발히 도입하고 있으며, 의료, 금융, 법률 등 고신뢰가 요구되는 분야까지 확대되고 있는 추세입니다. 만약 의학 보고서에서 잘못된 철자나 약물명을 생성한다면, 그 결과는 실수가 아닌 ‘사고’로 이어질 수도 있죠.
그래서 우리는 이 기회를 통해 명확한 교훈을 하나 얻을 수 있습니다.
✅ AI는 여전히 ‘도구’이며, 절대적인 ‘지식의 샘’은 아니라는 점입니다.
사용자를 위한 실전 팁 – ChatGPT와 더 똑똑하게 대화하려면?
이번 사례에서 우리는 AI 모델 사용자의 역할이 더욱 중요하다는 사실을 깨닫게 됩니다. 아래 몇 가지 팁은 당신이 생성형 AI와 대화할 때 좀 더 정교하고 정확한 결과를 얻는 데 도움이 될 수 있습니다.
- “좀 더 깊게 생각해봐” 또는 “이 문제를 단계별로 분석해줘”와 같은 구체적이고 지시적인 요청어(Prompt)를 사용할 것.
- 결과가 중요한 작업에서는 한 번 더 검토하거나, 다른 질문으로 입증해보기.
- 가능한 한 맥락(Context)을 풍부하게 제공하여 AI가 더 좋은 판단을 내릴 수 있게 할 것.
예를 들어,
❌ “블루베리에 B가 몇 개인가요?”
✅ “blueberry의 철자를 각 글자 단위로 나누고, B가 몇 번 등장하는지 세어줘.”
이처럼 구체적인 제한 조건을 부여하면, AI는 보다 안정된 모델을 사용하고, 정확한 결과를 제공할 가능성이 높아집니다.
GPT-5의 발전 방향 – 희망은 여전히 존재한다
OpenAI 측은 오류 문제에 대해 인지하고 있으며, 실제로 GPT-5의 라우터 시스템은 사용자 피드백, 정확성 평가, 선택된 모델 등을 통해 실시간으로 학습되고 개선되고 있습니다.
즉, GPT-5는 ‘완성품(Finished Product)’이 아닌 ‘학습 중인 조수(Learning Assistant)’입니다. ChatGPT의 진화는 아직 끝나지 않았으며, 앞으로 더 인간과 유사한 판단력 및 추론 능력을 갖출 것으로 기대됩니다.
하지만 그 기대가 현실이 되기 전까지는, 여전히 우리가 마지막 검토자이자 판단자의 역할을 해야 한다는 것을 잊지 말아야 하겠습니다.
✍️ 정리하며, 이렇게 말하고 싶습니다.
GPT-5가 아무리 ‘박사급’이라 불릴지라도, 정작 우리가 원하는 건 ‘착각하지 않는 조수’일 것입니다.
기술은 놀랍도록 진보했지만, 그 경이로움을 안전하고 신중하게 활용할 때 진정한 변화를 만들어낼 수 있지 않을까요?
당신의 스마트한 AI 활용을 응원합니다.
– 대한민국 최고의 블로그 전문가, 작성 완료 😊
🌟 이 글이 유익하셨다면, ‘좋아요’와 ‘공유’ 잊지 마세요!
블로그 구독도 환영합니다 – AI와 기술의 인사이트, 매주 받아보세요 💌

