AI 사용에 대한 대학가의 딜레마: 학문적 정직성과 기술 혁신의 경계에서
"AI를 썼다는 혐의는 제 노력을 부정하는 것 같았어요."
19세 대학생 알버트는 처음으로 받은 학업 부정 행위(e.g., AI 사용) 혐의 메일을 받고 큰 충격에 휩싸였습니다. 해당 과목의 에세이에 대해, 그의 교수는 일부 구절이 AI 기반 챗봇으로 작성되었을 가능성을 제기한 것입니다. 하지만 문제는 알버트가 AI 사용을 하지 않았다는 점이었습니다.
알버트는 “결과적으로 한 편의 에세이가 나의 수개월간의 노력과 학업 기록을 무효화시키려는 것처럼 느껴졌다”라며 분통을 터뜨렸습니다. 간단한 연결구조("또 다른 예로 인해", “반대로”)만으로 그가 AI를 불법적으로 사용했다고 의심받은 현실은 대학가에서 논란이 되는 '생성형 AI' 문제의 단면을 보여줍니다.
생성형 AI: 대학 생활의 조력자 또는 악당?
ChatGPT와 같은 생성형 AI 툴은 몇 초 만에 완성도 높은 글을 생성하거나 자료들을 요약하며 그 활용도를 가시적으로 증명하고 있습니다. Google Gemini, Microsoft Copilot, Claude 등 다른 플랫폼들 또한 손쉽게 지식의 틈을 메우며 24/7 개인 맞춤형 튜터 역할을 하고 있습니다.
하지만 교수진 입장에서 AI는 달갑지만은 않습니다. 학문적 정직성을 대체한다는 우려가 학내 곳곳에서 터져 나오기 때문입니다. 한 조사에 따르면, 대학생 중 절반 이상이 숙제나 평가 과제에서 AI를 어느 정도 이용했으며, 이들 중 5%는 이를 명백히 부정 행위(cutting corners)로 사용하고 있다고 답했습니다.
사례: 알버트와 엠마의 상반된 경험
① 알버트의 부당한 의심:
알버트는 억울한 혐의로 인해 학업에 대한 자신감을 잃는 동시에, 대학 문화가 너무 기계적이고 비정한 영역으로 느껴졌다고 말합니다. 그는 AI 자체에 중립적이지만, 교수와 대학 본부의 무성의한 태도가 진짜 문제라 느꼈습니다.
"차라리 교수님이 직접 제게 찾아와 물어봤다면 좋았을 텐데,"라고 그는 회상합니다.
② 엠마의 절박한 선택:
이에 반해, 싱글맘으로 고군분투하던 엠마는 AI를 활용하다 큰 대가를 치를 뻔한 사례입니다. 그녀는 육아와 학업, 생계를 병행하며 마감에 쫓기다가 ChatGPT의 도움을 받아 과제를 제출했습니다. 그녀는 이후 AI 사용이 파악되었지만, 복합적인 상황과 진심 어린 고백이 긍정적으로 작용했습니다.
엠마는 뒤돌아보며 말합니다. "대학 차원에서 왜 이 새로운 기술들을 제대로 교육하지 않는지 의문이에요. 단순히 금지만 할 게 아니라 올바른 활용법을 알려줬어야 했죠."
AI 툴과의 갈등: AI 탐지 도구의 문제점
대학들은 AI로부터 학문적 정직성을 보호하기 위해 다양한 탐지 툴(예: Turnitin의 AI 탐지 기능)을 도입하고 있습니다. 그러나 이는 또 다른 부작용을 낳았습니다.
-
오작동과 오판:
Turnitin이 1% 이내라고 주장하는 오류율에도 불구하고, 수백만 건의 과제를 평가하며 의도치 않은 "허위 긍정"(학생이 AI를 사용한 적 없음에도 사용한 것으로 평가) 사례가 확인되었습니다.예를 들어, Stanford 대학 연구는 AI 탐지기가 비원어민(non-English native) 학생들의 글을 불균형적으로 AI 생성물로 판정할 가능성이 높다는 점을 제기했습니다.
-
경제적/기술적 불균형:
자연어 능력이 약한 학생부터 AI 접근성이 낮은 취약 계층이 오히려 처벌받기 쉽습니다. Perkins 박사는 "단순 복사 붙여넣기가 아닌 텍스트 수정이나 고급 AI 도구 활용 등 다양한 스킬/자원에 따라 결과가 판이하게 달라진다"고 지적했습니다.
결국 학생들이 직면하는 압박은 기술적 문제뿐 아니라 그 기술을 평가하는 데 있어 신뢰할 만한 기준과 도구의 결여라는 또 다른 차원에 놓여 있습니다.
해결책: AI와 인간이 협업하는 대학 문화 구축
오늘날 많은 대학들은 점차 AI 활용을 인정하고, 지도된 사용 활용 방안을 마련하려는 움직임을 보이고 있습니다. Cambridge University는 AI 사용 지침을 마련하며, 이를 신규 개념 탐색, 학습 기술 향상 등으로 허용하고 있지만 과도한 의존은 비판하고 있습니다.
그렇다면 현실적인 조치는 무엇일까요?
-
교육 시스템의 전환:
- 한 대면 강의교수가 제안하길, 평가 시스템을 소그룹 토론, 일대일 면접 등으로 전환할 시 학생들의 실제 역량 파악이 더욱 정확할 것이라고 했습니다.
- 그러나, 이는 추가적인 재정 투자가 필요하며, 현재 제한된 교직/학생 비율에서는 단기간 내 대규모 확산이 어렵습니다.
-
명확한 윤리 교육:
AI의 가능성과 제한을 학생들에게 가르쳐 기술을 무작정 금지하기보단 올바로 활용할 수 있도록 돕는 전략이 필요합니다. 엠마의 경험처럼, 기술 오해와 윤리적 혼란은 명확한 학습을 통해 극복 가능합니다. -
기술 지원 장치 개선:
현재 탐지 도구로 인해 겪는 불만과 신뢰 위기를 해소하기 위해서는 보다 정밀하고 공정한 AI 모니터링 시스템 개발 또한 필수적입니다.
결론: "교육이 단지 숫자와 서류상의 결과 이상이 되길"
생성형 AI는 단순히 대학문화에 침투하는 "치팅 툴"이라 규정짓기 어렵습니다. 기술 자체는 학생들에게 새로운 학습 지원을 제공하며, 교수자에게도 효율화를 유도합니다. 문제의 핵심은 기술보다 학생들과 교수진 간의 소통과 신뢰의 붕괴에 있는 것으로 보입니다.
알버트는 말합니다. "더 이상 학생을 숫자로 평가하거나 관리하는 데 그치지 않았으면 해요. 사람 대 사람으로 서로 공감할 수 있는 기회가 많아졌으면 좋겠습니다."
트랜잭션의 논리에서 벗어나, 인간적인 교육의 본질로 다시 돌아가야 할 때입니다.

