김현주 기자

[한국의정신문 김현주 기자]
AI 생성도구의 급속한 확산은 대학 교육의 지형도를 근본부터 뒤흔들고 있다. 글쓰기 과제, 에세이, 보고서, 온라인 시험 등 기존에 ‘학생의 역량’을 판별하는 핵심 도구로 여겨지던 평가 방식이 더 이상 그 역할을 온전히 수행하기 어렵게 된 것이다.
최근 국내 주요 대학에서도 AI 활용 의혹이 제기된 사건들이 잇달아 발생하며, “평가란 무엇인가”, “학습 성취도를 어떻게 정의할 것인가”, “공정성은 어떤 기준으로 담보할 수 있는가”라는 본질적 질문이 다시 교육계 한복판에 서게 되었다.
이제 문제는 단순히 ‘AI 사용을 금지할 것인가’가 아니다. 생성형 AI가 일상이 된 시대에, 대학이 학생의 진짜 학습과 사고 능력을 어떻게 확인할지, 그리고 교육의 신뢰를 어떤 방식으로 다시 구축할지에 대한 근본적 논의가 필요해지고 있다.
AI를 활용한 부정행위는 더 이상 ‘가능한 우려’가 아니라, 통계로 확인되는 현실이 됐다. 영국에서는 2023~2024학년도에만 7천 건에 가까운 AI 부정 사용이 적발돼, 학생 1,000명당 5.1건 수준으로 집계됐다. 불과 1년 전 1.6건에서 세 배 이상 급증한 수치다. 올해는 7.5건까지 늘어날 것이라는 전망도 나온다. 전통적 표절은 줄어드는 대신, AI를 활용한 새로운 형태의 부정행위가 대학 평가 체계를 흔들고 있다는 분석이다.
한국의 명문대에서도 비슷한 신호가 뚜렷하게 감지되고 있다. 최근 연세대학교 한 전공 수업의 온라인 중간고사에서 이상 응시 패턴이 포착되면서, 600여 명이 치른 시험 가운데 50여 명이 의심 대상으로 조사에 올랐고, 이 중 40여 명이 스스로 부정행위를 인정했다. 상당수가 생성형 AI를 이용해 답안을 작성하거나, 화면 밖에 다른 기기를 두고 답을 찾는 방식으로 시험을 치렀다는 사실이 알려지면서, 이른바 ‘AI 커닝’ 파문이 대학가를 뒤흔들었다.
고려대학교에서도 수백 명이 수강한 교양 과목에서 학생들이 카카오톡 오픈채팅방을 만들어 답안을 공유한 사실이 드러나 시험이 전면 무효 처리되는 일이 있었다. 조사 과정에서 단순 답안 공유를 넘어, 생성형 AI가 작성해 준 서술형 답변을 그대로 붙여넣는 방식의 부정행위 정황도 함께 확인됐다. 이보다 앞서 동국대학교, 지방 국립대 등에서도 프로그래밍 과제나 온라인 시험에 광범위한 생성형 AI 사용이 의심되면서 교수들이 “AI를 사용하면 F학점 처리하겠다”고 공지하는 등 강경 대응에 나선 사례가 이어졌다.
숫자도 빠르게 늘고 있다. 한 조사에 따르면 국내 주요 대학에서 적발된 온라인 시험 부정행위는 최근 6년 사이 5배 가까이 증가했다. 코로나19 이후 비대면 강의와 온라인 시험이 일상화되면서 감독의 사각지대가 넓어졌고, 여기에 누구나 쉽게 사용할 수 있는 생성형 AI가 결합하며 부정행위의 ‘문턱’을 크게 낮추고 있다. 실제로 대학가에서는 “과제 아이디어를 잡을 때부터 AI를 쓴다”, “교수의 AI 탐지기에 안 걸리게 만들어 달라고 AI에 시킨다”는 학생들의 증언이 심심치 않게 등장한다.
하지만 이마저도 ‘빙산의 일각’일 가능성이 크다. 국내외 연구에 따르면, 현재 상용화된 AI 탐지기는 오탐과 미탐 비율이 높아, 징계 근거로 활용하기에는 신뢰도가 충분치 않다는 지적이 반복된다. 실제로 국내 방송사 분석에서도 AI 탐지기가 간단한 문장 변형만 거쳐도 탐지를 피해 가거나, 사람 글을 AI가 쓴 것으로 잘못 판단하는 사례가 적지 않게 확인됐다.
이처럼 생성형 AI 부정행위는 개별 대학의 관리 소홀 문제가 아니라, 기존의 평가 방식 전체를 재점검하라는 구조적 경고에 가깝다. 이제 논의의 초점은 “AI를 쓰면 안 된다”는 선언에 머물 것이 아니라, 어떤 평가와 규범, 어떤 윤리 교육과 제도 설계를 통해 AI 활용과 학습의 정직성을 함께 지켜 낼 것인가로 옮겨가야 한다.
올해 들어 연세대·고려대를 포함한 여러 대학에서 AI 부정행위가 연쇄적으로 적발되며, ‘AI가 대학 평가의 신뢰 기반을 흔들고 있다’는 우려가 급격히 확산되고 있다. 실제로 전국 대학에서 적발된 AI 부정행위는 단 1년 만에 7배 이상 증가했고, 교수 사회에서도 “AI가 과제를 대체하는 것이 아니라, 아예 학습 동기를 압도하고 있다”는 경고가 나올 정도다.
그러나 현장의 혼란이 커질수록 더욱 분명해지는 사실이 있다. 이 문제는 단순히 강력한 처벌 강화로 해결할 수 없다는 점이다.
많은 대학이 기존처럼 ‘표절 검사–징계’ 방식으로 대응하고 있지만, AI 시대에는 이 접근이 더 이상 유효하지 않다. 첫째, AI가 생성한 문장은 기존 표절 시스템이 감지하는 방식—이미 존재하는 텍스트와의 유사도—를 의도적으로 우회한다. 즉, 생성형 AI가 만든 글은 완전히 새 텍스트이기 때문에 유사도는 거의 ‘0%’에 가깝다. 실제로 연세대 사건에서 적발된 학생들도 “표절률이 0%라 문제가 없을 줄 알았다”고 진술했다는 보도가 이를 뒷받침한다.
둘째, ‘AI 사용 금지’ 중심의 규제는 학생들로 하여금 정당한 학습 도구로서의 AI 활용 역량을 기르지 못하게 만드는 부작용을 낳는다. 이미 국내외 대학은 AI를 학습·연구의 보조 도구로 적극 활용하고 있고, 기업과 연구기관에서는 AI 활용 능력을 필수 역량으로 간주한다. AI를 전면 금지하는 정책은 학생을 보호하는 것이 아니라, 오히려 미래 역량 축적에서 뒤처지게 하는 역효과를 낳는다.
셋째, 단순 처벌 위주의 접근은 부정행위의 근본 원인을 해결하지 못한다. 학생들이 AI 의존에 빠지는 이유는 크게 두 가지다. △학습 과제의 구조가 여전히 ‘정답 맞히기·요약하기·기계적 보고’ 중심이라는 것 △AI 활용에 대한 명확한 윤리 기준과 교육이 부재해 “어디까지가 허용인지” 모른다는 것이다.
즉, 문제는 기술 자체가 아니라 학습 설계와 평가 체계가 AI 시대에 맞게 변하지 못한 데 있다. 결국 AI 부정행위는 ‘처벌 강화’로 막을 사안이 아니라, 평가 체계, 수업 설계, AI 활용 윤리 교육이 모두 연결된 구조적 문제다. 따라서 대응 방식 역시 구조적이어야 한다.
이러한 이유로 지금 대학이 가장 먼저 직면해야 할 질문은 단 하나다. “AI가 등장한 시대에도 유효한 평가란 무엇인가?”
지금까지의 대학평가는 학생이 ‘직접’ 생산한 결과물에 대해 진정성·창의성·논리성을 평가하는 방식에 머물러 왔다. 그러나 생성형 AI가 글쓰기, 요약, 번역, 분석까지 대부분의 과정을 대신할 수 있는 지금, 기존의 문서 기반 과제나 단순 보고식 평가로는 더 이상 학생의 실제 역량을 판별할 수 없다. 결국 대학은 평가의 핵심을 ‘산출물 결과’에서 ‘과정과 사고의 추적 가능성’으로 이동시켜야 한다.
AI가 아무리 뛰어나도 학생의 사고 과정, 문제 접근 방식, 선택의 근거, 맥락적 판단까지 대신할 수는 없다. 따라서 대학은 결과물이 아니라 과정 기록(portfolio)을 평가의 중심으로 삼아야 한다.
예를 들어, △학생이 과제를 수행하며 어떤 자료를 탐색했는가 △AI에게 어떤 프롬프트를 입력했고, 어떤 이유로 결과를 수정했는가 △동료나 교수의 피드백을 어떻게 반영했는가. 이런 과정을 평가에 포함시키면 AI 활용 여부가 문제가 아니라, AI를 어떻게 활용했는지가 평가 포인트가 된다.
이 방식은 미국의 애리조나주립대(ASU)나 조지아텍처럼 AI 사용을 허용하되 사용 과정 보고서(AI usage statement)를 요구하는 대학들이 이미 실천하고 있는 흐름이다.
AI 도구가 고도화되면서, 대학 현장에서는 학생이 스스로 해결했는지 확인하기 어려운 과제가 급격히 증가하고 있다. 예를 들어, 대형 강의에서 리포트를 제출받으면 다음과 같은 상황이 자주 발생한다.
제출된 보고서의 문장이 지나치게 매끄럽고 정교해 실제 학생의 평소 글쓰기 수준과 차이가 클 때, 코드 과제에서 오류 없이 완벽한 해답이 제출되지만, 정작 학생은 해당 알고리즘의 원리를 설명하지 못할 때, 실험과제를 제출했음에도 실험 변인·해석·결론 단계에서 학생 본인의 사고흔적(thinking trace)이 보이지 않을 때, 이런 경우 AI가 개입했는지 여부는 기술적으로 거의 판별하기 어렵다.
즉, 구술·대면 평가가 필요한 이유는 “부정행위 방지” 그 자체가 아니라, 학생이 실제로 이해했는지, 자기 언어로 설명할 수 있는지를 평가하기 위한 필수 조건이다.
AI 시대 대학이 먼저 전환해야 할 것은, 학생이 AI를 사용했는가를 색출하는 관점이 아니라 AI를 활용해 얼마나 깊이 있는 사고와 분석을 했는가를 평가하는 관점이다.
영국의 러셀그룹(Russell Group) 대학 연합은 2023년 ‘생성형 AI 활용 원칙’을 발표하며 AI를 교육에서 완전히 배제하기보다는 책임 있는 사용(responsible use)을 지원해야 한다고 강조했다.
또한 학생·교사를 대상으로 AI 리터러시(비판적 사용 역량) 강화가 필수라고 명시했다. 이는 AI 활용 자체를 독립된 ‘성적 요소’로 채점하라는 의미는 아니지만, AI를 학습 과정의 일부로 인정하고 교육·평가 방식도 이에 맞게 조정해야 한다는 방향을 제시한 것이다.
한국 대학도 이러한 관점이 필요하다. AI 활용 역량을 평가 항목 중 하나로 공식화하지 않더라도, 학생이 AI를 사용해 어떤 분석을 했고 어떤 판단을 내렸는지를 투명하게 드러내도록 요구하면 AI는 ‘부정행위의 도구’가 아니라 문제 해결 과정에서 합법적이고 정당한 학습 보조도구로 자리 잡을 수 있다.
현재 많은 대학이 AI 사용 기준을 두루뭉술하게 제시하고 있다. “교수 재량”, “과목 특성에 따라 허용 여부 결정”이라는 안내는 오히려 학생 혼란을 키우고 부정행위를 양산한다.
선진 대학들은 다음을 명확히 한다. △어떤 과제에서 AI 사용이 허용되는지 △허용 범위 어디까지인지 △학생이 제출물에서 AI 사용 사실을 어떻게 공표해야 하는지 △AI 활용이 학습 목표 달성에 어떤 조건으로 부합하는지
한국 대학 역시 학과·교과 단위가 아닌 대학 전체의 공식 AI 가이드라인을 마련해야 한다. 명확한 규칙은 혼란을 줄이고 부정행위를 예방하는 가장 직접적인 장치가 된다.
AI 기술이 시험과 과제를 뒤흔들면서 대학은 지금까지의 ‘부정행위 중심 규제’만으로는 더 이상 대응할 수 없다는 점을 분명히 확인했다. 최근 연세대·고려대 사례에서도 드러났듯, 문제는 단순히 “학생이 AI를 썼느냐, 안 썼느냐”가 아니라 AI 시대에 맞는 평가체계가 아직 마련되지 않았다는 구조적 문제다. 이 때문에 학생은 기준을 몰라 불안해하고, 교수는 판정 부담을 떠안고, 대학은 논란이 커질 때마다 뒤늦게 대응하는 악순환이 반복되고 있다.
따라서 이제 필요한 것은 “AI를 없애는 대학”이 아니라 “AI와 함께 평가를 재설계하는 대학”이다. 그 방향을 다음과 같이 제안한다.
더 이상 필기형 과제나 단순 보고서 위주 평가로는 학생의 실제 역량을 확인할 수 없다. AI가 대부분의 글을 충분히 자연스럽게 작성할 수 있는 시대인 만큼, 대학은 ‘AI로는 대체할 수 없는 역량’을 평가의 중심에 놓아야 한다.
구체적인 대안으로는 다음과 같다.
▲ 구술 평가(Oral Exam)·토론 기반 검증
학생이 작성한 보고서나 프로젝트를 직접 설명하도록 하면 AI 활용 여부와 무관하게 학생의 이해 수준을 명확히 파악할 수 있다. 영국·홍콩·싱가포르 등은 대학 입시 및 정규 수업평가에서 이미 구술평가를 넓게 활용하고 있다.
▲ 과정 기반 평가(Formative Assessment)
최종 결과물만 내는 방식이 아니라 초안–개선–최종 제출의 전 과정을 평가하면 AI가 대신해줄 수 있는 여지가 줄어든다.
▲ 현장·실습·디자인 평가 확대
실제 문제 상황을 해결하는 능력은 AI가 대체할 수 없는 고유한 인간 역량이다. 결국 대학이 평가를 바꾸지 않는 한, AI 부정행위 논란은 매 학기 반복될 수밖에 없다.
지금의 대학생은 AI를 금지한다고 해서 사용하지 않는 세대가 아니다. 따라서 대학은 학생에게 “쓰지 마라”를 반복할 것이 아니라 “책임 있게, 정확하게, 투명하게 사용할 줄 아는 역량”을 가르쳐야 한다.
▲ AI의 원리·한계·오류 가능성 이해 : 생성형 AI가 ‘그럴듯한 거짓’을 만들어내는 특성을 이해하지 못하면 오히려 학습 능력이 떨어질 수 있다.
▲ 저작권·표절·데이터 윤리 교육 필수화 : 해외 대학은 이미 AI 관련 윤리교육을 필수 이수요건으로 전환하고 있다.
▲ 실습 중심의 ‘AI 활용 수업’ 연계: 보고서 작성, 데이터 분석, 리서치 등 실제 수업 속에서 AI를 어떻게 활용·검증·기록하는지 배우면서 책임감 있는 사용습관이 만들어진다.
AI 리터러시는 이제 문해력·수리력처럼 기본 학습 역량의 일부가 되어야 한다.
대학이 AI 사용에 “허용/금지” 두 가지 선택지만 제시하는 시대는 끝났다. 이제는 사용 범위·방법·기록 방식까지 명확히 안내하는 구조로 전환해야 한다.
▲ 과목별 AI 사용 등급제(허용–부분 허용–금지) : 학생은 한눈에 “이 수업에서 AI를 어디까지 사용해도 되는지” 확인할 수 있다.
▲ AI 활용 공개(Disclosure) 의무화 : AI 도움을 받은 부분을 명시하도록 하면 부정행위는 줄고, 책임성과 투명성은 높아진다.
▲ 교수 가이드라인 제공 : 대학 차원에서 AI 활용 지침을 제공하면 교수별 기준이 제각각인 문제를 해결할 수 있다.
이런 정책은 AI를 적으로 보지 않고, 도구로서의 AI를 관리 가능한 체제로 전환하는 데 필수적이다.
지금의 AI-평가·학습 시스템은 대부분 민간 기업 중심이다. 하지만 교육은 공공재이므로, 대학은 AI 기반 플랫폼의 기준과 철학을 스스로 세울 필요가 있다.
▲ 대학 연합형 학습 분석 플랫폼 구축 :학습 데이터를 안전하게 관리하고, 개별 맞춤형 피드백이 가능하도록 표준화된 시스템을 공공적으로 마련해야 한다.
▲ 민간 기업과의 협력 시 데이터 윤리 원칙 준수 : 학생 데이터의 소유권은 학생에게 있으며, 기업의 2차 활용은 금지해야 한다.
▲ 검증된 AI 도구만 대학 내 공식 도구로 인정 : 무분별한 도구 사용은 오히려 학습 혼란을 초래한다.
공공성과 전문성이 결합된 플랫폼은 “사교육·민간기업 중심 AI 교육”으로 흐르는 것을 막는 최소한의 안전장치다.
생성형 AI를 둘러싼 대학가의 논쟁은 단순히 기술을 둘러싼 해프닝이 아니다. 이 논쟁은 한국 고등교육이 이제 더 이상 미룰 수 없는 질문, 즉 “대학은 무엇을 가르치고 무엇을 평가해야 하는가”라는 본질적 질문 앞에 섰다는 사실을 드러낸다.
지금까지 대학은 학생이 스스로 작성한 결과물을 중심으로 평가를 설계해 왔다. 그러나 생성형 AI가 보편화된 지금, ‘직접 작성 여부’만으로 학생의 역량을 판단하는 방식은 이미 유효기간을 다했다.
AI를 강하게 통제하면 일시적으로 안정은 찾을 수 있겠지만, 그 과정에서 학생의 창의성, 탐구심, 실제 문제 해결 역량 같은 본질적 능력은 제대로 드러나지 못한다.
이제는 AI를 억누르는 규제 중심의 접근을 뛰어 넘어, AI를 활용해 학생 스스로 더 깊게 사고하도록 이끄는 평가 체계를 설계해야 한다.
AI는 막아야 할 적이 아니라, 대학이 진짜로 길러야 하는 능력이 무엇인지 재정립하도록 만든 ‘거울’에 가깝다. AI가 대신할 수 없는 질문·분석·설명·구술·현장 기반 평가를 강화하는 순간, 대학은 오히려 AI 덕분에 더 깊고 정교한 역량 중심 교육으로 진화할 수 있다.
또한 이번 사태는 사회 전체에도 중요한 메시지를 던진다. AI 시대의 부정행위 문제는 기술의 문제가 아니라 신뢰의 문제이며, 신뢰는 통제가 아니라 투명성과 공정한 기준에서 시작된다는 사실이다.
대학이 AI 사용 규정을 명확히 하고, 학생과 교사가 함께 참여하는 책임 있는 AI 문화가 자리 잡을 때, AI는 배움을 위협하는 기술이 아니라 학습자 중심 교육으로 전환하는 동력이 될 것이다.
지금 대학이 해야 할 선택은 단순하다. AI를 경계의 대상으로 볼 것인가, 아니면 교육 철학을 재설계할 기회로 삼을 것인가.
답은 분명하다. AI는 시험의 적이 아니라, 교육이 다시 ‘왜 배우는가’를 묻도록 이끄는 전환점이다. 이 전환점을 올바르게 해석하고 제도와 평가를 혁신하는 대학만이 AI 시대에도 신뢰받는 교육 기관으로 자리 잡을 것이다.