기사 메일전송
[AI시대, 김현주의 교육ON] AI 리터러시 넘은 ‘AI 책임 리터러시’ — 학생과 교사, 사회인이 갖춰야 할 윤리 역량
  • 기사등록 2025-12-15 15:58:41
  • 기사수정 2025-12-15 17:19:03
기사수정

그래픽=김현주 기자

[한국의정신문 김현주 기자]


AI가 일상과 교육, 업무의 전 영역으로 확산되면서 ‘AI를 사용할 줄 아는가’라는 질문은 이제 출발점에 불과해졌다. 생성형 AI가 글을 쓰고 문제를 풀고 결정을 돕는 시대에, 진짜 중요한 질문은 그 다음이다. “우리는 AI를 어떤 방식으로 책임 있게 사용할 수 있는가.” 최근 교육부가 ‘AI 기본소양 및 윤리교육 강화 방침’을 발표하며, 기술적 활용 능력을 넘어 윤리적 판단과 시민적 책임을 포함한 심화된 형태의 AI 리터러시가 교육의 중심에 놓이기 시작했다.


이는 교육부가 2026년 교육정책 방향에서 ‘AI를 보편적으로 활용하되, 비판적 판단과 책임 역량을 함께 기르는 교육’을 핵심 과제로 제시한 배경과 정책적 문제의식이 맞물린다. AI 교육의 무게중심이 활용 능력에서 책임의 기준으로 이동하고 있음을 정책이 분명히 보여주고 있다. 



■ 기술 능력이 아니라, ‘책임의 문제’가 교육의 중심으로 이동하다


그동안 국내 교육계에서 말해온 AI 리터러시는 주로 AI 작동 원리 이해, 생성형 AI 활용 능력, 데이터 처리 기초 역량 등을 의미해 왔다. 하지만 최근 현실은 그보다 훨씬 복잡하다.


학생들은 과제에 AI를 사용해도 되는지, 한다면 어느 수준까지가 정당한지 판단하기 어렵고 교사들은 AI 활용이 학습 성취를 가리는지, 혹은 왜곡하는지 판단해야 하며 사회인은 업무와 창작에서 AI 사용이 어떤 윤리적 책임을 수반하는지 숙고해야 한다.


따라서 교육부가 강조한 ‘AI 윤리교육 강화’는 단순한 교과 추가가 아니라 AI 시대 시민성을 재정의하는 작업에 가깝다. 국제적으로도 OECD, UNESCO는 기존의 디지털 리터러시 개념에서 더 나아가, 책임성(responsibility), 투명성(transparency), 공정성(fairness)을 핵심 가치로 두는 ‘책임 기반 AI 리터러시’를 주요 프레임으로 제시하고 있다.



■ AI 책임 리터러시가 필요한 이유 — 4가지 사회적 변화


AI 책임 리터러시가 단순한 교육 흐름이 아니라 ‘시급한 사회적 과제’가 되는 이유는 다음과 같다.


1) AI 출력의 불확실성과 편향 문제

생성형 AI는 그럴듯한 설명을 하지만 틀린 정보를 제시하는 경우가 많다. 또한 학습 데이터의 편향이 결과물에 그대로 반영되기도 한다. 학생과 교사는 “정답처럼 보이지만 사실은 오류일 수 있다”는 점을 비판적으로 판단할 수 있어야 한다.


2) 데이터 프라이버시와 감시 위험 증가

AI는 개인의 대화, 학습 패턴, 업무 데이터를 축적하고 분석한다. ‘학습 데이터는 누구의 것인가’라는 질문은 교육뿐 아니라 직장과 도시에서도 중요한 이슈가 되었다. 개인정보 보호와 데이터 주권은 AI 책임 리터러시의 핵심 요소다.


3) 부정행위와 창작 윤리의 혼란

이미 대학에서는 AI 활용 부정행위가 주요 이슈로 떠올랐다. 기업에서는 AI 생성 이미지·문서의 저작권 논쟁이 늘고 있다.


AI 사용을 금지하는 것만으로 문제를 해결할 수 없으며, 정당한 활용과 부정행위의 기준을 ‘사회 전체가 합의’해야 한다.


4) 미래 직업 역량의 본질 변화

AI가 기술적 업무를 대신하면서 인간의 역할은 판단·의사결정·책임이 중심이 되는 방향으로 이동하고 있다. 따라서 AI를 ‘잘 쓰는 사람’보다 ‘책임 있게 쓰는 사람’이 더 중요한 인재가 된다.



■ 학생·교사·사회인이 갖춰야 할 ‘AI 책임 리터러시’ 핵심 요소


책임 기반 AI 리터러시는 단순히 AI를 잘 다루는 기술이 아니라, AI와 함께 살아가는 사회 구성원으로서의 판단 능력과 태도를 포함한다. 연령과 역할에 따라 강조점은 다르지만, 공통적으로 다음 다섯 가지 역량이 핵심을 이룬다.


1) 비판적 이해(Critical AI Literacy)

AI가 만들어내는 결과물은 점점 더 정교해지고 있다. 문제는 그럴듯한 문장과 논리 구조가 반드시 사실이나 진실을 보장하지는 않는다는 점이다. 비판적 이해란 AI가 제공하는 답변을 ‘정답’으로 받아들이는 것이 아니라, 참고 자료이자 하나의 제안으로 인식하는 태도를 의미한다.


학생은 AI가 제시한 정보의 출처를 확인하고, 오류 가능성을 점검할 수 있어야 하며, 교사는 AI의 한계와 작동 원리를 설명할 수 있어야 한다. 사회인 역시 AI가 제공한 판단이나 추천이 어떤 데이터와 알고리즘에 기반했는지 질문할 수 있어야 한다. 이는 정보 판별 능력을 넘어, AI 시대의 새로운 비판적 사고력이라 할 수 있다.


2) 책임 있는 사용(Responsible Use)

AI 책임 리터러시의 핵심은 ‘사용 여부’가 아니라 사용의 맥락과 책임에 있다. 과제, 시험, 보고서, 업무 문서 등에서 AI를 어디까지 활용할 수 있는지 판단하는 능력은 더 이상 개인의 양심 문제로만 남겨둘 수 없다.


책임 있는 사용이란, AI가 사고를 대신하는 도구가 아니라 사고를 확장하는 보조 수단임을 인식하는 것이다. 학생은 자신의 학습 성과를 AI에게 전가하지 않는 선을 구분할 수 있어야 하고, 교사는 명확한 기준과 가이드라인을 제시해야 한다. 사회적으로는 AI 활용 사실을 숨기지 않고 투명하게 드러내는 문화가 중요하다. 이는 AI 시대의 공정성과 신뢰를 지키는 기본 규범이다.


3) 데이터 윤리(Data Ethics)

AI는 데이터 없이는 작동하지 않는다. 학습 기록, 대화 내용, 위치 정보, 행동 패턴 등 개인의 데이터는 AI 성능을 높이는 핵심 자원이 된다. 데이터 윤리는 이러한 현실 속에서 ‘내 정보는 어떻게 사용되고 있는가’를 이해하고 통제할 수 있는 능력을 의미한다.


학생과 학부모는 데이터 수집에 대한 동의 여부, 활용 목적, 보관 기간, 삭제 권리에 대해 인식해야 하며, 교사와 기관은 최소한의 데이터만 수집하고 안전하게 관리해야 할 책임이 있다. 데이터 윤리는 개인정보 보호 뿐만이 아닌, 디지털 시대의 자기결정권을 지키는 시민 역량이다.


4) 저작권과 창작 윤리(Creative Integrity)

생성형 AI는 기존의 수많은 텍스트, 이미지, 음악을 학습해 새로운 결과물을 만들어낸다. 이 과정에서 원저작자의 권리, 창작물의 독창성, 결과물의 소유권 문제가 복잡하게 얽힌다.


저작권과 창작 윤리에 대한 이해는 AI가 만들어준 결과물을 그대로 사용하는 것이 정당한지, 수정·재구성·출처 표기가 필요한지 판단할 수 있는 기준을 제공한다. 학생에게는 ‘베껴 쓰기’와 ‘참고 활용’의 경계를 가르치는 일이며, 사회적으로는 창작자의 권리를 존중하는 디지털 문화 형성과 직결된다. 이는 AI 시대에도 창작의 가치가 존중받기 위한 최소 조건이다.


5) 사회적 영향 이해(Civic AI Literacy)

AI는 개인의 학습과 업무를 넘어 사회 구조 전반에 영향을 미친다. 채용 알고리즘의 공정성, 추천 시스템의 편향, 자동화로 인한 일자리 변화, 공공 서비스에서의 AI 활용 문제는 모두 시민적 판단이 필요한 영역이다.


사회적 영향 이해란 AI 기술이 누구에게 유리하고, 누구에게 불리하게 작동할 수 있는지를 살펴보는 시각이다. 이는 민주주의, 인권, 사회적 약자 보호와도 연결된다. AI 책임 리터러시는 결국 기술에 국한 된 것이 아닌, AI 시대 시민으로서 어떤 선택을 할 것인가를 고민하게 만드는 역량이다.



■ 교육 현장의 변화 — “AI를 가르치는 것이 아니라, AI를 둘러싼 책임을 가르친다”


책임 기반 AI 리터러시 교육은 특정 교과나 단발성 프로그램으로 해결될 수 없다. 중요한 것은 AI 활용이 자연스럽게 스며든 수업 구조 속에서, 학생이 스스로 판단하고 설명하도록 만드는 것이다. 교육 현장의 변화는 다음과 같은 방향에서 구체화될 필요가 있다.


① 과목 주입이 아닌 ‘수업 전반의 통합 모델’로 전환

AI 윤리는 별도의 교과로 분리해 가르치기보다, 국어·사회·과학·진로 등 기존 교과 속에서 실제 사례와 함께 다뤄져야 한다.


예를 들어 국어 수업에서는 AI가 생성한 글과 학생이 직접 쓴 글을 비교하며 표현의 책임과 출처 문제를 토론하고, 사회 수업에서는 알고리즘 추천이 여론 형성에 미치는 영향을 비판적으로 분석할 수 있다. 과학 수업에서는 AI의 예측 결과가 언제 오류를 낳는지 검토하며, 진로 수업에서는 직업 세계에서 AI 사용의 윤리적 기준을 고민하는 방식이 가능하다.


이처럼 AI는 가르치는 대상이 아니라, 사고를 촉발하는 도구가 되어야 한다.


② 학교가 스스로 설계하는 ‘책임 있는 AI 활용 기준’

책임 리터러시는 규칙 없는 자율이 아니라, 공동체가 합의한 기준 위에서 작동한다.


학교별로 과제·보고서·수행평가·시험에서 AI 활용이 가능한 범위와 금지되는 행위를 명확히 규정한 ‘AI 활용 가이드라인’을 마련할 필요가 있다. 단순히 ‘사용 금지’가 아니라, 어느 단계까지는 허용되고 어떤 경우에 부정행위가 되는지를 구체적으로 제시해야 학생도 판단 기준을 학습할 수 있다. 이는 통제의 문제가 아니라, 책임을 학습하는 교육 과정에 가깝다.


③ 교원 연수의 대대적 개편 — 기술보다 ‘판단 기준’을 중심으로

교사에게 요구되는 역량 역시 달라지고 있다. 단순한 AI 도구 사용법 연수가 아니라, 수업과 평가에서 AI 활용을 어떻게 판단하고 지도할 것인가에 대한 윤리적 기준 연수가 필요하다.


교육부가 2026년부터 교과 연계형 AI 윤리 콘텐츠 개발과 질문 중심 수업 확대를 함께 추진하겠다고 밝힌 점은, AI 책임 리터러시가 선언에 그치지 않고 수업 구조 전반의 변화로 이어져야 함을 시사한다. 이는 그동안 교사 개인의 판단에 맡겨졌던 문제를 공적 교육체계 안으로 끌어온 의미 있는 전환이다.


④ 생성형 AI 활용의 ‘투명성’을 기본 윤리로 교육

학생에게는 AI를 사용하지 않는 것이 윤리가 아니라, 사용했다면 드러내는 것이 윤리라는 원칙을 분명히 가르쳐야 한다. 과제나 보고서에 AI 활용 여부와 활용 범위를 명시하도록 하는 교육은 책임 있는 사용을 위한 최소한의 장치다.


해외 대학에서 확산되고 있는 ‘AI Disclosure 정책’처럼, 투명성을 기본 관행으로 정착시킬 때 AI는 부정행위의 도구가 아니라 학습을 보조하는 공적 도구로 자리 잡을 수 있다.



■ 사회 전체의 과제 — 시민 AI 윤리의 시대가 열린다


AI 책임 리터러시는 학교 안에서만 완성될 수 있는 과제가 아니다. 기업, 공공기관, 지역사회, 그리고 일상 속 시민 모두가 함께 공유해야 할 새로운 공공 윤리의 영역이다.


기업은 업무 효율이라는 이유로 AI 활용을 확대하면서도, 그 과정에서 발생할 수 있는 편향과 차별, 저작권 침해, 책임 소재 문제를 함께 점검해야 한다. AI가 생성한 결과물이 어떤 판단을 거쳐 사용되었는지 설명할 수 있는 투명성은 이제 선택이 아니라 기업 신뢰의 조건이 되고 있다.


공공기관 역시 예외가 아니다. 행정과 복지, 교육, 치안 영역에서 알고리즘이 활용될수록 시민은 “왜 이런 결정이 내려졌는가”를 물을 권리를 갖는다. 알고리즘의 효율성만큼이나, 설명 가능성과 시민의 이해 가능성을 확보하는 일이 중요해지고 있다.


성인의 일상 또한 AI 윤리에서 자유롭지 않다. 검색 결과, 추천 콘텐츠, 자동 생성 이미지와 글은 정보 왜곡과 혐오 확산, 저작권 침해로 이어질 수 있다. AI를 무비판적으로 소비하는 태도는 개인의 문제를 넘어 사회적 신뢰를 약화시키는 요인이 된다.


따라서 성인을 대상으로 한 시민 AI 윤리 교육은 기술 교육이 아니라 책임 있는 선택과 절제의 문제로 다뤄질 필요가 있다.


AI는 더 이상 기술 전문가만의 영역이 아니다. 어떤 정보를 믿을 것인지, 어떤 도구를 사용할 것인지, 그 결과에 어떤 책임을 질 것인지는 시민 모두가 함께 감당해야 할 공적 판단의 문제가 되었다. 지금 우리는 기술의 시대를 넘어, 시민 AI 윤리의 시대로 진입하고 있다.



■ AI 책임 리터러시가 열어갈 미래


AI를 잘 쓰는 사회는 기술적으로 앞서가는 사회가 아니라, 책임 있게 사용하는 기준을 스스로 세울 수 있는 사회다.


한국 교육이 지금 강조해야 할 것은 단순한 AI 활용 능력이 아니라 학생·교사·사회인이 함께 공유하는 책임과 윤리의 문해력이다.


교육부의 2026년 교육정책 방향은 AI를 ‘가르칠 것인가’의 문제를 넘어, 어떤 시민을 길러낼 것인가라는 질문을 교육의 중심으로 끌어올렸다. 이제 정책의 성패는 기술 도입 여부가 아니라, 교실과 사회에서 이 책임의 기준이 실제로 작동하느냐에 달려 있다.


AI 시대의 교육은 결국 다음 질문을 남긴다. “우리는 어떤 책임을 지는 시민을 길러낼 것인가.”
이 질문에 답하는 과정에서 한국의 AI 교육은 기술을 넘어선 새로운 단계로 나아가게 될 것이다.



한국의정신문 김현주 기자

0
기사수정
  • 기사등록 2025-12-15 15:58:41
영상뉴스더보기
확대이미지 영역
  •  기사 이미지 청년내일저축계좌, 놓치면 손해!
  •  기사 이미지 정치 집회 속에서 휘둘리지 않는 법!
  •  기사 이미지 [김을호의 의정포커스] 정치 불신, 왜 심각해 졌을까?
최신뉴스더보기
모바일 버전 바로가기