생성형 AI 시대, 13세 미만 아동의 인지적 자립을 위한 조건
생성형 AI 서비스에 적용되는 13세 미만 사용 제한 규정은 단순한 유해 정보 차단 목적을 넘어, 아동의 기초 인지 발달 과정을 보호하기 위한 제도적 장치에 가깝다.
텍스트나 이미지를 자동 생성하는 기술이 일상화된 현재, 아동에게 필요한 것은 완성된 정보의 빠른 습득이 아니라 정보를 수집하고 분석하며 재구성하는 훈련 과정 자체다.
따라서 보호자와 교육자는 일방적으로 기계를 막는 통제자가 아니라, 기술적 접근을 허용하되 산출물을 함께 평가하는 검증 참여자로 나서야 한다.

청소년 일상에 스며든 기술과 입법 공백의 현주소
청소년들은 이미 단순한 호기심을 넘어 교육적 필요에 따라 기술을 적극적으로 도입하고 있다. 미국 커먼센스미디어 조사에 따르면 13세에서 18세 청소년의 70%가 생성형 AI 도구를 사용한 경험이 있으며, 53%는 숙제 등 학습 과제에 도움을 받는다.
번역(41%)이나 브레인스토밍(38%) 목적으로도 널리 활용하는 추세다. 그러나 교육 현장과 제도의 대응은 기술 확산 속도에 미치지 못하고 있다. 청소년의 60%가 학교에 관련 사용 규칙이 없거나 모른다고 답했고, 과제에 기계를 활용한 학생의 46%는 교사 허락을 받지 않았다.
자녀의 기술 사용 여부를 인지한 학부모 역시 37%에 불과하다. 국내의 경우 2022년에 발의된 인공지능교육진흥법안이 아직 국회에 계류 중인 상태로, 가정과 학교 모두에서 명확한 가이드라인 없이 정책적 공백이 발생하고 있다.
정보 처리 과정 단축과 아동 인지 발달의 취약성
무방비한 기술 노출은 뇌 발달에 실질적인 영향을 미칠 가능성이 크다. 매사추세츠공과대학 연구진이 18세에서 39세 성인 54명을 대상으로 실험한 결과, 대형언어모델을 활용한 집단은 외부 도구를 쓰지 않은 집단에 비해 비판적 사고에 관여하는 뇌 영역 간 연결성이 가장 낮게 나타났다.
연구진은 도구 의존도가 높아질수록 단기적으로는 인지 자원을 아끼는 것처럼 보이나, 장기적으로는 사고력과 기억력이 저하되는 인지적 부채가 축적된다고 지적했다.
성인에게도 나타나는 이러한 부작용은 발달 단계에 있는 아동에게 더욱 치명적일 수 있다. 덴버대학교 피영 킴 아동심리학 교수는 어린아이일수록 대상을 의인화하는 경향이 커서 기계가 제시하는 정보에 쉽게 동화되며, 이는 아동의 인지 사고를 한층 취약하게 만들 우려가 있다고 경고한다.
환각 현상의 위험성과 산업계의 안전장치 도입
프롬프트를 입력하자마자 즉각적으로 출력되는 논리정연한 문장을 무비판적으로 수용하면, 스스로 자료를 탐색하고 논리를 구조화하는 필수 학습 과정이 축소될 여지가 있다.
텍스트를 직접 구성해 보지 않은 상태에서는 정보의 논리적 오류를 잡아내는 교정 능력마저 저하될 확률이 높다. 특히 학습 데이터의 한계로 인해 사실이 아닌 정보를 꾸며내는 환각 현상이 포함된 답변을 사실로 오인하게 될 경우 문제는 더욱 심각해진다.
기술의 잠재적 위험성이 커지면서 미국 연방거래위원회는 주요 빅테크 기업을 대상으로 안전성 조사를 시작했고, 이에 맞춰 오픈AI는 18세 미만 전용 보호 모델의 출시를 예고하는 등 산업계 전반에서 미성년자 보호 조치의 필요성을 자각하고 있다.
도구 조작에서 산출물 교차 검증으로의 교육 전환
미래 교육의 방향성은 기계의 조작법 숙달이 아니라, 도출된 정보를 의심하고 자신의 언어로 다시 정리하는 정보 재구성 능력에 있다. 경제협력개발기구는 디지털 교육 전망 2023 보고서를 통해 알고리즘의 편향성을 경계하고 비판적 사고와 윤리적 판단력 같은 인간 중심 역량을 최우선에 두는 지침 도입을 권고했다.
이를 실천하기 위해 보호자는 두 단계의 개입을 구조화해야 한다.
첫째, 기계에 질문하기 전 오프라인 상태에서 대화하며 질문을 구체화한다.
둘째, 출력 후 결과물의 출처를 함께 검색하며 사실 여부를 교차 검증한다.
나아가 청소년들이 기계를 단순한 정답 도출기로 쓰지 않도록, 정보 요약이나 브레인스토밍을 위한 보조 도구로 한정하여 지도하는 실무적 접근이 반드시 병행되어야 한다.
[전문 용어 사전]
대형언어모델(LLM): 방대한 양의 텍스트 데이터를 미리 학습하여 인간의 언어 규칙과 패턴을 이해하고 자연스러운 문장을 생성할 수 있는 인공지능 구조.
인지적 부채: 당장의 학업이나 업무 처리를 위해 외부 도구에 전적으로 의존함으로써, 장기적으로 개인의 비판적 사고력과 문제 해결 능력이 퇴화하는 현상.
프롬프트: 인공지능 모델이 특정 작업이나 답변을 수행할 수 있도록 사용자가 목적에 맞게 구체적으로 입력하는 질문이나 지시어.
환각 현상: 인공지능이 학습 데이터의 한계나 알고리즘의 오류로 인해 사실과 다르거나 전혀 근거 없는 정보를 마치 사실인 것처럼 조작하여 출력하는 현상.
교차 검증: 단일 정보원이나 기계의 산출물에만 의존하지 않고, 신뢰할 수 있는 다른 문서나 데이터 등 여러 출처를 상호 비교하여 정보의 정확성을 확인하는 절차.
[핵심 참고 자료]
경제협력개발기구(OECD) / 국회도서관 국가전략정보서비스 요약본
미국 심리학회 관련 연구 / 국내 언론 보도
한국과학창의재단 동향리포트


















