AI 기술이 일상 깊숙이 스며든 가운데, 청소년이 보다 안전한 디지털 환경에서 성장할 수 있는 방안을 모색하기 위한 자리가 열렸다. 12월 3일 서울 호텔 나루 서울 엠갤러리에서 ‘2025 Digital SAFE 포럼’이 개최돼 교육계와 연구기관, 플랫폼 기업, 현장 전문가들이 함께 AI 시대 청소년 보호 전략을 논의했다. 포럼은 교육부와 17개 시·도교육청이 주최하고, 한국교육학술정보원(KERIS)과 범부처 사이버폭력 예방 및 대응 실무협의체가 공동 주관했다.
이번 포럼의 주제는 ‘AI시대, 청소년이 안전한 디지털 환경 조성’으로, 기조강연과 두 개의 세션, 그리고 학생·학부모·교사·범부처 관계자가 함께 참여하는 공동 선언 순으로 진행됐다. 참가자는 교원과 학생, 학부모, 유관기관 및 플랫폼 기업 관계자 등 사이버폭력 예방에 관심 있는 시민 누구나로, 온·오프라인 병행 방식으로 운영됐다.
“AI 시대, 새로운 사회 시스템과 청소년의 역량 필요”
기조강연에서는 태재대학교 염재호 총장이 ‘AI기반 사회의 변화와 대응: 청소년과 안전한 AI문화’를 주제로 발제했다. 염 총장은 21세기를 문명사적 대전환기로 규정하며, 디지털·네트워크·AI로 대표되는 새로운 ‘DNA’의 변화가 산업 구조와 일, 삶의 방식을 근본적으로 바꾸고 있다고 짚었다.
특히 대량생산 제조업 중심 사회에서 ‘긱 이코노미’로의 전환, 기존에 없던 직업의 등장, 주당 노동시간 감소 등 변화 속에서 청소년에게는 스스로 문제를 정의하고 질문을 던지는 ‘빅 퀘스트(Big Quest)’ 역량과 융합(Convergence), AI와의 공진화(co-evolution) 능력, 그리고 소프트 스킬과 묵시지적 지식이 중요해진다고 강조했다.
염 총장은 또한 개인 미디어 환경에서 사실과 허위정보, 환각(hallucination)을 구분하기 어려운 현실을 지적하며, 청소년을 과도한 AI 의존과 유해 콘텐츠로부터 보호하기 위한 사회적 미션으로 △무한 스크롤과 과도한 숏폼 소비 제한 △딥페이크 차단 △환각 방지를 위한 지원 시스템 구축 등을 제안했다.
세션 1 “기업, 청소년 디지털 안전망 구축의 책임 커져”
세션 1에서는 네이버 클라우드 김용민 이사가 ‘AI시대 기업의 청소년 안전망 구축 방안’을 발표했다. 김 이사는 생성형 AI가 수백 가지 유형의 위험을 내포하고 있으며, 편향·유해 콘텐츠 생성·허위정보·개인정보 노출·보안 취약성 등 대표 위험 요인을 짚으며 AI 안전 문제가 기업의 핵심 과제로 떠올랐다고 설명했다.
이어 아동·청소년 정신건강 악화와 우울·불안 증가, 미래 인재 손실 가능성을 구체적인 수치로 제시하며, 청소년을 위한 안전망 구축이 더 이상 선택이 아닌 기업의 사회적 책임이자 ESG 가치와 직결된다고 강조했다. 그는 교육·멘토링, 정신건강 지원, 자립 프로그램, 유해 콘텐츠 관리 등에서 기업의 적극적인 역할이 필요하다고 제안했다.
또한 AI 안전을 둘러싼 국제 협력 동향과 국내외 AI 안전 정상회의, AI 기본법 제정, 글로벌 AI 안전 연구소 네트워크 출범 등 정책 흐름을 공유하며, 기업 내부에서도 이에 부합하는 거버넌스·윤리 원칙·안전 프로세스를 갖추어야 한다고 설명했다. 네이버를 비롯한 국내 IT 기업들의 AI 윤리 준칙과 전담 조직 신설 사례도 함께 소개됐다.
뒤이어 진행된 토론에서는 좌장 한유경 소장(이화여자대학교 학교폭력예방연구소)의 진행 하에 ‘AI 시대, 청소년 보호 패러다임 전환의 필요성과 과제’, ‘게이미피케이션 요소 기반 예방 솔루션과 교실 내 AI·디지털 윤리 교육의 연계’, ‘생성형 AI 시대 우리 아이들을 안전하게 지키기 위한 사회 구성원 모두의 역할’ 등이 논의됐다.
해외 극단적 사례 경고…”AI 과의존, 정신건강 위협”
정보통신정책연구원 문정욱 실장은 AI 챗봇이 청소년에게 정서적 조언자나 정답 제공자로 인식되면서 발생하는 위험성을 지적했다. 그는 해외에서 AI 챗봇과의 대화 후 극단적 선택에 이른 사례를 언급하며, AI 과의존이 정신 건강 악화로 이어질 수 있다고 경고했다.
문 실장은 네이버의 ‘그린인터넷’ 사례를 긍정적으로 평가하며, 청소년 유해정보 차단, 자살·자해 콘텐츠 생성 금지, CLOVA X 안전설계 등 기술 기반 보호 활동을 투명하게 공개하는 것이 신뢰 형성에 중요하다고 밝혔다.
그는 단순 필터링으로는 한계가 있다며, 인공지능기본법의 기본권 영향평가를 적극 활용해 서비스 출시 전 청소년에게 미치는 영향을 구조적으로 점검할 것을 제안했다. 또한 교육 측면에서는 AI를 잘 활용하는 것을 넘어 책임 있고 윤리적으로 사용하는 데 초점을 둔 AI 윤리·리터러시 교육이 필요하다고 강조했다.
“사후 대응은 한계”…예방 중심 통합 모델 제안
가천대 게임·영상학과 정무식 교수는 사후 대응 중심 접근의 한계를 지적하며, 위험 발생 이전 단계에서 탐지와 교육이 결합된 게이피케이션 기반의 적극적인 예방 콘텐츠 설계 및 도입의 중요성을 강조했다.
정 교수는 “특히 바이브 코딩 등 AI와 플랫폼 기술의 발전에 따라 어리고 젊은 창작자들의 등용문이 넓어졌다”며 “핵심은 건강한 생태계에서 건강한 콘텐츠가 만들어진다는 점”이라고 AI기반 디지털 창작자 윤리로부터 AI감수성, AI리터러시 교육으로 이어지는 초등 교육의 중요성을 다시금 강조했다.
또한 이를 위해서는 개별 플랫폼 서비스 내에 기초 소양 및 윤리 관련 콘텐츠의 튜토리얼 등을 구성하고 학생들이 이를 수료 시 뱃지·스킨·디지털 굿즈를 획득하는 등 게이미피케이션 요소와 연계하여 효용성을 극대화할 수 있는 현장 통합 모델을 제안했다.
“윤리교육이 지속가능한 근원적 해결책”
제주대 컴퓨터교육과 조정원 교수는 법률·기술적 접근의 한계를 지적하며, 윤리교육이 지속가능한 근원적 해결책이라고 강조했다.
조 교수는 AI 챗봇 ‘이루다’ 사례를 언급하며, 서비스 오픈 직후 혐오 발언과 개인정보 유출 문제로 중단·재개발이 이뤄진 점을 들어 개발 단계부터 윤리적 문제를 최소화하는 것이 가장 합리적이고 경제적인 방식이라고 평가했다.
그는 초·중등 교육에서 AI 교육과 AI 윤리 교육을 통합해, 문제해결의 각 단계에서 윤리적 고려가 자연스럽게 이루어지도록 하는 AI 통합 교육이 필요하다고 주장했다. 특히 컴퓨팅 사고력 교육 속에서 윤리적으로도 가장 좋은 해결 방안이 곧 최고의 해결책임을 깨닫게 해야 한다고 강조했다.
조 교수는 궁극적으로 청소년의 디지털·AI 소양은 단순 활용 능력이 아니라 윤리적 활용 능력까지 포함되어야 한다고 거듭 밝혔다.
민·관·학 협력 통한 다층 안전망 구축 필요
전문가들은 기업의 투명한 정보 공개와 기술적 보호 기능 강화, 정부의 법·제도 기반 마련, 학교와 시민사회의 참여형 교육 프로그램 운영 등 다층적 접근이 필요하다는 데 의견을 모았다.
특히 디지털 역기능 문제가 여전히 남아 있는 상황에서, 민·관 협력 논의의 장이 더 확대되어야 한다는 제안도 나왔다.
전문가들은 단순 차단 중심의 규제에서 나아가, 청소년이 스스로 판단하고 책임 있게 AI를 활용할 수 있도록 돕는 교육과, 플랫폼 설계 단계에서부터 보호 장치를 내재화하는 ‘선제적 보호’로의 전환을 주문하고 이를 통해 통해 청소년이 AI를 안전하고 윤리적으로 활용할 수 있는 환경을 조성해야 한다고 입을 모았다.
세션 2 “진화하는 사이버폭력, 교육·법·현장 공조 필요”
세션 2의 발제는 한국형사법무정책연구원 안성훈 실장이 맡아 ‘청소년 대상 변화하는 사이버폭력과 선제적 대응 방향 – 신종 사이버불링을 중심으로’를 발표했다. 안 실장은 기술 발전과 함께 사이버폭력이 오프라인에서 온라인, 그리고 새로운 플랫폼과 형식으로 확장되며, 피해 양상이 더욱 은밀하고 반복적으로 나타나고 있다고 분석했다.
토론에서는 정여주 교수(한국교원대학교)가 스마트 미디어 리터러시 교육을 통한 예방 방안을, 김진욱 변호사가 최신 사례를 바탕으로 한 법·제도적 과제를, 박진무 경위(서울경찰청 구로경찰서)가 수사 현장에서 체감하는 새로운 유형의 사이버폭력과 대응의 한계를 소개했다. 이들은 학교·가정·플랫폼·수사기관이 정보를 공유하고, 신고·상담·지원 체계를 촘촘히 연계해야 실질적인 피해 예방과 2차 피해 방지가 가능하다고 입을 모았다.
“디지털 SAFE를 위한 약속”… 민·관 공동선언으로 마무리
포럼은 학생·학부모·교사·범부처 관계자가 함께 ‘디지털 SAFE를 위한 우리의 약속’을 낭독하는 공동 선언으로 마무리됐다. 참석자들은 AI 시대의 디지털 공간이 청소년에게 또 하나의 “생활 공간”이 된 만큼, 기술 개발자와 기업, 정책 입안자, 교사와 부모, 그리고 청소년 자신까지 모두가 역할을 나누어야 한다는 데 공감했다.
이번 2025 Digital SAFE 포럼은 AI가 만들어낼 새로운 기회와 함께 커지는 위험 속에서, 청소년을 보호하고 건강한 디지털 문화를 만들어가기 위한 사회적 논의를 본격화했다는 점에서 의미를 남겼다. 포럼에서 제시된 기업의 안전망 구축, 교육 현장의 미디어 리터러시 강화, 법·제도 개선과 현장 대응의 정교화 논의가 향후 구체적인 정책과 서비스로 이어질지 주목된다.

