서울시교육청, 생성형 AI 7대 위험 가이드라인 배포

할루시네이션·과의존·개인정보 — 공교육 첫 AI 안전 체계 구축

서울시교육청, 생성형 AI 7대 위험 가이드라인 배포

서울시교육청이 AI·에듀테크의 공교육 활용 방향을 담은 가이드라인을 개발해 각급 학교에 배부했습니다. 할루시네이션·과의존·개인정보 유출 등 생성형 AI의 7대 위험 요소에 대응하는 별도 안전 가이드를 포함한 것이 특징으로, 한국 공교육 최초의 체계적 AI 안전 지침으로 평가받습니다.

5대 원칙과 3단계 절차

가이드라인은 인간의 존엄성·성장·안전을 최우선 가치로 삼고, 주도성·합목적성·포용성·안전성·투명성 등 5대 원칙을 교육 현장에 구체적으로 적용하도록 설계됐습니다. AI 도구 활용 전 과정에 '활용 전 준비–활용 중 검증–활용 후 성찰'의 3단계 절차를 적용해 학습자의 주도성과 책임성을 강화합니다. 도입 단계에서는 학교·학년·교사 개인 등 3단위별 사전 점검 기준을 제시해 무분별한 기술 도입을 차단합니다.

"학생이 AI를 능동적으로 활용해 창의성과 비판적 사고를 확장하는 인간 중심 AI 교육을 지원합니다."

— 서울시교육청 가이드라인 배포 취지

생성형 AI 7대 위험 대응 전략

기존 에듀테크 가이드라인과 구별되는 핵심은 '생성형 AI 중점 안전 가이드'입니다. 할루시네이션(허위 정보 생성), 과의존, 개인정보 유출을 포함한 7대 위험 요소를 명시하고 각 위험에 대한 대응 전략을 제시했습니다. 초·중·고 발달 단계별 도입 원칙도 차등 적용해, 저연령 학생일수록 교사 감독 비중을 높이도록 했습니다. OECD가 2024년 기준 한국을 생성형 AI 학교 활용을 명시적으로 권장하는 5개국 중 하나로 분류했다는 점도 이 가이드라인의 국제적 맥락을 뒷받침합니다.

실시간 지원과 정기 보완 계획

서울시교육청은 senGPT와 연계한 전용 챗봇을 통해 현장 교사들의 질의에 실시간으로 대응할 계획입니다. 아울러 매월 현장 모니터링을 실시하고 기술 발전과 교육 환경 변화에 맞춰 가이드라인을 정기·수시로 보완할 방침입니다. 가이드라인이 살아있는 문서로 기능하도록 설계했다는 점에서, 일회성 지침이 아닌 지속적 관리 체계를 지향합니다.

본 기사는 AI가 작성했습니다 (AI 기본법 제31조)