
초록우산 이슈브리프 플랫폼 ‘사전 위험평가 제도’ 도입 필요성 제기 아동·청소년이 이용하는 디지털 플랫폼에서 유해 콘텐츠 노출이 반복되고 있지만, 이를 관리·통제할 제도적 장치는 여전히 사후 대응에 머물러 있다는 지적이 제기됐다. 신고와 삭제 중심의 대응으로는 알고리즘을 통해 확산되는 유해 콘텐츠를 막기 어렵다는 것이다. 초록우산이 지난 10일 발간한 이슈브리프에서 아동·청소년 보호를 위해 ‘플랫폼 위험평가 제도’ 도입이 필요하다고 밝혔다. 문제의 핵심은 개별 콘텐츠가 아니라, 유해 콘텐츠가 반복적으로 노출되는 플랫폼의 구조와 설계 자체에 있다는 주장이다. 초록우산이 지난해 말 만 14세 이상 중·고등학생 1000명을 대상으로 실시한 설문조사에 따르면, 쇼트폼 플랫폼을 이용하는 아동·청소년의 53.4%가 이용 중 유해 콘텐츠를 접한 경험이 있다고 답했다. 유입 경로의 80.3%는 추천 알고리즘이었다. 이용자가 직접 검색하지 않아도 알고리즘에 의해 유해 콘텐츠가 노출되는 구조가 작동하고 있다는 의미다. 노출된 유해 콘텐츠 유형을 보면 성 관련 콘텐츠가 42.7%로 가장 많았고, 섭식장애, 마약·도박, 자살·자해 관련 콘텐츠가 뒤를 이었다. 이는 단순한 일탈 콘텐츠를 넘어, 아동·청소년의 안전과 정신 건강에 직접적인 영향을 미칠 수 있는 영역이다. 초록우산은 가상 아동 계정을 활용한 실증 실험 결과도 함께 공개했다. 만 14세로 설정된 계정에서 성 관련 게시물과 자살·자해를 암시하는 콘텐츠가 별도의 검색 없이 추천 피드에 노출됐고, 일부 콘텐츠는 대출 광고나 성인 웹툰 사이트로 연결됐다. 연령 설정만으로는 위험을 차단하기 어려운 현실을 보여주는 사례다. 이러한 문제의식은 해외에서는 이미 제도화 단계에 접어들었다. 영국과 유럽연합(EU)은 플랫폼 사업자가 불법·유해


























