
오픈AI, 범행 수개월 전 용의자 계정 ‘폭력 조장’으로 차단했지만 경찰엔 통보하지 않아캐나다 정부 규제 압박 속 오픈AI 후속 조치… 생성형 AI 신고 기준·예방 책임 논쟁으로 번져 캐나다에서 발생한 학교 총격 사건이 인공지능(AI)의 책임 문제로 번지고 있다. 오픈AI가 범행 수개월 전 용의자의 챗GPT 계정을 차단했지만, 이를 수사기관에 통보하지 않은 사실이 드러나면서다. 캐나다 정부는 규제 가능성까지 언급했다. 오픈AI는 사법당국과 직접 연결되는 연락망 구축 등 안전 조치를 내놓았다. 이를 계기로 생성형 AI 플랫폼 기업이 위험 신호를 어디까지 대응해야 하는지를 둘러싼 논쟁이 불거지고 있다. ◇ 캐나다를 흔든 총격… 챗GPT, 참사 전 용의자 계정 차단했지만 경찰에 알리지 않았다 사건은 지난 10일(현지시간) 캐나다 브리티시컬럼비아주의 인구 약 2400명 소도시 텀블러 리지에서 발생했다. 18세 제시 밴 루트셀라는 자택에서 어머니와 의붓형제를 살해한 뒤 과거 자신이 다니던 학교로 향해 교사 1명과 학생 5명의 목숨을 앗아갔다. 수십 명이 다쳤고, 경찰과 대치하던 용의자는 스스로 목숨을 끊었다. 총 사망자는 용의자를 포함해 9명이다. 이번 사건은 최근 캐나다 역사상 가장 치명적인 총격 사건 중 하나로 꼽힌다. 미국과 달리 캐나다에서는 학교 총격이 드문 만큼 충격이 컸다. 마크 카니 캐나다 총리는 예정된 유럽 방문을 취소했고, 연방 정부 건물에 조기를 게양하도록 지시했다. 논란은 오픈AI의 과거 조치가 알려지면서 시작됐다. 오픈AI는 지난해 내부 시스템이 ‘폭력적 활동을 조장하기 위한 모델 오용’을 식별해 해당 계정을 차단했다고 전했다. 그러나 이 활동이 “타인에게 임박하고



























