“챗GPT, 어디까지 책임져야 하나” 캐나다 총기참사가 남긴 생성형 AI 논쟁

오픈AI, 범행 수개월 전 용의자 계정 ‘폭력 조장’으로 차단했지만 경찰엔 통보하지 않아
캐나다 정부 규제 압박 속 오픈AI 후속 조치… 생성형 AI 신고 기준·예방 책임 논쟁으로 번져

캐나다에서 발생한 학교 총격 사건이 인공지능(AI)의 책임 문제로 번지고 있다. 오픈AI가 범행 수개월 전 용의자의 챗GPT 계정을 차단했지만, 이를 수사기관에 통보하지 않은 사실이 드러나면서다. 캐나다 정부는 규제 가능성까지 언급했다. 오픈AI는 사법당국과 직접 연결되는 연락망 구축 등 안전 조치를 내놓았다. 이를 계기로 생성형 AI 플랫폼 기업이 위험 신호를 어디까지 대응해야 하는지를 둘러싼 논쟁이 불거지고 있다.

◇ 캐나다를 흔든 총격… 챗GPT, 참사 전 용의자 계정 차단했지만 경찰에 알리지 않았다

캐나다에서 발생한 고학교 총격 사건과 관련해 오픈AI가 범행 전 용의자의 챗GPT 계정을 차단했지만 수사기관에는 알리지 않은 사실이 알려지며 논란이 일고 있다. 이미지는 희생자를 추모하기 위해 현장에 놓인 꽃. / Sky News Australia 유튜브 영상 캡처

사건은 지난 10일(현지시간) 캐나다 브리티시컬럼비아주의 인구 약 2400명 소도시 텀블러 리지에서 발생했다. 18세 제시 밴 루트셀라는 자택에서 어머니와 의붓형제를 살해한 뒤 과거 자신이 다니던 학교로 향해 교사 1명과 학생 5명의 목숨을 앗아갔다. 수십 명이 다쳤고, 경찰과 대치하던 용의자는 스스로 목숨을 끊었다. 총 사망자는 용의자를 포함해 9명이다.

이번 사건은 최근 캐나다 역사상 가장 치명적인 총격 사건 중 하나로 꼽힌다. 미국과 달리 캐나다에서는 학교 총격이 드문 만큼 충격이 컸다. 마크 카니 캐나다 총리는 예정된 유럽 방문을 취소했고, 연방 정부 건물에 조기를 게양하도록 지시했다.

논란은 오픈AI의 과거 조치가 알려지면서 시작됐다. 오픈AI는 지난해 내부 시스템이 ‘폭력적 활동을 조장하기 위한 모델 오용’을 식별해 해당 계정을 차단했다고 전했다. 그러나 이 활동이 “타인에게 임박하고 신뢰할 수 있는 심각한 신체적 위해를 가할 위험”이라는 내부 통보 기준에는 해당하지 않는다고 판단해 경찰에는 알리지 않았다.

오픈AI 측은 구체적이고 즉각적인 범행 계획은 확인되지 않았다고 언급했다. 일정 수준 이하의 사안까지 수사기관에 넘길 경우 과잉 통보로 이어질 수 있고, 이용자와 가족의 사생활을 침해할 우려도 함께 고려했다고 덧붙였다.

◇ 플랫폼 규제까지 꺼낸 캐나다 정부에 오픈AI 즉각 후속 조치

폭력 관련 신호를 탐지하고도 이를 통보하지 않았다는 사실이 전해지자 캐나다 정부는 곧바로 대응에 나섰다. 에번 솔로몬 캐나다 인공지능 담당 장관은 이번 주 오픈AI 안전팀을 오타와로 소환해 면담을 진행했다. 그는 “심각한 폭력의 경고 신호가 있다면 이를 제때 책임 있게 전달하는 것이 국민의 기대”라며 “공공 안전이 걸린 사안에서 내부 검토만으로는 충분하지 않다”고 말했다.

숀 프레이저 캐나다 법무장관은 신속한 개선이 없을 경우 정부가 직접 입법을 통해 강제하겠다고 경고했다. 단순한 유감을 넘어 AI 플랫폼을 겨냥한 규제로 이어질 수 있다는 의미다. 실제로 캐나다 정부는 2024년 무산됐던 온라인 혐오 규제 법안을 보완해 올해 다시 추진할 계획이다.

캐나다 총격 사건 용의자의 범행 전 계정 차단 사실이 공개되자, 당국은 신고 의무 여부를 검토 중이며 오픈AI는 정책 재점검과 수사 협조 방침을 밝혔다. /Unsplash

거센 비판과 규제 압박 속에 오픈AI는 26일 추가 조치를 발표했다. 앤 오리어리 오픈AI 글로벌 정책 담당 부사장은 솔로몬 장관에게 보낸 서한에서 캐나다 사법당국과 직접 연결되는 연락 창구를 마련하겠다고 밝혔다. 반복적으로 정책을 위반하는 사용자를 더 정밀하게 식별하는 시스템도 강화하겠다고 했다. 또 폭력 활동과 관련된 사안의 법집행기관 통보 절차를 최근 수정했다고 설명했다.

오픈AI는 이번 사건을 “참혹한 비극”이라며 총격범의 신원이 공개된 직후 경찰에 연락해 수사를 지원하고 있다고 덧붙였다. 이어 “정부의 메시지를 분명히 들었다”며 연방 및 주 정부와 협력을 이어가겠다는 입장을 내놨다.

◇ AI의 ‘예방 책임’ 어디까지… “위협 조기 차단” vs “사생활 침해”

이번 사건을 계기로 AI 기업의 ‘예방 책임’ 범위를 둘러싼 논쟁이 불붙었다. 핵심은 AI 기업이 잠재적 폭력 징후를 감지했을 때 이를 어디까지, 어떤 기준으로 공권력에 전달해야 하느냐다.

AI 플랫폼이 보다 적극적으로 개입해야 한다는 의견이 나온다. 로이터와의 인터뷰에서 청소년 정신 건강 및 폭력 예방 전문가인 트레이시 베이앙쿠르 오타와대학교 교수는 오픈AI의 미신고를 “참사를 막을 기회를 놓친 사례”라고 평가하며, 신뢰할 수 있는 위협은 조기에 사회적 대응 체계와 연결할 필요가 있다고 강조했다.

반면 기업에 과도한 신고 의무를 지우는 것은 신중해야 한다는 지적도 있다. 기술·인권 변호사 신시아 쿠는 로이터에 “AI 기업이 사실상 법집행기관의 민간 감시 부서처럼 기능하게 되는 것은 위험하다”고 이야기했다. 신고 의무가 확대될 경우 사생활 침해로 이어질 수 있고, 특정 집단에 대한 감시가 강화될 수 있다는 것이다.

결국 이번 캐나다 총격 사건은 생성형 AI 시대에 공공 안전과 개인의 권리 사이에서 어디까지 선을 그어야 할지를 묻는 계기가 되고 있다.

채예빈 더나은미래 기자

관련 기사

Copyrights ⓒ 더나은미래 & futurechosun.com

댓글 작성

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다