네이버가 자체 기술 채널인 ‘채널 테크’를 통해 AI 안전성 실천 체계 ‘네이버 ASF(AI Safety Framework)’를 17일 발표했다.
‘네이버 ASF’는 AI 시스템 개발·배포 모든 단계에서 AI의 잠재적 위험을 인식·평가·관리하기 위한 네이버의 대응 체계다. 국내에서 이처럼 AI 안전성 체계를 설계하고 실천하는 시도는 네이버가 처음이다.
네이버 ASF는 AI 시스템이 초래할 수 있는 위험을 ▲통제력 상실 위험 ▲악용 위험 두 가지로 정의하고 이에 대응하기 위한 방법을 설계했다.
먼저 인간이 AI 시스템에 영향을 미치지 못하게 되는 ▲통제력 상실 위험을 완화하기 위해 ‘AI 위험 평가 스케일’을 통해 AI 시스템의 위험을 주기적으로 평가하고 관리한다. 특히 현존 최고 성능의 AI 시스템을 ‘프런티어 AI’로 정의하고 3개월마다 위험 평가를 수행한다. 또한 시스템의 능력이 기존보다 6배 이상 급격히 증가한 경우에는 추가 평가가 이뤄진다.
AI 시스템의 또 다른 잠재적 위험인 ▲악용 위험에는 ‘AI 위험 평가 매트릭스’를 적용해 대응한다. AI 위험 평가 매트릭스는 AI 시스템의 사용 목적과 안전 조치의 필요성 정도에 따라 각각 다른 방법으로 위험을 관리한다. 생화학 물질 개발과 같이 특수한 목적으로 사용되는 AI 시스템은 특별한 자격이 있는 사용자에게만 제공해 위험을 완화한다. 사용 목적과 관계없이 안전 조치의 필요성이 높은 AI 시스템이라면 추가적인 기술적·정책적 안전 조치를 통해 위험이 완화될 때까지는 배포하지 않는다.
네이버는 문화적 다양성을 반영한 AI 안전성 체계로 네이버 ASF를 발전시킬 계획이다. 한국 외 다른 지역의 정부 및 기업과 소버린(Sovereign) AI를 공동 개발하며 특정 문화권에서 성립될 수 있는 AI 시스템의 위험을 식별하고, 위험의 정도를 측정하는 벤치마크(benchmark)도 문화권의 특성을 반영해 고도화할 예정이다.
송대섭 네이버 어젠다 리서치 리더는 “AI 개발에 있어서 ‘사람을 위한 AI’라는 보편적 가치와 ‘다양성’을 조화롭게 고려할 필요가 있다고 믿는다”며 “AI 안전성도 글로벌 움직임에 발맞추는 한편 각 지역의 사회 기술적 맥락을 고려해 접근하는 것이 중요하다”고 강조했다. 이어 “이러한 관점이 네이버 ASF에도 담겨 있으며 향후 AI 기술 발전에 따른 AI 안전성 관련 글로벌 논의 흐름에 맞춰 네이버 ASF를 지속적으로 개선할 것”이라고 전했다.
김규리 더나은미래 기자 kyurious@chosun.com