
지난 2022년 11월, 한 고객이 캐나다 토론토에 거주하던 할머니의 별세 소식을 접했다. 그는 에어캐나다 웹사이트에 탑재된 인공지능(AI) 챗봇을 통해 직계 가족의 장례식에 참석하는 경우 항공권 할인을 받을 수 있다는 안내를 받고 항공권을 구매했다. 안내에 따르면 우선 정가로 항공권을 구매한 뒤, 사후에 할인을 요청할 수 있었다. 그러나 실제로 할인을 요청하자 항공사의 답변은 달랐다. “AI 챗봇이 전달한 정보는 에어캐나다의 관리 대상이 아니며, 부정확할 수 있다”는 이유에서였다. 고객은 에어캐나다 웹사이트 내 챗봇이 안내한 내용을 캡처해 브리티시컬럼비아(BC)주 소액 민사 분쟁 중재 기구인 민사중재원에 제출했다. 2024년 2월, 캐나다 민사결정재판소는 “AI 챗봇은 에어캐나다 웹사이트의 일부이며, 챗봇을 통해 제공된 정보에 대해서도 기업은 책임을 져야 한다”고 판단했다. AI는 실수할 수 있다. 그러나 ‘AI의 실수’에 대한 기업의 책임은 더 이상 회피할 수 있는 영역이 아니다. 오늘날 AI는 고객 응대와 정보 제공을 넘어, 업무 자동화, 인사·금융·리스크 분석 등 기업 운영의 핵심 영역 전반에 활용되고 있다. 이 과정에서 AI의 판단 오류는 곧바로 법적 책임, 평판 훼손, 내부 의사결정 리스크로 이어질 수 있다. AI가 기업의 판단 구조 안으로 깊이 들어온 지금, ‘AI의 판단을 어떻게 관리하고 통제할 것인가’는 미룰 수 없는 과제가 됐다. 이는 기업이 AI를 개발·도입·운영하는 전 과정에서 발생할 수 있는 위험을 관리하고, 책임 있는 활용을 보장하기 위한 조직·정책·절차 전반의 관리 체계를 뜻한다. 다시 말해 AI 거버넌스는 선택의 문제가 아니라, 준비하지 않으면



























