
이재명 정부가 내건 핵심 국정 목표 중 하나는 인공지능(AI)이다. 대통령실엔 ‘AI미래기획수석실’이 신설됐고, 100조 원 규모의 투자 계획도 발표됐다. 산업 육성과 더불어 정책과 행정 전반에 AI를 도입하겠다는 구상이다.
그러나 여기서 짚고 넘어가야 할 점이 있다. 정부는 인공지능을 직접 개발하지 않는다는 사실이다. 행정 현장에서 사용하는 대부분의 기술은 민간 업체가 만든 것을 ‘조달(procurement)’, 즉 구매해 들여오는 방식이다. 이 구조는 한국뿐 아니라 미국도 마찬가지다.
1966년, 미국 백악관 예산관리국(OMB)은 ‘Circular A-76’이라는 가이드라인을 통해 정부와 민간이 기술 개발을 놓고 경쟁하지 않도록 원칙을 세웠다. 정부는 가능한 한 민간 기술을 구매해 사용하고, 이를 위해 연방조달청(GSA)이 책상부터 위성기술까지 전방위적으로 조달 시스템을 운영한다.
◇ 정부 기술 외주화의 장점과 그림자
정부가 기술을 만들지 않고 사는 구조는 장점도 분명하다. 시장에서 검증된 기술을 비용 효율적으로 도입할 수 있고, 동시에 민간 기술 생태계를 키우는 데도 기여한다.
그러나 그 그림자가 짙다. 한때 미국의 국방과학연구계획국(DARPA)에는 최고 수준의 과학자들이 모여 있었다. 오늘날의 인터넷(알파넷), GPS, 드론, 음성인식, 자율주행차 등은 모두 그들의 손에서 시작됐다. 공공을 위한 기술이 없었다면 스마트폰도, 항공권 예매도 불가능했을 것이다.
지금은 상황이 다르다. 정부는 기술을 만들지 않다 보니 기술을 볼 줄 아는 인재가 줄고, 그들의 판단력도 약해졌다. 정부 예산은 단위가 다르다. 적으면 억 단위고, 크면 조 단위다. AI에 대한 투자가 급증하는 지금, 정부는 더 강한 기술을 더 많이 사서 더 넓게 쓰려 하지만, 이를 제대로 판단하고 검증할 인재는 턱없이 부족하다.
기술의 성격도 바뀌었다. 책상이나 의자는 판단을 내리지 않는다. 하지만 인공지능은 다르다. 인간의 결정을 보완하거나, 때로는 대신한다. 이제 AI는 행정의 일부가 됐다. 특히 복지 심사처럼 민감한 영역에서는 인공지능이 누가 어떤 혜택을 받을지, 얼마를 받을지 결정하는 구조가 만들어지고 있다. 행정은 공정해야 하고, 결과에는 설명과 책임이 뒤따라야 한다. 그러나 AI가 결정을 내리는 시대, 그 책임은 누구에게 있는가. 누가 책임을 지고, 어떻게 설명할 것인가.
인공지능 도입의 동기는 효율성인 경우가 많다. 더 적은 돈을 써서 더 많은 일을 하는 것이다. 하지만 정부가 추구해야 할 가치는 효율성만이 아니다. 민원을 더 빨리 처리하더라도, 그 결과에 책임지지 못한다면 그 정부는 더 나은 정부가 아니다.
◇ 기술보다 정보가 부족한 정부
정부와 민간 기업 사이에는 ‘정보의 비대칭(information assymetry)’이 존재한다. 정부는 인공지능 기술의 작동 원리나 한계를 정확히 알기 어렵다. 반면 기술을 판매하는 기업은 자사 제품을 누구보다 잘 안다. 이런 상황에서 정부가 곧바로 대규모 구매에 나선다면, 기술에 대한 과잉 기대와 현실 사이의 간극이 문제를 낳는다. 결국 피해는 시민이 떠안는다.
미국 미시간주의 실업수당 시스템이 그 사례다. 미국 미시간주는 2013년부터 2015년까지 자동 부정 수급 탐지 시스템(MiDAS)을 도입했다. 3년간 6만 3000명을 부정 수급자로 지목했지만, 이 중 4만 명 이상이 억울한 처분을 받았다. 피해자들은 수만 달러의 벌금과 급여 압류에 시달렸고, 한 사람은 극단적 선택까지 했다.
기술 조달의 불확실성은 정부만의 문제가 아니다. 민간 벤처 투자에도 리스크는 존재한다. 하지만 실리콘밸리는 이 위험을 줄이기 위한 장치를 갖추고 있다. 기술의 가능성만 보고 투자하는 구조인 만큼, 처음부터 큰돈을 넣지 않는다. 시드(seed), 시리즈 A, B, C처럼 단계별로 자금을 나눠 투입하고, 그때마다 성과와 위험을 검증한 뒤 다음 단계로 넘어간다.
공공 인공지능 도입도 마찬가지다. 기술의 효과가 실제로 있는지, 부작용은 없는지 확인도 없이 정책 곳곳에 일괄 적용하는 건 무모하고도 위험한 일이다. 하물며, 그 기술이 세금으로 구매돼 국민을 대상으로 쓰인다면, 그건 단순한 실수가 아니라 무원칙이자 무책임이다.
인공지능 도입은 실제 필요성을 가진 기관이 주체가 되어, 소규모로 실험하고 검증하는 방식으로 시작돼야 한다. 기술의 성능과 영향은 현장에서 직접 확인한 뒤 확장 여부를 결정해야 한다. 정부가 이를 스스로 해내기 어렵다면, 대학이나 독립 연구기관 같은 외부 전문가 집단이 감시자 역할을 해야 한다. 특히, 기술을 개발하거나 판매하지 않는 이해관계에서 자유로운 연구자들이 조달된 인공지능을 평가하고, 위험을 조기에 경고하는 역할이 반드시 필요하다.
이런 감시 체계는 시민사회가 맡아야 할 책무이자, 민주주의가 제대로 작동하기 위한 기술적 기반이기도 하다. 필자 역시 미국의 주정부와 지방정부들이 인공지능 역량을 공동으로 강화하기 위해 만든 ‘정부 인공지능 연합(GovAI Coalition)’의 일원으로 활동하고 있다. 특히 조달 관련 위원회에서 중심 역할을 맡고 있으며, 이 위원회는 기술 판매와 무관한 인물만 참여할 수 있도록 업계 종사자의 가입 자체를 원천적으로 제한하고 있다.
◇ 도입이 아니라, ‘책임 있는 도입’이어야
정부에게 신뢰는 선택이 아니라 필수다. 신뢰를 잃은 정부는 국민의 지지를 얻지 못하고, 지지를 받지 못한 정부는 민주주의의 정당성을 가질 수 없다. ‘신뢰(trust in government)’는 국민이 정부에 자동으로 부여하는 것이 아니다. 정부가 스스로 신뢰받을 만한(trustworthy) 존재가 될 때, 비로소 얻어낼 수 있는 것이다. 인공지능 도입에서도 이 원칙은 예외가 아니다. 책임 있는 인공지능 정부는, 책임 있는 절차를 실제로 밟은 정부에서만 가능하다. 이를 위해 단계별 도입에는 반드시 다음 세 가지 검증 과정이 병행돼야 한다.
- 실제 데이터 기반 성능 평가 : 개발사가 제시한 성능이 아닌, 실제 현장에서의 성능을 객관적인 데이터로 검증해야 한다.
- 실무자의 피드백 반영 : 시스템을 실제로 사용하는 행정 현장의 목소리, 일선 공무원의 의견이 적극적으로 반영돼야 한다.
- 예상 밖 위험 감지 및 대응 체계 : 오류나 피해 사례가 빠르게 발견되고, 즉각적으로 수정될 수 있는 체계가 필요하다.
인공지능도 여타 기술과 마찬가지로 만능은 아니다. 특히 복지, 교육, 의료, 치안, 환경처럼 시민의 삶과 밀접한 공공 영역에서는 더욱 신중해야 한다. 공공 정책과 행정에서 중요한 건 ‘빠르게’가 아니라 ‘책임 있게’다. 기술은 투명하게 도입돼야 하고, 실무자가 주체가 되며, 시민이 목적이 되는 방향으로 설계돼야 한다.
혁신은 그 자체가 목적이 아니다. 공공 인공지능에 대한 신뢰 역시 새로운 기술만으로 얻을 수 없다. 정부는 도입하려는 기술을 신중하게 실험하고, 그 효과와 한계를 정직하게 검증해야 한다. 그 결과를 투명하게 공개하고, 학습하는 과정을 거쳐야만 한다. 그렇게 축적된 경험 위에서 다음 정책을 설계할 때, 국민의 신뢰는 비로소 따라온다.
공공 인공지능이 국민의 신뢰를 받으려면, ‘도입’과 ‘검증’이 함께 가야 한다.
김재연 미국의 공공 영역 데이터 과학자
필자 소개 학계와 실무를 모두 경험한 미국의 공공 영역 데이터 과학자입니다. 존스홉킨스 SNF 아고라 연구소의 연구교수이며 하버드 케네디 스쿨 공공 리더십 센터의 연구위원입니다. 이전에는 미국의 대표적 시빅 테크 단체인 코드 포 아메리카(Code for America)의 데이터 과학자로 미국 정부와 협력하여 가난한 사람들이 더 쉽고, 빠르고, 편하게 복지 혜택을 누리도록 돕는 일을 했습니다. 한국에서는 KDI 정책대학원에서 데이터 과학 담당 교수로 일했고, 공익 목적의 데이터 과학을 소개하기 위해 ‘우리에게는 다른 데이터가 필요하다(세종서적 2023)’란 책을 썼습니다. UC 버클리에서 정치학 박사 학위를 수여했고, 미국 정치학회(APSA)로부터 도시, 지역 정치 부문 최우수 박사학위상(2022), 시민참여 부문 신진학자상(2024)을 받았습니다. |