모금·행정·복지 현장까지 스며든 인공지능
신뢰·형평성·윤리는 어떻게 지킬 것인가
인공지능(AI)은 이미 사람들의 일상 깊숙이 들어왔고, 비영리 영역에서도 더 이상 선택의 문제가 아닌 기술이 됐다. 글로벌 필란트로피 현장에서는 AI가 단순한 업무 보조를 넘어 모금 전략, 서비스 설계, 사회문제 해결 과정에까지 개입하고 있다. 다만 확산 속도가 빠른 만큼, 신뢰성 확보와 조직 간 활용 격차라는 과제도 동시에 드러나고 있다. ‘도입 여부’보다 ‘어떻게 쓰느냐’가 비영리의 성과와 신뢰를 가르는 기준이 되고 있다.
센터 포 이펙티브 필란트로피(CEP)가 지난해 9월 발표한 보고서에 따르면 비영리 재단의 약 3분의 2가 이미 AI를 도입했으며, 2025년 안에는 사용률이 80% 안팎에 이를 것으로 전망된다. 현재 가장 보편적인 활용 영역은 챗GPT 등 생성형 AI를 활용한 콘텐츠 제작이다. 여기에 맞춤형 모금 전략 설계, 사업 보고 간소화 도구까지 등장하면서 AI의 적용 범위는 빠르게 확장되고 있다.
◇ 효율화에서 문제 해결까지, 비영리의 AI 활용법
업무 효율화 분야에서 AI의 효과는 비교적 분명하다. 패트릭 J. 맥거번 재단은 올해 1월 재단과 비영리단체의 재무 검토 부담을 줄이는 AI 도구 ‘그랜트 가디언(Grant Guardian)’을 무료로 공개했다. 이 도구는 지원 단체의 재무 상태를 자동으로 분석해 재단에 요약 보고서를 제공한다. 비영리단체는 별도의 추가 입력 없이 기존 재무 문서만 제출하면 된다.

모금 영역에서도 AI 활용은 성과로 이어지고 있다. 유니세프 USA는 2020년 온라인 기부 과정에 AI 기반 모금 플랫폼 ‘펀드레이즈 업(Fundraise Up)’을 도입했다. 기부자별 추천 기부액을 개인화해 제안하고, 일시후원자를 정기후원으로 전환하는 방식이다. 그 결과 연간 약 300만 달러(약 43억 원)의 추가 모금 성과를 거뒀고, 약 4만8000건의 기부가 정기후원으로 전환됐다.
AI는 문제 해결의 도구로도 활용되고 있다. 케냐에 본부를 둔 자카란다 헬스(Jacaranda Health)는 AI 기반 플랫폼 ‘PROMPT’를 통해 임산부와 양방향 문자 메시지로 소통하며 임신 단계에 맞는 정보를 제공한다. 임산부가 문자를 보내면 AI가 내용을 분석해 위험 신호를 감지하고, 필요할 경우 의료 인력을 자동으로 연결한다. 축적된 데이터는 정부와 보건의료기관이 모자보건 서비스를 개선하는 데 활용된다.

◇ 커지는 격차와 신뢰의 문제…‘AI 도입 이후’가 더 중요
AI 도입이 곧바로 성과로 이어지는 것은 아니다. 기빙튜스데이(GivingTuesday)의 조사에 따르면 예산이나 인력 규모가 크다고 해서 AI 활용 준비도가 높은 것은 아니었다. 소규모 조직도 개인 역량을 바탕으로 빠르게 AI를 실험할 수 있지만, 조직 차원의 전략과 데이터 인프라가 뒷받침되지 않으면 활용에는 한계가 따른다.
레디언트(Radiant)와 패스트포워드(Fast Forward)가 공동 발간한 ‘2025 AI for Humanity Report’ 역시 이러한 격차를 지적한다. 일부 조직은 AI를 핵심 프로그램으로 구축해 임팩트를 확장하는 반면, 다른 조직은 여전히 업무 보조 수준에 머물러 있다는 것이다. 보고서는 AI 활용의 깊이가 조직의 자원, 데이터 인프라, 내부 역량과 밀접하게 연관돼 있다고 분석했다. 같은 기술이라도 조직의 여건에 따라 효과는 크게 달라진다는 의미다.
신뢰성 문제도 핵심 쟁점이다. CEP 조사에서 재단 리더의 83%는 데이터·프라이버시 위험을, 77%는 AI가 부정확한 정보를 생성할 가능성을 우려했다. 실제로 미국섭식장애협회(NEDA)는 2023년 AI 챗봇이 섭식장애 환자에게 부적절한 체중 감량 조언을 제공한 사실이 드러나자 서비스를 중단했다. 관리와 감독이 부족할 경우, 기술이 오히려 조직의 신뢰를 훼손할 수 있음을 보여주는 사례다.
◇ 효율과 신뢰 사이… 인간의 판단을 남겨두는 선택
이 같은 문제의식 속에서 AI의 형평성과 윤리를 함께 고민하려는 움직임도 이어지고 있다. 펀드레이징 AI(Fundraising.AI)는 2만 명이 넘는 비영리 실무자와 기술자, 윤리학자를 연결해 모금 분야에서 AI 활용에 대한 공론의 장을 만들고 있다. 프라이버시와 책임성, 형평성을 중심에 둔 AI 활용 프레임워크를 제시하고, 교육과 자료 제공, 실무자 네트워크 운영을 통해 현장 적용을 돕는다.
기부자와의 소통에서 AI는 진정성을 강화하는 도구가 될 수 있다는 평가도 있다. 식량 빈곤 퇴치 단체 마존(MAZON)은 2024년 AI·데이터 기업 다타로(Dataro)와 협력해 3만 명 이상의 기부자에게 맞춤형 메시지를 전달했다. 그 결과 모금 수익은 전년 대비 23% 증가했고, 발송 편지 수는 10% 줄었다. 대량의 동일한 메시지보다 관계의 질을 중시한 전략이었다.

반대로 AI 활용을 의도적으로 제한한 선택도 있다. 세인트 주드 어린이 연구병원은 모금과 소통 영역에서 생성형 AI 도입을 자제하고, 예측 모델링 수준의 기술만 제한적으로 활용하고 있다. 환자와 가족의 이야기를 전달하는 과정에서 기술이 조직의 정체성과 신뢰를 훼손해서는 안 된다는 판단에서다. 효율보다 신뢰를 우선한 접근이다.
비영리 전문 매체 ‘논프로핏 프로(NonProfit PRO)’는 기후 투자 자문 기업 아르보(Arbor)의 대표 드미트리 콜투노프가 제안한 ‘10-80-10 원칙’을 소개했다. 사람이 전략을 설계하는 단계(10%), AI가 실행을 담당하는 단계(80%), 사람이 최종 완성도를 책임지는 단계(10%)로 역할을 나누는 방식이다. AI가 아무리 정교해져도 최종 판단은 인간의 몫이라는 의미다.
안젤라 아리스티두 유니버시티 칼리지 런던 경영대학원 교수는 SSIR를 통해 “AI가 생성한 기부자 정보는 개인화에 도움이 될 수 있지만, 실제 소통은 여전히 사람이 주도해야 한다”고 강조했다. 특히 “고액 기부, 위기 대응, 수혜자 이야기처럼 민감한 대화에서는 AI가 인간적 접촉을 완전히 대체해서는 안 된다”고 강조했다.
채예빈 더나은미래 기자





















