인공지능(AI)은 더 이상 먼 미래의 이야기가 아니다. 최근 몇 년 사이 Chat GPT를 비롯한 생성형 AI는 등장과 함께 사회 전반에 빠르게 확산되었고, 이제는 일상 깊숙이 들어와 있는 느낌이다. 비영리섹터 역시 예외가 아니다. 얼마 전 참여한 SOVAC 행사장에는 AI 기술을 활용한 사회문제 해결 방식을 선보이는 부스들이 곳곳에 자리했고, 최근 여러 세미나에서도 AI와 사회적 가치의 접점이 주요 주제로 다뤄졌다. 이는 AI가 단순한 기술 트렌드를 넘어 비영리 영역의 실천 방식과 사회문제 해결 전략까지 바꿔놓을 수 있음을 보여준다.
AI는 비영리의 한정된 자원이라는 구조적 제약을 넘어설 수 있는 기회를 열어주지만 동시에 윤리, 프라이버시, 신뢰 문제라는 새로운 과제도 던진다. 그래서 마냥 두 팔 벌려 환영하기도, 그렇다고 외면하기도 어렵다. 따라서 우리가 던져야 할 질문은 단순히 “AI를 쓸까, 말까”가 아니라 “어떻게 우리의 가치에 맞게 AI를 사용할 것인가?”이다. 질문에 대한 답을 탐색하기 위해 우선 해외자료를 통해 비영리 조직에서 AI 활용과 AI 도입 시 고려해야 하는 사항들을 살펴보았다.

비영리 조직들의 AI 활용 유형
Stanford Social Innovation Review(SSIR)의 「AI-Powered Nonprofits: Mapping the Landscape」는 전 세계 100여 개의 AI 기반 비영리 조직을 분석하여, AI가 어떻게 사회문제 해결에 활용되고 있는지 네 가지 큰 범주로 정리했다.
- 데이터 구조화(Structuring Data): 방대한 데이터를 정리하고, 모니터링하며, 새로운 인사이트를 발견하는 활동에 활용
- 조언·안내(Advising): 개인 맞춤형 평가·내비게이션·코칭을 제공해 사람들이 더 나은 선택을 하도록 돕는 활동
- 번역·해석(Translating): 언어 간 번역 뿐 아니라 복잡한 현상이나 의사소통을 해석하는 활동
- 플랫폼 제공(Platform): 다른 조직들이 AI 기술을 쉽게 적용할 수 있도록 플랫폼이나 툴을 제공하는 활동
꼭 AI 기반 사업을 하는 비영리조직이 아니더라도 AI를 활용하여 업무 효율성 및 성과를 높일 수 있다. 잠재 기부자와 공감대를 형성할 수 있는 맞춤형 마케팅 캠페인 제작, 모금 과정 자동화 등을 통해 기부자와 지원자에게 맞춤형 지원을 제공할 수 있으며, 데이터를 빠르게 정리하고 다른 언어를 쓰는 사람들과 쉽게 소통할 수 있다. SSIR에서 언급한 이런 사례들은 AI 활용이 단순한 기술 도입을 넘어 비영리조직이 기존에 하기 어렵거나 가능하게 하거나 비효율적이었던 일을 효율화 시킴으로써 비영리섹터 전체의 활동 방식을 근본적으로 바꿀 잠재력을 가지고 있다는 것을 시사한다.
놓치기 쉬운 문제: AI 편향과 배제
Stanford Social Innovation Review(SSIR)의 「AI-Powered Nonprofits: Mapping the Landscape」는 AI가 사회문제 해결에 기여할 수 있는 가능성을 보여주면서도, 동시에 사회적 편향을 강화할 위험을 지적한다. AI를 사회적 선을 위한 도구로 개념화할 때는 AI가 목적이 아닌 수단임을 분명히 해야 한다. 비영리 조직은 언제나 사회적 임팩트를 최우선에 두어야 하며, 규모 확대와 사회적 효과에 도움이 될 때만 AI를 도입해야 함을 강조한다. 무엇보다도 안전한 사용, 데이터 프라이버시, 편향 방지와 같은 책임 있는 활용 원칙은 특히 취약계층을 다룰 때 최우선 조건이 되어야 한다.
「AI Bias in Philanthropy: Who Gets Left Behind?」 글은 기부와 필란트로피 영역에서 AI 편향이 누구를 배제할 수 있는지를 경고한다.
- 데이터가 부족하거나 대표성이 낮은 소규모 단체, 지방 조직, 소수자 그룹은 AI 기반 평가에서 불리할 수 있다.
- 이미 네트워크가 잘 갖춰진 대규모 기관은 유리하고, 그렇지 못한 기관은 ‘보이지 않게 되는’ 위험이 있다.
- 따라서 AI를 활용한 기금 배분, 기부자 매칭 과정에서 공정성, 투명성, 대표성을 보장하는 장치가 반드시 필요하다.
책임 있는 AI 도입을 위한 8단계
SSIR의 또 다른 글 「8 Steps Nonprofits Can Take to Adopt AI Responsibly」에서는 비영리 조직이 책임감 있게 AI를 도입하기 위해 필요한 8단계를 제시한다.
- 충분한 정보 습득: AI가 무엇을 할 수 있고, 어떤 한계가 있는지 이해해야 한다. ‘빠르게 시도하고 빨리 실패하라’는 접근보다는, AI를 본격적으로 도입하기 전에 잠재적 위험과 보상을 충분히 숙고하는 것이 필요하다. 예를 들어 AI 활용한 정신건강 상담 챗봇은 도입 전, 어떤 잠재적 위험이 있는지 파악하고, 효과적 활용 방법과 조건에 대한 충분한 연구가 선행되어야 한다.
- 불안과 우려 관리: 직원들은 AI가 일자리를 빼앗을지, 업무가 어떻게 달라질지 불안해 할 수 있다. 조직의 리더는 가치 중심적이고 인간 중심적인 사용 원칙을 분명히 하고 솔직한 대화를 통해 불안을 완화해야 한다.
- 인간 중심 유지: AI가 인간을 대체하고 편향을 만들지 않도록 ‘사람이 항상 감독하고 최종결정한다’는 서면 서약을 마련해야 한다. 특히 상담이나 고객응대처럼 인간 상호작용의 영역에서는 주의가 필요하다. 사람이 항상 감독해야 할 부분은 어디인지, AI가 어떤 방식으로 그 일을 보조 할 수 있는지 명확하게 정해야 한다.
- 데이터 안전 관리: 비영리섹터는 데이터의 안전하고 윤리적 사용에 대한 기준을 높여야 한다. 동의한 사람들의 데이터만 사용해야 하며, 기부자와 지원자들이 원하면 개인정보를 삭제할 수 있는 절차와 장치를 마련해야 한다. 그리고 이러한 데이터를 외부 공개형 모델에 입력하지 않아야 한다.
- 위험과 편향 완화: AI 사용 과정에서 발생할 수 있는 데이터 편향과 위험을 사전에 점검하고 대응해야 한다. 예를 들어 비영리단체 Best Friends Animal Society는 고양이 입양 챗봇을 시험하였으나 인종차별적 표현과 특정 고양이를 선호해 추천하는 편향 문제를 발견하어 도입을 중단하였다.
- 적절한 사용사례 선정: AI를 활용하여 반복적이고 비효율적인 업무, 병목현상, 장애요인부터 해결하는데 초점을 맞춰야 한다. 시간이 많이 들고 반복적인 작업은 AI 를 활용하기에 적합한 영역이다. 예를 들어 볼티모어의 National Aquarium은 잠재 기부자 발굴에 엄청난 시간을 쓰다가, AI 기반 기부자 데이터베이스를 도입하여 업무 효율을 높였다.
- 파일럿 운영: 앞서 언급했던 우려와 데이터 편향 등의 문제를 고려하여, 테스트 없이 AI를 대규모로 적용해서는 안된다. 소규모로, 제한된 시간 내에, 직원들이 직접 평가할 수 있는 프로토타입부터 시작해 AI사용이 조직 및 이해관계자 등에게 어떤 영향을 미치는지 파악해야 한다. 예를 들어, 비영리 단체인 Talking Points는 교사와 비영어권 학부모 간의 대화를 번역하는 데 AI를 사용하는 앱을 개발했지만, 다양한 언어로의 번역이 정확한지 확인하기 위해 광범위한 사용자 테스트를 거친 후에야 사용하기 시작했다.
- 업무 재설계와 학습 문화: AI가 반복업무를 줄이면 직원들의 역할과 직무를 다시 설계해야 한다. 도구를 효과적으로 감독하고 사용할 수 있도록 효과적인 프롬프트 작성법 같은 구체적인 가이드가 포함된 활용사례를 공유하고, ‘AI 출력물은 반드시 초안(first draft)으로만 사용해야 하고, 직접 사실 확인(fact-check)을 거쳐야 하며, 공개형 AI 모델에는 기밀 정보를 입력하지 않는다’와 같은 원칙을 세워야 한다. 그리고 단순 기술교육을 넘어 정서적 지능(emotional intelligence), 공감(empathy), 문제 정의(problem formation), 창의성(creativity)을 기르는 훈련도 반드시 포함되어야 한다.
우리에게 주는 시사점
살펴본 해외문헌은 공통적으로 “AI는 수단이지 목표가 아니다”라는 점을 강조한다. 비영리 조직이 AI를 도입할 때 가장 중요한 것은 기술 자체가 아니라 ‘우리의 가치’이다. 그래서 단순 도입 여부만 생각하기 보다는 우리 조직의 가치와 철학에 맞는 방식으로 AI를 다뤄보는 것이 필요하다. AI 활용에 있어서 조직이 지키고자 하는 원칙을 명확히 하며, 기회와 위험을 모두 확인할 수 있는 작은 실험부터 시작해 볼 수 있다. 이러한 과정을 통해 우리만의 원칙과 기준을 만들어 가는 것이, AI 시대를 현명하게 맞이하는 첫걸음이 될 것이다.
- 가치 선언: AI 활용에서 조직이 지키려는 원칙을 명확히 한다.
- 투명성 확보: AI가 어떤 데이터로 작동하는지, 책임 주체가 누구인지 공개한다.
- 프라이버시 보호: 기부자·수혜자 데이터 보호를 최우선 과제로 둔다.
- 포용성 보장: 사회적 약자와 소규모 단체가 배제되지 않도록 한다.
- 작은 시도에서 확장: 파일럿 → 평가 → 확산 과정을 밟는다.
국내에서도 AI 기술이 기후·환경 문제에 미치는 영향을 비롯하여 AI 규제·저작권·인공지능법 제정의 필요성을 제기하며 비영리와 시민사회가 기술 거버넌스 논의에 적극 참여하기 위한 움직임들이 있다. 이는 기술 발전이 가져올 사회적 파급효과를 시민적 감시와 민주적 참여로 균형 잡아야 한다는 메시지이기도 하다.
AI와 기회와 위험에 대해 각 조직이 작은 실험을 시도하고, 그 경험과 결과를 함께 나눈다면 비영리섹터 전체가 한 발 더 현명하고 주체적으로 AI 시대를 맞이할 수 있을 것이다. 아름다운재단에서도 실제 업무에서 무엇을 적용할 수 있을지 탐색하고, 지켜야 할 가치와 원칙은 무엇인지 세워가기 위한 작은 실험으로 학습모임인 <옥인동 ooLab>을 시작했다. 앞으로 우리가 시도한 실험과 이 과정에서의 배움을 공유할 예정이다.
※자료원문(출처)
– AI-Powered Nonprofits: Mapping the Landscape
– 8 Steps Nonprofits Can Take to Adopt AI Responsibly
– AI Bias in Philanthropy: Who Gets Left Behind?
※참고자료
https://www.peoplepower21.org/welfarenow/1999354
https://www.peoplepower21.org/publiclaw/1976478