지난 4월 9일, 서울시공익활동지원센터 다목적홀 ‘모이다’에서 <AI와 비영리, 네 가지 얼굴로 마주하는 변화의 파도> 행사를 열었습니다. 이번 행사는 국내 비영리조직 종사자의 생성형 AI 활용 현황조사 결과를 바탕으로, 비영리 현장에서 AI가 어떻게 활용되고 있는지, 그리고 그 과정에서 어떤 질문과 고민이 생겨나고 있는지를 함께 나누기 위해 마련되었습니다.  이날 나눈 발표와 이야기를 각각의 포스팅으로 상세히 공유합니다. 

국내비영리조직 AI 활용 현황조사결과. 네가지 얼굴로 마주하는 변화의 파도 
사례 1. 개인의 실험에서 시작된 변화 : 아름다운재단 캠페인 페이지 제작 및 사내 학습동아리 사례 – 실험형
사례 2. 전략과 기술의 통합 : 월드비전 AI 플랫폼 ‘할로(HALO)’ 사례 – 전략형
사례 3. 기술의 시대, 다시 사람과 현장을 묻다 : 참여연대 AI 가이드 제작 및 내부논의 사례 – 신중형 
사례 4.  AI와 인간의 판단은 같을까 : 엠와이소셜컴퍼니(MYSC) 심사역 ‘메리(Merry)’ 도입 사례 – 전망형 

세 번째 사례 발표자는 참여연대 권력감시1팀 김희순 팀장. ‘신중형’ – AI에 대한 우려가 기대보다 크고, 미션과 가치의 부합을 가장 중요하게 생각하는 유형의 사례로 소개됐습니다. ‘신중형’답게 발표는 솔직한 고백으로 시작됐습니다. “생성형 AI를 쓰는 게 활동가로서 조금 죄책감이 있는 것 같아요. 환경에 안 좋다는데, 노동력을 대체한다는데, 써도 되나 싶은 거죠.” 하지만  쓰지 않는 것이 답이 아니라면, 어떻게 쓸 것인가를 함께 고민해야 한다는 것,  참여연대의 AI 논의는 거기서 시작됐습니다.

하나의 질문이 조직 전체의 논의로

발단은 단순한 아이디어였습니다. “9만 명의 독자를 가진  뉴스레터 ‘끄의 세계’에 AI 음성을 입히면 어떨까?” 검찰 개혁, 법원 개혁, 정치 개혁을 다루는 이 뉴스레터를 더 많은 시민들이 쉽게 접할 수 있도록 AI로 요약하고 음성으로 제공하자는 구상이었습니다. 그런데 참여연대는 정보 인권과 인공지능 이슈도 함께 다루는 시민단체입니다. “생성형 AI 문제가 많다고 하면서 우리 활동에 써도 되나”라는 질문이 자연스럽게 따라왔습니다. AI 음성은 기계의 목소리인지 누군가의 목소리를 가져온 것인지, 요약이 정확한지 우리가 다시 확인해야 하는 것인지와 같은 질문이 꼬리를 물었고, 결국 참여연대 전체의 생성형 AI 사용 논의로 이어졌습니다.

공익법센터, 미디어홍보팀, 정책기획부가 모였습니다. 그런데 참석자들의 연차가 높다는 판단에 저연차 활동가들도 합류시켜 논의 구조를 만들었습니다. 6~7명이 모여 회의를 시작했는데, 첫 번째 질문부터 쉽지 않았습니다. “AI와 생성형 AI는 뭐가 다른 거지?” 기후 위기를 걱정하면서 전력을 많이 쓰는 AI를 써도 되는지, 안 쓰면 뒤처지는 건 아닌지와 같은 고민이 쏟아졌습니다. 결론은 하나였습니다. “우리 6~7명이 가이드라인 초안을 만들 수준이 아니다. 구성원들이 어떻게 생각하는지부터 들어야겠다.”

구성원의 목소리를 먼저 들었다

두 가지 현황 조사가 진행됐습니다. 42명 구성원 중 절반 이상이 참여한 설문조사, 그리고 18명이 모인 집담회 ‘오지랖 한마당’이었습니다. 결과는 예상과 조금 달랐습니다. 저연차보다 고연차의 참여가 더 많았고, 사용 빈도는 필요할 때만 불규칙적으로 쓰는 수준이었습니다. 자료 검색이나 아이디어 탐색 정도였고, 업무에 적극적으로 활용하는 경우는 많지 않았습니다.

나온 고민들은 다양했습니다. 탄소 배출과 기후 위기, 노동 대체 문제, 저연차 활동가의 성장 기회가 줄어드는 것에 대한 우려. 반면 “AI가 할 수 있는 건 맡기고, 활동가만 할 수 있는 일을 찾아야 한다”는 의견도 있었습니다. 가이드라인에 꼭 담겨야 할 것으로는 팩트 체크, 투명성, 차별·혐오 표현 규제, 회원 정보 보호, 그리고 무엇보다 활동가를 대체하지 않아야 한다는 원칙이 꼽혔습니다.

가이드의 이름 하나도 쉽지 않았다

가이드라인을 만들기로 결정했지만, 이름부터 난관이었습니다. ‘활용’이라는 단어를 쓰면 AI 사용을 장려하는 뉘앙스가 된다는 문제 제기가 나왔습니다. ‘이용’도 마찬가지였습니다. 가이드라인을 만드는 것 자체가 AI를 쓰라는 시그널이 되는 게 우리가 합의한 방향인가라는 근본적인 질문도 나왔습니다. 결국 규제적 성격을 명시하는 방향으로 가고 있지만, 최종 확정은 아직입니다. “이름 하나 정하는 것도 이렇게 힘든데 내용은 얼마나 많았겠어요.” 발표자가 웃으며 던진 말이었습니다.

가이드라인의 핵심 원칙은 네 가지로 정리됐습니다. 단체의 목적과 비전에 부합하는 방향으로 사용한다. 결과에 대한 책임은 조직에 있다. AI는 활동가의 판단과 숙련을 대체하지 않는다. AI는 보조적 수단이다. 사용 전, 사용 중, 사용 후로 나눠 세부 지침도 마련했습니다. 특히 “AI를 사용했음을 밝히되, 어떻게 활용했는지 설명할 수 있어야 한다”는 원칙에 방점을 뒀습니다.

그런데 여기서 또 딜레마가 생겼습니다. 투명성을 위해 AI 사용 사실을 밝혔더니, 오히려 신뢰성이 떨어진다는 반응이 나왔습니다. 요즘 ‘생성형 AI로 작성된 기사입니다’라는 문구를 보면 왠지 속은 느낌이 드는 것처럼요. 시민단체로서의 투명성과 신뢰성이 서로 충돌하는 지점이었습니다. 

활동가에게 필요한 역량에 대한 고민이 우선 

가이드라인보다 더 중요하게 강조한 것이 있었습니다. 교육, 그중에서도 인권 교육이었습니다. “생성형 AI가 만들어낸 결과물에서 편향과 차별을 감지할 수 있는 눈이 먼저 있어야 합니다. 과거에 ‘눈 먼 예산’, ‘박차를 가하다’ 같은 표현을 무심코 쓰다가 이제는 쓰지 않게 된 것처럼, 인권 감수성이 AI 활용보다 앞서야 합니다.” AI 리터러시보다 인권 교육이 선행 조건이라는 것, 그리고 팩트체크는 물론 활동가들에게 필요한 역량이 무엇인지 그에 따른 교육이 필요하다는 것이 참여연대가 내린 결론이었습니다.

질문은 계속된다

처음의 질문, ‘뉴스레터에 AI 음성을 입힐 것인가’는 아직 결론을 내리지 못했습니다. 가이드라인이 완성되지 않아서만이 아닙니다. 9만 독자에게 닿기 위한 가장 좋은 방법이 AI 음성뿐인지, 시민운동의 차원에서 더 깊이 고민해야 할 문제라는 것을 알게 됐기 때문입니다.
“답은 도달하지 못할 수도 있습니다. 하지만 계속 그 답을 찾아가는 것이 저희가 해야 할 일이 아닐까 생각합니다.” 빠르게 변하는 기술 앞에서, 참여연대는 답보다 질문을 붙들고 있었습니다. AI를 쓸 것인가 말 것인가를 넘어, 어떤 가치를 기준으로 관계를 맺을 것인가. 활동가의 역할은 무엇이고, 기술이 대체할 수 없는 것은 무엇인가. 참여연대의 발표가 던진 질문들은 비영리 섹터 전체가 함께 고민해야 할 주제이기도 했습니다.

 

비영리와 AI, 네 가지 얼굴로 마주한 변화의 파도 참석자 Q&A

🙋🏻AI를 활용할수록 업무의 질은 높아지지만, 역설적으로 인간이 AI의 언어를 교정하고 기술을 뒤쫓는 데 더 많은 에너지를 쏟게 되는 것 같습니다. 제가 AI를 똑똑하게 부리는 것이 아니라 AI에 맞춰 일하고 있다는 느낌이 드는데, 최적의 균형점을 찾으려면 어떤 관점의 변화가 필요할까요? 
: 저도 비슷한 고민이 듭니다. 생성형 AI 프롬프트를 넣을 때 생성형 AI가 답변할 수 있도록 질문을 고민하고 변형해서 넣게 되는데, 인간의 사고의 흐름을 생성형 AI에 맞추도록 훈련되는 과정이 되는 것은 아닌지 우려가 없지 않습니다. 아울러 생성형 AI를 통해 최적의, 원하는 수준의 아웃풋을 원할 때까지 상당한 시간의 시행착오와 개인화 시간이 소요되는데, 이 같은 시간 투자까지 포함하여 생성형 AI를 사용했을 때의 효율성/효과를 고려할 필요도 있다고 생각됩니다.
결국 생성형 AI를 사용해 세이브한 활동가의 시간과 역량을 어디에 사용할지에 대한 고민과 조직적 합의 또는 방향 제시가 필요한 것 같습니다. 그렇지 않으면, 나의 노동력이 생성형 AI 이용 효과를 극대화하기 위한 수단/도구로 전락한다는 고민이나 상실감을 없애기 어려울 것 같습니다. 생성형 AI를 이용하는 목적에 대한 구성원들 간의 고민과 논의는 가이드라인을 만드는 시점뿐 아니라 앞으로 지속적으로 이루어지는 것이 무엇보다 중요하다고 생각합니다. 

🙋🏻각자 계신 조직에서 개인 간의 AI 활용 격차는 어떤 편인가요? 개개인이 어디서 어떤 경로/계기로 AI 활용을 배우고 적용하게 되는 지 궁금합니다.
: 제가 있는 조직은 설문조사를 실시해봤는데 아직은 생성형 AI를 업무에 사용하는 사례가 많지 않은 것으로 확인됩니다(개인적으로 사용하는 경우는 꽤 있는 것 같습니다만 파악하진 않았습니다). 주로 아이디에션에 많이 사용하고, 무료로 제공되는 챗GPT, 제미나이 정도 사용하는 것으로 확인됩니다. 그 외 가장 많이 사용되는 업무 영역은 번역으로, 번역 정확성이 좀 더 높다고 알려진, 번역에 특화된 생성형 AI를 사용하고 있습니다.
생성형 AI 이용 교육은 주변에서 찾아볼 수는 있지만, 조직적으로 교육을 실시한 적은 아직은 없습니다. 참여연대 가이드라인안은 교육의 중요성을 강조하고 있습니다. 생성형 AI 이용 교육뿐만 아니라 AI 리터러시 교육도 병행되어야 하며, 생성형 AI 결과물이 차별과 편견을 포함하고 있지 않는지 판단하기 위해서 인권 감수성을 높이기 위한 일반적 인권 교육도 더욱 강화될 필요가 있습니다.

🙋🏻자체로 구축한 AI를 제외하고 조직 차원에서 제공하는 툴이나 가이드가 있나요? 혹은 못쓰게 하는 툴이 있을까요? 보안 관점에서 어떻게 다루는지 궁금합니다. 
: 생성형 AI를 자체적으로 개발하는 사례도 적지 않은 것 같습니다. 사례발표에서 언급됐듯 생성형 AI에게 필요한 자료를 정리하고 읽힐만하게 정리하는 작업이 만만치 않으며, 최신 데이터 업데이트 등 최신성을 유지하는게 상당히 어렵다는 면에서 자체 생성형 AI 개발이 쉽지는 않다는 생각이 듭니다. 생성형 AI 시장이 빠르게 변화하고 있기 때문에 특정 생성형 AI 구독을 고수하기보다 기술과 시장 변화를 상시적으로 고려할 필요가 있어 보입니다. 그리고 무엇보다 생성형 AI 사용이 요구되는 업무 영역을 파악하고 그 업무를 수행하기에 가장 적합한 생성형 AI를 찾는 것이 필요해 보입니다.
아직까지는 프롬프트에 넣은 정보가 데이터 학습에 이용되지 않는다고 보장하기 어렵기 때문에 참여연대 가이드라인안은 개인정보를 다루는 업무, 회원 관련 업무는 생성형 AI 이용을 제한할 예정입니다.  

🙋🏻 AI 사용에 대해 논의하면서 공익 활동가의 일자리나 활동가 대체에 관한 고민도 있으셨다고 들었습니다. 그 부분을 좀 나눠주실 수 있을까요?
: 시민단체 활동가다 보니 노동 대체 문제가 가장 큰 고민이었습니다. 참여연대 활동가들이 AI를 잘 안 쓰게 되는 요인 중 하나도 여기에 있다고 생각합니다. 그래서 참여연대 가이드라인의 핵심 원칙 중 하나가 ‘활동가의 노동을 대체하지 않는다’입니다.
세부적으로는 업무를 고위험, 중간 단계 승인 필요, 자율 활용 세 가지 카테고리로 구분했습니다. 그런데 구분하다 보니 예상치 못한 논쟁이 생겼습니다. 토론회 후 보도자료를 작성하는 것처럼 단순해 보이는 업무도, 저연차 활동가가 직접 해봄으로써 다음 단계의 숙련도를 쌓아가는 과정일 수 있다는 것이었습니다. 이 업무를 AI로 대체해도 되는가, 아닌가를 두고 내부에서 열띤 논쟁이 있었습니다. 결론적으로는 팀장의 판단에 맡기는 것으로 했습니다. 팀원의 숙련도, 해당 업무를 맡은 지 얼마나 됐는지 등 복합적인 요인을 고려해서 AI를 써도 될지, 아니면 직접 해보도록 독려할지를 팀장이 유연하게 판단하는 구조입니다. A는 되고 B는 안 된다는 식의 경직된 기준보다는, 활동가의 상황과 숙련도에 따라 유연하게 적용할 수 있도록 고민했습니다. 다만 이런 논의가 가능했던 것은 저희가 40여 명 규모의 단체이기 때문이기도 합니다. 한두 명으로 구성된 소규모 단체나 지역 단체는 상황이 다를 수 있고, AI를 더 적극적으로 활용하는 방향이 맞을 수도 있습니다. 결국 표준안보다는 각 단체의 구성원들이 함께 합의해 나가는 과정이 중요하다고 생각합니다.

🙋🏻반복되는 업무, 데이터를 분류하고 정리하는 일들은 AI를 통해서 도움을 많이 받을 수 있을 것 같아요, 반대로 AI가 해내는 일들을 보면서 비영리 조직에게 스스로 어떤 가치와 목적으로 일하고 있는지 더 질문하는 것 같아요.
: 저도 비슷한 생각입니다. 시민운동을 함에 있어 항상 인력과 역량의 부족함을 많이 느끼는데 생성형 AI 이용을 이러한 어려움과 한계를 극복하는 하나의 도구가 된다면 좋을 것 같습니다. 이와 동시에 참여연대는 ‘인공지능 사회로의 전환’으로 가는 길목에서 이러한 개발이 산업 성장에만 치우친 것이 아니라 기후, 인권 등 시민사회가 요구해온 가치를 구현하는 유용한 수단이 될 수 있도록 요구하는 일에도 집중하고 있습니다.  

🙋🏻참여연대 가이드라인 제작 시 생성형 AI를 이용하셨는지 궁금합니다 
: 참여연대는 <생성형 AI 이용 및 규제 가이드라인>(가칭, 이하 참여연대 가이드라인안) 초안을 마련했고 구성원들의 다양한 의견을 수렴하는 과정에 있습니다. 참여연대 가이드라인안은 ‘시민사회를 위한 생성형 AI 가이드’를 토대로, 각종 언론사, 사기업, 비영리기업, 해외NGO 사례 등을 두루 검토, 통합하여 만들었습니다. 
생성형 AI(챗GPT)도 이용해 필요한데 빠진 부분이 있는지 크로스체크도 했습니다. 예를 들어, “투명성 확보를 위해 필요한 조치는 무엇이 있나” 등을 물어보았습니다. 이를 통해 여러 사례를 모아 만든 가이드라인 초안에서 필요한데 빠진 사항이 있는지 확인하고자 했습니다. 
(시민사회를 위한 생성형 AI 가이드 링크 https://guide.jinbo.net/generative-ai/

🙋🏻AI책임자 역할은 어느 부서에 직책자로 정하셨나요? 시스템개발, 관리 역할 부서인지? 경영지원부서일지? 기획부서인지 궁금합니다.
: 앞서 말씀드린 것처럼 참여연대 가이드라인안은 아직 논의 중에 있어 책임자도 아직 미정입니다. 하지만 생성형 AI 구독과 관련해서는 홍보, 소통 업무를 담당하는 부서가 맡는 방안(가칭 생성형AI담당자)을 논의 중이며, 생성형 AI 사용 과정에서의 단체의 의무(투명성, 책임성 등)와 위기 관리는 위기 관리 담당 부서가 맡는 방안(가칭 생성형AI책임자)을 논의 중입니다. 아울러 생성형 AI 관련 정책을 검토하기 위해 참여연대의 다양한 구성원이 참여하는 위원회를 구성할 계획입니다. 다양한 이해당사자들이 정책 수립과 의사결정 과정이 참여해 활동가들의 필요성과  요구, 시민운동의 방향성에 부합하는 생성형 AI 이용 노하우를 축적해 가고자 합니다.  

 

Loader Loading...
EAD Logo Taking too long?

Reload Reload document
| Open Open in new tab

다운로드 [483.32 KB]