|
지난 4월 9일, 서울시공익활동지원센터 다목적홀 ‘모이다’에서 <AI와 비영리, 네 가지 얼굴로 마주하는 변화의 파도> 행사를 열었습니다. 이번 행사는 국내 비영리조직 종사자의 생성형 AI 활용 현황조사 결과를 바탕으로, 비영리 현장에서 AI가 어떻게 활용되고 있는지, 그리고 그 과정에서 어떤 질문과 고민이 생겨나고 있는지를 함께 나누기 위해 마련되었습니다. 이날 나눈 발표와 이야기를 각각의 포스팅으로 상세히 공유합니다. 국내비영리조직 AI 활용 현황조사결과. 네가지 얼굴로 마주하는 변화의 파도 |
세 번째 사례 발표자는 참여연대 권력감시1팀 김희순 팀장. ‘신중형’ – AI에 대한 우려가 기대보다 크고, 미션과 가치의 부합을 가장 중요하게 생각하는 유형의 사례로 소개됐습니다. ‘신중형’답게 발표는 솔직한 고백으로 시작됐습니다. “생성형 AI를 쓰는 게 활동가로서 조금 죄책감이 있는 것 같아요. 환경에 안 좋다는데, 노동력을 대체한다는데, 써도 되나 싶은 거죠.” 하지만 쓰지 않는 것이 답이 아니라면, 어떻게 쓸 것인가를 함께 고민해야 한다는 것, 참여연대의 AI 논의는 거기서 시작됐습니다.
하나의 질문이 조직 전체의 논의로
발단은 단순한 아이디어였습니다. “9만 명의 독자를 가진 뉴스레터 ‘끄의 세계’에 AI 음성을 입히면 어떨까?” 검찰 개혁, 법원 개혁, 정치 개혁을 다루는 이 뉴스레터를 더 많은 시민들이 쉽게 접할 수 있도록 AI로 요약하고 음성으로 제공하자는 구상이었습니다. 그런데 참여연대는 정보 인권과 인공지능 이슈도 함께 다루는 시민단체입니다. “생성형 AI 문제가 많다고 하면서 우리 활동에 써도 되나”라는 질문이 자연스럽게 따라왔습니다. AI 음성은 기계의 목소리인지 누군가의 목소리를 가져온 것인지, 요약이 정확한지 우리가 다시 확인해야 하는 것인지와 같은 질문이 꼬리를 물었고, 결국 참여연대 전체의 생성형 AI 사용 논의로 이어졌습니다.
공익법센터, 미디어홍보팀, 정책기획부가 모였습니다. 그런데 참석자들의 연차가 높다는 판단에 저연차 활동가들도 합류시켜 논의 구조를 만들었습니다. 6~7명이 모여 회의를 시작했는데, 첫 번째 질문부터 쉽지 않았습니다. “AI와 생성형 AI는 뭐가 다른 거지?” 기후 위기를 걱정하면서 전력을 많이 쓰는 AI를 써도 되는지, 안 쓰면 뒤처지는 건 아닌지와 같은 고민이 쏟아졌습니다. 결론은 하나였습니다. “우리 6~7명이 가이드라인 초안을 만들 수준이 아니다. 구성원들이 어떻게 생각하는지부터 들어야겠다.”
구성원의 목소리를 먼저 들었다
두 가지 현황 조사가 진행됐습니다. 42명 구성원 중 절반 이상이 참여한 설문조사, 그리고 18명이 모인 집담회 ‘오지랖 한마당’이었습니다. 결과는 예상과 조금 달랐습니다. 저연차보다 고연차의 참여가 더 많았고, 사용 빈도는 필요할 때만 불규칙적으로 쓰는 수준이었습니다. 자료 검색이나 아이디어 탐색 정도였고, 업무에 적극적으로 활용하는 경우는 많지 않았습니다.
나온 고민들은 다양했습니다. 탄소 배출과 기후 위기, 노동 대체 문제, 저연차 활동가의 성장 기회가 줄어드는 것에 대한 우려. 반면 “AI가 할 수 있는 건 맡기고, 활동가만 할 수 있는 일을 찾아야 한다”는 의견도 있었습니다. 가이드라인에 꼭 담겨야 할 것으로는 팩트 체크, 투명성, 차별·혐오 표현 규제, 회원 정보 보호, 그리고 무엇보다 활동가를 대체하지 않아야 한다는 원칙이 꼽혔습니다.
가이드의 이름 하나도 쉽지 않았다
가이드라인을 만들기로 결정했지만, 이름부터 난관이었습니다. ‘활용’이라는 단어를 쓰면 AI 사용을 장려하는 뉘앙스가 된다는 문제 제기가 나왔습니다. ‘이용’도 마찬가지였습니다. 가이드라인을 만드는 것 자체가 AI를 쓰라는 시그널이 되는 게 우리가 합의한 방향인가라는 근본적인 질문도 나왔습니다. 결국 규제적 성격을 명시하는 방향으로 가고 있지만, 최종 확정은 아직입니다. “이름 하나 정하는 것도 이렇게 힘든데 내용은 얼마나 많았겠어요.” 발표자가 웃으며 던진 말이었습니다.
가이드라인의 핵심 원칙은 네 가지로 정리됐습니다. 단체의 목적과 비전에 부합하는 방향으로 사용한다. 결과에 대한 책임은 조직에 있다. AI는 활동가의 판단과 숙련을 대체하지 않는다. AI는 보조적 수단이다. 사용 전, 사용 중, 사용 후로 나눠 세부 지침도 마련했습니다. 특히 “AI를 사용했음을 밝히되, 어떻게 활용했는지 설명할 수 있어야 한다”는 원칙에 방점을 뒀습니다.
그런데 여기서 또 딜레마가 생겼습니다. 투명성을 위해 AI 사용 사실을 밝혔더니, 오히려 신뢰성이 떨어진다는 반응이 나왔습니다. 요즘 ‘생성형 AI로 작성된 기사입니다’라는 문구를 보면 왠지 속은 느낌이 드는 것처럼요. 시민단체로서의 투명성과 신뢰성이 서로 충돌하는 지점이었습니다.
활동가에게 필요한 역량에 대한 고민이 우선
가이드라인보다 더 중요하게 강조한 것이 있었습니다. 교육, 그중에서도 인권 교육이었습니다. “생성형 AI가 만들어낸 결과물에서 편향과 차별을 감지할 수 있는 눈이 먼저 있어야 합니다. 과거에 ‘눈 먼 예산’, ‘박차를 가하다’ 같은 표현을 무심코 쓰다가 이제는 쓰지 않게 된 것처럼, 인권 감수성이 AI 활용보다 앞서야 합니다.” AI 리터러시보다 인권 교육이 선행 조건이라는 것, 그리고 팩트체크는 물론 활동가들에게 필요한 역량이 무엇인지 그에 따른 교육이 필요하다는 것이 참여연대가 내린 결론이었습니다.
질문은 계속된다
처음의 질문, ‘뉴스레터에 AI 음성을 입힐 것인가’는 아직 결론을 내리지 못했습니다. 가이드라인이 완성되지 않아서만이 아닙니다. 9만 독자에게 닿기 위한 가장 좋은 방법이 AI 음성뿐인지, 시민운동의 차원에서 더 깊이 고민해야 할 문제라는 것을 알게 됐기 때문입니다.
“답은 도달하지 못할 수도 있습니다. 하지만 계속 그 답을 찾아가는 것이 저희가 해야 할 일이 아닐까 생각합니다.” 빠르게 변하는 기술 앞에서, 참여연대는 답보다 질문을 붙들고 있었습니다. AI를 쓸 것인가 말 것인가를 넘어, 어떤 가치를 기준으로 관계를 맺을 것인가. 활동가의 역할은 무엇이고, 기술이 대체할 수 없는 것은 무엇인가. 참여연대의 발표가 던진 질문들은 비영리 섹터 전체가 함께 고민해야 할 주제이기도 했습니다.
비영리와 AI, 네 가지 얼굴로 마주한 변화의 파도 참석자 Q&A🙋🏻AI를 활용할수록 업무의 질은 높아지지만, 역설적으로 인간이 AI의 언어를 교정하고 기술을 뒤쫓는 데 더 많은 에너지를 쏟게 되는 것 같습니다. 제가 AI를 똑똑하게 부리는 것이 아니라 AI에 맞춰 일하고 있다는 느낌이 드는데, 최적의 균형점을 찾으려면 어떤 관점의 변화가 필요할까요? 🙋🏻각자 계신 조직에서 개인 간의 AI 활용 격차는 어떤 편인가요? 개개인이 어디서 어떤 경로/계기로 AI 활용을 배우고 적용하게 되는 지 궁금합니다. 🙋🏻자체로 구축한 AI를 제외하고 조직 차원에서 제공하는 툴이나 가이드가 있나요? 혹은 못쓰게 하는 툴이 있을까요? 보안 관점에서 어떻게 다루는지 궁금합니다. 🙋🏻 AI 사용에 대해 논의하면서 공익 활동가의 일자리나 활동가 대체에 관한 고민도 있으셨다고 들었습니다. 그 부분을 좀 나눠주실 수 있을까요? 🙋🏻반복되는 업무, 데이터를 분류하고 정리하는 일들은 AI를 통해서 도움을 많이 받을 수 있을 것 같아요, 반대로 AI가 해내는 일들을 보면서 비영리 조직에게 스스로 어떤 가치와 목적으로 일하고 있는지 더 질문하는 것 같아요. 🙋🏻참여연대 가이드라인 제작 시 생성형 AI를 이용하셨는지 궁금합니다 🙋🏻AI책임자 역할은 어느 부서에 직책자로 정하셨나요? 시스템개발, 관리 역할 부서인지? 경영지원부서일지? 기획부서인지 궁금합니다. |