웹진
한국방송연기자노동조합 홈페이지를 찾아주신 조합원여러분 환영합니다.
방송가에 스며드는 AI
노동의 미래는?
작성 : 2026년 01월 13일 (화)
AI는 가까운 미래의 일이 아니다. 이미 방송과 콘텐츠 산업의 한복판으로 침투한 지 오래다. 한국콘텐츠진흥원이 2025년 상반기 2,513개 콘텐츠 사업체를 대상으로 실시한 조사에서 생성형 AI 활용률은 20.0%로 나타났다. 특히 방송·영상산업의 활용률은 30.8%로 다른 산업 대비 높게 나타났으며, 콘텐츠 제작(63.0%)과 콘텐츠 창작(43.0%) 영역에서 활용이 집중되고 있다. 더 이상 AI는 실험 단계가 아니라, 제작 현장의 일상이 된 것이다.
실제로 방송가 곳곳에서 AI의 흔적을 발견할 수 있다. MBN은 김주하 앵커의 모습과 목소리를 학습해 만든 AI 앵커를 국내 방송사 최초로 선보인 바 있고, MBC는 ‘PD가 사라졌다!’를 통해 AI PD ‘M파고’가 캐스팅 제안부터 미션 설계, 실시간 편집, 출연료 산정까지 인간 PD의 역할을 대신하는 과정을 담아내기도 했다.
모든 시도가 환영받은 것은 아니다. MBC ‘심야괴담회’는 시즌 4에서 재연 배우 대신 AI 이미지를 사용했다가, 시청자들의 거센 반발에 부딪혔다. “기괴하다”, “몰입이 깨진다”는 비판이 쏟아진 것이다. 제작진은 “제작비 압박 때문”이라고 해명했지만, 논란 이후 AI 이미지를 더 이상 방송에 활용하지 않고 있다.
기술의 빠른 확산은 새로운 질문을 낳는다. AI로 생성한 결과물은 누가 검증하고, 그에 대한 책임은 누가 지는가. 누구의 목소리와 모습, 연기를 어떤 방식으로 학습하고, 누구의 동의를 받아 사용할 것인가. AI가 만든 콘텐츠라는 사실을 시청자에게 알려야 하는가, 알린다면 어떤 방식으로 알릴 것인가. 최근 방송가에서 일어난 일련의 사건들은, 이 질문들이 더 이상 미룰 수 없는 현실임을 보여준다. 그중에서도 가장 첨예한 논쟁을 불러온 것은 성우를 AI로 대체하려는 지하철 안내방송을 둘러싼 이슈였다.
목소리의 주인은 누구인가
지난 10월, 30년 가까이 서울 지하철 안내방송을 맡아온 강희선 성우의 목소리를 AI 음성으로 대체하겠다는 서울교통공사의 소식이 전해지며 논란이 된 바 있다. 공사에서 성우의 음성을 학습한 AI 음성 도입을 검토하고 있다는 사실이 알려지면서, 당사자 동의 없이 목소리가 학습·활용되는 것 아니냐는 의문이 제기되기도 했다.
핵심은 단순히 ‘AI를 쓰느냐 마느냐’가 아니다. 누군가의 목소리를 어떤 절차로 데이터화하고, 사용 범위와 대가를 어떻게 정하느냐가 본질이다. 목소리는 단순한 음원이 아니라 직업인의 숙련과 시간이 농축된 결과물인데, AI는 이를 ‘재현 가능한 자원’으로 바꾸며 당사자 동의 없는 사용 가능성까지 열어버렸다. 재정적 압박이 현실이라 해도, 비용 절감이 창작자의 일자리와 권리 침해를 정당화할 수는 없다.
논란이 커진 뒤 서울교통공사는 무단으로 목소리를 사용하려 한 것이 아니며, 기술 도입 검토 역시 확정이 아닌 “검토안” 수준이었다고 해명했다. 하지만 ‘검토안’이라는 말이 모든 우려를 지우지는 못한다. 검토 문서 한 줄이 당사자에게는 생계와 정체성의 문제로 직결되기 때문이다.
가속화되는 AI 침투
AI 기술을 본격적으로 활용한 드라마 제작도 가시화되고 있다. 이오콘텐츠그룹은 국내 최초로 시즌제 AI 드라마를 제작한다고 밝혔다. ‘곧, 밤이 됩니다’와 ‘곧, 출근합니다’는 5분 분량 10개 에피소드로 구성된 작품인데, 주목할 점은 제작 방식이다. 기획 단계부터 AI 딥러닝 프로세스를 적용했으며, 실제 배우의 얼굴 근육과 표정 데이터를 학습한 AI 휴먼이 자연스러운 감정 연기를 구현한다. 사측은 이번 두 작품을 시작으로 총 127개 규모의 ‘곧,’ 시리즈를 순차적으로 선보이며, 탄탄한 세계관과 스토리텔링을 갖춘 시즌제 형식으로 지속 가능한 제작 프로세스를 구축하겠다고 밝혔다.
민간의 움직임에 정부도 대응에 나섰다. 방송미디어통신위원회는 2025년 12월 12일 업무보고를 통해 AI 기술을 활용한 방송미디어 산업 활성화와 함께 안전한 이용 환경 조성을 위한 종합 정책을 발표했다. 방송미디어 전주기에 AI·디지털 기술을 도입하고, 미디어 제작·편집, 개인 맞춤형 서비스 기술을 개발하며, AI 기술을 기획-제작-유통 전 과정에 적용해 제작 효율화를 추진한다. 목표는 2028년까지 방송미디어 산업의 AI 도입률을 현재 10%에서 30%로 끌어올리는 것이다.
이러한 시도들이 마냥 긍정적으로만 받아들여지는 것은 아니다. 기술의 진보가 연기자와 제작 인력의 일자리를 위협할 수 있다는 우려는 여전하다. AI가 재연 배우를 대체하려던 ‘심야괴담회’의 사례처럼, 효율성과 비용 절감의 논리가 창작자의 권리를 침해하는 방향으로 흐를 위험이 있기 때문이다. AI 기술이 가져올 경제적 이익과 사회적 위험을 정부가 동시에 인식하고 있음을 보여주지만, 실효성 있는 정책이 되기 위해서는 가이드라인을 넘어선 법적 강제력이 필요하다는 지적도 여전하다.
기술 발전의 속도보다, 권리 보호의 속도가 더 빨라야 한다
현장의 자율 규제만으로는 부족하다. 기술이 발전할수록 이용자와 권리를 보호하는 제도적 기준도 함께 강화되어야 한다. 실제로 여러 기관이 움직이고 있다.
방송통신위원회는 2025년 2월, 생성형 AI 개발사와 서비스 제공자가 참고할 기본 원칙과 실행 방식을 제시한 「생성형 인공지능 서비스 이용자 보호 가이드라인」을 발표했다. 개인정보위원회 역시 지난 8월 「생성형 인공지능(AI) 개발·활용을 위한 개인정보 처리 안내서」를 공개한 바 있다.
하지만 한계는 분명하다. 가이드라인과 안내서는 말 그대로 권고 사항일 뿐, 법적 구속력이 없다는 맹점이 있다. 위반 시 제재할 수 있는 강제적 수단이 부재한 상황에서 기업의 선의에만 기댈 수는 없는 노릇이다. 실효성 있는 권리 보호를 위해서는 가이드라인 수준을 넘어선 촘촘한 법률적 안전장치 마련이 필수적으로 뒤따라야만 한다.
결국 현장의 목소리는 하나로 모인다. AI 활용은 이제 선택이 아니라 필연이다. 하지만 그 과정에서 동의·표시·검증·대가를 확립하는 것은 반드시 제도와 계약으로 뒷받침되어야 한다. 서울교통공사 이슈가 보여준 것처럼, 검토 문서 한 줄이 누군가에게는 생계의 문제가 된다. ‘심야괴담회’의 AI 이미지 논란은 제작비 절감이 연기자의 일자리를 어떻게 침해할 수 있는지를 보여줬다. 방송사들이 잇따라 가이드라인을 제정한 것은, 빠른 것만이 능사가 아님을 깨달았기 때문이다. 그리고 정부와 공공기관이 가이드라인과 안내서를 내놓은 것은, 자율만으로는 모든 문제를 해결할 수 없다는 인식의 반영이다.
기술이 아무리 빨라도, 권리 보호는 더 빠르게 움직여야 한다. 그래야 산업의 성장이 누군가의 흔적을 지우면서 이루어지지 않는다. 방송가에 침투한 AI는 이제 되돌릴 수 없는 흐름이다. 중요한 건 그 흐름을 어떻게 관리하고, 누구의 권리를 어떻게 지키느냐다. 기술의 진보가 누군가의 퇴보를 의미해서는 안 된다.