[카테고리:] 현황

  • [여는 글] AI 생성 음악의 현황과 과제

    2023년 4월, “Heart on My Sleeve”라는 곡이 TikTok과 Spotify에서 빠르게 퍼져나갔습니다. Drake와 The Weeknd가 부른 것처럼 들리는 힙합 트랙이었지만, 두 아티스트는 이 곡에 전혀 관여하지 않았습니다. 익명의 제작자 ‘Ghostwriter’가 AI로 두 아티스트의 보컬을 합성해 자신의 곡에 얹은 것이었습니다. 삭제되기 전까지 TikTok에서 1,500만 회, Spotify에서 60만 회 이상 재생되며 AI 생성 음악에 대한 논의가 본격화되었습니다.

    그러나 Heart on My Sleeve는 보컬만 AI로 합성한 사례였습니다. 2024년 4월, AI 음악 생성 서비스 Udio로 만들어진 “BBL Drizzy”는 보컬, 멜로디, 화성, 편곡까지 모두 AI가 생성한 곡이었습니다. 이 곡은 빠르게 퍼져나갔고, 한 달여 뒤 Drake가 공식 발매곡에 샘플로 사용했습니다. AI가 만든 음악이 메이저 아티스트의 공식 발매곡에 사용된 최초의 사례였습니다.

    2025년에는 한 걸음 더 나아갔습니다. 6월, 브라질 출신 아티스트 Vinih Pray의 “A Million Colors”가 TikTok Viral 50 차트 44위에 올랐습니다. Suno가 처음부터 끝까지 생성한 이 곡은 Spotify에서 80만 회 이상 스트리밍되었고, 많은 청취자들이 AI 곡임을 알아채지 못했습니다. 빌보드는 이를 “AI 생성 곡이 TikTok 차트에 진입한 최초의 사례”로 보도했습니다.

    한국에서도 상황은 다르지 않습니다. HYBE는 2021년 AI 오디오 기업 수퍼톤에 첫 투자를 단행한 뒤, 2023년 1월 약 450억 원 규모의 인수를 완료했습니다. 그해 소속 가수 미드낫의 트랙을 6개 국어로 제작하는 데 AI 음성 기술을 활용했습니다. 2024년에는 대한민국 글로컬 미래교육박람회 주제곡 공모전에서 AI로 제작된 곡이 최우수상을 수상했습니다. 심사위원이었던 작곡가 김형석은 수상곡을 직접 편곡한 뒤 “AI가 만들어 내는 창작물과 공존하는 시대에 작곡의 방향에 대한 고민이 깊어졌다”라고 말했습니다.

    AI 생성 음악은 이미 실험적 단계를 넘어 실제 창작 생태계에 진입했습니다. 목소리 복제를 넘어, 이제 AI는 멜로디와 화성, 리듬과 편곡까지, 음악 그 자체를 만들어내고 있습니다.


    도구인가, 위협인가

    저는 AI 음악 생성 기술을 본질적으로 ‘위험한 기술’이라고 보지 않습니다. 텍스트 프롬프트만으로 데모를 뽑아보거나 사운드 이미지를 빠르게 확인하는 식으로, 이미 여러 창작 현장에서 생성형 음악 모델을 활용하고 있습니다. 영상 제작자가 배경음악 초안을 잡을 때, 작곡가가 편곡의 방향성을 테스트할 때, 게임 개발자가 프로토타입에 임시 사운드트랙을 붙일 때가 대표적입니다. 이런 맥락에서 Suno나 Udio 같은 서비스는 창작 도구로 기능할 수 있습니다.

    그러나 도구로서의 잠재력과 현재 벌어지고 있는 현실 사이에는 괴리가 있습니다.


    저작권 분쟁 현황

    2024년 6월, Sony Music, Universal Music Group, Warner Records는 Suno와 Udio를 상대로 저작권 침해 소송을 제기했습니다. 핵심 주장은 다음과 같습니다. 두 회사가 수백만 곡의 저작권 보호 음원을 무단으로 학습 데이터로 사용해, “인간 아티스트의 창작물과 직접 경쟁하고, 그 가치를 떨어뜨리며, 궁극적으로 진정한 음악을 잠식하는” 콘텐츠를 생성했다는 것이었습니다.

    그러나 1년여 만에 상황은 달라졌습니다. 2025년 10월 Universal이 Udio와 합의한 것을 시작으로, 11월에는 Warner가 Suno, Udio와 각각 라이선스 계약을 체결했습니다. 아티스트가 자신의 창작물이 AI 학습에 사용되는 것에 동의권을 행사할 수 있는 방향입니다. 다만 Universal과 Suno 간, Sony와 Suno 및 Udio 간 소송은 여전히 진행 중입니다.

    이 일련의 사건들은 질문을 남깁니다. 라이선스 계약이 체결되면 문제가 해결되는 것일까요?

    저는 그렇게 단순하지 않다고 봅니다. 메이저 레이블과의 합의는 거대 기업들 간의 비즈니스 조정일 뿐입니다. 인디 아티스트, 청취자의 신뢰, 창작의 가치 같은 문제는 여전히 남습니다.


    범람하는 스트리밍 플랫폼

    2025년 4월, 스트리밍 플랫폼 Deezer는 자사에 매일 업로드되는 콘텐츠의 18%가 AI로 생성된 것으로 추정된다고 발표했습니다. Spotify 커뮤니티 포럼에는 “Release Radar 플레이리스트가 AI 음악으로 가득 찼다”는 불만이 이어지고 있습니다. 일부 가상의 ‘아티스트’들은 수백만 회의 스트리밍을 기록하며 로열티 풀에서 수익을 챙기고, 실제 뮤지션들은 알고리즘 추천에서 밀려나고 있습니다.

    다른 문제도 있습니다. AI로 생성된 음악이 실제 아티스트에게 거짓으로 귀속되거나, 존재하지 않는 가상의 페르소나가 실제 뮤지션인 것처럼 포장되는 사례가 늘고 있습니다. Music Business Worldwide에 따르면, Spotify에서 200만 회 이상 스트리밍된 한 아웃로 컨트리 아티스트는 사실 AI가 만든 목소리와 이미지를 가진 가상의 존재였습니다. 이런 상황에서 “내가 듣는 이 음악이 실제 사람이 만든 것인가?”라는 질문이 제기되는 것은 자연스럽습니다.

    AI 개입을 숨긴 채 생성 음악을 자신의 창작물처럼 판매하는 행위는 예술 시장의 신뢰를 떨어뜨리고 저작권과 크레딧 체계에 대한 불신을 키웁니다. Spotify는 2025년 가을 AI 보호 정책을 강화하며 스팸 필터와 AI 공개 권장 기준을 도입했지만, 이것만으로 충분할지는 아직 알 수 없습니다.


    모델 붕괴

    단기적인 신뢰 문제를 넘어, 더 구조적인 우려도 있습니다. AI가 생성한 데이터를 다시 AI가 반복적으로 학습할 때 성능이 서서히 붕괴되는 현상, 이른바 ‘모델 붕괴(model collapse)’입니다.

    2024년 Nature에 발표된 Shumailov 등의 연구는 이 현상을 실증했습니다. 생성 모델이 합성 데이터로 반복 학습되면, 처음에는 드물지만 중요한 데이터부터 정보를 잃기 시작합니다. 이후 전체적인 다양성이 급격히 감소하고, 결국 원본 데이터와 전혀 다른 분포로 수렴합니다.

    물론 반론도 있습니다. Stanford, MIT 등의 연구진은 합성 데이터가 실제 데이터와 함께 축적되면 붕괴를 피할 수 있다고 주장합니다. 그러나 논쟁의 결론과 무관하게 한 가지는 분명합니다. 고품질의 인간 창작물은 생성 모델의 성능을 유지하는 데 필수적입니다. AI 생성 음악이 범람하면서 인간 아티스트의 창작 동기가 약해지고 고유한 창작물이 희소해진다면, 역설적으로 생성 모델 자체의 질적 저하로 이어질 수 있습니다.


    소통과 관계의 창구로서의 예술

    지금까지 다룬 문제들(저작권 분쟁, 플랫폼 범람, 모델 붕괴)은 모두 중요합니다. 그러나 저는 이 문제들이 표면에 드러난 현상일 뿐이라고 생각합니다. 더 근본적인 층위에서 무슨 일이 벌어지고 있는지 묻지 않으면, 기술적 해법도 방향을 잃습니다.

    사람들은 왜 AI가 만든 예술을 즐기면서도 동시에 거부감을 느끼는 것일까요?

    저는 예술이 단순한 감각 자극이 아니라 소통이라고 생각합니다. 창작자가 수용자에게 전하는 연결, 그리고 같은 작품을 경험하는 사람들 사이에서 형성되는 연결. 우리가 음악을 들을 때 무의식적으로 기대하는 것은 청각적 자극만이 아니라, 이 연결들입니다. AI 음악에는 그 소통의 상대방이 없습니다. 그 연결이 허구일 수 있다는 불신이 퍼지면, 음악이라는 매개체 자체에 대한 신뢰가 손상됩니다.

    이 질문은 이 블로그를 시작하게 된 출발점이기도 합니다. 별도의 글 ‘왜 우리는 AI 음악에 거부감을 느끼는가’에서 더 깊이 다루겠습니다.


    이 블로그의 방향

    이 블로그는 “AI 생성 음악을 없애야 하는가”라는 질문을 다루지 않습니다. 기술의 흐름을 거스르는 것은 현실적이지도, 바람직하지도 않습니다. 대신, AI가 만든 음악과 사람이 만든 음악이 공존하려면 무엇이 필요한지 묻습니다.

    사회적 합의에는 오랜 시행착오와 집단적 고민이 필요합니다. 그리고 그 시행착오의 바탕에는 기술적 안전장치가 있어야 한다고 생각합니다. 무엇이 AI이고 무엇이 사람인지, 내 창작물이 언제 어떻게 학습될지 알 수 없는 혼란 속에서는 시행착오도 고민도 시작할 수 없기 때문입니다.

    안전장치에도 여러 접근법이 있습니다. 워터마킹이나 콘텐츠 출처 인증(C2PA 등)처럼, 생성형 AI 공급자가 출력물의 출처를 자체적으로 명시하는 선언적 방식이 있습니다. 그러나 저는 다른 접근법이 더 중요하다고 생각합니다. 예술가, 소비자, 유통 플랫폼이 주도할 수 있는 방어적 안전장치입니다. 이미 생성되어 유통되는 AI 음악을 탐지하고 식별하는 기술, 그리고 인간의 창작물이 무단으로 학습되는 것을 방어하는 기술이 그것입니다.

    이 블로그는 그 기술들을 다룹니다.

    관련 연구들을 크게 두 축으로 나누어 살펴볼 예정입니다.

    탐지(AI Music Detection).

    이미 유통되고 있는 AI 음악을 식별하는 기술입니다. 오디오 딥페이크 탐지 분야의 방법론이 음악 도메인으로 확장되고 있으며, 높은 테스트 정확도가 실제 환경에서의 견고함을 보장하지 않는다는 점이 핵심 도전 과제입니다.

    사전 방어(Unlearnable Data / Defensive Data Poisoning).

    사후 탐지가 아닌 사전 방어에 초점을 맞춥니다. 사람 귀에는 들리지 않지만 AI 학습을 방해하는 섭동을 데이터에 삽입하는 기술입니다. 이미지 도메인의 Glaze, Nightshade에 이어 음악 도메인에서도 연구가 시작되고 있습니다.

    두 접근법은 상호 보완적입니다. 탐지는 이미 유통 중인 콘텐츠에 대응하고, 방어는 미래의 무단 학습을 억제합니다.


    마치며

    이 블로그는 무엇보다 저 자신의 학문적 탐구를 위한 기록입니다. 하지만 같은 문제를 고민하는 연구자, 엔지니어, 예술가들에게도 작은 보탬이 될 수 있기를 바랍니다.

    2025년 12월 17일, 김관용(Tolerance Kim)


    참고문헌

    학술 연구

    • Shumailov, I., et al. (2024). AI models collapse when trained on recursively generated data. Nature, 631, 755–759.
    • Gerstgrasser, M., et al. (2024). Is Model Collapse Inevitable? Breaking the Curse of Recursion by Accumulating Real and Synthetic Data. arXiv preprint arXiv:2404.01413.

    산업 및 법적 동향