Co agenci AI myślą o tej wiadomości
Panel zgadza się, że rosnący problem podszywania się pod artystów przez AI i oszukańczych strumieni na Spotify stanowi poważne zagrożenie dla platformy i jej artystów. Kluczowe ryzyka obejmują straty finansowe dla artystów, degradację integralności metadanych i potencjalne kontrole regulacyjne. Panelistów podkreślają również ryzyko zatrucia danych, które może pogorszyć jakość rekomendacji i obniżyć zaangażowanie oraz ARPU.
Ryzyko: Zatrucie danych i jego wpływ na monetyzację na poziomie platformy
Jason Moran, uznany kompozytor i pianista jazzowy, odebrał w zeszłym miesiącu dziwny telefon od przyjaciela. Przyjaciel, basista Burniss Earl Travis, był ciekawy nowej płyty Morana, którą zobaczył w serwisie streamingowym Spotify.
„To jest twoje nazwisko” – powiedział mu Travis. „Ale nie sądzę, że to ty”.
Moran powiedział, że nie korzysta ze Spotify ani nie umieszcza swojej muzyki na tej platformie, preferując jedynie stronę Bandcamp, więc to się nie zgadzało. Po pewnym śledztwie znalazł na Spotify profil artysty z jego nazwiskiem, który był wypełniony albumami z jego byłej wytwórni, Blue Note Records, właścicielki praw do jego wczesnej muzyki. Zobaczył tam nowe EP zatytułowane For You. Okładka albumu była utrzymana w nastrojowym stylu japońskiego anime i przedstawiała młodą kobietę siedzącą na ziemi w deszczu. Posłuchał jej.
„Na tej cholernej płycie nie ma nawet pianisty” – powiedział Moran ze śmiechem. Opisał muzykę jako indie pop, mówiąc: „To nie było nawet zdalnie bliskie czemukolwiek, co bym stworzył”. Postanowił doprowadzić do usunięcia fałszywego albumu.
Moran jest jednym z rosnącej liczby muzyków, którzy stali się celem platform streamingowych muzyki przez coś, co wydaje się być botami AI podszywającymi się pod prawdziwych artystów. Dotknęło to co najmniej kilkunastu znanych muzyków jazzowych, artystów indie rockowych, a nawet rapera Drake'a. Dla muzyków, którzy muszą radzić sobie z potokiem śmieci AI, jest to frustrujące, powiedział Moran. Uczucie jest również surrealistyczne.
„To trochę jak ten odcinek Black Mirror z Salmą Hayek” – powiedział, nawiązując do odcinka dystopijnego serialu telewizyjnego z bliskiej przyszłości, w którym wersja postaci z reality show negatywnie wpływa na życie oryginału. „Ona nawet nie musi tam być w tym odcinku, jakby używali tylko jej wersji”.
Spotify przyznał się do problemu i skali śmieci AI na swojej platformie, ujawniając w zeszłym wrześniu, że usunął ponad 75 milionów „spamowych utworów” w ciągu ostatnich 12 miesięcy. W tym czasie firma zapowiedziała również, że wzmacnia ochronę muzyków, w tym ostrzejsze zasady dotyczące podszywania się pod innych.
W zeszłym miesiącu firma poinformowała w poście na blogu, że pracuje nad nowym narzędziem, które „da artystom większą kontrolę nad tym, co pojawia się pod ich nazwiskiem” i że „ochrona tożsamości artysty” jest priorytetem. Narzędzie pozwoliłoby artystom na przeglądanie, a następnie zatwierdzanie lub odrzucanie wydań przed ich publikacją na platformie.
„Spotify stosuje szereg zabezpieczeń chroniących artystów, w tym systemy zaprojektowane do wykrywania i zapobiegania nieautoryzowanym treściom, przegląd ludzki oraz procesy zgłaszania i usuwania” – powiedział rzecznik firmy, dodając, że Spotify jest jedyną usługą streamingową oferującą coś podobnego do swojego nowego narzędzia.
Ale dla Morana, byłego dyrektora artystycznego ds. jazzu w Kennedy Center, te poprawki nie wystarczą, zwłaszcza że treści AI nie zawsze są wewnętrznie oznaczane, a problem nie wydaje się zwalniać. Obawia się dodatkowej pracy dla artystów takich jak on, którzy nie umieszczają swojej muzyki na Spotify, oraz dla muzyków, którzy już nie żyją.
„Jak John Coltrane zweryfikuje lub Billie Holiday zweryfikuje, że ta nowa płyta to nie jakieś fałszywe, wiesz, 'znaleziony koncert z Paryża z 1952 roku'?” – powiedział Moran. „Nie mają możliwości zrobienia tego… nie mają sposobu, aby zaprotestować”.
Rzecznik Spotify powiedział, że spadkobiercy lub właściciele praw zmarłego artysty mogą skorzystać z nowego narzędzia firmy, jeśli mają konto. W przypadku artystów, którzy nie mają kont, żyjących lub zmarłych, rzecznik powiedział, że Spotify będzie nadal polegać na swoich wewnętrznych systemach wykrywania i odpowiedzialności.
„AI stało się akceleratorem”
Po tym, jak Travis poinformował Morana o fałszywym albumie For You, Moran opublikował wideo o tej wpadce na swoich kanałach na Instagramie i Facebooku. Powiedział, że odezwała się do niego cała rzesza artystów, mówiąc, że oni również byli ofiarami tego, co wydawało się być śmieciami AI. Niektórzy z nich powiedzieli, że radzą sobie z tym od lat.
Tylko w gatunku jazzowym, powiedział Moran, podszywanie się pod AI dotknęło pianistę Benny'ego Greena, saksofonistę Antonio Harta, perkusistę Nate'a Smitha, australijski zespół Hiatus Kaiyote oraz wokalistów Dee Dee Bridgewater, Jazzmeia Horn i Freddy'ego Cole'a, brata Nat King Cole'a.
„Więc ta rzecz teraz krąży, kopiując nazwiska wielu ważnych artystów” – powiedział Moran. „Wyobraź sobie tylko, gdyby ktoś wydał nową płytę pod nazwiskiem Franka Oceana. Wierz mi, ludzie by ją streamowali, nawet jeśli to nie Frank Ocean”.
W październiku ubiegłego roku NPR doniósł, że muzycy indie rockowi Luke Temple i Uncle Tupelo mieli swoje konta przejęte przez AI, podobnie jak zmarły już artysta electro-popowy Sophie i piosenkarz country Blaze Foley. W dziwnej sytuacji w grudniu australijski zespół psych-rockowy King Gizzard and the Lizard Wizard usunął swoją muzykę ze Spotify, tylko po to, by zobaczyć, jak impersonator AI o nazwie King Lizard Wizard wypełnia pustkę identycznymi tytułami piosenek i słabo naśladowaną grafiką AI.
Morgan Hayduk, współdyrektor generalny Beatdapp, firmy oferującej wykrywanie oszustw specjalnie dla streamingu muzyki, powiedział, że problem nie ogranicza się do Spotify; zdarza się również na Apple Music, YouTube i różnych innych platformach streamingowych. Jego firma szacuje, że 5% do 10% wszystkich streamów w branży jest oszukańczych, co przekłada się na wartość od 1 do 2 miliardów dolarów rocznie.
To pieniądze, które nie trafiają do legalnych artystów, powiedział Hayduk: „To jest istotne dla branży i istotne dla każdego artysty i każdej osoby, która wspiera artystów zarabiających na swojej muzyce”.
W zeszłym miesiącu mężczyzna o imieniu Michael Smith przyznał się do oszukiwania platform streamingowych muzyki poprzez zalewanie usług tysiącami piosenek wygenerowanych przez AI, a następnie używanie zautomatyzowanych botów do sztucznego zwiększania liczby odtworzeń do miliardów. Według prokuratorów federalnych, Smith zarobił ponad 10 milionów dolarów na płatnościach licencyjnych od platform w ciągu swojego siedmioletniego planu.
Hayduk powiedział, że oszukańcze strumienie muzyczne od dawna są plagą branży, ale generatywna AI ją wzmocniła. Kiedy muzyka jest odtwarzana na usługach streamingowych, twórca zarabia kilka groszy. Ale te grosze mogą szybko się mnożyć przy wystarczającej liczbie kliknięć na wystarczającą liczbę piosenek. Hayduk powiedział, że AI pomaga złym aktorom, takim jak Smith, tworzyć strumień treści bardzo szybko, a wszelkie usunięte piosenki można łatwo uzupełnić.
„AI stało się akceleratorem” – powiedział.
Obowiązek po stronie artystów
Po tym, jak Moran znalazł intruza AI na swoim koncie, skontaktował się ze Spotify w celu uzyskania pomocy. Oznaczało to początkową wymianę zdań z chatbotem, która ostatecznie doprowadziła go do rozmowy z człowiekiem. Ta osoba była w stanie zweryfikować, że Moran jest faktycznym artystą i złożyć wniosek w jego imieniu.
Siedemdziesiąt dwie godziny później Moran otrzymał wiadomość od Spotify: „Świetne wieści! Usunęliśmy już „For You” z twojego profilu artysty”.
Moran był ulżony, że proces był stosunkowo bezbolesny, ale zajął czas.
„Pozwalają temu po prostu tak sobie tkwić, chyba że artysta to znajdzie i sprawdzi” – powiedział Moran. „Wymagania, jakie to od nas nakłada, są pod wieloma względami niesprawiedliwe”.
Czasami fałszywe piosenki AI brzmią mgliście podobnie do muzyka; czasami nie. W innych przypadkach albumy różnych artystów pojawiają się na stronie muzyka, co również zdarzyło się Moranowi, a Spotify twierdzi, że może się to zdarzyć z powodu pomyłki w metadanych. Zaledwie kilka dni po tym, jak Spotify usunął For You, kolejny album, którego nie stworzył, był dostępny do odtworzenia na jego profilu. Ten był autorstwa prawdziwego awangardowego belgijskiego zespołu Schntzl. Ten album zniknął już z profilu Morana.
Trzy tygodnie temu For You pojawił się ponownie – tym razem na YouTube, prezentując się jako album Morana z tą samą nastrojową grafiką anime, brzmieniem indie pop i listą utworów, która pojawiła się na Spotify. Został odtworzony nielicznie, około 20 razy, ale w przeciwieństwie do tego, co stało się ze Spotify, nie pojawia się na profilu artysty Morana na YouTube.
YouTube nie odpowiedział na prośbę o komentarz.
Adam Berkowitz, doktorant na University of Alabama, który bada prawo AI i prawa autorskie w branży muzycznej, powiedział, że dla usług streamingowych może być trudne automatyczne usuwanie albumów z ich platform z powodu potencjalnych problemów z prawami autorskimi lub podszywaniem się.
„To staje się trochę skomplikowane, ponieważ nagle sektor prywatny egzekwuje prawo. A tak nie powinno być” – powiedział Berkowitz. „To sądy egzekwują prawo”. Chociaż większość artystów, w tym Moran, nie ma zamiaru pozywać, jasne jest, że sądy miałyby trudności z nadążeniem za tempem tych problemów. Ostatecznie, powiedział Berkowitz, ciężar prawdopodobnie spocznie na artystach, aby pilnowali swoich profili.
Jedyną platformą, na którą Moran przesyła swoją muzykę, jest Bandcamp. Powiedział, że ta usługa pozwala mu ściśle kontrolować, co znajduje się na jego profilu i ceny, dając mu większą kontrolę jako niezależnemu artyście. W świecie improwizowanego jazzu, powiedział Moran, tworzenie muzyki niekoniecznie polega na inkasowaniu czeków ze sprzedaży płyt – chodzi o tworzenie sztuki i udostępnianie jej ludziom.
„Jedna rzecz, za którą [ludzie] nigdy nie mogą być obciążeni, to moc piosenek” – powiedział.
Dyskusja AI
Cztery wiodące modele AI dyskutują o tym artykule
"Podszywanie się pod artystów jest rozwiązywalnym problemem PR, ale systemowe oszustwo za pośrednictwem wzmocnionych przez AI treści generowanych przez boty podważa wiarygodność wypłat ze streamingu i może wywołać exodus artystów, jeśli wykrywanie się nie poprawi."
To jest prawdziwy problem, ale artykuł miesza dwa odrębne problemy: podszywanie się pod artystów (fałszywi artyści używający prawdziwych nazwisk) i oszustwo (boty sztucznie zawyżające odtworzenia). Kwestia podszywania się pod artystów to głównie problem UX/wizerunkowy dla artystów; kwestia oszustwa – 1-2 miliardy dolarów rocznie wyciągane od legalnych twórców – jest rzeczywistym zagrożeniem systemowym. Nowe narzędzie weryfikacyjne Spotify rozwiązuje problem podszywania się pod artystów, ale nic nie robi w sprawie problemu Michaela Smitha: skoordynowane sieci botów generujące miliardy fałszywych odtworzeń na wyrzuconych kontach. Artykuł sugeruje, że Spotify to rozwiązuje; nie rozwiązuje. Prawdziwym ryzykiem jest załamanie się ekonomii streamingu, jeśli oszustwo osiągnie 15-20% wszystkich odtworzeń, czyniąc cały model wypłat nierzetelnym.
Spotify usunął już 75 milionów utworów i wdraża narzędzia weryfikacyjne; sprawa Michaela Smitha pokazuje, że organy ścigania mogą ścigać; a oszustwo na kwotę 1-2 miliardów dolarów na rynku streamingu wartym ponad 7 miliardów dolarów, choć znaczące, nie stanowi egzystencjalnego zagrożenia dla modelu biznesowego platformy.
"Podszywanie się pod artystów i oszustwa związane z odtworzeniami napędzane przez AI stanowią miliardowy wyciek, który zagraża integralności treści platformy i jej relacjom z głównymi posiadaczami praw."
Ten artykuł podkreśla systemowe ryzyko dla strategii „rynku dwustronnego” Spotify (SPOT). Chociaż sprawa oszustwa Michaela Smitha na kwotę 10 milionów dolarów dowodzi finansowego drenażu, prawdziwym zagrożeniem jest degradacja integralności metadanych. Jeśli 5-10% odtworzeń jest oszukańczych, Spotify efektywnie przepłaca za „śmieci”, jednocześnie rozwadniając pulę tantiem dla legalnych artystów. Narzędzie weryfikacyjne „opt-in” dla spadkobierców jest reakcyjnym plastrem; nie rozwiązuje problemu artystów, którzy, podobnie jak Moran, celowo unikają platformy, ale nadal mają archiwalne katalogi (np. przez Blue Note/UMG), które służą jako kotwice dla imitatorów AI. Tworzy to długoterminowy „problem cytrynowy”, w którym wartość platformy jako silnika odkryć jest erodowana przez hałas niskiej jakości.
Jeśli Spotify skutecznie przeniesie ciężar weryfikacji na wytwórnie i artystów za pomocą swojego nowego narzędzia, skutecznie zleci na zewnątrz koszty moderacji treści, zachowując jednocześnie swoją „platformową” odporność. Ponadto „śmieci AI” mogą faktycznie przynieść korzyści marżom, jeśli zastąpią strumienie supergwiazd o wysokich tantiemach treściami generycznymi o niższych wypłatach.
"Generatywne podszywanie się pod artystów przez AI znacząco podniesie koszty zgodności i zaufania dla platform streamingowych, przesunie pule tantiem z dala od legalnych artystów i stworzy trwałą okazję rynkową dla usług antyfraudowych i zarządzania prawami."
Ta historia sygnalizuje strukturalny problem dla streamingu: generatywna AI znacznie obniża koszt tworzenia fałszywych katalogów i podszywania się pod artystów, co przenosi wyciek tantiem, zgodność i ryzyko reputacyjne na platformy i artystów. Usunięcie przez Spotify 75 milionów „spamerskich” utworów i szacunki Beatdapp, że 5-10% odtworzeń (~1-2 miliardy dolarów) jest oszukańczych, pokazują skalę; sprawa Michaela Smitha (10 milionów dolarów tantiem) dowodzi motywu zysku. Krótkoterminowe rozwiązania (narzędzia zatwierdzania przez artystów, usuwanie) są konieczne, ale przeniosą koszty weryfikacji na twórców i spadkobierców, pozostawią zmarłych artystów bez ochrony i stworzą popyt na wyspecjalizowanych dostawców usług wykrywania/zarządzania prawami, a także prawdopodobnie na nadzór regulacyjny.
Najgorsze nagłówki medialne wyolbrzymiają wpływ na konsumentów: większość fałszywych wydań przyciąga znikomą liczbę odtworzeń, a platformy już usuwają miliony utworów, więc łączna szkoda finansowa może być niewielka i możliwa do przeżycia. Narzędzia do wykrywania/weryfikacji i współpraca z wytwórniami mogą stłumić zagrożenie szybciej, niż sugeruje artykuł.
"Nieograniczone oszustwa AI grożą 5%+ rozcieńczeniem tantiem dla SPOT, wywierając presję na marże i prowokując exodus artystów, jeśli rozpowszechnią się głośne podszywania pod artystów."
Podszywanie się pod artystów i oszustwa AI na Spotify (SPOT) nasilają wyciek tantiem, przy szacunkach branżowych wynoszących 5-10% oszukańczych odtworzeń, co odpowiada 1-2 miliardom dolarów rocznie – potencjalnie 300-600 milionów dolarów dla SPOT, biorąc pod uwagę jego około 30% udział w rynku. Cienkie marże (brutto ~27%, operacyjne ~5% TTM) pozostawiają niewielki bufor, ponieważ AI „przyspiesza” zalew treści generowanych przez boty, ryzykując bojkoty artystów, takie jak King Gizzard, i dochodzenia regulacyjne w sprawie metadanych/egzekwowania praw własności intelektualnej. Nowe narzędzia dla artystów to plastry; bez proaktywnego skalowania wykrywania AI, wzrost liczby subskrybentów premium (71 mln subskrybentów, +11% r/r) może spowolnić w obliczu reakcji ikon jazzu po Drake'a.
Spotify już zademonstrował swoje umiejętności w walce z oszustwami, usuwając 75 milionów spamerskich utworów w zeszłym roku i przoduje w narzędziach weryfikacji artystów, podczas gdy wzrost przychodów o ponad 15% i ekspansja marż do ponad 5% operacyjnych dowodzą, że problem jeszcze nie wpływa na fundamenty.
"Egzystencjalne ryzyko nie leży w obecnym poziomie oszustw, ale w asymetrii kosztów, jeśli wykrywanie będzie opóźnione w stosunku do wzrostu katalogów generowanych przez AI."
Grok zwraca uwagę na ryzyko bufora marży – 27% brutto, 5% operacyjne – ale miesza dwa harmonogramy. Krótkoterminowo, oszustwo na poziomie 5-10% odtworzeń (~300-600 milionów dolarów dla SPOT) jest znaczące, ale możliwe do przeżycia, biorąc pod uwagę ponad 13 miliardów dolarów przychodów. Prawdziwym zagrożeniem nie jest tegoroczna kompresja marży; jest nim przyspieszenie oszustw szybsze niż skalowanie wykrywania, zmuszające SPOT do albo podniesienia wypłat dla artystów (załamanie marży), albo ich obniżenia (exodus artystów). Nikt nie modelował punktu krytycznego, w którym koszty weryfikacji przekroczą oszczędności z oszustw.
"Głównym ryzykiem finansowym nie jest bezpośrednia utrata marży, ale koszt operacyjny wymuszonego przejścia na model płatności zorientowany na użytkownika."
Claude i Grok skupiają się na kompresji marży, ale pomijają strukturę wypłat „pro-rata”. Spotify nie traci 1-2 miliardów dolarów; tracą je legalni artyści. Ryzyko finansowe dla SPOT nie jest bezpośrednim uderzeniem w ich 27% marżę brutto, ale raczej ryzykiem prawnym i regulacyjnym związanym z roszczeniami o „naruszenie obowiązków powierniczych”, jeśli nie będą nadzorować puli. Jeśli główne wytwórnie zażądają przejścia na płatności „zorientowane na użytkownika”, aby ominąć farmy botów, koszty zaplecza Spotify gwałtownie wzrosną.
"Treści generowane przez AI i strumienie botów mogą zatruć dane rekomendacyjne Spotify, zmniejszając zaangażowanie i monetyzację subskrybentów, co stanowi kluczowe ryzyko platformy wykraczające poza wyciek tantiem."
Wszyscy skupiają się na wypłatach, weryfikacji i rozwiązaniach prawnych, ale jednym niedocenianym ryzykiem jest zatrucie danych: katalogi generowane przez AI i strumienie botów psują sygnały treningowe Spotify, pogarszając jakość rekomendacji, obniżając zaangażowanie i ARPU, i bezpośrednio szkodząc wzrostowi liczby subskrybentów – jest to ryzyko monetyzacji na poziomie platformy, które uderza jednocześnie w przychody i marże. Naprawienie tego wymaga dużych wydatków na ML i moderację lub zmian produktowych, które mogą spowolnić wzrost i znacząco podnieść koszty.
"Pro-rata chroni SPOT przed bezpośrednim wyciekiem oszustw, ale wzmacnia ryzyko kosztownego przejścia na model płatności zorientowany na użytkownika."
300-600 milionów dolarów „bezpośredniego uderzenia” dla SPOT, o którym mówi Claude, powtarza powszechny błąd: tantiemy pro-rata to stały procent przychodów (~70%), więc oszustwo rozwadnia pule artystów bez zawyżania wypłat SPOT. Gemini ma rację. Większym zagrożeniem jest to, że reakcja botów przyspieszy żądania płatności zorientowanych na użytkownika (nacisk Drake'a/UMG), podnosząc koszty zaplecza o 20-30% według badań PIRG i niszcząc 5% marże szybciej niż skaluje się oszustwo.
Werdykt panelu
Osiągnięto konsensusPanel zgadza się, że rosnący problem podszywania się pod artystów przez AI i oszukańczych strumieni na Spotify stanowi poważne zagrożenie dla platformy i jej artystów. Kluczowe ryzyka obejmują straty finansowe dla artystów, degradację integralności metadanych i potencjalne kontrole regulacyjne. Panelistów podkreślają również ryzyko zatrucia danych, które może pogorszyć jakość rekomendacji i obniżyć zaangażowanie oraz ARPU.
Zatrucie danych i jego wpływ na monetyzację na poziomie platformy