Sztuczna inteligencja4 min czytaniaThe Verge AI

Wszystkie najnowsze wieści ze świata muzycznej AI

P
Redakcja Pixelift0 views
Udostępnij
Wszystkie najnowsze wieści ze świata muzycznej AI

Cath Virginia / The Verge | Photo from Getty Images

Aż 97 procent słuchaczy ma problem z odróżnieniem utworów wygenerowanych przez sztuczną inteligencję od tych stworzonych przez ludzi, co stawia branżę muzyczną przed największym wyzwaniem od czasów cyfrowej rewolucji. Podczas gdy platformy takie jak Bandcamp decydują się na całkowity ban treści AI, giganci pokroju Apple Music czy Qobuz wprowadzają systemy dobrowolnego etykietowania i Transparency Tags, aby odseparować „AI slop” od tradycyjnej twórczości. Technologia Suno w wersji 5.5 idzie o krok dalej, oferując funkcję Voices, która pozwala użytkownikom trenować modele na własnym głosie, co otwiera drogę do masowej personalizacji brzmienia. Zjawisko to ma jednak mroczną stronę: w North Carolina zapadł wyrok w sprawie oszustwa na kwotę 10 milionów dolarów, gdzie boty miliardy razy odtwarzały generowane maszynowo utwory, by wyłudzać tantiemy. Producent Young Guru szacuje, że już ponad połowa sampli w nowoczesnym hip-hopie może pochodzić z algorytmów zamiast z winyli. Dla użytkowników i twórców oznacza to erę „don’t ask, don’t tell” – AI staje się standardem w produkcji demówek i aranżacji, ale przyznanie się do jego użycia wciąż budzi opór. Granica między byciem aktywnym twórcą a operatorem promptów zaciera się, wymuszając redefinicję pojęcia autorstwa i praw majątkowych w globalnym ekosystemie streamingowym. Muzyka przestaje być tylko zapisem emocji, a staje się optymalizowanym produktem generatywnym.

Przemysł muzyczny znalazł się w punkcie krytycznym, w którym granica między ludzką twórczością a algorytmicznym „wyjściem” zaciera się szybciej, niż systemy prawne nadążają z jej definiowaniem. Choć 97 procent odbiorców ma trudności z odróżnieniem utworów wygenerowanych przez AI od tych tradycyjnych, branża nie stoi w miejscu, reagując na zalew treści określanych mianem „slop” – masowej produkcji o niskiej wartości artystycznej. Od rewolucyjnych modeli generatywnych, takich jak Suno v5.5, po radykalne decyzje platform pokroju Bandcamp, krajobraz cyfrowego audio zmienia się na naszych oczach, niosąc ze sobą zarówno innowacje, jak i gigantyczne ryzyko nadużyć finansowych.

Personalizacja kontra dusza w nowej wersji Suno

Najnowsza aktualizacja jednego z liderów rynku, modelu Suno v5.5, przesuwa akcent z poprawy czystej jakości dźwięku na głęboką personalizację. Najbardziej wyczekiwaną funkcją jest Voices, która umożliwia użytkownikom trenowanie modelu na własnym głosie poprzez przesyłanie nagrań a cappella lub śpiewanie bezpośrednio do mikrofonu. Choć producent wprowadził system weryfikacji głosowej, branża obawia się, że zabezpieczenia te mogą zostać złamane przy użyciu istniejących już modeli głosów celebrytów. Równolegle funkcje My Taste oraz Custom Models dają użytkownikom bezprecedensową kontrolę nad procesem twórczym, co jednak rodzi pytania o to, czy wpisanie promptu można uznać za „aktywne” tworzenie muzyki.

Grafika przedstawiająca albumy wygenerowane przez AI
Masowa produkcja utworów przez AI staje się wyzwaniem dla platform streamingowych.

Przezroczystość i walka z streamingowym oszustwem

W obliczu narastającej fali treści generatywnych, giganci tacy jak Apple Music oraz Qobuz wprowadzają systemy etykietowania. Apple uruchomiło system Transparency Tags, prosząc artystów o dobrowolne oznaczanie utworów, kompozycji, grafik oraz teledysków powstałych przy udziale AI. Z kolei Deezer poszedł o krok dalej, oferując innym firmom swoje narzędzie do wykrywania muzyki AI, które szczyci się 99,8-procentową skutecznością. Jest to kluczowe w walce z oszustwami, takimi jak przypadek Michaela Smitha z Karoliny Północnej, który przyznał się do wyłudzenia 8 milionów dolarów w tantiemach, streamując miliardy razy setki tysięcy utworów wygenerowanych przez algorytmy za pomocą farm botów.

  • Bandcamp: Pierwsza duża platforma, która całkowicie zakazała treści generowanych w całości lub w znacznej części przez AI.
  • ElevenLabs: Wydało album The Eleven Album, aby udowodnić, że artyści mogą zachować 100% praw komercyjnych przy użyciu ich narzędzi.
  • Google: Integruje model Lyria 3 z aplikacją Gemini, umożliwiając tworzenie 30-sekundowych ścieżek dźwiękowych bezpośrednio w oknie czatu.

Era „Don’t Ask, Don’t Tell” w studiach nagraniowych

Mimo publicznych kontrowersji, profesjonalny rynek muzyczny po cichu adaptuje nowe narzędzia. Jak zauważa producent Young Guru, obecnie ponad połowa hip-hopowych produkcji opartych na samplach może wykorzystywać dźwięki wygenerowane przez AI zamiast licencjonowania oryginalnych nagrań soul czy funk. Artyści eksperymentują z aranżacjami i demówkami, ale – jak twierdzi autorka tekstów Michelle Lewis – niewielu chce się do tego przyznać. Ta polityka „nie pytaj, nie mów” kontrastuje z agresywnym podejściem Google, które przejęło platformę ProducerAI (następcę Riffusion), aby pod szyldem Labs rozwijać zaawansowanych agentów AI do tworzenia tekstów, remiksowania i projektowania nowych instrumentów.

Portret dziennikarki technologicznej
Eksperci branżowi monitorują szybkie tempo wdrażania modeli audio do aplikacji mobilnych.
„To, co widzimy teraz, to zaledwie wierzchołek góry lodowej. Prawdziwa rewolucja nastąpi, gdy modele te zostaną w pełni zintegrowane z infrastrukturą gigantów takich jak Google” – twierdzi Seth Forsgren, CEO ProducerAI.

Sytuacja, w której platformy takie jak Bandcamp stają się bastionami tradycyjnej twórczości, podczas gdy Spotify czy Apple Music stawiają na algorytmiczną przejrzystość, doprowadzi do trwałego podziału rynku. AI w muzyce przestało być ciekawostką, a stało się narzędziem przemysłowym, które wymusza redefinicję pojęcia autorstwa. Można założyć, że w najbliższym czasie czeka nas wysyp „hybrydowych” artystów, którzy będą musieli balansować między technologiczną wydajnością a autentycznością, której domagają się słuchacze zmęczeni bezdusznym, masowym kontentem.

Źródło: The Verge AI
Udostępnij

Komentarze

Loading...