(SeaPRwire) – Früher dieses Jahr lehnte Bad Bunny Gerüchte entschieden ab, dass er kurz davor sei, einen neuen Song mit Justin Bieber zu veröffentlichen. “Das ist falsch”, sagte er TIME in einem Interview für eine Geschichte über seinen meteorhaften Aufstieg. “Man weiß nie, was ich machen werde.”
Aber letzten Monat fing ein Song, der wie seine und Biebers Stimmen klang, an, auf TikTok zu kursieren und Millionen von Aufrufen zu erhalten. Bad Bunny hatte im Interview nicht gelogen, aber der Song wurde mit KI erstellt. Ein Künstler namens FlowGPT hatte KI-Technologie verwendet, um die Stimmen von Bad Bunny, Bieber und Daddy Yankee in einem Reggaeton-Hit nachzubilden. Bad Bunny selbst hasste es, nannte es “einen Scheißsong” auf Spanisch und riet seinen Fans davon ab, es sich anzuhören, und der Clip wurde von TikTok entfernt. Aber vielen Fans aller drei Megastars gefiel es trotzdem.
Der Song und die polarisierten Reaktionen darauf sind emblematisch für die schwierigen Weisen, in denen KI in die Musikindustrie gestürmt ist. In den letzten zwei Jahren haben Fortschritte im maschinellen Lernen es möglich gemacht, dass jeder in seinem Zuhause den Klang seiner musikalischen Idole nachbilden kann. Ein Künstler namens Ghostwriter wurde mit Nachbildungen von Drake und The Weeknd viral; ein anderer Ersteller setzte Frank Sinatras rauchige Stimme scherzhaft zu profanen Texten.
Einige Befürworter argumentieren, dass diese Fortschritte die Demokratisierung der Musik weiter voranbringen werden, indem sie jedem mit einer Idee ermöglichen, Musik aus dem eigenen Zimmer zu erstellen. Aber einige Künstler haben mit Wut darauf reagiert, dass etwas so Persönliches wie ihre Stimme oder ihr musikalischer Stil von anderen für deren Gewinn angeeignet und kommerzialisiert werden könnte. Der Schlagabtausch zwischen dem Schutz von Künstlern, der Förderung von Innovationen und der Bestimmung komplementärer Rollen für Mensch und Maschine bei der Musikerstellung wird in den kommenden Jahren erforscht werden.
“Wenn es eine riesige Explosion an Musik in unendlichem Maßstab und unendlicher Geschwindigkeit gibt, wird uns das dann wieder daran erinnern, was wir als Menschen tatsächlich einbringen?”, fragt Dario Amodei, ein Musiker und KI-Technologe. “Wo existiert Vorstellungskraft in all dem? Wie bringen wir Charakter in unsere eigenen Kreationen?”
KI wird bereits von Musikproduzenten für alltäglichere Teile ihrer Arbeit verwendet. KI kann helfen, die Gesangsstimmlage zu korrigieren und Ingenieure ermöglichen, Aufnahmen viel schneller und billiger zu bearbeiten. Die Beatles haben kürzlich KI verwendet, um John Lennons Stimme von einem Demo aus dem Jahr 1978 zu isolieren, indem sie die anderen Instrumente und Hintergrundgeräusche entfernten, um eine Neuauflage zu erstellen. KI ist auch in vielen Menschens Hörerfahrungen verwurzelt: Streaming-Plattformen wie Spotify und Apple Music verlassen sich auf KI-Algorithmen, um Menschen auf Basis ihrer Hörgewohnheiten Songs vorzuschlagen.
Dann gibt es die tatsächliche Musikerstellung mit KI, was sowohl Begeisterung als auch Alarm ausgelöst hat. Musiker haben sich Musiktools wie BandLab zu eigen gemacht, die basierend auf Anfragen einzigartige Musikloops vorschlagen, um einem Blockade zu entkommen. Die KI-App Endel erzeugt individualisierte, sich ständig verändernde Hintergrundmusiken zum Fokussieren, Entspannen oder Schlafen basierend auf Vorlieben der Menschen und biometrischen Daten. Andere KI-Tools erstellen ganze Aufnahmen basierend auf Textanfragen. Ein neues YouTube-Tool erlaubt Nutzern, etwas wie “Ein Ballade über wie Gegensätze anziehen, fröhliche Akustik” einzugeben, und sofort wird ein Song-Snippet von einem Charlie-Puth-Double generiert.
Diese Technologien werfen allerlei Bedenken auf. Wenn eine KI innerhalb von Sekunden einen “Charlie-Puth-Song” erstellen kann, was bedeutet das dann für Charlie Puth selbst oder all die anderen aufstrebenden Musiker da draußen, die Angst haben, ersetzt zu werden? Sollten KI-Unternehmen erlaubt sein, ihre großen Sprachmodelle ohne Erlaubnis der Schöpfer auf Lieder zu trainieren? KIs werden bereits verwendet, um die Stimmen von Verstorbenen heraufzubeschwören: Ein neuer Biopic wird beispielsweise eine wieder zusammengesetzte KI-Version ihrer Stimme enthalten. Wie wird sich unser Verständnis von Erinnerung und Vermächtnis ändern, wenn Stimmen aus jeder Epoche der Geschichte wieder zum Leben erweckt werden können?
Sogar die Begeistertsten über die Technologie sind inzwischen besorgt. Letzten Monat trat Edward Newton-Rex, der Vizepräsident für Audio bei dem KI-Unternehmen Stability AI, zurück und erklärte, er fürchte, dass er möglicherweise dazu beigetragen habe, Musiker arbeitslos zu machen. “Unternehmen im Wert von Milliarden Dollar trainieren ohne Erlaubnis generative KI-Modelle auf Werke von Schöpfern, die dann verwendet werden, um neuen Inhalt zu erstellen, der in vielen Fällen mit den Originalwerken konkurrieren kann”, schrieb er in einem öffentlichen Brief.
Diese Fragen werden voraussichtlich in den kommenden Jahren vor Gerichten entschieden werden. Im Oktober verklagten Universal Music Group und andere große Labels das Startup Anthropic, nachdem sein KI-Modell Claude 2 begann, Urheberrechtlich geschützte Lyrics wörtlich wiederzugeben. Ein Sony Music Executive sagte dem Kongress, dass das Unternehmen Klagen wegen unautorisierter Gesangs-Deepfakes eingereicht hat. Und viele Künstler wollen sich gänzlich raushalten: Dolly Parton nannte KI-Stimmen-Klone kürzlich “gruselig”. KI-Unternehmen argumentieren umgekehrt, dass ihre Nutzung von urheberrechtlich geschützten Liedern unter “Fair Use” fällt und eher Hommagen, Parodien oder Cover-Versionen entsprechen.
Die Singer-Songwriterin Holly Herndon gehört zu den Künstlern, die versuchen, diesen seismischen Veränderungen zuvorzukommen. 2021 erstellte sie einen Gesangs-Deepfake ihrer eigenen Stimme namens Holly+, der es jedem erlaubt, die eigene Stimme in ihre zu verwandeln. Ziel des Projekts sei es nicht, andere Künstler auch dazu zu zwingen, ihre Stimmen preiszugeben, sondern sie dazu zu ermutigen, sich ebenfalls in diese größeren Diskussionen einzubringen und Autonomie in einer von Tech-Giganten dominierten Musikindustrie für sich zu beanspruchen, in der diese eine immer größere Rolle spielen. “Ich denke, es ist eine große Chance, die Rolle des Künstlers neu zu überdenken”, sagt sie TIME. “Es gibt einen Weg, weiterhin Kontrolle über die digitale Version von sich selbst zu haben, aber spielerischer und weniger bestrafend zu sein.”
Der Musiker Dromgoole, der das KI-Unternehmen Bronze mitgegründet hat, hofft, dass KI-Musik aus ihrer derzeitigen Phase des Imitierens von Stimmen und des sofortigen Generierens von Musik herauswächst. In den letzten Jahren hat Bronze mit Musikern wie Disclosure und Jai Paul daran gearbeitet, sich ständig weiterentwickelnde KI-Versionen ihrer Musik zu erstellen, die nie gleich klingen, wenn sie zweimal abgespielt werden. Das Ziel ist nicht, KI zu nutzen, um den perfekten, monetisierbaren statischen Song zu erstellen – sondern sie zu nutzen, um unsere Vorstellungen davon herauszufordern, was Musik sein könnte. “Es scheint, als ob die Tech-Branche denkt, jeder wolle einen Abkürzung oder eine Lösung für Kreativität”, sagt er. “So funktioniert Vorstellungskraft aber nicht. Jeder, der sich mit Flow-Zuständen oder der Zeit mit Menschen beschäftigt hat, die Musik erschaffen, weiß, dass wir den Prozess lieben.”
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.