Warum Europa AI-Firmen nicht ihre Gewinne vor Menschen stellen lassen darf

European Parliament Building

(SeaPRwire) –   Die Seifenoper-ähnliche des OpenAI-CEO Sam Altman produzierte reichlich Material für ironische Witze im Internet, enthüllte aber auch einige ernsthafte Bruchlinien. Eine solche Kritik, die ich genossen habe, lautete: “Wie sollen wir das Problem der AI-Ausrichtung lösen, wenn es schon eine unüberwindbare Herausforderung darstellt, nur ein paar Vorstandsmitglieder auszurichten?”

Als das Unternehmen hinter ChatGPT könnte OpenAI eines der bekannteren Namen sein, aber Künstliche Intelligenz ist mehr als ein Unternehmen. Es ist eine Technologie von enormer Tragweite, aber sie bleibt nahezu unreguliert. Die EU hat die Chance, diese Herausforderung sinnvoll anzugehen – aber nicht, wenn sie Big Techs andauernden Lobby-Ansturm nachgibt. Inspirierende Mitglieder des Europäischen Parlaments haben bisher dem enormen Druck standgehalten, um diese bahnbrechende Gesetzgebung zu retten. Am Wochenende sprach sich EU-Kommissar Thierry Breton gegen das aus, was er als selbstsüchtige Lobbyarbeit von Frances Mistral AI und anderen KI-Unternehmen bezeichnet, die nicht dem öffentlichen Interesse dienen. Diese Gesetzgeber verdienen unsere Unterstützung in diesem entscheidenden Moment.

Europa steht kurz davor, in einer Welt zu führen, die sich des Bedarfs bewusst wird, KI zu regulieren. Von den USA bis zum jüngsten Gipfel zur KI-Regulierung, der vom Vereinigten Königreich in Bletchley Park ausgerichtet wurde, erkennen Länder auf der ganzen Welt an, dass wir die Vorteile dieser faszinierenden Technologie nur teilen können, wenn wir ihre Risiken mildern. Das EU-KI-Gesetz wird der erste umfassende rechtliche Rahmen sein, der genau dies zum Ziel hat, aber einige Technologieunternehmen halten den politischen Prozess als Geisel fest, indem sie drohen, das Schiff zu versenken, es sei denn, ihre Systeme werden von der Regulierung ausgenommen. Nachzugeben würde die europäische Innovation schädigen, den Profit vor die öffentliche Sicherheit stellen und einen Affront gegen die Demokratie darstellen. Unsere Gesetzgeber dürfen nicht einknicken.

In den Verhandlungen brachen die Gespräche zusammen, nachdem Frankreich und Deutschland gegen die vorgeschlagene Regulierung von “Grundmodellen” Stellung bezogen hatten. Gemeinsam mit Italien veröffentlichten sie anschließend eine Erklärung, in der diese Forderungen formuliert wurden und darum baten, dass Unternehmen, die Grundmodelle aufbauen, nur freiwilligen Verpflichtungen unterliegen sollten. Grundmodelle sind maschinelle Lern-Systeme mit allgemeinem Zweck, wie Open AIs GPT-4 (das ChatGPT untermauert), die anschließend auf eine Vielzahl nachgelagerter Anwendungen und Funktionen angewendet werden können. Die Regulierung dieser Grundmodelle wird die KI-Unternehmen dazu zwingen, sicherzustellen, dass sie sicher sind, bevor sie eingesetzt werden, anstatt erst nach der Freigabe gefährlicher Systeme einzugreifen, was ein klares Gefahrenpotenzial für die Öffentlichkeit birgt. Angesichts der wachsenden Bedenken hinsichtlich der potenziellen Risiken, die diese fortgeschrittenen Systeme mit sich bringen können, einschließlich Massenfehlinformationen, ermöglichtem Bioterrorismus, Angriffen auf kritische Infrastruktur, groß angelegten Cyberangriffen und mehr, ist dies eine vernünftige Bestimmung, die einzubeziehen ist.

Wir haben aus erster Hand die Notwendigkeit gesetzlicher Schutzmechanismen gesehen, anstatt sich auf die Selbstregulierung durch Unternehmen zu verlassen. Zum Beispiel wurde der psychologische Schaden, der jungen Frauen und Mädchen durch soziale Medien zugefügt wurde, immer offensichtlicher. Die Unternehmen, die die Plattformen und Kanäle betrieben, die schädliche Inhalte beherbergten, waren jahrelang dieser Schäden nicht bewusst, unternahmen jedoch nichts. Freiwillige Verpflichtungen sind weder ausreichend noch zuverlässig. Wir brauchen Prävention anstelle von Heilung, wenn wir verhindern wollen, dass Menschen zu Schaden kommen. Wir brauchen durchsetzbare Sicherheitsstandards und Risikominderung für leistungsstarke KI von Anfang an.

Warum also der Einwand? Die Verweigerer behaupten, es werde die Innovation für Unternehmen behindern, die KI anpassen und nutzen möchten, aber das stimmt einfach nicht. Die Regulierung von Grundmodellen ist für Innovation entscheidend, da sie nachgelagerte kleinere europäische Nutzer vor den Anforderungen der Einhaltung von Vorschriften und vor Haftung schützen wird, wenn etwas schief geht. Es gibt nur eine Handvoll sehr gut ausgestatteter Unternehmen, die die einflussreichsten Grundmodelle entwickeln, aber es gibt Tausende kleine Unternehmen in der EU, die sie bereits für konkrete Geschäftsanwendungen übernommen haben, und viele mehr, die dies planen. Wir brauchen ausgewogene Verpflichtungen entlang der Wertschöpfungskette – die breiten Schultern sollten die größte Last tragen.

Dies spiegelt sich in der Zusammensetzung der gegnerischen Seiten wider. Der Europäische Verband der DIGITALEN KMU mit 45.000 Mitgliedsunternehmen spricht sich dafür aus. Zwei europäische KI-Unternehmen sprechen sich ebenfalls dafür aus, sowie einige Riesen aus den USA. Ihr Argument wird auch durch die reale Erfahrung nicht gestützt. Mein eigenes Land Estland unterliegt exakt denselben EU-Regeln und -Vorschriften wie Deutschland, hat aber trotzdem ein blühendes und gedeihendes Startup-Ökosystem. Wenn diejenigen, die die Regulierung von Grundmodellen wie OpenAI ablehnen, den Finger zeigen wollen, müssen sie woanders suchen. In Wahrheit würde ein solcher Schritt die finanziellen und rechtlichen Lasten eher von großen Unternehmen auf Startups verlagern, die weder die Möglichkeit noch die Ressourcen haben, die zugrunde liegenden Modelle zu ändern.

Frankreich und Deutschland behaupten auch, dass die Regulierung von Grundmodellen Europas Fähigkeit behindern würde, im globalen Wettbewerb in der KI mitzuhalten. Dies hält einer Überprüfung nicht stand. Der vorgeschlagene gestaffelte Ansatz, der bereits ein Kompromiss zwischen dem Parlament und dem Rat der EU ist, ermöglicht gezielte Maßnahmen, so dass Wettbewerber großer KI-Unternehmen ohne übermäßige Einschränkungen entstehen können. Europäische Gesetzgeber sollten sich taube Ohren für die Angstmache verschaffen, die von Big Tech und seinen neuesten Verbündeten vorgetragen wird, und sich der Zweck des Gesetzes besinnen: Die Erzielung eines fairen und ausgewogenen Rahmens, der Innovation fördert und Schaden verhindert. Es darf kein legislatives Instrument sein, mit dem einigen wenigen, von Silicon-Valley-Unternehmen unterstützten KI-Führern die Branchenvorherrschaft und null Anforderungen zugestanden werden, während Tausenden europäischen Unternehmen die Nutzung der Technologiepotenziale verwehrt bleibt.

Das Parlament befürwortet die Regulierung von Grundmodellen, ebenso wie viele in der Kommission und im Rat. Die Wirtschaft unterstützt dies, ebenso wie die Tausenden von KI-Experten, die sich wegen der Gefahren, die diese zunehmend leistungsstarken Systeme bergen, wenn sie unkontrolliert bleiben, große Sorgen machen. Einige Tech-Unternehmen sollte nicht erlaubt werden, unseren politischen Prozess in Geiselhaft zu nehmen, indem sie mit der Sprengung dieser bahnbrechenden Gesetzgebung und dem Wegwerfen von drei Jahren Arbeit drohen. Ihnen darf nicht gestattet werden, den Profit vor unsere Sicherheit und die Marktherrschaft vor die europäische Innovation zu stellen.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.