(SeaPRwire) – Nur 16 Monate sind vergangen, aber die Veröffentlichung von ChatGPT im November 2022 fühlt sich bereits wie alte KI-Geschichte an. Milliarden von Dollar fließen sowohl aus öffentlichen als auch privaten Mitteln in KI. Tausende von KI-gestützten Produkten wurden erstellt, darunter auch die neue diese Woche. Studenten bis Wissenschaftler nutzen jetzt diese großen Sprachmodelle. Unsere Welt, insbesondere die Welt der KI, hat sich eindeutig verändert.
Aber die eigentliche Auszeichnung der menschlichen KI – oder AGI – wurde noch nicht erreicht. Eine solche Durchbruch würde bedeuten, dass eine KI die meiste wirtschaftlich produktive Arbeit erledigen, mit anderen kommunizieren, Wissenschaft betreiben, soziale Netzwerke aufbauen und warten, Politik betreiben und moderne Kriegsführung ausüben kann. Die Haupteinschränkung für all diese Aufgaben heute ist die Kognition. Die Beseitigung dieser Einschränkung wäre weltverändernd. Dennoch gehen viele in führenden KI-Labors auf der ganzen Welt davon aus, dass diese Technologie noch vor Ende dieses Jahrzehnts Realität sein könnte.
Das könnte ein enormer Segen für die Menschheit sein. Aber KI könnte auch extrem gefährlich sein, besonders wenn wir sie nicht kontrollieren können. Nicht kontrollierte KI könnte sich in die Online-Systeme hacken, die so viel der Welt am Laufen halten, und sie nutzen, um ihre Ziele zu erreichen. Sie könnte Zugang zu unseren sozialen Medien-Konten erhalten und maßgeschneiderte Manipulationen für große Menschenmengen erstellen. Noch schlimmer, Militärangehörige, die für Nuklearwaffen verantwortlich sind, könnten von einer KI dazu manipuliert werden, ihre Anmeldedaten preiszugeben, was eine riesige Bedrohung für die Menschheit darstellen würde.
Es wäre ein konstruktiver Schritt, es so schwer wie möglich zu machen, dass irgendetwas davon passiert, indem die Verteidigung der Welt gegen feindselige Online-Akteure gestärkt wird. Aber wenn KI Menschen überzeugen kann, was sie besser können als wir, gibt es keine bekannte Verteidigung.
Aus diesen Gründen haben viele KI-Sicherheitsforscher in Labors wie OpenAI, Google DeepMind und Anthropic sowie in sicherheitsorientierten gemeinnützigen Organisationen die Hoffnung aufgegeben, die Handlungen zukünftiger KI begrenzen zu können. Stattdessen konzentrieren sie sich nun darauf, “abgestimmte” oder von Natur aus sichere KI zu entwickeln. Abgestimmte KI könnte mächtig genug werden, um die Menschheit auslöschen zu können, aber sie sollte dies nicht wollen.
Es gibt große Fragezeichen in Bezug auf abgestimmte KI. Erstens ist der technische Teil der Abstimmung ein ungelöstes wissenschaftliches Problem. Kürzlich haben einige der besten Forscher, die an der Abstimmung übermenschlicher KI arbeiteten, aus Unzufriedenheit gekündigt, was nicht gerade Vertrauen erweckt. Zweitens ist unklar, woran eine übermenschliche KI ausgerichtet wäre. Wenn es ein akademisches Wertesystem wie den Utilitarismus wäre, könnten wir schnell feststellen, dass die Werte der meisten Menschen tatsächlich nicht mit diesen übereinstimmen, woraufhin die unaufhaltsame Superintelligenz für immer gegen den Willen der meisten Menschen handeln könnte. Wenn die Ausrichtung an die tatsächlichen Absichten der Menschen gekoppelt wäre, müssten wir einen Weg finden, diese sehr unterschiedlichen Absichten zu aggregieren. Während idealistische Lösungen wie ein UNO-Rat oder eine KI-gestützte Abstimmung im Bereich der Möglichkeiten liegen, besteht die Sorge, dass die absolute Macht der Superintelligenz in die Hände weniger Politiker oder CEOs konzentriert wäre. Dies wäre natürlich für – und eine direkte Gefahr für – alle anderen Menschen inakzeptabel.
Die Zeitbombe entschärfen
Wenn wir keinen Weg finden, die Menschheit zumindest vor der Auslöschung und vorzugsweise auch vor einer Abstimmungsdystopie zu schützen, darf KI, die unkontrollierbar werden könnte, nicht erst geschaffen werden. Diese Lösung, die Entwicklung menschlicher oder übermenschlicher KI so lange aufzuschieben, bis die Sicherheitsbedenken gelöst sind, hat den Nachteil, dass die großen Versprechungen der KI – von der Heilung von Krankheiten bis zur Schaffung massiven Wirtschaftswachstums – warten müssen.
Ein Aufschub könnte für einige radikal klingen, aber er wird notwendig sein, wenn sich KI weiterentwickelt, ohne dass ein zufriedenstellendes Abstimmungskonzept erreicht wird. Wenn die Fähigkeiten der KI nahezu Übernahmeniveaus erreichen, ist die einzige realistische Option, dass Labore von Regierungen fest verpflichtet werden, die Entwicklung zu pausieren. Andernfalls wäre es Selbstmord.
Und das Pausieren von KI mag nicht so schwierig sein, wie einige es darstellen. Derzeit haben nur relativ wenige große Unternehmen die Mittel für führende Trainingsläufe, so dass die Durchsetzung einer Pause zumindest kurzfristig hauptsächlich von politischem Willen abhängt. Langfristig könnte ein Aufschub jedoch als schwierig durchsetzbar angesehen werden, da Hardware und algorithmische Verbesserungen Fortschritte ermöglichen. Eine Durchsetzung zwischen Ländern wäre erforderlich, beispielsweise mit einem Vertrag, ebenso wie eine Durchsetzung innerhalb von Ländern mit Schritten wie strenger Hardware-Kontrolle.
In der Zwischenzeit müssen Wissenschaftler die Risiken besser verstehen. Obwohl es Diskussionen gibt, besteht noch kein Konsens. Wissenschaftler sollten ihre übereinstimmenden Standpunkte formalisieren und aufzeigen, wo und warum ihre Ansichten voneinander abweichen, in dem neuen , der sich zu einem “Zwischenstaatlichen Ausschuss für den Klimawandel bei KI-Risiken” entwickeln sollte. Führende wissenschaftliche Zeitschriften sollten existenziellen Risikoforschungen weiter offen gegenüberstehen, auch wenn sie spekulativ erscheinen. Die Zukunft liefert keine Datenpunkte, aber in die Zukunft zu blicken ist für KI ebenso wichtig wie für den Klimawandel.
Die Regierungen haben ihrerseits eine enorme Rolle dabei, wie sich KI entfaltet. Dies beginnt mit der offiziellen Anerkennung des existenziellen Risikos durch KI, wie es bereits von den ., . und . getan wurde, und der Einrichtung von . Regierungen sollten auch Pläne für die wichtigsten denkbaren Szenarien sowie den Umgang mit den vielen nicht-existenziellen Problemen von AGI wie Massenarbeitslosigkeit, ausufernder Ungleichheit und Energieverbrauch ausarbeiten. Regierungen sollten ihre AGI-Strategien öffentlich zugänglich machen, damit sie wissenschaftlich, industriell und öffentlich bewertet werden können.
Es ist ein großer Fortschritt, dass die wichtigsten Länder für KI die konstruktive Diskussion gemeinsamer Politik auf zweijährlichen Gipfeln für KI-Sicherheit führen, darunter einer vom 21. bis 22. Mai. Dieser Prozess muss jedoch bewacht und ausgeweitet werden. Die Festlegung einer gemeinsamen Wahrheit über die existenziellen Risiken der KI und die gemeinsame Sorge mit allen 28 eingeladenen Nationen bereits ein großer Fortschritt in diese Richtung wäre. Darüber hinaus müssen relativ einfache Maßnahmen vereinbart werden, wie die Schaffung von Zulassungsregelungen, Bewertung von Modellen, Nachverfolgung von KI-Hardware, Ausweitung der Haftung für KI-Labore und Ausschluss urheberrechtlich geschützter Inhalte aus dem Training. Eine Instanz muss die Umsetzung überwachen.
Es ist grundsätzlich schwierig, wissenschaftlichen Fortschritt vorherzusagen. Dennoch wird übermenschliche KI das Jahrhundert wahrscheinlich stärker beeinflussen als alles andere. Einfach darauf zu warten, dass die Zeitbombe explodiert, ist keine gangbare Strategie. Nutzen wir die Zeit, die wir haben, so klug wie möglich.
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.