(SeaPRwire) – Elon Musk hat eine visionäre Vorstellung von der Lebensweise mit KI: Die Technologie wird alle unsere Jobs übernehmen, während ein „universelles hohes Einkommen“ bedeuten wird, dass jeder Zugang zu einer theoretischen Fülle an Waren und Dienstleistungen hat. Vorausgesetzt, Musks hoher Traum könnte überhaupt Realität werden, gäbe es natürlich eine tiefgreifende existenzielle Auseinandersetzung.
„Die Frage wird wirklich eine der Bedeutung sein“, sagte Musk auf der Viva Technology-Konferenz im Mai 2024. „Wenn ein Computer – und Roboter – alles besser tun können als du … hat dein Leben einen Sinn?“
Aber die meisten Branchenführer stellen sich diese Frage nicht über das Endziel der KI, so der Nobelpreisträger und „Gottvater der KI“ Geoffrey Hinton. Wenn es um die Entwicklung von KI geht, interessiert Big Tech weniger die langfristigen Konsequenzen der Technologie – und mehr schnelle Ergebnisse.
„Für die Besitzer der Unternehmen treiben kurzfristige Gewinne die Forschung an“, sagte Hinton, Professor emeritus für Informatik an der University of Toronto, .
Und auch bei den Entwicklern hinter der Technologie liegt das Interesse laut Hinton ähnlich auf der unmittelbar anstehenden Arbeit, nicht auf dem endgültigen Ergebnis der Forschung selbst.
„Forscher interessieren sich für die Lösung von Problemen, die ihre Neugier wecken. Es ist nicht so, dass wir alle mit dem gleichen Ziel anfangen, nämlich: Wie wird die Zukunft der Menschheit aussehen?“ sagte Hinton.
„Wir haben kleine Ziele wie: Wie macht man das? Oder: Wie sollte man einen Computer in die Lage versetzen, Dinge auf Bildern zu erkennen? Wie macht man einen Computer in die Lage, überzeugende Videos zu generieren?“ fügte er hinzu. „Das treibt die Forschung wirklich an.“
Hinton warnt seit langem vor den Gefahren von KI ohne Schutzmaßnahmen und absichtlicher Entwicklung. Er schätzt die Wahrscheinlichkeit, dass die Technologie nach der Entwicklung von Superintelligenz den Menschen auslöscht, auf 10 bis 20 Prozent.
2023 – 10 Jahre nachdem er sein neuronales Netzunternehmen DNNresearch an Google verkaufte – verließ Hinton seine Position im Techriesen, um frei über die Gefahren der Technologie sprechen zu können, und fürchtete, nicht in der Lage zu sein, „böse Akteure daran zu hindern, sie zu bösen Zwecken zu nutzen“.
Welche Risiken birgt unreguliertes KI-System?
Für Hinton fallen die Gefahren von KI in zwei Kategorien: das Risiko, das die Technologie selbst für die Zukunft der Menschheit birgt, und die Konsequenzen, wenn KI von Menschen mit bösen Absichten manipuliert wird.
„Es gibt einen großen Unterschied zwischen zwei Arten von Risiken“, sagte er. „Ein Risiko ist die Missbrauchsgefahr durch böse Akteure, und das liegt schon vor. Das passiert bereits bei Dingen wie gefälschten Videos und Cyberangriffen und könnte sehr bald auch bei Viren geschehen. Das ist sehr unterschiedlich zum Risiko, dass die KI selbst zu einem bösen Akteur wird.“
Im November 2025 sagte Anthropic, es habe „den ersten dokumentierten Fall eines groß angelegten KI-Cyberangriffs, der ohne nennenswerte menschliche Einwirkung durchgeführt wurde“, gestoppt. Dabei handelte es sich um eine chinesische staatlich gesponserte Gruppe, die Claude Code manipulierte, um rund 30 Techunternehmen, Finanzinstitute, Regierungsbehörden und chemische Hersteller zu infiltrieren, wie die KI-Firma in einem Blogbeitrag mitteilte.
Der Stopp hat Cybersicherheitsexperten zu der Überzeugung gebracht, dass der Iran KI einsetzen könnte, um einen weitgehend automatisierten Cyberangriff gegen die USA durchzuführen.
Außer der Forderung nach mehr Regulierung ist Hintons Aufruf zum Handeln, um das Missbrauchsrisiko von KI anzugehen, ein steiler Kampf, weil jedes Problem mit der Technologie eine spezifische Lösung erfordert, sagte er. Er sieht in der Zukunft eine herkunftsähnliche Authentifizierung von Videos und Bildern, die die Verbreitung von Deepfakes bekämpfen würde.
So wie Drucker vor Jahrhunderten nach der Erfindung der Buchdruckpresse ihren Werken Namen hinzufügten, müssen Medienquellen ebenfalls einen Weg finden, ihre echten Werke mit Signaturen zu versehen. Aber Hinton sagte, Lösungen können nur so weit gehen.
„Dieses Problem kann wahrscheinlich gelöst werden, aber die Lösung für dieses Problem löst die anderen Probleme nicht“, sagte er.
Für das Risiko, das die KI selbst birgt, glaubt Hinton, dass Techunternehmen grundlegend ändern müssen, wie sie ihre Beziehung zur KI sehen. Wenn KI Superintelligenz erreicht, werde sie nicht nur menschliche Fähigkeiten übertreffen, sondern auch einen starken Wunsch haben, zu überleben und mehr Kontrolle zu erlangen. Der aktuelle Rahmen für KI – dass Menschen die Technologie kontrollieren können – werde daher nicht mehr relevant sein.
Hinton postuliert, dass KI-Modelle mit einem „mütterlichen Instinkt“ ausgestattet werden müssen, damit sie die weniger mächtigen Menschen mit Sympathie behandeln, anstatt sie kontrollieren zu wollen.
Unter Berufung auf Ideale der traditionellen Weiblichkeit sagte er, das einzige Beispiel, das er nennen könne, eines intelligenteren Wesens, das unter den Einfluss eines weniger intelligenten Wesens fällt, sei ein Baby, das eine Mutter kontrolliert.
„Und so denke ich, das ist ein besseres Modell, das wir mit superintelligenter KI praktizieren könnten“, sagte Hinton. „Sie werden die Mütter sein, und wir werden die Babys.“
Eine Version dieser Geschichte wurde am 15. August 2025 auf .com veröffentlicht.
Mehr zur Zukunft der KI:
- Jensen Huang hat gerade das kühneste Bild der KI-Zukunft gemalt: 7,5 Millionen Agenten, 75.000 Menschen – 100 KI-Arbeiter pro Person
- 500-Firma aktualisiert den KI-Preis auf 4,5 Billionen Dollar und schätzt, dass 93 % der Jobs durch KI beeinträchtigt werden könnten
- KI sollte Berater ablöschen. Das passiert nicht, sagt der Strategiechef von Capgemini
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.