Meta-KI-Chef Yann LeCun über AGI, Open Source und KI-Risiken

(SeaPRwire) –   Metas leitender KI-Wissenschaftler hat am Sonntag eine weitere Auszeichnung zu seiner langen Liste erhalten, als er für seine Beiträge zur Welt der künstlichen Intelligenz bei den TIME100 Impact Awards ausgezeichnet wurde.

Vor der Preisverleihung in Dubai sprach LeCun mit TIME über die Hindernisse zur Erreichung von „künstlicher allgemeiner Intelligenz“ (AGI), die Vorzüge von Metas Open-Source-Ansatz und seine Meinung zu der „absurden“ Behauptung, dass KI ein existenzielles Risiko für die Menschheit darstellen könnte.

TIME sprach mit LeCun am 26. Januar. Dieses Gespräch wurde aus Gründen der Klarheit gekürzt und bearbeitet.

Viele Menschen in der heutigen Technologiewelt glauben, dass das Training großer Sprachmodelle (LLMs) mit mehr Rechenleistung und mehr Daten zu künstlicher allgemeiner Intelligenz führen wird. Stimmen Sie dem zu?

Es ist erstaunlich, wie [LLMs] funktionieren, wenn man sie in großem Maßstab trainiert, aber es ist sehr begrenzt. Wir sehen heute, dass diese Systeme Halluzinationen haben, sie verstehen die reale Welt nicht wirklich. Sie benötigen enorme Datenmengen, um eine Intelligenzstufe zu erreichen, die am Ende nicht so groß ist. Und sie können nicht wirklich denken. Sie können nichts planen außer Dinge, für die sie trainiert wurden. Sie sind also kein Weg zu dem, was die Leute „AGI“ nennen. Ich hasse den Begriff. Sie sind nützlich, daran besteht kein Zweifel. Aber sie sind kein Weg zur Intelligenz auf menschlichem Niveau.

Sie erwähnten, dass Sie das Akronym „AGI“ hassen. Es ist ein Begriff, den Mark Zuckerberg im Januar verwendet hat, als er ankündigte, dass Meta sich als eines seiner Hauptziele als Organisation der Entwicklung künstlicher allgemeiner Intelligenz zuwendet.

Da herrscht viel Unverständnis. Die Mission von FAIR [Metas Fundamental AI Research Team] ist also Intelligenz auf menschlichem Niveau. Dieses Schiff ist gesegelt, es ist eine Schlacht, die ich verloren habe, aber ich nenne es nicht gerne AGI, weil die menschliche Intelligenz überhaupt nicht allgemein ist. Es gibt Eigenschaften, die intelligente Wesen haben, die keine KI-Systeme heute haben, wie das Verständnis der physischen Welt; Planen einer Abfolge von Aktionen, um ein Ziel zu erreichen; Denken auf eine Weise, die lange dauern kann. Menschen und Tiere haben einen besonderen Teil unseres Gehirns, den wir als Arbeitsgedächtnis verwenden. LLMs haben das nicht.

Ein Baby lernt in den ersten Lebensmonaten, wie die Welt funktioniert. Wir wissen nicht, wie man dies [mit KI] macht. Sobald wir Techniken haben, um „Weltmodelle“ zu lernen, indem wir einfach der Welt beim Vergehen zusehen, und dies mit Planungstechniken kombinieren und vielleicht mit Kurzzeitgedächtnissystemen kombinieren, haben wir möglicherweise einen Weg zu, nicht allgemeiner Intelligenz, aber sagen wir Intelligenz auf Katzenebene. Bevor wir das menschliche Niveau erreichen, müssen wir einfachere Formen der Intelligenz durchlaufen. Und davon sind wir noch sehr weit entfernt.

In gewisser Weise ist diese Metapher sinnvoll, denn eine Katze kann in die Welt hinausblicken und Dinge lernen, die ein hochmodernes LLM einfach nicht kann. Aber dann steht einer Katze nicht die gesamte zusammengefasste Geschichte des menschlichen Wissens zur Verfügung. Inwieweit ist diese Metapher eingeschränkt?

Hier ist eine sehr einfache Berechnung. Ein großes Sprachmodell wird mehr oder weniger nach dem gesamten im öffentlichen Internet verfügbaren Text trainiert. Das sind normalerweise 10 Billionen Token. Jedes Token besteht aus etwa zwei Bytes. Das sind also zwei mal 10 hoch 13 Bytes an Trainingsdaten. Und man sagt: Oh mein Gott, das ist unglaublich, ein Mensch braucht 170.000 Jahre, um dies durchzulesen. Es ist einfach eine wahnsinnige Menge an Daten. Aber dann sprichst du mit Entwicklungspsychologen und was sie dir sagen, ist, dass ein 4-Jähriger in seinem Leben 16.000 Stunden lang wach war. Und dann kann man versuchen zu quantifizieren, wie viele Informationen in vier Jahren in seinen visuellen Kortex gelangt sind. Und der Sehnerv beträgt etwa 20 Megabyte pro Sekunde. Also 20 Megabyte pro Sekunde, mal 60.000 Stunden, mal 3.600 Sekunden pro Stunde. Das sind 10 hoch 15 Bytes, was 50-mal mehr ist als 170.000 Jahre Text.

Richtig, aber der Text kodiert die gesamte Geschichte des menschlichen Wissens, während die visuellen Informationen, die ein 4-Jähriger erhält, nur grundlegende 3D-Informationen über die Welt, grundlegende Sprache und ähnliches kodieren.

Aber was Sie sagen, ist falsch. Die überwiegende Mehrheit des menschlichen Wissens ist nicht in Textform ausgedrückt. Es ist im Unterbewusstsein Ihres Geistes, das Sie im ersten Lebensjahr gelernt haben, bevor Sie sprechen konnten. Das meiste Wissen hat wirklich mit unserer Erfahrung der Welt und ihrer Funktionsweise zu tun. Das nennen wir常識我們常説的話. LLMs haben das nicht, weil sie keinen Zugriff darauf haben. Und so können sie wirklich dumme Fehler machen. Daher kommen Halluzinationen. Dinge, die wir völlig als selbstverständlich ansehen, erweisen sich für Computer als äußerst kompliziert zu reproduzieren. AGI oder KI auf menschlicher Ebene ist also nicht gleich um die Ecke, es wird einige ziemlich tiefgreifende Veränderungen in der Wahrnehmung erfordern.

Sprechen wir über Open Source. Sie waren in Ihrer Karriere ein großer Verfechter der offenen Forschung, und Meta hat eine Politik der effektiven Open-Sourcing seiner leistungsstärksten großen Sprachmodelle übernommen, zuletzt. Diese Strategie hebt Meta von Google und Microsoft ab, die die sogenannten Gewichte ihrer leistungsstärksten Systeme nicht veröffentlichen. Glauben Sie, dass Metas Ansatz weiterhin angemessen sein wird, wenn seine KIs immer leistungsstärker werden und sich sogar der Intelligenz auf menschlichem Niveau annähern?

Die Antwort erster Ordnung lautet ja. Und der Grund dafür ist, dass in Zukunft jede Interaktion eines jeden mit der digitalen Welt und der Welt des Wissens im Allgemeinen von KI-Systemen vermittelt wird. Sie werden im Grunde die Rolle menschlicher Assistenten spielen, die ständig bei uns sein werden. Wir werden keine Suchmaschinen verwenden. Wir werden nur Fragen an unsere Assistenten stellen, und sie werden uns in unserem täglichen Leben helfen. Unsere gesamte Informationsdiät wird also von diesen Systemen vermittelt. Sie werden das Reservoir allen menschlichen Wissens bilden. Und man kann diese Art von Abhängigkeit von einem proprietären, geschlossenen System nicht haben, insbesondere angesichts der Vielfalt an Sprachen, Kulturen, Werten und Interessenschwerpunkten auf der ganzen Welt. Es ist, als ob Sie sagen, können Sie irgendwo an der Westküste der USA ein kommerzielles Unternehmen haben, das Wikipedia produziert? Nein. Wikipedia ist Crowdsourcing, weil es funktioniert. Es wird also dasselbe für KI-Systeme gelten, sie müssen mit Hilfe aller Menschen auf der ganzen Welt trainiert oder zumindest feinabgestimmt werden. Und die Leute werden dies nur tun, wenn sie zu einer weit verbreiteten Open-Source-Plattform beitragen können. Sie werden dies nicht für ein proprietäres System tun. Die Zukunft muss also Open Source sein, schon allein aus Gründen der kulturellen Vielfalt, der Demokratie oder der Vielfalt. Wir brauchen einen vielfältigen KI-Assistenten aus dem gleichen Grund, warum wir eine vielfältige Presse brauchen. 

Eine Kritik, die man oft hört, ist, dass Open Sourcing dazu führen kann, dass sehr mächtige Werkzeuge in die Hände von Menschen geraten, die sie missbrauchen würden. Und wenn die Macht des Angriffs im Vergleich zur Macht der Verteidigung asymmetrisch ist, könnte dies für die Gesellschaft insgesamt sehr gefährlich sein. Was gibt Ihnen die Gewissheit, dass das nicht passieren wird?

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen. 

Es gibt viele Dinge, die darüber gesagt werden, die im Grunde genommen reine Fantasie sind. Es gibt tatsächlich einen Bericht, der gerade von der RAND Corporation veröffentlicht wurde, in dem untersucht wurde, wie viel einfacher es [für