KI kann Bildung nicht ersetzen – es sei denn, wir lassen es zu

Graduation cap on the blue background

(SeaPRwire) –   Während Abschlussfeiern das Versprechen einer neuen Generation von Absolventen zelebrieren, drängt sich eine Frage auf: Wird KI ihre Ausbildung sinnlos machen?

Viele CEOs glauben das. Sie beschreiben eine Zukunft, in der KI Ingenieure, Ärzte und Lehrer ersetzen wird. Der CEO von Meta sagte kürzlich voraus, dass KI Ingenieure der mittleren Ebene ersetzen wird, die den Computercode des Unternehmens schreiben. Der CEO von NVIDIA hat sogar erklärt, dass das Programmieren selbst obsolet sei.

Während Bill Gates zugibt, dass das rasante Tempo der KI-Entwicklung “tiefgreifend und sogar ein wenig beängstigend” ist, begrüßt er, wie es es ermöglichen könnte, dass Elite-Wissen universell zugänglich wird. Auch er sieht eine Welt, in der KI Programmierer, Ärzte und Lehrer ersetzt und kostenlose, qualitativ hochwertige medizinische Beratung und Nachhilfe anbietet.

Trotz des Hypes kann KI nicht von selbst “denken” oder ohne Menschen handeln – zumindest noch nicht. Tatsächlich hängt es von einer entscheidenden Entscheidung ab, ob KI das Lernen verbessert oder das Verständnis untergräbt: Werden wir zulassen, dass KI nur Muster vorhersagt? Oder werden wir von ihr verlangen, dass sie erklärt, begründet und in den Gesetzen unserer Welt verankert bleibt?

KI braucht menschliches Urteilsvermögen, nicht nur um ihre Ergebnisse zu überwachen, sondern auch um wissenschaftliche Leitplanken einzubauen, die ihr Richtung, Fundierung und Interpretierbarkeit geben.

kürzlich verglich KI-Chatbots mit einem mittelmäßig guten Schüler, der eine mündliche Prüfung ablegt. “Wenn sie die Antwort kennen, werden sie sie Ihnen sagen, und wenn sie die Antwort nicht kennen, sind sie wirklich gut darin, zu bullsh*tten”, sagte er auf einer Veranstaltung an der University of Pennsylvania. Wenn ein Benutzer also nicht viel über ein bestimmtes Thema weiß, könnte man laut Sokal einen “bullsh*tting”-Chatbot möglicherweise nicht entlarven. Das fängt für mich das sogenannte “Wissen” der KI perfekt ein. Sie ahmt Verständnis nach, indem sie Wortfolgen vorhersagt, es mangelt ihr aber an der konzeptionellen Fundierung.

Deshalb haben “kreative” KI-Systeme und darüber entfacht, ob große Sprachmodelle kulturelle Nuancen wirklich erfassen. Wenn Lehrer feststellen, dass KI-Tutoren das kritische Denken der Schüler behindern könnten, oder Ärzte algorithmische Fehldiagnosen feststellen, identifizieren sie denselben Fehler: Maschinelles Lernen ist brillant in der Mustererkennung, aber es fehlt ihm das tiefe Wissen, das aus systematischer, kumulativer menschlicher Erfahrung und der wissenschaftlichen Methode stammt.

Das ist es, wo ein einen Weg nach vorn bietet. Er konzentriert sich darauf, menschliches Wissen direkt in die Art und Weise einzubetten, wie Maschinen lernen. PINNs (Physics-Informed Neural Networks) und MINNs (Mechanistically Informed Neural Networks) sind Beispiele. Die Namen klingen vielleicht technisch, aber die Idee ist einfach: KI wird besser, wenn sie die Regeln befolgt, seien es physikalische Gesetze, biologische Systeme oder soziale Dynamiken. Das bedeutet, dass wir immer noch Menschen brauchen, nicht nur um Wissen zu nutzen, sondern um es zu schaffen. KI funktioniert am besten, wenn sie von uns lernt.

Ich sehe das in meiner eigenen Arbeit mit MINNs. Anstatt einem Algorithmus raten zu lassen, was auf der Grundlage vergangener Daten funktioniert, programmieren wir ihn so, dass er etablierten wissenschaftlichen Prinzipien folgt. Nehmen Sie eine lokale . Für diese Art von Unternehmen ist die Blütezeit alles. Eine zu frühe oder zu späte Ernte reduziert die Wirksamkeit der ätherischen Öle, was die Qualität und den Gewinn beeinträchtigt. Eine KI könnte Zeit damit verschwenden, irrelevante Muster zu durchforsten. Ein MINN beginnt jedoch mit der Pflanzenbiologie. Er verwendet Gleichungen, die Wärme, Licht, Frost und Wasser mit der Blütezeit in Verbindung bringen, um zeitnahe und finanziell sinnvolle Vorhersagen zu treffen. Aber das funktioniert nur, wenn er weiß, wie die physikalische, chemische und biologische Welt funktioniert. Dieses Wissen stammt aus der Wissenschaft, die von Menschen entwickelt wird.

Stellen Sie sich vor, Sie wenden diesen Ansatz auf die Krebserkennung an: Brusttumore geben Wärme durch erhöhte Durchblutung und Stoffwechsel ab, und prädiktive KI könnte Tausende von Wärmebildern analysieren, um Tumore allein anhand von Datenmustern zu identifizieren. Ein MINN, wie der kürzlich , verwendet jedoch Körperoberflächentemperaturdaten und bettet Bio-Wärmeübertragungsgesetze direkt in das Modell ein. Das bedeutet, dass er, anstatt zu raten, versteht, wie sich Wärme durch den Körper bewegt, so dass er erkennen kann, was falsch ist, was es verursacht, warum und wo genau es sich befindet, indem er die Physik des Wärmeflusses durch das Gewebe nutzt. In einem Fall sagte ein MINN die Lage und Größe eines Tumors innerhalb weniger Millimeter voraus, basierend ausschließlich darauf, wie Krebs die Wärmesignatur des Körpers stört.

Die Quintessenz ist einfach: Menschen sind immer noch unerlässlich. Mit zunehmender Komplexität der KI verschwindet unsere Rolle nicht. Sie verschiebt sich. Menschen müssen “Bullsh*t” rufen, wenn ein Algorithmus etwas Bizarres, Voreingenommenes oder Falsches produziert. Das ist nicht nur eine Schwäche der KI. Es ist die größte Stärke des Menschen. Das bedeutet, dass auch unser Wissen wachsen muss, damit wir die Technologie steuern, sie in Schach halten, sicherstellen können, dass sie das tut, was wir denken, dass sie tut, und den Menschen dabei helfen.

Die eigentliche Bedrohung ist nicht, dass KI intelligenter wird. Es ist, dass wir aufhören könnten, unsere Intelligenz zu nutzen. Wenn wir KI als ein Orakel behandeln, riskieren wir, zu vergessen, wie man hinterfragt, argumentiert und erkennt, wann etwas keinen Sinn macht. Glücklicherweise muss die Zukunft nicht so aussehen.

Wir können Systeme bauen, die transparent, interpretierbar und in dem akkumulierten menschlichen Wissen der Wissenschaft, Ethik und Kultur verankert sind. Politiker können Forschung in interpretierbare KI finanzieren. Universitäten können Studenten ausbilden, die Fachwissen mit technischen Fähigkeiten verbinden. Entwickler können Frameworks wie MINNs und PINNs übernehmen, die von Modellen verlangen, der Realität treu zu bleiben. Und wir alle – Nutzer, Wähler, Bürger – können fordern, dass KI der Wissenschaft und der objektiven Wahrheit dient, nicht nur Korrelationen.

Nach mehr als einem Jahrzehnt des Unterrichts von Statistik und wissenschaftlicher Modellierung auf Universitätsniveau konzentriere ich mich nun darauf, Studenten zu helfen, zu verstehen, wie Algorithmen “unter der Haube” funktionieren, indem sie die Systeme selbst lernen, anstatt sie auswendig zu lernen.

Dieser Ansatz ist heute notwendig. Wir brauchen nicht mehr Benutzer, die auf “Generieren” auf Black-Box-Modellen klicken. Wir brauchen Menschen, die die Logik der KI, ihren Code und ihre Mathematik verstehen und ihren “Bullsh*t” erkennen können.

KI wird die Bildung nicht irrelevant machen oder Menschen ersetzen. Aber wir könnten uns selbst ersetzen, wenn wir vergessen, wie man unabhängig denkt und warum Wissenschaft und tiefes Verständnis wichtig sind.

Die Wahl ist nicht, ob wir KI ablehnen oder annehmen sollen. Es ist, ob wir gebildet und intelligent genug bleiben, um sie zu führen.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen. 

“`