(SeaPRwire) – Ob es darum geht, eine E-Mail zu schreiben oder einen Urlaub zu planen, etwa ein Drittel gibt an, mehrmals täglich mit künstlicher Intelligenz zu interagieren, während weitere 28 % sagen, dass sie sie etwa einmal täglich nutzen.
Aber viele Menschen sind sich möglicherweise der Umweltauswirkungen ihrer Suchanfragen nicht bewusst. Eine Anfrage mit ChatGPT verbraucht beispielsweise 10-mal so viel Strom wie eine Google-Suche, so die . Darüber hinaus verbrauchen Rechenzentren, die für den Betrieb von KI-Modellen unerlässlich sind, des gesamten in den USA verbrauchten Stroms im Jahr 2023 – und bis 2028 werden sie voraussichtlich etwa 6,7 bis 12 % des Stroms des Landes verbrauchen. Es wird wahrscheinlich nur noch zunehmen: Die Anzahl der Rechenzentren weltweit ist von 500.000 im Jahr 2012 auf über 8 Millionen gestiegen.
Eine neue Studie, die in veröffentlicht wurde, zielt darauf ab, mehr Aufmerksamkeit auf das Problem zu lenken. Forscher analysierten die Anzahl der „Tokens“ – der kleinsten Dateneinheiten, die ein Sprachmodell zur Verarbeitung und Generierung von Text verwendet – die zur Erstellung von Antworten erforderlich sind, und stellten fest, dass bestimmte Prompts bis zu 50-mal mehr CO2-Emissionen freisetzen können als andere.
Verschiedene KI-Modelle verwenden eine unterschiedliche Anzahl von Parametern; solche mit mehr Parametern . Die Studie untersuchte 14 Large Language Models (LLMs) mit einer Spannweite von sieben bis 72 Milliarden Parametern und stellte ihnen die gleichen 1.000 Benchmark-Fragen zu verschiedenen Themen. Parameter sind die internen Variablen, die ein Modell während des Trainings lernt und dann zur Erzeugung von Ergebnissen verwendet.
Reasoning-fähige Modelle, die komplexere Aufgaben ausführen können, erstellten im Durchschnitt 543,5 „Denk“-Tokens pro Frage (dies sind zusätzliche Dateneinheiten, die Reasoning-LLMs generieren, bevor sie eine Antwort geben). Das ist im Vergleich zu prägnanteren Modellen, die nur 37,7 Tokens pro Frage benötigten. Je mehr Tokens verwendet wurden, desto höher waren die Emissionen – unabhängig davon, ob die Antwort richtig war oder nicht.
Der Themenbereich der Themen beeinflusste die Höhe der erzeugten Emissionen. Fragen zu unkomplizierten Themen wie dem Geschichtsunterricht in der High School erzeugten bis zu sechsmal weniger Emissionen als Themen wie abstrakte Algebra oder Philosophie, die längere Denkprozesse erforderten.
Derzeit weisen viele Modelle einen inhärenten „Genauigkeits-Nachhaltigkeits-Kompromiss“ auf, sagen die Forscher. Das Modell, das die Forscher als das genaueste einstuften, das Reasoning-fähige Cogito-Modell, produzierte dreimal mehr CO2-Emissionen als ähnlich große Modelle, die prägnantere Antworten generierten. Die inhärente Herausforderung in der aktuellen Landschaft der KI-Modelle besteht also darin, sowohl die Energieeffizienz als auch die Genauigkeit zu optimieren. „Keines der Modelle, die die Emissionen unter 500 Gramm CO₂-Äquivalent hielten, erreichte eine höhere Genauigkeit als 80 % bei der korrekten Beantwortung der 1.000 Fragen“, sagte der Erstautor Maximilian Dauner, ein Forscher an der Hochschule München.
Nicht nur die Art der gestellten Fragen oder der Grad der Genauigkeit der Antwort, sondern auch die Modelle selbst können zu den Unterschieden bei den Emissionen führen. Forscher fanden heraus, dass einige Sprachmodelle mehr Emissionen produzieren als andere. Damit DeepSeek R1 (70 Milliarden Parameter) 600.000 Fragen beantworten kann, würden CO2-Emissionen entstehen, die einem Hin- und Rückflug von London nach New York entsprechen, während Qwen 2.5 (72 Milliarden Parameter) über dreimal so viele Fragen – etwa 1,9 Millionen – mit ähnlichen Genauigkeitsraten und der gleichen Anzahl von Emissionen beantworten kann.
Die Forscher hoffen, dass die Nutzer sich der Umweltauswirkungen ihrer KI-Nutzung bewusster werden. „Wenn Benutzer die genauen CO₂-Kosten ihrer KI-generierten Ausgaben kennen, z. B. wenn sie sich beiläufig in eine Actionfigur verwandeln“, sagte Dauner, „werden sie möglicherweise selektiver und überlegter darüber sein, wann und wie sie diese Technologien einsetzen.“
Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.
Branchen: Top-Story, Tagesnachrichten
SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.
“`