Neue KI braucht 100-mal weniger Strom – und löst Aufgaben deutlich besser
Eine neue KI löst Aufgaben deutlich zuverlässiger und senkt den Stromverbrauch dabei um bis zu das 100-Fache gegenüber bisherigen Modellen.
Moderne KI-Rechenzentren verschlingen heute Strommengen im Bereich ganzer Kleinstädte. Die neue KI der Tufts University soll Aufgaben deutlich zuverlässiger lösen und dabei den Energiebedarf drastisch senken. © Unsplash
Künstliche Intelligenz gilt als Produktivitätsmotor unserer Zeit. Sie schreibt Texte, sortiert Daten, steuert Prozesse und übernimmt in Unternehmen immer mehr Aufgaben. Doch mit jedem neuen Modell steigt auch der Energiebedarf. Damit geht es längst nicht mehr nur um technischen Fortschritt, sondern auch um Kosten, Infrastruktur und die Frage, wie bezahlbar diese Entwicklung dauerhaft bleibt.
Statt Modelle immer größer und rechenintensiver zu machen, verbindet die neue Architektur klassische Mustererkennung mit regelbasiertem Denken. Das heißt vereinfacht: Die KI erkennt nicht nur, was wahrscheinlich passt, sondern arbeitet zusätzlich mit festen Regeln und logischen Schritten – also eher geordnet als bloß durch massenhaftes Ausprobieren.
Vorgestellt werden die Ergebnisse auf der International Conference of Robotics and Automation (ICRA) in Wien. Der Kern der Arbeit ist brisant: Diese KI soll Aufgaben nicht nur verlässlicher lösen, sondern dabei auch den Stromverbrauch drastisch senken. Mehr Leistung entstünde dann nicht durch noch mehr Rechenaufwand, sondern durch ein System, das strukturierter denkt.
Warum der Strombedarf von KI zum echten Problem wird
Die Größenordnung ist längst zu groß, um sie als Technikdetail abzutun. Nach Angaben der Internationalen Energieagentur verbrauchten KI- und Rechenzentren in den USA im Jahr 2024 rund 415 Terawattstunden Strom. Das entsprach mehr als zehn Prozent der gesamten nationalen Energieproduktion. Bis 2030 dürfte sich dieser Bedarf verdoppeln. Damit geht es nicht mehr nur um neue Modelle und schnellere Chips, sondern auch um Netze, Standorte und hohe Kosten.
Dazu kommt ein zweiter Punkt, der im Alltag oft untergeht: Viel Rechenleistung garantiert noch keine verlässlichen Ergebnisse. Die meisten aktuellen Systeme arbeiten mit riesigen Datenmengen und statistischen Wahrscheinlichkeiten. Das macht sie stark, aber auch fehleranfällig. Chatbots erfinden Inhalte, Bildgeneratoren liefern unplausible Details, und selbst einfache Roboteraufgaben gehen mitunter schief.
Neue Architektur arbeitet strukturierter und spart Rechenschritte
Im Kern geht es um sogenannte neuro-symbolische KI. Hinter dem Begriff steckt eine Kombination aus zwei Ansätzen. Einerseits nutzt das System die Stärken neuronaler Netze, also Mustererkennung, Sprachverarbeitung und Bildauswertung. Andererseits ergänzt es diese Technik durch symbolisches Schlussfolgern. Vereinfacht gesagt: Das Modell erkennt nicht nur Wahrscheinlichkeiten, sondern arbeitet zusätzlich mit Regeln, Kategorien und logischen Schritten.
Getestet wurde das mit visuell-sprachlich-handlungsbasierten Modellen, kurz VLA-Modellen. Solche Systeme kommen vor allem bei Robotern zum Einsatz. Sie verarbeiten Kamerabilder und Sprache und leiten daraus Bewegungen ab, etwa mit Armen, Fingern oder Rädern. In der Praxis entstehen dabei schnell Fehler. Schatten, Perspektive oder eine leicht veränderte Lage eines Objekts reichen oft aus. Das neue System soll solche Irrwege verringern, weil es Aufgaben stärker ordnet und nicht nur auf Wahrscheinlichkeiten setzt.
Erfolgsquoten steigen im Test auffallend stark
Besonders deutlich wird das beim Turm-von-Hanoi-Puzzle, einem klassischen Testproblem. Dort erreichte das neuro-symbolische System eine Erfolgsquote von 95 Prozent. Herkömmliche VLA-Modelle kamen nur auf 34 Prozent. Der Abstand ist so groß, dass er sich kaum als bloßer Ausreißer erklären lässt.
Auch bei einer schwierigeren Variante blieb der Vorsprung klar. Diese Aufgabe hatte das System zuvor nicht gesehen. Trotzdem lag die Erfolgsquote noch bei 78 Prozent. Die Standardmodelle scheiterten in allen Versuchen. Das ist für den praktischen Einsatz wichtig. Maschinen müssen nicht nur bekannte Abläufe wiederholen, sondern auch mit neuen Situationen zurechtkommen.
- 95 Prozent Erfolgsquote beim klassischen Turm-von-Hanoi-Test
- 34 Prozent Erfolgsquote bei herkömmlichen VLA-Modellen
- 78 Prozent Erfolg bei einer komplexeren, unbekannten Variante
- 0 erfolgreiche Versuche bei den Standardmodellen in diesem schwierigeren Test
Training schrumpft von Stunden auf wenige Minuten
Fast noch wichtiger ist der Blick auf Training und Energieverbrauch. Das neue System ließ sich in 34 Minuten trainieren. Das herkömmliche Modell brauchte dafür mehr als anderthalb Tage, also über 36 Stunden. In einer Branche, in der Rechenzeit teuer ist, wiegt dieser Unterschied schwer.
Beim Stromverbrauch fällt der Abstand noch deutlicher aus. Für das Training benötigte das neuro-symbolische Modell nur ein Prozent der Energie eines Standard-VLA. Auch im laufenden Betrieb blieb der Vorsprung groß. Bei der Ausführung der Aufgaben lag der Verbrauch bei nur fünf Prozent des herkömmlichen Systems. Seine eigentliche Stärke: weniger Aufwand, bessere Resultate.
Der Informatiker Matthias Scheutz von der Tufts University erklärt: „Wie ein großes Sprachmodell handeln VLA-Modelle auf der Basis statistischer Ergebnisse aus großen Trainingsmengen ähnlicher Szenarien, aber das kann zu Fehlern führen.“ Und weiter: „Ein neuro-symbolisches VLA kann Regeln anwenden, die den Umfang von Versuch und Irrtum beim Lernen begrenzen und viel schneller zu einer Lösung kommen.“
Heutige KI frisst viel Strom – neue Modelle könnten effizienter arbeiten
Scheutz zieht selbst eine Linie zu bekannten Anwendungen wie ChatGPT oder Gemini. Solche Systeme sagen meist das nächste Wort oder die nächste Aktion voraus. Das ist oft nützlich, bleibt aber fehleranfällig und braucht viel Energie. Als Beispiel nennt er KI-Zusammenfassungen in der Google-Suche. Diese könnten „bis zu 100-mal mehr Energie“ verbrauchen als die bloße Anzeige klassischer Webseitenlisten. Folgende Zahlen verdeutlichen das Ausmaß nochmal:
- 415 Terawattstunden Stromverbrauch von KI- und Rechenzentrumssystemen in den USA im Jahr 2024
- mehr als zehn Prozent der gesamten nationalen Energieproduktion
- Verdopplung bis 2030 laut genannter Prognose möglich
- Hunderte Megawatt Leistungsbedarf moderner KI-Rechenzentren
Die Studie der Tufts University ist damit mehr als ein technisches Detail. Sie deutet an, dass künstliche Intelligenz nicht zwangsläufig immer größer und stromhungriger werden muss.
Kurz zusammengefasst:
- KI wird immer wichtiger, verbraucht aber auch immer mehr Strom. In den USA verbrauchte sie im Jahr 2024 rund 415 Terawattstunden, mehr als zehn Prozent der gesamten nationalen Energieproduktion
- Die neue Technik der Tufts University verbindet Wahrscheinlichkeiten mit festen Regeln und arbeitet so genauer und deutlich sparsamer.
- Im Test löste sie Aufgaben erfolgreicher und brauchte dafür bis zu 100-mal weniger Energie als bisherige Modelle.
Übrigens: Weil KI-Rechenzentren immer mehr Strom fressen und an Land oft an Grenzen bei Fläche, Netzen und Kühlung stoßen, verlagern Entwickler die Infrastruktur nun aufs Meer. Dort soll eine schwimmende Plattform Windstrom direkt nutzen und Server mit Meerwasser kühlen – mehr dazu in unserem Artikel.
Bild: © Unsplash
