Die Kehrseite der KI: So hoch ist der Stromverbrauch von ChatGPT
So nützlich KI-Modelle wie Open AIs ChatGPT auch sind: Ihr Training und ihre Nutzung sorgen für einen enorm hohen Stromverbrauch.
Der beispiellose Boom an Künstlicher Intelligenz (KI), den wir derzeit erleben, hat einen hohen Preis: Der Stromverbrauch beliebter KI-Modelle wie etwa OpenAIs ChatGPT kann es nämlich mit mehreren Haushalten aufnehmen.
In nahezu jedem Bereich unseres digitalen Lebens spielt KI inzwischen eine Rolle. Von automatisierten E-Mails bis hin zu kreativen Prozessen wie dem Erstellen von Bildern und Texten. Um ein populäres Beispiel zu nennen: OpenAIs ChatGPT hat nur innerhalb von fünf Tagen nach seiner Einführung schon eine Million Nutzer angezogen. Heute sind es weltweit um die 100 Millionen.
Wie hoch ist der Stromverbrauch von ChatGPT?
Diese enorme Nutzung schlägt sich logischerweise aber auch in einer erhöhten Energienutzung nieder. Prof. Ralf Herbrich vom Hasso-Plattner-Institut erklärte gegenüber t-online, dass allein das Training eines KI-Modells massive Rechenleistungen benötige. Dabei kämen hunderte Grafikkarten zum Einsatz, die jeweils 1.000 Watt pro Stunde verbrauchen. Dies ist vergleichbar mit der Energie, die ein Backofen pro Stunde verbraucht.
Sajjad Moazeni von der University of Washington sprach im letzten Jahr in einem Interview mit dem Technik-News-Magazin Futuriq von bis zu 10 Gigawattstunden Strom, die das Training von KI-Modellen wie ChatGPT erfordert. Dieser Prozess allein hat den Energieverbrauch eines kleinen Stadtteils. Moazeni betont, dass die großen Rechenzentren, die für solche Berechnungen notwendig sind, ebenfalls hohe Energiemengen für Kühlung und Management benötigen.
Tiefere Einblicke in die Energiekosten von KI
Die Forschung zeigt, dass KI-Anwendungen, auch wenn sie bequem und leistungsstark sind, eine erhebliche Menge an Energie benötigen. Alex de Vries, ein Datenwissenschaftler aus Amsterdam, schätzt, dass der Betrieb von ChatGPT täglich rund 564 Megawattstunden Strom verbrauchen könnte. Dieser Bedarf entsteht nicht nur durch das Training der Modelle, sondern auch durch den ständigen Betrieb und die Datenverarbeitung, die für die Beantwortung von Anfragen erforderlich sind.
Globaler Fußabdruck und Zukunftsprognosen
Der Energiebedarf für die Beantwortung einer einzelnen Suchanfrage entspricht laut Herbrich dem einer vollständigen Smartphone-Ladung. Diese Energiemengen sind nicht zu unterschätzen, besonders wenn man die weltweite Nutzung in Betracht zieht. Der Abbau von Mineralien wie Silizium und Kobalt und das für die Kühlung der Rechenzentren benötigte Wasser fließen ebenfalls in die Klimabilanz ein und verschlechtern diese.
Die Zukunft sieht jedoch nicht düster aus. Die Forschung bemüht sich aktiv, die Effizienz von KI-Systemen zu verbessern. Dies könnte langfristig zu einer reduzierten Energieanforderung pro Berechnung führen.
Innovation und Nachhaltigkeit: Ein fortlaufender Prozess
Die Lösungen für den hohen Energieverbrauch liegen in der Optimierung von Hardware und Prozessoren. Forscher wie Moazeni arbeiten an fortschrittlichen optischen Verbindungslösungen, die den Stromverbrauch minimieren könnten. Diese Entwicklungen sind entscheidend, um die Nachhaltigkeit in der schnell wachsenden Welt der KI zu gewährleisten.
Was du dir merken solltest:
- Künstliche Intelligenz wie OpenAIs ChatGPT wird zunehmend in verschiedenen digitalen Bereichen eingesetzt, was zu einem signifikanten Anstieg des Energieverbrauchs führt.
- Der Energiebedarf für das Training großer KI-Modelle kann enorm sein, ähnlich dem Verbrauch eines ganzen Stadtteils, wobei zusätzliche Energie für Kühlung und Management in den Rechenzentren erforderlich ist.
- Es gibt aktive Forschungsbestrebungen, um die Energieeffizienz von KI-Systemen zu verbessern, darunter die Entwicklung fortschrittlicher Hardware und optischer Verbindungen, die dazu beitragen könnten, den Gesamtenergieverbrauch zu reduzieren und die Nachhaltigkeit zu erhöhen.
Bild: © Vecteezy
1 thought on “Die Kehrseite der KI: So hoch ist der Stromverbrauch von ChatGPT”