Höflichkeit kostet: OpenAI zahlt Millionen, weil Nutzer „Bitte“ und „Danke“ zu ChatGPT sagen

„Zig Millionen Dollar“ soll der Konzern hinter ChatGPT bereits gezahlt haben, nur weil Nutzer ihrer KI mit Höflichkeit begegnen.

Höflichkeit der ChatGPT-Nutzer kostet OpenAI Millionen

Rund zwei Drittel der amerikanischen Nutzer sind höflich zu Chatbots: Mehr als die Hälfte davon tut dies aus Anstand, ein kleinerer Teil aus Pragmatismus im Falle einer KI-Übernahme. © Wikimedia

Die Höflichkeit vieler ChatGPT-Nutzer hat eine teure Nebenwirkung: Laut Sam Altman, Chef von OpenAI, verursachen Floskeln wie „Bitte“ und „Danke“ Millionenkosten. Jede zusätzliche Eingabe muss schließlich verarbeitet werden, was mehr Rechenleistung beansprucht. Das erhöht den Stromverbrauch.

Auf der Plattform X fragte ein Nutzer zuletzt, wie viel Geld OpenAI bereits durch zusätzliche Stromkosten verloren hat, weil Nutzer zu ihren Modellen „Bitte“ und „Danke“ sagen. Darauf antwortete Altman in einem lockeren Ton: „Zig Millionen Dollar, gut angelegt – man weiß ja nie.“

Das Prinzip ist einfach: Je mehr Wörter, desto aufwendiger die Berechnung. Rechenzentren müssen jede Eingabe analysieren, bewerten und ausgeben – das kostet Strom. Besonders bei täglich Millionen von Anfragen steigen die Energiekosten rasant.

Menschen bleiben höflich – aus Prinzip und aus Angst

Viele User bleiben dennoch freundlich – und das ganz bewusst. Einer Studie zufolge sind rund zwei Drittel der amerikanischen Nutzer höflich zu Chatbots. Mehr als die Hälfte davon gibt an, dies aus Anstand zu tun. Ein kleinerer Teil hofft offenbar, sich durch guten Ton Vorteile bei einer Übernahme durch die KI zu sichern.

Wie eine Untersuchung der Waseda University in Tokio zeigt, ist Höflichkeit gegenüber der KI nicht immer verschwendet: Wer höflich ist, bekommt von Sprachmodellen wie ChatGPT oft bessere Antworten. Die Forscher testeten den Einfluss höflicher Formulierungen in Englisch, Japanisch und Chinesisch. Dabei schnitten unhöfliche Anweisungen klar schlechter ab. Übertriebene Höflichkeit brachte allerdings ebenfalls keine besseren Ergebnisse. Der optimale Höflichkeitsgrad hing dabei von der jeweiligen Sprache ab.

Der unterschätzte Umweltfaktor von KI

Nicht nur aus finanzieller, sondern auch aus ökologischer Sicht ist der Umgang mit ChatGPT bedeutsam. Forscher der University of California haben in Zusammenarbeit mit der Washington Post berechnet, dass schon eine einzige 100-Wörter-Antwort der KI rund 0,14 Kilowattstunden Strom verbrauchen kann.

Tiefere Einblicke gibt der Datenexperte Alex de Vries: Der tägliche Strombedarf von ChatGPT könnte laut ihm bei rund 564 Megawattstunden liegen. Dies entspricht dem Verbrauch mehrerer Tausend Haushalte. Der hohe Bedarf entsteht sowohl durch das Training der Modelle als auch durch den dauerhaften Betrieb. Hinzu kommen indirekte Effekte wie Kühlleistung, Wasserverbrauch und der Abbau seltener Rohstoffe für die Hardware.

Altmans Kommentar mag auf den ersten Blick humorvoll wirken, wirft aber Fragen auf. Denn mit „man weiß ja nie“ lässt er offen, ob sich hinter der Toleranz für höfliche Prompts ein langfristiger Plan verbirgt – oder ob es sich eher um ein geschicktes PR-Manöver handelt.

Kurz zusammengefasst:

  • Höfliche Formulierungen wie „Bitte“ und „Danke“ führen bei ChatGPT zu deutlich höheren Stromkosten, sagt OpenAI-CEO Sam Altman.
  • Rund zwei Drittel der amerikanischen Nutzer sind der KI gegenüber höflich – aus Anstand oder Angst vor einer Übernahme durch KI.
  • Der Energieverbrauch von ChatGPT ist enorm: Eine 100-Wörter-Antwort kann bis zu 0,14 Kilowattstunden Strom verbrauchen – der tägliche Gesamtverbrauch mehrerer Tausend Haushalte.

Bild: © TechCrunch via Wikimedia unter CC BY 2.0

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert