Tech & Trends Millionen-Kosten durch höfliche Nutzer: Warum „Bitte“ bei ChatGPT OpenAI teuer zu stehen kommt

Millionen-Kosten durch höfliche Nutzer: Warum „Bitte“ bei ChatGPT OpenAI teuer zu stehen kommt

Jedes „Bitte“ und „Danke“ in Anfragen an ChatGPT kostet den KI-Riesen Unsummen – und Sam Altman nimmt es gelassen.

Höflichkeitsfloskeln fressen Millionen

Die digitale Höflichkeit hat ihren Preis – und der ist erstaunlich hoch. OpenAI-Chef Sam Altman enthüllte kürzlich, dass sein Unternehmen „zig Millionen Dollar“ verliert, nur weil Nutzer ihre Anfragen an ChatGPT mit Höflichkeitsfloskeln garnieren. Auf die Twitter-Frage, wie viel Geld durch das „Bitte“ und „Danke“ der User bereits an Stromkosten verloren gegangen sei, antwortete Altman knapp: „Zig Millionen Dollar, gut angelegt – man weiß ja nie.“

Hinter dieser scheinbar beiläufigen Bemerkung verbirgt sich ein fundamentales Problem der KI-Branche: Jedes zusätzliche Wort in einer Anfrage erhöht den Energieverbrauch. Was für Menschen selbstverständliche Umgangsformen sind, bedeutet für die Rechenzentren von OpenAI zusätzliche Rechenleistung, höheren Stromverbrauch und damit steigende Kosten.

Die Energiebilanz hinter jedem Prompt

Der Ressourcenhunger moderner KI-Systeme ist beachtlich. Eine Untersuchung der Washington Post in Zusammenarbeit mit Forschern der University of California zeigt die Dimension: Allein für eine KI-generierte E-Mail mit 100 Wörtern werden etwa 0,14 Kilowattstunden Strom benötigt – genug, um 14 LED-Lampen eine Stunde lang zu betreiben.

Bei Millionen täglicher Anfragen an ChatGPT summieren sich selbst kleine Höflichkeitsfloskeln zu einem erheblichen Energieverbrauch. Die zusätzlichen Worte „Lieber ChatGPT, könntest du bitte…“ oder „Vielen Dank für deine Hilfe“ vervielfachen diesen Effekt – und schlagen sich direkt in den Betriebskosten nieder.

Seite 1 / 3
Nächste Seite