Veröffentlicht inDigital Life

ChatGPT: Darum solltest du nie danke und bitte sagen

Wenn du die KI regelmäßig nutzt, neigst du womöglich auch dazu, dich nach einer erledigten Aufgabe höflich zu bedanken. Doch genau das sehen Fachleute kritisch.

ChatGPT
© Ascannio - stock.adobe.com

Was ist ChatGPT? Der Chatbot einfach erklärt

Der beliebte Chatbot einfach und verständlich erklärt.

Dass Künstliche Intelligenz irgendwann die Menschheit unterjocht, ist eine Sorge von vielen. Nutzende behalten auch deshalb oft den höflichen Umgang mit ChatGPT aufrecht und sagen danke und bitte, wenn sie mit der KI interagieren. Für das Klima ist das genau der falsche Weg.

ChatGPT: Darum sind bitte und danke ein Problem

Eine im Februar veröffentlichte Umfrage des Verlags Future, der unter anderem TechRadar betreibt, zeigte: 67 Prozent der in den USA und Großbritannien befragten 510 KI-Nutzer*innen verwenden höfliche Formulierungen wie bitte und danke, wenn sie mit ChatGPT und Co. sprechen. 18 Prozent davon tun das, um sich für den Fall eines hypothetischen Aufstands abzusichern. Die restlichen 82 Prozent finden, dass Freundlichkeit nie fehl am Platz ist – egal ob gegenüber Mensch oder Maschine.

Wie Sam Altman von OpenAI, dem Unternehmen hinter ChatGPT, auf X durchblicken ließ, ist es allerdings deutlich kosteneffizienter – und auch umweltfreundlicher – auf derartige Feinheiten zu verzichten. Auf einen Post mit der Frage „wie viel Geld OpenAI an Stromkosten verloren hat, weil die Leute ‚bitte‘ und ‚danke‘ zu ihren Modellen sagen“ antwortete der CEO recht knapp: „Dutzende von Millionen gut angelegtes Geld – man weiß ja nie“.

Lesetipp: Diese 20 Jobs gehen laut ChatGPT bald verloren

Höflichkeit verbraucht viel Energie

Laut Microsoft-Designer Kurtis Beavers kann ein höflicher Ton die Qualität der KI-Antwort beeinflussen. Freundliche Eingaben führen zu ebenso freundlichen Reaktionen – ein Effekt, den viele Nutzer*innen schätzen. Doch dieser digitale Anstand hat seinen Preis: Eine Analyse des Electric Power Research Institute (EPRI) vom Mai 2024 zeigt Entrepreneur zufolge, dass eine KI-Anfrage bis zu zehnmal mehr Energie verbraucht als eine klassische Google-Suche ohne KI-Zusammenfassungen.

Besonders ressourcenintensiv zeigt sich darunter ChatGPT. Das Tool verschlingt demnach jährlich rund 1.059 Milliarden Kilowattstunden Strom – das entspricht Energiekosten von fast 140 Millionen Dollar. Ein hoher Preis für digitale Konversationen, auch wenn sie höflich geführt werden.

Auch Wasserverbrauch durch KI ist überraschend hoch

Neben Strom ist auch der Wasserverbrauch bei der Nutzung von KI-Systemen ein oft unterschätzter Faktor. Forschende der University of California in Riverside haben laut Washington Post berechnet, dass ChatGPT für eine 100-Wörter-E-Mail bis zu 1.408 Milliliter Wasser benötigt – etwa drei handelsübliche Wasserflaschen. Selbst eine kurze Antwort wie „Gern geschehen“ verbraucht rund 40 bis 50 Milliliter Wasser zur Kühlung der Server.

Während OpenAI mit seinem Milliardenbudget diese Kosten aktuell noch problemlos stemmen kann, wirft der Ressourcenverbrauch ethische Fragen auf. ChatGPT zählt mittlerweile weltweit 500 Millionen wöchentliche Nutzer*innen. Damit steigt nicht nur die Reichweite, sondern auch der ökologische Fußabdruck der KI.

Quellen: Entrepreneur, X/samaltman, X/tomeinlove, Microsoft, Electric Power Research Institute, Washington Post

Seit dem 24. Februar 2022 herrscht Krieg in der Ukraine. Hier kannst du den Betroffenen helfen.

Dieser Artikel wurde mit maschineller Unterstützung (KI) erstellt und vor der Veröffentlichung von der Redaktion sorgfältig geprüft.

Du willst mehr von uns lesen? Folge uns auf Google News.