Übersetzungsprogramme, Sprachassistenten oder Spamfilter: Künstliche Intelligenz ist schon heute allgegenwärtig und verbraucht, wie auch das Bitcoin-Mining, sehr viel Energie. Das trifft besonders auf Textgeneratoren wie ChatGPT oder Bard zu.
Laut einer aktuellen Studie der University of Massachusetts Amherst in den USA emittiert das Trainieren von künstlicher Intelligenz so viel CO2 wie fünf konventionelle PKW mit Verbrennungsmotor. Konkret: Die Forscherinnen und Forscher untersuchten in ihrer Studie vier verschiedene Modelle, die Sprache verarbeiten. Solche NLP-Modelle (natural language processing) kommen im Bereich der Spracherkennung und in der maschinellen Online-Übersetzung zum Einsatz. Um den Energieverbrauch der CPU und des Grafikprozessors zu messen, genügt es jedes dieser Modelle nur einen Tag lang zu „trainiert“. Das bedeutet: Man lädt riesige Datensätze in ein neuronales Netz. Die Verbrauchswerte der Arbeitsschritte konvertiert man dann auf der Basis eines Umrechnungsschlüssels der US-Umweltbehörde EPA in Emissionswerte.
Die Entwicklung der Vorreiter von ChatGPT-3 verdeutlicht das Problem. 2018 erzielte das BERT-Modell die beste Leistung, nach einem Training mit einem Datensatz von drei Milliarden Wörtern. XLNet übertraf BERT mit einem Trainingssatz von 32 Milliarden Wörtern. Kurz danach trainierte man GPT-2 an einem Datensatz von 40 Milliarden Wörtern. Ein Datensatz von ungefähr 500 Milliarden Wörtern (45 TB an Informationen aus unterschiedlichen Quellen wie elektronischen Büchern, Web-Texten, Wikipedia und Common-Crawl-Daten aus den vergangenen acht Jahren) wurde verwendet, um GPT-3 zu trainieren. Das Training von GPT-3 soll laut ersten Studien zirka 550 Tonnen CO2 erzeugt haben. Schon eine kurze Interaktion mit ChatGPT kann zu einem großen Ressourcenverbrauch führen. Nur zwanzig Text-Nachrichten mit dieser Art von künstlicher Intelligenz verbrauchen laut aktuellen Berechnungen einen halben Liter Wasser zur Kühlung der Server, auf denen das Modell läuft.
Das Datenmanagement und die künstliche Intelligenz verbrauchen schon lange enorme Mengen elektrischer Energie. Ein Beispiel: Schon 2017 wurden in deutschen Rechenzentren 13,2 Milliarden Kilowattstunden Strom benötigt, was dem jährlichen Stromverbrauch Berlins entspricht. Insgesamt ist der Energiebedarf deutscher Rechenzentren in den vergangenen zehn Jahren um mehr als 25 Prozent gestiegen. Der weltweite Stromverbrauch stieg im gleichen Zeitraum um 70 Prozent.