KI macht die Energiezukunft nachhaltig, aber ihr Energiehunger ist enorm

Künstliche Intelligenz kann die Nachhaltigkeit steigern, aber nachhaltig ist sie nicht.

Ob Künstliche Intelligenz (KI) gut oder schlecht ist, hängt nicht nur davon ab, mit welchem Mehrwert sie eingesetzt werden kann. Sie hat auch Folgen für die Umwelt. Gerade im Energiesektor sind die Erwartungen an KI-Anwendungen hoch. In den letzten Jahren haben sich die Energie- und Strommärkte zunehmend auf künstliche Intelligenz als Werkzeug konzentriert. KI hat die Fähigkeit, eine Reihe von energiebezogenen Prozessen zu automatisieren und zu optimieren, was zu effizienteren und kostengünstigeren Prozessen, einem besseren Energiemanagement und geringeren negativen Auswirkungen auf die Umwelt führt.

KI gilt als ein Schlüsselelement, um eine nachhaltige, umweltfreundliche und effiziente Energiezukunft zu erreichen. Dabei darf man nicht vergessen, dass sich die Anwendungsfelder über alle Branchen erstrecken. KI ist zu einer General-Purpose-Technologie geworden.

Bei den Gefahren denken wir an Arbeitsplatzverluste oder Datenschutz und weniger an den ökologischen Fußabdruck. KI ist nicht nachhaltig, sie hilft aber vielfach dabei Nachhaltigkeitsziele schneller zu erreichen. Das zeigen Use-Cases aus dem Energiebereich.

Use-Cases aus dem Energiebereich

Diese sind nur einige Beispiele. In den kommenden Jahren wird erwartet, dass Anwendungsfälle in der gesamten Energiewirtschaft stark zunehmen. Unternehmen entwickeln ihre eigenen GPT-Modelle, wie etwa E.ON GTP, eine generative künstliche Intelligenz, die für den Konzern entwickelt wurde. Sie unterstützt bei Recherche, Textverarbeitung und fungiert als virtueller Sparringspartner für energiewirtschaftliche Fragestellungen der Mitarbeiterinnen und Mitarbeiter.

Seit fast zwei Jahren gibt es den beliebten Chatbot ChatGPT. Nach nur zwei Monaten hatte ChatGPT rund 100 Millionen Nutzerinnen und Nutzer. Es gibt immer mehr Tools in allen Varianten. Um KI-Tools zu trainieren, müssen sie mit großen Datenmengen gefüttert werden. Dieser Prozess ist sehr energieintensiv. Jede Anfrage bei ChatGPT und Co. kostet zwischen drei und neun Wh Strom. Allein ChatGPT hat mehr als 195 Millionen Anfragen pro Tag. Google verarbeitet täglich neun Milliarden Suchanfragen. Eine aktuelle Studie der VU Amsterdam School of Business and Economics rechnet vor, dass 2027 KI so viel Strom verbrauchen könnte wie Irland. Hinzu kommt, dass auch der Wasserbedarf zum Kühlen der Rechenzentren hoch ist.

KI verbraucht für den Lernprozess so viel Energie und gleichzeitig werden die Modelle immer größer, um eine höhere Genauigkeit zu erreichen. Während Unternehmen weltweit daran arbeiten, die Effizienz von KI-Software zu verbessern, steigt die Nachfrage nach diesen Tools unaufhörlich. Forscher sprechen von einem Jevons-Paradoxon, das bedeutet, dass eine Effizienzsteigerung bei der Nutzung einer Ressource dazu führen kann, dass der Gesamtverbrauch dieser Ressource steigt, anstatt zu sinken. Dies widerspricht der intuitiven Annahme, dass eine höhere Effizienz automatisch zu einem geringeren Ressourcenverbrauch führt.

Wir brauchen Rechenzentren, die zu 100 Prozent mit erneuerbaren Energien betrieben werden und in denen die Abwärme der Server sinnvoll genutzt wird. Alles hängt mit allem zusammen. KI-Modelle müssen Verantwortung übernehmen und mit gutem Beispiel vorangehen, indem sie ihren eigenen Energie- und Wasser-Fußabdruck thematisieren.

Doris Höflich, Market Intelligence Senior Expert

Quellen: