Können wir KI umweltfreundlich gestalten? Große Fragen zur Nachhaltigkeit von KI, beantwortet vom Mitbegründer von Fastly.

Content Marketing Manager

Können wir KI umweltfreundlich gestalten, oder steht das KI-Wettrennen grundsätzlich im Widerspruch zur Nachhaltigkeit? In diesem Artikel sprechen wir mit Simon Wistow, dem Mitbegründer und VP für strategische Initiativen von Fastly, um diese und andere schwierige Fragen der KI-Nachhaltigkeit anzugehen.
Wir analysieren auch die Zahlen aus unserer neuesten globalen Umfrage, The 2025 AI Energy Pulse Check, die Erkenntnisse von 497 Fachleuten gesammelt hat, die KI-Infrastruktur und Nachhaltigkeit in den USA, Europa und APAC verwalten.
Die schlechte Nachricht? Wir haben noch einen langen Weg vor uns, wenn es darum geht, den Energieverbrauch von KI zu verfolgen und die Workloads zu optimieren. Glücklicherweise haben wir bereits die Werkzeuge, um KI viel nachhaltiger zu gestalten; wir müssen sie nur anwenden.
Frage 1: Ist generative KI wirklich so schlecht für die Umwelt?
Online gibt es eine hitzige Debatte über die Nachhaltigkeit von KI, wobei einige Tech-Influencer behaupten, dass KI nicht so umweltschädlich ist, wie andere es darstellen. Simon sagt, dass die Extreme der Debatte nicht hilfreich sind.
"„Einige Leute haben die Vorstellung, dass KI die Zukunft ist, egal was es kostet... Andere halten es für eine Katastrophe.“ Die Wahrheit liegt irgendwo dazwischen.
Um das KI-Energieproblem anzugehen, müssen wir zugeben, dass es tatsächlich eine reale Umweltbelastung darstellt. Gen AI ist nicht einfach nur eine magische Wolke, die Poesie und Code ausgibt. Wie Simon es ausdrückt, sind es Millionen von GPUs, die Vektoren verarbeiten und erheblich Strom verbrauchen, und die meisten Menschen wissen nicht einmal, wie viel.
Er übertreibt nicht. Unsere Daten zum AI Energy Pulse Check 2025 zeigen, dass Unternehmen ihren KI-Energieverbrauch nicht vollständig nachverfolgen. Tatsächlich tracken weniger als 10 % der Unternehmen mehr als 75 % ihres KI-Energie-Usage. Der Mangel an Nachverfolgung ist ein Problem, insbesondere da die Skalierung des KI-Einsatzes immer weiter zunimmt. Selbst kleine KI-Queries sind unglaublich energieintensiv. Wie Simon sagt: „Eine der Zahlen, die in den Raum gestellt werden, besagt, dass eine Query bei einem großen Sprachmodell etwa zehnmal mehr Energie benötigt als eine Query bei Google.“ "Und Google leistet pro Query eine enorme Menge Arbeit.“
Glücklicherweise gibt es Werkzeuge, die KI-Queries nachhaltiger gestalten können. Eines dieser Tools ist Fastly’s AI Accelerator, das das Caching von AI-Abfragen ermöglicht.
"Da wir immer ausgefeilter geworden sind, erkennen immer mehr Menschen, dass es Dinge gibt, die man tun kann." "Sie können intelligenter arbeiten, nicht härter.“ Simon sagt.
Frage 2: Wie kann die KI-Industrie Innovation mit Nachhaltigkeit in Einklang bringen?
Innovation und Nachhaltigkeit schließen sich nicht gegenseitig aus, aber sie erfordern ein Umdenken, sagt Simon.
„Ich denke, dass wir Innovation und Nachhaltigkeit in Einklang bringen können, indem wir wirklich darüber nachdenken, wie wir Dinge tun, und uns wirklich Gedanken über die Dinge machen“, sagt er „Das Training von Modellen erfordert viel Energie, wenn es sich um diese Megamodelle handelt, aber vielleicht braucht nicht alles ein Megamodell wie die riesigen, die im gesamten Internet trainiert werden und deren Training Hunderte Millionen Dollar kostet.“
Anstatt sich für die größten und teuersten Modelle zu entscheiden, plädiert Simon für intelligentere Technik und eine bessere Wiederverwendung.
„Wir könnten den Energieverbrauch möglicherweise ausgleichen.“ „Wir können die Modelle wiederverwenden, um auch andere Modelle zu trainieren.“
Es gibt ein enormes Potenzial in der alltäglichen Optimierung der Infrastruktur, insbesondere durch KI-Abfrage-Caching und gemeinsame Anstrengungen, sagt Simon. Über die Hälfte unserer Umfrageteilnehmer schätzt, dass 10–30 % der KI-Queries ihres Unternehmens redundant sind. Mehr als ein Viertel glaubt, dass sie den Energieverbrauch allein durch Optimierung um bis zu 50 % senken könnten.
Wenn Sie einen semantischen Cache verwenden können, sodass Sie eine Frage auch dann cachen können, wenn Sie sie ein wenig anders formulieren, dann leisten Sie keine [unnötige] Arbeit. „Und die Arbeit nicht zu erledigen, ist der beste Weg, keine Energie zu verbrennen.“
"Er fügt hinzu: „Viele Leute implementieren dieselbe Art von Caching-Strategie, die wir letztes Jahr releast haben.“ Immer mehr Menschen erkennen, dass es Dinge gibt, die Sie tun können, um KI nachhaltiger zu machen."
Obwohl das Query-Caching und die Workload-Optimierungen an Bedeutung gewinnen, sind sie noch nicht weit verbreitet. Derzeit geben nur 14,7 % der europäischen Befragten, 27,3 % in der APAC-Region und 33,5 % in den USA an, dass sie Caching, Edge- oder Workload-Optimierung ausgiebig nutzen. Die Befragten nannten die Komplexität der Verwaltung von Edge-KI als das größte Hindernis für die Implementierung von Edge-KI in verschiedenen Regionen.
Frage 3: Wie können wir KI grüner machen?
Simon sagt, dass Effizienz auf vielen Layern entwickelt werden kann, von der Modellarchitektur bis zur darunterliegenden Infrastruktur.
Wir können an der Forschung arbeiten, um große Sprachmodelle effizienter betreiben zu können. "Vielleicht basieren sie auf Ganzzahlen statt auf Gleitkommazahlen, und das wird den Energieverbrauch senken.“
Er bringt auch die Idee von gemeinsamen oder standardisierten Modellen ins Spiel, an denen sich Unternehmen oder Regierungen beteiligen könnten, damit wir nicht alle das Rad neu erfinden.
„Vielleicht können wir die Arbeit zwischen den Modellen wiederverwenden … oder ein gemeinsames Standardmodell schaffen, das von einem Konsortium aus Unternehmen, Regierungen oder wissenschaftlichen Institutionen finanziert wird.“
Frage 4: Wohin sehen Sie nachhaltige KI in den nächsten 3–5 Jahren gehen?
Simon gibt eine klare Vorhersage:
"Was ziemlich schnell passieren wird, ist, dass die Kosten für das Training von Modellen so hoch werden, dass sie einfach absurd sind. Das wird zwangsläufig dazu führen, dass die Menschen ein wenig klüger mit der Art und Weise umgehen müssen, wie sie Dinge trainieren."
Mit anderen Worten: Wirtschaftliche Kräfte werden bald eine intelligentere und schlankere Infrastruktur erfordern, auch ohne regulatorische Vorgaben.
Umfragedaten untermauern dies. Fast 45 % der weltweit Befragten geben an, dass sie energieeffiziente Modelle bevorzugen würden, wenn die Kosten der KI-Nutzung an den Energieverbrauch gekoppelt wären. Einige APAC- und US-Unternehmen beginnen ebenfalls, den Energieverbrauch in ihre Infrastruktur-Entscheidungen einzubeziehen, wenn sie zwischen Edge- und Cloud-Deployments wählen.
Lesen Sie den vollständigen Bericht „AI Energy Pulse Check 2025“, um die vollständigen Daten zu erkunden.
Haftungsausschluss zu den Umfragedaten
Die Einblicke aus der Umfrage zum 2025 AI Energy Pulse Check sollen Diskussionen anregen und nicht als endgültige Branchen-Benchmarks dienen. Obwohl die Umfrage validiert wurde und eine Reihe von Fachleuten in den USA (315), Europa (116) und APAC (66) umfasste, variieren die regionalen Stichprobengrößen erheblich. Wie bei allen selbst gemeldeten Daten können die Antworten ein gewisses Maß an Verzerrung oder Übertreibung aufweisen.