Microsoft erwägt, „Three Mile Island“ wieder ans Netz zu bringen. Diese Nachricht ließ doppelt aufhorchen. Das stillgelegte US-Atomkraftwerk ist für seinen Beinahe-Super-GAU von 1979 bekannt. Das Vorhaben zeigt, welche Wege der Konzern bereit ist zu gehen, um den enormen Energiebedarf seiner Anwendungen zu decken. Das betrifft nicht nur Microsoft. Weltweit treiben KI-Anwendungen den Strombedarf von Rechenzentren in die Höhe. Die Energiemengen, die etwa das Training von GPT-4 verbraucht, würden eine Kleinstadt versorgen. Das Mooresche Gesetz, das besagt, dass sich die Anzahl der Transistoren auf integrierten Schaltkreisen etwa alle zwei Jahre verdoppelt, was zu einer Steigerung der Rechenleistung führt, schwächt sich zwar ab, doch künftige CPUs und GPUs werden weiterhin leistungsstärker. Ihre immer dichtere Chiparchitektur ist Teil des Energieproblems. Weil Prozessor und Speicher getrennt voneinander liegen, sind Daten ständig in Bewegung.
Gerade die Kerndisziplinen von KI – Mustererkennung, Analyse und Schlussfolgerung – erfordern einen enormen Datentransfer. Dieses Hin und Her geht zulasten der Latenz und kostet viel Energie. Um diesen klassischen Engpass aufzulösen, setzen aktuelle Forschungsansätze in der Mikroelektronik auf „In-Memory Computing“. Die Idee: Rechenoperationen laufen in direkter Nähe zum Speicher. Die Blockbildung von Storage und Prozessoreinheiten wird aufgelöst, der energieintensive Datenverkehr minimiert. Wie Informationsverarbeitung im Energiesparmodus gelingt, macht uns die Natur vor. Unser Gehirn kommt mit einer Leistung von rund 20 Watt aus. Manche Glühlampe verbraucht mehr. Inspiriert vom menschlichen Denkapparat entwickeln Wissenschaftler Hardware-Strukturen, die an biologische Neuronen angelehnt sind. Ziel des neuromorphen Computings ist eine KI-Infrastruktur, die energieeffizient, schnell und autonom genug ist, um die Intelligenz an die Edge, sprich: so nah wie möglich an die Datenquelle bzw. in die Endgeräte, zu verlagern. Vom niedrigen Energieverbrauch könnten batteriebetriebene Sensoren oder Wearables profitieren. Statt den Akku in Stunden oder Tagen zu leeren, könnten Edge-AI-Anwendungen je nach Betriebsart monate- oder jahrelang laufen. Da der Umweg über die Cloud entfiele, blieben die Daten lokal. Die Latenz würde verringert, die Robustheit gestärkt. Selbst ohne Netz bliebe das System handlungsfähig.