Laut einer Studie hat diese neue Technik das Potenzial, den Energieverbrauch um bis zu 95 % zu senken. Der Algorithmus, bekannt als "Linear-Complexity Multiplication" (L-Mul), basiert auf Ganzzahladdition, die weit weniger Energie benötigt als die normalerweise in KI-Aufgaben verwendete Gleitkomma-Multiplikation, wie TechSpot berichtet.
Derzeit sind Gleitkommazahlen in KI-Berechnungen unerlässlich, um extrem große oder kleine Werte zu verarbeiten und eine binärähnliche Präzision zu bieten, die genaue komplexe Berechnungen ermöglicht. Diese Präzision hat jedoch einen hohen Energiepreis, was Bedenken aufwirft, da einige KI-Modelle enorme Mengen an Strom benötigen. Zum Beispiel verbraucht der Betrieb von ChatGPT genug Strom, um täglich 18.000 US-Haushalte zu versorgen, was 564 MWh pro Tag entspricht. Analysten des Cambridge Centre for Alternative Finance prognostizieren, dass die KI-Branche bis 2027 zwischen 85 und 134 TWh jährlich verbrauchen könnte.
Der L-Mul-Algorithmus geht dieses Problem an, indem er komplexe Gleitkommaoperationen durch einfachere Ganzzahladditionen ersetzt. Bei Tests behielten KI-Modelle ihre Genauigkeit bei, wobei Tensoroperationen den Energieverbrauch um 95 % und Skalaroperationen um 80 % reduzierten.
L-Mul reduziert nicht nur den Energieverbrauch, sondern verbessert auch die Leistung. Es übertrifft die aktuellen 8-Bit-Berechnungsstandards und bietet höhere Präzision mit weniger Bit-Operationen. Bei verschiedenen KI-Aufgaben wie der Verarbeitung natürlicher Sprache und der Computer Vision betrug der Leistungsabfall nur 0,07 %, ein vernachlässigbarer Kompromiss angesichts der enormen Energieeinsparungen.
Transformer-basierte Modelle wie GPT profitieren am meisten von L-Mul, da der Algorithmus leicht in diese Systeme integriert werden kann. Tests an beliebten KI-Modellen wie Llama und Mistral zeigten sogar eine verbesserte Genauigkeit bei einigen Aufgaben.
Der Nachteil ist jedoch, dass L-Mul spezielle Hardware erfordert und aktuelle KI-Beschleuniger noch nicht für diese Methode optimiert sind. Die gute Nachricht ist, dass bereits Anstrengungen unternommen werden, um solche Hardware und APIs zu entwickeln.
Ein mögliches Hindernis könnte der Widerstand großer Chip-Hersteller wie Nvidia sein, was die Einführung dieser neuen Technologie verlangsamen könnte. Als führender Hersteller von KI-Hardware könnte Nvidia zögern, seine dominierende Position zugunsten energieeffizienterer Lösungen aufzugeben.