Amazon entwickelt jetzt einen eigenen Mikrochip für Künstliche Intelligenz (KI). Das verkündete die Cloud-Tochter Amazon Web Serviceskürzlich auf ihrer Nutzerkonferenz AWS Re:Invent in Las Vegas. Der Chip namens «Inferentia» soll ab 2019 auf den Markt kommen und ist für die Analyse grosser Datenmengen konzipiert. Er soll KI-Forschern «hohe Leistung bei niedrigen Kosten» bieten und steht Kunden über die AWS-Cloud zur Verfügung.
Damit reiht sich Amazon in eine lange Liste von Tech-Firmen ein, die selbst spezialisierte Mikrochips für Anwendungen der Künstlichen Intelligenz bauen. Darunter Google, Tesla, Facebook, Microsoft, Baidu sowie Alibaba. Laut Branchenbeobachtern ist diese Entwicklung eine regelrechte Chip-Revolution.
Der Grund: Für heutige KI-Anwendungen sind viele gleichzeitig ablaufende Rechenoperationen notwendig, für die gewöhnliche Prozessoren (CPUs) nicht ausgelegt sind. «Software mit Künstlicher Intelligenz imitiert das menschliche Gehirn,» sagt Dirk Timmermann vom Lehrstuhl für Mikroelektronik der Universität Rostock. «Menschliche neuronale Netzwerke zeichnen sich dadurch aus, dass unglaublich viele Rechenoperationen gleichzeitig ausgeführt werden. Ganz ähnlich funktioniert das auch bei künstlichen neuronalen Netzwerken. Obwohl ungefähr eine Million mal schneller als ein neuronaler Knoten im Gehirn, kann eine klassische CPU aber nur eine Rechenoperation pro Zeiteinheit ausführen, sie ist nicht für parallel ablaufende Berechnungen gemacht.»
Bei KI kommen Grafikprozessoren an ihre Grenzen
Anstatt klassischer Prozessoren werden deshalb häufig Grafikprozessoren (GPUs) für KI-Anwendungen eingesetzt. Durch ihre Architektur aus zahlreichen parallelen Prozessorkernen sind sie in der Lage, viele Rechenschritte gleichzeitig auszuführen. Daher eignen sie sich nicht nur zur Grafikberechnung sondern auch für KI-Anwendungen. So haben die führenden Grafikchip-Hersteller inzwischen auch Hardware entwickelt, die explizit für KI ausgelegt ist. Etwa die Tesla V100 von Nvidia oder die Radeon Vega Frontier Edition von AMD.
Doch auch Grafikprozessoren stossen bei KI irgendwann an ihre Grenzen. «GPUs sind eigentlich ziemlich dumm», erklärt Dirk Timmermann. «Um mehr Geschwindigkeit mit einer maximalen Paralellität an Rechenoperationen zu erreichen, fangen die grossen Techfirmen nun an, eigene Mikrochips zu entwickeln. Diese erlauben einerseits den Einsatz in Grossrechenzentren, andererseits können sie aber auch in kleineren Geräten wie Smartphones oder intelligenten Haushaltsgeräten eingesetzt werden, wo Anwendungen zur künstlichen Intelligenz immer wichtiger werden», so der Experte.
Google startete mit eigener KI-Hardware früh
Einer der ersten Softwarekonzerne, die damit begonnen haben, eigene KI-Hardware zu entwickeln, war Google. Bereits 2016 stellte das Unternehmen die erste Version seiner TensorFlow Processing Unit (TPU) vor. Hierbei handelte es sich um einen speziellen Prozessor, der etwa bei neuen Google-Suchanfragen oder der Sprachverarbeitung des Google Assistant zur Anwendung kam. Die Hardware war speziell darauf ausgerichtet, künstliche neuronale Netzwerke zu beschleunigen.
Auf der diesjährigen Entwicklerkonferenz I/O im Mai hat Google nun die dritte Generation der TPU vorgestellt. Die neuen Mikrochips erreichen eine Rechenleistung von unglaublichen 100 Petaflops. Zum Einsatz kommen sie in den Rechenzentren von Google und sind sowohl für die Beschleunigung von neuronalen Netzen als auch für deren Training mittels grosser Datenmengen nutzbar. Sie unterstützen nicht nur Anwendungen wie den Kartendienst Google Street View und den Übersetzungsdienst Google Translate im Hintergrund, sondern stehen auch Geschäftskunden über den Cloudienst von Google zur Verfügung. So können Unternehmen Künstliche Intelligenz für eigene Anwendungen entwickeln und trainieren.
Auch Tesla entwickelt einen eigenen Chip für künstliche Intelligenz
Doch nicht nur Softwarekonzerne entwickeln eigene Halbleiter, auch der E-Auto-Hersteller Tesla arbeitet an einem eigenen KI-Chip, um die Funktionen seines «Autopiloten»-Systems zu verbessern. Das erklärte Tesa-Chef Elon Musk in einem Telefonat mit Investoren im August, in dem er auch verkündetete, dass das Unternehmen seine Zusammenarbeit mit Nvidia beendet habe. Der Grafikkarten-Hersteller war bis dahin Zulieferer für die KI-Hardware gewesen, die im Bordcomputer von Tesla zum Einsatz kommt.
«Ich bin ein grosser Fan von Nvidia, sie machen tolle Sachen. Aber eine GPU zu verwenden, ist im Grunde genommen eine Emulation», erklärte Musk den Schritt. Als Emulator wird in der IT ein System bezeichnet, das ein anderes in bestimmten Teilaspekten nachbildet. «Die vergangenen zwei bis drei Jahre haben wir halb im Verborgenen am Tesla-Computer gearbeitet, aber ich glaube es ist jetzt an der Zeit, die Katze aus dem Sack zu lassen», so Musk.
2000 Frames in der Sekunde
Der eigene KI-Chip soll dem Tesla-Bordcomputer helfen, die Daten von den Kameras, dem Radar und anderen Sensoren des Fahrzeugs auszuwerten und zu verstehen. Während die Nvidia-Technologie dem Tesla-Computer laut Musk lediglich erlaubte, 200 Einzelbilder (Frames) pro Sekunde zu verarbeiten, würde der eigens entwickelte Chip 2000 Frames in der Sekunde schaffen. «Wenn man wirklich das entwickelt, was man braucht, bekommt man ein wesentlich besseres Ergebnis», so Jim Keller, Vizepräsident des Autopilotensystems von Tesla auf einer KI-Konferenz im August.
Nvidia bestreitet jedoch, dass die von Tesla entwickelte Lösung besser sei, als die eigene. «Die Vergleiche beziehen sich auf Mikrochips, die sie derzeit in ihren Autos verwenden und die zehn Jahre alt sind. Nvidias neueste Halbleiter sind mindestens zehnmal so schnell und damit gleichauf mit denen von Tesla», erklärte Danny Shapiro, Direktor der Automobilsparte bei Nvidia, dem Tech-Portal «Wired».
Intel kündigt KI-Chip für Ende 2019 an
«Die grossen Tech-Firmen entwickeln eigene KI-Chips, weil ihnen gar nichts anderes übrig beliebt», erklärt Michael Hübner vom Lehrstuhl für Technische Informatik an der Brandenburgischen Technischen Universität. «Grafikprozessoren eignen sich nur bedingt für Anwendungen der künstlichen Intelligenz und speziell für KI ausgelegte Mikrochips gibt es bislang kaum auf dem Markt. Das könnte daran liegen, dass der Bedarf noch nicht gross genug ist. Die Kosten für die Entwicklung solcher Chip-Systeme sind extrem hoch, sie rentieren sich also erst ab einer sehr hohen Stückzahl.»
«GPUs sind sehr leistungsfähig und haben sich im Bereich von KI-Anwendungen durch die hervorragende Rechenpower bewährt», sagt Torsten Klie vom Interdisziplinären Zentrum für Eingebettete Systeme der Universität Erlangen-Nürnberg. «Jedoch erkauft man sich die hohe Leistungsfähigkeit oft mit einem relativ hohen Energieverbrauch, was die Einsatzmöglichkeiten in vielen Alltagsgeräten erschwert.»
Rolf Drechsler vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) sieht noch einen weiteren Grund für die Bestrebungen der Tech-Grössen, eigene KI-Chips zu entwickeln: Wenn Sie Hardware für ganz spezielle Aufgaben im Bereich KI brauchen, wollen sie die nicht unbedingt von der Stange. Würde zum Beispiel Google zu Nvidia gehen und sagen, wir brauchen eine bestimmte zusätzliche Funktion in euren KI-Chips, dann wäre das Produkt auch für andere Unternehmen wie Amazon oder Facebook kaufbar. Google würde damit riskieren, Wissen an die Konkurrenz abzugeben. Für so etwas ist der Bereich der KI-Hardware inzwischen einfach zu wichtig geworden.»
KI-Chips bereit für den Massenmarkt
Dennoch scheint der Zeitpunkt für KI-Chips auf dem Massenmarkt nah. In den vergangenen Jahren hat Intel verschiedene Unternehmen im Bereich der künstlichen Intelligenz übernommen. 2016 etwa Nervana, ein Startup für Deep-Learning-Verfahren, sowie den KI-Chip-Spezialisten Movidius, 2017 das auf Bilderkennung und Kameratechnik spezialisierte Startup Mobileye. Den Prototypen eines KI-Chips stellte Intel vergangenes Jahr vor, den Nervana Neural Network Processor (NNP), der noch vom gleichnamigen Unternehmen entwickelt wurde.
Den ersten KI-Chip für einen breiten Markt hat Intel für Ende 2019 angekündigt, den Nervana Neural Net L-1000. Zusammen mit anderen Massnahmen sei dies, «Teil einer zusammenhängenden und klaren Strategie, die neuesten Möglichkeiten zum KI-Training in Intels Halbleiterportfolio aufzunehmen», sagte Intel-Vizepräsident Naveen Rao in einer Bekanntgabe im Mai. Ob der Halbleiterriese damit Erfolg haben wird, wird sich zeigen.
*Dieser Artikel ist unter dem Titel «Revolution bei den Tech-Giganten: Warum Amazon, Tesla und Co. plötzlich eigene Mikrochips bauen» zuerst bei «Business Insider» erschienen.