Technologische Neuigkeiten, Bewertungen und Tipps!

Cerebras Systems stellt 1,2 Billionen Transistor-Wafer-Scale-Prozessor für AI vor

Für diese Site können Affiliate-Provisionen über die Links auf dieser Seite anfallen. Nutzungsbedingungen. Cerebras Systems stellt 1,2 Billionen Transistor-Wafer-Scale-Prozessor für AI vor 1

Bildnachweis: Getty Images

Die Anzahl der modernen CPU-Transistoren ist enorm – AMD gab Anfang dieses Monats bekannt, dass eine vollständige Implementierung seiner 7-nm-Epyc-CPU „Rome“ 32 Milliarden Transistoren wiegt. Dazu sagt Cerebras Technology: „Halt mein Bier an.“ Das AI-fokussierte Unternehmen hat eine sogenannte Wafer-Scale-Engine entwickelt. Die WSE ist ein Quadrat, ungefähr acht mal neun Zoll groß und enthält ungefähr 1,2 Billionen Transistoren.

Ich bin wirklich überrascht, dass ein Unternehmen ein Wafer-Scale-Produkt so schnell auf den Markt bringt. Die Idee der Wafer-Scale-Verarbeitung hat in letzter Zeit einige Aufmerksamkeit als mögliche Lösung für Leistungsskalierungsschwierigkeiten auf sich gezogen. In der Studie, die wir zu Beginn dieses Jahres besprochen hatten, bewerteten die Forscher die Idee, eine enorme GPU auf den meisten oder allen 100-mm-Wafern zu bauen. Sie stellten fest, dass die Technik funktionsfähige Hochleistungsprozessoren hervorbringen und auch effektiv auf größere Knotengrößen skaliert werden kann. Der Cerebras WSE ist definitiv eine große Schlucht – seine Gesamtfläche ist viel größer als die hypothetischen Entwürfe, die wir zu Beginn dieses Jahres in Betracht gezogen haben. Es ist kein 300-mm-Wafer in voller Größe, aber die Oberfläche ist größer als bei einem 200-mm-Wafer.

Die größte GPU,SEEAMAZON_ET_135 Siehe Amazon ET-Handel Nur zum Vergleich, misst 815 Quadratmillimeter und packt 21,1B Transistoren. Die Cerebras WSE ist also nur eine bisschen größer, wie diese Dinge gehen. Einige Unternehmen senden Bilder ihrer Chips aus, die neben einem winzigen gemeinsamen Objekt wie einem Viertel liegen. Cerebras sandten ein Foto von ihrem Würfel neben einer Tastatur aus.

cerebras-1-100808712-large

Nicht abgebildet: PCIe x1600-Steckplatz.

Wie Sie sehen können, ist der Vergleich ziemlich gut.

Der Cerebras WSE enthält 400.000 lineare Algebra-Kerne mit geringer Dichte, 18 GB On-Die-Gesamtspeicher, eine Speicherbandbreite von 9 pb / s auf dem gesamten Chip und eine separate Fabric-Bandbreite von bis zu 100 pbit / s. Der gesamte Chip basiert auf dem 16-nm-FinFET-Prozess von TSMC. Da der Chip aus (den meisten) einzelnen Wafern besteht, hat das Unternehmen Methoden zum Umleiten fehlerhafter Kerne auf dem Chip implementiert und kann seine Arrays verbunden lassen, auch wenn sich in einem Abschnitt des Wafers fehlerhafte Kerne befinden. Das Unternehmen gibt an, redundante Kerne auf dem Chip implementiert zu haben, hat jedoch noch keine Einzelheiten besprochen. Details zum Design werden diese Woche auf der Hot Chips vorgestellt.

Die WSE – „CPU“ scheint einfach nicht ausreichend zu sein – wird mit einer massiven Kühlplatte über dem Silizium gekühlt, wobei vertikal montierte Wasserrohre für die direkte Kühlung verwendet werden. Da es kein herkömmliches Gehäuse gibt, das groß genug ist, um auf den Chip zu passen, hat Cerebras ein eigenes entwickelt. PCWorld beschreibt es als "Kombination einer Leiterplatte, des Wafers, eines kundenspezifischen Verbinders zwischen beiden und der Kühlplatte". Details zum Chip, wie die Rohleistung und der Stromverbrauch, sind noch nicht verfügbar.

Ein voll funktionsfähiger Wafer-Scale-Prozessor, der in großem Maßstab kommerzialisiert wird, wäre eine aufregende Demonstration, ob dieser technologische Ansatz für den breiteren Markt relevant ist. Wir werden zwar nie feststellen, dass Verbraucherkomponenten auf diese Weise verkauft werden, es besteht jedoch ein Interesse an der Verwendung von Wafer-Scale-Verarbeitung, um die Leistung und den Stromverbrauch in einer Reihe von Märkten zu verbessern. Wenn Verbraucher weiterhin Workloads in die Cloud verlagern, insbesondere High-Performance-Workloads wie Spiele, ist es nicht verrückt zu glauben, dass eines Tages GPU-Hersteller diese Idee nutzen und Arrays von Teilen aufbauen, die sich niemand leisten kann, um die Cloud mit Strom zu versorgen Gaming-Systeme in der Zukunft.

Jetzt lesen:

Table of Contents