Technologische Neuigkeiten, Bewertungen und Tipps!

Meinung: Serverchips sind heute die führenden Halbleiterinnovationen

Vorausschauend: Lange Zeit fanden die meisten der größten Innovationen bei Halbleitern in Client-Geräten statt. Der Anstieg der Rechenleistung für smartphonesNach den Fortschritten bei stromsparenden CPUs und GPUs für Notebooks wurde die mobile geführte Computerwelt ermöglicht, in der wir uns jetzt befinden. In letzter Zeit gab es jedoch eine deutliche Verlagerung hin zu Chipinnovationen für Server, was sowohl auf einen wettbewerbsintensiveren Markt als auch auf eine Explosion neuer Arten von Computerarchitekturen zurückzuführen ist, die unterschiedliche Arten von Workloads beschleunigen sollen, insbesondere KI und maschinelles Lernen.

Auf der dieswöchigen Hot Chips-Konferenz wurde dieser intensive Serverfokus für die Halbleiterindustrie auf verschiedene Weise gezeigt. Vom Debüt des weltweit größten Chips – des 300-mm-KI-Beschleunigers mit 1,2 Billionen Transistoren vom Start-up Cerebras Systems – über neue Entwicklungen bei den serverbezogenen Designs von Arm's Neoverse N1 bis hin zur neuesten Iteration der IBM Power-CPU bis hin zu einer Grundsatzrede Server- und Hochleistungs-Computing-Innovation von AMD-CEO Dr. Lisa Su, es gab eine Vielzahl von Innovationen, die das Tempo des Wandels deutlich machten, das derzeit den Servermarkt beeinflusst.

Eine der größten Innovationen, die sich voraussichtlich auf den Servermarkt auswirken werden, ist die Einführung der AMD-Reihe von Server-CPUs der zweiten Generation der Epyc 7002-Serie mit dem Codenamen „Rome“ Hot Chips, AMD hob die beeindruckenden Fähigkeiten der neuen Chips hervor, darunter viele Weltrekord-Leistungszahlen sowohl auf Single- als auch auf Dual-Socket-Server-Plattformen.

Der Epyc 7002 verwendet die neue Zen 2-Mikroarchitektur des Unternehmens und ist die erste Server-CPU, die auf einer 7-nm-Prozesstechnologie basiert und die erste, die PCIe Gen 4 für die Konnektivität nutzt. Wie die neueste Ryzen-Reihe von Desktop-CPUs des Unternehmens basiert auch die neue Epyc-Serie auf einem Chiplet-Design mit bis zu 8 separaten CPU-Chips (von denen jeder bis zu 8 Kerne aufnehmen kann), die einen einzelnen E / A-Chip umgeben und miteinander verbunden sind über die Infinity Fabric-Technologie des Unternehmens. Es handelt sich um eine moderne Chipstruktur mit einer Gesamtarchitektur, von der erwartet wird, dass sie in Zukunft zum Standard wird, da die meisten Unternehmen von großen monolithischen Konstruktionen zu Kombinationen kleinerer Chips übergehen, die auf mehreren Knoten unterschiedlicher Prozessgröße aufgebaut sind, die zu einem SoC (System auf a) zusammengefasst sind Chip).

Insbesondere die Umstellung auf ein 7-nm-Herstellungsverfahren für die neue Epyc-Linie wird als wesentlicher Vorteil für AMD angesehen, da das Unternehmen damit die doppelte Dichte, die 1,25-fache Frequenz bei gleicher Leistung oder ½ anbieten kann die Leistungsanforderungen auf dem gleichen Leistungsniveau wie bei den Konstruktionen der vorherigen Generation. Die Befehlsleistung pro Takt steigt um 15%, da sich die Zen 2-Mikroarchitektur ändert. Das Endergebnis ist eine beeindruckende Reihe neuer CPUs, die die Cloud und viele andere Workloads auf Unternehmensebene mit der dringend benötigten Rechenleistung verbessern werden.

Ebenso wichtig ist, dass die neue Epyc-Produktlinie AMD im Servermarkt gegenüber Intel wettbewerbsfähiger macht als seit über 20 Jahren. Nach Jahrzehnten mit einem Marktanteil von mehr als 95% bei Servern ist Intel endlich einem ernsthaften Wettbewerb ausgesetzt, der wiederum zu einem sehr dynamischen Markt für Server- und Hochleistungs-Computing geführt hat, von dem alle Unternehmen und Benutzer profitieren werden Typen. Es ist ein klassisches Beispiel für die Vorteile eines wettbewerbsintensiven Marktes.

"Die neue Epyc-Produktlinie positioniert AMD im Servermarkt wettbewerbsfähiger als seit über 20 Jahren gegenüber Intel."

Die Aussicht auf die Bedrohung durch den Wettbewerb hat Intel auch dazu veranlasst, sein Portfolio an Computerarchitekturen um einige wichtige Funktionen zu erweitern. Insbesondere seit etwa einem Jahr spricht Intel über die Möglichkeiten der Akquisition von Nervana. Bei Hot Chips begann das Unternehmen, detaillierter über die kommende, auf der Nervana-Technologie basierende Spring Crest-Linie von AI-Beschleunigerkarten zu sprechen, darunter die NNP-T und der NNP-I. Insbesondere die Intel Nervana NNP-T-Karte (Neural Networking Processor for Training) verfügt sowohl über einen dedizierten Nervana-Chip mit 24 Tensorkernen als auch über eine skalierbare Intel Xeon-CPU und 32 GB HBM (High Bandwidth Memory). Interessanterweise wird die integrierte CPU für verschiedene Funktionen genutzt, einschließlich der Verwaltung der Kommunikation zwischen den verschiedenen Elementen auf der Karte.

Als Teil seines Entwicklungsprozesses stellte Nervana fest, dass eine Reihe der wichtigsten Herausforderungen in Trainingsmodellen für Deep Learning den extrem schnellen Zugriff auf große Mengen an Trainingsdaten erfordern. Infolgedessen konzentriert sich das Design ihres Chips gleichermaßen auf Computing (die Matrixmultiplikation und andere im AI-Training gebräuchliche Methoden), Speicher (vier Bänke mit 8 GB HBM) und Kommunikation (sowohl das Versenden von Daten über den Chip als auch vom Chip aus). Chip-übergreifende Multi-Card-Implementierungen). Auf der Softwareseite kündigte Intel zunächst die native Unterstützung für die Karten mit den KI-Frameworks TensorFlow und PaddlePaddle von Baidu an. Weitere sollen jedoch noch in diesem Jahr erfolgen.

Es wird erwartet, dass AI-Beschleuniger im Allgemeinen in den nächsten Jahren ein äußerst aktiver Entwicklungsbereich für das Halbleitergeschäft sein werden, wobei ein Großteil des frühen Fokus auf Serveranwendungen gerichtet sein wird. Bei Hot Chips beispielsweise sprachen mehrere andere Unternehmen, darunter Nvidia, Xilinx und Huawei, über ihre Arbeit im Bereich serverbasierter KI-Beschleuniger.

Da sich vieles, was sie tun, hinter den Wänden von Unternehmensrechenzentren und großen Cloud-Anbietern verbirgt, sind Fortschritte bei serverbezogenen Chips im Allgemeinen wenig bekannt und nicht gut verstanden. Die Fortschritte in diesem Bereich wirken sich jedoch in vielerlei Hinsicht auf uns alle aus, die wir nicht immer erkennen. Letztendlich wird sich die Arbeit, die viele dieser Unternehmen leisten, in den kommenden Monaten und Jahren in einer Reihe verschiedener Anwendungen in schnelleren und überzeugenderen Cloud-Computing-Erfahrungen niederschlagen.

Bob O’Donnell ist der Gründer und Chefanalyst von TECHnalysis Research, LLC, einem Technologieberatungs- und Marktforschungsunternehmen. Du kannst ihm folgen Twitter @bobodtech. Dieser Artikel wurde ursprünglich auf Tech.pinions veröffentlicht.