Technologische Neuigkeiten, Bewertungen und Tipps!

Intel enthüllt erste AI-Chips

Intel hat zwei neue CPUs für große Rechenzentren vorgestellt, die als erster Chiphersteller künstliche Intelligenz (KI) einsetzen werden.

Die beiden Chips sind die ersten Angebote des Unternehmens aus der Reihe Nervana Neural Network Processor (NPP). Einer wird zum Trainieren von KI-Systemen verwendet, während der andere für Inferenzen zuständig sein wird.

Das Nervana NNP-T mit dem Codenamen Spring Crest wird für das Training verwendet und wird mit 24 Tensor-Verarbeitungsclustern geliefert, die speziell für die Stromversorgung neuronaler Netze entwickelt wurden. Intels neues System on a Chip (SoC) bietet Anwendern alles, was sie benötigen, um ein KI-System auf dedizierter Hardware zu trainieren.

Das Nervana NNP-I mit dem Codenamen Spring Hill ist das Inferenz-SoC des Unternehmens, das seine 10-Nanometer-Prozesstechnologie zusammen mit Ice Lake-Kernen verwendet, um Benutzern bei der Bereitstellung geschulter KI-Systeme zu helfen.

AI-Workloads

Die neuen AI-fokussierten SoCs von Intel sind für AI-Workloads in Rechenzentrumsumgebungen ausgelegt, sodass Benutzer ihre Xeon-CPUs nicht mehr für AI- und maschinelle Lernaufgaben verwenden müssen. Xeon-Chips sind in der Lage, solche Workloads zu bewältigen, obwohl sie bei weitem nicht so effektiv oder effizient sind.

Das Nervana NNP-T und das NNP-I wurden entwickelt, um mit der Tensor Porcessing Unit von Google, der NVDLA-basierten Technologie von Nvidia und zu konkurrieren AmazonAWS Inferentia-Chips von.

Naveen Rao, Vice President und General Manager von Intels Artificial Intelligence Products Group, erklärte, wie die neuen Prozessoren des Unternehmens dazu beitragen werden, eine Zukunft zu ermöglichen, in der AI überall ist:

„Um einen zukünftigen Zustand der‚ KI überall 'zu erreichen, müssen wir uns mit der Menge der generierten Daten befassen und sicherstellen, dass Unternehmen in der Lage sind, ihre Daten effizient zu nutzen und dort zu verarbeiten, wo sie gesammelt werden, wenn es sinnvoll und intelligenter ist Nutzung ihrer vorgelagerten Ressourcen. Rechenzentren und die Cloud müssen Zugang zu performantem und skalierbarem Allzweck-Computing und spezieller Beschleunigung für komplexe KI-Anwendungen haben. In dieser Zukunftsvision von AI überall ist ein ganzheitlicher Ansatz erforderlich – von Hardware über Software bis hin zu Anwendungen. “

Über den Inquirer

Table of Contents