Technologische Neuigkeiten, Bewertungen und Tipps!

AWS wird für seinen zukünftigen KI-Bedarf AMD-Chips verwenden

Amazons Cloud-Computing-Abteilung – Berichten zufolge erwägt AWS, für seine KI-Anforderungen den Einsatz von AMD-Chips zu ermöglichen.

Obwohl Amazon noch keine Stellungnahme abgegeben hat, hat ein AWS-Manager gegenüber Reuters erklärt, dass AMDs MI300 für ihre Anforderungen besser geeignet sein könnte. Amazon hat bereits abgelehnt, Nvidias DGX-Cloud-Plattform zu verwenden und könnte Alternativen für seine Cloud-Computing-Anforderungen in Betracht ziehen.

Vom Aufstieg der KI profitieren

Der Aufstieg generativer KI-Tools wie ChatGPT veranlasste Technologieunternehmen dazu, Chatbots ähnlicher Art zu entwickeln. Und diese Technologie erforderte spezielle Hardware, da die betreffende KI im Rahmen des Prozesses anhand großer Datensätze trainiert werden muss.

In diesem Streben, Amazon Web Services (AWS), das weltweit größte Cloud-Computing-Unternehmen, erwägt angeblich AMD-Chips für seinen zukünftigen KI-Bedarf. Obwohl sich AWS hauptsächlich mit Speicherdiensten beschäftigt, interessiert sich das Unternehmen auch für Kunden, die ihre KI-Dienste auf seinen Servern ausführen möchten.

Unternehmen mit Mini-KI-Tools, die keinen dedizierten Server einrichten können, können auf AWS zurückgreifen, das mit seinen umfangreichen Rechenzentren flexible Speicherpläne anbietet. Und die Server in diesen Zentren verfügen über Chips von Nvidia und AMD, die den Anforderungen von AWS-Kunden gerecht werden.

Obwohl Amazon noch keine offizielle Stellungnahme abgegeben hat, Ein AWS-Manager sagte gegenüber Reuters, dass das Unternehmen erwäge, für seinen zukünftigen Bedarf die neuen KI-Chips von AMD zu verwenden. Nun, diese Entscheidung war noch nicht endgültig, aber sie war wahrscheinlicher, wenn man bedenkt, dass Amazon Nvidia im Stich gelassen hat.

Obwohl Nvidia bessere KI-Chips für die Ausführung von Tools wie ChatGPT hat, Berichten zufolge hat das Unternehmen die Cloud-Anbieter gebeten, ihre DGX Cloud zu übernehmen – eine webbasierte Plattform zum Remote-Ausführen von KI-Tools auf der Hardware von Nvidia.

Obwohl Oracle dieses Angebot annahm, lehnte AWS es ab, da es seine Server immer lieber von Grund auf neu baut. Dies steht auch im Einklang mit der Aussage des AMD-CEO in einem Interview mit Reuters: Lisa Su skizzierte darin einen Ansatz, anpassbare Dienste anzubieten, um große Cloud-Computing-Kunden zu gewinnen.

Your Header Sidebar area is currently empty. Hurry up and add some widgets.