Microsoft wypuszcza dwa chipy infrastruktury centrum danych w celu przyspieszenia aplikacji AI

Microsoft opracował dwa dodatkowe chipy infrastrukturalne dla swoich centrów danych, które pomogą przyspieszyć działanie sztucznej inteligencji i zwiększyć bezpieczeństwo danych, ogłosił we wtorek na konferencji Ignite.

Microsoft przeznaczył znaczne zasoby na rozwój własnego krzemu do zastosowań ogólnego przeznaczenia i sztucznej inteligencji. Podobnie jak rywale Amazon.com i Google, inżynierowie Microsoftu twierdzą, że projektowanie chipów dostosowanych do ich potrzeb zapewnia przewagę w zakresie wydajności i kosztów.

Projektowanie niestandardowych chipów może zmniejszyć zależność Microsoftu od procesorów firm Intel i Nvidia.

Dwa nowe chipy Microsoftu zaprojektowano z myślą o instalacji głęboko w infrastrukturze centrum danych firmy. Jeden chip zaprojektowano z myślą o zwiększeniu bezpieczeństwa, a drugi o przetwarzaniu danych.

Firma dąży do opracowania gamy procesorów do centrów danych, ponieważ jej celem jest „optymalizacja każdej warstwy infrastruktury” i zapewnienie, że centra danych Microsoftu gromadzą informacje z szybkością potrzebną sztucznej inteligencji, powiedziała Rani Borkar, wiceprezes ds. systemów sprzętowych Azure i firma. Infrastruktura

Od przyszłego roku inżynierowie będą instalować nowy układ zabezpieczający o nazwie Azure Integrated HSM w każdym nowym serwerze centrum danych. Celem chipa jest przechowywanie ważnych danych szyfrowania i innych danych bezpieczeństwa w module bezpieczeństwa.

Celem jednostki przetwarzania danych (DPU) jest przeniesienie wielu komponentów serwera na jeden chip, który koncentruje się na danych przechowywanych w chmurze. Firma stwierdziła, że ​​może wykonywać te specjalne zadania przy trzykrotnie większej mocy i czterokrotnie większej wydajności niż obecny sprzęt.

Microsoft ogłosił także nową wersję swojego systemu chłodzenia serwerów w centrum danych, który opiera się na cieczy w celu obniżenia temperatury pobliskich komponentów. Jednostka chłodząca może być używana do obsługi wielkoskalowych systemów AI.

Zrodlo