OpenAI buduje pierwszy chip wspólnie z Broadcom i TSMC, ograniczając ambicje Foundry

Według źródeł Reuters, OpenAI współpracuje z Broadcom i TSMC nad stworzeniem pierwszego własnego chipa przeznaczonego do obsługi systemów sztucznej inteligencji, dodając jednocześnie chipy AMD do chipów Nvidia, aby sprostać rosnącym wymaganiom w zakresie infrastruktury.

OpenAI, szybko rozwijająca się firma stojąca za ChatGPT, zbadała szereg opcji dywersyfikacji dostaw chipów i obniżenia kosztów. OpenAI rozważało zbudowanie wszystkiego we własnym zakresie i zebranie kapitału na kosztowny plan budowy sieci fabryk zwanych „odlewniami” do produkcji chipów.

Firma na razie porzuciła ambitne plany dotyczące odlewni ze względu na koszty i czas potrzebny na budowę sieci i zamiast tego planuje skoncentrować się na wewnętrznych wysiłkach w zakresie projektowania chipów, według źródeł, które prosiły o anonimowość, ponieważ nie były upoważnione do omawiania prywatnych rozmów. sprawy.

Strategia firmy, opisana tutaj po raz pierwszy szczegółowo, podkreśla, w jaki sposób startup z Doliny Krzemowej wykorzystuje partnerstwa branżowe oraz połączenie wewnętrznych i zewnętrznych podejść w celu zabezpieczenia dostaw chipów i zarządzania kosztami, podobnie jak więksi rywale Amazon, Meta, Google i Microsoft. Jako jeden z największych nabywców chipów, decyzja OpenAI o zaopatrywaniu się w produkty od różnorodnych producentów chipów przy opracowywaniu spersonalizowanych chipów może mieć szersze implikacje dla sektora technologicznego.

Po tym raporcie akcje Broadcom podskoczyły, kończąc wtorkowy notowania ponad 4,5 procent. Akcje AMD również kontynuowały wzrosty z porannej sesji, kończąc dzień wzrostem o 3,7 proc.

OpenAI, AMD i TSMC odmówiły komentarza. Broadcom nie odpowiedział natychmiast na prośbę o komentarz.

OpenAI, które pomogło w komercjalizacji generatywnej sztucznej inteligencji generującej odpowiedzi na zapytania podobne do ludzkich, do szkolenia i obsługi swoich systemów wykorzystuje znaczną moc obliczeniową. Jako jeden z największych nabywców procesorów graficznych (GPU) firmy Nvidia, OpenAI wykorzystuje chipy AI zarówno do uczenia modeli, w których sztuczna inteligencja uczy się na podstawie danych, jak i do wnioskowania, wykorzystując sztuczną inteligencję do przewidywania lub podejmowania decyzji na podstawie nowych informacji.

Reuters informował wcześniej o przedsięwzięciach OpenAI w zakresie projektowania chipów. „The Information” donosił o rozmowach z Broadcomem i innymi firmami.

Według źródeł OpenAI od miesięcy współpracuje z firmą Broadcom nad stworzeniem pierwszego chipa AI skupiającego się na wnioskowaniu. Zapotrzebowanie na chipy szkoleniowe jest obecnie większe, ale analitycy przewidują, że zapotrzebowanie na chipy wnioskowujące może je przewyższyć w miarę wdrażania większej liczby aplikacji AI.

Broadcom pomaga firmom, w tym jednostce Alphabet Google, w dopracowywaniu projektów chipów do celów produkcyjnych, a także dostarcza części projektu, które pomagają szybko przenosić informacje do i z chipów. Jest to ważne w systemach sztucznej inteligencji, w których dziesiątki tysięcy chipów są ze sobą połączone w celu pracy w tandemie.

OpenAI wciąż ustala, czy opracować lub nabyć inne elementy do swojego projektu chipa, i może zaangażować dodatkowych partnerów, podają dwa źródła.

Firma utworzyła zespół ds. chipów składający się z około 20 osób, na którego czele stoją czołowi inżynierowie, którzy wcześniej budowali jednostki przetwarzające Tensor (TPU) w Google, w tym Thomas Norrie i Richard Ho.

Źródła podają, że za pośrednictwem Broadcom OpenAI zabezpieczyła moce produkcyjne firmie Taiwan Semiconductor Manufacturing Company, aby w 2026 r. wyprodukować swój pierwszy specjalnie zaprojektowany chip. Twierdzą, że harmonogram może ulec zmianie.

Obecnie procesory graficzne Nvidii posiadają ponad 80% udziału w rynku. Jednak niedobory i rosnące koszty skłoniły głównych klientów, takich jak Microsoft, Meta, a obecnie OpenAI, do poszukiwania wewnętrznych lub zewnętrznych alternatyw.

Planowane wykorzystanie przez OpenAI chipów AMD za pośrednictwem Microsoft Azure, o czym po raz pierwszy poinformowano tutaj, pokazuje, jak nowe chipy MI300X AMD próbują zdobyć kawałek rynku zdominowanego przez Nvidię. AMD prognozuje, że sprzedaż chipów AI w 2024 roku wyniesie 4,5 miliarda dolarów, po wprowadzeniu chipa na rynek w czwartym kwartale 2023 roku.

Szkolenie modeli AI i usługi operacyjne, takie jak ChatGPT, są drogie. Według źródeł OpenAI prognozuje w tym roku stratę w wysokości 5 miliardów dolarów przy przychodach na poziomie 3,7 miliarda dolarów. Koszty obliczeniowe, czyli wydatki na sprzęt, energię elektryczną i usługi w chmurze potrzebne do przetwarzania dużych zbiorów danych i opracowywania modeli, to największy wydatek firmy, skłaniający do wysiłków mających na celu optymalizację wykorzystania i dywersyfikację dostawców.

OpenAI ostrożnie podchodzi do pozyskiwania talentów od Nvidii, ponieważ chce utrzymać dobre relacje z producentem chipów, z którym nadal współpracuje, szczególnie w zakresie dostępu do nowej generacji chipów Blackwell, dodały źródła.

Nvidia odmówiła komentarza.

© Thomson Reuters 2024

Zrodlo