Liquid AI przedstawia modele generatywnego AI Liquid Foundation o mniejszym zapotrzebowaniu na pamięć

Liquid AI, start-up zajmujący się sztuczną inteligencją z siedzibą w Massachusetts, ogłosił swoje pierwsze generatywne modele sztucznej inteligencji, które nie są zbudowane w oparciu o istniejącą architekturę transformatora. Nowa architektura, nazwana Liquid Foundation Model (LFM), odchodzi od generatywnych, wstępnie wyszkolonych transformatorów (GPT), które stanowią podstawę popularnych modeli sztucznej inteligencji, takich jak seria GPT firmy OpenAI, Gemini, Copilot i nie tylko. Startup twierdzi, że nowe modele AI zostały zbudowane od podstaw i przewyższają duże modele językowe (LLM) w porównywalnym przedziale wielkości.

Nowe modele podkładów w płynie od Liquid AI

Startup został współzałożony przez naukowców z Laboratorium Informatyki i Sztucznej Inteligencji (CSAIL) Massachusetts Institute of Technology (MIT) w 2023 roku, a jego celem było zbudowanie nowszej architektury dla modeli sztucznej inteligencji, które mogą działać na podobnym poziomie lub przewyższać GPT .

Te nowe LFM są dostępny w trzech rozmiarach parametrów 1,3B, 3,1B i 40,3B. Ten ostatni jest modelem mieszanki ekspertów (MoE), co oznacza, że ​​składa się z różnych mniejszych modeli językowych i ma na celu rozwiązywanie bardziej złożonych zadań. LFM są teraz dostępne w firmowym Liquid Playground, Lambda for Chat UI i API oraz Perplexity Labs, a wkrótce zostaną dodane do Cerebras Inference. Co więcej, modele AI są optymalizowane pod kątem sprzętu Nvidia, AMD, Qualcomm, Cerebras i Apple – stwierdziła firma.

LFM różnią się także znacznie od technologii GPT. Firma podkreśliła, że ​​modele te zostały zbudowane od podstaw. Pierwsze zasady to zasadniczo podejście do rozwiązywania problemów, w ramach którego złożoną technologię rozkłada się na podstawy, a następnie na jej podstawie buduje.

Według startupu te nowe modele sztucznej inteligencji zbudowane są na tak zwanych jednostkach obliczeniowych. Mówiąc najprościej, jest to przeprojektowanie systemu tokenów i zamiast tego firma używa terminu System płynny. Zawierają one skondensowane informacje, skupiające się na maksymalizacji potencjału wiedzy i rozumowania. Startup twierdzi, że ten nowy projekt pomaga zmniejszyć koszty pamięci podczas wnioskowania i zwiększa wydajność w zakresie wideo, audio, tekstu, szeregów czasowych i sygnałów.

Firma twierdzi ponadto, że zaletą modeli AI opartych na Liquid jest to, że ich architekturę można automatycznie optymalizować dla konkretnej platformy na podstawie jej wymagań i rozmiaru pamięci podręcznej wnioskowania.

Chociaż małże produkowane przez startup są wysokie, ich wydajność i efektywność można zmierzyć dopiero wtedy, gdy programiści i przedsiębiorstwa zaczną ich używać w swoich przepływach pracy związanych z sztuczną inteligencją. Startup nie ujawnił źródła zbiorów danych ani żadnych środków bezpieczeństwa dodanych do modeli AI.

Zrodlo