Google dodaje dwa nowe modele sztucznej inteligencji do swojej rodziny LLM Gemma – dlaczego to ma znaczenie

W lutym Google przejął Gemmę, rodzinę lekkich modeli wielkojęzykowych (LLM) dla programistów open source. Został opracowany przez badaczy Google DeepMind, aby pomóc programistom i badaczom w odpowiedzialnym budowaniu sztucznej inteligencji. Ogłoszono teraz dwa nowe dodatki do Gemma, CodeGemma i RecurrentGemma. Dzięki temu posunięciu Google DeepMind chce dotrzymać kroku wyścigowi sztucznej inteligencji (AI), stawiając czoła konkurencji ze strony OpenAI i Microsoft.

Przeczytaj także: Katastrofa obrazu Google Gemini AI – co naprawdę stało się z generatorem obrazu?

Chociaż firma znalazła się w trudnej sytuacji w związku z niektórymi możliwościami swojego najpopularniejszego modelu sztucznej inteligencji, Gemini AI, wydaje się, że kontrowersje nie spowolniły badaczy. Te nowe modele sztucznej inteligencji obiecują możliwości innowacji dla programistów zajmujących się uczeniem maszynowym (ML). Dowiedz się wszystkiego o dwóch nowych modelach AI Gemma, CodeGemma i Recurrent Gemma.

Kod GoogleGemma

Pierwszym z dwóch nowych modeli sztucznej inteligencji jest CodeGemma, lekki model z możliwością kodowania i wykonywania instrukcji. Dostępny jest w trzech wariantach:

1. Wstępnie przeszkolony wariant 7B do zadań uzupełniania i generowania kodu

2. Wariant niestandardowy 7B umożliwiający wykonywanie instrukcji i czat kodowy.

3. Wstępnie przeszkolona opcja 2B do szybkiego uzupełniania kodu na lokalnych komputerach.

Google mówi CodeGemma może nie tylko generować linie i funkcje, ale może nawet tworzyć bloki kodu, niezależnie od tego, czy jest używany lokalnie na komputerach PC, czy w chmurze. Jest wielojęzyczny, co oznacza, że ​​możesz go używać jako pomocnika podczas kodowania w językach takich jak Python, JavaScript i Java. Kod wygenerowany przez CodeGemma jest reklamowany jako poprawny nie tylko składniowo, ale także semantycznie. Zapewnia to zmniejszenie liczby błędów i czasu debugowania.

Przeczytaj także: Dowiedz się wszystkiego o rodzinie Gemma – Google LLM

Ten nowy model sztucznej inteligencji jest szkolony przy użyciu 500 miliardów tokenów danych, głównie w języku angielskim, w tym kodu z publicznie dostępnych repozytoriów, matematyki i dokumentów w Internecie.

Powtarzająca się Gemma Google

Drugi model sztucznej inteligencji, zwany RecurrentGemma, ma na celu poprawę wydajności pamięci poprzez zaangażowanie rekurencyjnych sieci neuronowych i uwagi lokalnej. Jest zatem przeznaczony do eksperymentów badawczych. Chociaż zapewnia podobną wydajność wzorcową do modelu AI Gemma 2B firmy DeepMind, RecurrentGemma ma unikalną architekturę, która pozwala na dostarczanie trzech czcionek – zmniejszone zużycie pamięci, wyższą przepustowość i innowacje badawcze.

Przeczytaj także: Apple prowadzi rozmowy z Google w sprawie licencji Gemini na funkcje AI w iPhone’ach

Według Google RecurrentGemma może generować dłuższe próbki nawet na urządzeniach o ograniczonej pamięci ze względu na mniejsze wymagania dotyczące pamięci. Umożliwia także modelowi AI wnioskowanie w dużych partiach, zwiększając liczbę tokenów na sekundę. Google twierdzi również, że modele oparte na Transformerach, takie jak Gemma, mogą zwalniać w miarę wydłużania się sekwencji. Z drugiej strony RecurrentGemma utrzymuje częstotliwość próbkowania niezależnie od długości sekwencji.

Google twierdzi, że demonstruje „model beztransformatorowy, który zapewnia wysoką wydajność, co podkreśla postęp w badaniach nad głębokim uczeniem się”.

Jeszcze jedna rzecz! Jesteśmy teraz na kanałach WhatsApp! Śledź nas, aby nigdy nie przegapić żadnych aktualizacji ze świata technologii. Aby śledzić kanał HT Tech na WhatsApp, kliknij Tutaj Dołącz teraz!

Zrodlo

LEAVE A REPLY

Please enter your comment!
Please enter your name here