Meta podobno współpracuje z firmą Arm, aby zapewnić zaawansowane możliwości sztucznej inteligencji w smartfonach

W środę odbyła się konferencja deweloperska firmy Meta Connect 2024. Podczas wydarzenia gigant mediów społecznościowych zaprezentował kilka nowych funkcji sztucznej inteligencji (AI) i urządzeń do noszenia. Oprócz tego Meta podobno ogłosiła także współpracę z gigantem technologicznym Arm w zakresie tworzenia specjalnych modeli małych języków (SLM). Mówi się, że te modele AI mają służyć do zasilania smartfonów i innych urządzeń oraz wprowadzać nowsze sposoby korzystania z tych urządzeń. Ideą tego rozwiązania jest zapewnienie opcji przetwarzania na urządzeniu i na krawędzi, aby zapewnić szybkie wnioskowanie AI.

Według CNET raportMeta i Arm planują zbudować modele AI, które będą mogły wykonywać bardziej zaawansowane zadania na urządzeniach. Na przykład sztuczna inteligencja może działać jako wirtualny asystent urządzenia i może wykonywać połączenia lub kliknąć zdjęcie. Nie jest to zbyt naciągane, ponieważ obecnie narzędzia AI mogą już wykonywać mnóstwo zadań, takich jak edycja obrazów i tworzenie e-maili.

Jednak główna różnica polega na tym, że użytkownicy muszą wejść w interakcję z interfejsem lub wpisać określone polecenia, aby sztuczna inteligencja wykonała te zadania. Podczas wydarzenia Meta duet podobno podkreślił, że chce się z tym uporać i sprawić, by modele AI były bardziej intuicyjne i responsywne.

Jednym ze sposobów osiągnięcia tego byłoby umieszczenie modeli sztucznej inteligencji na urządzeniu lub umieszczenie serwerów bardzo blisko urządzeń. To drugie rozwiązanie, zwane także przetwarzaniem brzegowym, jest wykorzystywane przez instytucje badawcze i duże przedsiębiorstwa. Ragavan Srinivasan, wiceprezes ds. zarządzania produktami w zakresie generatywnej sztucznej inteligencji w Meta powiedział w publikacji, że opracowanie nowych modeli sztucznej inteligencji to dobry sposób na wykorzystanie tej szansy.

W tym celu modele AI będą musiały być mniejsze. Chociaż Meta opracowała duże modele językowe (LLM) o wielkości sięgającej 90 miliardów parametrów, nie nadają się one do mniejszych urządzeń lub szybszego przetwarzania. Uważa się, że modele Llama 3.2 1B i 3B idealnie się do tego nadają.

Inną kwestią jest jednak to, że modele sztucznej inteligencji będą musiały być również wyposażone w nowsze możliwości wykraczające poza proste generowanie tekstu i wizję komputerową. I tu wkracza Arm. Jak wynika z raportu, Meta ściśle współpracuje z gigantem technologicznym nad opracowaniem modeli sztucznej inteligencji zoptymalizowanych pod kątem procesora, które można dostosować do przepływów pracy na urządzeniach takich jak smartfony, tablety, a nawet laptopy. Obecnie nie podano żadnych innych szczegółów na temat SLM.

Zrodlo