Safe Superintelligence (SSI), spółka założona niedawno przez byłego głównego naukowca OpenAI, Ilję Sutskevera, zebrała 1 miliard dolarów (ok. 8398 rupii) w gotówce, aby pomóc w opracowaniu bezpiecznych systemów sztucznej inteligencji (AI), które znacznie przewyższają możliwości człowieka, poinformowali dyrektorzy firmy w rozmowie z agencją Reuters.
SSI, które obecnie zatrudnia 10 pracowników, planuje wykorzystać fundusze na pozyskanie mocy obliczeniowej i zatrudnienie najlepszych talentów. Skupi się na stworzeniu małego, wysoce zaufanego zespołu badaczy i inżynierów, podzielonego między Palo Alto w Kalifornii i Tel Awiw w Izraelu.
Firma odmówiła podania swojej wyceny, ale źródła bliskie sprawie podały, że wyceniono ją na 5 miliardów dolarów (około 41 993 crore rupii). Finansowanie podkreśla, że niektórzy inwestorzy nadal są skłonni stawiać ogromne zakłady na wyjątkowe talenty skupione na podstawowych badaniach nad sztuczną inteligencją. Dzieje się tak pomimo ogólnego spadku zainteresowania finansowaniem takich firm, które mogą być nieopłacalne przez jakiś czas, co spowodowało, że kilku założycieli startupów opuściło swoje stanowiska dla gigantów technologicznych.
Wśród inwestorów znalazły się czołowe firmy kapitału podwyższonego ryzyka: Andreessen Horowitz, Sequoia Capital, DST Global i SV Angel. W wydarzeniu wzięła udział również spółka inwestycyjna NFDG zarządzana przez Nata Friedmana i dyrektora generalnego SSI, Daniela Grossa.
„Ważne jest dla nas, aby otaczali nas inwestorzy, którzy rozumieją, szanują i wspierają naszą misję, która polega na bezpośrednim dążeniu do bezpiecznej superinteligencji, a w szczególności na spędzeniu kilku lat na badaniach i rozwoju naszego produktu przed wprowadzeniem go na rynek” – powiedział Gross w wywiadzie.
Bezpieczeństwo sztucznej inteligencji (AI), czyli zapobieganie szkodom wyrządzanym przez sztuczną inteligencję, jest gorącym tematem w obliczu obaw, że nieuczciwa sztuczna inteligencja może działać na szkodę ludzkości, a nawet doprowadzić do wyginięcia gatunku ludzkiego.
Projekt ustawy w Kalifornii, który ma na celu nałożenie przepisów bezpieczeństwa na firmy, podzielił branżę. Sprzeciwiają się mu firmy takie jak OpenAI i Google, a popierają go Anthropic i xAI Elona Muska.
Sutskever, 37 lat, jest jednym z najbardziej wpływowych technologów w dziedzinie AI. W czerwcu założył SSI wspólnie z Grossem, który wcześniej kierował inicjatywami AI w Apple, oraz Danielem Levym, byłym badaczem OpenAI. Sutskever jest głównym naukowcem, a Levy głównym naukowcem, podczas gdy Gross odpowiada za moc obliczeniową i pozyskiwanie funduszy.
Nowa Góra
Sutskever powiedział, że jego nowe przedsięwzięcie miało sens, ponieważ „zidentyfikował górę, która trochę różni się od tego, nad czym pracowałem”.
W zeszłym roku był członkiem zarządu organizacji non-profit będącej właścicielem OpenAI, która zagłosowała za usunięciem dyrektora generalnego OpenAI, Sama Altmana, z powodu „załamania się komunikacji”.
W ciągu kilku dni zmienił decyzję i dołączył do niemal wszystkich pracowników OpenAI, którzy podpisali list, w którym domagali się powrotu Altmana i rezygnacji zarządu. Jednak obrót wydarzeń zmniejszył jego rolę w OpenAI. Został usunięty z zarządu i opuścił firmę w maju.
Po odejściu Sutskevera firma rozwiązała jego zespół „Superalignment”, który pracował nad tym, aby sztuczna inteligencja pozostawała zgodna z ludzkimi wartościami, aby przygotować się na dzień, w którym sztuczna inteligencja przewyższy ludzką inteligencję.
W przeciwieństwie do nietypowej struktury korporacyjnej OpenAI, wprowadzonej ze względów bezpieczeństwa sztucznej inteligencji, ale która umożliwiła odsunięcie Altmana od władzy, SSI ma standardową strukturę nastawioną na zysk.
SSI obecnie koncentruje się przede wszystkim na zatrudnianiu osób, które będą pasować do kultury firmy.
Gross powiedział, że poświęcają godziny na sprawdzanie, czy kandydaci mają „dobry charakter” i szukają osób o niezwykłych umiejętnościach, a nie kładą zbyt dużego nacisku na kwalifikacje i doświadczenie w danej dziedzinie.
„Jedną z rzeczy, która nas ekscytuje, jest to, gdy znajdujemy ludzi, których interesuje praca, a nie sama scena, ani szum medialny” – dodał.
SSI twierdzi, że planuje współpracę z dostawcami usług w chmurze i firmami chipowymi w celu sfinansowania swoich potrzeb w zakresie mocy obliczeniowej, ale nie zdecydował jeszcze, z którymi firmami będzie współpracować. Startupy AI często współpracują z firmami takimi jak Microsoft i Nvidia, aby zaspokoić swoje potrzeby infrastrukturalne.
Sutskever był wczesnym zwolennikiem skalowania, hipotezy, że modele AI poprawią wydajność przy dużej mocy obliczeniowej. Pomysł i jego realizacja zapoczątkowały falę inwestycji w AI w układy scalone, centra danych i energię, kładąc podwaliny pod generatywne postępy AI, takie jak ChatGPT.
Sutskever powiedział, że podejdzie do kwestii skalowania inaczej niż jego poprzedni pracodawca, nie podał jednak szczegółów.
„Wszyscy po prostu mówią o hipotezie skalowania. Wszyscy zaniedbują pytanie, co skalujemy?” – powiedział.
„Niektórzy ludzie mogą pracować naprawdę długie godziny i po prostu szybciej pójdą tą samą drogą. To nie jest nasz styl. Ale jeśli robisz coś innego, wtedy staje się możliwe, że zrobisz coś wyjątkowego”.
© Thomson Reuters 2024
(Ta historia nie była edytowana przez zespół NDTV i została wygenerowana automatycznie na podstawie kanału informacyjnego.)