Obejrzyj film dotyczący nowej inteligencji wizualnej iPhone’a 16 w akcji

Zobacz nową inteligencję wizualną iPhone’a 16 w akcji

Przycisk sterowania aparatem w Twoim iPhonie 16 stanie się wkrótce znacznie bardziej przydatny. Bawiłem się wczesną wersją nowej funkcji Visual Intelligence firmy Apple i oto, jak to jest z niej korzystać. Apple wprowadza nową funkcję o nazwie Visual Intelligence dla iPhone’a 16, która pozwala używać aparatu do poznawania otaczającego Cię świata. Jest częścią deweloperskiej wersji beta systemu I OS 18.2, która pojawiła się pod koniec października. Należy pamiętać, że jest to tylko wersja beta, co oznacza, że ​​jest to naprawdę wczesna wersja przeznaczona dla programistów, a nie zwykłych konsumentów. Ale nawet na tym wczesnym etapie zaczynam rozumieć, do czego służy to narzędzie i do czego może być przydatne. To trochę jak posiadanie dedykowanego przycisku AI na iPhonie. Ponieważ wymaga przycisku sterowania aparatem, do korzystania z niego potrzebny będzie model iPhone’a 16 lub 16 pro, zanim zaczniemy go testować. Oto krótki przegląd tego, jak to działa. Po prostu przytrzymaj przycisk sterowania kamerą, aby uruchomić interfejs inteligencji wizualnej, dotknij przycisku migawki, aby zrobić zdjęcie, a następnie dotknij ikony wyglądającej jak dymek, aby wysłać ją do czatu GP T lub ikony za pomocą szkła powiększającego, aby rozpocząć wyszukiwanie w Google podobnych obrazów. Ale Twój iPhone automatycznie rozpoznaje także witryny sklepowe, restauracje i otoczenie, dzięki czemu może wyświetlić zdjęcia godzin serwowania posiłków i inne informacje. Pomyślałem, że najlepszym sposobem na wypróbowanie inteligencji wizualnej będzie zabranie jej gdzieś. Nigdy wcześniej nie byłam w centrum handlowym City Point w centrum Brooklynu. Chodźmy to sprawdzić. Bawiłem się więc inteligencją wizualną, która znowu jest w fazie beta i stanowi część wersji beta dla deweloperów I OS 18.2, ponieważ jest to wczesna wersja, więc niektóre funkcje jeszcze nie działają. Trudno mi mieć naprawdę mocne wrażenie, jak to będzie działać, gdy w końcu dotrze to do konsumentów. Ale po czasie, który z nim spędziłem, i po tym, jak jego części zadziałały, naprawdę czuję, że jest to szybszy sposób na uzyskanie dostępu do czatu GP T. Na przykład, kiedy włóczyłem się po sklepie z anime po drugiej stronie ulicy, okazało się, że Naprawdę szybko i łatwo było po prostu skierować aparat na postać, a następnie zapytać Chat G BT o serial, postać lub mangę, z której pochodzi ta postać. Uważam więc, że jest to szybszy sposób na dostęp do informacji i znajdowanie rzeczy bez konieczności otwierania telefonu, otwierania czatu, G BT lub Google i wyszukiwania. To samo dotyczy wyszukiwania obrazów w Google. Udało mi się skierować aparat na postać i, hm, przedmiot w sklepie, a także znaleźć inne linki w serwisie eBay i innych źródłach, na wypadek gdybym chciał kupić go gdzie indziej lub gdybym po prostu chciał dowiedzieć się więcej na ten temat postaci i znajdź linki do stron internetowych na jej temat. Uważam więc, że jest to szybszy sposób uzyskania dostępu do niektórych z tych narzędzi. Czy różni się to radykalnie od tego, co możesz już zrobić na swoim telefonie? Nie, przynajmniej jeszcze nie, ale jest to przydatny mały skrót. Ogólnie rzecz biorąc, uważam, że inteligencja wizualna jest bardzo obiecująca. Jasne jest, że jest to wersja beta i że nie jest ona jeszcze przeznaczona dla ogółu konsumentów. Ale naprawdę podobała mi się wygoda, jaką daje możliwość skierowania iPhone’a na coś i wydobycia z tego większej ilości informacji. I chociaż ten rodzaj obiektywu przypomina trochę obiektyw Google, prawie nie da się o tym rozmawiać bez porównania z obiektywem Google. W pewnym sensie nie wydaje się to czymś zupełnie nowym, ale fakt, że Apple włącza to bezpośrednio do systemu operacyjnego i umieszcza przycisk na tym urządzeniu, głównie po to, aby korzystać ze sztucznej inteligencji i myśleć o wyszukiwaniu rzeczy w otaczającym Cię świecie w inny sposób. Uważam, że jest to bardzo wymowne i sprawia, że ​​jestem bardzo ciekawy przyszłości i tego, dokąd potoczą się sprawy. Będziemy więc nadal testować Visual Intelligence i wiele innych funkcji Apple Intelligence w miarę pojawiania się nowych aktualizacji oprogramowania. Więcej szczegółów znajdziesz w mojej pełnej historii na CNET. Dziękuję za obejrzenie i do zobaczenia następnym razem.

Zrodlo