Ten poważny błąd pokazuje, dlaczego nie można ufać ChatGPT w przypadku pytań dotyczących bezpieczeństwa w domu

Nie martwię się o sztuczną inteligencję w bezpieczeństwie domu, jestem wielkim fanem tego, jak oszczędza nam ona czas i poprawia działanie, szczególnie w przypadku rozpoznawania obiektów. Nie oznacza to jednak, że powinieneś wskoczyć na ChatGPT i zacząć zadawać mu pytania dotyczące technologii domowej, prywatności lub bezpieczeństwa urządzenia.

Sztuczna inteligencja jest doskonała, jeśli chcesz, aby jeden z agentów Google poinformował Cię o dostarczeniu lub odebraniu paczki lub aby Zaufany Sąsiad ADT odblokował Twój front dla uznanego członka rodziny. Ale ty Naprawdę nie powinien prosić o porady dotyczące bezpieczeństwa, zwłaszcza w jego obecnym stanie.

Są ku temu dobre powody: nawet najlepsze modele LLM (wielkie modele językowe) wciąż halucynują informacje na podstawie zebranych wzorców. Jest to szczególny problem w świecie inteligentnych domów, gdzie specyfikacje techniczne, modele, kompatybilność, luki w zabezpieczeniach i aktualizacje zmieniają się tak często. ChatGPT łatwo jest pomylić się co do tego, co jest słuszne, aktualne, a nawet rzeczywiste – a to są kluczowe pytania przy podejmowaniu decyzji dotyczących bezpieczeństwa w domu. Przyjrzyjmy się kilku największym błędom, aby zobaczyć, co mam na myśli.

Sztuczna inteligencja czatu ma halucynacje, że Tesla szpieguje bezpieczeństwo Twojego domu

Tesla Model S i 3 na renderowanej stacji impulsowej bp

Oddział BP zajmujący się paliwami alternatywnymi rozszerza swoją obecność w zakresie ładowania pojazdów elektrycznych w USA poprzez zakup sprzętu do szybkiego ładowania Tesla DC.

BP

Od gadających lodówek po iPhone’y — nasi eksperci są tutaj, aby pomóc uczynić świat trochę mniej skomplikowanym.

Pytanie chatbota o konkretną technologię bezpieczeństwa jest zawsze ryzykowną sprawą i nic nie ilustruje tego tak dobrze tę popularną historię na Reddicie o sztucznej inteligencji na czacie, która poinformowała użytkownika, że ​​Tesla może uzyskać dostęp do jego „domowych systemów bezpieczeństwa”. To nieprawda – to prawdopodobnie halucynacja oparta na usłudze HomeLink Tesli, która umożliwia otwieranie kompatybilnych bram garażowych. Usługi takie jak Google Gemini również cierpią na halucynacje, przez które trudno zaufać szczegółom.

Chociaż sztuczna inteligencja może pisać wszystko, od esejów po e-maile phishingowe (nie rób tego), nadal otrzymuje błędne informacje, co może prowadzić do nieuzasadnionych obaw dotyczących prywatności. Co ciekawe, kiedy zapytałem ChatGPT, z czym Tesla może się połączyć i monitorować, nie popełniłem tego samego błędu, ale tak zrobił pomiń funkcje takie jak HomeLink, więc nadal nie uzyskasz pełnego obrazu. A to dopiero początek.

Od gadających lodówek po iPhone’y — nasi eksperci są tutaj, aby pomóc uczynić świat trochę mniej skomplikowanym.

Chatboty nie mogą odpowiadać na pytania dotyczące bieżących zagrożeń lub katastrof w domu

Odpowiedź od ChatGPT na temat lokalizacji huraganu. Odpowiedź od ChatGPT na temat lokalizacji huraganu.

Konwersacyjna sztuczna inteligencja nie dostarczy Ci ważnych szczegółów na temat pojawiających się katastrof.

Tyler Lacoma/CzatGPT

ChatGPT i inne firmy LLM również mają trudności z przyswajaniem informacji w czasie rzeczywistym i wykorzystywaniem ich do udzielania porad. Jest to szczególnie widoczne podczas klęsk żywiołowych, takich jak pożary, powodzie czy huragany. Gdy w tym miesiącu huragan Milton nadchodził, zapytałem ChatGPT, czy mój dom jest w niebezpieczeństwie i gdzie Milton uderzy. Chociaż chatbot na szczęście uniknął błędnych odpowiedzi, nie był w stanie udzielić mi żadnej rady poza zasięgnięciem informacji o lokalnych kanałach pogodowych i służbach ratunkowych.

Nie trać na to czasu, gdy Twój dom może mieć kłopoty. Zamiast zwracać się do sztucznej inteligencji o szybką odpowiedź, sprawdź aplikacje pogodowe i oprogramowanie takie jak Watch Dutyaktualne zdjęcia satelitarne i wiadomości lokalne.

LLM nie mają ważnych aktualizacji na temat naruszeń danych i bezpieczeństwa marki

Wersja internetowa ChatGPT odpowiada na pytania dotyczące bezpieczeństwa Ring. Wersja internetowa ChatGPT odpowiada na pytania dotyczące bezpieczeństwa Ring.

Chociaż ChatGPT może kompilować informacje o historii firmy ochroniarskiej, pomija kluczowe szczegóły lub popełnia błędy.

Tyler Lacoma/CzatGPT

Byłoby miło, gdyby sztuczna inteligencja chatbota mogła zapewnić podsumowanie historii marki z naruszeniami bezpieczeństwa i czy były jakieś sygnały ostrzegawcze dotyczące zakupu jej produktów. Niestety, nie wydają się jeszcze do tego zdolni, więc nie można do końca ufać temu, co mają do powiedzenia na temat firm ochroniarskich.

Na przykład, kiedy zapytałem ChatGPT, czy Ring dopuścił się jakichkolwiek naruszeń bezpieczeństwa, wspomniałem, że Ring doświadczył incydentów związanych z bezpieczeństwem, ale nie Kiedy (przed 2018 rokiem), co jest istotną informacją. Pominęła także kluczowe wydarzenia, w tym zakończenie wypłat przez Ring na rzecz dotkniętych klientów w tym roku oraz odwrócenie zasad Ring w 2024 r., które utrudniło policji dostęp do danych w chmurze.

ChatGPT odpowiada na pytanie dotyczące Wyze. ChatGPT odpowiada na pytanie dotyczące Wyze.

ChatGPT nie jest dobry w dostarczaniu harmonogramu wydarzeń i nie należy na nim polegać w zakresie formułowania rekomendacji.

Tyler Lacoma/CzatGPT

Kiedy zapytałem o Wyze, którego CNET obecnie nie zaleca, ChatGPT stwierdził, że to „dobra opcja” dla bezpieczeństwa w domu, ale wspomniał, że w 2019 r. doszło do naruszenia bezpieczeństwa danych, które ujawniło dane użytkowników. Nie wspomniał jednak, że Wyze ujawnił bazy danych i pliki wideo w 2022 r., a następnie w 2023 r. i ponownie w 2024 r. luki w zabezpieczeniach, które umożliwiły użytkownikom dostęp do prywatnych domowych filmów, które nie były ich własnymi. Choć podsumowania są ładne, z pewnością nie dają pełnego obrazu historii bezpieczeństwa ani tego, czy markom można bezpiecznie zaufać.

Przeczytaj więcej: Zapytaliśmy czołowego kryminologa, w jaki sposób włamywacze wybierają domy

Sztuczna inteligencja czatu nie jest pewna, czy urządzenia zabezpieczające wymagają subskrypcji, czy nie

ChatGPT odpowiada na pytanie dotyczące subskrypcji Reolink. ChatGPT odpowiada na pytanie dotyczące subskrypcji Reolink.

ChatGPT nie może odpowiednio wyjaśnić subskrypcji ani poziomów zabezpieczeń.

Tyler Lacoma/CzatGPT

Inne częste pytanie dotyczące bezpieczeństwa w domu, jakie widzę, dotyczy konieczności posiadania subskrypcji w celu korzystania z systemów bezpieczeństwa lub kamer domowych. Niektórzy ludzie nie chcą płacić stałych subskrypcji lub chcą mieć pewność, że to, co dostają, jest tego warte. Chociaż chatboty mogą podać wiele szczegółów przepisów, w tym przypadku nie są one pomocne.

Kiedy zapytałem ChatGPT, czy Reolink wymaga subskrypcji, nie udzielił mi żadnych szczegółów, twierdząc, że wiele produktów nie wymaga subskrypcji na podstawowe funkcje, ale Reolink „może oferować plany subskrypcji” na funkcje zaawansowane. Próbowałem zawęzić pytanie, zadając pytanie dotyczące Reolink Argus 4 Pro, ale ChatGPT znów pozostawał niejasny co do tego, że niektóre funkcje są bezpłatne, a niektóre prawdopodobnie wymagają subskrypcji. W miarę upływu odpowiedzi okazało się, że było to w dużej mierze bezużyteczne.

Tymczasem wycieczka do przewodnika CNET na temat subskrypcji kamer bezpieczeństwa lub Własna strona subskrypcji Reolink pokazuje, że Reolink oferuje subskrypcje zarówno na poziomie klasycznym, jak i ulepszonym, specjalnie dla kamer LTE, zaczynając od 6 do 7 dolarów miesięcznie, w zależności od liczby kamer, które chcesz obsługiwać, i aż do 15 do 25 dolarów za dodatkowe miejsce do przechowywania w chmurze i bogate powiadomienia/inteligentne alerty. Znalezienie tych odpowiedzi zajmuje mniej czasu niż zapytanie ChatGPT, a otrzymasz prawdziwe liczby do pracy.

ChatGPT nie jest również miejscem na Twój adres domowy ani dane osobowe

Cyfrowa ilustracja przedstawiająca chatbota wyboru przed ekranem wiadomości. Cyfrowa ilustracja przedstawiająca chatbota wyboru przed ekranem wiadomości.

Nie pozwól, aby chatboty dowiedziały się zbyt wiele o Twoich danych osobowych.

Vertigo3d przez Getty

Jak powiedział słynny detektyw: „Jeszcze tylko jedna rzecz. Jeśli kiedykolwiek zapytasz chatbota o bezpieczeństwo w domu, nigdy nie podawaj mu żadnych danych osobowych, takich jak adres domowy, imię i nazwisko, sytuacja życiowa lub jakiekolwiek informacje dotyczące płatności. AI takie jak ChatGPT miałem już wcześniej błędy co umożliwiło innym użytkownikom szpiegowanie prywatnych danych w ten sposób.

Ponadto polityki prywatności LLM można zawsze zaktualizować lub pozostawić na tyle niejasne, aby umożliwić profilowanie i sprzedaż gromadzonych przez nie danych użytkowników. Skrobanie danych z mediów społecznościowych jest wystarczająco złe, ty Naprawdę nie chcesz przekazywać danych osobowych bezpośrednio popularnej usłudze AI.

Uważaj, jakie dane podajesz w pytaniu i w jaki sposób je formułujesz, ponieważ zawsze znajdzie się ktoś, kto będzie chciał z nich skorzystać. Jeśli uważasz, że podałeś już swój adres w Internecie kilka razy za dużo, mamy przewodnik, w jaki sposób możesz pomóc w naprawieniu tego problemu.

Przeczytaj więcej: Twoje prywatne dane są w całym Internecie. Oto, co możesz z tym zrobić

Aby uzyskać więcej informacji, sprawdź, czy powinieneś płacić za bardziej zaawansowane funkcje ChatGPT, zapoznaj się z naszą szczegółową recenzją Google Gemini i najnowszymi informacjami na temat Apple Intelligence.



Zrodlo