ChatGPT podał złe informacje. Para z Hiszpanii nie weszła do samolotu

Hiszpańska para influencerów nie mogła wsiąść na pokład samolotu do Portoryko. Kobieta zapytała przed podróżą ChatGPT o wymagania dotyczące dokumentów. Ten podał jej jednak błędne informacje.

Nie polecieli do Portoryko przez ChataGPTNie polecieli do Portoryko przez ChataGPT
Źródło zdjęć: © TikTok, Unplash | Ethan Jameson
Rafał Strzelec

Hiszpańska para influencerów, Mery Caldass i Alejandro Cid, nie została wpuszczona na pokład samolotu do Portoryko. Powodem były błędne informacje o wymaganiach wizowych, które otrzymali od ChatGPT. W emocjonalnym nagraniu opublikowanym na TikToku, Caldass wyjaśnia, że zaufała sztucznej inteligencji, która zapewniła ją, że wiza nie jest potrzebna.

Zawsze dokładnie sprawdzam informacje, ale tym razem zaufałam Chatowi GPT, który powiedział, że wiza nie jest wymagana - mówiła Caldass na nagraniu w mediach społecznościowych dodając, że nie ufa już temu narzędziu.

Dalsza część artykułu pod materiałem wideo

Polacy kochają ten kierunek. Ekspertka radzi, jak wydać mniej na wakacje

Nie poleciała na Portoryko przez AI

Nagranie zdobyło ponad 6 milionów wyświetleń na TikToku, a użytkownicy sieci nie szczędzili parze krytyki. Wielu z nich podkreślało, że poleganie na ChatGPT w kwestiach podróżnych nie jest rozsądne.

"Jeśli wybierasz się w podróż transoceaniczną i całą wiedzę opierasz na ChatGPT, to i tak mało ci się stało" - stwierdziła jedna z osób.

"Kto ufa ChatGPT w takich sytuacjach?" - pytał jeden z komentujących.

Inni bronili narzędzia, twierdząc, że para mogła zadać niewłaściwe pytanie dotyczące dokumentów potrzebnych do wjazdu do Portoryko. Choć hiszpańscy turyści nie potrzebują wizy, muszą posiadać Elektroniczną Autoryzację Podróży (ESTA).

Inne przypadki błędnych porad AI

To nie pierwszy raz, gdy ChatGPT znalazł się w centrum kontrowersji. Niedawno amerykański mężczyzna trafił do szpitala po tym, jak zastąpił sól kuchenną chemikaliami używanymi do czyszczenia basenów, kierując się poradą AI. W wyniki tego mężczyzna cierpiał na halucynacje i paranoję, co było wynikiem zatrucia bromem.

Lekarze, zaintrygowani przypadkiem, sami przetestowali ChatGPT, który nadal rekomendował niebezpieczny związek jako zamiennik soli, nie wspominając o ryzyku zdrowotnym.

Źródło: "Daily Mail"

Wybrane dla Ciebie
Zapytali Putina o partnerkę. Odpowiedział jednym słowem
Zapytali Putina o partnerkę. Odpowiedział jednym słowem
Trump znów to zrobił. Biały Dom komentuje
Trump znów to zrobił. Biały Dom komentuje
Wprowadzili martwą 89-latkę na pokład samolotu. Doniesienia w Hiszpanii
Wprowadzili martwą 89-latkę na pokład samolotu. Doniesienia w Hiszpanii
Zakonnica usłyszała zarzuty. W tle znęcanie
Zakonnica usłyszała zarzuty. W tle znęcanie
Lampki choinkowe. Jak wpływają na rachunki za prąd?
Lampki choinkowe. Jak wpływają na rachunki za prąd?
Wskazał słaby punkt Rosji. Przypomniał reakcję Putina
Wskazał słaby punkt Rosji. Przypomniał reakcję Putina
Tragedia w Hiszpanii. Fala porwała niemiecką turystkę
Tragedia w Hiszpanii. Fala porwała niemiecką turystkę
Dramatyczny widok na drodze. Niektórzy bagatelizowali zagrożenie
Dramatyczny widok na drodze. Niektórzy bagatelizowali zagrożenie
Ujawniono akta Epsteina. Kolejne zdjęcia z byłym księciem Andrzejem
Ujawniono akta Epsteina. Kolejne zdjęcia z byłym księciem Andrzejem
Ich synowie chodzą do seminarium. "Praktycznie nie ma lekcji"
Ich synowie chodzą do seminarium. "Praktycznie nie ma lekcji"
Zachwyt nad policyjną kontrolą. "Są normalni funkcjonariusze"
Zachwyt nad policyjną kontrolą. "Są normalni funkcjonariusze"
Nowe akta Epsteina. Wielokrotne wpisy z oznaczeniem "Poland"
Nowe akta Epsteina. Wielokrotne wpisy z oznaczeniem "Poland"