ChatGPT podał złe informacje. Para z Hiszpanii nie weszła do samolotu

Hiszpańska para influencerów nie mogła wsiąść na pokład samolotu do Portoryko. Kobieta zapytała przed podróżą ChatGPT o wymagania dotyczące dokumentów. Ten podał jej jednak błędne informacje.

Nie polecieli do Portoryko przez ChataGPTNie polecieli do Portoryko przez ChataGPT
Źródło zdjęć: © TikTok, Unplash | Ethan Jameson
Rafał Strzelec

Hiszpańska para influencerów, Mery Caldass i Alejandro Cid, nie została wpuszczona na pokład samolotu do Portoryko. Powodem były błędne informacje o wymaganiach wizowych, które otrzymali od ChatGPT. W emocjonalnym nagraniu opublikowanym na TikToku, Caldass wyjaśnia, że zaufała sztucznej inteligencji, która zapewniła ją, że wiza nie jest potrzebna.

Zawsze dokładnie sprawdzam informacje, ale tym razem zaufałam Chatowi GPT, który powiedział, że wiza nie jest wymagana - mówiła Caldass na nagraniu w mediach społecznościowych dodając, że nie ufa już temu narzędziu.

Dalsza część artykułu pod materiałem wideo

Polacy kochają ten kierunek. Ekspertka radzi, jak wydać mniej na wakacje

Nie poleciała na Portoryko przez AI

Nagranie zdobyło ponad 6 milionów wyświetleń na TikToku, a użytkownicy sieci nie szczędzili parze krytyki. Wielu z nich podkreślało, że poleganie na ChatGPT w kwestiach podróżnych nie jest rozsądne.

"Jeśli wybierasz się w podróż transoceaniczną i całą wiedzę opierasz na ChatGPT, to i tak mało ci się stało" - stwierdziła jedna z osób.

"Kto ufa ChatGPT w takich sytuacjach?" - pytał jeden z komentujących.

Inni bronili narzędzia, twierdząc, że para mogła zadać niewłaściwe pytanie dotyczące dokumentów potrzebnych do wjazdu do Portoryko. Choć hiszpańscy turyści nie potrzebują wizy, muszą posiadać Elektroniczną Autoryzację Podróży (ESTA).

Inne przypadki błędnych porad AI

To nie pierwszy raz, gdy ChatGPT znalazł się w centrum kontrowersji. Niedawno amerykański mężczyzna trafił do szpitala po tym, jak zastąpił sól kuchenną chemikaliami używanymi do czyszczenia basenów, kierując się poradą AI. W wyniki tego mężczyzna cierpiał na halucynacje i paranoję, co było wynikiem zatrucia bromem.

Lekarze, zaintrygowani przypadkiem, sami przetestowali ChatGPT, który nadal rekomendował niebezpieczny związek jako zamiennik soli, nie wspominając o ryzyku zdrowotnym.

Źródło: "Daily Mail"

Wybrane dla Ciebie
Skandal w szkole. Młodzi Austriacy zrobili taką budowlę
Skandal w szkole. Młodzi Austriacy zrobili taką budowlę
26-latka zabiła trójkę motocyklistów. Szokująca decyzja sądu
26-latka zabiła trójkę motocyklistów. Szokująca decyzja sądu
Głośno o zachowaniu Trumpa. Wszystko się nagrało
Głośno o zachowaniu Trumpa. Wszystko się nagrało
Wigilia 2025 wolna nie dla wszystkich. Sprawdź zawody
Wigilia 2025 wolna nie dla wszystkich. Sprawdź zawody
Walczył z Rosjanami. Hoang Tran skazany
Walczył z Rosjanami. Hoang Tran skazany
Przyłapani w Rossmannie. Ich twarze zobaczą wszyscy. Komunikat policji
Przyłapani w Rossmannie. Ich twarze zobaczą wszyscy. Komunikat policji
Polacy odwołują urlopy. Pogoda zaskoczy?
Polacy odwołują urlopy. Pogoda zaskoczy?
"Zimno, boli". Ukrainka wypadła z drugiego piętra
"Zimno, boli". Ukrainka wypadła z drugiego piętra
Nie żyje Rafał Kołsut. Był gwiazdą "Ziarna"
Nie żyje Rafał Kołsut. Był gwiazdą "Ziarna"
Wyniki Lotto 04.12.2025 – losowania Lotto, Lotto Plus, Multi Multi, Ekstra Pensja, Ekstra Premia, Mini Lotto, Kaskada
Wyniki Lotto 04.12.2025 – losowania Lotto, Lotto Plus, Multi Multi, Ekstra Pensja, Ekstra Premia, Mini Lotto, Kaskada
Polskie piłkarki ręczne wygrały z Argentyną. Szczere słowa trenera
Polskie piłkarki ręczne wygrały z Argentyną. Szczere słowa trenera
Szukasz drzewka na święta? Prawnik mówi, na co zwrócić uwagę
Szukasz drzewka na święta? Prawnik mówi, na co zwrócić uwagę