Skandaliczna zagrywka oszustów. Jej ofiarą padł Andrzej Duda

Prezydent RP przemówił do mieszkańców Polski informując, że każdy otrzyma 4 tys. zł dziennie. Zbyt piękne, żeby było prawdziwe? Owszem, bo całe to nagranie to kłamstwo, a wizerunek Andrzeja Dudy został wygenerowany komputerowo.

Wizerunek Andrzeja Dudy został wykorzystany w reklamie deepfakeWizerunek Andrzeja Dudy został wykorzystany w reklamie deepfake
Źródło zdjęć: © Wikimedia Commons | © Ron Przysucha

Deepfake jest zjawiskiem, w którym ktoś podszywa się pod znane osoby, często wykorzystując ich wizerunek do oszustwa. Przykładem tego jest "reklama", jaka pojawiła się na YouTube, gdzie "występuje" prezydent Polski, Andrzej Duda. W rzeczywistości został on wygenerowany komputerowo.

Prezydent Andrzej Duda "obiecuje" 4 tys. zł za inwestycje

W ponad minutowym filmiku, w którym wykorzystano wizerunek prezydenta, Andrzej Duda "opowiada" o możliwości inwestycji i tzw. dochodzie pasywnym, dzięki któremu każdy może w szybkim czasie pomnożyć majątek.

Dalsza część artykułu pod materiałem wideo

Przeróbki nagrań z Sejmu. Mieszkańcy Rzeszowa dali się nabrać na deepfake

W nagraniu pojawia się stwierdzenie, że przy zainwestowaniu właściwie dowolnej kwoty, możemy liczyć na zarobek dzienny w wysokości przynajmniej 4 tys. zł. Brzmi kusząco, prawda? Reklama ma być obecna na platformie YouTube już od kilku tygodni. Żeby przekonać się, że jest fałszywa, wystarczy przez chwilę się przyjrzeć. Wówczas zobaczymy, że to co mówi głos Andrzeja Dudy, nie jest zsynchronizowane z ruchem ust prezydenta na nagraniu.

Były zgłoszenia, nie ma reakcji

Post o fejkowej reklamie trafił na platformę X (dawny Twitter), gdzie jeden z komentujących stwierdził, że widział to nagranie już przez kilka tygodni i zgłosił je, ale bez większego efektu, gdyż nadal jest wyświetlane na YouTubie. A to ryzykowne, bo niektóre osoby mogą w nie uwierzyć i "zainwestować", czyli w rzeczywistości dać się oszukać cyberprzestępcom.

To nie jest pierwszy raz, jak wizerunek prezydenta Andrzeja Dudy pojawia się w nagraniu z wykorzystaniem technologii deepfake. Jakiś czas temu mieliśmy okazję usłyszeć jego krytykę na temat... mielonki z Biedronki.

Technologia deepfake posłużyła już do wykorzystania m.in. wizerunków Roberta Lewandowskiego czy Elżbiety Jaworowicz, jednak jednym z poważniejszych przypadków było nagranie z 2018 r. "z udziałem" byłego prezydenta USA Baracka Obamy, gdzie z jego ust padały niecenzuralne słowa.

Źródło artykułu: o2pl
Wybrane dla Ciebie
Wyniki Lotto 29.12.2025 – losowania Multi Multi, Ekstra Pensja, Ekstra Premia, Mini Lotto, Kaskada
Wyniki Lotto 29.12.2025 – losowania Multi Multi, Ekstra Pensja, Ekstra Premia, Mini Lotto, Kaskada
Klaudia zmarła w wieku 20 lat. Kolejne dramatyczne doniesienia
Klaudia zmarła w wieku 20 lat. Kolejne dramatyczne doniesienia
Sylwester a cisza nocna. Co wolno, a za co grozi mandat?
Sylwester a cisza nocna. Co wolno, a za co grozi mandat?
Putin podpisał dekret wojskowy. Ponad 260 tysięcy osób
Putin podpisał dekret wojskowy. Ponad 260 tysięcy osób
79-latek uratowany przed hipotermią. Wcześniej spadł z roweru
79-latek uratowany przed hipotermią. Wcześniej spadł z roweru
PG Silesia. Podpisano porozumienie ws. zabezpieczenia pracowników kopalni
PG Silesia. Podpisano porozumienie ws. zabezpieczenia pracowników kopalni
Awantura na pokładzie Ryanaira. Ujawniono powód
Awantura na pokładzie Ryanaira. Ujawniono powód
Zaginęła 15-letnia Maja. Gdy widziano ją po raz ostatni, nie była sama
Zaginęła 15-letnia Maja. Gdy widziano ją po raz ostatni, nie była sama
Kolizja trzech aut na DK7. Są ranni
Kolizja trzech aut na DK7. Są ranni
Policjantka uratowała psa. Biegał między autami
Policjantka uratowała psa. Biegał między autami
Brodacze żegnają stary rok. Ta tradycja przyciąga tłumy
Brodacze żegnają stary rok. Ta tradycja przyciąga tłumy
Atak w Egipcie. Rosyjski turysta trafił do szpitala
Atak w Egipcie. Rosyjski turysta trafił do szpitala