Skandaliczna zagrywka oszustów. Jej ofiarą padł Andrzej Duda

Prezydent RP przemówił do mieszkańców Polski informując, że każdy otrzyma 4 tys. zł dziennie. Zbyt piękne, żeby było prawdziwe? Owszem, bo całe to nagranie to kłamstwo, a wizerunek Andrzeja Dudy został wygenerowany komputerowo.

Wizerunek Andrzeja Dudy został wykorzystany w reklamie deepfakeWizerunek Andrzeja Dudy został wykorzystany w reklamie deepfake
Źródło zdjęć: © Wikimedia Commons | © Ron Przysucha

Deepfake jest zjawiskiem, w którym ktoś podszywa się pod znane osoby, często wykorzystując ich wizerunek do oszustwa. Przykładem tego jest "reklama", jaka pojawiła się na YouTube, gdzie "występuje" prezydent Polski, Andrzej Duda. W rzeczywistości został on wygenerowany komputerowo.

Prezydent Andrzej Duda "obiecuje" 4 tys. zł za inwestycje

W ponad minutowym filmiku, w którym wykorzystano wizerunek prezydenta, Andrzej Duda "opowiada" o możliwości inwestycji i tzw. dochodzie pasywnym, dzięki któremu każdy może w szybkim czasie pomnożyć majątek.

Dalsza część artykułu pod materiałem wideo

Przeróbki nagrań z Sejmu. Mieszkańcy Rzeszowa dali się nabrać na deepfake

W nagraniu pojawia się stwierdzenie, że przy zainwestowaniu właściwie dowolnej kwoty, możemy liczyć na zarobek dzienny w wysokości przynajmniej 4 tys. zł. Brzmi kusząco, prawda? Reklama ma być obecna na platformie YouTube już od kilku tygodni. Żeby przekonać się, że jest fałszywa, wystarczy przez chwilę się przyjrzeć. Wówczas zobaczymy, że to co mówi głos Andrzeja Dudy, nie jest zsynchronizowane z ruchem ust prezydenta na nagraniu.

Były zgłoszenia, nie ma reakcji

Post o fejkowej reklamie trafił na platformę X (dawny Twitter), gdzie jeden z komentujących stwierdził, że widział to nagranie już przez kilka tygodni i zgłosił je, ale bez większego efektu, gdyż nadal jest wyświetlane na YouTubie. A to ryzykowne, bo niektóre osoby mogą w nie uwierzyć i "zainwestować", czyli w rzeczywistości dać się oszukać cyberprzestępcom.

To nie jest pierwszy raz, jak wizerunek prezydenta Andrzeja Dudy pojawia się w nagraniu z wykorzystaniem technologii deepfake. Jakiś czas temu mieliśmy okazję usłyszeć jego krytykę na temat... mielonki z Biedronki.

Technologia deepfake posłużyła już do wykorzystania m.in. wizerunków Roberta Lewandowskiego czy Elżbiety Jaworowicz, jednak jednym z poważniejszych przypadków było nagranie z 2018 r. "z udziałem" byłego prezydenta USA Baracka Obamy, gdzie z jego ust padały niecenzuralne słowa.

Źródło artykułu: o2pl
Wybrane dla Ciebie
Kaznodzieja chwalił Hitlera. "Kara boska"
Kaznodzieja chwalił Hitlera. "Kara boska"
Bojownicy będą tłumić protesty. Doniesienia z Iranu
Bojownicy będą tłumić protesty. Doniesienia z Iranu
Jest córką zdrajcy. Tak urządzili się w Rosji. Ujawniono majątek
Jest córką zdrajcy. Tak urządzili się w Rosji. Ujawniono majątek
Kiedy siać koper do gruntu? Pilnuj terminu
Kiedy siać koper do gruntu? Pilnuj terminu
Nadchodzi kapryśna pogoda w Polsce. Będą zmiany
Nadchodzi kapryśna pogoda w Polsce. Będą zmiany
Zawsze robię taki żurek na Wielkanoc. Każdy prosi o dokładkę
Zawsze robię taki żurek na Wielkanoc. Każdy prosi o dokładkę
Zbierali pieniądze na leczenie radnego. Zniknęły 73 tys. zł
Zbierali pieniądze na leczenie radnego. Zniknęły 73 tys. zł
Nie żyje dr Agata Fijałkowska. Naukowczyni miała 41 lat
Nie żyje dr Agata Fijałkowska. Naukowczyni miała 41 lat
"Ależ boli". Rymanowski nie owija w bawełnę po meczu Polski
"Ależ boli". Rymanowski nie owija w bawełnę po meczu Polski
Ojciec Gyökeresa ocenił występ Szwedów. Polacy na pewno się zdziwią
Ojciec Gyökeresa ocenił występ Szwedów. Polacy na pewno się zdziwią
Chciał świętować zwycięstwo nad Polską. "Nie pozwolili mi wypić piwa"
Chciał świętować zwycięstwo nad Polską. "Nie pozwolili mi wypić piwa"
Humbak utknął na Bałtyku. Sytuacja jest krytyczna
Humbak utknął na Bałtyku. Sytuacja jest krytyczna