Fałszywe treści o Holokauście. Jest reakcja Mety
Międzynarodowa sieć spamerów czerpała zyski z rozpowszechniania fałszywych obrazów Holokaustu generowanych przez sztuczną inteligencję. Meta poinformowała o usunięciu kont powiązanych z tym procederem.
Najważniejsze informacje
- Sieć spamerów tworzy fałszywe obrazy Holokaustu za pomocą AI.
- Meta usunęła konta związane z tym procederem.
- Zyski z fałszywych treści sięgają tysięcy dolarów.
Sieć spamerów i fałszywe obrazy
Międzynarodowa sieć spamerów wykorzystuje sztuczną inteligencję do tworzenia fałszywych obrazów Holokaustu, które publikowane są na portalach społecznościowych. Proceder ten przynosi znaczne zyski, co ujawniło dziennikarskie śledztwo przeprowadzone przez BBC.
Nagrał go i wysłał na policję. Teraz każdy zobaczy, co zrobił kierowca
Firma Meta, właściciel Facebooka, zareagowała na te doniesienia, usuwając konta i profile związane z publikowaniem nieprawdziwych treści. Choć obrazy te nie naruszają bezpośrednio polityki dotyczącej treści, Meta uznała, że łamią zasady dotyczące podszywania się pod inne osoby.
Dalsza część artykułu pod materiałem wideo
Fałszywe obrazy Holokaustu
Pakistańscy twórcy internetowi, którzy stoją za tym procederem, zarabiają na fałszywych obrazach nawet 20 tys. dolarów. Jeden z nich przyznał, że jego konto na Facebooku osiągnęło 1,2 mld wyświetleń w ciągu czterech miesięcy, co przekłada się na znaczne dochody.
Państwowe Muzeum Auschwitz-Birkenau ostrzegało już wcześniej przed kontami, które kradną i przetwarzają jego treści. Rzecznik muzeum, Paweł Sawicki, podkreślił, że takie działania podważają misję placówki.
Już zaczęliśmy otrzymywać komentarze pod naszymi postami na Facebooku, że: "O, to zdjęcie zostało wygenerowane przez sztuczną inteligencję" - powiedział Paweł Sawicki.
Dr Robert Williams z Międzynarodowego Sojuszu na rzecz Pamięci o Holokauście wyraził zaniepokojenie rosnącą ilością fałszywych treści. Dodał, że ocaleni z Holokaustu odczuwają smutek, widząc, jak ich historia jest fałszowana, mimo licznych działań edukacyjnych.