Chcą globalnego zakazu narzędzi do nudyfikacji. Na liście 108 organizacji
108 organizacji, w tym Fundacja Dajemy Dzieciom Siłę, podpisało się pod apelem o zakaz narzędzi do nudyfikacji. Generowanie nagich obrazów na podstawie zdjęć ubranych osób jest powiązane z nadużyciami seksualnymi i szantażem — informuje Polska Agencja Prasowa.
Najważniejsze informacje
- 108 organizacji wzywa do globalnego zakazu narzędzi do nudyfikacji w ciągu dwóch lat.
- Koalicja WeProtect Global Alliance wskazuje na powiązania deepfake’ów z nadużyciami seksualnymi i szantażem.
- Postulaty obejmują sankcje prawne, blokady na poziomie platform i edukację medialną.
Apel przygotowała międzynarodowa koalicja WeProtect Global Alliance. Podpis złożyło 108 organizacji, w tym Fundacja Dajemy Dzieciom Siłę – poinformował PAP wiceprzewodniczący Państwowej Komisji ds. Pedofilii Konrad Ciesiołkiewicz. Autorzy wnioskują o szybkie działania legislacyjne oraz techniczne blokady, argumentując, że generowanie nagich obrazów z użyciem AI napędza nadużycia seksualne, wymuszenia i szantaż. Jak podaje serwis PAP, wezwanie kierowane jest jednocześnie do rządów, firm technologicznych i obywateli. W apelu podkreślono, że narzędzia do nudyfikacji nie mają społecznie akceptowalnego zastosowania i powinny zniknąć z obiegu.
Narzędzia do nudyfikacji (ang. nudifying tools) nie powinny być dostępne w żadnym społeczeństwie, które chce chronić swoje dzieci. Dziś jasno mówimy: ta funkcjonalność nie służy żadnemu dobremu celowi i powinna być jednoznacznie oraz powszechnie zakazana - zaznaczyli autorzy.
Grok od Muska przesadził? W Sejmie o wulgarnych wpisach. "Nic nie zastąpi własnej inteligencji"
Koalicja, odwołując się do słów papieża Leona XIV, wskazała, że AI musi być sojusznikiem, a nie zagrożeniem dla dzieci. "Aby to osiągnąć, konieczny jest natychmiastowy, globalny zakaz narzędzi do nudyfikacji" - czytamy w apelu.
Deepfake’i, przemoc i odpowiedzialność firm
Autorzy ostrzegają, że generatory nagich obrazów coraz częściej służą do tworzenia krzywdzących treści z udziałem dzieci. "Firmy, deweloperzy i osoby tworzące lub rozpowszechniające te narzędzia muszą zostać pociągnięte do odpowiedzialności, zarówno prawnej, jak i karnej" - napisano. Wskazano, że zdjęcia dzieci, w tym ocalałych z wykorzystywania, są przekształcane w coraz bardziej ekstremalne formy. Sygnatariusze twierdzą, że technologia tworzy nowy wektor wykorzystywania, szczególnie zagrażający kobietom i dziewczętom.
Deepfake’i są teraz ściśle powiązane z nadużyciami seksualnymi, wymuszeniami, szantażem - podkreślono.
Co ma się zmienić w ciągu dwóch lat
WeProtect Global Alliance domaga się, by każda jurysdykcja w maksimum dwa lata: zdelegalizowała tworzenie, dystrybucję, posiadanie i komercyjne użycie narzędzi do nudyfikacji; wprowadziła odpowiedzialność cywilną i karną dla firm, właścicieli, deweloperów, platform i użytkowników; obowiązkowo blokowała dostęp na poziomie platform, sklepów z aplikacjami, hostingu i dostawców internetu, a także uruchomiła programy edukacji medialnej w szkołach i dla obywateli, obejmujące ryzyka związane z nudyfikacją.
Wezwanie obejmuje też sektor prywatny: wdrożenie zasad bezpieczeństwa już na etapie projektowania, zakaz używania narzędzi nudyfikacyjnych w całym łańcuchu (aplikacje, pluginy, API, integracje) oraz przerwanie monetyzacji takich treści i współpracę przy blokowaniu przepływów finansowych.
Przejrzystość, zgłaszanie i skala zgłoszeń
Koalicja oczekuje jasnych raportów firm o wykrywaniu i egzekwowaniu przepisów oraz o zabezpieczeniach modeli. Zwrócono uwagę na brak unijnych rozwiązań analogicznych do amerykańskiego obowiązku raportowania treści z kategorii CSAM. W USA National Center for Missing & Exploited Children prowadzi infolinię CyberTipline, która w 2024 r. odebrała blisko 20 mln zgłoszeń, zawierających łącznie 28 mln zdjęć i 33,1 mln wideo. Po weryfikacji 44 proc. zdjęć i 25 proc. nagrań uznano za nowe materiały. Ponad 51 tys. raportów trafiło w trybie pilnym do organów ścigania z uwagi na bezpośrednie zagrożenie dla dziecka.
Co zrobić w sytuacji nadużyć?
Autorzy apelu wskazują konkretne kroki dla osób w niebezpieczeństwie. "Jeśli jesteś w bezpośrednim niebezpieczeństwie, skontaktuj się z lokalnymi numerami alarmowymi, np. 112, lub powiadom policję. Zadzwoń na telefon zaufania dla dzieci lub linię kryzysową – wiele z nich działa 24/7, są darmowe i poufne" - radzą. Podkreślono też szerszy wpływ zjawiska: normalizację obrazów o charakterze seksualnym, zobojętnienie, nasilanie przemocy ze względu na płeć oraz podważanie zaufania i bezpieczeństwa w społecznościach.
Źródło: PAP.