Zostało nam 35 lat? Laureat Nobla wskazuje największe zagrożenie
David Gross mówi o realnym ryzyku katastrofy egzystencjalnej ludzkości w perspektywie około 35 lat. Zwraca uwagę na zanik kontroli zbrojeń i rosnącą rolę AI w wojsku.
Najważniejsze informacje
- David Gross szacuje ryzyko wojny nuklearnej na ok. 2 proc. rocznie. Na tej podstawie wylicza tzw. "oczekiwany czas" do takiego zdarzenia — około 35 lat.
- To nie jest przewidywanie, że świat na pewno skończy się za 35 lat, tylko statystyczne ujęcie ryzyka.
- Wskazuje na brak nowych traktatów rozbrojeniowych i wygaśnięcie ostatniej umowy USA–Rosja w 2026 r.
- Ostrzega przed automatyzacją decyzji wojskowych i rolą sztucznej inteligencji.
W rozmowie z "Live Science" David Gross, fizyk teoretyczny i laureat Nagrody Nobla z 2004 r., mówi o skumulowanym ryzyku konfliktu nuklearnego. Zaznacza, że po zimnej wojnie i okresie kontroli zbrojeń normy i porozumienia między państwami słabną, co znacząco wpływa na bezpieczeństwo międzynarodowe.
Kluczowa teza Grossa brzmi: roczne prawdopodobieństwo wojny nuklearnej może sięgać ok. 2 proc. Jak relacjonuje „Daily Mail”, naukowiec porównał tę kalkulację do modeli znanych z fizyki, które opisują prawdopodobieństwo zdarzeń w czasie. Z takiego rachunku wynika, że w perspektywie 35 lat mogłoby dojść do zdarzenia, które egzystencjalnie zagrozi światu.
Niecodzienne odkrycie. Odkopali list w butelce z I wojny światowej
Ludzie mówią o użyciu broni jądrowej; trwa duża wojna w środku Europy; bombardujemy Iran; Indie i Pakistan były blisko wojny. Wchodzimy w niewiarygodny wyścig zbrojeń - powiedział Gross w rozmowie z "Live Science".
AI i automatyzacja decyzji militarnych
David Gross zwraca uwagę na potencjalnie niebezpieczne połączenie sztucznej inteligencji i broni nuklearnej. - Bardzo trudno będzie oprzeć się pokusie, by pozwolić AI podejmować decyzje, ponieważ działa tak szybko - stwierdził naukowiec. W jego ocenie szczególnie ryzykowne są sytuacje kryzysowe, gdzie czas reakcji jest ekstremalnie krótki. W takich warunkach wojsko może uznać, że bezpieczniej będzie powierzyć decyzję sztucznej inteligencji.
Jednocześnie Gross ostrzega, że AI nie jest niezawodna i "zdarza się jej halucynować", czyli może generować błędne lub całkowicie nieprawdziwe wnioski. W jego opinii włączenie takich systemów do decyzji o użyciu broni nuklearnej mogłoby znacząco zwiększyć ryzyko katastrofalnej pomyłki, dlatego kluczowe decyzje powinny pozostać w rękach ludzi.
David Gross w rozmowie podkreśla, że choć idea całkowitego wyeliminowania broni nuklearnej może wydawać się idealistyczna, to w jego ocenie jest ona nadal warta rozważenia.
To my je stworzyliśmy; możemy je też zatrzymać - stwierdził naukowiec w rozmowie z "Live Science".