aktualizacja 

Richard Branson i wnuk Openheimera chcą uchronić świat przed AI

9

Richard Branson, były sekretarz generalny ONZ Ban Ki-moon oraz Charles Oppenheimer (wnuk J. Roberta Oppenheimera) to tylko niektórzy z sygnatariuszy listu autorstwa organizacji pozarządowej The Elders. Wzywa on do zajęcia się zagrożeniami związanymi z kryzysem klimatycznym, pandemią, bronią nuklearną czy sztuczną inteligencją.

Richard Branson i wnuk Openheimera chcą uchronić świat przed AI
Jednym z sygnatariuszy listu jest Richard Branson (Instagram)

The Elders założyli były prezydent RPA Nelson Mandela oraz sam Branson. Jej celem jest zajmowanie się prawami człowieka w ujęciu globalnym.

List jest zaadresowany do światowych przywódców. To wezwanie, żeby zajęli się tworzeniem długoterminowej strategii i zachowali "determinację w rozwiązywaniu nierozwiązywalnych problemów, a nie tylko zarządzaniu nimi, mądrość w podejmowaniu decyzji w oparciu o dowody naukowe i rozsądek, a także pokorę w słuchaniu wszystkich, których to dotyczy".

Podstawowymi działaniami, jakie zdaniem sygnatariuszy listu należałoby podjąć, jest odejście od paliw kopalnych, podpisanie sprawiedliwego traktatu pandemicznego, wznowienie rozmów o broni nuklearnej ale też budowanie wspólnego globalnego zarządzania, mającego na celu uczynienie sztucznej inteligencji siłą jedynie w dobrych celach.

Dalsza część artykułu pod materiałem wideo

Zobacz także: Poseł KO ujawnia. "Materiały z Pegasusa trafiały do TVP"

Przesłanie zawarte w liście popiera też inna organizacja, Future of Life Institute, założona przez kosmologa z MIT Maxa Tegmarka oraz współzałożyciela Skype'a, Jaana Tallina.

Jak podkreśla Tegmark, technologia sama w sobie nie jest zła, ale pozostaje "narzędziem", które może doprowadzić do strasznych konsekwencji, jeśli jej rozwój znajdzie się w rękach złych ludzi.

Stara strategia kierowania w kierunku dobrych zastosowań (jeśli chodzi o nowe technologie) zawsze polegała na uczeniu się na błędach. Wymyśliliśmy ogień, a później gaśnicę. Wynaleźliśmy samochód, potem wyciągnęliśmy wnioski z naszych błędów i wymyśliliśmy pasy bezpieczeństwa, sygnalizację świetlną i ograniczenia prędkości - mówił Tegmark w rozmowie z CNBC.

List wydano przed Konferencją Bezpieczeństwa w Monachium, podczas której urzędnicy rządowi, przywódcy wojskowi i dyplomaci będą omawiać bezpieczeństwo międzynarodowe w obliczu eskalacji globalnych konfliktów zbrojnych, w tym wojen między Rosją a Ukrainą i Izraelem a Hamasem. Tegmark ma się tam zjawić osobiście, żeby propagować przesłanie listu.

Zatrzymać sztuczną inteligencję

W zeszłym roku Future of Life opublikowało swój list, który poparli m.in. szef Tesli Elon Musk czy współzałożyciel Apple Steve Wozniak. Wzywali w nim laboratoria sztucznej inteligencji, aby wstrzymały szkolenie modeli AI potężniejszych, niż GPT-4, będące obecnie najbardziej zaawansowanym modelem AI z OpenAI Sama Altmana.

Postulat przerwania rozwijania sztucznej inteligencji miał na celu uniknięcie sytuacji "utraty kontroli" nad cywilizacją, bo może skutkować likwidacją miejsc pracy a także przechytrzeniem ludzi przez komputery.

Autor: EWS
Oceń jakość naszego artykułu:

Twoja opinia pozwala nam tworzyć lepsze treści.

Zobacz także:
Oferty dla Ciebie
Wystąpił problem z wyświetleniem stronyKliknij tutaj, aby wyświetlić