REKLAMA
Odsłoń newsy
Odsłoń newsy
Copyright Wirtualna Polska Media S.A. - ReklamaRegulaminPrywatność
Odświeżone 2 godziny temu
Twoje konto
Pogoda
Radio
Quizy
0
graczy online
Graj teraz!
REKLAMA
03.06.16 (21:43)

Google pracuje nad "wyłącznikiem bezpieczeństwa"

Debata nad rozwojem sztucznej inteligencji nigdy nie była tak zacięta. Z jednej strony mamy wielkie koncerny, które inwestują miliony w myślące komputery. Z drugiej strony słyszymy, że będzie to zguba ludzkości. Dlatego Google przygotowuje "guzik", który wszystko wyłączy.
Insomnia Cured Here / flickr.com

Każdy z nas kojarzy firmy z serii "Terminator". Sztuczna inteligencja (SkyNet) wymyka się spod kontroli ludzkości i doprowadza do jej całkowitej zagłady. Na szczęście Google, które jest w posiadaniu jednej z najbardziej rozwiniętych sztucznych inteligencji, inwestuje w kwestie bezpieczeństwa. Firma w opracowanym niedawno dokumencie opisuje problem przejęcia kontroli nad robotem, komputerem w każdej możliwej chwili, a szczególnie wtedy, kiedy jego zachowanie będzie niebezpieczne. Oczywiście nikt nie zakłada, że AI jako cel obierze sobie zgładzenie ludzkości, ale trzeba brać pod uwagę wszystkie scenariusze, nawet te najgorsze.

*Raport pt. "Wyłącznik bezpieczeństwa" skupia się na bardziej prozaicznych sytuacjach. * Koncern myśli głównie o inteligentnych robotach w fabrykach lub halach produkcyjnych, które trzeba wyłączyć w momencie awarii. W dokumencie znajdują się informacje, których 99% z nas nigdy nie zrozumie, jednak w wielkim skrócie chodzi o wynalezienie czegoś w rodzaju "wielkiego czerwonego guzika", który po wciśnięciu wyłączy sztuczną inteligencję. Z raportu wynika, że może dojść do sytuacji, kiedy AI wymknie się spod kontroli. Ważne, żeby "zablokować" możliwość ominięcia przez sztuczną inteligencję blokady zastosowanej przez człowieka. Chociaż w praktyce może to się okazać bardzo trudne - donosi gizmodo.com.

REKLAMA

Debata nad rozwojem sztucznej inteligencji trwa od kilku lat. Google, Facebook, Amazon i Microsoft prześcigają się w rozwijaniu technologii AI. Z drugiej strony głos zabierają naprawdę tęgie głowy, tj. Elon Musk i Stephen Hawking, którzy twierdzą, że rozwijanie sztucznej inteligencji jest "wywoływaniem demona". Obie strony mają naprawdę mocne argumenty i nie sposób się z nimi nie zgodzić. A co wy o tym myślicie? Czy powinno się rozwijać technologię AI?

Autor: Arkadiusz Puz

Teraz serce internetu w jednej aplikacji. Bądź na bieżąco i pobierz w Google Play albo App Store.

0
0
0
0
0
0
PODZIEL SIĘ
TWEETNIJ
REKLAMA
REKLAMA
REKLAMA
Komentarze
REKLAMA
REKLAMA
Zamknij