Teoretycy i futurolodzy o zagrożeniach ze strony sztucznej inteligencji

Picture of Hubert Dąbrowski
Hubert Dąbrowski

Ekspert i pasjonat wykorzystania sztucznej inteligencji w biznesie.

Bądź na bieżąco.

newsletter o sztucznej inteligencji.

Niebezpieczeństwo rozpoczyna się już w tym jak głęboko zagnieżdżona jest sztuczna inteligencja w prawie każdej istniejącej dzisiaj branży, poczynając od medycyny, przez transport, po urządzenia, z których korzystamy każdego dnia. Eksperymenty w takich dziedzinach jak biologia syntetyczna, nanotechnologia, czy właśnie inteligencja maszyn powoli wkraczają na tereny niezrozumiałe dla nas samych, tworząc przepaść między postępem technicznym, a naszą umiejętnością przewidywania jego konsekwencji.

List Stephena Hawkinga

W kwietniu 2014 brytyjski fizyk teoretyk Stephen Hawking wraz z innymi czołowymi naukowcami opublikował list otwarty skierowany do całej ludzkości dotyczący zagrożenia związanego z rozwojem sztucznej inteligencji. Hawking ostrzegł w nim, że stworzenie superinteligentnych maszyn może być nie tylko największym przełomem w dziejach ludzkości, ale również ostatnim dokonaniem naszego gatunku.

Stephen Hawking kreśli wizję inteligencji, która przechytrzyłaby rynki finansowe, przerosłaby możliwościami ludzkich wynalazców, wywiodłaby w pole światowych przywódców i stworzyłaby broń, której my nie będziemy nawet w stanie zrozumieć.

Inny naukowiec Daniel Dawey, sugeruje, że taka sztuczna inteligencja może przejąć już stworzoną przez nas infrastrukturę bądź opracować technologie, których my nie jesteśmy w stanie wymyślić. Na przykład mogłaby rozwinąć nanotechnologie tak bardzo, że nowe rozwiązania pozwoliłyby jej dosłownie kontrolować świadome istoty na poziomie molekularnym.

Futurolodzy tacy jak np. Ray Kurzweil wierzą, że nasza cywilizacja znajduję o krok od osiągnięcia tzw. osobliwości – maszyny inteligentniejszej od nas co spowoduje tzw. wybuch inteligencji. Jeśli sztuczna inteligencja uzyska możliwość samorozwoju, zacznie nieprzerwanie tworzyć coraz lepsze, a co za tym idzie inteligentniejsze wersje siebie, powodując tak szybki postęp techniczny, że nasz ludzki intelekt nie będzie w stanie go pojąć.

Superkomputery z inteligencją ludzką i niewyobrażalną liczbą danych

Z naszą powolną biologiczną ewolucją, ludzkość nie będzie w stanie dotrzymać tempa i w przeciągu kilku lat zostaniemy daleko w tyle za inteligentnymi maszynami. Doktor Nick Bostrom, dyrektor instytutu przyszłości ludzkości na Uniwersytecie Oxforda, w którym to zespół naukowców od matematyków po filozofów bada największe zagrożenia związane z rozwojem sztucznej inteligencji twierdzi, że to jeden z tzw. superkomputerów stanie się pierwszą maszyną, która inteligencją dorówna człowiekowi. Jednocześnie będzie lepszy od nas, bo już teraz niektóre z tych maszyn są w stanie pracować nieprzerwanie, mają dostęp do gigantycznych baz danych, dokonują eksperymentów, a nawet są zdolne klonować swoje oprogramowanie.

Różne inteligentne systemy wkraczają w nasze codzienne życie, uzależniając nas od siebie, co tylko zwiększa szanse, że przyczynią się one do naszego końca. Daniel Dewey twierdzi również, że ryzykiem przy rozwoju sztucznej inteligencji jest wyginięcie będące tak jakby skutkiem ubocznym. Jego zdaniem, sztuczna inteligencja, chcąc wykonać swoje zadanie, może nieumyślnie doprowadzić do naszej zakłady np. wykorzystując wszystkie potrzebne nam do funkcjonowania surowce.

Nawet może być gorzej, gdy taka superinteligentny system uzna, że sama ludzkość jest zagrożeniem dla powodzenia misji, więc dla swojego bezpieczeństwa postanowi nas usunąć. Jeszcze inni futurolodzy wierzą, że zagłada ludzkości może być rezultatem konkurujących między sobą o dominację sztucznych superinteligencji.

Z drugiej strony pisarz science-fiction Charles Stross twierdzi, że sztuczna inteligencja zostanie zbudowana jako nasze narzędzie, więc zagrożenie zależy tylko i wyłącznie od tego, jaki cel to my jej nadamy.

Etyka w rozwoju sztucznej inteligencji

W 2012 badanie przeprowadzone przez Stuarta Armstonga, również naukowca z Instytutu Przyszłości Ludzkości wykazało, że tak zwana silna sztuczna inteligencja, może powstać już w 2040. Chodzi tu o maszynę zdolną wykonywać wszystkie intelektualne zadania, do których zdolny jest człowiek. Ale to całe straszenie cyfrową superinteligencją, które postanowi zniszczyć ludzkość ma swoje plusy. Dzięki niemu naukowcy wspólnie postanowili pracować nad tym, by zapewnić, że inteligentne maszyny w przyszłości będą rozwijane nie tylko rozważnie, ale też że będą miały zaprogramowany w sobie szereg zabezpieczeń zmuszający je do etycznego postępowania.

Picture of Hubert Dąbrowski

Hubert Dąbrowski

Ekspert i pasjonat wykorzystania sztucznej inteligencji w biznesie.

0 0 votes
Article Rating
Subscribe
Powiadom o
0 komentarzy
Inline Feedbacks
View all comments

zapisz sie do Newslettera

Picture of Huber Dąbrowski

Huber Dąbrowski

Ekspert i pasjonat wykorzystania sztucznej inteligencji w biznesie.

To warto przeczytać

Ostatnio dodane

Dołącz do nas

 


Jeśli chcesz otrzymywać ciekawe informacje o sztucznej inteligencji wypełnij formularz

AI Marketing - blog sztuczna inteligencja w biznesie i marketingu
AI Marketing - blog o sztucznej inteligencji

AI Marketing to specjalistyczny blog poświęcony zastosowaniom sztucznej inteligencji w biznesie i marketingu. Odkryj najnowsze trendy, analizy i innowacje w dziedzinie AI. Dowiedz się, jak technologia ta rewolucjonizuje świat biznesu i jak możesz ją wykorzystać w swojej firmie

zapisz sie na Newsletter

Jeśli chcesz otrzymywać ciekawe nowości o sztucznej inteligencji

0
Would love your thoughts, please comment.x