Cyborgi, androidy i roboty można oglądać w całej swej okazałości na szklanym ekranie. Coraz śmielej roboty wkraczają też w nasze codzienne życie. Kto z nas nie myślał jakby to było gdyby maszyny te otaczały nas w codziennym życiu? Nie mówię teraz o konwencjonalnych systemach, które doskonale znamy, lecz właśnie o sztucznej inteligencji opartej na sieciach neuronowych, która tak nas fascynuje.
Sztuczna inteligencja a odpowiedzialność maszyn
W najnowszym numerze ICT Law Review (str. 68-70) napisałam felieton, w którym odpowiadam na pytanie czy moim zdaniem będzie można robotom przypisać jakąkolwiek odpowiedzialność.
Skomplikowane są pytania o możliwość przypisania ewentualnej odpowiedzialności maszynom, które samodzielnie będą przeprowadzać operacje, prowadzić samochody, sprzedawać towary w sklepie czy też pełnić rolę opiekunów osób starszych. To już nie jest odległa fantastyka. Internet Rzeczy jest realnym, namacalnym dowodem na to, że w ciągu kilkunastu – kilkudziesięcu lat będziemy korzystali z pomocy e-asystentów albo wręcz będziemy nijako od nich uzależnieni. Pytanie jednak na ile Ci asystenci będą samodzielnie myśleć i na ile będzie to właśnie silna sztuczna inteligencja? Tu mam jednak wątpliwości.
Silna czy słaba sztuczna inteligencja?
Rozwój cybernetyki zmierza w tym kierunku by rozwijać choćby takie projekty jak iCube (samodzielnie nauczył się patrzeć na świat z cudzej perspektywy na skutek obserwacji i wyciągania wniosków), ale w dalszym ciągu jest wielką niewiadomą co tak naprawdę osiągniemy.
Zakładając czysto hipotetycznie sytuację, w której można byłoby maszynie przypisać silną sztuczną inteligencję to byłaby to defacto żywa, świadoma swoich czynów istota (Ł. Bownik, Sieć Semantyczna. Reprezentacja i Logika, Katowice 2009, s.20.). I w tym miejscu chciałabym poznać Twoje zdanie.
Autor grafiki promującej wpis: Mikael Gustafsson