Czy robotom potrzebna jest moralność? Felieton prof. Ryszarda Tadeusiewicza
Budowane aktualnie maszyny wyposażane są w coraz większe zasoby inteligencji. Niektórych publicystów i polityków komentujących ten rozwój sztucznej inteligencji zaczyna już wręcz niepokoić. Wysuwane są kasandryczne przepowiednie, co nas czeka, gdy ciągle zwiększana inteligencja maszyn wyprzedzi w końcu inteligencję ludzką. Wypowiadałem się kilka razy na ten temat, więc nie będę po raz kolejny powtarzać wszystkich argumentów przeciw takim obawom. Powiem krótko, że choć moment, gdy maszyny staną się od nas mądrzejsze, musi nieuchronnie nadejść (wynika to z szybkości rozwoju sztucznej inteligencji), nie spowoduje to żadnego zagrożenia dla ludzi, bo maszyny nie mają żadnego powodu, żeby nam zagrażać. Nie konkuruje z nami o pożywienie, o mieszkanie albo o majątek - bo ich nie potrzebuje. Fundamentem sztucznej inteligencji jest logika. Czy ktoś może wskazać logiczny powód, dla którego roboty by miały zabijać ludzi?
Chcę natomiast zwrócić Państwa uwagę na zupełnie inny aspekt: robot przyszłości będzie musiał być wyposażony nie tylko w sztuczną inteligencję, ale także w sztuczną moralność.
Rozważmy robota domowego obsługującego osobę niepełnosprawną. W odróżnieniu od pracy w fabryce, gdzie wszystkie czynności podporządkowane są ściśle zdefiniowanemu celowi (produkcji), działań w warunkach domowych nie da się z góry zaplanować i zaprogramować. Oznacza to, że robot będzie musiał działać w dużej mierze jako system autonomiczny, sam podejmując decyzję, jaką czynność ma wykonać. Na pewno powinien wykonywać polecenia ludzi. To jednak nie wystarczy - bo nietrudno sobie wyobrazić sytuację, gdy schorowany, cierpiący człowiek postanowi odebrać sobie życie. Oczywiście nie zażąda, żeby robot go zabił, bo takiego rozkazu robot nie wykona. Ale może wydawać pozornie niegroźne polecenia, które robot powinien wykonywać, a które w efekcie tego człowieka zabiją. Na przykład, może zażądać wielu dawek leku, którego przedawkowanie powoduje śmierć. Czy robot powinien w takim przypadku odmówić?
Tu nie pomoże zaprogramowanie ścisłych reguł, bo niepodobna przewidzieć, co taki człowiek może zrobić. Działanie robota powinno więc wynikać z jego własnej decyzji, opartej na moralności.
I inny przykład, często przywoływany w dyskusjach. Mamy już auta, które mogą jeździć bez kierowcy. To także rodzaj robota, tylko na czterech kołach. Wyobraźmy sobie, że takie całkowicie zautomatyzowane auto pędzi drogą, na którą wbiega niespodziewanie grupa rozbawionych dzieci. Hamowanie nic nie da, bo dzieci są za blisko - komputer ustali to w ułamku sekundy. I robot musi zdecydować, czy „odbić” na lewy pas, powodując śmiertelne zderzenie czołowe z pędzącą po nim ciężarówką, czy wjechać w tę grupę dzieci, zabijając większość z nich. Innymi słowy - czy zabić pasażera kierowanego przez siebie samochodu, czy ludzi na drodze? Trzeciej możliwości nie ma, więc nawet największa inteligencja na nic się tu nie przyda. Pozostaje wybór mniejszego zła, wartościowany w kategoriach moralnych.
Człowiek mógłby działać odruchowo, ale robot musi podjąć decyzję. A w tym celu musi posiadać moralność!
Na marginesie tego ostatniego, dość często w różnych miejscach przywoływanego przykładu, warto dodać informację o ankiecie, jaką przeprowadzono, pytając różnych ludzi, jaką decyzję powinien podjąć robot w opisanej wyżej sytuacji?
Otóż większość pytanych wskazywała, że należy tak zaprogramować robota, żeby ratował dzieci kosztem życia swojego pasażera.
Ale zadano respondentom drugie pytanie:
- Czy chciałbyś jeździć samochodem kierowanym przez automat, który ma zaprogramowane, że w określonej okoliczności będzie musiał cię zabić? Nie było ani jednego chętnego...