Sztuczna inteligencja łatwo „nasiąka” ludzkimi uprzedzeniami
Z coraz szerszym używaniem sztucznej inteligencji wiąże się korzystanie z uczenia maszynowego. To bardzo silny mechanizm służący do tworzenia inteligentnych programów przy niewielkim wysiłku. Stwierdzono jednak, że obok licznych zalet metody uczenia maszynowego mają niestety także wady.
Okazało się bowiem, że jeśli ludzie, na których działaniach programy sztucznej inteligencji się wzorują, mają uprzedzenia - to owe inteligentne programy „nasiąkną” tymi uprzedzeniami. W piśmiennictwie fachowym opisano wiele takich przypadków. Ja dla ilustracji przytoczę tylko trzy z nich.
Firma Amazon chcąc zobiektywizować system awansów zastosowała program sztucznej inteligencji do typowania pracowników, którzy powinni zostać przesunięci na wyższe stanowisko. Dbając jednak o ciągłość tradycji firmy, do uczenia algorytmów typowania pracowników do awansu użyto danych personalnych pracowników Amazona, zawierających między innymi informacje, kogo, kiedy i z jakim skutkiem awansowano.
Gdy program uruchomiono, okazało się, że zdecydowanie częściej wskazywał on do awansu mężczyzn niż kobiety, dlatego, że w przeszłości „rekruterzy” chętniej wybierali mężczyzn. Działało powszechne przekonanie, że do prac kierowniczych nadają się oni lepiej niż kobiety. Program sztucznej inteligencji nie otrzymywał wprawdzie informacji o płci kandydata, ale nauczył się, że pewne fakty, dotyczące edukacji, zainteresowań i doświadczeń zawodowych kandydata, silnie preferują go do awansu. Okazało się, że były to fakty zdecydowanie częściej występujące u mężczyzn. W ten sposób uprzedzenia dawniejszych rekruterów „nasączyły” uczący się algorytm sztucznej inteligencji i zaczął on wykazywać analogiczne preferencje!
Inny przykład „zarażenia” sztucznej inteligencji ludzkimi uprzedzeniami ujawnił się w programie COMPAS, który pomagał sędziom w wydawaniu postanowień o wcześniejszym warunkowym zwolnieniu z więzienia skazańców wykazujących się dobrym zachowaniem. W tym przypadku bazą, na której uczono algorytm sugerowania werdyktu „tak” albo „nie”, były wcześniejsze orzeczenia w setkach tysięcy podobnych spraw. Brano pod uwagę sytuację rodzinną i majątkową kandydata do zwolnienia, jego wykształcenie, wykonywany zawód, miejscowość, w której zamieszkiwał, opinie sąsiadów i dawnych współpracowników. Setki czynników! A okazało się, że system (który nie miał żadnych danych rasowych na temat kandydata!) zdecydowanie częściej rekomendował do zwolnienia więźniów białych niż kolorowych.
Zbadanie tego fenomenu przyniosło podobną konstatację, jak w opisanym wyżej przypadku awansów w Amazonie. Po prostu w większości decyzji podejmowanych wcześniej przez ludzi właśnie takie rasowe uprzedzenia wpływały na rozstrzygnięcie - więc sztuczna inteligencja, ucząc się na przykładach, „nasiąkała” tymi uprzedzeniami. Z wiadomym skutkiem...
Podane przykłady zdarzeń miały miejsce w USA. Europa ma jednak także swoją „czarną kartę” w obszarze decyzji podejmowanych przy użyciu programów sztucznej inteligencji nauczonych na przykładach zawierających uprzedzenia ludzi, którzy wcześniej podejmowali owe decyzje.
Holandia w latach 2012-2019 stosowała algorytm sztucznej inteligencji do wykrywania przypadków wyłudzania nienależnej pomocy socjalnej. Osoby wskazane przez komputer były zmuszane do zwrotu pobranych kwot i narażone na wysokie kary. Tymczasem okazało się, że program (wzorując się na wcześniejszych decyzjach urzędników, na bazie których się uczył) typował głównie osoby o obco brzmiących nazwiskach. Sprawą w 2021 roku zajął się rząd Holandii i na odszkodowania dla niesłusznie oskarżonych trzeba było przeznaczyć kwotę 500 mln euro. Zapłacili ludzie, a nie komputer...