Całkiem mądry „Naiwny” Bayes. Felieton prof. Ryszarda Tadeusiewicza
Wśród wielu metod sztucznej inteligencji, których same nazwy raczej mogą przestraszyć mniej doświadczonego czytelnika (na przykład „konwolucyjne sieci głębokiego uczenia”) - pozytywnie wyróżnia się nazwa Naiwny Bayes. Nie wiem, jak Państwo sądzicie - ale dla mnie ma ona brzmienie sympatyczne, więc jak budowałem (jeszcze w latach 70.) pierwsze programy komputerowe, które miały wspomagać lekarzy w diagnozowaniu pewnych chorób (konkretnie neuroinfekcji), to właśnie użyłem metody Naiwnego Bayesa.
Na czym polega ta metoda?
Otóż mając komputerowo rozpoznać, jaka choroba Y dręczy diagnozowanego właśnie pacjenta - można najpierw skorzystać z wiedzy na temat tego, jak bardzo różne choroby są prawdopodobne. Na przykład jeśli pacjent uskarża się na dolegliwości górnych dróg oddechowych, to może to być zwykłe przeziębienie (Y1) albo pospolity katar (Y2), ale może to być także angina (Y3), grypa (Y4) albo COVID (Y5). Te prawdopodobieństwa a’priori oznaczamy jako p(Yj).
Trudniejsze do zdobycia są dane na temat rozkładu prawdopodobieństwa warunkowego występowania konkretnych symptomów Xi w grupie chorych na określoną chorobę Yj. Można na przykład zbadać, jak często u chorych na grypę Y4 występowała gorączka o wartości X1 między 36,6 i 37,5 stopnia, ilu miało temperaturę X2 od 37,5 do 38,5 stopnia, a u ilu wystąpiła temperatura jeszcze wyższa X3. Oczywiście badanych symptomów jest dużo i mogą być różne - inne dla zaburzeń trawienia, a inne dla chorób serca, więc takich rozkładów prawdopodobieństw też jest sporo. Ale jest to osiągalne.
Mając informacje na temat prawdopodobieństw a’priori poszczególnych chorób p(Yj) oraz prawdopodobieństw warunkowych występowania różnych symptomów Xi przy poszczególnych chorobach Yj p(Xi/Yi) możemy przystąpić do wyznaczenia tak zwanego prawdopodobieństwa a‘posteriori, czyli prawdopodobieństwa tego, że u danego pacjenta, którego symptomy ustaliliśmy, występuje taka a nie inna choroba Yi. Oczywiście robi się to dla każdej „podejrzewanej” choroby.
Nad tym, jak wywnioskować prawdopodobieństwo a’posteriori tego, że pacjent cierpi na chorobę Yj na podstawie prawdopodobieństw a’priori wszystkich rozważanych chorób oraz prawdopodobieństw warunkowych określonego symptomu Xi we wszystkich tych chorobach głowił się angielski matematyk Thomas Bayes. Głowił się aż do końca życia w 1761 roku, ale nie ośmielił się opublikować wyników swoich rozważań. Zrobił to po jego śmierci inny matematyk, Richard Price, publikując tak zwany wzór Bayesa.
W gazecie wzoru oczywiście przytoczyć nie mogę, ale można go znaleźć w Internecie. Jak się włoży trochę wysiłku to można zrozumieć, jak bardzo jest on sensowny i logiczny.
Ale dlaczego mówi się Naiwny Bayes?
Otóż naiwność wyraża się w przekonaniu, że poszczególne symptomy wykryte u pacjenta są całkiem niezależne. Wzór Bayesa pozwala ustalić prawdopodobieństwo występowania u pacjenta choroby Yj na podstawie wartości jednego symptomu Xi. Potem możemy ponownie zastosować wzór Bayesa i ustalić prawdopodobieństwo występowania tej samej choroby Yj na podstawie wartości innego symptomu Xk. Postępując tak ze wszystkimi symptomami i wszystkimi podejrzewanymi chorobami dostaniemy cały szereg przesłanek do decyzji - ale jeszcze nie decyzję jako taką.
Jeśli jednak założymy, że symptomy są statystycznie niezależne - to zgodnie z zasadami rachunku prawdopodobieństwa dla każdej choroby można pomnożyć przez siebie prawdopodobieństwa a’posteriori ustalone wcześniej dla poszczególnych symptomów.
Uzyskane wyniki są bardzo dobrą wskazówką na temat tego, na co cierpi badany pacjent - po prostu wskazujemy tę chorobę, dla której ten wynik mnożenia jest największy.
I to działa!