Czy sztuczna inteligencja zniszczy Wikipedię?
Obecnie Wikipedia ma wersje w 334 językach i zawiera łącznie ponad 61 milionów artykułów. I wciąż się rozwija
Obecnie nie ma chyba człowieka, który by nie korzystał z Wikipedii. Ta ogromna skarbnica wiedzy wszelakiej jest wykorzystywana wyjątkowo często, bo zawiera informacje uporządkowane oraz lepiej czy gorzej sprawdzone. O początkach i metodach rozwoju Wikipedii pisałem we wcześniejszych felietonach (między innymi w tekście zatytułowanym „Wiki”, wydrukowanym w „Dzienniku Polskim” 24.07.2009 r., który jest dostępny w internecie), a ponadto można o tym przeczytać w wielu opracowaniach, więc do tego wracać tu nie warto. Aktualną zawartość Wikipedii i jej stałe wzbogacanie każdy może zaobserwować na co dzień, gdy z niej korzysta, więc na ten temat także nie zamierzam się rozpisywać. Odnotuję tylko, że obecnie Wikipedia ma wersje w 334 językach i zawiera łącznie ponad 61 milionów artykułów.
Wikipedia stale się rozwija - wyliczono, że jej redaktorzy, rozsiani po całym świecie, którzy nie pobierają żadnego wynagrodzenia za swoją pracę, wprowadzają do tego gigantycznego zasobu informacyjnego 345 zmian na minutę, przy czym ze względu na rozłożenie stref czasowych na całej kuli ziemskiej ten proces wzbogacania i doskonalenia trwa nieprzerwanie przez całą dobę.
Pojawił się jednak wątek jej przyszłości, a dokładniej zagrożenia jej egzystencji przez rozwój sztucznej inteligencji.
Mnóstwo ludzi skorzystało już z możliwości, jakie stwarza Chat GPT-4, więc wiedza o tym, że może on udzielać odpowiedzi na właściwie dowolne tematy, dotarła do wszystkich. Pojawił się więc pomysł, żeby tym narzędziem posłużyć się do wzbogacania zasobów Wikipedii - albo żeby rozmową z tym programem zastąpić mozolne wyszukiwali haseł zbliżających nas do odpowiedzi na pojawiające się pytania w Wikipedii właśnie (oraz w innych encyklopediach, których zawartość stała się ostatnio dostępna przez internet).
Taka podmiana Wikipedii przez Chat GPT-4 (i inne podobne systemy, bo obecnie jest ich dużo) jest jednak ryzykowna. W Wikipedii gromadzona wiedza jest analizowana i weryfikowana w procesie redagowania, który nie gwarantuje wprawdzie bezbłędności, ale prawdopodobieństwo błę-du redukuje do rozsądnego poziomu. Natomiast generatywna sztuczna inteligencja gromadzi informacje z zasobów danych, które przyswaja dość bezkrytycznie. Oczywiście wśród tych zasobów danych są między innymi artykuły pobrane z Wikipedii, ale oczekiwanie, że na podstawie tak zgromadzonych informacji będzie można Wikipedię rozszerzać i uzupełniać, jest równie nonsensowne jak oczekiwanie, że można siebie samego podnieść do góry, ciągnąc się za włosy.
Zagrożenie ze strony sztucznej inteligencji dla Wikipedii polega jednak głównie na wypieraniu obecnej praktyki sięgania przez użytkowników w razie potrzeby do jej zasobów (która powodują, że Wikipedia stale należy do pierwszej dziesiątki najczęściej odwiedzanych stron internetowych wraz z Google, YouTube i Facebook) przez pogawędki z Chat GPT lub inne podobne serwisy. Wikipedia wprawdzie korzyści z odwiedzin nie odnosi (jako jedyny z popularnych portali nie wpuszcza reklam do przedstawianych treści), ale jej misja, jaką w 2004 roku zdefiniował współzałożyciel Jimmy Wales: „Stworzenie świata, w którym każda osoba na planecie uzyska swobodny dostęp do sumy całej ludzkiej wiedzy”, zaczyna być wątpliwa.
A konkurencja wyrosła Wikipedii spora: Chat GPT jest najbardziej znany, ale funkcjonuje także Bing firmy Microsoft, Bard firmy Google i Erni firmy Baidu, a także korpus pytań i odpowiedzi Reddita.
Jednak jakość i wiarygodność zasobów informacyjnych zgromadzonych przez Wikipedię skłania raczej do przewidywania, że w przyszłości programy sztucznej inteligencji dostarczające informacje znaj-dą z nią formę obustronnie korzystnej symbiozy.