Co potrafi sztuczna inteligencja, każdy użytkownik internetu mógł się przekonać jesienią 2022 roku, gdy firma OpenAI uruchomiła ChatGPT, zdolny konwersować i odpowiadać na wszelkie pytania. Wkrótce na rynek trafiło oprogramowanie zdolne tworzyć grafiki, zdjęcia, a nawet filmy.
Okazało się, że narzędzia sztucznej inteligencji piszą artykuły, są przydatne w diagnozowaniu chorób, jako narzędzia analityczne trafniej przewidują w niejednym wypadku od ekspertów, chociażby w dziedzinie ekonomii, jednym słowem, w naprawdę wielu sferach mogą zastąpić człowieka.
Stało się jasne, że nowa technologia potrzebuje szybkich rozwiązań na polu etycznym. Zwłaszcza, jeśli znawcy tematu wieszczyli, z jakimi zagrożeniami wiąże się masowe korzystanie z rozwiązań z AI. I tu właśnie głos zabrał Kościół. O dziwo, bardzo merytoryczny, bardzo „na temat”, podając potrzebne rozwiązania.
Realistyczne podejście Kościoła do sztucznej inteligencji
Już Giovanni Tridente, dziennikarz i wykładowca na rzymskich uniwersytetach papieskich, który natychmiast wyspecjalizował się w dziedzinie AI, porównał sztuczną inteligencję do narzędzia, które można użyć w dobrym albo złym celu.
W ten sposób skrytykował zarówno podejście „alarmistyczne ostrzeżenie”, które widziało w AI zagrożenie, jak i „bezkrytyczny optymizm”, który w sztucznej inteligencji dostrzegł możliwość rozwiązania wszelkich problemów na niebie i na Ziemi. Podejście po środku, realistyczne, okazało się tym, które podjął cały Kościół.
Podejście realistyczne nie oznacza tylko pewnego rodzaju pogodzenia się z rzeczywistością: nie zatrzymamy rozwoju technologicznego, zwłaszcza takiego narzędzia jak AI. Realizm zakłada w sobie konieczność „etycznej sztucznej inteligencji”.
Już w grudniu 2023 roku papież Franciszek wezwał do zawarcia wiążącego międzynarodowego traktatu regulującego rozwój i postęp sztucznej inteligencji. Ostrzegał, że brak takiego porozumienia może prowadzić do „dyktatury technologicznej”.
Co to dokładnie oznacza, wyjaśniał – pochodzący już z 2020 roku – dokument Rome Calls for the Ethical AI. To przełomowy apel o etyczną sztuczną inteligencję, który podpisali Microsoft, IBM, agencja Organizacji Narodów Zjednoczonych do spraw Wyżywienia i Rolnictwa (FAO) oraz włoskie Ministerstwo Innowacji – a także Papieska Akademia Życia.
Sześć zasad. Kościół również się podpisał
Nakreślonych wtedy sześć zasad etycznych obowiązuje do dziś: przejrzystość (systemy AI muszą dla wszystkich być zrozumiałe), włączenie (wszystkie istoty ludzkie muszą być brane pod uwagę), odpowiedzialność i transparencja po stronie twórców, bezstronność, niezawodność (chodzi o działanie bezawaryjne, bez ryzyka wyrządzenia szkody), bezpieczeństwo i prywatność.
Zbliżamy się do zrozumienia, dlaczego to właśnie Franciszek mówił podczas G7 o sztucznej inteligencji. Bo Kościół w tej sprawie wypracował już wiele postulatów, znajdujących powszechną akceptację, na długo zanim użytkownicy na całym świecie zetknęli się z ChatemGPT.
Sztucznej inteligencji poświęcił też papież ostatnie orędzie na Światowy Dzień Pokoju (1 stycznia). Postawił pytanie np. o wyścig zbrojeń, w którym sztuczna inteligencja odgrywa coraz większą rolę.
– Czy przekujemy miecze na lemiesze? – pytał papież. Czy dzięki nowej technologii idziemy krok ku pokojowi czy krok ku wojnie?
To naprawdę kluczowa kwestia, bo wiemy przecież o tym, że skoro powstają autonomiczne samochody, które coraz więcej czynności wykonują za kierowcę i powstaje problem etyczny – kto bierze moralną odpowiedzialność za ewentualny wypadek – człowiek czy algorytm.
Tym bardziej zasadne jest pytanie o etykę w sytuacji technologii wojennej, której wewnętrzny algorytm będzie decydował o kwestiach życia i śmierci.
Takie systemy właśnie „prowadzą i będą coraz bardziej prowadzić wojny, będą decydować, że jakaś broń w sposób zaplanowany przez maszynę uderza w infrastrukturę albo bierze udział w zabijaniu”. Papież podkreśla, że ten udział ludzkiej decyzji jest niezbędny. Dodał też zdanie, które może stać się kluczem do podjęcia zagadnienia: serce człowieka może stać się sztuczne, jeśli odda pole sztucznej inteligencji.
Sztuczna inteligencja jako narzędzie i zagrożenie
Przemówienie, które papież wygłosił na forum G7 w Apulii w czerwcu, było zatem pewnego rodzaju podsumowaniem i streszczeniem tego wszystkiego, co Kościół wypracował w ciągu ostatnich lat, współpracując z włoskim rządem i międzynarodowymi instytucjami.
Była mowa i o wypracowaniu odpowiedniego podejścia do sztucznej inteligencji jako do narzędzia – narzędzia, które jak żadne inne będzie w stanie jednak komunikować się sama ze sobą, aby udoskonalać swoje „osiągnięcia”, co oznacza, że nie jesteśmy w stanie dziś przewidzieć, jak ostatecznie to narzędzie wygląda i zmieni nasze życie.
Mowa jest zatem o dobrym zaprogramowaniu i wykorzystaniu sztucznej inteligencji, co włącza konieczność stosowania zasad etycznych, które powinny stać u podstaw polityki tworzenia rozporządzania AI, a które na pierwszym miejscu powinny mieć człowieka i jego dobro. I o wyborach algorytmicznych, które nigdy nie powinny zastąpić wyborów, jakie powstają w sercach istot ludzkich.
Co najwyżej powinny być podpowiedzią, bo – jak pisze Franciszek – żadne narzędzie nie jest zdolne do podejmowania decyzji, tylko człowiek w swoim sercu.
W końcu mowa o problematyce wojennej – z jednej strony o niebezpiecznym wyścigu zbrojeń, który nie może prowadzić do pokoju, z drugiej – o sztucznej inteligencji, która prowadzi do niebezpieczeństwa kolejnego w tej wojennej grze, to znaczy do autonomicznego wyboru, który może wyrwać się ludziom spod kontroli i prowadzić do katastrofalnych zniszczeń i eskalacji. „Śmiercionośna broń autonomiczna” powinna być zakazana. „Żadna maszyna nie powinna nigdy decydować, czy odebrać życie istocie ludzkiej”.
„Tego maszyna nie jest w stanie wziąć pod uwagę”
Ale nie tylko w sztuce wojennej papież dostrzega zagrożenie wynikające z autonomii sztucznej inteligencji.
„Dobrym przykładem jest wykorzystanie programów zaprojektowanych, aby pomagać sędziom w podjęciu decyzji o przyznaniu aresztu domowego więźniom odbywającym karę w zakładzie karnym.
W tym przypadku wymaga się od sztucznej inteligencji przewidywania prawdopodobieństwa ponownego popełnienia przestępstwa przez skazanego, na podstawie wcześniej określonych kategorii (rodzaj przestępstwa, zachowanie w więzieniu, ocena psychologiczna i inne), pozwalając sztucznej inteligencji na dostęp do kategorii danych związanych z życiem prywatnym skazanego (pochodzenie etniczne, poziom wykształcenia, linia kredytowa i inne).
Korzystanie z takiej metodologii – która czasami grozi przekazaniem de facto maszynie ostatniego słowa w sprawie losu danej osoby – może domyślnie nieść ze sobą odniesienie do uprzedzeń, nieodłącznie związanych z kategoriami danych wykorzystywanych przez sztuczną inteligencję.
– Bycie zaklasyfikowanym do określonej grupy etnicznej lub, bardziej prozaicznie, popełnienie drobnego przestępstwa wiele lat wcześniej (niezapłacenie, na przykład, mandatu za nieprawidłowe parkowanie), w rzeczywistości wpłynie na decyzję o przyznaniu aresztu domowego – dodaje papież. I trudno się z tym nie zgodzić, bo wiele z tych intuicji w przeszłości podpowiadały filmy science fiction. – Jednakże istota ludzka cały czas ewoluuje i potrafi zaskakiwać swoimi działaniami, czego maszyna nie jest w stanie wziąć pod uwagę.
Autor: Ks. dr Przemysław Śliwiński