Co potrafi sztuczna inteligencja, każdy użytkownik internetu mógł się przekonać jesienią 2022 roku, gdy firma OpenAI uruchomiła ChatGPT, zdolny konwersować i odpowiadać na wszelkie pytania. Wkrótce na rynek trafiło oprogramowanie zdolne tworzyć grafiki, zdjęcia, a nawet filmy.

Okazało się, że narzędzia sztucznej inteligencji piszą artykuły, są przydatne w diagnozowaniu chorób, jako narzędzia analityczne trafniej przewidują w niejednym wypadku od ekspertów, chociażby w dziedzinie ekonomii, jednym słowem, w naprawdę wielu sferach mogą zastąpić człowieka.

Stało się jasne, że nowa technologia potrzebuje szybkich rozwiązań na polu etycznym. Zwłaszcza, jeśli znawcy tematu wieszczyli, z jakimi zagrożeniami wiąże się masowe korzystanie z rozwiązań z AI. I tu właśnie głos zabrał Kościół. O dziwo, bardzo merytoryczny, bardzo „na temat”, podając potrzebne rozwiązania.

Realistyczne podejście Kościoła do sztucznej inteligencji

Już Giovanni Tridente, dziennikarz i wykładowca na rzymskich uniwersytetach papieskich, który natychmiast wyspecjalizował się w dziedzinie AI, porównał sztuczną inteligencję do narzędzia, które można użyć w dobrym albo złym celu.

W ten sposób skrytykował zarówno podejście „alarmistyczne ostrzeżenie”, które widziało w AI zagrożenie, jak i „bezkrytyczny optymizm”, który w sztucznej inteligencji dostrzegł możliwość rozwiązania wszelkich problemów na niebie i na Ziemi. Podejście po środku, realistyczne, okazało się tym, które podjął cały Kościół.

Podejście realistyczne nie oznacza tylko pewnego rodzaju pogodzenia się z rzeczywistością: nie zatrzymamy rozwoju technologicznego, zwłaszcza takiego narzędzia jak AI. Realizm zakłada w sobie konieczność „etycznej sztucznej inteligencji”.

Już w grudniu 2023 roku papież Franciszek wezwał do zawarcia wiążącego międzynarodowego traktatu regulującego rozwój i postęp sztucznej inteligencji. Ostrzegał, że brak takiego porozumienia może prowadzić do „dyktatury technologicznej”.

Co to dokładnie oznacza, wyjaśniał – pochodzący już z 2020 roku – dokument Rome Calls for the Ethical AI. To przełomowy apel o etyczną sztuczną inteligencję, który podpisali Microsoft, IBM, agencja Organizacji Narodów Zjednoczonych do spraw Wyżywienia i Rolnictwa (FAO) oraz włoskie Ministerstwo Innowacji – a także Papieska Akademia Życia.

Sześć zasad. Kościół również się podpisał

Nakreślonych wtedy sześć zasad etycznych obowiązuje do dziś: przejrzystość (systemy AI muszą dla wszystkich być zrozumiałe), włączenie (wszystkie istoty ludzkie muszą być brane pod uwagę), odpowiedzialność i transparencja po stronie twórców, bezstronność, niezawodność (chodzi o działanie bezawaryjne, bez ryzyka wyrządzenia szkody), bezpieczeństwo i prywatność.

Zbliżamy się do zrozumienia, dlaczego to właśnie Franciszek mówił podczas G7 o sztucznej inteligencji. Bo Kościół w tej sprawie wypracował już wiele postulatów, znajdujących powszechną akceptację, na długo zanim użytkownicy na całym świecie zetknęli się z ChatemGPT.

Sztucznej inteligencji poświęcił też papież ostatnie orędzie na Światowy Dzień Pokoju (1 stycznia). Postawił pytanie np. o wyścig zbrojeń, w którym sztuczna inteligencja odgrywa coraz większą rolę.

– Czy przekujemy miecze na lemiesze? – pytał papież. Czy dzięki nowej technologii idziemy krok ku pokojowi czy krok ku wojnie?

To naprawdę kluczowa kwestia, bo wiemy przecież o tym, że skoro powstają autonomiczne samochody, które coraz więcej czynności wykonują za kierowcę i powstaje problem etyczny – kto bierze moralną odpowiedzialność za ewentualny wypadek – człowiek czy algorytm.

Tym bardziej zasadne jest pytanie o etykę w sytuacji technologii wojennej, której wewnętrzny algorytm będzie decydował o kwestiach życia i śmierci.

Takie systemy właśnie „prowadzą i będą coraz bardziej prowadzić wojny, będą decydować, że jakaś broń w sposób zaplanowany przez maszynę uderza w infrastrukturę albo bierze udział w zabijaniu”. Papież podkreśla, że ten udział ludzkiej decyzji jest niezbędny. Dodał też zdanie, które może stać się kluczem do podjęcia zagadnienia: serce człowieka może stać się sztuczne, jeśli odda pole sztucznej inteligencji.

Sztuczna inteligencja jako narzędzie i zagrożenie

Przemówienie, które papież wygłosił na forum G7 w Apulii w czerwcu, było zatem pewnego rodzaju podsumowaniem i streszczeniem tego wszystkiego, co Kościół wypracował w ciągu ostatnich lat, współpracując z włoskim rządem i międzynarodowymi instytucjami.

Była mowa i o wypracowaniu odpowiedniego podejścia do sztucznej inteligencji jako do narzędzia – narzędzia, które jak żadne inne będzie w stanie jednak komunikować się sama ze sobą, aby udoskonalać swoje „osiągnięcia”, co oznacza, że nie jesteśmy w stanie dziś przewidzieć, jak ostatecznie to narzędzie wygląda i zmieni nasze życie.

Mowa jest zatem o dobrym zaprogramowaniu i wykorzystaniu sztucznej inteligencji, co włącza konieczność stosowania zasad etycznych, które powinny stać u podstaw polityki tworzenia rozporządzania AI, a które na pierwszym miejscu powinny mieć człowieka i jego dobro. I o wyborach algorytmicznych, które nigdy nie powinny zastąpić wyborów, jakie powstają w sercach istot ludzkich.

Co najwyżej powinny być podpowiedzią, bo – jak pisze Franciszek – żadne narzędzie nie jest zdolne do podejmowania decyzji, tylko człowiek w swoim sercu.

W końcu mowa o problematyce wojennej – z jednej strony o niebezpiecznym wyścigu zbrojeń, który nie może prowadzić do pokoju, z drugiej – o sztucznej inteligencji, która prowadzi do niebezpieczeństwa kolejnego w tej wojennej grze, to znaczy do autonomicznego wyboru, który może wyrwać się ludziom spod kontroli i prowadzić do katastrofalnych zniszczeń i eskalacji. „Śmiercionośna broń autonomiczna” powinna być zakazana. „Żadna maszyna nie powinna nigdy decydować, czy odebrać życie istocie ludzkiej”.

„Tego maszyna nie jest w stanie wziąć pod uwagę”

Ale nie tylko w sztuce wojennej papież dostrzega zagrożenie wynikające z autonomii sztucznej inteligencji.

„Dobrym przykładem jest wykorzystanie programów zaprojektowanych, aby pomagać sędziom w podjęciu decyzji o przyznaniu aresztu domowego więźniom odbywającym karę w zakładzie karnym.

W tym przypadku wymaga się od sztucznej inteligencji przewidywania prawdopodobieństwa ponownego popełnienia przestępstwa przez skazanego, na podstawie wcześniej określonych kategorii (rodzaj przestępstwa, zachowanie w więzieniu, ocena psychologiczna i inne), pozwalając sztucznej inteligencji na dostęp do kategorii danych związanych z życiem prywatnym skazanego (pochodzenie etniczne, poziom wykształcenia, linia kredytowa i inne).

Korzystanie z takiej metodologii – która czasami grozi przekazaniem de facto maszynie ostatniego słowa w sprawie losu danej osoby – może domyślnie nieść ze sobą odniesienie do uprzedzeń, nieodłącznie związanych z kategoriami danych wykorzystywanych przez sztuczną inteligencję.

– Bycie zaklasyfikowanym do określonej grupy etnicznej lub, bardziej prozaicznie, popełnienie drobnego przestępstwa wiele lat wcześniej (niezapłacenie, na przykład, mandatu za nieprawidłowe parkowanie), w rzeczywistości wpłynie na decyzję o przyznaniu aresztu domowego – dodaje papież. I trudno się z tym nie zgodzić, bo wiele z tych intuicji w przeszłości podpowiadały filmy science fiction.  – Jednakże istota ludzka cały czas ewoluuje i potrafi zaskakiwać swoimi działaniami, czego maszyna nie jest w stanie wziąć pod uwagę.

Autor: Ks. dr Przemysław Śliwiński

Udział
© 2024 Wiadomości. Wszelkie prawa zastrzeżone.