75. Ponadto, wykorzystywanie sztucznej inteligencji do określania, kto powinien otrzymać leczenie w oparciu głównie o środki ekonomiczne lub wskaźniki wydajności, stanowi szczególnie problematyczny przykład „paradygmatu technokratycznego”, który należy odrzucić[140]. „Optymalizacja zasobów oznacza bowiem wykorzystywanie ich w sposób etyczny i braterski, a nie karanie najbardziej wrażliwych”[ 141]. „Ponadto narzędzia AI w opiece zdrowotnej są „narażone na formy uprzedzeń i dyskryminacji”, gdzie „błędy systemowe mogą się łatwo mnożyć, powodując nie tylko niesprawiedliwość w indywidualnych przypadkach, ale także, ze względu na efekt domina, rzeczywiste formy nierówności społecznej”[142]. 76.
76. Integracja sztucznej inteligencji z opieką zdrowotną stwarza również ryzyko pogłębienia innych istniejących dysproporcji w dostępie do opieki medycznej. Ponieważ opieka zdrowotna staje się coraz bardziej zorientowana na profilaktykę i podejście oparte na stylu życia, rozwiązania oparte na sztucznej inteligencji mogą nieumyślnie faworyzować bardziej zamożne populacje, które już cieszą się lepszym dostępem do zasobów medycznych i wysokiej jakości odżywiania. Tendencja ta grozi wzmocnieniem modelu „medycyny dla bogatych”, w którym osoby posiadające środki finansowe korzystają z zaawansowanych narzędzi profilaktycznych i spersonalizowanych informacji zdrowotnych, podczas gdy inni mają trudności z dostępem nawet do podstawowych usług. Aby zapobiec takim nierównościom, potrzebne są sprawiedliwe ramy, które zapewnią, że wykorzystanie sztucznej inteligencji w opiece zdrowotnej nie pogorszy istniejących nierówności w opiece zdrowotnej, ale raczej będzie służyć wspólnemu dobru.
Sztuczna inteligencja i edukacja
77. Słowa Soboru Watykańskiego II pozostają dziś w pełni aktualne: „Prawdziwa edukacja dąży do ukształtowania osób z myślą o ich ostatecznym celu i dobru społeczeństwa, do którego należą."[143] Jako taka, edukacja »nigdy nie jest zwykłym procesem przekazywania faktów i umiejętności intelektualnych: jej celem jest raczej przyczynienie się do całościowej formacji osoby w jej różnych aspektach (intelektualnym, kulturowym, duchowym itp.), w tym na przykład w życiu wspólnotowym i relacjach w społeczności akademickiej«[144], zgodnie z naturą i godnością osoby ludzkiej.
78. Podejście to obejmuje zaangażowanie w kultywowanie umysłu, ale zawsze jako część integralnego rozwoju osoby: „Musimy przełamać tę ideę edukacji, która utrzymuje, że edukacja oznacza napełnianie głowy ideami. W ten sposób kształcimy automaty, umysły mózgowe, a nie ludzi. Edukacja to podejmowanie ryzyka w napięciu między umysłem, sercem i rękami"[145].
79. W centrum tej pracy kształtowania całej ludzkiej osoby znajduje się niezbędna relacja między nauczycielem a uczniem. Nauczyciele robią więcej niż tylko przekazują wiedzę; modelują podstawowe ludzkie cechy i inspirują radość odkrywania[146]. Ich obecność motywuje uczniów zarówno poprzez treści, których uczą, jak i troskę, jaką okazują swoim uczniom. Ta więź sprzyja zaufaniu, wzajemnemu zrozumieniu i zdolności do zajęcia się wyjątkową godnością i potencjałem każdej osoby. Ze strony ucznia może to generować prawdziwe pragnienie rozwoju. Fizyczna obecność nauczyciela tworzy dynamikę relacji, której sztuczna inteligencja nie jest w stanie powtórzyć, a która pogłębia zaangażowanie i wspiera integralny rozwój ucznia.
80. W tym kontekście sztuczna inteligencja stwarza zarówno możliwości, jak i wyzwania. Jeśli jest używana w sposób rozważny, w kontekście istniejącej relacji nauczyciel-uczeń i uporządkowana zgodnie z autentycznymi celami edukacji, sztuczna inteligencja może stać się cennym zasobem edukacyjnym, zwiększając dostęp do edukacji, oferując dostosowane wsparcie i zapewniając uczniom natychmiastową informację zwrotną. Korzyści te mogą poprawić doświadczenie uczenia się, zwłaszcza w przypadkach, w których potrzebna jest zindywidualizowana uwaga lub zasoby edukacyjne są w inny sposób ograniczone.
81. Niemniej jednak istotną częścią edukacji jest kształtowanie „intelektu, aby dobrze rozumował we wszystkich sprawach, aby sięgał ku prawdzie i ją pojmował”[147], pomagając jednocześnie „językowi głowy” harmonijnie rozwijać się z „językiem serca” i „językiem rąk”[148]. Jest to tym bardziej istotne w epoce naznaczonej technologią, w której „nie chodzi już tylko o »używanie« narzędzi komunikacji, ale o życie w wysoce zdigitalizowanej kulturze, która wywarła głęboki wpływ na […] naszą zdolność do komunikowania się, uczenia się, bycia informowanym i wchodzenia w relacje z innymi”[ 149]. „Jednak zamiast wspierać „kultywowany intelekt”, który „wnosi ze sobą moc i wdzięk do każdej pracy i zawodu, którego się podejmuje”[150], szerokie wykorzystanie sztucznej inteligencji w edukacji może prowadzić do zwiększonej zależności uczniów od technologii, osłabiając ich zdolność do samodzielnego wykonywania niektórych umiejętności i pogarszając ich uzależnienie od ekranów[151]. 82.
82. Ponadto, podczas gdy niektóre systemy sztucznej inteligencji są zaprojektowane tak, aby pomóc ludziom rozwijać ich zdolności krytycznego myślenia i umiejętności rozwiązywania problemów, wiele innych jedynie dostarcza odpowiedzi, zamiast zachęcać uczniów do samodzielnego dochodzenia do odpowiedzi lub samodzielnego pisania tekstu. Zamiast szkolić młodych ludzi, jak gromadzić informacje i generować szybkie odpowiedzi, edukacja powinna zachęcać do „odpowiedzialnego korzystania z wolności, aby stawić czoła problemom z rozsądkiem i inteligencją.”[153] Opierając się na tym, „edukacja w zakresie korzystania z form sztucznej inteligencji powinna mieć na celu przede wszystkim promowanie krytycznego myślenia. Użytkownicy w każdym wieku, a w szczególności młodzież, muszą wypracować wnikliwe podejście do korzystania z danych i treści gromadzonych w sieci lub tworzonych przez systemy sztucznej inteligencji. Szkoły, uniwersytety i towarzystwa naukowe stoją przed wyzwaniem pomagania studentom i profesjonalistom w zrozumieniu społecznych i etycznych aspektów rozwoju i wykorzystania technologii"[154].
83. Jak przypomniał św. Jan Paweł II, „w dzisiejszym świecie, charakteryzującym się tak szybkim rozwojem nauki i technologii, zadania uniwersytetu katolickiego nabierają coraz większego znaczenia i pilności.”[155] W szczególny sposób uniwersytety katolickie są wezwane do bycia obecnymi jako wielkie laboratoria nadziei na tym skrzyżowaniu historii. W kluczu interdyscyplinarnym i interdyscyplinarnym zachęca się je do angażowania się „z mądrością i kreatywnością”[156] w staranne badania nad tym zjawiskiem, pomagając wydobyć zbawienny potencjał w różnych dziedzinach nauki i rzeczywistości oraz kierując je zawsze w stronę etycznie uzasadnionych zastosowań, które wyraźnie służą spójności naszych społeczeństw i dobru wspólnemu, osiągając nowe granice w dialogu między wiarą a rozumem.
84. Co więcej, należy zauważyć, że obecne programy AI są znane z dostarczania stronniczych lub sfabrykowanych informacji, co może prowadzić uczniów do zaufania niedokładnym treściom. Problem ten „nie tylko stwarza ryzyko legitymizacji fałszywych wiadomości i wzmocnienia przewagi dominującej kultury, ale także, krótko mówiąc, podważa sam proces edukacyjny.”[157] Z czasem może pojawić się wyraźniejsze rozróżnienie między właściwym i niewłaściwym wykorzystaniem sztucznej inteligencji w edukacji i badaniach. Jednak decydującą wytyczną jest to, że wykorzystanie sztucznej inteligencji powinno być zawsze przejrzyste i nigdy nie powinno być wprowadzane w błąd.
Sztuczna inteligencja, dezinformacja, fałszerstwa i nadużycia
85. Sztuczna inteligencja może być wykorzystywana jako pomoc dla ludzkiej godności, jeśli pomaga ludziom zrozumieć złożone koncepcje lub kieruje ich do solidnych zasobów, które wspierają ich poszukiwanie prawdy[158].
86. Sztuczna inteligencja stwarza jednak również poważne ryzyko generowania zmanipulowanych treści i fałszywych informacji, które mogą łatwo wprowadzać ludzi w błąd ze względu na ich podobieństwo do prawdy. Takie dezinformacje mogą pojawić się nieumyślnie, jak w przypadku „halucynacji” AI, gdzie generatywny system AI daje wyniki, które wydają się prawdziwe, ale nie są. Ponieważ generowanie treści naśladujących ludzkie artefakty ma kluczowe znaczenie dla funkcjonalności sztucznej inteligencji, ograniczenie tego ryzyka okazuje się wyzwaniem. Jednak konsekwencje takich aberracji i fałszywych informacji mogą być dość poważne. Z tego powodu wszystkie osoby zaangażowane w tworzenie i wykorzystywanie systemów sztucznej inteligencji powinny być zaangażowane w prawdziwość i dokładność informacji przetwarzanych przez takie systemy i rozpowszechnianych publicznie.
87. Podczas gdy sztuczna inteligencja ma ukryty potencjał do generowania fałszywych informacji, jeszcze bardziej niepokojącym problemem jest celowe nadużywanie sztucznej inteligencji do manipulacji. Może to mieć miejsce, gdy osoby lub organizacje celowo generują i rozpowszechniają fałszywe treści w celu oszukania lub wyrządzenia szkody, takie jak „deepfake” obrazy, filmy i audio - odnoszące się do fałszywego przedstawienia osoby, edytowane lub generowane przez algorytm AI. Niebezpieczeństwo związane z deepfake’ami jest szczególnie widoczne, gdy są one wykorzystywane do atakowania lub krzywdzenia innych. Podczas gdy same obrazy lub filmy mogą być sztuczne, szkody, które powodują, są prawdziwe, pozostawiając „głębokie blizny w sercach tych, którzy cierpią” i „prawdziwe rany w ich ludzkiej godności”[159].
88. W szerszej skali, zniekształcając „nasze relacje z innymi i z rzeczywistością”[160], generowane przez sztuczną inteligencję fałszywe media mogą stopniowo podważać fundamenty społeczeństwa. Kwestia ta wymaga starannej regulacji, ponieważ dezinformacja - zwłaszcza za pośrednictwem mediów kontrolowanych przez sztuczną inteligencję lub pozostających pod jej wpływem - może rozprzestrzeniać się w sposób niezamierzony, podsycając polaryzację polityczną i niepokoje społeczne. Kiedy społeczeństwo staje się obojętne na prawdę, różne grupy konstruują własne wersje „faktów”, osłabiając „wzajemne więzi i wzajemne zależności”[161], które stanowią podstawę tkanki życia społecznego. Ponieważ deepfakes sprawiają, że ludzie kwestionują wszystko, a generowane przez sztuczną inteligencję fałszywe treści podważają zaufanie do tego, co widzą i słyszą, polaryzacja i konflikt będą tylko rosły. Takie powszechne oszustwo nie jest błahą sprawą; uderza w rdzeń ludzkości, demontując fundamentalne zaufanie, na którym zbudowane są społeczeństwa[162].
89. Przeciwdziałanie kłamstwom opartym na sztucznej inteligencji to nie tylko praca ekspertów branżowych - wymaga ona wysiłków wszystkich ludzi dobrej woli. „Jeśli technologia ma służyć ludzkiej godności, a nie jej szkodzić, i jeśli ma promować pokój, a nie przemoc, to społeczność ludzka musi być proaktywna w radzeniu sobie z tymi trendami z poszanowaniem ludzkiej godności i promowaniem dobra"[163]. „Ci, którzy tworzą i udostępniają treści generowane przez sztuczną inteligencję, powinni zawsze dokładać wszelkich starań, aby zweryfikować prawdziwość tego, co rozpowszechniają, i we wszystkich przypadkach powinni „unikać dzielenia się słowami i obrazami, które poniżają istoty ludzkie, które promują nienawiść i nietolerancję, które poniżają dobroć i intymność ludzkiej seksualności lub które wykorzystują słabych i bezbronnych.”[164] Wymaga to ciągłej rozwagi i starannego rozeznania wszystkich użytkowników w zakresie ich aktywności w Internecie[165].
Sztuczna inteligencja, prywatność i inwigilacja
90. Ludzie są z natury relacyjni, a dane generowane przez każdą osobę w świecie cyfrowym mogą być postrzegane jako zobiektywizowany wyraz tej relacyjnej natury. Dane przekazują nie tylko informacje, ale także wiedzę osobistą i relacyjną, co w coraz bardziej zdigitalizowanym kontekście może oznaczać władzę nad jednostką. Co więcej, podczas gdy niektóre rodzaje danych mogą odnosić się do publicznych aspektów życia danej osoby, inne mogą dotykać jej wnętrza, a może nawet sumienia. Postrzegana w ten sposób, prywatność odgrywa istotną rolę w ochronie granic życia wewnętrznego danej osoby, zachowując jej wolność do nawiązywania relacji z innymi, wyrażania siebie i podejmowania decyzji bez nadmiernej kontroli. Ochrona ta jest również powiązana z obroną wolności religijnej, ponieważ inwigilacja może być również nadużywana do sprawowania kontroli nad życiem wierzących i sposobem, w jaki wyrażają swoją wiarę.
91. Właściwe jest zatem zajęcie się kwestią prywatności z troski o uzasadnioną wolność i niezbywalną godność osoby ludzkiej „we wszystkich okolicznościach”[166]. Sobór Watykański II włączył prawo „do ochrony prywatności” do praw podstawowych „niezbędnych do życia prawdziwie ludzkiego”, które powinno być rozszerzone na wszystkich ludzi ze względu na ich „wzniosłą godność”[ 167]. „Co więcej, Kościół potwierdził również prawo do uzasadnionego poszanowania życia prywatnego w kontekście potwierdzenia prawa osoby do dobrej reputacji, obrony jej integralności fizycznej i psychicznej oraz wolności od krzywdy lub nieuzasadnionej ingerencji[168]- istotnych elementów należnego poszanowania wewnętrznej godności osoby ludzkiej[169]. 92.
92. Postępy w przetwarzaniu i analizie danych opartych na sztucznej inteligencji umożliwiają obecnie wnioskowanie o wzorcach w zachowaniu i myśleniu danej osoby na podstawie nawet niewielkiej ilości informacji, co sprawia, że rola prywatności danych jest jeszcze bardziej niezbędna jako ochrona godności i relacyjnego charakteru osoby ludzkiej. Jak zauważył papież Franciszek, „podczas gdy postawy zamknięcia i nietolerancji wobec innych rosną, odległości kurczą się lub zanikają do tego stopnia, że prawo do prywatności prawie nie istnieje. Wszystko stało się rodzajem spektaklu, który należy zbadać i skontrolować, a życie ludzi jest obecnie pod stałym nadzorem"[170].
93. Podczas gdy istnieją uzasadnione i właściwe sposoby wykorzystania sztucznej inteligencji zgodnie z ludzką godnością i wspólnym dobrem, wykorzystywanie jej do nadzoru mającego na celu wykorzystywanie, ograniczanie wolności innych lub przynoszenie korzyści nielicznym kosztem wielu jest nieuzasadnione. Ryzyko nadmiernego nadzoru musi być monitorowane przez odpowiednie organy regulacyjne, aby zapewnić przejrzystość i odpowiedzialność publiczną. Osoby odpowiedzialne za inwigilację nigdy nie powinny przekraczać swoich uprawnień, które zawsze muszą sprzyjać godności i wolności każdej osoby jako zasadniczej podstawie sprawiedliwego i humanitarnego społeczeństwa.
94. Co więcej, „fundamentalny szacunek dla ludzkiej godności wymaga, abyśmy nie pozwolili na identyfikację wyjątkowości osoby z zestawem danych.”[171] Dotyczy to zwłaszcza sytuacji, gdy sztuczna inteligencja jest wykorzystywana do oceny osób lub grup w oparciu o ich zachowanie, cechy lub historię - praktyka znana jako „scoring społeczny”: „W podejmowaniu decyzji społecznych i gospodarczych powinniśmy być ostrożni w przekazywaniu osądów algorytmom, które przetwarzają dane, często gromadzone potajemnie, dotyczące wyglądu i wcześniejszych zachowań danej osoby. Takie dane mogą być skażone społecznymi uprzedzeniami i uprzedzeniami. Wcześniejsze zachowanie danej osoby nie powinno być wykorzystywane do odmawiania jej możliwości zmiany, rozwoju i wniesienia wkładu w społeczeństwo. Nie możemy pozwolić, aby algorytmy ograniczały lub warunkowały poszanowanie ludzkiej godności lub wykluczały współczucie, miłosierdzie, przebaczenie, a przede wszystkim nadzieję, że ludzie są w stanie się zmienić"[172].
Sztuczna inteligencja i ochrona naszego wspólnego domu
95. Sztuczna inteligencja ma wiele obiecujących zastosowań w celu poprawy naszych relacji z naszym „wspólnym domem”, takich jak tworzenie modeli prognozowania ekstremalnych zjawisk klimatycznych, proponowanie rozwiązań inżynieryjnych w celu zmniejszenia ich wpływu, zarządzanie operacjami pomocowymi i przewidywanie zmian populacji[173]. Ponadto sztuczna inteligencja może wspierać zrównoważone rolnictwo, optymalizować zużycie energii i zapewniać systemy wczesnego ostrzegania w sytuacjach zagrożenia zdrowia publicznego. Postępy te mogą potencjalnie wzmocnić odporność na wyzwania związane z klimatem i promować bardziej zrównoważony rozwój.
96. Jednocześnie obecne modele sztucznej inteligencji i sprzęt wymagany do ich obsługi zużywają ogromne ilości energii i wody, znacząco przyczyniając się do emisjiCO2 i obciążając zasoby. Rzeczywistość ta jest często zaciemniana przez sposób, w jaki technologia ta jest przedstawiana w popularnej wyobraźni, gdzie słowa takie jak „chmura” [174] mogą sprawiać wrażenie, że dane są przechowywane i przetwarzane w niematerialnej sferze, oderwanej od świata fizycznego. Jednak „chmura” nie jest eteryczną domeną oddzieloną od świata fizycznego; podobnie jak wszystkie technologie obliczeniowe, opiera się na fizycznych maszynach, kablach i energii. To samo dotyczy technologii stojącej za sztuczną inteligencją. Wraz ze wzrostem złożoności tych systemów, zwłaszcza dużych modeli językowych (LLM), wymagają one coraz większych zbiorów danych, zwiększonej mocy obliczeniowej i większej infrastruktury pamięci masowej. Biorąc pod uwagę, jak duży wpływ mają te technologie na środowisko, konieczne jest opracowanie zrównoważonych rozwiązań, które zmniejszą ich wpływ na nasz wspólny dom.
97. Nawet wtedy, jak naucza papież Franciszek, istotne jest, „abyśmy szukali rozwiązań nie tylko w technologii, ale w zmianie człowieczeństwa.”[175] Pełne i autentyczne zrozumienie stworzenia uznaje, że wartość wszystkich stworzonych rzeczy nie może być zredukowana do ich zwykłej użyteczności. Dlatego w pełni ludzkie podejście do zarządzania ziemią odrzuca zniekształcony antropocentryzm paradygmatu technokratycznego, który dąży do „wydobycia ze świata wszystkiego, co możliwe” [176] i odrzuca „mit postępu”, który zakłada, że „problemy ekologiczne rozwiążą się same dzięki zastosowaniu nowych technologii i bez potrzeby rozważań etycznych lub głębokich zmian.”[177] Taki sposób myślenia musi ustąpić miejsca bardziej holistycznemu podejściu, które szanuje porządek stworzenia i promuje integralne dobro osoby ludzkiej, jednocześnie chroniąc nasz wspólny dom[178]. [178]
Sztuczna inteligencja i działania wojenne
98. Sobór Watykański II i konsekwentne nauczanie papieży od tego czasu podkreślają, że pokój nie jest jedynie brakiem wojny i nie ogranicza się do utrzymania równowagi sił między przeciwnikami. Augustyna, pokój jest „spokojem porządku”[179]. Rzeczywiście, pokoju nie można osiągnąć bez ochrony dóbr osób, swobodnej komunikacji, poszanowania godności osób i narodów oraz wytrwałego praktykowania braterstwa. Pokój jest dziełem sprawiedliwości i skutkiem miłości i nie może być osiągnięty jedynie przy użyciu siły, ale musi być przede wszystkim budowany poprzez cierpliwą dyplomację, aktywną promocję sprawiedliwości, solidarności, integralnego rozwoju ludzkiego i poszanowania godności wszystkich ludzi[180]. W ten sposób narzędzia używane do utrzymania pokoju nigdy nie powinny usprawiedliwiać niesprawiedliwości, przemocy lub ucisku. Zamiast tego, powinny być zawsze kierowane przez „zdecydowaną determinację, aby szanować innych ludzi i narody, wraz z ich godnością, a także świadomą praktyką braterstwa”[181].
99. Podczas gdy zdolności analityczne AI mogą pomóc narodom w dążeniu do pokoju i zapewnieniu bezpieczeństwa, „uzbrojenie sztucznej inteligencji” może być również bardzo problematyczne. Papież Franciszek zauważył, że „zdolność do prowadzenia operacji wojskowych za pomocą systemów zdalnego sterowania doprowadziła do mniejszego postrzegania zniszczeń spowodowanych przez te systemy uzbrojenia i ciężaru odpowiedzialności za ich użycie, co skutkuje jeszcze bardziej zimnym i oderwanym podejściem do ogromnej tragedii wojny”[182]. „Co więcej, łatwość, z jaką autonomiczna broń czyni wojnę bardziej realną, stoi w sprzeczności z zasadą wojny jako ostateczności w uzasadnionej samoobronie,[183] potencjalnie zwiększając narzędzia wojny daleko poza zakres ludzkiego nadzoru i przyspieszając destabilizujący wyścig zbrojeń, z katastrofalnymi konsekwencjami dla praw człowieka[184]. 100.
100. W szczególności śmiercionośne autonomiczne systemy uzbrojenia, które są w stanie identyfikować i uderzać w cele bez bezpośredniej interwencji człowieka, są „powodem do poważnych obaw etycznych”, ponieważ brakuje im „wyjątkowej ludzkiej zdolności do moralnego osądu i etycznego podejmowania decyzji.”[185] Z tego powodu papież Franciszek pilnie wezwał do ponownego rozważenia rozwoju tej broni i zakazu jej używania, zaczynając od „skutecznego i konkretnego zobowiązania do wprowadzenia coraz większej i właściwej ludzkiej kontroli. Żadna maszyna nie powinna nigdy decydować się na odebranie życia człowiekowi"[186].
101. Ponieważ jest to mały krok od maszyn, które mogą zabijać autonomicznie z precyzją, do tych zdolnych do zniszczenia na dużą skalę, niektórzy badacze AI wyrazili obawy, że taka technologia stanowi „ryzyko egzystencjalne”, ponieważ ma potencjał do działania w sposób, który może zagrozić przetrwaniu całych regionów, a nawet samej ludzkości. Niebezpieczeństwo to wymaga poważnej uwagi, odzwierciedlając długotrwałe obawy dotyczące technologii, które nadają wojnie „niekontrolowaną niszczycielską moc nad wielką liczbą niewinnych cywilów”[187], nie oszczędzając nawet dzieci. W tym kontekście wezwanie Gaudium et spes do „podjęcia oceny wojny z całkowicie nowym nastawieniem”[188 ] jest pilniejsze niż kiedykolwiek.
102. Jednocześnie, podczas gdy teoretyczne zagrożenia związane ze sztuczną inteligencją zasługują na uwagę, bardziej bezpośrednie i naglące obawy dotyczą tego, w jaki sposób jednostki o złych intencjach mogą nadużywać tej technologii[189]. Jak każde narzędzie, sztuczna inteligencja jest przedłużeniem ludzkiej władzy i chociaż jej przyszłe możliwości są nieprzewidywalne, przeszłe działania ludzkości dostarczają wyraźnych ostrzeżeń. Okrucieństwa popełnione na przestrzeni dziejów są wystarczającym powodem do głębokiego zaniepokojenia potencjalnymi nadużyciami sztucznej inteligencji.
103. Święty Jan Paweł II zauważył, że „ludzkość dysponuje obecnie narzędziami o bezprecedensowej mocy: możemy przekształcić ten świat w ogród lub zredukować go do kupy gruzów.”[190] Biorąc pod uwagę ten fakt, Kościół przypomina nam, słowami papieża Franciszka, że „mamy swobodę stosowania naszej inteligencji w kierunku rzeczy rozwijających się pozytywnie” lub w kierunku „dekadencji i wzajemnego zniszczenia.”[191] Aby zapobiec samozniszczeniu ludzkości,[192] musi istnieć wyraźne stanowisko przeciwko wszelkim zastosowaniom technologii, które z natury zagrażają ludzkiemu życiu i godności. Zobowiązanie to wymaga starannego rozeznania w zakresie wykorzystania sztucznej inteligencji, zwłaszcza w zastosowaniach wojskowych, aby zapewnić, że zawsze szanuje ona ludzką godność i służy wspólnemu dobru. Rozwój i wdrażanie sztucznej inteligencji w zbrojeniach powinno podlegać najwyższemu poziomowi kontroli etycznej, kierowanej troską o ludzką godność i świętość życia[193].
Sztuczna inteligencja i nasza relacja z Bogiem
104. Technologia oferuje niezwykłe narzędzia do nadzorowania i rozwijania światowych zasobów. Jednak w niektórych przypadkach ludzkość coraz częściej oddaje kontrolę nad tymi zasobami maszynom. W niektórych kręgach naukowców i futurystów panuje optymizm co do potencjału sztucznej inteligencji (AGI), hipotetycznej formy sztucznej inteligencji, która dorówna lub przewyższy ludzką inteligencję i przyniesie niewyobrażalny postęp. Niektórzy spekulują nawet, że AGI mogłaby osiągnąć nadludzkie zdolności. W tym samym czasie, gdy społeczeństwo oddala się od związku z transcendencją, niektórzy są kuszeni, by zwrócić się do AI w poszukiwaniu sensu lub spełnienia - pragnień, które mogą być naprawdę zaspokojone tylko w komunii z Bogiem[194].
105. Jednak założenie zastąpienia Boga artefaktem stworzonym przez człowieka jest bałwochwalstwem, przed którym Pismo Święte wyraźnie ostrzega (np. Wj 20:4; 32:1-5; 34:17). Co więcej, sztuczna inteligencja może okazać się jeszcze bardziej uwodzicielska niż tradycyjne bożki, ponieważ w przeciwieństwie do bożków, które „mają usta, ale nie mówią; oczy, ale nie widzą; uszy, ale nie słyszą” (Ps. 115: 5-6), sztuczna inteligencja może „mówić” lub przynajmniej daje złudzenie, że to robi (por. Obj. 13:15). Należy jednak pamiętać, że sztuczna inteligencja jest jedynie bladym odbiciem człowieka - jest tworzona przez ludzkie umysły, szkolona na materiałach generowanych przez ludzi, reaguje na ludzki wkład i jest utrzymywana dzięki ludzkiej pracy. Sztuczna inteligencja nie może posiadać wielu zdolności charakterystycznych dla ludzkiego życia, a także jest omylna. Zwracając się do SI jako postrzeganego „Innego” większego od siebie, z którym można dzielić egzystencję i obowiązki, ludzkość ryzykuje stworzenie substytutu Boga. Jednak to nie SI jest ostatecznie deifikowana i czczona, ale sama ludzkość, która w ten sposób staje się niewolnikiem własnej pracy[195].
106. Chociaż sztuczna inteligencja ma potencjał, by służyć ludzkości i przyczyniać się do wspólnego dobra, pozostaje ona dziełem ludzkich rąk, noszącym „piętno ludzkiej sztuki i pomysłowości” (Dz 17:29). Nigdy nie należy przypisywać jej nadmiernej wartości. Jak potwierdza Księga Mądrości: „Uczynił je bowiem człowiek, a ten, którego duch jest pożyczony, ukształtował je; bo żaden człowiek nie może stworzyć boga, który byłby podobny do niego samego. Jest on śmiertelny, a to, co czyni bezprawnymi rękami, jest martwe, ponieważ jest lepszy od przedmiotów, które czci, ponieważ ma życie, ale one nigdy nie mają” (Wis. 15:16-17).
107. W przeciwieństwie do tego, istoty ludzkie, „poprzez swoje życie wewnętrzne, przekraczają cały materialny wszechświat; doświadczają tej głębokiej wewnętrzności, gdy wchodzą do własnego serca, gdzie czeka na nich Bóg, który bada serce, i gdzie decydują o swoim przeznaczeniu w oczach Boga.”[196] To właśnie w sercu, jak przypomina nam papież Franciszek, każda osoba odkrywa „tajemniczy związek między samopoznaniem a otwartością na innych, między spotkaniem z osobistą wyjątkowością a gotowością oddania się innym”[197]. Dlatego tylko serce jest „zdolne do ustawienia innych naszych władz i namiętności, a także całej naszej osoby, w postawie czci i miłującego posłuszeństwa wobec Pana”[198], który „oferuje traktowanie każdego z nas jako »Ty«, zawsze i na zawsze”[199].
VI. Refleksje końcowe
108. Biorąc pod uwagę różne wyzwania związane z postępem technologicznym, papież Franciszek podkreślił potrzebę wzrostu „ludzkiej odpowiedzialności, wartości i sumienia”, proporcjonalnie do wzrostu potencjału, jaki niesie ze sobą ta technologia[200]- uznając, że „wraz ze wzrostem ludzkiej potęgi wzrasta odpowiedzialność jednostek i społeczności”[201].
109. Jednocześnie pozostaje „zasadnicze i fundamentalne pytanie”, „czy w kontekście tego postępu człowiek, jako człowiek, staje się rzeczywiście lepszy, to znaczy bardziej dojrzały duchowo, bardziej świadomy godności swojego człowieczeństwa, bardziej odpowiedzialny, bardziej otwarty na innych, zwłaszcza najbardziej potrzebujących i najsłabszych, i bardziej gotowy do dawania i pomagania wszystkim”[202]. 110.
110. W związku z tym kluczowe jest, aby wiedzieć, jak ocenić poszczególne zastosowania sztucznej inteligencji w określonych kontekstach, aby określić, czy jej wykorzystanie promuje godność ludzką, powołanie osoby ludzkiej i dobro wspólne. Podobnie jak w przypadku wielu technologii, skutki różnych zastosowań sztucznej inteligencji nie zawsze mogą być przewidywalne od samego początku. W miarę jak te zastosowania i ich wpływ społeczny stają się coraz jaśniejsze, odpowiednie reakcje powinny być podejmowane na wszystkich poziomach społeczeństwa, zgodnie z zasadą pomocniczości. Indywidualni użytkownicy, rodziny, społeczeństwo obywatelskie, korporacje, instytucje, rządy i organizacje międzynarodowe powinny pracować na odpowiednich poziomach, aby zapewnić, że sztuczna inteligencja jest wykorzystywana dla dobra wszystkich.
111. Istotnym wyzwaniem i szansą dla dobra wspólnego jest dziś rozważanie sztucznej inteligencji w ramach inteligencji relacyjnej, która podkreśla wzajemne powiązania jednostek i społeczności oraz podkreśla naszą wspólną odpowiedzialność za wspieranie integralnego dobrobytu innych. Dwudziestowieczny filozof Mikołaj Bierdiajew zauważył, że ludzie często obwiniają maszyny za problemy osobiste i społeczne, jednak „to tylko poniża człowieka i nie odpowiada jego godności”, ponieważ „niegodne jest przenoszenie odpowiedzialności z człowieka na maszynę.”[203] Tylko osoba ludzka może być moralnie odpowiedzialna, a wyzwania społeczeństwa technologicznego mają ostatecznie charakter duchowy. Dlatego stawienie czoła tym wyzwaniom „wymaga intensyfikacji duchowości”[204].
112. Kolejną kwestią do rozważenia jest wezwanie, wywołane pojawieniem się sztucznej inteligencji na światowej scenie, do ponownego docenienia wszystkiego, co ludzkie. Wiele lat temu francuski pisarz katolicki Georges Bernanos ostrzegał, że „niebezpieczeństwo nie tkwi w mnożeniu się maszyn, ale w stale rosnącej liczbie ludzi przyzwyczajonych od dzieciństwa do pragnienia tylko tego, co mogą dać maszyny.”[205] To wyzwanie jest dziś tak samo prawdziwe, jak wtedy, ponieważ szybkie tempo cyfryzacji grozi „cyfrowym redukcjonizmem”, w którym niewymierne aspekty życia są odkładane na bok, a następnie zapominane lub nawet uznawane za nieistotne, ponieważ nie można ich obliczyć w kategoriach formalnych. Sztuczna inteligencja powinna być wykorzystywana jedynie jako narzędzie uzupełniające ludzką inteligencję, a nie zastępujące jej bogactwo[206]. Kultywowanie tych aspektów ludzkiego życia, które wykraczają poza obliczenia, ma kluczowe znaczenie dla zachowania „autentycznego człowieczeństwa”, które „wydaje się mieszkać pośród naszej kultury technologicznej, prawie niezauważone, jak mgła sącząca się delikatnie pod zamkniętymi drzwiami”[207].
Prawdziwa mądrość
113. Ogromna przestrzeń światowej wiedzy jest teraz dostępna w sposób, który wzbudziłby podziw wśród poprzednich pokoleń. Jednakże, aby postęp w wiedzy nie stał się jałowy pod względem ludzkim lub duchowym, należy wyjść poza zwykłe gromadzenie danych i dążyć do osiągnięcia prawdziwej mądrości[208].
114. Mądrość ta jest darem, którego ludzkość najbardziej potrzebuje, aby odpowiedzieć na głębokie pytania i wyzwania etyczne stawiane przez sztuczną inteligencję: „Tylko poprzez przyjęcie duchowego sposobu postrzegania rzeczywistości, tylko poprzez odzyskanie mądrości serca, możemy stawić czoła i zinterpretować nowość naszych czasów.”[209] Taka „mądrość serca” jest „cnotą, która pozwala nam zintegrować całość i jej części, nasze decyzje i ich konsekwencje”. „Nie można jej szukać w maszynach”, ale »pozwala się znaleźć tym, którzy jej szukają i być widzianą przez tych, którzy ją kochają; uprzedza tych, którzy jej pragną i idzie w poszukiwaniu tych, którzy są jej godni (por. Wj 6, 12-16)«[210].
115. W świecie naznaczonym sztuczną inteligencją potrzebujemy łaski Ducha Świętego, który „pozwala nam patrzeć na rzeczy Bożymi oczami, dostrzegać powiązania, sytuacje, wydarzenia i odkrywać ich prawdziwe znaczenie”[211].
116. Ponieważ „doskonałość osoby mierzy się nie posiadanymi przez nią informacjami czy wiedzą, ale głębią jej miłości”[212], to, w jaki sposób włączamy AI, „aby uwzględnić najmniejszych z naszych braci i sióstr, bezbronnych i najbardziej potrzebujących, będzie prawdziwą miarą naszego człowieczeństwa”[ 213]. „Mądrość serca” może oświetlić i poprowadzić skoncentrowane na człowieku wykorzystanie tej technologii, aby pomóc promować wspólne dobro, dbać o nasz »wspólny dom«, postępować naprzód w poszukiwaniu prawdy, wspierać integralny rozwój człowieka, sprzyjać ludzkiej solidarności i braterstwu oraz prowadzić ludzkość do jej ostatecznego celu: szczęścia i pełnej komunii z Bogiem[214].
117. Z tej perspektywy mądrości wierzący będą mogli działać jako podmioty moralne zdolne do wykorzystania tej technologii do promowania autentycznej wizji osoby ludzkiej i społeczeństwa[215]. Powinno się to odbywać ze zrozumieniem, że postęp technologiczny jest częścią Bożego planu stworzenia - działalności, którą jesteśmy wezwani do uporządkowania w kierunku Misterium Paschalnego Jezusa Chrystusa, w ciągłym poszukiwaniu Prawdy i Dobra.
Papież Franciszek, podczas audiencji udzielonej 14 stycznia 2025 r. niżej podpisanym prefektom i sekretarzom Dykasterii Nauki Wiary oraz Dykasterii Kultury i Edukacji, zatwierdził niniejszą Notę i nakazał jej publikację.
W dniu 28 stycznia 2025 r., w liturgiczne wspomnienie św. Tomasza z Akwinu, Doktora Kościoła, w Rzymie, w siedzibie Dykasterii do spraw Nauki Wiary oraz Dykasterii do spraw Kultury i Edukacji.
Víctor Manuel Card. Fernández
Prefekt
José Card. Tolentino de Mendonça
Prefekt
Msgr. Armando Matteo
Sekretarz, Sekcja Doktrynalna
Ks. Paul Tighe
Sekretarz, Sekcja Kultury
Ex audientia die 14 ianuarii 2025
Franciscus
Za: https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html
Tłumaczenie: DeepL