it IT af AF ar AR hy HY zh-CN ZH-CN en EN tl TL fr FR de DE iw IW ja JA pl PL pt PT ro RO ru RU es ES sw SW

Wraz z rozwojem coraz bardziej wyrafinowanych umiejętności oprogramowania znajdującego się w smartfonach, komputerach i robotach, dla ludzkości pojawiają się istotne pytania: w jakim stopniu „sztuczna inteligencja” może stać się stopniowo autonomiczna? Jakie ograniczenia powinniśmy nałożyć na techniki wykrywania naszych „danych”? Jakie wartości etyczne można zainstalować w algorytmach regulujących wymianę w sieci? Tematy te były ostatnio dwukrotnie omawiane w Watykanie: po raz pierwszy podczas audiencji udzielonej przez papieża prezesowi firmy technologicznej Microsoft, a po drugie podczas międzynarodowej konferencji na tematy robotyki i zdrowia.

przez Luigiego Crimellę

Jesteśmy gotowi wejść do społeczeństwa cyfrowego, w którym będziemy wchodzić w interakcje z robotami i humanoidami, którzy mówią naszym językiem, którzy pracują w fabrykach i biurach wraz z robotnikami i pracownikami, a nawet zajmują nasze miejsce, piszą artykuły do ​​gazet lub prowadzą samochody i autobusy bez większe zapotrzebowanie na dziennikarzy i kierowców? 

Jeśli przyjrzymy się temu, co już dzieje się wokół nas, na przykład wraz z pojawieniem się asystentów głosowych w domach („Cortana” firmy Microsoft, „Alexa” firmy Amazon, „Siri” firmy Apple i „Google Home”), to zdajemy sobie sprawę, że świat robotów domowych i humanoidów do biur (Pepper jest znany we Włoszech) faktycznie zajmuje coraz większe obszary życia prywatnego i świata pracy.

Niezależnie od tego, jak bardzo są „cielesni” na zewnątrz, blaszane kukiełki o ludzkich rysach czy proste mówiące cylindry, w rzeczywistości są to coraz potężniejsze mózgi elektroniczne, zdolne przetwarzać miliardy danych na minutę, słuchać tego, co mówimy, wypracowywać odpowiedzi na nasze pytania, łącząc się online, aby zapamiętać nasze gusta i wybory dotyczące kanałów telewizyjnych, stron internetowych i muzyki. Niekwestionowanym królem tych cyfrowych kontrolerów jest nasz smartfon, którego właścicielem jest obecnie ponad 80 procent osób korzystających z telefonu komórkowego. Za pomocą smartfona robimy wszystko: rozmawiamy, dzwonimy, odpowiadamy na e-maile, kupujemy towary i usługi, inwestujemy i subskrybujemy akcje i ubezpieczenia, mierzymy nasze samopoczucie i stopień zdrowia. Jednak w biurach i fabrykach coraz częściej spotykamy inteligentne komputery PC, które wykonują polecenia głosowe, wykonując złożone operacje, a także „coboty” (roboty współpracujące), które wchodzą w interakcję z pracownikami i technikami i są w stanie modyfikować swoje działania w oparciu o sygnały głosowe, które otrzymują od ludzkich „współpracowników”.

Algorytmy „kontrolują” nas

W handlu internetowym, z którego korzysta coraz większa liczba osób, duże platformy sprzedażowe (Amazon, Alibaba, Ebay itp.) opierają się na algorytmach obliczeniowych, które rejestrują każdą naszą czynność, od prostego wyszukiwania przedmiotu lub usługi, aż po procedurę zakupu i wysyłki. „Dane”, które udostępniamy tym platformom, są tak liczne i szczegółowe (adres, kod podatkowy, konto bankowe lub karta kredytowa, godziny pracy i czasu wolnego, gusta kulturalne, polityczne, religijne, relacje itp.), że gdyby chcieli, mogliby to zrobić mógłby stworzyć nasz „alias”, czyli osobę dokładnie taką samą jak my, mogącą działać, kupować, decydować, rezerwować, a nawet głosować w naszym imieniu. A wszystko to w sposób wiarygodny i niczego niepodejrzewający dzięki precyzji i pozornej wiarygodności aktywowanego zachowania. 

Podobna argumentacja dotyczy mediów społecznościowych (Facebook, Twitter, Instagram i inne), w których dzielimy się wieloma pomysłami, odczuciami, ocenami i preferencjami, co wykładniczo zwiększa ilość danych naszego profilu osobistego, które deponujemy w Internecie. 

Kiedy mówimy o „dużych danych”, musimy nauczyć się myśleć w matematycznych kategoriach: ponad połowa mężczyzn jest podłączonych do Internetu i codziennie surfuje po Internecie, pozostawiając setki, jeśli nie tysiące osobistych śladów, które są gromadzone i analizowane. Nic, co dzieje się w Internecie, nie jest „prywatne” i wszystko można poznać, przeanalizować, przechwycić, sklonować, a nawet wykorzystać do oszukańczych celów.

„Wielka sprawa” chmury

Zarządzanie tymi „Big Data” staje się prawdziwym biznesem, zwłaszcza że opracowano algorytmy tzw. „sztucznej inteligencji”. Duże firmy technologiczne stworzyły archiwa elektroniczne o ogromnej pojemności, zwane „chmurami”. Chmura nie tylko pełni funkcję hurtowni danych, ale umożliwia analizę i strukturyzację systemów w celu zrozumienia przepływów i orientacji klientów.  Wyraźnym dowodem na to są wiadomości, które otrzymujemy od Google czy Amazona, gdy tylko wyrazimy zainteresowanie czymś (podróże, polityka, zakupy itp.).

W lutym ubiegłego roku papież Franciszek przyjął na audiencji prezesa Microsoftu Brada Smitha i miał z nim okazję omówić nowe technologie, duże zbiory danych i sztuczną inteligencję oraz wykorzystanie mediów społecznościowych z delikatnymi implikacjami dla prywatności, jakie się z nimi wiążą.  Organizatorem tego spotkania była Papieska Akademia Życia, której przewodniczy ks. Vincenzo Paglia, który ogłosił także nagrodę we współpracy z Microsoftem za najlepsze badania doktoranckie na temat sztucznej inteligencji w służbie życia ludzkiego. Przy tej okazji Papież przypomniał część treści orędzia na Światowy Dzień Środków Środka Społecznego 2019, w którym stwierdza między innymi, że „korzystanie z sieci społecznościowych uzupełnia spotkanie w ciele, które żyje poprzez ciało, serce , oczy, spojrzenie, oddech drugiego. Jeśli sieć będzie wykorzystywana jako przedłużenie lub oczekiwanie na to spotkanie, nie zdradzi się i pozostanie źródłem komunii”. Według papieża Franciszka nowe technologie cyfrowe stanowią wielką pomoc dla ludzkości, ale wymagają zaangażowania i przejścia od „wspólnot”, które czasami ulegają depersonalizacji, do „wspólnoty” z krwi i kości, która opiera się na bezpośrednim kontakcie między ludźmi.

Niebezpieczeństwo wymykających się spod kontroli interakcji online

Ze swojej strony prezes Microsoftu podkreślił w wywiadzie dla L'Osservatore Romano, że „mamy obowiązek tworzyć usługi i społeczności online, w których ludzie czują się bezpiecznie: 5 lutego ubiegłego roku przypada Dzień Bezpieczeństwa Sieci, czyli międzynarodowy dzień działań na rzecz promując bezpieczniejsze i bardziej odpowiedzialne korzystanie z technologii, szczególnie wśród dzieci i młodych ludzi, opracowaliśmy Indeks Obywatelstwa Cyfrowego, aby wykazać, że zagrożenia w Internecie mają konsekwencje w świecie rzeczywistym. Jesteśmy głęboko zaangażowani w potrzebę dalszego edukowania nastolatków, młodych dorosłych, rodziców, nauczycieli i prawodawców na temat rzeczywistych konsekwencji negatywnych interakcji w Internecie, które mogą obejmować utratę zaufania do innych, zwiększony stres, brak snu, a nawet myśli samobójcze. Mamy nadzieję, że wyniki te mogą posłużyć jako dokumentalny dowód globalnego ruchu w kierunku „cywilizacji cyfrowej”.

Podobne argumenty pojawiły się następnie przy okazji zgromadzenia Papieskiej Akademii Życia (Pav), poświęconego tematom „roboetyki” w odniesieniu do zdrowia i godności ludzkiej. Również w tej sprawie głos Papieża, biskupów, naukowców i filozofów zbiegł się w nadziei, że w obliczu postępu nauki i technologii „sterownia badań i rozwoju pozostaje ludzka i w rękach człowieka” – jak podkreślił prezes Pav, ks. Vincenzo Paglii. Ze swojej strony papież Franciszek wyraził także nadzieję, że w obliczu tak wielkiego postępu technologii cyfrowych w naukach filozoficznych i teologicznych rozwiną się także refleksje zdolne stworzyć moralną barierę dla dostrzegalnych dzisiaj zagrożeń dehumanizacji.