25 kwietnia
czwartek
Marka, Jaroslawa, Wasyla
Dziś Jutro Pojutrze
     
°/° °/° °/°

ChatGPT, sztuczna inteligencja i Watykan cz.1

Ocena: 0
850

O odpowiedzialnym stosowaniu AI przed XVII Konferencją Naukową Etyki Mediów pt. „Sztuczna inteligencja: upodmiotowienie maszyn – uprzedmiotowienie człowieka” z ks. prof. ucz. Józefem Klochem rozmawia Katolicka Agencja Informacyjna.

Fot. pixabay.com/CCO

Anna Rasińska (KAI): W listopadzie ubiegłego roku sztuczna inteligencja wkroczyła w życie milionów ludzi dzięki kalifornijskiemu laboratorium badawczemu OpenAI i jego oprogramowaniu ChatGPT. Technologia polega na udostępnieniu platformy sztucznej inteligencji umożliwiającej generowanie przez komputer odpowiedzi na zapytanie użytkownika. Czy obserwując prędkość rozwoju prac nad sztuczną inteligencją czuje Ksiądz Profesor obawę?

Ks. prof. Józef Kloch: Nie czuję obawy, ponieważ sztuczna inteligencja ma swoje ograniczenia.

Jak w ogóle można zdefiniować sztuczną inteligencję (ang. Artificial Intelligence, w skrócie AI)?

Amerykański filozof John Searle rozróżnił dwa typy AI – strong (mocna) oraz weak (słaba). Pierwsza (sAI) polegałaby na zduplikowaniu, powieleniu w 100 proc. możliwości ludzkiego mózgu przez komputery wyposażone w odpowiednie oprogramowanie i Searle nie widzi możliwości zbudowania maszyny, w której zachodziłyby identyczne procesy, jak w ludzkim umyśle. Druga wersja (wAI) to symulowanie przez komputery zdolności ludzkiego rozumu w pewnych zakresach. I ChatGPT, dziś już w czwartej wersji, jest bardzo dobrym przykładem takiej właśnie symulacji pracy mózgu człowieka – rozumie pytania zadawane języku naturalnym i odpowiada na nie rozwiązując bardzo skomplikowane zadania. Za ich wykonywaniem stoi bot oparty na bazie dużych modeli językowych; całość oprogramowania jest niezwykle skomplikowana – składa się z 7 miliardów (sic!) linii algorytmów przystosowanych do ciągłego poszerzania bazy wiedzy dzięki procesowi maszynowego uczenia się.

Wielu ekspertów twierdzi, że sama sztuczna inteligencja nam nie zagraża, natomiast może zostać wykorzystana przez nieodpowiedzialnych ludzi. Okazuje się jednak, że rozmowa z systemem komputerowym może doprowadzić do tragedii. Ostatnio chatbot amerykańskiej firmy nakłonił trzydziestokilkuletniego Belga, ojca dwójki dzieci, do samobójstwa.

Zatem, jak widać, chatbot może sprowadzić człowieka na manowce. Trzeba mieć świadomość tego, że dialog prowadzi się z systemem komputerowym, a nie z człowiekiem. Konwersacja toczy się głosowo lub przy pomocy klawiatury, ale z botem tj. programem komputerowym. Toby Walsh, jeden z czołowych uczonych w zakresie AI, zaproponował wprowadzenie oznaczenia, które nazwał „czerwoną flagą Turinga (Turing's Red Flag). Stanowiłaby ona ostrzeżenie - nie rozmawiasz z człowiekiem, tylko z maszyną. Jestem przekonany, że losy wspomnianego Belga potoczyłyby się inaczej gdyby miał świadomość, że rozmawia z systemem komputerowym, a nie z człowiekiem.

Systemy sztucznej inteligencji powinny być tak konstruowane, żeby zostały zachowane pewne zasady etyczne. To jest szalenie ważne. Bot nie może doprowadzić kogoś do samobójstwa.

W mediach pojawił się apel podpisany między innymi przez Elona Muska i Steve'a Wozniaka, aby badania nad najbardziej zaawansowanymi systemami sztucznej inteligencji zostały wstrzymane na sześć miesięcy ze względów bezpieczeństwa. Apel rozpoczyna się ostrzeżeniem o „inteligencji współzawodniczącej z ludźmi” i zagrożeniach, jakie AI może stwarzać dla społeczeństwa. Czy na tym etapie możliwe jest wstrzymanie prac nad sztuczną inteligencją?

Ciekaw jestem, dlaczego akurat na sześć miesięcy miałyby zostać zahamowane badania nad AI? Czy apel nie jest przypadkiem próbą zdobycia czasu potrzebnego do nadrobienia własnych badań? Bo zespół Elona Muska podjął zadanie zbudowania innego bota, który miałby mieć jeszcze większe możliwości niż ChatGPT. Jestem zdania, że obecnie wstrzymanie badań nad sztuczną inteligencją nie jest możliwe. Ważne jest natomiast to, żeby były to badania odpowiedzialne. Stosunkowo niedawno pojawił się nowy termin „responsible artificial intelligence (rAI)”. W języku polskim oddaje się to określenie jako „odpowiedzialna sztuczna inteligencja” lub nawet „etyczna AI”. Generalnie chodzi o to, by algorytmy programów opartych na sztucznej inteligencji wzbogacone zostały o pewne zasady.

Jak mogłyby brzmieć takie zasady?

Niektóre podstawowe zasady etyki dotyczące sztucznej inteligencji zostały już nakreślone na progu lat 20. obecnego stulecia. Podam przykład reguł z… Watykanu. Są one pokłosiem – i tu kolejne zaskoczenie – spotkania w 2019 roku Ojca Świętego Franciszka z Bradem Smithem, prezesem Microsoftu. Firma ta z Papieską Akademią Życia ustanowiły nagrodę w dziedzinie dokonań co do etyki sztucznej inteligencji. W kolejnym roku w lutym, po obradach Akademii, został opublikowany dokument „Rome Call for AI Ethics» (Rzymski apel o etykę AI) W jego tworzenie zaangażowali się m.in. uczeni zajmujący się badaniami nad sztuczną inteligencją. Dokument podpisali jako pierwsi przedstawiciele gigantów technologicznych, firm Microsoft oraz IBM oraz Papieskiej Akademii Życia, która jest inicjatorem przedsięwzięcia.

Dokument zawiera m.in. sześć zasad co do AI – jawność, inkluzywność, odpowiedzialność, bezstronność, niezawodność oraz bezpieczeństwo i prywatność.

Czy póki co te zasady są przestrzegane?

Aby to ocenić trzeba byłoby mieć dostęp do wszystkich prac co do AI, jakie dziś się toczą. Nie jest to oczywiście możliwe, m.in. dlatego, że firmy konkurują ze sobą. Otrzymały one natomiast konkretne wskazówki, w jaki sposób powinny być prowadzone badania nad sztuczną inteligencją i podpisały się pod nimi m.in. Microsoft i IBM.

Na początku roku 2023 Microsoft ogłosił wieloletnią inwestycję w wysokości 10 mld dolarów w laboratorium OpenAI. W lutym rozpoczęło się wbudowywanie technologii AI o tym samym podłożu co ChatGPT do przeglądarki Edge i wyszukiwarki Bing oraz do pakietu Microsoft 365. Jakie są owoce tych działań dla zwykłego użytkownika wymienionych produktów Microsoftu? Obecnie zwykły edytor tekstu oferuje nam bardzo szybkie, zadowalające tłumaczenia tekstów z jednego na drugi język. Podobnie jest z przekładami treści w Edge i Bing. Dostęp do tych funkcjonalności jest powszechny – tu widać realizację drugiej zasady apelu rzymskiego.

PODZIEL SIĘ:
OCEŃ:

DUCHOWY NIEZBĘDNIK - 24 kwietnia

Środa, IV Tydzień wielkanocny
Ja jestem światłością świata,
kto idzie za Mną, będzie miał światło życia.

+ Czytania liturgiczne (rok B, II): J 12, 44-50
+ Komentarz do czytań (Bractwo Słowa Bożego)
+ Nowenna do MB Królowej Polski 24 kwietnia - 2 maja

ZAPOWIADAMY, ZAPRASZAMY

Co? Gdzie? Kiedy?
chcesz dodać swoje wydarzenie - napisz
Blisko nas
chcesz dodać swoją informację - napisz



Blog - Ksiądz z Warszawskiego Blokowiska

Reklama

Miejsce na Twoją reklamę
W tym miejscu może wyświetlać się reklama Twoich usług i produktów. Zapraszamy do kontaktu.



Newsletter