Responsible AI panelists & description

Paneliści:

  • prof. Przemyslaw Biecek, Warsaw University of Technology
  • mec. Robert Kroplewski, Representative of the Minister of Digitalisation for the Information Society
  • prof. Maciej Piasecki, Wrocław University of Science and Technology
  • prof. Jerzy Stefanowski, Poznań University of Technology, Polish Academy of Sciences
  • prof. Dominik Ślęzak, QED Software, University of Warsaw

Ogólna motywacja dla dyskusji panelowej:

W ostatnich latach nastąpił intensywny rozwój systemów sztucznej inteligencji [SI] oraz ich różnorodnych zastosowań. W wielu przypadkach takie systemy znacząco wpływają zarówno na indywidualne osoby jak i całe społeczeństwa. Pomimo niewątpliwych wielu korzyści i pozytywnych rezultatów sztucznej inteligencji widać narastającą świadomość zagrożeń i ryzyka, w tym negatywnych konsekwencji wykorzystywania tych systemów przez nieodpowiedzialnych użytkowników lub producentów. W szczególności pojawiają się przypadki że niektóre firmy wprowadzają nowatorskie systemy sztucznej inteligencji w wersji bez pełnej kontroli, zapewniania jakości oraz budowania zaufania do takich rozwiązań. Także pośród wielu części użytkowników pojawiają się nieetyczne zachowania w wykorzystaniu takich systemów.

Jednym z najbardziej spektakularnych, lecz także kontrowersyjnych przypadków z ostatnich miesięcy jest rozwój tzw. Large Scale Language Models (LLM) oraz w szczególności masowe udostępnienie i fascynacja aplikacją ChatGPT. Pomimo ewidentnego postępu w przygotowaniu neuronowych systemów udostępniania odpowiedzi, rodzi on także coraz silniejsze obawy, często związane z jego zastosowaniami oraz nadmiernym zainteresowaniem wielu ludzi nieprzygotowanych do jego użytkowania, lecz także kontrowersyjnych pomysłów na wykorzystanie komercyjne oraz wręcz nieetycznych przykładów oszustw.

Spektakularnym przykładem takich obaw jest otwarty apel (Pause Giant AI Experiments [https://futureoflife.org/open-letter/pause-giant-ai-experiments/]) zainicjowany 22 marca br przez bardzo znaczących badaczy sztucznej inteligencji i podpisany przez dziesiątki tysięcy osób. Przypomnijmy, że poprzednio już pojawiały się ostrzeżenia i listy otwarte wobec możliwości powstania tzw. superinteligencji. Nawet traktując przesłanie wstrzymanie badań nad takimi systemami jako zbyt daleko idące, część argumentów jest warte rozważenia i dalszej głębszej dyskusji. Zwróćmy uwagę, że rozwój systemów NLP w ostatnich latach, w tym uczenie olbrzymich neuronowych modeli LLMs odbywa się, przede wszystkim, w nielicznych firmach tzw. Big Tech, lub fundacjach badawczych z nimi powiązanych, a nie w typowym środowisku akademickich. Wynika to z tzw. przewagi technologicznej, olbrzymich kosztów uczenia takich modeli neuronowych oraz dostępu do masywnych repozytoriów danych uczących (przy wątpliwości do naruszeń praw autorskich choć części z dokumentów), które są już nieosiągalne dla typowych środowisk badawczych. Natomiast badacze akademiccy mogą ciągle zachowywać bardziej ostrożne podejście do rozwoju systemów sztucznej inteligencji).

Ponadto obecnie nadmierna fascynacja udostępnionymi aplikacjami pokazuje, że zarówno użytkownicy, lecz także ich twórcy traktują takie zaawansowane systemy (jak np.ChatbotGPT) jako wręcz magiczne „black box” lub wyrocznie, których działanie nie jest praktyce zrozumiałe, ani w pełni monitorowane lub wspierane diagnostycznie. Dotyczy to także coraz większej liczby bardzo efektywnych systemów wykorzystujących głębokie uczenia lub zespoły modeli predykcyjnych.

Pojawia się też coraz szersza dyskusja środowisk zarówno badawczych jak i przemysłowych nad odpowiedzialnością, jeśli tak złożone systemy doprowadzą do szkody, zagrożenia dla ludzi. Postuluje się nowe wymagania do lepszego zapewnienia niezawodności, bezpieczeństwa oraz określenia nowych scenariuszy testowania i certyfikacji takich systemów. Powiązane obawy wiążą się także z słabym wsparciem wyjaśniania ich działania, brakiem bezstronności i obciążeniami (ang. unfairness, biases), naruszeń prywatności i godności ludzkiej oraz szerzej zagrożenie dla demokracji i działalności społeczeństwa w rezultacie nieetycznego wykorzystania.

Taka dyskusja niewątpliwie dotyczy także szerokiej klasy innych systemów, zwłaszcza takich które mogę być wykorzystane do automatycznego podejmowania decyzji, lub innych akcji wobec ludzi oraz zaawansowanych systemów autonomicznych lub robotów.

Wiele z powyższych wątków jest odzwierciedlonych w postulatach tzw. Responsible AI lub działań nad regulacjami wobec zastosowań sztucznej inteligencji. Najbliższym jest postęp prac w Komisji Europejskiej najpierw w zakresie tzw. etycznych rekomendacji wobec sztucznej inteligencji godnej zaufania (ang. Trustworthy AI), jak i obecnie przygotowywanych propozycji prawnych (tzw. AI Act) który podobnie jak General Data Protection Regulation mogą ograniczyć wpływ systemów SI średniego ryzyka na ludzi, a w przydatku części systemów wysokiego ryzyka wręcz zakazać ich stosowania. Tocząca się dyskusja nad takimi regulacjami wskazuje, że jest to jednak kontrowersyjne działanie, wymagające dalszego namysłu, gdyż zdaniem wielu dyskutantów nakłada zbyt wiele ograniczeń. Niektóre postulaty lub propozycje, jak np. przejrzystości procesu tworzenia takich systemów, wyjaśnialności ich działania lub wysokiej jakości danych, są sformułowane na dość wysokim poziomie, który bez odpowiednich miar oceny, scenariuszy ich realizacji będzie trudne do praktycznego wdrożenia.


Powracając jedną do obecnych obaw wobec rozwoju oraz niewłaściwego wykorzystania takich systemów sztucznej inteligencji, jak ChatBotGPT, niezbędne wydaje się odniesienie dyskusji do aspektów takich propozycji prawnych uregulowań i możliwych ograniczeń.


Powyższe aspekty rozwoju, lecz także narastających obaw wobec złożonych systemów sztucznej inteligencji są motywacjami do niniejszego panelu dyskusyjnego na konferencji PP-RAI 2023, w trakcie którego proponujemy przedyskutować wybrane wątki tematyczne