15.04.2021

Czy sztuczna inteligencja zagraża prawom człowieka?

W jednym z odcinków „Black Mirror”, czyli jednego z najbardziej kultowych seriali produkcji Netflixa, ujęto równoległą rzeczywistość, gdzie społeczeństwu towarzyszy aplikacja scoringowa. Zgodnie z przyjętą technologią, ludzie mogą oceniać siebie nawzajem od jednej do pięciu gwiazdek za każdą interakcję, co wpływa na ich status społeczno – ekonomiczny.

Serialowa rzeczywistość zaczęła stawać się faktem, gdy w Chinach rząd Xi Jinpinga ogłosił wprowadzenie Systemu Zaufania Społecznego (ang. Social Credit System, dalej: SCS). Proponowane rozwiązanie technologiczne polega na ocenie obywateli w związku z podejmowanymi przez nich aktywnościami. W zamierzeniu system miał powszechnie działać w Chińskiej Republice Ludowej do końca 2020 r.

SCS przydziela każdemu obywatelowi określoną liczbę punktów, które można zyskać lub stracić wskutek podejmowanych działań. Wpływ na pozycję w rankingu mają np. segregowanie śmieci, spłacanie zadłużenia w terminie, popełnianie przestępstw, a nawet utrzymywanie znajomości z osobami, które nie mogą pochwalić się wysoką liczbą punktów.

Rozwiązanie to pokazuje, jak łatwo w systemie nierespektującym podstawowych praw człowieka nowe technologie mogą zostać wykorzystane dla kontroli ludzi i skłania do refleksji w jaki sposób korzystać ze sztucznej inteligencji, która może tak daleko ingerować w prawa człowieka.

Europa stawia na prawa podstawowe

Wskazuje się, że ramy praw podstawowych są niezbędne do skutecznej i zgodnej z prawami człowieka oceny wielu możliwości i wyzwań, jakie niosą ze sobą nowe technologie.

Podejście do AI skoncentrowane na prawach podstawowych opiera się na uregulowaniach prawnych, gdzie odpowiedzialność za poszanowanie, ochronę i realizację tych praw spoczywa na państwie. Powinno to zagwarantować wysoki poziom ochrony prawnej przed potencjalnie niewłaściwym wykorzystaniem nowych technologii. Zapewnia ono również jasną podstawę prawną, na podstawie której można rozwijać AI z jednoczesnym uwzględnieniem praw podstawowych.

W odpowiedzi na stale rozwijającą się technologię Agencja Praw Podstawowych Unii Europejskiej (FRA) przygotowała raport „Getting the Future Right. Artificial inteligence and fundamental rights” (tłum. Naprawić przyszłość. Sztuczna inteligencja i prawa podstawowe; dalej: Raport). Dokument opublikowano w związku z prowadzonymi w Europie zmianami legislacyjnymi i politycznymi w zakresie sztucznej inteligencji. Pandemia Covid – 19 wpłynęła na większą akceptację dla innowacyjnych technologii, przy czym przyniosła również refleksję, że AI nie rozwiązuje jednak wszystkich problematycznych kwestii i niesie różne wyzwania.

Zakres ram dla sztucznej inteligencji jest dość szeroki. W Unii Europejskiej funkcjonuje rozbudowany katalog praw podstawowych, wśród których należy wyróżnić Kartę Praw Podstawowych Unii Europejskiej (2012/C 326/03), dalej: Karta, Europejska Konwencja Praw Człowieka, dalej: EKPC, a także Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE, dalej: RODO.

Ważne jest, aby zdawać sobie sprawę, że wiele kwestii związanych z wykorzystaniem sztucznej inteligencji w praktyce może dotyczyć różnych praw.

Wybrane prawa człowieka w kontekście nowych wyzwań technologicznych związanych z AI.

Godność

W pierwszej kolejności, należy zważyć, że korzystanie z technologii opartych na AI, w szerokim zakresie wiąże się z obowiązkiem poszanowania godności ludzkiej, która jest podstawą wszystkich praw podstawowych gwarantowanych przez Kartę. Art. 1 Karty wskazuje, że  godność ludzka jest nienaruszalna oraz że musi być zawsze szanowana i chroniona.

Stąd też przetwarzanie danych osobowych sterowane przez AI musi odbywać się w sposób respektujący to prawo. Uwaga powinna być poświęcona człowiekowi, który tworzy technologię i ma nią wpływ, a nie samej technologii. Dlatego założenie, że godność ludzka będzie punktem wyjścia, pomoże w zapewnieniu, że wykorzystanie AI przyniesie dobre skutki.

Nadto, ochrona godności wiąże się z zapobieżeniem poddawania ludzi działaniu sztucznej inteligencji bez ich wiedzy lub świadomej zgody, co jest silnie związane z ochroną prywatności i danych (art. 7 Karty – prawo do poszanowania życia prywatnego i rodzinnego, art. 8 – prawo do ochotny danych osobowych).

Prawo do dobrej administracji

W kontekście branży prawnej warto zwrócić uwagę na art. 41 Karty, zgodnie z którym każdy ma prawo do bezstronnego i sprawiedliwego rozpatrzenia swojej sprawy w rozsądnym terminie przez instytucje, organy i jednostki organizacyjne Unii.

W kontekście tego prawa istotnym jest przetwarzanie przez systemy sztucznej inteligencji danych osobowych, które ma wspierać organy publiczne w podejmowaniu wiążących decyzji. Wartą rozważenia kwestią jest fakt, że działanie AI na podstawie wypracowanych algorytmów może być omylne. Wszak aktywności technologii opartych na AI nie można w pełni wyjaśnić z uwagi na ich nieodłączną nieprzejrzystość i złożoność.

Na przykład, w Raporcie FRA wskazano wykorzystanie systemu kategoryzacji osób bezrobotnych działającego w 2014 r. w Polsce. Tworzenie profilu kandydata na podstawie wprowadzonych informacji jest jedną z metod przetwarzania tych danych. Skutkiem tego jest zakwalifikowanie człowieka do jednej z określonych kategorii, co ma doniosły wpływ na jego przyszłość. System ten kierowany przez AI uwypuklił problemy związane z wykorzystaniem algorytmów stworzonych poza bezpośrednią kontrolą człowieka w administracji publicznej. Działanie systemu spotkało się z dużą krytyką ze strony społeczeństwa w związku z brakiem możliwości zakwestionowania przyporządkowania bezrobotnego do konkretnego profilu, mimo konstytucyjnego prawa do zaskarżania orzeczeń i decyzji zawartego w art. 78 Konstytucji Rzeczpospolitej Polskiej z dnia 2 kwietnia 1997 r. Finalnie, w odpowiedzi na te działania Rzecznik Praw Obywatelskich złożył skargę do Trybunału Konstytucyjnego.

Rozwiązania, które proponuje Unia Europejska

W Raporcie wyraźnie wykazano, że stosowanie systemów sztucznej inteligencji może naruszać szereg praw podstawowych gwarantowanych przez akty prawne obowiązujące w państwach członkowskich UE. Wiele przedsiębiorstw i organów administracji publicznej już korzysta lub planuje korzystać z AI i powiązanych technologii. Prace nad AI są jednak wciąż na różnym etapie zaawansowania.

W związku z nieuniknionym i niepohamowanym rozwojem technologii, FRA sugeruje wzięcie pod uwagę takich kwestii jak:

  • tworząc przyszłe akty normatywne w zakresie sztucznej inteligencji należy zapewnić, by AI przestrzegało wszystkich praw podstawowych,
  • zagwarantowanie obywatelom możliwości zaskarżenia decyzji podjętych przez AI,
  • weryfikacja działania systemów AI pod względem naruszania praw podstawowych,
  • stworzenie przez UE wspólnego systemu kontroli nad podmiotami korzystającymi z AI.

Mimo wielu obaw, należy jednak stwierdzić, że obecny rozwój technologiczny i zwiększona dostępność danych stwarzają również wyjątkową możliwość lepszego zrozumienia struktur społecznych, co można wykorzystać do wspierania przestrzegania praw podstawowych. Co więcej, rozwiązania, które daje  sztuczna inteligencja mogą doprowadzić do lepszego zrozumienia przyczyn, a w konsekwencji do złagodzenia skutków naruszeń praw podstawowych.

Zobacz także:
15.09.2021

Digital Services Act, czyli nadchodząca rewolucja na rynku usług cyfrowych

04.02.2021

Smart contracty – wprowadzenie

07.10.2020

Czy możliwe jest patentowanie programów komputerowych?

12.08.2020

SaaS i SLA – o czym warto pamiętać?

05.08.2020

Czy branża pośrednictwa internetowego jest u progu rewolucji?

29.07.2020

Przeniesienie działalności offline do online – pakiet wsparcia

24.06.2020

Aspekty prawne blockchain cz. III – zastosowanie technologii blockchain w grach komputerowych

11.05.2020

Korzystne zmiany w kredycie na innowacje technologiczne