Krótki wstęp do sztucznej inteligencji

Jedną z rzeczy, która wzbudza zachwyt naukowców od wielu lat, jest ludzka inteligencja. Ciągle starają się znaleźć odpowiedzi na pytania, w jaki sposób nasz mózg gromadzi informacje, jak je zapamiętuje, jak budowana jest struktura naszej wiedzy, w jaki sposób potrafimy ją wykorzystać przy rozwiązywaniu problemów, a w końcu – w jaki sposób podejmujemy decyzje.

Odnajdywanie odpowiedzi na te zagadki naukowe sprawia, że możliwe staje się budowanie maszyn, które potrafią działać podobnie do człowieka. Takie „inteligentne” maszyny czynią ludzkie życie łatwiejszym, pozwalają oszczędzać nie tylko pieniądze, ale i czas. Te „inteligentne” maszyny to właśnie sztuczna inteligencja (w skrócie SI).

W niektórych dziedzinach – jak medycyna, komunikacja, transport – ich obecność zwiększa nasze poczucie bezpieczeństwa, ale w innych, np. w prawie, budzi niepokój. Nie jest tajemnicą, że te technologie są wykorzystywane także do obserwowania nas, rejestrowania stanu naszego zdrowia, śledzenia naszych kontaktów i zainteresowań. Mają ogromny wpływa na nasze zachowania – a to ogranicza już naszą wolność, podważa ideały i prawa człowieka.

Etyczny robot?

Możliwość szerokiej interakcji SI z ludźmi sprawia, że jej projektowanie rodzi szereg dylematów etycznych w różnych obszarach. Czy prawo powinno zezwalać na to, aby SI górowała intelektualnie nad ludźmi, a jeśli tak, czy jej wykorzystywanie w pewnych dziedzinach życia i działalności ludzkiej (np. w wymiarze sprawiedliwości) nie powinno być zakazane? Nie ufamy SI i wynika to głównie z tego, że nie do końca albo prawiew ogóle nie znamy mechanizmu jej działania, a jej twórcy nie są w stanie nam tego wyjaśnić. Jak konstruować i wdrażać skomplikowane i trudne do wyjaśnienia rozwiązania oparte o sztuczną inteligencję, aby nie wzbudzać obaw i rezerwy przed ich wykorzystaniem, a budować zaufanie ich odbiorcy? Odpowiedzi należy szukać w ogólnie przyjętych zasadach etycznych.

Andrus Ansip, wiceprzewodniczący ds. jednolitego rynku cyfrowego KE, stwierdził, że wymiar etyczny sztucznej inteligencji nie jest „luksusem” czy „dodatkiem”. „Nasze społeczeństwo będzie mogło w pełni korzystać z technologii jedynie wtedy, gdy będzie miało do nich zaufanie. Etyczna sztuczna inteligencja jest korzystna dla wszystkich” – ocenił. Zwrócił też uwagę, że „rozwój sztucznej inteligencji musi być szybki, zdecydowany, ale również uczciwy i bezpieczny dla ludzi. To ma Europę odróżniać od niektórych państw azjatyckich, które prą naprzód”.

SI zagrożeniem dla wymiaru sprawiedliwości?

Największy etyczny problem, który stoi przed nami to odpowiedź nie na pytanie, „czy”,a „jak” sztuczna inteligencja może uczestniczyć w wymiarze sprawiedliwości. Cyfrowe technologie mogą przyspieszyć pracę wymiaru sprawiedliwości, upraszczając procedury czy eliminując nadmiar dokumentacji. Jednak ich zastosowanie w wymiarze sprawiedliwości pociąga za sobą duże ryzyko. Dlatego zasady jej działania muszą być całkowicie transparentne i jawne.

Z wykorzystaniem sztucznej inteligencji w wymiarze sprawiedliwości wiąże się wiele problemów natury etycznej. Są to m.in.:

  • Brak „czynnika ludzkiego” i „doświadczenia życiowego” w SI, którymi niewątpliwie charakteryzuje się sędzia-człowiek – istnieje obawa, że SI bardzo rygorystycznie, a tym samym często niesprawiedliwie w poczuciu społecznym, stosowałaby prawo, nie biorąc pod uwagę np. ładunku emocjonalnego stron w sprawach z zakresu prawa rodzinnego i opiekuńczego.
  • Niepewność co do tego, czy SI poradzi sobie ze sprawami precedensowymi, rozstrzyganiem konfliktów wartości oraz stosowaniem klauzul generalnych – póki co SI nie jest w stanie myśleć abstrakcyjnie, w oderwaniu od sztywnych niekiedy ram przepisów prawnych.
  • Brak przejrzystości procesu operacyjnego oprogramowania stworzonego dla wymiaru sprawiedliwości – nie da się uzasadnić osądu maszyny, jeśli nie wiemy, co ona myśli.
  • „Zainfekowanie” systemu uprzedzeniami – maszyna bazuje na orzeczeniach ludzkich, a te nie są wolne od uchybień i stereotypów. Problemem może być więc błędne koło: system, który miał eliminować niesprawiedliwość i uprzedzenia, sam stanie się ich ucieleśnieniem. Co gorsza, będzie zimny, bezrefleksyjny i pozbawiony skrupułów.
  • Odmienna opinia sędziego na zalecenie SI – wzbudzenie wątpliwości i lęków co do zasadności własnego wyroku może pojawić się u sędziów, kiedy SI wyda inną opinię co do niego. Może to doprowadzić do wzrostu ryzyka niesamodzielności w podejmowaniu niezawisłych decyzji oraz konformizmu wobec zaleceń maszyny.
Kodeks etyczny SI

Podstawowym założeniem OECD w pierwszych międzyrządowych standardach rozwoju SI było uznanie jej za technologię, która powinna być wykorzystywana dla dobra ludzkości, a także wspierać rządy prawa, wartości demokratyczne oraz prawa człowieka i różnorodność. Zgodnie z tymi zasadami systemy sztucznej inteligencji powinny być „sprawiedliwe, przejrzyste i odpowiedzialne”.

Komisja Rady Europy na rzecz Skutecznego Wymiaru Sprawiedliwości (CEPEJ) przyjęłaz kolei – „Europejską Kartę Etyczną dotyczącą stosowania sztucznej inteligencjiw sądownictwie”. Dokument stanowi zbiór zasad, którymi należy się kierowaćw kontekście stosowania rozwiązań informatycznych w systemie sądowniczym. Wśród nich znalazły się: zasady dotyczące poszanowania praw podstawowych, zasady niedyskryminacji, bezstronności i sprawiedliwości, zasady przejrzystości, zasada równości i bezpieczeństwa oraz zasada kontroli nad procesem przetwarzania danych przez użytkowników oraz inne osoby zainteresowane.

Z kolei Komisja Europejska opublikowała „Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji” oraz „Białą księgę w sprawie Sztucznej Inteligencji”. Określają one następujące zasady dotyczące SI: „przewodnia i nadzorcza rola człowieka, stabilność i bezpieczeństwo, ochrona prywatności i danych, przejrzystość, różnorodność, niedyskryminacja i sprawiedliwość, dobrostan społeczny i środowiskowy, odpowiedzialność.

Wszystkie zasady opisywane w tych ważnych dokumentach można ująć w trzech krótkich punktach:

  • Po pierwsze – nie szkodzić
  • Po drugie: troska o interes człowieka, autonomię i sprawiedliwość
  • Po trzecie: ochrona praw człowieka
SI jako szansa i zagrożenie

Na rozwój SI możemy patrzeć dwojako: jak na zagrożenie i jak na szasnę. Żeby scenariusz drugi był możliwy, konieczny jest wzrost świadomości społeczeństw, mądrze kierowany rozwój technologii i rozważne zagospodarowanie jej przestrzeni w porządkach prawnych państw. Nie będzie o tym mowy, jeśli zapomnimy o wzięciu pod uwagę takich wartości jak przejrzystość, różnorodność, równość, ochrona praw człowieka i sprawiedliwość,a więc zadbanie o jej wysoce etyczny wymiar.

W przygotowanych przez różne podmioty dokumentach powtarza się jak mantrę, że konieczne jest zapewnienie zgodności rozwiązań SI z zasadami etyki na wszystkich etapach – od samego projektowania technologii, przez jej tworzenie aż po późniejszą eksploatację.

 

Aleksandra Igielska

Mentee w Fundacji Women in Law

Przewodnicząca Komisji ds. Dydaktyki i Jakości Kształcenia Parlamentu Studenckiego Uniwersytetu w Białymstoku

Studentka V roku prawa