W październiku br. Parlament Europejski przyjął trzy rezolucje:

  1. Rezolucja z dnia 20 października 2020 r. zawierająca zalecenia dla Komisji w sprawie ram aspektów etycznych sztucznej inteligencji, robotyki i powiązanych z nimi technologii (2020/2012(INL))
  2. Rezolucja z dnia 20 października 2020 r. z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL))
  3. Rezolucja z dnia 20 października 2020 r. w sprawie praw własności intelektualnej w dziedzinie rozwoju technologii sztucznej inteligencji (2020/2015(INI))

Nie ulega wątpliwości, że to duży krok w kierunku stworzenia przynajmniej cześciowej, ale spójnej regulacji SI w ramach UE. PE proponuje rozporządzenia a nie dyrektywy, gdyż stoi na stanowisku, że konieczne jest wprowadzenie jednolitej regulacji w UE, że względu na szczególne cechy SI, takie jak: kompleksowość, łączność (connectivity), niejasność (opacity), podatność (vulnerability), zdolność do zmiany poprzez aktualizacje, zdolność do uczenia się, autonomia, wielość podmiotów zaangażowanych. W przypadku IPR jest to jest absolutna nowość – tu UE opierała się zawsze na dyrektywach, co uzasadniano rozbieżnością systemów prawno autorskich oraz odmiennościami kulturowymi.

Kilka spostrzeżeń moich i Rafała Skibickiego na temat tych dokumentów przedstawiamy poniżej:

Ad. 1. – Etyka
  1. Regulacje prawne nie mogą hamować rozwoju SI, szczególnie w sektorze MŚP.
  2. Dotychczasowe prawo, w szczególności odnoszące się do danych osobowych, musi być w pełni respektowane.
  3. Konieczność objęcia regulacją nie tylko projektantów lub producentów, ale także użytkowników
  4. Stworzenie wspólnych przestrzeni danych do trenowania algorytmów.
  5. Wprowadzenie zasad Ethics by default oraz Ethics by design.
  6. Podejście oparte na ocenie ryzyka – risk assessment. Dla SI wysokiego ryzyka (high-risk AI) powinien zostać stworzony obowiązkowy system oceny zgodności.
  7. W zakresie oceny ryzyka, pod uwagę powinny być brane: sektor, sposób użycia/zastosowanie SI oraz waga uszczerbku, jaki SI może spowodować.
  8. Należy stworzyć wyczerpującą listę sektorów i przypadków użycia SI o charakterze high-risk.
  9. Ocena ryzyka SI powinna być dokonywana w oparciu o już istniejące narzędzia, np. Data Protection Impact Assessment z RODO (ocena skutków dla ochrony danych).
  10. Podkreślono znaczenie Transparentności (Transparencyin. w kontekście konieczności informowania użytkownika o każdorazowym wchodzeniu w interakcje z S.) i Wyjaśnialności (Explainability) – jako warunku wymaganej rozliczalności.
  11. Konieczne w kontekście Wyjaśnialności jest także stworzenie efektywnego systemu odwoływania się od decyzji SI i możliwości dochodzenia roszczeń z tytułu błędnej/dyskryminującej decyzji SI; a ponadto – zapewnienie prawa do decyzji podejmowanej przez człowieka, w szczególności w sprawach sądowych.
  12. Konieczność powołania krajowych organów nadzoru nad SI.
  13. Stworzenie European certificate of ethical compliance oraz systemu certyfikacji w zakresie etyki SI.
  14. Niezależnie od postulatów powołania specjalnych organów nadzoru nad SI – wskazano na konieczność przygotowania innych organów do rozumienia/identyfikacji ryzyk związanych z SI.
  15. Przedstawiono w załączeniu do Rezolucji propozycje zapisów do przyszłego rozporządzenia UE „on ethical principles for the development, deployment and use of artificial intelligence, robotics and related technologies”.

 

Ad. 2 – Odpowiedzialność cywilna
  1. Konieczność zapewnienia odszkodowania poszkodowanym przez SI w całej UE.
  2. Ten, kto tworzy, utrzymuje i kontroluje system sztucznej inteligencji i kto ingeruje w jego działanie, powinien być odpowiedzialny za szkody wynikające z działania, funkcjonowania urządzenia czy procesu.
  3. Sposób zbierania i wykorzystania danych powinien być kluczowym elementem oceny w postępowaniu dowodowym dotyczącym odpowiedzialności za SI.
  4. Nie jest konieczne nadanie SI osobowości prawnej.
  5. Konieczność rewizji przepisów o odpowiedzialności za produkt niebezpieczny – dostosowanie ich do świata cyfrowego.
  6. Sugestia dla KE, aby rozważyć zmiany i przekształcenie Product Liability Directive (Dyrektywa w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych Państw Członkowskich dotyczących odpowiedzialności za produkty wadliwe) w rozporządzenie, które będzie miało zastosowanie do odpowiedzialności za SI.
  7. Konieczność dostosowania także General Product Safety Directive (dyrektywa o ogólnym bezpieczeństwie produktów – zapewnienie, że system SI jest bezpieczny by design.
  8. Odpowiedzialność za SI na zasadzie winy jest niewystarczająca, w szczególności ze względu na trudność w wykazaniu winy.
  9. Wprowadzenie pojęcia operatora systemu SI, jako osoby fizycznej lub prawnej, która sprawuje pewna kontrolę nad ryzykiem związanym z użyciem SI i uzyskuje z niego korzyści.
  10. Jeśli jest więcej operatorów, to powinni być oni odpowiedzialni solidarnie (jointly and severally).
  11. Different liability rules for different risk: odpowiedzialność na zasadzie ryzyka (strict liability rules) dla SI wysokiego ryzyka.
  12. Wyczerpująca lista SI wysokiego ryzyka powinna być załącznikiem do rozporządzenia UE w tym zakresie. Powinna ona jednak podlegać przeglądom KE, ze względu na szybki rozwój. Z takiego samego względu konieczne jest przyjęcie wobec regulacji SI „fast-track approach” – śledzenie pojawiających się na rynku nowych urządzeń i systemów SI, rozważenie potencjalnych ryzyk, rekomendacja odpowiednich działań (KE).
  13. Ocena, czy dana technologia jest high-risk AI powinna być równoległa z oceną bezpieczeństwa produktu, aby żadne SI wysokiego ryzyka nie mogły funkcjonować na rynku bez obowiązkowego ubezpieczenia.
  14. Odpowiedzialność na zasadzie ryzyka (strict liability) powinna dotyczyć takich wartości jak: życie, zdrowie, integralność fizyczna, własność. Obejmować powinna zarówno szkodę, jak i krzywdę.
  15. Systemy SI inne niż high-risk powinny być objęte odpowiedzialnością na zasadzie winy (fault-based liability); domniemanie winy operatora, z możliwością jego ekskulpacji poprzez zachowanie należytej staranności (duty of care).
  16. Dodatkowo jednak te systemy SI, które wprawdzie nie zostały jeszcze zakwalifikowane jako high-risk, powinny podlegać odpowiedzialności na zasadzie ryzyka, jeśli powodują powtarzające się incydenty skutkujące istotna krzywdą lub szkodą. KE powinna wtedy niezwłocznie rozważyć włączenie ich do listy high-risk AI z mocą wsteczną od dnia wyrządzenia pierwszej szkody.
  17. Do rozważenia przez KE zakazania „non-liability clauses” w umowach B2B oraz B2A.
  18. Należy wprowadzić Ubezpieczenia obowiązkowe dla high-risk AI, z określoną przepisani sumą ubezpieczenia.
  19. PE nie rekomenduje stworzenia mechanizmu kompensacji szkód wyrządzonych przez SI na poziomie unijnym.
  20. W propozycjach zapisów do przyszłego rozporządzenia wskazano nowe terminy przedawnienia roszczeń z tytułu odpowiedzialności cywilnej, dotyczące uszczerbku na życiu, zdrowiu lub nietykalności cielesnej (30 lat) oraz z tytułu odpowiedzialności cywilnej, dotyczące szkody w mieniu lub istotnej szkody niematerialnej skutkującej możliwą do zweryfikowania szkodą ekonomiczną, przedawniają się w szczególności (10 lub 30 lat).
Ad. 3 – Prawa własności intelektualnej
  1. Podkreślenie roli europejskiej przestrzeni danych, która musi zostać stworzona celem rozwoju innowacyjności UE oraz rolę transparentności w kreowaniu produktów i usług SI, co ma pomóc w zarządzaniu IPR.
  2. Konieczność wyważenia takich wartości jak wkład inwestycyjny i nadkłady na SI, ale także kreatywność i wkład twórczy człowieka.
  3. Konieczność rewizji dotychczasowych przepisów dotyczących praw autorskich, praw własności przemysłowej, ochrony baz danych, know-how – generalnie potrzeba wyważenia różnych wartości w celu rozwoju gospodarki UE.
  4. Konieczność stworzenia możliwości łatwiejszego patentowania rozwiązań stworzonych SI oraz ram ochrony dla tajemnic handlowych/know-how, które nie korzystają z ochrony patentowej lub prawa autorskiego, a są istotną wartością dla firm i powinny być zabezpieczone prawnie.
  5. Trzeba zapewnić ochronę wytworom SI (głównie ze względów ekonomicznych), ale nie powinna być to taka sama ochrona jak dla utworów, których autorem mogą być tylko ludzie (natural persons).
  6. Konieczność ochrony wytworów SI (AI-generated creations), ale bez konieczności przyznawania SI osobowości prawnej.
  7. PE zakłada odmienne traktowanie utworów wytworzonych przez człowieka z pomocą SI, a inaczej przez samą SI. W tym pierwszym wypadku mają podlegać ogólnym ramom prawa własności intelektualnej (dzieła wyprodukowane samodzielnie przez sztuczne podmioty i roboty mogą nie kwalifikować się do ochrony na podstawie prawa autorskiego w celu poszanowania zasady oryginalności związanej z osobą fizyczną, ponieważ pojęcie „twórczości intelektualnej” odnosi się do osobowości autora.”).
  8. Parlament nie przedstawił pomysłów dla oceny ochrony utworów stworzonych tylko przez SI. Wiadomo jednak, że ma to zostać podjęte w sposób neutralny technologicznie.
  9. W zakresie wykorzystywania danych IP w celu uczenia SI należy się opierać na dotychczasowych przepisach dotyczących ograniczeń i wyjątków w tym zakresie.

Z niecierpliwoscią czekamy na dalsze kroki w tworzeniu prawa SI w UE 🙂

Dr Gabriela Bar
Rafał Skibnicki