W październiku br. Parlament Europejski przyjął trzy rezolucje:
- Rezolucja z dnia 20 października 2020 r. zawierająca zalecenia dla Komisji w sprawie ram aspektów etycznych sztucznej inteligencji, robotyki i powiązanych z nimi technologii (2020/2012(INL))
- Rezolucja z dnia 20 października 2020 r. z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL))
- Rezolucja z dnia 20 października 2020 r. w sprawie praw własności intelektualnej w dziedzinie rozwoju technologii sztucznej inteligencji (2020/2015(INI))
Nie ulega wątpliwości, że to duży krok w kierunku stworzenia przynajmniej cześciowej, ale spójnej regulacji SI w ramach UE. PE proponuje rozporządzenia a nie dyrektywy, gdyż stoi na stanowisku, że konieczne jest wprowadzenie jednolitej regulacji w UE, że względu na szczególne cechy SI, takie jak: kompleksowość, łączność (connectivity), niejasność (opacity), podatność (vulnerability), zdolność do zmiany poprzez aktualizacje, zdolność do uczenia się, autonomia, wielość podmiotów zaangażowanych. W przypadku IPR jest to jest absolutna nowość – tu UE opierała się zawsze na dyrektywach, co uzasadniano rozbieżnością systemów prawno autorskich oraz odmiennościami kulturowymi.
Kilka spostrzeżeń moich i Rafała Skibickiego na temat tych dokumentów przedstawiamy poniżej:
Ad. 1. – Etyka
- Regulacje prawne nie mogą hamować rozwoju SI, szczególnie w sektorze MŚP.
- Dotychczasowe prawo, w szczególności odnoszące się do danych osobowych, musi być w pełni respektowane.
- Konieczność objęcia regulacją nie tylko projektantów lub producentów, ale także użytkowników
- Stworzenie wspólnych przestrzeni danych do trenowania algorytmów.
- Wprowadzenie zasad Ethics by default oraz Ethics by design.
- Podejście oparte na ocenie ryzyka – risk assessment. Dla SI wysokiego ryzyka (high-risk AI) powinien zostać stworzony obowiązkowy system oceny zgodności.
- W zakresie oceny ryzyka, pod uwagę powinny być brane: sektor, sposób użycia/zastosowanie SI oraz waga uszczerbku, jaki SI może spowodować.
- Należy stworzyć wyczerpującą listę sektorów i przypadków użycia SI o charakterze high-risk.
- Ocena ryzyka SI powinna być dokonywana w oparciu o już istniejące narzędzia, np. Data Protection Impact Assessment z RODO (ocena skutków dla ochrony danych).
- Podkreślono znaczenie Transparentności (Transparencyin. w kontekście konieczności informowania użytkownika o każdorazowym wchodzeniu w interakcje z S.) i Wyjaśnialności (Explainability) – jako warunku wymaganej rozliczalności.
- Konieczne w kontekście Wyjaśnialności jest także stworzenie efektywnego systemu odwoływania się od decyzji SI i możliwości dochodzenia roszczeń z tytułu błędnej/dyskryminującej decyzji SI; a ponadto – zapewnienie prawa do decyzji podejmowanej przez człowieka, w szczególności w sprawach sądowych.
- Konieczność powołania krajowych organów nadzoru nad SI.
- Stworzenie European certificate of ethical compliance oraz systemu certyfikacji w zakresie etyki SI.
- Niezależnie od postulatów powołania specjalnych organów nadzoru nad SI – wskazano na konieczność przygotowania innych organów do rozumienia/identyfikacji ryzyk związanych z SI.
- Przedstawiono w załączeniu do Rezolucji propozycje zapisów do przyszłego rozporządzenia UE “on ethical principles for the development, deployment and use of artificial intelligence, robotics and related technologies”.
Ad. 2 – Odpowiedzialność cywilna
- Konieczność zapewnienia odszkodowania poszkodowanym przez SI w całej UE.
- Ten, kto tworzy, utrzymuje i kontroluje system sztucznej inteligencji i kto ingeruje w jego działanie, powinien być odpowiedzialny za szkody wynikające z działania, funkcjonowania urządzenia czy procesu.
- Sposób zbierania i wykorzystania danych powinien być kluczowym elementem oceny w postępowaniu dowodowym dotyczącym odpowiedzialności za SI.
- Nie jest konieczne nadanie SI osobowości prawnej.
- Konieczność rewizji przepisów o odpowiedzialności za produkt niebezpieczny – dostosowanie ich do świata cyfrowego.
- Sugestia dla KE, aby rozważyć zmiany i przekształcenie Product Liability Directive (Dyrektywa w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych Państw Członkowskich dotyczących odpowiedzialności za produkty wadliwe) w rozporządzenie, które będzie miało zastosowanie do odpowiedzialności za SI.
- Konieczność dostosowania także General Product Safety Directive (dyrektywa o ogólnym bezpieczeństwie produktów – zapewnienie, że system SI jest bezpieczny by design.
- Odpowiedzialność za SI na zasadzie winy jest niewystarczająca, w szczególności ze względu na trudność w wykazaniu winy.
- Wprowadzenie pojęcia operatora systemu SI, jako osoby fizycznej lub prawnej, która sprawuje pewna kontrolę nad ryzykiem związanym z użyciem SI i uzyskuje z niego korzyści.
- Jeśli jest więcej operatorów, to powinni być oni odpowiedzialni solidarnie (jointly and severally).
- Different liability rules for different risk: odpowiedzialność na zasadzie ryzyka (strict liability rules) dla SI wysokiego ryzyka.
- Wyczerpująca lista SI wysokiego ryzyka powinna być załącznikiem do rozporządzenia UE w tym zakresie. Powinna ona jednak podlegać przeglądom KE, ze względu na szybki rozwój. Z takiego samego względu konieczne jest przyjęcie wobec regulacji SI “fast-track approach” – śledzenie pojawiających się na rynku nowych urządzeń i systemów SI, rozważenie potencjalnych ryzyk, rekomendacja odpowiednich działań (KE).
- Ocena, czy dana technologia jest high-risk AI powinna być równoległa z oceną bezpieczeństwa produktu, aby żadne SI wysokiego ryzyka nie mogły funkcjonować na rynku bez obowiązkowego ubezpieczenia.
- Odpowiedzialność na zasadzie ryzyka (strict liability) powinna dotyczyć takich wartości jak: życie, zdrowie, integralność fizyczna, własność. Obejmować powinna zarówno szkodę, jak i krzywdę.
- Systemy SI inne niż high-risk powinny być objęte odpowiedzialnością na zasadzie winy (fault-based liability); domniemanie winy operatora, z możliwością jego ekskulpacji poprzez zachowanie należytej staranności (duty of care).
- Dodatkowo jednak te systemy SI, które wprawdzie nie zostały jeszcze zakwalifikowane jako high-risk, powinny podlegać odpowiedzialności na zasadzie ryzyka, jeśli powodują powtarzające się incydenty skutkujące istotna krzywdą lub szkodą. KE powinna wtedy niezwłocznie rozważyć włączenie ich do listy high-risk AI z mocą wsteczną od dnia wyrządzenia pierwszej szkody.
- Do rozważenia przez KE zakazania “non-liability clauses” w umowach B2B oraz B2A.
- Należy wprowadzić Ubezpieczenia obowiązkowe dla high-risk AI, z określoną przepisani sumą ubezpieczenia.
- PE nie rekomenduje stworzenia mechanizmu kompensacji szkód wyrządzonych przez SI na poziomie unijnym.
- W propozycjach zapisów do przyszłego rozporządzenia wskazano nowe terminy przedawnienia roszczeń z tytułu odpowiedzialności cywilnej, dotyczące uszczerbku na życiu, zdrowiu lub nietykalności cielesnej (30 lat) oraz z tytułu odpowiedzialności cywilnej, dotyczące szkody w mieniu lub istotnej szkody niematerialnej skutkującej możliwą do zweryfikowania szkodą ekonomiczną, przedawniają się w szczególności (10 lub 30 lat).
Ad. 3 – Prawa własności intelektualnej
- Podkreślenie roli europejskiej przestrzeni danych, która musi zostać stworzona celem rozwoju innowacyjności UE oraz rolę transparentności w kreowaniu produktów i usług SI, co ma pomóc w zarządzaniu IPR.
- Konieczność wyważenia takich wartości jak wkład inwestycyjny i nadkłady na SI, ale także kreatywność i wkład twórczy człowieka.
- Konieczność rewizji dotychczasowych przepisów dotyczących praw autorskich, praw własności przemysłowej, ochrony baz danych, know-how – generalnie potrzeba wyważenia różnych wartości w celu rozwoju gospodarki UE.
- Konieczność stworzenia możliwości łatwiejszego patentowania rozwiązań stworzonych SI oraz ram ochrony dla tajemnic handlowych/know-how, które nie korzystają z ochrony patentowej lub prawa autorskiego, a są istotną wartością dla firm i powinny być zabezpieczone prawnie.
- Trzeba zapewnić ochronę wytworom SI (głównie ze względów ekonomicznych), ale nie powinna być to taka sama ochrona jak dla utworów, których autorem mogą być tylko ludzie (natural persons).
- Konieczność ochrony wytworów SI (AI-generated creations), ale bez konieczności przyznawania SI osobowości prawnej.
- PE zakłada odmienne traktowanie utworów wytworzonych przez człowieka z pomocą SI, a inaczej przez samą SI. W tym pierwszym wypadku mają podlegać ogólnym ramom prawa własności intelektualnej („dzieła wyprodukowane samodzielnie przez sztuczne podmioty i roboty mogą nie kwalifikować się do ochrony na podstawie prawa autorskiego w celu poszanowania zasady oryginalności związanej z osobą fizyczną, ponieważ pojęcie „twórczości intelektualnej” odnosi się do osobowości autora.”).
- Parlament nie przedstawił pomysłów dla oceny ochrony utworów stworzonych tylko przez SI. Wiadomo jednak, że ma to zostać podjęte w sposób neutralny technologicznie.
- W zakresie wykorzystywania danych IP w celu uczenia SI należy się opierać na dotychczasowych przepisach dotyczących ograniczeń i wyjątków w tym zakresie.
Z niecierpliwoscią czekamy na dalsze kroki w tworzeniu prawa SI w UE 🙂