Post na Twitterze umieszczony przez aktorkę Alyssę Milano sprawił, że hasztag #MeToo został rozpowszechniony wśród kobiet dookoła świata, w efekcie stając się viralem. Od tego dnia ruch „Me Too” – dający głos kobietom z całego świata, które były napastowane bądź molestowane seksualnie – stał się powszechnie znanym zjawiskiem. Dla uściślenia, ruch ten zapoczątkowała jeszcze wcześniej aktywistka Tarany Burke ponad 10 lat temu.

Od 2017 roku ruch „Me Too” pomaga milionom kobiet na całym świecie i zachęca je do zabierania głosu, nie tylko na temat przemocy na tle seksualnym czy molestowania, ale także do wyrażania swoich opinii i potępiania nierówności płac, braku równych szans do pracy i awansu, dyskryminacji przez wymiar sprawiedliwości, w sektorze edukacji (całkowity brak parytetu w wydarzeniach akademickich, współpracy, publikacjach i promocjach). Dyskryminacja jest powszechna nie tylko w sektorze publicznym, ale także w sektorze prywatnym.

W świetle tej sytuacji ruch „Me Too” stara się pomóc kobietom poprawić jakość ich życia w społeczeństwie, domagając się równości, oraz praw i możliwości, które posiadają mężczyźni.

Na szczeblu rządowym i regulacyjnym pojawiają się oznaki poprawy (w różnym stopniu w poszczególnych krajach), ale nadal brak konkretnych rozwiązań na poziomie regulacyjnym.
Na ten moment nie istnieją żadne silne ramy regulacyjne, które sankcjonowałyby nierówne prawa i możliwości; jest to jedynie wymóg moralny.

Wszystko wskazuje na to, że ruch „Me Too” dał początek debaty dotyczącej masowej dyskryminacji kobiet. Temat ten podejmowany jest również przez opinię publiczną w Polsce, choć ogranicza się raczej do prasy kobiecej. W pierwszym numerze 2020 polskiej edycji Forbes Women znajdziemy dwa artykuł dotyczące tego tematu – „Walka trwa” i „Biznes po #MeToo”.

Kiedy świat i media komentują proces Harvey’a Weinstein’a, a organizacje wspierające kobiety podejmują coraz to nowe działania, żeby zapobiegać dyskryminacji elementy sztucznej inteligencji pojawiają się w kolejnych obszarach naszego życia.

Jaki związek ma sztuczna inteligencja z ruchem „Me Too”?

Istotne jest, aby podkreślić, że algorytmy używane w rozwiązaniach które wykorzystują sztuczną inteligencję bazują na historycznych danych. Innymi słowy, chodzi o dane zbierane na przestrzeni ostatnich lat, lub od momentu uruchomienia aplikacji która wykorzystuje AI. Od jakości (zwłaszcza na poziomie danych granularnych) i różnorodności tych danych zależy jakie wyniki, podpowiedzi, rozwiązania podsunie nam AI. Dlaczego to ważne?

Sztuczna Inteligencja „może łatwo utrwalić istniejące wzorce uprzedzeń lub stronniczości oraz dyskryminacji (…). Co gorsza, „pozory obiektywizmu” zaawansowanych technologicznie systemów skutkują wynikami, które nie są lepsze, a czasami znacznie gorsze, niż te uzyskane „od ludzi”. Według Lucy BERNHOLZ, dyrektor Laboratorium Cyfrowego Społeczeństwa Obywatelskiego i starszego badacza na Uniwersytecie Standforda (PACS), pomysł, że ludzie mogą wyeliminować uprzedzenia, stronniczość czy dyskryminację dzięki AI, to science fiction.

Wbrew rozlewającemu się po świecie i mediach ruchowi „Me Too”, ta historyczna i masowa dyskryminacja, której doświadcza większość kobiet, będzie cementowana we wszystkich dziedzinach, bez możliwości zmian, w efekcie wdrożenia i wykorzystania technologii AI. Jak wskazują eksperci, utrwala istniejące wcześniej wzorce zachowań – często seksistowskie, dyskryminacyjne i agresywne.
Należy również oczywiście wskazać, że jest to tylko jedna strona medalu, zaś zwolennicy AI, jak i eksperci w jej wykorzystaniu są świadomi zaistniałego problemu i „tendencyjności” algorytmów, na podstawie których AI dokonuje kalkulacji. Nie bez powodu powstał obszar zajmujący się XAI (Explainable Artificial Intelligence), w którym trwają prace nad tym, aby AI mogła wskazać jak podjęła daną decyzję i na jakich danych została ona oparta. Problem nie umknął także arenie międzynarodowej. Założeniem Komisji Europejskiej na najbliższe lata jest nie tylko szersze wykorzystywanie nowych technologii, jak DLT czy machine learning, ale także zbudowanie podwalin prawnych do ich funkcjonowania. AI nie jest tu wyjątkiem, ponieważ główną osią Komisji jest dążenie do tego, aby jej rozwojowi towarzyszyło zaufanie użytkowników do mechanizmów AI i danych, którymi się posługuje. W tym celu, powstał szereg inicjatyw oraz whitepapers, m.in. Ethics Guidelines for Trustworthy Artificial Intelligence czy Whitepaper On Artificial Intelligence – A European approach to excellence and trust.
Mimo to, od założeń do wyeliminowania problemu czeka nas jeszcze długa droga.

Jak to działa?
Dyskryminacja kobiet w miejscu pracy

W 2014 roku Amazon opracował zautomatyzowany program do rekrutacji, w którym „sztuczna inteligencja była używana do przyznawania punktów dla kandydatów, od jednej do pięciu gwiazdek”. Na szczęście dość szybko kadra menedżerska Amazona zorientowała się, że algorytm jest uprzedzony. System Amazonu nauczył się, że preferowanymi kandydatami są mężczyźni (bazując na historycznych danych), a życiorysy zawierające żeńskie przymiotniki („Kobiece Koło Szachowe”) były niżej oceniane niż te napisane przez kandydatów mężczyzn. W założeniach Amazonu program miał służyć optymalizacji czasu rekrutacji, a także miał być bezstronny. Efekt był jeszcze gorszy niż procesy prowadzone przez najbardziej uprzedzone rekruterki i rekruterów. Amazon finalnie z programu zrezygnował, ale niesmak pozostał… (więcej na ten temat w artykule zaprzyjaźnionego Centrum Cyfrowego)

Finansowa dyskryminacja kobiet

9 listopada 2019 roku na Twitterze David Heinemeier podniósł alarm, że program zastosowany przez Apple Card był niezwykle seksistowski. Zauważył, że pomimo tego, że on i jego żona złożyli wspólne zeznania podatkowe, mając wspólnotę majątkową i będąc małżeństwem od dłuższego czasu, algorytm Apple daje mu 20 razy większy limit kredytowy od jego żony. Obecnie karta Apple jest przedmiotem dochodzenia prowadzonego przez Departament Usług Finansowych Stanu Nowy Jork.

Dodatkowym, niepokojącym elementem całej układanki jest fakt, że algorytmy nie tylko nie są publiczne, ale wiele przedsiębiorstw traktuje je jako zastrzeżone tajemnice handlowe. Co gorsza, maszynowe uczenie się oznacza, że algorytmy mogą ewoluować w czasie rzeczywistym bez określonej ścieżki danych, danych wejściowych czy równań wykorzystanych do tworzenia predykcji, co dodatkowo utrudnia udowodnienie dyskryminacji. Ofiary dyskryminujących algorytmów rzadko wiedzą (jeśli w ogóle), że zostały poszkodowane. To dwa elementy, które sprawiają, że zjawisko jest jeszcze groźniejsze – czyniąc je cichym zabójcą tak podstawowego prawa, jakim jest równość.

Problem polega na tym, że skoro sztuczna inteligencja jest słabo uregulowana, to nie możemy być pewni, czy zaprzestano stosowania uprzedzonych algorytmów w Amazonie, Apple lub innych firmach na całym świecie. Skoro nie ma regulacji, absolutnie nikt (poza pewnymi wyjątkami) nie może tego potwierdzić. Jej nieodpowiednie stosowanie mogłoby negatywnie wpłynąć na życie połowy ludzkości (kobiet), utrwalając stereotypy i dyskryminację.

 

Kamila Kurkowska
Prezeska Fundacji Women in Law

 

Artykuł przygotowany ze wsparciem Marcjanny Bronowskiej, Gabrieli Bar i Macieja Kubiaka