Outsourcing władzy publicznej na rzecz #sztucznainteligencja. Temat nabierający szczególnego znaczenie w czasach, w których radykalizm oraz populizm zyskują na poparciu, a ochrona praw człowieka staje się tym bardziej istotna. Jednocześnie niewiele dyskutujemy o tym w przestrzeni publicznej, a bez wątpienia będzie on nas dotykał w przyszłości – o ile już nas nie dotyka. Sztuczna inteligencja kusi wszystkich – nie tylko biznes, ale także różne reżimy autorytarne, które dzięki niej mogą lepiej (?) kontrolować obywateli i przeciwdziałać ewentualnym działaniom wywrotowym. Modele SI są jednak coraz szerzej stosowane i w krajach demokratycznych, choć skala zagrożeń – paradoksalnie – nie jest mniejsza niż w przypadku wspomnianych reżimów. Jest to konsekwencja samej konstrukcji SI, o której szerzej w dalszej części.

O co właściwie chodzi? Władza musi być sprawowana przez upoważnione do tego organy/instytucje i w granicach przyznanych przez prawo. Władza powinna być przejrzysta i wykonywana z poszanowaniem prawa. W dużym skrócie oczywiście, bo tematyka ta jest niewątpliwie bardziej rozbudowana i wielowątkowa – znacznie wykraczająca poza ramy dzisiejszego felietonu. Przykładowo Konstytucja RP upoważnia obywateli do uzyskiwania informacji o działalności organów władzy publicznej, a to prowadzi nas – uprzedzając fakty – do naczelnej zasady dla sztucznej inteligencji godnej zaufania, czyli wyjaśnialności #explainability. Patrząc szerzej sprawowanie władzy publicznej nie powinno być przekazywane (outsource’owane) na osoby trzecie (z pewnymi wyjątkami_), bo imperium jest „dobrem” chronionym i podlega szczególnym ograniczeniom, np. określonym w Kodeksie Postępowania Administracyjnego.

Ostatnie lata to wzrost zainteresowania #sztucznainteligencja, również po stronie organów publicznych, które pomimo swoich istotnych ograniczeń (w tym infrastrukturalnych) zaczynają dostrzegać potęgę jaką dają dane połączone z np. #machinelearning #uczeniemaszynowe. Rozwiązania takie mogą być wykorzystywane to spraw wewnętrznych, np. dotyczących pracowników administracji czy konstruowania pism, ale także dotykać obywateli bezpośrednio, np. w zakresie dystrybucji benefitów czy alokacji zasobów, ale także np. sfery budżetowej. Władza publiczna może wykorzystywać systemy sztucznej inteligencji m.in. do oceny społecznej obywateli, wyszukiwania jednostek „zagrażających” państwowości czy decydowania w sprawach podatkowych. Możliwości jest naprawdę sporo i ogranicza nas tylko wyobraźnia. Ale czy napewno tylko wyobraźnia?

W wielu przypadkach outsourcing wspomnianej już władzy publicznej jest zakazany w sposób bezpośredni lub dorozumiany. Decyzje – z istoty rzeczy – nie mogą być wydawane przez systemy sztucznej inteligencji, ale organy administracji, choć pozostaje pytanie czy taki model #si może być twórcą zasadniczego zrębu takiej decyzji. O ile strona nie odwoła się lub nie zażąda wyjaśnień jej podstawy, może nie być problemu, ale w odwrotnej sytuacji możemy mieć spore wyzwania. Tym bardziej, że coraz więcej rozwiązań, tych o dużym stopniu zaawansowania, funkcjonuje w modelu #blackbox uniemożliwiającym poznanie czynników, które stały u podstawy takiej a nie innej decyzji #si. Jak w takiej sytuacji „wytłumaczyć się” obywatelowi? Ważne jest przy tym także to jak dany model SI w ogóle funkcjonuje (na ile jest on autonomiczny i decyzyjny) oraz czy ma jakiś specjalny status. Dzisiaj nie mówimy wprawdzie o osobowości sztucznej inteligencji, ale problem pozostaje. Warto rozmawiać o tym gdzie leży granica wyjaśnialności modeli sztucznej inteligencji pozostających w „rękach” organów publicznych i co ma prawo wiedzieć obywatel.

To jedna kwestia. Druga to zagadnienie odpowiedzialności za działanie systemów #si, które mogą być przecież zbiasowane czy podejmować dyskryminacyjne decyzje. Tym bardziej, że modele uczą się na historycznych danych, a więc to co przykładowo zostało zrobione źle w przeszłości, będzie miało przełożenie na przyszłość. Garbage in, garbage out. Chyba, że zastosujemy proste (nieuczące się) drzewka decyzyjne. Pytanie czy o to chodzi? Organy, które decydują się na wdrożenie systemów #si muszą mieć odpowiednie mechanizmy kontroli, nadzoru, raportowania i podejmowania decyzji w sytuacjach „kryzysowych”. To także odpowiedzialność względem obywatela, także w wymiarze sprawozdawczym. Zasady kompensacji szkód za niezgodne z prawem działanie organów publicznych to jedno, a przejrzystość to drugie.

Z drugiej strony już dzisiaj pojawia się pytanie czy skoro dany zautomatyzowany model podejmuje jakieś decyzje o charakterze publicznym, to i w jakich granicach powinien za nie odpowiadać dany organ. Skoro niektóre modele są „niewyjaśnialne” i mogą działać w sposób szkodliwy dla obywatela, to czy odpowiedzialność państwa powinna być tutaj na zasadzie absolutnego ryzyka? Decyduję się na wdrożenie rozwiązania, to biorę „na klatę” wszystkie tego konsekwencje? Temat ten poruszam przy okazji władzy publicznej, ale jest on aktualny i w przypadku rozwiązań o charakterze prywatnym. Nad zasadami odpowiedzialności SI prowadzone są przecież intensywne prace.

Ciekawym zagadnieniem jest też to czy możliwość stosowania decyzyjnych, ale i predykcyjnych, modeli sztucznej inteligencji powinna być dopuszczalna w każdym przypadku, czy też podlegać określonym ograniczeniom, np. wiązać się z wymogiem wyraźnego wskazania takiej możliwości w przepisach prawa. Dzisiaj mamy już mechanizmy obronne dla obywatela, które zawarty zostały w art. 22 ust. 1 RODO, czyli:

Osoba, której dane dotyczą, ma prawo do tego, by nie podlegać decyzji, która opiera się wyłącznie na zautomatyzowanym przetwarzaniu, w tym profilowaniu, i wywołuje wobec tej osoby skutki prawne lub w podobny sposób istotnie na nią wpływa.

Z zastrzeżeniem pewnych wyłączeń oraz – niestety – art. 23. Znajdziemy tam szeroki katalog sytuacji, w których taki automatyzm będzie dozwolony, oczywiście przy zastosowaniu pewnych gwarancji, głównie w obszarze podstawowych praw i wolności. Istnieje pewna obawa, że ten przepis może stanowić „nierówną” furtkę dla organów publicznych, które chciałyby wdrażać takie rozwiązania – dla różnych celów.

Idąc dalej pojawia się kwestia tzw. scoringu społecznego oraz identyfikacji biometrycznej w przestrzeni publicznej (celowo opisywanych razem). Projektowane rozporządzenie w sprawie sztucznej inteligencji, o którym wielokrotnie już pisałem, ma – przynajmniej w jakimś zakresie – ukrócić możliwość stosowania takich rozwiązań, choć nie jestem aż takim optymistą, że stosowanie takich praktyk będzie całkowity zakaz. Inną sprawą jest też nałożenie na organy publiczne pewnych obowiązków w zakresie systemów tzw. wysokiego ryzyka. Obowiązki te, o ile zostaną przyjęte stosowne przepisy, będą prawdziwym wyzwaniem dla sektora publicznego, bo będą wymagały nie tylko poniesienia dużych kosztów jednorazowych, ale także stałych. Poza tym konieczne będzie posiadanie „stałego” personelu, który będzie musiał sprawować nad systemami sztucznej inteligencji odpowiedni nadzoru i kontrolę – zgodnie z zasadą human-in-the-loop.

Odrębnymi kategoriami związanymi z SI w sektorze publicznym jest sądownictwo i wykorzystanie dla celów militarnych. Jeżeli będziecie zainteresowani, to chętnie pochylę się nad tym zagadnieniem i przybliżę Wam wyzwania jakie tam się pojawiają.

I na koniec refleksja. Możemy się dzisiaj zastanawiać czy korporacje nie inwigilują nas nadmiernie oraz nie prowadzą manipulacji nami i naszymi danymi. Prawda jest jednak taka, że przynajmniej teoretycznie, mamy wybór i w każdej chwili możemy zrezygnować z produktu i usługi czy też zażądać usunięcia danych. W przypadku sektora publicznego, jeżeli zacznie on stosować SI na szerszą skalę, sprawa nie będzie już tak oczywista. Dlatego już dzisiaj warto zastanowić się nad stworzeniem jasnych zasad dotyczących wykorzystania sztucznej inteligencji przez państwo. Tym bardziej, że – chyba – nie chcemy być kolejnymi Chinami.

 

autor: dr Michał Nowakowski