Kolejna część cyklu artykułów dr M. Nowakowskiego poświęconego tematyce sztucznej inteligencji.

Na początku listopada pisałem o sztucznej inteligencji dążącej do „zapewnienia” zagłady ludzkości, ale oczywiście z pewnym przymrużeniem oka oraz mniej futurystycznym podejściem. Prawda jest taka, że dzisiaj powinniśmy się skupić na bardziej realistycznych scenariuszach niż perspektywa stworzenia tzw. General Artificial Intelligence, czyli sztucznej inteligencji symulującej zachowania człowieka lub wykraczającej poza jego możliwości intelektualne (to akurat w wielu aspektach już się dzieje, choć bardziej w zakresie „zasobności” wiedzy oraz „umiejętności” wykrywania różnych zależności pomiędzy danymi). W kolejnej części felietonu chciałbym skupić się na ważnym wątku, który spędza sen z powiem zarówno „technicznym”, jak i prawnikom, filozofom czy socjologom. Chodzi tutaj o tworzenie etycznej warstwy sztucznej inteligencji, o której jakiś czas temu opowiadaliśmy w ramach Ceforai.

Temat jest bardzo złożony i wielowątkowy, bowiem dotyka takich trudno rozstrzygalnych zagadnień jak:

1.    Wybór (właściwego?) modelu norm i zasad o charakterze etycznym – czy coś takiego w ogóle istnieje?

2.    Przekucia tych norm i zasad na algorytm i model sztucznej inteligencji – w kolejnych felietonach będę starał się przybliżyć takie koncepcje jak „Value Alignment”, „Binary Approach” i inne, które starają się zrealizować postulat etycznej AI,

3.    Oceny „zachowań” sztucznej inteligencji w warunkach niebinarnego świata rzeczywistego, w tym reakcji na tzw. czarne łabędzie, czyli rzadkie (ale możliwe do zrealizowania) sytuacje, których projektujący AI nie był w stanie przewidzieć,

4.    Możliwości trenowania modelu sztucznej inteligencji i testowania – jakie dane w takiej sytuacji brać pod uwagę i co uznać za „ok”?

5.    Wpływu osób trzecich na etyczne „zachowania” AI,

6.    Kwestia odpowiedzialności za etyczne działania – czy odpowiedzialność na zasadzie ryzyka zawsze jest odpowiednim wariantem?

7.    Problematyka inżynierii odwrotnej (zwrotnej) – reverse engineering – oraz problematyki wyjaśnialności (explainability).

Praktycznym problemem związanym z budowaniem etycznej sztucznej inteligencji jest przede wszystkim brak zgodności co do kluczowych jej elementów, jak również wyboru właściwego modelu postępowania czy instrumentów do jej realizacji. Wiele grup interesów ma sprzeczne poglądy w tym zakresie, a niekoniecznie jednolite podejście na poziomie międzynarodowym (z pewnymi wyjątkami, jak np. rekomendacje UNESCO dla etycznej AI) powoduje, że utworzenie prawidłowego (pytanie co to oznacza) wzorca aktywności AI w obszarze etyki może być utrudnione – jeżeli nie niemożliwe.

To z kolei rodzi pytanie o to czy sztuczna inteligencja powinna być etyczna globalnie, regionalnie czy lokalnie? O ile można wskazać pewne ogólne wzorce zachowań, których poszanowanie (prawie) wszędzie jest akceptowalne, np. prawa podstawowe (choć i tutaj znajdują się pewne wyłomy), to część z kwestii etycznych, np. w obszarze praw tzw. trzeciej generacji może już nie mieć charakteru uniwersalnego. A to już jest duże wyzwanie.

Ale o co właściwie chodzi?

Na początku felietonu oraz w jego pierwszej części dużo pisałem o tzw. General Artificial Intelligence, czyli sztucznej inteligencji będącej pewnym odwzorowaniem człowieka, ale dzisiaj skupimy się na bardziej przyziemnych scenariuszach dotyczących tych systemów [to jest kluczowe] AI, które wpływają na człowieka i jego otoczenie. Będą to więc takie rozwiązania jak samochody samojezdne (półautonomiczne), algorytmy wykorzystywane przez platformy społecznościowe czy sprzedażowe (eCommerce), ale także wszelkie rozwiązania stosowane przez sektor publiczny, np. dokonujące oceny obywateli, klasyfikacji i inne powiązane z aspektami bezpieczeństwa. Ciekawym przykładem są też dość szybko rozwijające się roboty wspierające np. osoby zniedołężniałe.

Również i one „zderzają” się z szeroko rozumianą sferą etyczną, choć może to się nam wydawać nieco abstrakcyjne. Abstrahuję tutaj od już nieco „przerobionego” dylematu zwrotnicy pociągowej, ale zwracam uwagę np. problematykę realizacji celu „za wszelką cenę”.

Każda sztuczna inteligencja realizuje określony cel. Cel określony przez człowieka. Człowiek określa parametry, zakres danych wejściowych i niekiedy wpływa w sposób istotny na to jak dany model uczy się pewnych zależności. Są jednak takie rozwiązania, które działają w sposób zautomatyzowany (co nie znaczy, że całkowicie autonomiczny) i mają przy przyjmowaniu odpowiedniego podejścia pewną swobodę. To zaś stawia pod znakiem zapytania to czy ich „działania” można klasyfikować jako etyczne. Ma to też ścisły związek ze wspomnianym przeze mnie problemem wyjaśnialności i często występującym zagadnieniem „czarnej skrzynki”, czyli (nie)możliwości odtworzenia schematu „myślowego”, który zastosował dany model sztucznej inteligencji. Ma to szczególne znaczenie, jeżeli chcemy kalibrować model (dostrajać go do pewnego optimum), w szczególności na bazie dotychczasowych aktywności.

W takim przypadku niezwykle istotne staje się zaprogramowanie pewnych bazowych norm „postępowania” lub przynajmniej zakazów, o ile jest to oczywiście możliwe. Niestety, powiedzmy sobie szczerze – 0/1 świat oprogramowania nie jest zbyt elastyczny i trudno w nim odzwierciedlić świat rzeczywisty, który nie opiera się zawsze o zwykłe „tak” i „nie”. Nawet jeżeli uda się w pewnym zakresie przenieść normy moralne (z prawem jest nieco łatwiej), to nie daje nam to gwarancji, że czegoś nie przeoczymy lub nie przygotujemy modelu na scenariusz „czarnego „łabędzia”.

Można więc przyjąć, że o ile nie jest możliwe stworzenie uniwersalnego i łatwo aplikowalnego (na razie) modelu etycznej sztucznej inteligencji, to akcent powinien być przeniesiony bardziej na osoby (ludzi) odpowiedzialnych za tworzenie i użytkowanie takich systemów, co jednocześnie nie wyklucza możliwości zastosowania pewnych rozwiązań technicznych, o czym w kolejnym felietonie. Nie wyklucza to jednocześnie możliwości wystąpienia błędu, ale chyba nikt nie ma złudzeń, że uda się stworzyć „idealny” model sztucznej inteligencji. To jest po prostu niemożliwe. Tym bardziej, że AI to dane, a dane mogą mieć różną jakość.

To tyle tytułem wstępu do „naszych” problemów w kontekście etyki sztucznej inteligencji. Kolejna część poświęcona będzie tworzeniu uniwersalnych wzorców zachowań, gdzie zahaczymy już o konkretne (inżynieryjne) rozwiązania w tym zakresie.

autor: dr Michał Nowakowski