Kolejna część cyklu artykułów dr M. Nowakowskiego poświęconego tematyce sztucznej inteligencji.

Czy kiedykolwiek robiłeś/aś testy genetyczne, np. pod kątem ryzyka występowania nowotworu? Jeżeli tak, to czy zakładając mało pozytywny scenariusz, myślałeś/aś o przyszłości swojego potomstwa? Czy przyszło ci na myśl, że dobrze byłoby usunąć taki „negatywny” element kodu genetycznego? Nauka poszła już tak do przodu, że jesteśmy w stanie – z pewnym prawdopodobieństwem – przewidzieć wystąpienie różnych chorób o podłożu genetyczny. A co jeżeli poszlibyśmy jeszcze dalej? Jeżeli poza możliwością wykrywania potencjalnych „wad”, moglibyśmy także je eliminować, a nawet wzmacniać nasze zdolności, np. o podłożu kognitywnym? Co jeżeli moglibyśmy kupić odpowiednie techniczne (technologiczne?) „wzmacniacze”, tak jak robimy to teraz np. w przypadku zaburzeń i chorób związanych z funkcjonowaniem mózgu i środków dostępnych w aptekach?

Nie jest to wcale takie science-fiction jak się nam wydaje. Inżynieria biomedyczna oraz neurobiologia poszły bardzo do przodu i już dzisiaj z użyciem różnych rozwiązań opartych o jakąś formę „sztucznej inteligencji” i możliwości stymulowania naszego mózgu jesteśmy w stanie przeciwdziałać przykładowo chorobie Parkinsona czy ograniczać skutki ADHD. Nie jest też już niczym – zupełnie – nowym „podmiana” niektórych części naszego mózgu na rozwiązania technologiczne, np. swoiste „chipy”. I nie ma to nic wspólnego z „chipami 5G Billa Gates’a”.

Nauka idzie jednak jeszcze dalej i poza działaniami o charakterze terapeutycznym, coraz częściej rozważamy możliwość wzmacniania naszych zdolności (human-brain enhancements), np. zwiększenie inteligencji, szybsza nauka czy wręcz „błyskawiczne uczenie nowych umiejętności”. Człowiek ma naturalną tendencję do tego, aby osiągać wyższe poziomy i przekraczać kolejne bariery. Nie jest więc nic dziwnego w tym, że próbujemy przezwyciężyć nasze ograniczenia (pytanie bez odpowiedzi – czy potrzebujemy do tego „zewnętrznego” wsparcia), np. w obszarze nauki. O ile w przypadku poprawy stanu naszego zdrowia ma to konkretne uzasadnienie, to w przypadku komercyjnej poprawy nas samych lub naszego potomstwa (np. genetyczne modyfikowanie zarodków) może to już nie do końca być dla nas zrozumiałe i akceptowalne.

Taki świat w którym jedni mają dostęp do modyfikacji, a drudzy nie, np. ze względu na brak środków czy pewne polityczne lub społeczne ograniczenia, będzie światem jeszcze bardziej nierównym niż jest teraz. Nie będzie też sprawiedliwy, bo ci ludzie z przewagą będą znacznie bardziej „atrakcyjni” w wielu obszarach. Stąd prosta droga do wykluczenia ludzi o mniejszych możliwościach. A to prowadzić może do sami wiecie czego.

To jednak nie jedyny problem o charakterze etycznym, bo tak należy to kwalifikować. Wprowadzając do naszego mózgu pewne modyfikacje, np. wykorzystujące „sztuczną inteligencję” (niekoniecznie rozumianą jako General Artficial Intelligene – poczytajcie więcej tutaj i tutaj), pod znakiem zapytania stawiamy nasze człowieczeństwo, bo pytanie – znowu otwarte – czy używając takich wzmacniaczy nadal jesteśmy tymi samymi osobami przed zabiegiem? Pytanie jest otwarte, bo nawet dzisiaj nie do końca wiemy „czym” lub „kim” jesteśmy i co stanowi o naszej świadomości i „jestestwie”. C. Turner i S. Schneider (The Oxford Handbook of Ethics of AI) wskazują tutaj na cztery zasadnicze koncepcje:

  1. Brain-based materialism – mózg to my;
  2. Teorię dualistyczną – dusza, kartezjańskie ego;
  3. Teorię psychologiczną – „my” to nasze doświadczenia, wierzenia, wspomnienia etc.
  4. No Self View – „ja” to fikcja.

Wybór tego, która opcja bardziej nam odpowiada jest o tyle istotny, że – przynajmniej z naszego punktu widzenia – determinuje podejście do takich wzmacniaczy zdolności, np. kognitywnych i rozumienia tego czy zostajemy sobą czy też stajemy się swoistą formą pośrednią. Może to mieć znaczenie również w sferze bardzo praktycznej, np. odpowiedzialności, w tym cywilnej i karnej, ale także emocjonalnej. Abstrahując od naszych rozważań odnośnie systemów sztucznej inteligencji wysokiego ryzyka, pojawiają się bardzo poważne wątpliwości co do tego czy powinniśmy dopuszczać swoistą eugenikę opartą o inżynierię biomedyczną. Już dzisiaj w jakimś stopniu staramy się temu przeciwdziałać, próbując uchwalać prawo i regulacje, które w jakiś sposób porządkują wykorzystanie różnych produktów o takim charakterze. Jest to jednak jeszcze dość odległa przyszłość zanim stanie się to bardzo powszechne.

W nauce dość często podkreśla się jedną ważną kwestię. Skoro nie wiemy jaki skutek może mieć takie wzmocnienie, także dla celów terapeutycznych, to powinniśmy być względem pacjenta maksymalnie przejrzyści. Musi on mieć świadomość tego, że taka zmiana może nie być wcale dla niego neutralna, że może wpływać na jego „ja”. I nie jest to wcale tak bardzo odległe od stosowanych środków psychotropowych etc., choć oczywiście skala jest zupełnie inna.

Co więcej, musimy zastanawiać się czy rzeczywiście jako społeczeństwo chcemy akceptować (nawet komercyjnie) tego typu praktyki? Abstrahuję tutaj od różnych wytycznych dla etycznej AI (jak np. taki dokument opracowany przez WHO), bo chodzi o konsensus co do kierunku tych zmian. Szersze wprowadzenie takich wzmacniaczy będzie mogło mieć pozytywne, ale i negatywne skutki, a więc musi to być decyzja bardzo dobrze uzasadniona. Jednocześnie musimy mieć świadomość, że nawet jeżeli tego zakażemy, to niekoniecznie spowoduje to eliminację zjawiska z naszej rzeczywistości (szara albo czarna sfera). Warto się nad tym głębiej zastanowić, bo temat nie jest oczywisty, a wpłynie nas i nasze środowisko. Czy chcemy, aby w przyszłości nasze dzieci miały ograniczony dostęp do społeczeństwa?

autor: dr Michał Nowakowski