Czy zastanawialiście się kiedyś na tym co się stanie, jeżeli komputery osiągną inteligencję równą co najmniej naszej (ludzkiej)? Abstrahując od tego czy jest to w ogóle możliwe (i tego czym jest sama sztuczna inteligencja, o czym za chwilę), czy „ludzka” sztuczna inteligencja będzie nadal realizowała cele określone prze człowieka, czy też mają własną „świadomość” będzie dążyła do maksymalizacji własnych korzyści? A może będzie uczyła się również negatywnych wzorców i przekładała je na swoje działania? Może dostrzeże, że człowiek jest „tym złym”, który może w każdej chwili pozbawić ją (sztuczną inteligencję) egzystencji? Chyba, że wcale nie i przejmie nasze dobre schematy, normy i zachowania i potraktuje je jako godne wykorzystania? Kto wie?

Ja niestety nie znam odpowiedzi na te pytania, ale pojawiają się one dość często w dyskusji nie tylko akademickiej, ale i na poziomie tworzących prawo i regulacje. Choć wstęp do felietonu jest mocno futurystyczny i może przyprawić tych bardziej stąpających po ziemii o przyśpieszone bicie serca, to problem jest istotny i potrzebuje rozwiązania, choć moim zdaniem akcent należy położyć gdzie indziej. Może chodzi o to, o czym wspominał ostatnio Yuval Harari (zachęcam do obejrzenia mojego wideobloga na ten temat), a więc regulowaniu już istniejących rozwiązań znajdujących się w rękach największych graczy oraz budowaniu szeroko rozumianej etyki sztucznej inteligencji? A może nie…

Zacznijmy od silnej sztucznej inteligencji

Nie będę tutaj przytaczał różnych źródeł, ale zainteresowanych pogłębieniem tematu rozwoju technologicznego AI polecić mogę kilka ciekawych pozycji (m.in. i ). Ważne jest to, że na dziś nie możemy mówić o tzw. silnej sztucznej inteligencji (General Artificial Intelligence), która w odróżnieniu od słabej sztucznej inteligencji (tego co mamy obecnie), ma w jaki sposób odwzorowywać lub symulować ludzki umysł czy inteligencję, a więc uczyć się i podejmować działania czy decyzje w sposób możliwe najbardziej imitujący (odwzorowujący) nasze zachowania. Jest to rezultatem kilku problemów, które mamy w kontekście rozwoju AI w ogóle, tj. przykładowo nie wiemy do końca jak działa nasz mózg (może też jest „tylko” algorytmem?), a tym bardziej nie wiemy do końca jak ten mózg zasymulować, nawet jeżeli głębokie sieci neuronowe są jakąś tego próbą.

Rozwiązania, które funkcjonują obecnie są dość ograniczone w tym sensie, że zazwyczaj realizują jeden określony cel – wskazany przez człowieka – i choć mogą uczyć się „nowych rzeczy” na bazie dostarczanych danych (dla zainteresowanych mój artykuł o uczeniu ze wzmacnianiem, to jednak w dalszym ciągu jest to bardzo zamknięty ekosystem, w którym trudno mówić o autonomiczności. Nawet szumnie nazywane autonomicznymi – samochody samojezdne – mają określony cel jakim jest dotarcie do celu, choć wybór drogi, a także unikanie wszelkich przeszkód na drodze, pozostawia się rzeczywiście sztucznej inteligencji. Na pierwszy rzut oka nie ma więc tutaj zagrożenia, choć gdybyśmy przypomnieli sobie tutaj tzw. Deadly Dillema, czyli dylemat, w którym musimy wybrać kogo uśmiercić (np. kierowcę czy pieszego), to sprawy nam się komplikują. O tym napiszę jednak przy innej okazji, bo temat wymaga bardziej pogłębionej analizy.

Dzisiaj panuje więc zgoda, że dostępne systemy sztucznej inteligencji są inteligencją z nazwy i choć mają nad nami znaczną przewagę (moc obliczeniową, nieograniczony dostęp do danych, szybkość i efektywność), to jednak w tylko wąskim zakresie, a brakuje im czegoś co często pojawia się w dyskusjach – świadomości (consciousness), która mogłaby przykładowo „sugerować” AI wyrwanie się z okowów władzy człowieka. I znowu zastrzeżenie – sami do końca nie wiemy czy owa świadomość w ogóle jest i czy kiedykolwiek ją zrozumiemy.

No, ale może GAI się kiedyś pojawi?

No właśnie. To jest największa zagadka i sporo autorów kontestujących mi bliższe podejście zakładające, że nie powinniśmy się (aż) tak martwić na zapas, twierdzi że skoro nie wiemy kiedy nas to zaskoczy, to powinniśmy być na to przygotowani. S. Russel w jednym ze swoich felietonów napisał o przykładzie kierowcy busa pełnego ludzi, który zwraca się do nich tymi słowami:

Yes, I’m driving toward a cliff – in fact, I’m pressing the pedal to the metal. But trust me, we’ll run out of gas before we get there

Innymi słowy jesteśmy przekonani, że GAI nas nie zaskoczy, ale benzyny na dojechanie do klifu może jednak wystarczyć, co uzasadnia określone środki bezpieczeństwa. Rzeczywiście, nie wiemy czy i kiedy rozwój nauki i technologii pozwoli nam na stworzenie inteligencji tak supersztucznej, że – uwzględniając już istniejące przewagi, których nie można pomijać – zacznie powoli przejmować władzę nad ludźmi.

Paradoksalnie, sztuczna inteligencja – może nie tak super – zaszyta już w wielu serwisach (w tym społecznościowych) wywiera na nas wpływ, o czym często nawet nie wiemy. I nie chodzi mi tutaj o stosowanie wyszukanych technik manipulacji (czy podprogowych – o ile mają one jakiś skutek), ale po prostu wykorzystywaniu informacji o nas samych, którymi dość często i gęsto dzielimy się z operatorami tych serwisów. Na tej podstawie i przy zastosowaniu stosunkowo prostych technik i metod, w tym statystycznych, modele sztucznej inteligencji i zaawansowane algorytmy już teraz mogą nam „podsuwać” różne rekomendacje czy propozycje i tym samym wpływać na nasze decyzje, nie tylko zakupowe. Nawet algorytmy wyszukiwania – szczególnie kontekstowego – są w stanie nami „manipulować” i ukrywać określone treści, a promować inne. Możemy się przed tym bronić oraz twierdzić, że „nas to nie dotyczy”, bo jesteśmy autonomicznymi i myślącymi jednostkami, ale prawda może okazać się bolesna. My też jesteśmy podatni na różne techniki, szczególnie jeżeli ktoś wie o nas zdecydowanie więcej niż my sami.

Ale uciekłem od tematu. Taka prawdziwa „terminatorowa” sztuczna inteligencja może rzeczywiście się pojawić i to niekoniecznie za 70 lat, ale i choćby jutro. Tego oczywiście nie wiemy, bo wieloma zdarzeniami (wszystkimi?) rządzą przypadki. A poza tym o wielu kwestiach po prostu nie wiemy. Jeżeli taka super sztuczna inteligencja zawita do nas to możemy rzeczywiście mieć spory problem, bo będziemy o niej wiedzieli prawdopodobnie zdecydowanie mniej niż nam się wydaje. Szczególnie, jeżeli jej sposób „myślenia” (a może już bez cudzysłowiu) będzie dla nas czarną skrzynką. Nie będziemy wiedzieli czy ma pokojowe zamiary i czy realizować będzie cel określony przez człowieka, a nawet jeśli, to czy przyjmie „właściwe” wzorce (jakkolwiek byśmy ich nie zdefiniowali, co również stanowi pewne wyzwanie w skali międzynarodowej).

No dobra, ale może dość tego „bełkotu”?

Osobiście nie jestem zwolennikiem skupiania się na problematyce GAI, choć nie można tego ignorować szczególnie w kontekście etyki (o tym przy innej okazji). Problemy, które mamy obecnie dotyczą wspomnianej już przeze mnie manipulacji, która zaczyna coraz mocniej postępować i stajemy się niejako niewolnikami AI (nie ma chyba rzetelnych badań na ten temat, ale możemy przyjąć pewne założenia, bazując chociażby na zainteresowaniu jakim cieszy się Facebook, Google czy Instagram). I choć nie jest to AI (o ile w ogóle jest to sztuczna inteligencja) o jakim mówią i myślą futuryści, to ryzyka z nią związane są nie mniej groźne i realne. Choć – i tutaj ważna uwaga – realizują one cele określone przez człowieka i dla jego korzyści, a nie są autonomiczne. A to może się okazać bardziej brzemienne w skutkach.

Tym zajmę się jednak w kolejnym felietonie. Dzisiaj chciałbym otworzyć jedynie dyskusję, bo temat ciekawy i należy o nim rozmawiać. Tym bardziej, że społeczeństwo się polaryzuje, również w kwestii poglądów na AI. Warto więc rozmawiać. Do „przeczytania” wkrótce!

autor: dr Michał Nowakowski