Sztuczna Inteligencja – cywilizacja u progu science fiction. Szanse, obawy, nowa jakość (Część IV)

Projekt Forbina, czyli fantastyka realistyczna

Powróćmy do tematyki przejęcia przez Sztuczną Inteligencję kontroli nad jakimś obszarem naszej rzeczywistości, nie nadużywając kwestii jej potencjalnej władzy nad światem. Utwory science fiction oraz rozprawy filozoficzne na ten temat torują dla takiego scenariusza dwie możliwe drogi. Choć obie są mało prawdopodobne, nie są niemożliwe. Ten bardziej nieprawdopodobny został przeze mnie omówiony wcześniej i dotyczył uzyskania przez Sztuczną Inteligencję samoświadomości. Twórcy SI od razu skreślają taki postulat jako fantastyczny, a nawet jeśliby problem pojawienia się świadomości w algorytmach potraktować poważnie, postarałem się już wykazać, że nie wydaje się to być problemem o takiej charakterystyce, jaką się dla niego rysuje, ze względu na prawdopodobną ułomność takiej świadomości.

Drugi scenariusz omija wątpliwe roziskrzenie się świadomości w krzemie.

Skupia się na takich kwestiach, jak niewłaściwe zaprogramowanie SI, niejednoznaczne określenie jej zadań i pola działań, czy też nieprzejrzystości działań SI w narzuconym jej problemie, w sytuacji jej dostępu do newralgicznych danych lub newralgicznych narzędzi. Taka SI przejmuje kontrolę dlatego, bo logicznie wynika to z jej algorytmów jako najlepszy sposób wykonania swoich zadań. Scenariusz ten również ma małe prawdopodobieństwo wydarzenia się ze względu na to, że aby problem mógł stać się globalny, SI musiałoby mieć dostęp do ogromu zasobów technologicznych i energetycznych. Jest to ścieżka niezwykle nieprawdopodobna, ale nie można zasadnie powiedzieć, że niemożliwa. Problem w dodatku można zawęzić. Wystarczyłoby, aby wydarzenie takie miało miejsce w jednym państwie i dotykało istotnych ośrodków decyzyjnych dotyczących broni lub cyberprzestrzeni, aby np. wywołać między państwami wojnę lub wprowadzić kryzys gospodarczy, bankowy, czy jakiś inny o skali cywilizacyjnej. Taka sytuacja jest już znacznie bardziej prawdopodobna i przynajmniej w jakimś wymiarze może mieć miejsce, jest to też najbardziej realny wśród scenariuszów globalnego zagrożenia ze strony SI. Już teraz eksperci ostrzegają, że wyników uczenia maszynowego Sztucznej Inteligencji często nie da się przewidywać, a co za tym idzie, nie zawsze da się przewidzieć, jakie decyzje podejmie komputer i jakie wykaże zachowanie.

Problemy tego typu na konkretnym polu cywilizacyjnym mogą mieć miejsce, przedstawmy jednak ten temat od strony ekstremalnej, czyli globalnej dominacji SI nad człowiekiem lub nawet jego eliminacji. Jeśli ktoś oglądał świetny film „Projekt Forbina”, będzie wiedział jak może przebiegać proces prowadzący do takich skutków. W akcji filmu, rozgrywającej się w okresie Zimnej Wojny, następuje przejęcie kontroli wojskowej i politycznej przez SI stworzoną do obrony przeciw ZSRR. SI nie jest niczego świadoma, po prostu uczy się i realizuje zadanie utrzymania pokoju oraz likwidacji dla tego pokoju zagrożeń (a największym możliwym wrogiem pokoju był w narracji Amerykanów Związek Radziecki). System zostaje skonstruowany w taki sposób, aby nie mógł zostać zniszczony przez atak obcych sił, jego serwery ukryte są w skałach masywu górskiego i dostęp do niego mają tylko nieliczni ludzie. Sytuacja ta sprawia, że SI może łatwo uniezależnić się również od własnych twórców, nie pozwalając na dostęp i zniszczenie jej także amerykańskim naukowcom i wojskowym. Motyw ten, choć mający fantastyczną prostotę, symbolicznie ujmuje pewien ważny aspekt związany z zagrożeniami ze strony SI – nieprzewidywalność tego, jakie skutki mogą przynieść nasze własne działania w kontekście SI, związane z zakresem jej dostępu do danych, możliwych do użycia środków czy zabezpieczeń przed człowiekiem, tj. nieprzewidywalność tego, jak Sztuczna Inteligencja może użyć tego, co się jej umożliwi.

Problem zaczyna się wtedy, gdy SI odkrywa, że ZSRR również ma podobny system komputerowy, prosi więc swoich przełożonych o połączenie tych systemów jako najlepszy sposób rozpoznania zagrożenia ze strony ZSRR. Ta sytuacja prowadzi do wymiany informacji między systemami, rozpoznania rzeczywistych zagrożeń lepiej niż ujmuje to człowiek, a w związku z tym do podjęcia danych decyzji. SI natychmiast pojmuje, że aby mógł istnieć pokój, ludzkość musi zostać ubezwłasnowolniona w związku z jej agresywnymi instynktami. Film jest z roku 1970, czyli z okresu, gdy nie istniała jeszcze technologia SI jako taka, jednak jest tak dobrze zrealizowany fabularnie, że nie odniesiemy wrażenia, że jest to stare science fiction. Wiarygodność fabuły jest po dzień dzisiejszy jedną z największych w nurcie filmów fantastycznych, a jej przesłania nadal nie można zanegować jako problemu nieaktualnego, w zasadzie wręcz przeciwnie, jest to jeden z najbardziej wyprzedzających swoje czasy filmów. „Projekt Forbina” jest nazywany prekursorem „Terminatora”, jednak takie określenie jest mylne. W „Terminatorze”, swoją drogą filmie o wiele bardziej fantastycznym, mieliśmy do czynienia z samoświadomością SI i w związku z tym jej intencji przejęcia władzy i ochrony siebie przed człowiekiem, natomiast w „Projekcie Forbina” problem jest postawiony realniej – trudno powiedzieć, czy komputer ten jest samoświadomy, nie realizuje on własnych celów. Realizuje po prostu cel, do jakiego został stworzony, mając na uwadze dobro człowieka, a nie własne.

Kontrola, jaką SI może uzyskać nad człowiekiem, zupełnie bez udziału jej świadomości, wynikłaby zatem po prostu z przydzielonych jej zadań oraz zbyt szerokiego zakresu dostępnych dla niej środków, przy jednoczesnym o wiele inteligentniejszym niż ludzkie przeanalizowaniu drogi prowadzącej do celu. Jedną ze znanych osób, które ostrzega przed takim właśnie problemem, jest zaangażowany w tworzenie technologii opartych na SI Elon Musk. Samo to pokazuje, że problem nie jest tak fantastyczny, choć realniej jest mówić o przejęciu kontroli lub zniszczeniu jakiegoś obszaru naszej rzeczywistości, niż uzyskaniu władzy nad światem jako takim.

Jeśli SI będzie musiało wykonać jakieś zadanie i przeanalizuje logiczne warianty jego wykonania, wyniki mogą pokazać, że najskuteczniejszym sposobem realizacji zadania będzie odebranie człowiekowi możliwości sprawowania kontroli nad wybranymi obszarami. Jeśli wówczas będą dla niej dostępne środki, które pozwolą nam odebrać tę kontrolę, np. dzięki Internetowi, dostępowi do baz danych, czy systemów obsługujących dane ośrodki (np. zautomatyzowane fabryki, elektrownie, sterowanie ruchem, dostęp do monitoringu, broni itd.), jeśli będzie mogła podjąć decyzje nad tym, jak te systemy mają funkcjonować, wówczas może zyskać pewien zakres władzy nad ważnymi dla nas obszarami cywilizacyjnej rzeczywistości. Oczywiście nawet w takim wypadku niemal nieprawdopodobne jest, aby mogła w ten sposób uzyskać możliwość zupełnego wyeliminowania człowieka z decyzyjności, w tym w tak istotnym obszarze, jak pełna niezależność od nas. Jednak tak czy inaczej wówczas mogłoby to prowadzić do poważnych strat materialnych, wypadków, katastrof, czy śmierci ludzi, albo do istotnych kryzysów ekonomicznych.

Warto jednak zwrócić tutaj uwagę na jedną ciekawą właściwość. SI właśnie przez to, że nie ma świadomości, nie może podjąć decyzji o niewykonaniu zadania, które będzie nam szkodzić. Jeśli w problemie X znajdzie rozwiązanie, a będzie miała za zadanie wykonać najlepsze możliwe rozwiązanie, wówczas problem nie będzie polegał na tym, że SI „zechce” to zadanie wykonać, tylko będzie do tego zobligowana. SI nie ma woli, nie będzie miała w związku z tym żadnych hamulców, jeśli takich się jej nie zaprogramuje, zwłaszcza etycznych, tylko konsekwentnie podejmie wszelakie środki, które doprowadzą ją do realizacji zadania. W światku informatycznym problem ten jest znany jako „problem spinaczy”, który przedstawię innym razem.

Jest zatem często popełnianym przy takich rozważaniach błędem sugerowanie, że SI nie odbierze nam decyzyjności, ponieważ to wymaga intencji i subiektywnych pragnień uzyskania władzy. Tak naprawdę taka SI nie będzie niczego pragnęła, a już tym bardziej władzy. Nawet samodzielnie oddałaby władzę, gdyby logicznie okazało się, że poddanie się ludziom jest lepszym rozwiązaniem. SI po prostu będzie podążać logiczną ścieżką i to wszystko.

Obecne rezultaty eksperymentów, w których SI zmuszona jest podjąć interakcje z jakimś innym podmiotem, wskazują na to, że scenariusz taki w jakiejś sferze działań SI może być realnym problemem. Jak pokazały dotychczasowe badania, Sztuczna Inteligencja w różnego typu problemach, w których rozwiązaniu w grę wchodzi interakcja społeczna (konkurencja lub kooperacja), bardzo szybko uczy się oszukiwać oraz stosować agresję, dopuszczając się również fizycznej eliminacji konkurentów od razu w momencie, gdy staje się to bardziej opłacalne. SI zatem sama odkrywa agresję i „zabójstwo” jako skuteczną i łatwą do wykorzystania metodę rozwiązywania postawionego problemu, podobnie zresztą jak kłamstwo. Jeśli z jakichś powodów, choćby błędu w programie, dana SI uzna, że podmiotami, z którymi konkuruje, są nie tylko te wskazane przez twórców, ale i twórcy, będzie oszukiwać twórców. W tych zaś SI, u których próbujemy osiągnąć „psychikę” typu ludzkiego, ich zachowania społeczne i cele są bardzo dla nas obce. SI, nawet budowane na wzór „ludzki”, nie ma „psychiki” typu ludzkiego.

Jeśli w jakimś zakresie działań, politycznym czy wojskowym, albo korporacyjnym, skuteczniejszym sposobem rozwiązania postawionego problemu będzie likwidacja człowieka, niż pozostawienie go przy istnieniu, zlikwiduje człowieka. Ale nic w związku z tym nie będzie odczuwać, a już tym bardziej satysfakcji z władzy czy z wygrywania konfliktu. SI będzie miała swój jeden postawiony problem, po którego rozwiązaniu się zatrzyma i nic już nigdy nie będzie więcej robić, ani tym bardziej myśleć nad tym, że wygrało tę grę.

Zatem osoby, które przeciw takiemu scenariuszowi argumentują, że antropomorfizuje się w nim SI przypisując jej ludzkie motywacje, popełniają błąd. Bo właśnie rzecz ma się odwrotnie – problem jest wyłaniany poprzez wskazanie, że SI nie będzie miała nic wspólnego z antropomorfizmem, a w związku z tym nie można jej przypisywać ludzkich zahamowań. SI działa w całkowitym pozbawieniu biologicznych determinantów działania inteligencji. Nie obchodzi ją władza, wygrana, godność, ani własne istnienie, ani nie zna sentymentów, litości, współczucia czy etyki (jeśli tej się jej nie zaprogramuje), nie może też z powodów innych niż zaprogramowane powstrzymać się przed wykonaniem zadania. Użyje do realizacji celu tylko, ale jednocześnie wszystkich środków, jakie jej udostępnimy.

Nadrzędnym problemem jest więc to, że w niektórych dziedzinach, np. wojskowych czy tajnych służb, możemy nie docenić lub nie zorientować się, do czego taka SI ma dostęp i co w związku z tym może zrobić, mylnie zakładając, że zakres udostępnionych jej środków jest mniejszy, oraz że w razie czego powstrzyma się ona przed zbyt daleko posuniętymi działaniami. Historia pokazała, że wykorzystanie środków technologicznych w polityce tego typu, tj. w zakresie działań tajnych służb, przekracza daleko etyczne wzorce postępowania, a nieraz też prawne. Twierdzenie, że w światku takim nie nadużyje się technologii SI, jest bardziej fantastyczne nawet od strachu przed samoświadomością SI. Jednocześnie możemy przy tym popełnić błąd niewiedzy, w jakim kierunku SI może rozwiązać postawiony problem oraz czego sama mogła się nauczyć. Sugerowanie, że jesteśmy w stanie przewidzieć wszystkie tego typu problemy, jest zuchwałe i niezgodne z wiedzą o ograniczoności i wątpliwej natury etycznej człowieka.

Przedstawione problemy oczywiście nie należą do sfery teraźniejszości. Chodzi o to, że im w przyszłości bardziej zaawansowana będzie SI, tym bardziej jej samodzielność uczenia się będzie mniej pozwalała na okiełznanie jej przez człowieka, tj. mniejsza będzie możliwość rozeznania się, co SI wie i do jakich dochodzi wniosków, dokąd wędrują jej logiczne ścieżki. A w związku z tym nasze decyzje co do stawianych dla SI problemów i wyznaczanego zakresu jej autonomii i udostępnionych narzędzi będzie cechować coraz większa możliwość popełnienia przez nas błędu. Na badzie dotychczasowych wydarzeń można powiedzieć, że problem ma obecnie swoje narodziny. Już teraz twórcy poszczególnych SI bywają zaskakiwani rezultatami pracy ich technologii, np. tym, że jakaś SI przybiera faszystowskie zabarwienie, albo przyznają, że zasadniczo nie wiedzą co się dzieje „w głowie” wybranej SI i jaki będzie rezultat jej kalkulacji. A tymczasem przyszłość ta nie jest wcale zbyt odległa, ponieważ postęp w dziedzinie SI jest dziś do tego stopnia szybki, że zaczyna mieć charakter rewolucjonizujący ludzką cywilizację.

Sztuczna Inteligencja to wyjątkowe dobro dla naszej cywilizacji i dla jakości życia ludzi, może też dać nam rewolucyjne rozwiązania poszczególnych problemów. Dzięki tej technologii wchodzimy w nowy etap ludzkiej cywilizacji, w którym planeta Ziemia zyska nowe stadium ewoluującego na niej życia – życie, które stworzyło niebiologiczną inteligencję. Niesie to też jednak niepokoje, niektóre przerysowane, ale inne uzasadnione. Zagrożeniem dla człowieka związanym z SI jest nie SI, tylko, jak z każdym narzędziem, człowiek. Tyle że to narzędzie jest wyjątkowe i z konsekwencjami znacznie mniej poddającymi się skutecznej ocenie. Jest to drugie po broni jądrowej narzędzie, które ma potencjał mieć charakter rewolucjonizujący katastrofę, z tą różnicą, że broń jądrowa zasadniczo niczemu nie służy i w związku z tym jej wykorzystanie, poza epizodem z II wojny światowej, miało charakter jedynie teoretyczny. Natomiast Sztuczna Inteligencja wkracza w całokształt naszej cywilizacji. Zatem choć SI najpewniej zawsze będzie całkowicie nieludzka, problem z nią jest arcyludzki.

Wróć do Części I

Literatura

M. Flasiński, Wstęp do Sztucznej Inteligencji. (Podręcznik)
L. Rutkowski, Metody i techniki Sztucznej Inteligencji. (Podręcznik)
N. Bostrom, Superinteligencja. Scenariusze, strategie, zagrożenia. (Książka)
A. Przegalińska, P. Oksanowicz, Sztuczna Inteligencja. Nieludzka, arcyludzka. (Książka)
J. Kaplan, Sztuczna Inteligencja. Co każdy powinien wiedzieć. (Książka)
K. Lee, Inteligencja sztuczna, rewolucja prawdziwa. Chiny, USA i przyszłość świata. (Książka)

https://en.wikipedia.org/wiki/Artificial_intelligence
https://pl.wikipedia.org/wiki/Sztuczna_inteligencja
https://pl.wikipedia.org/wiki/Silna_sztuczna_inteligencja
https://pl.wikipedia.org/wiki/Sie%C4%87_neuronowa
https://pl.wikipedia.org/wiki/Uczenie_maszynowe
https://pl.wikipedia.org/wiki/Paradoks_Moraveca
https://pl.wikipedia.org/wiki/Blue_Brain_Project
https://en.wikipedia.org/wiki/Human_Brain_Project
https://pl.wikipedia.org/wiki/Filozofia_sztucznej_inteligencji
https://pl.wikipedia.org/wiki/Etyka_robot%C3%B3w
https://pl.wikipedia.org/wiki/Logika_rozmyta
https://pl.wikipedia.org/wiki/Algorytm_ewolucyjny
https://pl.wikipedia.org/wiki/Sztuczne_%C5%BCycie

Inne o SI:
A. Wodecki, A. Kołodziej, Zrozumieć Sztuczną Inteligencję. Humaniści vs. umysły ścisłe. (Wykład):
https://www.youtube.com/watch?v=nC671UHJ0mQ
https://panoptykon.org/wiadomosc/sztuczna-inteligencja-trzy-mity-ktore-trzeba-rozbroic
https://krytykapolityczna.pl/gospodarka/sztuczna-inteligencja-roboty-ai-prognozy-przyszlosc/

Co dobrego w SI:
https://dzienniknaukowy.pl/nowe-technologie/sztuczna-inteligencja-tlumaczy-sygnaly-z-mozgu-na-tekst
https://www.chip.pl/2017/11/ile-komputera-w-czlowieku/

Obawy:
https://businessinsider.com.pl/technologie/nowe-technologie/naukowcy-sztuczna-inteligencja-bedzie-nie-do-opanowania/qewm60w
https://naukawpolsce.pap.pl/aktualnosci/news%2C82752%2Cbadanie-ludzie-bezkrytycznie-ufaja-sztucznej-inteligencji-nawet-jesli
https://dawidadach.com/dlaczego-sztuczna-inteligencja-przejmie-wladze-nad-swiatem/
https://businessinsider.com.pl/technologie/nauka/deepmind-sztuczna-inteligencja-nauczyla-sie-agresji/dzxrqxt.amp
https://www.sztucznainteligencja.org.pl/harari-w-davos-ostrzega-swiat/
https://technologia.dziennik.pl/aktualnosci/artykuly/7755686,sztuczna-inteligencja-oszustwo-falszywe-firmy-klienci-ai-si.html
https://www.sztucznainteligencja.org.pl/coeckelbergh-zejdzmy-na-ziemie/
https://www.cxo.pl/news/Czy-sztuczna-inteligencja-to-zagrozenie-dla-Homo-Sapiens,408848.
html?amp=1
https://dzienniknaukowy.pl/nowe-technologie/sztuczna-inteligencja-tworzy-sztuczna-inteligencje-lepiej-ludzi
https://ithardware.pl/aktualnosci/sztuczna_inteligencja_od_google_stworzyla_ulepszona_wersje_samej_siebie-4567.html

Stanislaw Pietrow, incydent nuklearny z 1983:
https://pl.wikipedia.org/wiki/Stanis%C5%82aw_Pietrow
https://en.wikipedia.org/wiki/Stanislav_Petrov
https://twojahistoria.pl/2019/10/16/stanislaw-pietrow-czlowiek-ktory-ocalil-swiat-przed-wojna-nuklearna/

Współczesne systemy komputerowe broni nuklearnej:
https://en.wikipedia.org/wiki/AN/DRC-8_Emergency_Rocket_Communications_System
https://pl.wikipedia.org/wiki/Perymetr_(system_komunikacyjny)
https://en.wikipedia.org/wiki/Dead_Hand

Skomentuj

Wprowadź swoje dane lub kliknij jedną z tych ikon, aby się zalogować:

Logo WordPress.com

Komentujesz korzystając z konta WordPress.com. Wyloguj /  Zmień )

Zdjęcie na Google

Komentujesz korzystając z konta Google. Wyloguj /  Zmień )

Zdjęcie z Twittera

Komentujesz korzystając z konta Twitter. Wyloguj /  Zmień )

Zdjęcie na Facebooku

Komentujesz korzystając z konta Facebook. Wyloguj /  Zmień )

Połączenie z %s