Sztuczna Inteligencja – cywilizacja u progu science fiction. Szanse, obawy, nowa jakość (Część III)

Problemy faktyczne

Oczywiście SI nie może być problemem, ani tym bardziej nie powinno budzić lęków tam, gdzie służy pomocą w różnych ważnych aktywnościach ludzkich czy dla naszej cywilizacji. Jest też w takim przypadku zupełnie bajkowym postulowanie, że taka SI, nazywana „słabą” (stworzoną do rozwiązywania konkretnego problemu, a nie posiadającą ogół wiedzy i naśladującą działaniem ludzki umysł), miałaby zyskać umysłowość. Krytyka takich lęków jest słuszna, przynajmniej gdy kwestia dotyczy pewnego zakresu ludzkich działań w tym temacie.

Istnieje jednak cały szereg realnych problemów ze Sztuczną Inteligencją, które uwidocznią się wyraźnie w niedalekiej przyszłości, a ich początek widzimy już teraz.

Problem, o którym w kontekście Sztucznej Inteligencji mówi się najczęściej, to rynek pracy. O tym, że automatyzacja przemysłu skutkuje mniejszym zapotrzebowaniem na pracownika, a rzeczywistość rynkowa nie daje możliwości dostatecznie szybkiego przebranżowienia się dla ilości ludzi, którzy tracą lub nie zyskują w ten sposób pracy, wiemy od dawna. Kwestia automatyzacji dotyka bowiem lub wkrótce dotknie w poszczególnych krajach milionów ludzi. W przypadku Sztucznej Inteligencji jednak problem nie tylko zostaje pogłębiony, ale także rozszerzony. W przeciwieństwie bowiem do zwykłej automatyzacji, która dotyka raczej ludzi z klasy robotniczej, Sztuczna Inteligencja zastąpi ludzi także na stanowiskach eksperckich właściwie w niemal każdej branży. Im lepiej będzie rozwinięta Słaba SI i w im szerszym obszarze rynkowym, tym dotkliwsze staną się związane z tym problemy. Technologia natomiast rozwija się szybciej, niż mijają pokolenia ludzkie, co oznacza, że nie tylko dla kolejnych pokoleń znikną miejsca pracy, które były dostępne dla ich rodziców, ale także dotknie ten problem ludzi, którzy już pracują, a w związku z rozwojem SI ich umiejętności staną się bezużyteczne. W przypadku umiejętności eksperckich wyszkolenie zajmuje znaczną część życia, co oznacza, że nawet w tym obszarze rynkowym, który do tej pory jawił się jako pewny i wiązał się ze stabilnością życiową i wyższym statusem społecznym, będziemy mieli do czynienia z powiększającym się zjawiskiem bezużyteczności nabytych umiejętności. W przypadku rynku eksperckiego przebranżowienie się jest o wiele trudniejsze niż w przypadku zawodów o niższych kwalifikacjach, tym bardziej, że nie zawsze będzie w co się przebranżawiać, jeśli SI zabierze też inne pokrewne dziedziny.

Rozwój technologii sprawia także, że rośnie zapotrzebowanie na nowy rodzaj pracowników, ale nie jest to sytuacja symetryczna, bowiem eliminuje ona znacznie więcej miejsc pracy.

Problem bezużyteczności rynkowej nabytych umiejętności człowieka rozwija się w tempie takim samym lub zbliżonym, w jakim rozwija się technologia. Wkrótce możemy po prostu nie nadążyć za wzrostem tempa rozwoju technologicznego, nie mogąc przekształcić życia społecznego adekwatnie do zmian zapotrzebowań (lub ich braku) rynkowych generowanych przez coraz nowszą i coraz bardziej samowystarczalną technologię.

Częściowo z tym, tj. z bezużytecznością na rynku pracy, a częściowo niezależnie od tego, powstaje także inny problem, można powiedzieć że pokrewny wyżej wymienionemu. Określa się go mianem wykluczenia technologicznego i związany jest z tymi nierównościami społecznymi, które generuje technologia. Już jakiś czas temu, można powiedzieć że w okolicach roku 2000, wkroczyliśmy w ten etap cywilizacyjny, gdy posiadanie na własność pewnych technologii staje się warunkiem normalnego funkcjonowania w życiu, w pracy i w społeczeństwie. Więc w sytuacji, gdy kogoś na taką własność nie stać, powstaje nowa forma wykluczenia – wykluczenie technologiczne. Indywidualne zapóźnienie technologiczne zaczyna być (albo już się stało) jeszcze bardziej wykluczające niż odziedziczona bieda sama w sobie czy dany stopień inwalidztwa. Aby móc funkcjonować na rynku pracy, czy móc kształcić się na uczelniach wyższych, właściwie musisz posiadać komputer i telefon komórkowy, często smartphone, technologie te wymagają także co jakiś czas aktualizowania, tj. zakupu nowszych i lepszych wersji. Dostępu do Internetu w dowolnej chwili wymaga już właściwie samo życie. W przypadku specjalizowania się w konkretnym kierunku lub zatrudnienia w nim, wymagane jest nieraz posiadanie bardzo nowego, szybkiego komputera, aby móc instalować na nim zaawansowane, często drogie programy, wraz z szybkimi zmianami na nowsze modele, co generuje już znaczące koszty. Problem już od jakiegoś czasu jest realny nawet w przypadku najzwyklejszej technologii, dotyka on bowiem w dotkliwy sposób biedne rodziny, które np. nie mogą sobie pozwolić na zakup komputerów dla wszystkich dzieci (wystarczy wspomnieć choćby problem zdalnego nauczania podczas pandemii, które jest problemem nierozwiązywalnym dla wielodzietnej niezamożnej rodziny). Natomiast jest to też nieraz problem wykluczający osoby niebędące biednymi, gdy mówimy o drugim przypadku, tj. dostępności dla niej szeregu zawodów, które wymagają posiadania drogich sprzętów na własność. Jeszcze gorzej wygląda kwestia konieczności zdobycia umiejętności wiążących się z używaniem danych technologii, gdy są to technologie niezbędne do życia, a nie da się ich posiadać.

Jak przewidują eksperci, wykluczenie technologiczne jest problemem społecznym, który będzie się szybko pogłębiać w przypadku obecnego rozwoju technologii, zwłaszcza związanych z SI, która zacznie rewolucjonizować nasze życie codzienne. Im bardziej posiadanie pewnych technologii będzie wymagane przez życie, tym bardziej będą się pogłębiać problemy ludzi, którzy nie mogą mieć do nich dostępu, jednocześnie tym większe tworząc nierówności społeczne i tym korzystniej wpływając na pozycję osób bogatych i korporacji. Różnica w możliwościach życiowych między tymi, których będzie stać na więcej, a tymi, których będzie stać na mniej, będzie przez to coraz większa i analogicznie pogłębi się też tego typu różnica między poszczególnymi krajami, zwłaszcza krajami biednymi i bogatymi. Jest to jednak problem nie tylko jednostek. Rosnące nierówności społeczne dają nie tylko gorsze życie wielu ludzi w kontraście do życia lepiej sytuowanych osób w tym samym obszarze, ale także wzrastające niepokoje społeczne, zepsucie rynku pracy, mniejszą stabilizację polityczną kraju, większą podatność społeczeństwa na wybór politycznych populistów i w efekcie kryzysy polityczne. Jest to problem, który już współcześnie dostrzegamy w wielu państwach, między innymi w Polsce. Sytuacja ta jest szczególnie ważna w przypadku wytwarzania przez rozwój nauki tak zwanego technologicznego plebsu.

Wreszcie pewnym problemem, który można nazwać osobliwym, jest sam stosunek ludzi do Sztucznej Inteligencji. Przyzwyczajając się do tego wyrażenia i uświadamiając sobie coraz lepiej przez ogół ludzi sposób jej działania, coraz bardziej znikają w społeczeństwie obawy o to zjawisko na rzecz czegoś zupełnie odwrotnego. Badania pokazały, że ludzie zaczynają bezgranicznie ufać SI, a termin ten jest w sposób oszukańczy wykorzystywany przez firmy tworzące technologie, które nie mają z SI nic wspólnego. Wystarczy bowiem wspomnieć, że produkt jest oparty na działaniu Sztucznej Inteligencji, aby podwyższyć jego sprzedaż, nawet gdy nie jest to prawdą. Badanie przeprowadzone przez dra hab. Michała Klichowskiego pokazały z kolei inny aspekt zaufania do SI. Ludzie bowiem wybierają rozwiązania zasugerowane przez Sztuczną Inteligencję nawet wtedy, kiedy ta jawnie bredzi głupoty, tylko dlatego, że zasugerował je obiekt określony jako Sztuczna Inteligencja (link do artykułu w bibliografii na końcu). Jest to istotna sugestia dotycząca tego, jak SI może być przez nas zarządzana i jaki może mieć negatywny wpływ na decyzyjność w tych dziedzinach, gdzie człowiek może nie być w stanie przeanalizować pełnego rozumowania SI na temat jakiejś kwestii, a konsekwencje mogą być poważne dla wielu podmiotów.

Wreszcie innym dużym zagrożeniem związanym z SI jest przestępczość zorganizowana. Czarny rynek, szkodliwe oprogramowania wprowadzone do sieci, możliwość pozyskania osobistych danych i sprawniejszego ich wykorzystania – na wszystkich tych polach Sztuczna Inteligencja ułatwia aktywność w sposób, którego być może nie da się przecenić, o wiele sprawniej umożliwiając niszczenie ludziom życia, śledzenie, szantażowanie, czy prowadzenie międzynarodowych działań przestępczych, od narkotykowych, przez finansowe, kończąc na możliwości stosowania przemocy.

Innym, przez wielu postrzeganym jako niepożądany, aspektem związanym z SI, potencjalnie także zabierającym wiele istotnych zawodów, jest coraz lepszej jakości praca SI na tych polach, które do tej pory były uważane za wybitnie ludzkie – tworzenie sztuki oraz prozy i poezji. Już teraz Sztuczna Inteligencja potrafi wygenerować tekst literacki lub dziennikarski, którego postronna osoba nie postrzega jako nienapisanego przez człowieka. W dziedzinie obrazu, jego kompozycji oraz doboru motywów, a także muzyki, SI radzi sobie jeszcze lepiej niż z tekstem i poezją. Tam, gdzie wchodzi w sposób szczególny domena ludzkiej kreatywności, nasze odczucia wobec SI są szczególnie silne. Możliwość nie tylko zastąpienia człowieka, ale do tego wykonywania prac artystycznych i kreatywnych lepiej niż człowiek, jest zjawiskiem na gruncie technologii bez precedensu, które nie tylko będzie wygrywać konkurencję z artystami i czynić ich bezużytecznymi, ale także odzierać z „mistycyzmu” samą sztukę i artyzm. Bowiem wbrew mistycznej otoczce tak naprawdę w dziedzinach tych chodzi przede wszystkim o sposób działania sztuki na nasze zmysły. W przypadku, gdy prace muzyczne, plastyczne i słowne wykonywane przez SI będą dla odbiorcy atrakcyjne, niewątpliwie nastąpi degradacja znaczenia artyzmu i kreatywności ludzkiej, a prace SI po prostu zastąpią prace ludzkie. Dla większość ludzi, nawet jeśli przy odbiorze sztuki odczuwają oni głębsze przeżycia, sztuka ma charakter tak czy inaczej rozrywkowy. Tak było już w dawnych wiekach za czasów muzyki klasycznej, ale stąd też powstał boom popkultury, kiedy ta zaistniała w połowie XX wieku. Tak jak popkultura poniekąd „wyparła” dzieła „wysokiej kultury” (cokolwiek to wyrażenie znaczy), tak z czasem nikt nie będzie zwracał uwagi na to, że dane utwory tworzy komputer, a nie człowiek. Jeśli muzyka będzie atrakcyjniejsza niż tworzona przez muzyków, zdominuje rynek, to samo dotyczy też literatury. Nie łudźmy się, że coś obroni sztukę, bo sztuka nigdy nie wygrywa z interesem. Trudna literatura przegrywa z rozrywką rozumianą jako „tania”, wydawnictwa wydają to, co się sprzedaje, a SI stworzy im świetny biznes bez konieczności „użerania” się z „roszczeniowymi” artystami.

Wreszcie ostatnie zagrożenie związane z SI, o którym warto wspomnieć, to wcale nie banalny problem energii. Pisałem o tym problemie tutaj, więc teraz tylko go zarysuję. Pobór mocy, jaki wiąże się z użytkowaniem przez ludzkość Internetu, jest większy, niż pobiera z osobna niemal każde państwo na świecie. Tylko Chiny i USA mają większe zapotrzebowanie na energię od ogółu branży IT. W 2017 roku całościowo branża ta pochłonęła 7% całego światowego zużycia prądu, a 1% światowych emisji CO2 wygenerował sam streaming video w Internecie. Wartość ta dodatkowo szybko rośnie. Przewiduje się, że rozwój Sztucznej Inteligencji jeszcze znacznie ten problemy zwiększy, co jest poważnym kłopotem w kontekście postępujących zmian klimatycznych. Na razie tego problemu nie potrafimy rozwiązać.

Nowy wyścig zbrojeń oraz problemy spekulatywne

Jest także inny, niedoceniany przez niektórych twórców SI problem. Chodzi o to, że ta sztuczna inteligencja znajduje się w rękach inteligencji niesztucznej, czyli biologicznej. Inaczej mówiąc – zupełnie logiczna inteligencja (co tak naprawdę jest jednym z jej niebezpiecznych właściwości) jest w rękach inteligencji znacznie mniej logicznej. Czy to brzmi odpowiedzialnie? Może żeby odpowiedzieć na to pytanie, potrzebujemy Sztucznej Inteligencji, bo sami nie ocenimy tego problemu dostatecznie logicznie i obiektywnie?

To, co czyni Sztuczną Inteligencję niebezpieczną, to jej zupełna logiczność przeciw słabościom psychologicznym człowieka. Słabościom, które poniekąd warunkują nasze istnienie, wartości i chronią nas (przynajmniej częściowo) przed zachowaniami, które przysłużyłyby się nam jak najgorzej. Podejmując każdą decyzję, podejmujemy ją przez pryzmat naszych uwarunkowań psychicznych, co z jednej strony może być postrzegane jako dziwne (np. z perspektywy SI), a z drugiej… po to właśnie robimy cywilizację i wymyślamy SI, aby zaspokajać nasze subiektywne gatunkowe i kulturowe potrzeby. Z drugiej strony ta sama nasza właściwość prowadzi nas do błędów czy rozwiązań, których nie popełnia lub których nie zaproponuje SI, bo myśli ona logicznie, a nie przez pryzmat instynktów i uwarunkowanych potrzeb. Tworzymy SI, aby omijała problemy, jakie my rozwiązujemy zbyt subiektywnie i zbyt pod kątem nielogicznych potrzeb, ale tak, aby zaspokajała ona nasze subiektywne i nielogiczne potrzeby.

Jednak nadrzędny problem związany z SI to właśnie ten, że jej chłodna logika ma być na użytek naszych nieraz prymitywnych potrzeb. Np. na potrzeby wojny. Tworzymy to, co przekracza nasze słabości, na rzecz służby naszym słabościom. A to już brzmi złowieszczo i styka się z tym, o czym próbowała nas uczyć literatura science fiction. Jeszcze bardziej niż we wcześniejszych technologiach dochodzi tu do rozmycia odpowiedzialności i przekroczenia progu, za którym nie działają nasze etyczne hamulce, bowiem one funkcjonują głównie przy bezpośrednim spotkaniu człowieka z sytuacją (np. osobiste pociągnięcie za spust), a nie w kontekstach pośrednich i rozmytych. Przypadek SI może być przypadkiem szczególnie destrukcyjnej, ale jednocześnie szczególnie łatwej do użycia broni, co czyni ją pod tym względem wyjątkową.

Niebezpieczeństwo pojawia się tu dwojakie. To, jak i do czego ta SI zostanie wykorzystana, jak i to, że może ona wykonać swoje zadania znacznie lepiej lub inaczej od tego, co przewidujemy. W tym drugim przypadku, gdy zadania te mają się wiązać z działaniami niejednoznacznymi etycznie (krzywdzącymi dla jakiejś części ludzkości), SI może przynieść tragiczne konsekwencje, a nawet, w przypadku zbyt daleko posuniętej nieodpowiedzialności ludzkiej i popełnionych błędów w zakresie określenia dla niej dostępnych środków i pola działania, skutki mogą być globalne.

Tego tematu nie da się zbyć, jak próbują niektórzy, stwierdzeniem, że jest to zbyt wydumane i zbyt teoretyczne postawienie problemu. Jeśli ma się wiedzę o polityce i historii, o tym, do czego wykorzystuje się technologie informatyczne w działaniach politycznych (wojna to nie tylko żołnierze i bomby), na czym polega cyber-terroryzm i hakerstwo, jak się dzisiaj wygrywa wybory oraz ilu jest ludzi niezdrowo zanurzonych w swoich obowiązkach wojskowych, którzy uważają, że siła militarna wraz z dostępem do broni atomowej jest dla państwa nadrzędna, jeśli obserwuje się takie problemy współczesnego świata oraz sprzeczność interesów różnych państw oraz fakt, że wiele państw nie rozdwaja się nad dylematami moralnymi, to ma się świadomość, że temat nie jest nawet futurologiczny, lecz jest poważny już teraz.

Technologie o takich możliwościach dają dokładnie te same możliwości, jakie ze sobą niosą, kiedy przejdą z naukowych rąk w ręce nieodpowiednie. Nie trzeba być wyśmienitym analitykiem życia społecznego i politycznego aby pojąć, że prędzej czy później w nieodpowiednich rękach się znajdą, zwłaszcza im będzie ich więcej i im łatwiej będą dostępne. Tak samo jak życie biologiczne, również życie polityczne podlega stałej ewolucji i jak dotąd każde osiągnięcia cybernetyczne zostały wykorzystane zarówno dobrze, jak i bezwzględnie. Dzieje się tak zarówno dlatego, że od czasu do czasu pojawiają się ludzie o niezdrowych skłonnościach (stąd mamy np. powstawanie różnych wirusów cybernetycznych, z których wiele powstało tylko z tego powodu, że ktoś mógł je zrobić i coś napsuć), jak i dlatego, że świat ludzki charakteryzuje permanentny konflikt interesów, w związku z czym różne siły szukają różnych sposobów na zdobycie przewagi nad innymi, czy to w światku politycznym, czy biznesowym, czy przemysłowym, czy przestępczym.

W tematyce negatywnych sposobów wykorzystania SI widzę też istotny problem w tym, czego często się w tym temacie nie podejmuje, a mianowicie to, że ludzie, którzy są zanurzeni w świecie technologii informatycznych, dość często bywają osobami, które nie dysponują zbyt dużymi umiejętnościami społecznymi. Chodzi tu nie tyle o to, że są to nieraz stereotypowi nerdzi zamknięci w swoim światku, bo to jest po części mit, ale o to, że ludzie ci nieraz będąc bardzo kompetentnymi na swoim polu, bywają równie mocno niezdolni do naukowego myślenia na polu społecznym, w związku z czym nie potrafią analizować złożonych problemów, jakim podlega ludzka polityka i życie społeczne, a w związku z tym zagrożeń z wykorzystaniem takiej technologii. Nie znają się na psychologii, nie rozumieją jak funkcjonują umysłowo ludzie, nie znają się na polityce ani na socjologii. „Mierność humanistyczna” wybitnych ścisłowców (wykazałem jej znaczenie w astrobiologii w tematyce szacunków powstawania cywilizacji na innych globach, gdzie astronomowie notorycznie nie uwzględniają czynników psychologicznych, kulturowych i historycznych w inicjowaniu technologicznej cywilizacji: „Homo sapiens to za mało”) prowadzi ich nieraz do błędnych konkluzji na temat konsekwencji społecznych i politycznych danych wydarzeń, a często ich lekceważenia, ponieważ analiza takich problemów zazwyczaj nie należy do ich kompetencji i jest daleka od ich umiejętności. Oczywiście dokonuję teraz pewnej generalizacji. Wśród informatyków czy ogólnie ludzi o ścisłym typie myślenia zdarzają się i wyśmienici humaniści. Można powiedzieć jednak, że problem ten jest istotny statystycznie.

Nie dotyczy on bowiem tylko wybitnych aspołecznych „geaków”. Wystarczy zejść na grunt zwykłych doświadczeń w prowadzeniu dyskusji na takie tematy lub bycia ich świadkiem, gdzie wśród informatyków często spotyka się ubogie rozumienie zależności zjawisk społecznych i ludzkich interesów. Jest to według mnie jeden z potencjalnych problemów, jakie wiążą się z tworzeniem zaawansowanej SI w dziedzinach o kontrowersyjnej etyce, jak np. w dziedzinach wojskowych czy politycznych. Ludzie ci często nie są dostatecznie kompetentni w myśleniu o ludziach, aby umieć ocenić potencjalne problemy wiążące się z wykorzystaniem informatycznych osiągnięć oraz z motywacjami ludzkiego postępowania. Być może to właśnie pokłosiem tej sytuacji jest pokutujący ciągle mit, że ci, którzy postulują antyludzkie problemy związane z SI, bazują na przeświadczeniu o jej potencjalnej samoświadomości, a nie że wskazują realne problemy związane z ludzką psychologią i charakterem politycznym naszej cywilizacji. Stąd często pojawia się ze strony obrońców SI twierdzenie, że SI działająca przeciwko człowiekowi to mit (co jest paradoksalnym zapętleniem przeświadczenia o tym, co jest w tej problematyce mitem), a tu chodzi przecież o człowieka działającemu przeciw człowiekowi, wykorzystującego do tego SI.

Kolejny problem to to, że bazujemy ciągle w paradygmacie, że przewidujemy problemy, które mogą nas spotkać. Po raz kolejny można zatem powiedzieć, że historia człowieka nie uczy. Tak swoją drogą, aby mogła ona uczyć, trzeba byłoby też ją po prostu znać, a to się często nie dzieje.

Najbardziej znanym wydarzeniem w historii zagrożeń nuklearnych jest Kryzys Kubański, jednak wbrew powszechnej opinii nie był to najczarniejszy scenariusz, jaki spełnił się w kontekście broni atomowej, w dodatku wcale nie był on tak bardzo niebezpieczny. Był to „jedynie” problem napięcia politycznego i „dogadania się”, który został rozwiązany kompromisem (wbrew mitologii zachodniej o zwycięstwie tego sporu przez USA). Jednak jedno mniej znane wydarzenie naprawdę postawiło świat na krawędzi zagłady. Odbyło się ono w sposób tak bliski scenariuszom fantastycznym, że nie przewidzieli go nawet ówcześni krytycy prowadzenia polityki wzajemnego odstraszania i tak zwanej zasady „gwarantowanego wzajemnego zniszczenia” (MAD – Mutual Assured Destruction). W 1983 roku, w okresie najbardziej napiętych stosunków między skonfliktowanymi mocarstwami, w ZSRR doszło do odczytu danych, które wskazywały, że Amerykanie odpalili pociski nuklearne wycelowane w Związek Radziecki.

Służbę pełnił wtedy Stanisław Pietrow. W istocie jest on jedynym człowiekiem w historii świata, który… uratował świat. Najpierw otrzymano informację o odpaleniu przez Amerykanów jednej rakiety, następnie pojawiły się cztery kolejne. Pietrow miał obowiązek na ten atak odpowiedzieć (wykrycie rakiet przez radar na terenie ZSRR byłoby zbyt późne na reakcję) lub skontaktować się z dowództwem, co równałoby się z poleceniem odpowiedzi na atak. Pietrow uznał, że to prawdopodobnie rzekomo niezawodny system „Oko” zawiódł i rozkazał nie odpowiadać na wydarzenie, wbrew dramatyzmowi sytuacji i jego zawodowym powinnościom (co wiązało się z zawodowymi konsekwencjami, które go potem spotkały). Gdyby Związek Radziecki wystrzelił rakiety, Amerykanie wówczas musieliby na to odpowiedzieć, co prowadziłoby do pełnej konfrontacji nuklearnej. W rzeczywistości żadnego ataku nie było. Wydarzyła się sytuacja, której nie przewidzieli konstruktorzy systemu „Oko”. Odbicie światła słonecznego od chmur komputer zinterpretował jako odpalenie pocisku. Gdyby tylko w tamtym dniu na stanowisku znajdował się większy służbista, w 1983 roku rozpoczęłaby się wojna nuklearna.

Warto zapoznać się z tą historią dokładniej. Przy okazji można także zapoznać się z tym, jak działają współczesne systemy komputerowe w kontekście broni nuklearnej – rosyjski Perymetr (w angielskim Dead Hand) i amerykański DRC-8 Emergency Rocket Communication System.

Sytuacja ta jednak pokazuje, że nasze przewidywania co do niebezpiecznych technologii, nawet przy zaangażowaniu szeregu ekspertów, są ubogie. I moim zdaniem jest to najważniejsza uwaga, jaką można zrobić wypunktowując zagrożenia związane z SI. Nie to, jakie jest dokładnie konkretne zagrożenie, tylko uwaga na to, że jesteśmy zawsze omylni. Krytyczne uwagi wobec SI nie powinny służyć temu, aby z tej technologii rezygnować, tylko temu, abyśmy byli bardziej świadomi i przewidywalni w jej użytkowaniu. Jednak postawy prezentowane przez wiele osób związanych z tą dziedziną o charakterze: „Zagrożenia to ignorancki mit, bo SI nie uzyska samoświadomości”, czy „SI nie zostanie wykorzystana do niecnych celów politycznych, bo po co ktoś miałby to robić” albo „bo to teorie spiskowe” (a nie mówimy tu o teoriach spiskowych, tylko o realnych wydarzeniach w historii, jak choćby ta z E. Snowdenem), nie napawają optymizmem, ponieważ pokazują niezdolność człowieka do refleksji nad realiami i odpowiedzialnego wprowadzania tak newralgicznych wynalazków.

Czytaj dalej: Część IV

Literaturę znajdziesz na końcu Części IV

Skomentuj

Wprowadź swoje dane lub kliknij jedną z tych ikon, aby się zalogować:

Logo WordPress.com

Komentujesz korzystając z konta WordPress.com. Wyloguj /  Zmień )

Zdjęcie na Google

Komentujesz korzystając z konta Google. Wyloguj /  Zmień )

Zdjęcie z Twittera

Komentujesz korzystając z konta Twitter. Wyloguj /  Zmień )

Zdjęcie na Facebooku

Komentujesz korzystając z konta Facebook. Wyloguj /  Zmień )

Połączenie z %s