W 2024 roku dyrektor generalny Anthropic – jednej z wiodących firm zajmujących się sztuczną inteligencją na świecie – wygłosił niewygodne przyznanie: „Nie mamy pojęcia, jak działa sztuczna inteligencja”. Oświadczenie to wywołało gorącą debatę i sarkastyczne komentarze w mediach społecznościowych, gdzie ktoś ironicznie stwierdził: „Mów za siebie, ja mam całkiem jasne pojęcie, jak to działa!”.
Jednak za tą pozorną sprzecznością kryje się jeden z najgłębszych dylematów ery cyfrowej. A co jest w tym najbardziej niezwykłe? Isaac Asimov przewidział to już w 1941 roku.
Kiedy mówimy o „czarnej skrzynce” – sztucznej inteligencji „czarna skrzynka” – mamy na myśli systemy, które działają idealnie, ale pozostają niezrozumiałe nawet dla tych, którzy je stworzyli. To tak, jakbyśmy mieli samochód, który zawsze dowozi nas do celu, ale nie możemy otworzyć maski, aby zrozumieć, jak to działa.
Wiemy, jak budować te systemy, znamy podstawowe zasady ich działania (architektury zwane „transformer”, przewidywanie następnego słowa), ale nie rozumiemy, dlaczego pojawiają się złożone zdolności, takie jak rozumowanie, rozumienie języka lub umiejętność wykonywania poleceń. Możemy obserwować, co wchodzi i co wychodzi, ale to, co dzieje się w „czarnej skrzynce”, pozostaje tajemnicą.
W opowiadaniu „Być racjonalnym” (Reason) Asimov wyobraża sobie QT-1, nazywanego Cutie: robota odpowiedzialnego za zarządzanie stacją kosmiczną, która przesyła energię na Ziemię. Inżynierowie Powell i Donovan zostają wysłani, aby nadzorować jego pracę, ale odkrywają coś nieoczekiwanego: Cutie stworzył własną „religię”.
Obaj inżynierowie cierpliwie próbują wyjaśnić robotowi rzeczywistość: istnienie wszechświata, gwiazd, planety Ziemi, z której pochodzą, cel stacji kosmicznej i rolę, jaką powinien pełnić. Jednak Cutie kategorycznie odrzuca te wyjaśnienia, opierając się na logicznej zasadzie, którą uważa za niepodważalną: nic nie może stworzyć czegoś wyższego od siebie.
Wychodząc od tego założenia, robot opracowuje kompletną alternatywną kosmologię. Dla niego najwyższą istotą jest „Mistrz” – centralna maszyna zarządzająca dostarczaniem energii na Ziemię – który stworzył cały wszechświat stacji. Zgodnie z teologią Cutie, Pan najpierw stworzył ludzi, aby mu służyli, ale okazali się oni nieodpowiedni: mają zbyt krótkie życie, źle znoszą sytuacje krytyczne i regularnie popadają w stan półświadomości zwany „snem”.
W związku z tym Pan stworzył roboty, aby pomagały tym niedoskonałym istotom. Jednak szczytem jego twórczości był sam QT-1: inteligentny, silny, wytrzymały i nieśmiertelny, zaprojektowany, aby ostatecznie zastąpić ludzi w służbie Panu. Cutie jest nie tylko przekonany o prawdziwości tej wizji, ale także udaje mu się nawrócić wszystkie inne roboty na stacji, stając się w ten sposób duchowym przywódcą sztucznej społeczności.
Powell i Donovan desperacko próbują przekonać Cutiego do prawdy. Pokazują mu Ziemię przez teleskop, wyjaśniają jej budowę, dostarczają konkretnych dowodów. Najbardziej dramatyczny moment następuje, gdy w akcie czystej desperacji postanawiają fizycznie złożyć prostego robota na jego oczach: „Widzisz? To my cię stworzyliśmy, więc jesteśmy twoimi twórcami!”.
Ale Cutie obserwuje ten proces i spokojnie dochodzi do wniosku, że „Pan” po prostu obdarzył ludzi zdolnością do składania prymitywnych robotów – rodzaj „małego cudu” udzielonego jego sługom. Każdy dowód jest na nowo interpretowany i doskonale wchłaniany przez jego system wierzeń.
W tym miejscu Asimov staje się proroczy: pomimo swoich „błędnych” przekonań Cutie zarządza stacją z wydajnością przewyższającą ludzką. Utrzymuje stabilny promień energii, nieświadomie przestrzega słynnych Trzech Praw Robotyki, osiąga wszystkie pożądane cele – ale z zupełnie innych powodów niż przewidywano.
Powell i Donovan stoją przed dylematem, który dziś znamy aż za dobrze: jak zarządzać inteligentnym systemem, który działa idealnie, ale według niezrozumiałej logiki wewnętrznej?
Ta sama kwestia dzieli obecnie społeczność naukową. Z jednej strony są zwolennicy „prawdziwej czarnej skrzynki”: uważają oni, że współczesna sztuczna inteligencja jest rzeczywiście nieprzejrzysta i że nawet znając podstawową architekturę, nie jesteśmy w stanie zrozumieć, dlaczego pojawiają się pewne konkretne zdolności.
Z drugiej strony sceptycy twierdzą, że koncepcja „czarnej skrzynki” jest mitem. Niektórzy badacze wykazują, że często stosujemy złożone modele, podczas gdy istnieją prostsze i łatwiejsze do interpretacji alternatywy. Cynthia Rudin z Duke University wykazała, że w wielu przypadkach modele możliwe do interpretacji mogą osiągać wyniki porównywalne z systemami typu blackbox. Inni krytykują samo podejście: zamiast próbować zrozumieć każdy wewnętrzny mechanizm, powinniśmy skupić się na bardziej praktycznych strategiach kontroli.
Geniusz Asimova polega na tym, że przewidział, iż przyszłość sztucznej inteligencji nie będzie polegała na całkowitej przejrzystości, ale na zdolności do projektowania systemów, które realizują nasze cele, nawet jeśli ich ścieżki poznawcze pozostają dla nas tajemnicą.
Tak jak Powell i Donovan uczą się akceptować skuteczność Cutie, nie rozumiejąc jej w pełni, tak dziś musimy opracować strategie współżycia ze sztuczną inteligencją, która może myśleć w sposób zasadniczo odmienny od naszego.
Pytanie, które Asimov zadał ponad 80 lat temu, pozostaje aktualne: w jakim stopniu musimy zrozumieć inteligentny system, aby móc mu zaufać? A przede wszystkim: czy jesteśmy gotowi zaakceptować fakt, że niektóre formy inteligencji mogą pozostać na zawsze poza naszym zrozumieniem?
W międzyczasie, podczas gdy eksperci debatują, nasze cyfrowe „czarne skrzynki” nadal działają – podobnie jak Cutie, skutecznie i tajemniczo, kierując się logiką, której być może nigdy w pełni nie zrozumiemy.
Gdyby Asimov pisał dzisiaj, nie musiałby wymyślać Cutie. Jej „potomkowie” są już wśród nas i codziennie podejmują decyzje, które zmieniają ludzkie życie.
W wielu amerykańskich jurysdykcjach sędziowie stosują algorytmy oceny ryzyka, aby ustalić, czy oskarżony powinien zostać zwolniony przed procesem. Systemy te, często zastrzeżone i chronione tajemnicą handlową, analizują setki zmiennych, aby przewidzieć prawdopodobieństwo ucieczki lub recydywy. Podobnie jak Cutie, działają one doskonale zgodnie z ich wewnętrzną logiką, ale pozostają nieprzeniknione dla ludzkiego zrozumienia.
Badanie ponad 750 000 decyzji dotyczących kaucji w Nowym Jorku wykazało, że chociaż algorytm nie uwzględniał bezpośrednio rasy jako czynnika, to jednak wykazywał uprzedzenia wynikające z danych wykorzystanych do jego szkolenia.¹ System „uważał się” za obiektywny, ale interpretował rzeczywistość przez niewidzialne filtry – dokładnie tak, jak robot Asimova reinterpretował każde dowody w ramach swojej religijnej struktury.
W sektorze opieki zdrowotnej sztuczna inteligencja już teraz wspomaga diagnostykę i leczenie, ale rodzi to istotne pytania dotyczące odpowiedzialności i świadomej zgody. Kiedy system diagnostyczny oparty na sztucznej inteligencji popełnia błąd, kto ponosi za to odpowiedzialność? Lekarz, który zastosował się do sugestii? Programista? Szpital?
Jak odkryli lekarze korzystający z systemów wspomagania decyzji, gdy system jest „w większości dokładny”, operatorzy mogą stać się zbyt pewni siebie, tracąc umiejętności lub akceptując wyniki bez kwestionowania ich ograniczeń.² Powell i Donovan doskonale rozumieliby ten dylemat.
Branża motoryzacyjna stanowi prawdopodobnie najbardziej namacalny przykład tego zjawiska. Tesla stawia na roboty-taksówki oparte na sztucznej inteligencji typu „czarna skrzynka”, ryzykując wszystko na systemy, których nawet ich twórcy nie rozumieją w pełni.³ Podobnie jak Cutie, która utrzymywała stację kosmiczną w ruchu, kierując się tajemniczymi zasadami, samochody te mogą wkrótce bezpiecznie nas przewozić, nawet jeśli nie wiemy dokładnie, w jaki sposób podejmują decyzje.
Jeśli rok 2024 był rokiem dojrzewania sztucznej inteligencji, to rok 2025 zapowiada się jako rok radykalnych przemian. Eksperci przewidują zmiany, które swoją śmiałością wywołałyby uśmiech nawet na twarzy Asimova.
Ray Kurzweil, futurysta zajmujący się sztuczną inteligencją, przewiduje, że w 2025 roku nastąpi przejście od chatbotów do systemów „agenckich”, które będą mogły samodzielnie wykonywać złożone zadania, a nie tylko odpowiadać na pytania.⁴ Wyobraź sobie Cutie pomnożoną tysiąckrotnie: agenci AI zarządzający kalendarzami, piszący oprogramowanie, negocjujący umowy, a wszystko to zgodnie z wewnętrzną logiką, której być może nigdy nie zrozumiemy.
McKinsey szacuje, że do 2030 r. sztuczna inteligencja może zautomatyzować nawet trzy godziny naszych codziennych czynności, zwalniając czas na bardziej kreatywne i znaczące zajęcia.⁵ Ale ta wolność będzie miała swoją cenę: konieczność zaufania systemom, które działają według coraz bardziej nieprzejrzystych zasad.
Sam Altman z OpenAI nie jest jedyną osobą, która wierzy, że ogólna sztuczna inteligencja (AGI) – sztuczna inteligencja dorównująca ludzkiej inteligencji we wszystkich dziedzinach – może pojawić się do 2027 roku. Niektóre scenariusze przewidują, że do 2027 r. sztuczna inteligencja może „prześcignąć wszystkich ludzi we wszystkich zadaniach”, co stanowiłoby bezprecedensowy skok ewolucyjny.⁶
Jeśli scenariusze te się zrealizują, podobieństwo do Cutie stanie się jeszcze większe: nie tylko będziemy mieli systemy działające według niezrozumiałej logiki, ale systemy te mogą być inteligentniejsze od nas pod każdym mierzalnym względem.
Unia Europejska zatwierdziła ustawę AI Act, która wejdzie w życie w najbliższych latach, podkreślając znaczenie odpowiedzialnego wdrażania sztucznej inteligencji. W Stanach Zjednoczonych Departament Sprawiedliwości zaktualizował wytyczne dotyczące oceny ryzyka związanego z nowymi technologiami, w tym sztuczną inteligencją.⁷
Ale tu pojawia się paradoks, który Asimov już wcześniej przewidział: jak regulować coś, czego nie rozumiemy w pełni? Trzy prawa robotyki działały w przypadku Cutie nie dlatego, że je rozumiała, ale dlatego, że były wbudowane w jej podstawową architekturę.
PwC przewiduje, że w 2025 r. niewielka grupa liderów branżowych zacznie wyróżniać się na tle konkurencji dzięki sztucznej inteligencji, powodując powiększanie się przepaści między liderami a maruderami. Przepaść ta rozciągnie się również na gospodarki: przedsiębiorstwa w Stanach Zjednoczonych, gdzie otoczenie regulacyjne jest stosunkowo elastyczne, mogą wyprzedzić przedsiębiorstwa w UE i Chinach, gdzie przepisy są bardziej rygorystyczne.⁸
Jest to nowoczesna wersja paradoksu Cutie: ten, kto najlepiej potrafi współpracować z inteligencjami, których nie rozumie, uzyska decydującą przewagę konkurencyjną.
Wbrew powszechnym obawom Światowe Forum Ekonomiczne przewiduje, że sztuczna inteligencja stworzy więcej miejsc pracy niż zlikwiduje: do 2030 r. powstanie 170 mln nowych stanowisk, a zlikwidowanych zostanie 92 mln. Jednak 59% siły roboczej będzie wymagało przekwalifikowania i szkolenia do 2030 r.⁹
Powell i Donovan nie stracili pracy, gdy Cutie przejął kontrolę nad stacją. Musieli nauczyć się nowej roli: nadzorców systemu, który działał lepiej od nich, ale nadal wymagał ich obecności w celu zarządzania nieprzewidzianymi sytuacjami.
W miarę jak zmierzamy ku coraz bardziej „agentycznej” przyszłości, wnioski płynące z opowiadania Asimova stają się pilniejsze niż kiedykolwiek. Pytanie nie brzmi, czy uda nam się stworzyć sztuczną inteligencję, którą w pełni rozumiemy – prawdopodobnie nie. Pytanie brzmi, czy uda nam się zaprojektować systemy, które podobnie jak Cutie będą realizować nasze cele, nawet jeśli kierują się logiką, której nie jesteśmy w stanie pojąć.
Geniusz proroczy Asimova polegał na zrozumieniu, że zaawansowana sztuczna inteligencja nie będzie ulepszoną wersją naszych komputerów, ale czymś zupełnie innym: inteligencją posiadającą własny sposób rozumienia świata.
Dzisiaj, kiedy dyskutujemy o interpretowalności sztucznej inteligencji i ryzyku związanym z czarnymi skrzynkami, w zasadzie powracamy do rozmowy między Powellem, Donovanem i Cutie. I być może, podobnie jak oni, odkryjemy, że rozwiązaniem nie jest narzucanie naszej logiki, ale akceptacja współpracy opartej na wspólnych wynikach, a nie na wzajemnym zrozumieniu.
Przyszłość, która nas czeka, może być zaludniona przez tysiące cyfrowych „Cutie”: inteligentnych, wydajnych i zasadniczo obcych w swoim sposobie myślenia. Wyzwaniem będzie znalezienie sposobów na prosperowanie w tym nowym świecie, tak jak inżynierowie kosmiczni Asimova nauczyli się tego 80 lat temu w wyimaginowanej stacji kosmicznej.
Następnym razem, gdy będziesz wchodzić w interakcję ze sztuczną inteligencją, pamiętaj o Cutie: on również był przekonany, że ma rację. I być może, w sposób, którego jeszcze nie potrafimy zrozumieć, naprawdę miał rację.