Siedzisz w pokoju. W drzwiach do pokoju zainstalowano skrzynkę na listy. Co pewien czas na wycieraczkę spada kawałek karty z rysunkiem jakiegoś symbol

Siedzisz w pokoju. W drzwiach do pokoju zainstalowano skrzynkę na listy. Co pewien czas na wycieraczkę spada kawałek karty z rysunkiem jakiegoś symbolu. Twoje zadanie polega na znalezieniu tego rysunku w książce, która leży na stole. Każdy z symboli ma w książce swoją parę – inny symbol. Ze stosu kart, które znajdują się w pokoju, musisz wybrać teraz tę, na której jest ten drugi symbol i wsunąć ją do skrzynki od twojej strony. To wszystko. Robisz to przez jakiś czas i zastanawiasz się, co się właściwie dzieje.

  To eksperyment myślowy zwany chińskim pokojem, zaproponował go amerykański filozof John Searle (ur. 1932). Owa wyimaginowana sytuacja ma dowieść, że komputery nie potrafią myśleć, nawet jeśli tak się wydaje. Aby zrozumieć, co się dzieje, musisz zrozumieć test Turinga. Alan Mathison Turing (1912–1954) był wybitnym matematykiem z Cambridge, który przyczynił się do wynalezienia nowoczesnych komputerów. Zaprojektowane przez niego podczas drugiej wojny światowej w angielskim Bletchley Park maszyny złamały kody Enigmy, stosowane przez dowódców niemieckich łodzi podwodnych. Alianci mogli dzięki temu przejmować wiadomości i znali plany nazistów. Turing zaczął się zastanawiać, czy komputery będą kiedyś mogły zdziałać więcej, niż tylko łamać kody, czy staną się rzeczywiście inteligentne. W 1950 roku zaproponował test, który taki komputer musiałby zdać. Później znany był on jako test Turinga, ale sam Turing nazwał go grą w naśladownictwo (ang. imitation game). Turing uważał, że w mózgu wcale nie jest najciekawsze to, że ma konsystencję zimnej owsianki. Ważne są przede wszystkim jego funkcje, a nie sposób, w jaki trzęsie się wyjęty z głowy, ani też fakt, że jest szary. Komputery mogą być zrobione z twardych materiałów i składników elektronicznych, ale mimo to mogą robić wiele takich rzeczy, jakie robi ludzki mózg. Inteligencję oceniamy na podstawie odpowiedzi udzielanych na zadane pytania, a nie badając połączenia neuronów, które możemy obserwować po otwarciu czaszki. Sprawiedliwość wymaga więc, żeby oceniać komputery na podstawie dowodów zewnętrznych, a nie tego, jak są skonstruowane. Powinniśmy badać dane wejściowe i wyjściowe, a nie znajdujące się wewnątrz krew i nerwy albo kable i tranzystory. Tak uważał Turing. Testujący sędzia znajduje się w jednym pomieszczeniu; pisze tam pytania, które wyświetlają się na ekranie w innym pomieszczeniu. Sędzia nie wie, czy rozmawia za pomocą terminala z żywą osobą czy z komputerem. Jeśli nie jest w stanie określić, z kim rozmawia, komputer zdał test. Jeśli maszyna zda taki test, uzasadnione będzie nazwanie jej inteligentną – i to wcale nie w przenośni. Jest inteligentna tak, jak inteligentna może być istota ludzka. Chiński pokój – eksperyment myślowy Searle’a – miał wykazać, że nawet jeśli komputer przejdzie test Turinga na sztuczną inteligencję, niekoniecznie dowodzi to, że rzeczywiście cokolwiek rozumie. Pamiętasz, że znajdujesz się w pomieszczeniu z dziwnymi symbolami wpadającymi przez skrzynkę na listy i wyrzucasz przez nią inne symbole, które dopasowujesz na podstawie określonych reguł. To zadanie jest dla ciebie pozbawione sensu i nie wiesz, dlaczego to robisz. Ale nie zdając sobie z tego sprawy, odpowiadasz w języku chińskim na pytania zadawane po chińsku. Mówisz tylko po polsku, a chińskiego nie znasz ani w ząb. Ale pytania, które wpadają przez skrzynkę, są po chińsku, znaki zaś, które wysuwasz na zewnątrz, są sensownymi odpowiedziami na te pytania. Chiński pokój, w którym się znajdujesz, wygrywa „grę w naśladownictwo”. Dajesz odpowiedzi, które mogłyby sprawić, że ktoś na zewnątrz uznałby, że rozumiesz, o czym mówisz. Sugeruje to, że komputer, który przejdzie test Truringa, niekoniecznie musi być inteligentny, skoro siedząc w pokoju nie masz w ogóle pojęcia, czego dotyczy rozmowa za pomocą symboli. Searle uważa, że komputery zachowują się jak ktoś, kto znajduje się w chińskim pokoju: nie mają inteligencji i nie są w stanie myśleć. Ich działanie polega na przyporządkowywaniu symboli według określonych reguł, które zaprogramowali ich twórcy. Procesy, które wykonują, są częścią oprogramowania. A to coś zupełnie innego od rozumienia albo rzeczywistej inteligencji. Można to wyjaśnić jeszcze w inny sposób: ludzie, którzy programują komputery, wyposażają je w składnię – to znaczy podają zasady, zgodnie z którymi symbole mają być przetwarzane w określonej kolejności. Ale nie wyposażają ich w semantykę: nie podają znaczeń symboli. Ludzie, mówiąc, myślą o konkretnych rzeczach – ich myśli nawiązują na różne sposoby do świata. Komputery, choć wydaje się, że myślą, naśladują jedynie ludzkie myślenie, trochę tak jak papugi. Chociaż papuga może naśladować mowę, nie rozumie, co mówi. Podobnie, zdaniem Searle’a, komputery nie rozumieją w rzeczywistości niczego ani o niczym nie myślą: nie możesz wydobyć semantyki z samej składni. Krytyka eksperymentu myślowego Searle’a idzie w tym kierunku, że rozważa on kwestię, czy osoba w pokoju rozumie, co się dzieje. Ale to błąd. Osoba ta jest tylko częścią całego systemu. Nawet jeśli nie rozumie, co się dzieje, być może cały system (łącznie z pokojem, książką kodów, symbolami itd.) to rozumie. W odpowiedzi na tę krytykę Searle zmienił zasady swojego eksperymentu myślowego. Zamiast wyobrażać sobie osobę w jakimś pomieszczeniu porządkującą symbole, wyobraź sobie, że osoba ta zapamiętała książkę reguł, a teraz znajduje się na zewnątrz, na środku pola, i oddaje właściwe karty z symbolami. Osoba ta nadal nie rozumiałaby poszczególnych pytań, mimo że dawałaby właściwe odpowiedzi na pytania zadawane po chińsku. Rozumienie to więcej niż dawanie prawidłowych odpowiedzi. Wśród niektórych filozofów panuje jednak dalej przekonanie, że ludzki umysł działa tak, jak program komputerowy. Uważają, że komputery potrafią myśleć i robią to. Jeśli filozofowie ci się nie mylą, to być może pewnego dnia możliwy będzie transfer ludzkiego umysłu do komputera. Jeśli twój umysł jest programem, to fakt, że działa on teraz w miękkiej masie tkanek mózgowych w twojej głowie nie oznacza wcale, że kiedyś nie będzie mógł funkcjonować w wielkim, błyszczącym komputerze. Jeśli za pomocą superinteligentnych komputerów ktoś zdoła skopiować miliardy funkcjonalnych połączeń, które składają się na twój umysł, być może pewnego dnia będzie można zostać nieśmiertelnym. Twój umysł zostanie wgrany do komputera i będzie mógł dalej wieść swój własny żywot, choć twoje ciało dawno już będzie spoczywać w grobie lub zamieni się w popiół. Czy będzie to miła forma egzystencji, to już zupełnie inna sprawa. Jeśli Searle ma rację, to i tak nic nie gwarantuje, że taki wgrany umysł będzie miał tę samą świadomość, którą my mamy teraz, nawet jeśli będzie dawał odpowiedzi, które będą na to wskazywać. Sześćdziesiąt lat temu Turing był przekonany, że komputery potrafią myśleć. Jeśli miał rację, być może już niedługo przekonamy się, że filozofują. To bardziej prawdopodobne niż to, że pozwolą naszym umysłom na nieśmiertelność. Być może pewnego dnia będą nawet miały coś ciekawego do powiedzenia na temat fundamentalnych problemów – jak mamy żyć i jaka jest natura rzeczywistości – z którymi filozofowie borykają się od tysięcy lat. Tymczasem, żeby się w nich połapać, musimy polegać na filozofach z krwi i kości. Jednym z najbardziej wpływowych i kontrowersyjnych pośród nich jest Peter Singer.


* Artykuł stanowi fragment książki pt. „Krótka historia filozofii” Nigel Warburton http://ebookpoint.pl/ksiazki/e_0dbl.htm (Wydawnictwo RM 2017). Czas trwania promocji od 19.01.2017 do 25.01.2017