Czym jest sztuczna inteligencja? Otóż na razie jedynie….marketingową ściemą. „Inteligentne” piekarnik czy lodówka oferowana w elektromarkecie są równie inteligentne co wszystkie pozostałe urządzenia bez tego określenia. Cała „inteligencja” słynnego ChatGPT i innych podobnych czatów czy botów, polega na tym, że statystycznie potrafią dopasować najczęściej używane wyrażenia do danego pytania czy kontekstu. I tyle. Z jakąkolwiek inteligencją nie ma to oczywiście nic wspólnego, stąd wymyślono kolejną marketingową sztuczkę i zaczęto mówić o Ogólnej Sztucznej Inteligencji (Artificial General Intelligence), która ma być bardziej inteligentna od tej poprzedniej. Cały czas jednak nie ma to nic wspólnego ze zwykłą, ludzką inteligencją, którą cechuje przede wszystkim rozumienie i intencjonalność.
Mark Zuckerberg czy Elon Musk?
Sztuczna inteligencja budzi skrajne postawy, a ich dobrą ilustracją jest kłótnia między dwoma technologicznymi wizjonerami: Markiem Zuckerbergiem i Elonem Muskiem, którą opisywał swojego czasu Los Angeles Times. O ile twórca Facebooka w sztucznej inteligencji upatruje szanse od tworzenia bezpiecznych aut, które nie będą powodować wypadków po lepszą diagnostykę chorób, o tyle drugi mówi wręcz o zagrożeniu cywilizacyjnym, które dostrzeżemy dopiero wtenczas, kiedy roboty wyjdą na ulice i zaczną zabijać ludzi.
Gdzieś między tymi skrajnymi postawami jest, póki co, siermiężną rzeczywistość, jak np. próba rozmowy ze słynnym ChatGPT którego wystarczy zapytać o najsłynniejsze obrazy np. Amadeusza Mozarta, by uzyskać prawdziwą ale dziwaczną odpowiedz, że nie jest on znany z malowania obrazów. Jeśli zatem ChatGPT ma coś, co nazywa się „sztuczną inteligencją” to jest to idealny jej obraz: działa dziwacznie, nieporadnie, czasami wywołuje uśmiech zdziwienia lub politowania. I tak naprawdę trudno mu przypisać jakąkolwiek inteligencję. Tym bardziej, że wciąż tak naprawdę nie wiemy, czym sztuczna inteligencja jest.
AI –inteligencja? Ale gdzie?
Sztuczna inteligencja (AI) jest ostatnio przedstawiana (np. w mediach) jako coś bezcielesnego, powszechnego, wszechpotężnego i groźnego dla ludzkości. Rzekomo z AI mamy do czynienia już dziś w postaci coraz bardziej doskonałych komputerów i robotów, z którymi spotykamy się coraz częściej w codziennym życiu. Co najgorsze jednak, lekceważymy ją na swoją zgubę, a tymczasem zdaniem niektórych (np. uczonego Stephana Hawkinga, Steve’a Wozniackiego, współtwórcy Appla, czy przywołanego wyżej Elona Muska) może stanowić ona śmiertelne (w sensie ścisłym) zagrożenie dla ludzkości, aż do jej ostatecznej zagłady.
Niestety, podstawową wadą większości doniesień o AI jest to, że…właściwie nie wiadomo o czym tak naprawdę mówimy! Próżno szukać definicji podstawowych pojęć takich jak: „sztuczna inteligencja”, „myślenie”, „umysł” czy „świadomość”. Bez tego jesteśmy właściwie bezradni, bo nie wiemy czym ta AI jest, nie mamy też żadnych kryteriów, pozwalających rozpoznać, czy mamy z nią do czynienia czy nie. Może wynika
to z tego, że nie ma jednego, powszechnie uznawanego znaczenia tych pojęć, tak samo jak panuje powszechny pogląd, że Ziemia krąży wokół słońca. Uczeni wciąż spierają się o to czym jest „świadomość”, „umysł”, „myślenie” czy „inteligencja”.
Uczłowieczanie AI
Tymczasem jest to moment kluczowy, bo jeśli nie wiemy czym jest inteligencja, tym bardziej trudno nam wskazać, czym jest AI. Stąd być może podejście funkcjonalne: o AI mówi się wtedy, kiedy coś (komputer, robot, maszyna) naśladuje człowieka, potrafi to samo co on, a nawet go przewyższa, np. w gra w szachy czy grę go, pisze newsy czy książkę kucharską, prowadzi odprawę celną czy jest np. samodzielnie jeżdżącym (autonomicznym) autem itp. Słowem: jeśli komputer czy sterowany nim robot potrafi zrobić to samo co człowiek (lub lepiej), to mamy do czynienia z AI. Problem w tym, że można kupić batonik w sklepie od sprzedawcy, a można zrobić to samo w automacie z przekąskami. Czy jeśli automat potrafi to samo, co sprzedawca, to znaczy, że jest tak samo inteligentny?
Weźmy często przywoływany klasyczny wątek wygranej komputera Deep Blue z Kasparowem. Rzecz w tym, że to wcale nie komputer wygrał z mistrzem szachowym, tylko…twórcy tego komputera, przede wszystkim programiści. Faktycznie więc nie był to pojedynek Deep Blue vs. Kasparow, a twórcy Deep Blue vs. Kasparow; komputer był tylko takim trochę bardziej wyrafinowanym narzędziem, za którego pośrednictwem jego twórcy wykonywali swoje ruchy. To tak, jak gdyby pisarz napisał książkę na maszynie do pisania czy edytorze tekstu i to właśnie im przypisywałoby się autorstwo tej książki. Na pewno więc w przypadku automatów do gier lub robotów faktycznie mamy do czynienia z inteligencją, ale nie sztuczną, tylko ludzką – twórców tych urządzeń, a rzekoma inteligencja tych urządzeń jest tylko pochodną inteligencji ludzkiej.
AI – długa historia
Spróbujmy zatem uporządkować nieco te kwestie. Pierwszy fundamentalne pytanie czy maszyna może myśleć postawił w 1950 roku Alan Turing. W tzw. mocnej wersji AI centralnym punktem jest tzw. metafora komputerowa. Według niej mózg jest komputerem (maszyną cyfrową, hardware) natomiast umysł to oprogramowanie na tym komputerze (software). Pogląd, że komputer z uruchomionym na nim oprogramowaniem to nic innego jak myślący mózg, rodzi od razu kluczowy problem, na które jeszcze nauka nie znalazła odpowiedzi, tzw. problem psychofizyczny (mind – body problem) – w jaki sposób to, co w człowieku fizyczne, łączy się z tym, co mentalne. Niewątpliwie bowiem składamy się z tym samych atomów, co wszystko inne we wszechświecie. Niewątpliwie też w człowieku, i tylko w nim, mamy do czynienia z czymś, co fizycznie nie jest nam dane: ze świadomością, „myślą”, wyobrażeniem”, „przypomnieniem”, „przekonaniem” – słowem wszystkim tym, co tworzy naszą psychikę.
Wydaje się oczywiste, że jakiś związek między tym co fizyczne i mentalnie istnieje. Wszyscy wiemy jak np. działa alkohol (i inne środki psychoaktywne), ale jeśli ktoś po jego spożyciu jest bardziej dowcipny, to kluczowe pytanie brzmi: dlaczego akurat taka kombinacja atomów węgla, wodoru i tlenu powoduje takie właśnie skutki w ludzkiej psychice? Ba, spróbujmy sam „humor” wytłumaczyć na poziomie atomów czy cząstek. Tego, niestety, nadal nie wiemy i nic nie wskazuje na to, żebyśmy wkrótce się dowiedzieli. Sądzimy, że podłożem materialnym stanów psychicznych jest mózg i znajomość jego fizjologii jest coraz lepsza, ale nadal nie wiemy ani czym „myśl” jest, ani jak powstaje, abstrahując już nawet zupełnie od treści tej myśli, czy wspomniane już poczucie humoru. Nie sądzę, żeby na bazie współczesnej wiedzy, udałoby się wyjaśnić na poziomie neurobiologii mózgu, jak powstaje i dlaczego właśnie jest taka a nie inna np. myśl, że np. Trump jest lepszym prezydentem od Obamy lub odwrotnie.
Jest to kluczowa sprawa, gdyż próbujemy nasze stany psychiczne przenieść w jakieś inne podłoże materialne (np. układ elektroniczny). Jak mówi amerykański filozof, jeden z najwybitniejszych badaczy filozofii umysłu, John R. Searle w książce „Ponowne odkrycie umysłu”: „Tak jak pijany, który zgubił kluczyki od samochodu w ciemnych zaroślach, ale szuka ich w świetle ulicznych latarni, bo tu jest lepsze oświetlenie, próbujemy ustalić pod jakim względem istoty ludzkie mogą być podobne do naszych modeli komputerowych, zamiast starać się zrozumieć, na czym polega działanie ludzkiego umysłu”. Co bardzo istotne, wydaje się, że nasza świadomość w jakiś sposób jest wytwarzana przez mózg. W przypadku komputerów tak nie jest, one nie wytwarzają oprogramowanie tylko musi ono im być dostarczone z zewnątrz. Jak mówi Searle w książce „Maids, Brains and Programs” :„…stany i zdarzenia mentalne są dosłownie wytworami mózgu, ale program nie jest w tym sensie tworem komputera”. Trudno np. oczekiwać, żeby komputer (samo urządzenie) bez żadnego oprogramowania nagle zaczął działać i pojawiły by się w nim same z siebie jakieś programy.
Maksymalnie upraszczając może powiedzieć, że komputer przekształca znaki (ciągi cyfr) według zadanych reguł formalnych (oprogramowania). Oczywiście postęp technologiczny jest tak duży, że komputery wykonują miliony obliczeń na sekundę i robią to coraz sprawniej, ale zasada działania pozostaje bez zmian.
Inteligencja – rozumienie i intencjonalność
Pamiętając o tym, co powyżej, że nie wiadomo, czym jest inteligencja wydaje się, że przynajmniej dwie rzeczy są niezbędne, żeby o niej mówić: są to intencjonalność i rozumienie i wydaje się, że ich obu brakuje komputerom, którym obecnie przypisuje się SI.
Intencjonalność jest to odnoszenie się naszych stanów psychicznych do rzeczywistości (w tym sensie, że jak myślę np. o jabłku, to coś takiego jak jabłko istnieje w rzeczywistości pozamentalnej i moja myśl się do niego odnosi). Każdy mój stan psychiczny: myśl, wyobrażenie, przekonanie odnosi się do czegoś, co jest poza moją psychiką. Można powiedzieć, że każdy stan psychiczny cechuje „aboutness” czyli „bycie o czymś”. W przypadku komputerów chyba lepiej mówić o semantyce, czyli odnoszeniu się znaków do rzeczywistości. Podobnie jest z rozumieniem. Nie bardzo potrafimy zdefiniować to pojęcie, ale rozumiem „coś”, jeśli znam „tego” sens. Ale to nic nam nie daje: nie bardzo potrafimy zdefiniować pojęcie „sensu”, nie mówiąc już o tym, że gdyby nas zapytać, co znaczy „znać sens” też mielibyśmy olbrzymie problemy z wytłumaczeniem, co to znaczy. Warto w tym miejscu zauważyć ograniczenia komputerów, które wymagają właśnie rozumienia, np. o ile w szachach komputer nieźle sobie radzi z człowiekiem o tyle np. w brydżu idzie mu już znacznie gorzej, nie było jakieś spektakularnej porażki czołowych brydżystów z komputerem. Na podobne ograniczenia wskazuje się w przypadku translatorów, które jak były toporne tak są, bo po prostu tłumaczenie wymaga rozumienia tekstu, a one tego nie potrafią.
ChatGPT jak chiński pokój
Pokazuje to bardzo dobrze tzw. argument chińskiego pokoju. Jest to klastyczny eksperyment myślowy, sformułowany właśnie przez wspomnianego myśliciela amerykańskiego J. R. Searle’a, który od dawna jest osią dyskusji tego zagadnienia. Załóżmy, mówi Searle, że w zamkniętym pomieszczeniu znajdują się osoby nie znające języka chińskiego. Dostają one z zewnątrz kartki papieru pokryte znakami chińskiego pisma i mają też instrukcje przekształcania tych znaków. Instrukcje te nie odnoszą się jednak to treści tych znaków, tylko są czysto formalne: np. zielony znak umieść po czerwonym albo po znaku o takim kształcie umieść znak o innym, ściśle określonym kształcie itd. itd. Okazuję się, że wyłącznie za pomocą tych instrukcji zgromadzone w pokoju osoby są w stanie dawać sensowne odpowiedzi na zadawane pytania w języki chińskim, którego kompletnie nie znają, a więc również nie rozumieją. Mało tego, nie zdają sobie nawet sprawy, że to, co dostają z zewnątrz to pytania, a oni udzielają odpowiedzi. Nie są w stanie bowiem rozpoznać pytania w języku chińskim.
Wygląda znajomo? Mimo, że argument chińskiego pokoju został sformułowany bardzo dawno temu, opisuje dokładnie działanie ChatGPT i jemu podobnych. Można uzyskać w ten sposób w miarę sensowne odpowiedzi, mimo, że ChatGPT nie ma zielonego pojęcia, co mówi, a nawet nie „wie”, że zdawane są mu pytania. Robi jedynie to samo, co wszystkie inne komputery na świecie: realizuje swój algorytm, czyli wykonuje pewne instrukcje, które dostał z zewnątrz. I tyle. Gdzie tu jest jakiś technologiczny przełom i jakakolwiek inteligencja?
Tak czy owak wydaje się, że komputer nie rozumie (nie zna sensu) operacji, które wykonuje. Mówiąc wprost komputery jedynie przekształcają znaki według zadanych reguł (oprogramowania). To człowiek nadaje tym operacjom znaczenie (sens) takie jak np. zwyczajne dodawanie czy odejmowanie, powstanie książki kucharskiej, ruchów szachowych czy grę na giełdzie, itp. Mówiąc obrazowo: komputer nie „wie” do czego jego operacje służą, komputer tylko liczy, przekształca znaki. Dokładnie tak samo, jak komputer pokładowy w samochodzie tylko dokonuje obliczeń i podaje pewne dane (np. zasięg czyli ile jeszcze przejadę na paliwie znajdującym się w baku), ale dopiero kierowca interpretuje te dane i zastanawia się, czy trzeba już szukać najbliższej stacji benzynowej. Intencjonalność jest więc czymś w rodzaju „mostu” między stanami psychicznymi człowieka a realnie istniejącym światem pozamentalnym, komputery takiego mostu nie mają. Ściśle: takim mostem między operacjami wykonywanymi przez komputer a rzeczywistością jest…człowiek: twórca oprogramowania lub jego użytkownik.
Searle odtrąbił zatem koniec mocnej AI, uważając, że może być ona interesująca włącznie jako zjawisko historyczne bądź socjologiczne.
Ostatecznie wydaje się, że jesteśmy tak samo daleko od AI jak 50 lat temu. Zasada działania komputerów jest cały czas taka sama (formalne działania na znakach; formalne a więc nie mające związku z ich znaczeniem) a postęp jest jedynie ilościowy (technologiczny), tzn. komputery robią to samo, co robiły 50 lat temu, ale znacznie szybciej i sprawnej. Ale działają cały czas w ten sam sposób. Wydaje się więc, że nie chodzi tu o to, żeby one robiły to „bardziej” tylko „inaczej”. A tego „inaczej” cały czas nie ma. Nawet tzw. komputery kwantowe czy sieci neuronalne służą jedynie do przetwarzania danych.
Ostatecznie wydaje się, ze AI to razie nic innego jak marketingowy bełkot, służący zwiększaniu sprzedaży „inteligentnych” urządzeń (smartfony, smartwatche, „inteligentne” domy, samochody, kuchenki, czy nawet…kosmetyki). Tak naprawdę o AI mówi się opisując jedynie działanie fajnych gadżetów, które pojawiają się na rynku, a które potrafią zrobić to, do czego kilka lat temu niezbędny był człowiek. Wydaje się, że AI jest tu synonimem pewnej „uniwersalności” czy „wielozadaniowości” współczesnych urządzeń – kiedyś „komórka” służyła wyłącznie do dzwonienia i wysyłania sms-ów i była wyłącznie telefonem, teraz za pomocą komórki możemy robić…wszystko. Póki co jednak jesteśmy skazani na „pseudeo – sztuczną inteligencję” taką jak ten niezbyt mądry ChatGPT, bo jest dokładnie taki, jakim stworzyli go ludzie. I dokładnie jest tak samo, ze wszystkimi innymi rzeczami, którym przypisujemy inteligencję – są jedynie tak samo inteligentne (albo nie) jak ludzie, którzy je wytworzyli.
Zdjęcie: Sztuczna inteligencja. Źródło: Pixabay
Najnowsze komentarze