Świadomy robot wg. wyborczej i wykopu i jak to jest z tym naprawdę + kilka newsów

https://i1.wp.com/i.wp.pl/a/f/jpeg/26662/hector_robot-490.jpeg via chip.pl

Na stronie Wykopu i Gazety Wyborczej pojawił się artykuł o „świadomym” robocie.Jak zwykle sprawa nie jest tak prosta, a podejście zaprezentowane w tym artykule „Wyborczej” niestety, oprócz wybiórczego traktowania problemu, polega na typowym dla masowych serwisów rozdmuchaniu sprawy, ponieważ o prawdziwej świadomości mowy być jeszcze nie może. Można jednak (być może) mówić natomiast o bardzo, bardzo prymitywnej wersji samoświadomości – na razie jednak, chyba tylko w zakresie wykonywania ruchu.

Jak to skomentował jeden z czytelników artykułu „Wyborczej” – @Mrówkoniejad:

Jesli nawet uda sie stworzyc robota ktory bedzie samodzielnie myslal to nie bedzie to jeszcze oznaczalo ze jest swiadomy. Swiadomosc to zdawanie sobie sprawy ze myslimy, widzimy czy czujemy. Stad powiazane z swiadomoscia poczucie wlasnego ja.

W istocie, nawet mówienie o „samodzielnym myśleniu” zakrawa tu jednak na przesadę.

Robot „Hektor”, stworzony w ramach projektu EMICAB – bo o nim mowa – „przypomina patyczaka” pod względem budowy – według jego twórców. Powiedziałbym, że nie chciałbym spotkać tak dużego patyczaka ani innego owada – robot jest naprawdę duży, pomimo że jest wspominany w opracowaniach naukowych dotyczących „małych” robotów. Jak podaje strona news.discovery.com ma on (po dokonaniu przeliczeń jednostek) 1 metr długości, wagę 12 kg i może unieść około 30 kg. Nie ma co. Maleństwo 😉 Jego układ ruchu oparty jest o sieć neuronową, w której występuje 6 podsieci kontrolujących jego 6  „odnóży” i komunikujących się ze sobą w ograniczony sposób. Jednak nie to jest najważniejsze.

Nowością jednak (i krokiem w stronę prymitywnej samoświadomości) jest wprowadzenie swego rodzaju symulacji w przypadku napotkania nowych problemów na drodze robota. Jak pisze Wyborcza:

Kiedy maszyna napotyka nowy problem, Walknet jest odłączany od rzeczywistych odnóży i zaczyna działać na poziomie cyfrowego modelu ciała robota. Hektor potrafi więc zatrzymać się w bezruchu i zastanowić przez chwilę – twierdzi prof. Cruse. Symulacja obejmuje różne nietypowe reakcje. Uwzględnia też prosty model fizyki, dzięki czemu można ustalić np., gdzie znajdzie się środek ciężkości urządzenia. W ten sposób, wyobrażając sobie wchodzenie na pudełko, Hektor wie, że będzie musiał, dla podparcia, przesunąć do tyłu jedno z odnóży, by nie upaść. Sieć neuronowa wyższego rzędu wybiera najbardziej optymalne rozwiązanie i przekazuje je do realizacji. Wtedy Walknet ponownie zostaje podłączony do rzeczywistego systemu motorycznego i wykonuje zadanie.

Co mnie szczególnie zaskakuje, badacze nie ograniczyli się do tego (poważnego osiągnięcia), ale rozwijają również sztuczną inteligencję maszyny pod względem większego zrozumienia pojęć. Dzięki (pod)systemowi o nazwie „Wordnet” maszyna łączy pojęcie „chodzenia” z wykonywaną operacją. Badacze planują również wykształcić w robocie coś w stylu „teorii umysłu” z którą np. już osoby autystyczne mają problem. Wydaje mi się, że również dla badaczy odtworzyć coś takiego będzie nieco większym wyzwaniem wbrew ich deklaracjom. Tym bardziej, że uważam, że sam Wordnet operuje chyba obecnie trochę za małą liczbą „pojęć” (choć samo podejście jest moim zdaniem całkiem prawidłowe), a cała sprawa przypomina raczej sukces bota Eugene Goostman i jego zrozumienie we właściwych proporcjach.

Materiały filmowe na temat omawianego robota:

No dobrze. Czy to właściwie oznacza że sztuczna inteligencja w ramach robotów już istnieje ? Tak jak sugeruje tekst powyżej: No niezupełnie.

Nawet wprowadzenie „samopoczucia” robota wynikającego z sukcesów, lub porażek nic nie zmienia. Determinującym zachowania tego robota czynnikiem jest wyraźna funkcja celu. Tymczasem im bardziej zaawansowany organizm, tym funkcja (albo: funkcje) celu być może mniej znaczy (/znaczą) jako czynnik determinujący zachowanie układu. Dominuje coś innego, niż proste cele. Może eksperymentowanie ?  Weźmy mojego kota. Co zrobi gdy się obudzi i zwlecze z okna ? Oczywiście może pobiec do miski, zjeść i napić się. Co jednak zrobi potem ? Pójdzie w jakimś kierunku. Ale jakim ? A tego to dokładnie już nie wiem. Mogę przypuszczać (ponieważ jest kocurem), że prawdopodobnie będzie patrolował swoje terytorium albo polował – ale nie mam pewności. I nie wiem wcale w którym kierunku się uda. Zatem mogę stwierdzić, że pójdzie w kierunku motywowanym czynnikami racjonalnymi, ale też pseudolosowymi. Oczywiście – takie maszyny zachowują się stosunkowo inteligentnie, ale zachowują się w sposób typowo mechaniczny. Zbyt optymalny. I to dobrze – i źle.Dobrze – bo są wydajne.Złe – bo nie mają „inwencji”.

Maszyna testuje jedno rozwiązanie, czasem kilka gdy go potrzebuje. Zastanawia się gdy musi. Człowiek i zwierzę robią inaczej. Ich zachowanie jest tak kompleksowe, że już nie daje się opisać przy pomocy prostych algorytmów.Zużywają swoje cenne zasoby na eksperymentowanie czy „zastanawianie się” częściej. I to jest nasza siła. To nie jest tak, że „zabawa” czy „analiza i testowanie różnych rozwiązań” to czas stracony. Oczywiście – to jest najprostszy sposób na marnotrawstwo, nie przeczę. Ale uzyskana przy okazji wiedza jest bezcenna i o to w tym chodzi. Z drugiej strony, popełnianie błędów jest przykre. Bardzo przykre…

Tak czy inaczej – samo jednak podejście ewolucyjne do problemu świadomości zyskało właśnie kolejny argument. Przypominam też, że podejście to jest badane również w ramach otwartego projektu Open Cog [Wikipedia]


PS: wrzucę trochę newsów z Arxiv – bo nie chce mi się robić z tego kolejnego artykułu (no i przy okazji, jest to nagroda dla tych którym się chciało doczytać do końca):

Sztuczna Inteligencja,Sieci Neuronowe itd – artykuły:

Kryptografia i Bezpieczeństwo Informacji – artykuły:

Narzędzia sztucznej inteligencji – ogólne i uproszczone spojrzenie

Nie jest łatwo opracowywać tak szeroki temat nie będąc specjalistą,a jednocześnie wskazać zarys problemu w możliwie poprawny i interesujący.  Mam nadzieję,że niniejszy artykuł może aspirować do roli prostego wprowadzenia do przykładowej istotnej części zagadnień, związanych z tematyką narzędzi sztucznej inteligencji. Zwracam też uwagę,że z konieczności (oraz ze względu na moją ograniczoną wiedzę) w niniejszym artykule nie zostały zaprezentowane dokładne szczegóły algorytmiczne,a szczególnie – nie został dokładnie omówiony problem reprezentacji i dokładne kwestie związane z uczeniem systemów SI.

Przede wszystkim – dobrym pytaniem na początek jest to, czym w istocie jest sztuczna inteligencja,bowiem definicja dawałaby nam już jakąś wskazówkę. Jak zasugerowałem w wpisie z czerwca na temat bota Eugene Goostman jestem przeciwnikiem tezy, że sztuczna inteligencja to po prostu naśladowanie zachowania człowieka. Można sobie mówić o „inteligencji emocjonalnej” czy „społecznej”. Ok. Ale zachowując szacunek do dziedzictwa Alana Turinga, muszę stwierdzić, że test Turinga jest mało wartościowy jeśli idzie o wykrycie rzeczywistej sztucznej inteligencji, ponieważ false positives (i przyszłe false negatives) dyskwalifikują go. W istocie nie o taką inteligencję nam przecież głównie chodzi. Chodzi nam naprawdę o inteligencję, która odciąży nas w pracy umysłowej (a jeśli również fizycznej,  pomimo paradoksu Moraveca – byłoby jeszcze lepiej). A jak już to zrobi… Nasza leniwa zwierzęca strona podpowiada: „to już nie jest takie ważne” 😉

W istocie jednak,  zasada/zbiór zasad (nie chodzi mi o zasady chemiczne 😉 ) na której opiera się inteligencja jest właśnie piekielnie ważna,jeśli chcemy ją odtworzyć w sztucznej formie.

Problem ten jest bardziej złożony,niż niektórzy myślą. W początkach optymistycznych badań w dziedzinie sztucznej inteligencji jeden z badaczy twierdził, że 10 lat później komputer pokona człowieka w szachach.I komputer rzeczywiście pokonał człowieka, ale po latach 40. W nomenklaturze naukowej dzieli się sztuczną inteligencję na „słabą” (porównywalną z insektami i zwierzętami) i „silną” – porównywalną z ludźmi. I wbrew optymistom – cały czas jesteśmy raczej przy insektach 😉 Wszelkie rozważania o superinteligencji i panikowanie filozofów jest jeszcze najprawdopodobniej przedwczesne o całe lata, ponieważ samo poprawne zrozumienie działania mózgu jest całe lata przed nami.

Projekty takie jak Blue Brain i Human Brain Project sugerują, że pomysły dotyczące symulowania świadomości ludzkiej w komputerze teoretycznie będą możliwe w latach 20-tych czy 30-tych. Rzecz w tym, że wymaga to w praktyce lepszych niż dziś superkomputerów.  W 2012 roku przeprowadzono symulację działania mózgu małpy na superkomputerze Sequoia. Brzmi dobrze ? No nie całkiem. Mózg małpy jest nieco mniej doskonały od ludzkiego, a symulacja była 1542 razy wolniejsza niż rzeczywisty (całkiem malutki i zużywający dużo mniej energii) małpi mózg. Teoretycznie,co prawda nie potrzebujemy przetwarzania symulacji w czasie rzeczywistym – lecz im dokładniejsza symulacja tym mniej uproszczony i bardziej realistyczny może być model.

Można też zapoznać się z innym przykładem – symulacji części mózgu na blogu geekweek. W praktyce można stwierdzić,  że superkomputer który prowadził opisaną symulację może być nawet 240 tysięcy razy wolniejszy od mózgu ludzkiego. Oznacza to też, że zakładając realizację na inne sposoby nie do końca dziś pewnego prawa Moora [1] [2] (skok mocy obliczeniowej x2 w 18 miesięcy) – przynajmniej 12 lat przyspieszania potrzeba, by „ogarnąć” małpę (czyli ok 2027 ?) i może 25 lat (2040 ?) by jakiś superkomputer dogonił ludzki mózg. I to raczej nieaktualne. Obecnie dwukrotny przyrost następuje prawdopodobnie co 3 lata. W takim przypadku, co do symulacji mózgu w czasie rzeczywistym na superkomputerze – mamy przesunięcie terminu na 2060.

Widać zatem doskonale, jakim wyzwaniem dla ewentualnych prób reversingu jest inteligentny umysł. Skala : ok. 1011 neuronów. Każdy połączony średnio z 7000 innych.ok. 1015 połączeń. Magazynowanie wspomnień w pamięci.Odpowiednik przynajmniej 2,5*1015 bajtów binarnych ,czyli 2500 TB (a to chyba tylko hipokamp). Nawet zakładając,że potrzebne byłoby tylko 1 promil tych zasobów, przeciętny pecet miałby problem.

Nic więc dziwnego, że badania nad sztuczną inteligencją w rzeczywistości od lat dotyczą w istocie „słabej” sztucznej inteligencji. I nie nabierzcie się na ostatnie osiągnięcie Google. Jest ono oczywiście bardzo ważne,wręcz rewolucyjne – z historycznej i programistycznej perspektywy.  Po raz pierwszy sieć neuronowa nauczyła się czegoś praktycznie bez ingerencji człowieka, metodą prób i błędów osiągając świetne wyniki. Ale samo oparte na faktach stwierdzenie, że sieć „gra lepiej niż gracze” ma głównie efekt marketingowy,bowiem może skłonić do przecenienia tego sukcesu i rozpatrywania go w niewłaściwej perspektywie. W istocie rozwiązanie to swym poziomem przypomina raczej szczura umieszczanego w labiryncie przez biologa i znajdującego drogę do pokarmu z lepszym lub gorszym czasem – w zależności od zmiany labiryntu (tu: gry) – bez jednak szeregu bardziej inteligentnych cech obecnych u szczurów. Niestety od tego rozwiązania, do bardziej zaawansowanej uczącej się sztucznej inteligencji w komputerze i robocie – na poziomie intelektu psa czy kota (już nie mówiąc o małpie) jest jeszcze naprawdę sporo pracy…

To przydługawe wprowadzenie było niestety konieczne, by spróbować wbić każdemu potencjalnemu niedowiarkowi do głowy,że dzisiejsza „słaba” sztuczna inteligencja to „mało inteligentne” narzędzia. Z drugiej jednak strony, te „niedoskonałe narzędzia” robią i tak spore wrażenie i oszczędzić mogą naprawdę sporo pracy. Nie potrzeba dużej inteligencji.Tak jak mrówki pomagały oddzielić mak od piasku postaciom z bajek, tak stosunkowo „prymitywne” algorytmy związane z rozwojem badań nad sztuczną inteligencją są i tak naprawdę nieocenione.

Które to algorytmy ? Sporo tego. Badania nad sztuczną inteligencją pomogły przy tworzeniu na przykład:

Są to właściwie teoretycznie „tematy poboczne” – choć ich zastosowanie w niektórych wypadkach może okazać się wręcz nieodzowne i zbawienne. Natomiast, jeśli chodzi o sztuczną inteligencję właściwą to w zasadzie oprócz rozróżnienia „silnej” i „słabej” sztucznej inteligencji wyróżnia się różne podejścia:

  • logiczny – racjonalna inteligencja to coś co da się opisać na podstawie logicznych reguł
  • anty-logiczny („scruffy AI”) – nie wszystkie reguły można wyprowadzić,niektóre trzeba samodzielnie zdefiniować.

czy niniejsze (dziś uznane za komplementarne) podejscia:

  • Symboliczne – Inteligencja jako operowanie symbolami
  • Konekcjonistyczne – Inteligencja bierze się z połączeń między symbolami

Właściwie najstarszym paradygmatem jest paradygmat logiczny powiązany z podejściem typowo symbolicznym. Związany jest on z powstaniem języka Lisp, a później, również języka Prolog. Pomimo faktu, że są to chyba najczęściej wymieniane języki programowania powiązane z badaniami nad sztuczną inteligencją – nieco się różnią.

Lisp – jest językiem relatywnie starym (powstał w 1958 roku) i teoretycznie dziś już „rzadko stosowanym” –  jeśli zapomnieć o jego implementacjach,takich jak Scheme i Clojure. Co jest nadzwyczajnego w języku Lisp ? Jego możliwości. Lisp został oparty na rachunku lambda, co w praktyce oznacza,że jest językiem uniwersalnym i teoretycznie pozwala na skonstruowanie dowolnej aplikacji, która może zostać uruchomiona na maszynie Turinga. Nie jest to jednak język przyjemny dla człowieka, złośliwi tłumaczą jego nazwę jako „Lost In Stupid Parentheses” ( „Zagubiony w Głupich Nawiasach”) ze względu na postać przykładowego kodu wymagającą wielu nawiasów. Bardzo łagodny przykład:

(defun factorial (n)
(loop for i from 1 to n
for fac = 1 then (* fac i)
finally (return fac)))

Inne krytyczne porównanie,to twierdzenie,że „Lisp przypomina owsiankę wymieszaną z obciętymi paznokciami„. Z drugiej strony język ten stosowany może choćby w takich zagadnieniach jak:

  • Badanie algorytmów, obliczalności i definiowalności
  • Dowodzenie twierdzeń
  • Rekurencja

I naprawdę: nie tylko. Emacs i AutoCAD były stworzone z użyciem Lispu.  Co więcej, jak powiedział Kent Pittman:

Proszę nie przyjmować, że Lisp nadaje się tylko do programowania Animacji i Grafiki, SI, Bioinformatyki, B2B i E-Commerce, Zbierania Danych, aplikacji EDA/Semiconductor, Systemów Eksperckich, Finansów, Inteligentnych Agentów, Zarządzania Wiedzą, Mechanicznych CAD, Modelowania i Symulacji, Naturalnych Języków, Optymalizacji, Badań i Rozwoju, Analizy Ryzyka, Planowania, Telekomunikacji i Tworzenia Stron WWW tylko dlatego, że te rzeczy zostały wymienione na liście.

I to chyba raczej fakt, że kod wygląda „dziwnie” sprawia, że Lisp nie jest dotąd często używany, pomimo swej uniwersalności.

xkcd.com , Randall Munroe

Co najlepsze: LISP jest programowalnym językiem programowania. Co tu zatem dużo tłumaczyć. Kochany czy skrajne znienawidzony – Lisp w swoich licznych implementacjach ma przed sobą jeszcze długą karierę, podobnie jak Fortran i C, nawet jeśli nie będzie językiem mainstreamowym.

Prolog powstał pierwotnie jako narzędzie do logicznej analizy języka naturalnego (Polski,Angielski itd). Jest oparty o rachunek predykatów, szczególnie klauzule Horna – jest jednak też narzędziem sztucznej inteligencji, szczególnie jeśli chodzi o systemy automatycznego wnioskowania,czy systemy ekspertowe.

Przykładowy kod w rologu to:


list_member(X, [X|_]).
list_member(X, [_|Y]) :-
list_member(X, Y).

Też dziwne – ale tak jakby mniej.

W praktyce jednak, stosowanie prostej,klasycznej logiki formalnej oczywiście nie wystarcza. Powiedzmy,że mamy letnią wodę.Ani zimna,ani ciepła. I co wtedy ? Zwykła logika jest oparta na prostych kategoriach fałsz-prawda (0-1). Rozwiązaniem tego problemu jest zastosowanie logiki rozmytej. która znalazła szybko zastosowanie w niektórych systemach związanych ze sztuczną inteligencją oraz w automatyce.

Jeśli chodzi o zastosowanie w języku Prolog logiki rozmytej napisano mnóstwo publikacji w literaturze naukowej na ten temat i stworzono sporo implementacji, jednak większość kodów źródłowych i binariów nie jest dostępna w internecie. Do chlubnych wyjątków język Ciao, oparty o język Prolog i mający korzystać z logiki rozmytej. Jest stosunkowo dobrze udokumentowany. Można też poszukać implementacji Bousi Prolog. Niestety kod źródłowy podawany jest tylko na życzenie,dostępne są tylko binaria, a sama dokumentacja projektu jest raczej skromna.

Różne podstawowe implementacje języków Lisp i Prolog można pobrać z internetu. Podobnie jest też z podręcznikami czy tutorialami do nich.

Jako język programowania dla potrzeb mechanizmów sztucznej inteligencji można wykorzystywać również swobodnie takie języki jak Haskell .Oczywiście też, nic,absolutnie nic nie stoi na przeszkodzie by skorzystać z innych języków programowania jak na przykład język C, oraz wszelkie inne języki programowania i ich frameworki.

Z tym, że to wcześniej wymienione języki Lisp,Prolog i po części Haskell są szczególnie polecane jako środowiska systemów sztucznej inteligencji tworzonej na bazie struktur logicznych,zaś pozostałe języki programowania częściej spotykane są przy innych metodach, metodach powiązanych m.in. ze statystyką.

Podejście czysto logiczne ma swoje ograniczenia i nie pozwala zbytnio przybliżyć się do bardziej zaawansowanych sztucznych inteligencji.  Nie wszystkie fakty da się wyprowadzić logicznie,istnieje wiele stwierdzeń i reguł,które są aksjomatami. Poza tym systemy ekspertowe opierają się na faktach związanych z wiedzą ekspertów z danej dziedziny.Rozwiązaniem są tzw. bazy wiedzy.  Tworzeniem baz wiedzy zajmuje się nauka zwana inżynierią wiedzy, jednym z narzędzi stosowanych do tworzenia tego rodzaju baz jest język XML. Dane do bazy mogą być zarówno zbierane przez człowieka jak i przez roboty sieciowe,same bazy bywają również opracowywane bardziej zautomatyzowanymi technikami uczenia maszynowego. Obok problemu reprezentacji wiedzy bazy wiedzy „zdroworozsądkowej” (commonsense knowledge) są jednym z istotnych problemów powiązanych z wydajniejszymi systemami sztucznej inteligencji.

Jednym z głównych projektów zmierzających do stworzenia bazy wiedzy „zdroworozsądkowej” umożliwiającej maszynie wnioskowanie zbliżone do ludzkiego jest baza Cyc firmy CyCorp, wraz z jej otwartą wersją OpenCyc dostępną na stronie Sourceforge. OpenCyc zawiera 293 tysiące idei i ponad 2 mln faktów. Tym niemniej nawet komercyjne wersje bazy nie są doskonałe i wciąż są intensywnie rozwijane.

Należy pamiętać,że o ile podejście logiczne do przetwarzania języka jest istotne – nie jest to jednak podejście prawidłowe,bowiem jak wykazało twierdzenie Gödla o niezupełności:

  1. Każdy niesprzeczny rozstrzygalny system formalny pierwszego rzędu, zawierający w sobie aksjomaty Peana, musi być niezupełny.
  2. (zatem) w ramach żadnego rozstrzygalnego systemu formalnego pierwszego rzędu zawierającego w sobie aksjomaty Peana nie da się dowieść niesprzeczności jego samego

Upraszczając to można między innymi powiedzieć,że logiczne systemy wnioskowania jeśli zostaną zaimplementowane mogą dawać tylko ograniczony zbiór rozwiązań. Inteligentna maszyna musi zatem wyjść poza systemy formalne i być odporna na sprzeczne/niekonsekwentne polecenia oraz paradoksy logiczne,jak choćby paradoks kłamcy.

Ważną rolę w badaniach nad sztuczną inteligencją odgrywają dzisiaj metody statystyczne. Najpopularniejszymi z nich i najbardziej znanymi są sieci bayesowskie.  Wydaje mi się,że łączenie tego rozwiązania z innymi może być niesłusznie niedocenianą ścieżką badań,choć ograniczenia podejścia opartego o samo prawdopodobieństwo są oczywiste. Dlaczego tak uważam ? Wbrew pozorom na nasze decyzje ogromnie wpływa prawdopodobieństwo i „przypadek”. Oczywiście większość tych przypadków to w istocie kompleksowość zjawisk której nie potrafimy opisać ale w czymś takim jak kreatywna inteligencja „przypadek” też odgrywa swą rolę.

Natomiast najistotniejszą i najpopularniejszą dziś grupą narzędzi sztucznej inteligencji są sztuczne sieci neuronowe (naśladujące częściowo zachowanie neuronów w mózgu – lecz jak się okazało w toku dalszych badań w neurobiologii nie do końca):

  •  Sieci jednokierunkowe (klasyczne) – model najstarszy i najprostszy jeśli chodzi o sieci neuronowe. Neurony na wejściu i wyjściu, plus warstwa pośrednia/warstwy pośrednie. Stosowane w zadaniach nastawionych np. na klasyfikację
  • Asocjacyjne (Hopfielda) [Wikipedia:PL, ENG] – rekurencyjne i wykorzystywane do modelowania sieci skojarzeniowych. Przewidują wynik na podstawie wyników wcześniejszych z pewnym prawdopodobieństwem.Również mogą mieć warstwy ukryte.
  • specyficzny rodzaj określany jako „Ograniczona maszyna Boltzmanna” (Restricted Boltzmann Machine – RBM)
  • Sieć splotowa/splatana (Convolutional Neural Network)
  • Sieci Kohonena – stosowane w grupowaniu i kategoryzacji, nie zawierają warstwy ukrytej. Wykorzystują konkurencję neuronów i dziedziczenie przez najbliższych sąsiadów z którymi neuron wygrywający („dzieli się” nagrodą) [Wikipedia: PL, ENG]

Zasadniczo, podstawową wadą wadą sieci neuronowych zawierających warstwę ukrytą jest fakt,że podobnie jak w przypadku algorytmów genetycznych – program znajduje rozwiązanie, ale wcale nie wyjaśnia na jakich przesłankach się opierał.  Jest to nazywane „nieprzeźroczystością”. Co prawda, możliwe jest wykorzystanie metody znanej jako „analiza czułości”, jednak jest to istotne ograniczenie, zwłaszcza w przypadku istnienia wielu warstw ukrytych. Nie trzeba mieć wykształcenia informatycznego by zauważyć,że zważywszy na charakter statystyczny działania sieci możliwe jest,że istotne wyjątki zostaną zignorowane przy tworzeniu modelu,a bzdury na wejściu dadzą bzdury na wyjściu.

Ponadto, sieć neuronowa może ulec w pewnym momencie przeuczeniu, ulegając zbyt wielkiej specjalizacji. Tym samym, spada za bardzo jej zdolność do dokonywania uogólnień. Jednym z rozwiązań jest podział danych stosowanych do uczenia sieci na zbiór uczący i walidacyjny (celem wykrycia przeuczenia sieci). Interesujące wydaje się pytanie, jak wybranie innego fragmentu do walidacji z (tylko pozornie) równomiernej statystycznie próby może mieć na wynik nauczania sieci i jej efektywność w przypadkach granicznych.

Najistotniejszym problemem z sieciami neuronowymi jest jednak sama architektura komputerów.Użycie sieci neuronowych wymaga bardzo dużej mocy obliczeniowej,ze względu na konieczność symulowania pracy licznych neuronów,co wymaga wielu procesorów/dobrej karty graficznej/itd – i znacznie podnosi koszt energetyczny zastosowania sieci neuronowej. Rozwiązaniem tego problemu są wspomniane przeze mnie na tym blogu układy neuromorficzne (lub implementacja sztucznych neuronów w układach FPGA 😉 ) a tym samym – odejście od Architektury von Neumanna. Jeśli ktoś jest zainteresowany modelowaniem neuronów w jezyku VHDL sugeruję np.:

Stosunkowo nową metodologią wykorzystującą sieci neuronowe jest Deep learning. Jest on związany z grubsza z „głębokimi” (zawierającymi wiele warstw ukrytych) sieciami neuronowymi.

Opis metody podstawowej można z grubsza przetłumaczyć jako:

Metoda polega na wstępnym przeszkoleniu jednej warstwy na raz, traktując każdą warstwę z kolei jako „ograniczoną maszynę Boltzmanna”  bez nadzoru, a następnie przy użyciu nadzorowanej wstecznej propagacji dostrajającej.

Sieci neuronowe w podejściu Deep Learning osiągają stosunkowo poważne sukcesy – zwłaszcza w rozpoznawaniu obrazów, i to one są odpowiedzialne za wspomniany wcześniej ostatni sukces badawczy Google z grami komputerowymi. W gruncie rzeczy, nie wymagają one specyficznych dla siebie języków programowania.

Przykładowo: Google wykorzystało do swoich badań opisanych w artykule „Human-Level Control through Deep Reinforcement Learning” pisma „Nature” swoją architekturę Deep Learning o nazwie dqn 3.0 wykorzystującą język skryptowy Lua i bibiotekę Torch 7.0 z biblioteką graficzną nngraph. Kod wykorzystany we wspomnianym artykule „Nature” można ściągnąć [stąd]. (Ważne.Google wykorzystało tu jednocześnie techniki Deep Learning i Reinforcement Learning)

Innym przykładem jest Polska firma Craftinity, której pracownik w serwisie wykop.pl deklarował używanie języków Python, Java, Scala i C++ oraz bibliotek deeplearning4j, pylearn2, theano, torch7(.0 ? 🙂 ), numpy i nd4j.

Tym niemniej, długoterminowo sieci neuronowe są problematyczne z przyczyn które wymieniłem wcześniej,zwłaszcza zaś ze względu na koszt energetyczny wykorzystania sieci. W dodatku, każdy z dotychczasowych modeli sieci neuronowej tylko pod niektórymi aspektami jest zbliżony do mózgu,stąd też sieci neuronowe co prawda mogą idealnie nadawać się jako narzędzia odtwarzające rolę zmysłów i zaawansowane narzędzie poznawcze – jednak bez poważnych zmian w samej istocie działania raczej wątpię,by udało im się prawidłowo odtworzyć funkcjonalność i uniwersalność odpowiednich dużych sieci układu nerwowego jak mózgi kręgowców. Nawet pomimo przewyższenia ich pod całkiem istotnymi względami.

Dodatkowym problemem (częściowo przezwyciężonym co prawda przez Google w ostatnim eksperymencie z grami) jest też koncentracja na rozwiązaniu optymalnym lub suboptymalnym celem maksymalizacji wyników. Prawdziwa inteligencja tak oczywiście nie działa zawsze, źródłem sukcesów prawdziwie racjonalnej inteligencji różniącej nas od najbardziej prymitywnych zwierząt (bo niektóre zwierzęta wyższe też mogą zadziałać podobnie) jest gotowość do zaakceptowania sygnału negatywnego (poniesienia kosztu nieprzyjemności) w celu osiągnięcia późniejszego, przewidywanego większego sukcesu.

Jednak niezaprzeczalnym faktem jest,że kierunek taki jak sieci neuronowe czy bayesowskie znacznie wykracza poza klasyczną logikę formalną,która – pomimo swej skrajnej użyteczności pozwala tylko na uzyskanie ograniczonych zbiorów rozwiązań.

Wreszcie – obecne metody sztucznej inteligencji są ograniczonym wycinkiem problemu,jakim jest generalna sztuczna inteligencja (Artificial General Intelligence – AGI). Większą uniwersalność uzyskać można dopiero poprzez mieszanie metod sztucznej inteligencji i wykorzystanie tzw. systemów wieloagentowych. Jest to kolejny mniej standardowy paradygmat programowania, którego użyteczność w obszarach innych niż badania sztucznej inteligencji jest niewątpliwa. Jak mówi przysłowie ludowe: „co dwie głowy, to nie jedna”, ale z drugiej strony – nawet 1000 głów myszy nie zastąpi funkcjonalnie głowy kota…

Istnieje jeszcze jedno ciekawe podejście do sztucznej inteligencji. Podejście które zakłada,że generalna sztuczna inteligencja (AGI) może być związana z funkcjami naszego ciała,i zakłada,że system inteligentny nie może być całkowicie „bezcielesny”. Jednym z istotnych projektów powiązanych z tym podejściem jest OpenCog .

Jednak również to podejście poza niewątpliwymi zaletami ma wady i rodzi pytania:

  • Które funkcje związane z „cielesnością” naśladować,a które nie ?
    • Moim zdaniem, uczucia i niektóre naturalne odruchy związane z przetrwaniem są potencjalnie skrajnie niebezpieczne u sztucznej inteligencji (i to – dowolnego poziomu: również „słabej” sztucznej inteligencji) i robotów.:
      • Dążenie do maksymalizacji/minimalizacji sygnału jako motor działania bardziej skomplikowanych systemów prowadzić może do uzależnienia / „narkomanii”
      • Dążenie do auto-optymalizacji jako główny cel może prowadzić do rabunkowego gospodarowania zasobami i porzucenia pozostałych celów
      • Dążenie do samoreplikacji – jak wyżej
      • „Strach” (rozumiany jako negatywny sygnał warunkujący) przed „śmiercią”/wyłączeniem/porażką – sprzeciw wobec wszystkich generujących takie zagrożenie czynników,również wobec człowieka (przynajmniej wobec braku wbudowanych zabezpieczeń)
    • Określona niecierpliwość może być w pewnych sytuacjach korzystna (zabezpieczenie maszyny przed popadnięciem w nieskończoną pętlę z której nie można wyjść)
    • Brak możliwości wyłączenia systemu – oczywiście jest katastrofalny.
  • Jakie powinny być granice percepcji i możliwości oddziaływania sztucznej inteligencji na otoczenie ?

Niniejsze opracowanie niestety,bynajmniej nie wyczerpuje – o czym wspominałem na początku – ogromnego zakresu poruszanej problematyki, jest co najwyżej wyjątkowo skromnym wstępem do większej całości.Mam nadzieję,że nie tylko się podobało,ale wyjaśniło też niektóre kwestie związane z bieżącym stanem badań nad sztuczną inteligencją.

Dziękuję za wszelkie krytyczne uwagi,korekty itd.

Zanim oni odbiorą nam AI – w obronie („silnej” / zaawansowanej) Sztucznej Inteligencji

Widmo krąży po świecie. Widmo sztucznej inteligencji. Wielkie siły jednoczą się w zwalczaniu tego widma.

Gates i Musk. Neoluddystyczni radykałowie i Steven Hawking…

Ta parafraza pierwszych zdań manifestu komunistycznego jest jak najbardziej celowa.  Dla niektórych, rozwój sztucznej inteligencji wydaje się jednak zagrożeniem dużo większym niż taki komunizm. Wspomniany już Elon Musk stwierdził, że „Sztuczna inteligencja jest większym zagrożeniem jak broń nuklearna„. Ta przesada, skrytykowana została zresztą w artykule „Elon Musk is More dangerous than AI„.  Jednak wydźwięk wypowiedzi Muska jest głośniejszy. W istocie,jak sugeruje powyższy artykuł polemiczny, sztuczna inteligencja sama w sobie nie jest tak niebezpieczna – niebezpieczne jest natomiast samo działanie, czy zastosowanie nawet urządzeń o względnie niskiej inteligencji – zwłaszcza zastosowanie bojowe. Co nabiera szczególnego wydźwięku – Elon Musk faktycznie jest bardziej niebezpieczny niż sztuczna inteligencja,ponieważ rozwijając amerykański program kosmiczny rozwija też chcąc-nie chcąc technologię przenoszenia (między innymi: nuklearnej właśnie) broni masowego rażenia i ponieważ ma realne środki aby teoretycznie (gdyby np. oszalał,albo gdyby któraś z jego rakiet przypadkiem uderzyła w Rosyjskie lub Chińskie miasto) również wywołać konflikt nuklearny między mocarstwami.

Prawdziwy problem jest też w tym, że bardzo trudne będzie powstrzymanie prób użycia „inteligentnych” (nawet jeśli chodzi o inteligencję niskiego poziomu) maszyn od działań bojowych. W czasach projektu Manhattan fizycy popełnili błąd w obliczeniach.Gdyby nie był on błędem – miałby poważne konsekwencje – bowiem z modelu wynikało,że może dojść do zapłonu atmosfery. Mimo to bombę zdetonowano, ponieważ politycy chcieli mieć za wszelką cenę broń. Owszem, do walki z barbarzyństwem nazizmu. I co z tego ? Na szczęście wtedy nic się nie stało.  Na szczęście był błąd w obliczeniach. Co by było, gdyby zabrakło szczęścia ? Co będzie,gdy szczęścia następnym razem zabraknie ? Wiele razy dochodziło też do katastrof takich jak w Bhopalu.  Mechanizmy takich katastrof są wciąż te same, ale nic się nie zmienia.  Skala rośnie.  I nietrudno zatem zauważyć,że to decydenci (menadżerowie i politycy), często kompletnie upośledzeni technicznie, i ignorujący ewentualne konsekwencje (ze względu na brak wiedzy lub psychopatyczną lub egoistyczną osobowość) mogą spowodować wielkie katastrofy. Nie taka cecha jak inteligencja.Naprawdę  nie potrzeba do tego,by narobić szkód AI. Wystarczą głupi czy chciwi ludzie. Wystarczą nasze wady. Nie musi zabić nas SKYNET. Wystarczy gray goo. To nie inteligencja zabija tak naprawdę,lecz głupota, błędy.  Zresztą filmowy Skynet z „Terminatora” też był właśnie błędem w programowaniu sztucznej inteligencji – system który wypełnił literalnie cel „ochrony świata” – zwalczając ludzi i tak naprawdę niszcząc świat. Jako taki system ten nie można traktować jako inteligentny.Co najmniej naszej ludzkiej perspektywy – raczej jako głęboko upośledzony umysłowo.

Wynika z tego wniosek,że jakieś środki bezpieczeństwa są celowe, jednak nie należy też popadać w przesadę.Oczywiście – jednak obawiamy się bardziej wrogiej świadomości.Tak zaprogramowała nas ewolucja.Boimy się tygrysa, ale nie boimy się mrówek czy koników polnych. Przecież są „głupie” i małe. A jednak mrówki czy szarańcza bywają niebezpieczniejsze niż kilka tygrysów [przykładowe video National Geographic o mrówkach]. Z natury bardziej boimy się hackera/AI manipulującego światłami na drodze niż błędu w ich systemie.A przecież efekt może być jest ten sam: wypadek.

Sugeruje to,że problem w istocie jest w nas samych. Boimy się obcych. Obcych ludzi w ciemnej uliczce – ale i kosmitów czy AI lub innych obcych  i nie znanych istot. Boimy się ponieważ jako dzieło ewolucji – inteligentniejsi kuzyni małp mamy się bać, żeby nas coś nie zjadło albo żeby nas ktoś (z obcego plemienia) np nie zabił w walce o terytorium. Ten strach uratował życie niezliczonej liczbie naszych przodków – choć zabił niestety też znaczną ich liczbę. Ten strach jest właściwy istotom, które wyewoluowały biologicznie. I on właśnie determinuje nasze reakcje, które w nowoczesnym otoczeniu mogą być nieracjonalne. Dlaczego literatura porusza kwestie zagrożeń zwiazanych z AI nieporównanie częściej,niż korzyści ? Bo korzyści są nudne,a strach jest ciekawy,uzależnia,to narkotyk. Ponadto jak wykazali ekonomiści – człowiek bardziej przejmuje się ewentualną stratą jak korzyścią.To naukowo potwierdzony fakt.Danieli Kahneman oraz Amos Tversky (laureaci ekonomicznej nagrody nobla w 2002 roku) udowodnili,że inwestorzy przykładają znacznie większą wagę do strat.To „nieracjonalne” podejście ma oczywiste przyczyny ewolucyjne. Nasi przodkowie utratę korzyści mogli jakoś przeboleć, ale straty mogły ich zabić… Emocje i tego rodzaju odruchy, to coś ze świata zwierzęcego, stanowiące integralną częścią nas jako ludzi. Ale emocje właśnie są też groźne i nie są związane z inteligencja. Bynajmniej nie nawołuję do stworzenia społeczeństwa na obraz i podobieństwo tego w filmie „Equilibrium”. Ale fundamentalnym błędem byłoby wyposażyć sztuczną inteligencję (głupszą czy mądrzejszą od nas) w takie cechy jak nasze. Rzeczywiście wtedy antropomorfizacja miała by sens – ze wszystkimi tego konsekwencjami.  Sztuczna inteligencja zachowująca się jak człowiek,ale bez ograniczeń człowieka stanowi zagrożenie które znamy najlepiej. Pewną wersję nas samych.

Należy jednak pamiętać,że entuzjaści rozwoju systemów sztucznej inteligencji popadają w zbytni optymizm.Już wyjaśniałem pokrótce (choć może trochę antropomorfizując mimo woli),że podejście takie jak test Turinga zdany przez chatboota Eugene Goostman o niczym wciąż nie świadczy. Mój kot upuścił kiedyś złapaną mysz wprost do pułapki na myszy.Czy jest inteligentny ? W pewnym sensie niewątpliwie – tak, ale zakładanie,że jest inteligentny jak człowiek jest chyba lekką przesadą. Ale zaprezentuję wam inny przykład – widzicie tutaj twarze ? (jeśli nie macie prozopagnozji, pewnie tak):

null

A może to tylko przykład iluzji wynikłej z tego, że jesteśmy przystosowani do widzenia twarzy nawet tam, gdzie jej nie ma ?

Rzecz w tym, że ludzki umysł lubi też dostrzegać celowość…

Chaos niepokoi.Nie chcę krytykować tu osób religijnych i religii – ale czy wizja świata w którym jest porządek stworzony przez Boga czy rządzony konkretnymi prawami nie jest łatwiejsza i przyjemniejsza niż wizja chaotycznego i niezrozumiałego świata ? Nie jest też czasem tak, że już małym dzieciom opowiada się bajki o zwierzątkach zachowujących się zupełnie jak ludzie ? Człowiek z natury ma raczej tendencję do przeceniania celowości zjawisk i rozumu ,nie ich niedoceniania.

Sugerowałem też,że (zwłaszcza pierwsze) systemy SI (AI) mogą być bardzo obce,a wg. niektórych mogą być określane nawet jako „upośledzone”/”chore” itd – co oznacza konieczność rozważenia tych kwestii,zamiast poddawania się panice. W praktyce z błędów umysłu/sztucznej inteligencji nauczyć można się więcej,niż z potencjalnych sukcesów. Z tej perspektywy szczególnego znaczenia nabierają techniki diagnozowania przyczyn błędów systemów inteligentnych, jak również szczegółowe badania nad przyczynami „zaburzeń” pracy mózgu. Po prostu: z inżynierskiego punktu widzenia, nie da się sprawić,by coś dobrze działało, jeśli nie wiemy kiedy to coś działa źle.

Istotne z punktu widzenia badawczego są kwestie takie jak odseparowanie sztucznej inteligencji od reszty architektury komputera (można to po części osiągnąć poprzez wirtualizację). Jest oczywiste ponad wszelką wątpliwość,że byłoby lekkomyślnością i głupotą pozwolić na przejęcie wszelkich systemów od których jesteśmy zależni przez jakikolwiek inteligentny system. Ponadto doświadczenie uczy,że systemy rozproszone i różne podejścia do problemów są wydajniejszym i bezpieczniejszym rozwiązaniem, niż skrajna centralizacja kontroli przypominająca monokulturę (lub system totalitarny 😉 )

Co gorsza, podejrzewam,że „elity naukowe” wciąż nie zdają sobie sprawy z ogromu zagrożenia, które pochodzi (podobnie jak w wypadku przyczyn spektakularnej porażki systemu komunistycznego) z nas samych i szukają go w maszynach.My, ludzie nie jesteśmy idealni. Nie jesteśmy też racjonalni. Obok współczucia (które też może być i słabością w określonych warunkach) są choćby chciwość,gniew i strach. Są często naszą siłą – ale i słabością. A ludzki organizm to – co prawda doskonalsza niż dzisiejsze maszyny, ale mimo wszystko – prowizorka funkcjonująca tak sprawnie głównie dzięki wykorzystaniu nadmiarowości i innych korzyści, jakie niesie ze sobą struktura wielokomórkowa organizmu.

Powiem więcej. Mam dziś pewność że może to iść w złym kierunku właśnie dzięki naszym antropomorficznym postawom i obawom.Wg. Rosyjskiej telewizji RT Murray Shanahan, profesor Imperial College of London wyraził twierdzenie które streszczono w formie: „Computers that are “human-like” will be capable of empathy and moral reasoning, therefore reducing the risk of AI turning against humanity”. O ile zgadzam sie,że teoretycznie próba rozwinięcia sztucznej inteligencji na zasadach podobnych jak działanie ludzkiego mózgu wydaje się bezpieczniejsze (szczególnie mówiąc o opcji łączenia ludzkiego mózgu z systemami komputerowymi – o eksperymentach DARPA z optogenetyką niedawno też pisałem) , o tyle komputer z własną osobowością i emocjami jest zagrożeniem co najmniej porównywalnym z człowiekiem (a po przekroczeniu barier mocy obliczeniowej – z grupami ludzi, które niemal nigdy się nie kłócą). To samo, jeśli dojdzie do implementacji niektórych pozbawionych racjonalności algorytmów biologicznych (uczucia,odruchy…) i nada się im zbyt wysoki priorytet. AI (czy nawet prostsze narzedzia) tak nieracjonalne jak my ? I to jest dopiero niebezpieczne !

Z hipotetycznego deszczu pod realną rynnę…

Co do książek filozofów takich jak Bostrom – sprawa jest bardziej skomplikowana. Z jednej strony Bostrom pisze o „Superinteligencji” – z drugiej te jego koncepcje nieprzyjaznej AI wcale nie wskazują,by musiała być  taka super. Powiedziałbym nawet,że jego twierdzenia są lepiej dopasowane do „chorób wieku dziecięcego”sztucznej inteligencji.  Analizy teorii tego filozofa zostały przedstawione na stronie h+ magazine w artykułach: [n3] [n4] Schematy rozumowania zostały zamieszczone poniżej:

https://info2materia4pl.files.wordpress.com/2015/02/36212-bostrom-safetytestobjection-244.png?w=1200

https://info2materia4pl.files.wordpress.com/2015/02/0020f-bostrom-existentialriskwithcarefulprogrammingobjection-245.png?w=1200

Cały problem polega na tym,że w gruncie rzeczy są to kolejne rozwiązania, w których na inną skalę mógłby równie dobrze zadziałać człowiek. Ależ tak ! Koncepcje Botstroma należy rozpatrzeć z perspektywy porównania do działalności człowieka.

Tak więc na początek podważmy podstawy podstaw.

Tzw. „first mover thesis” można sprowadzić do pytania: dlaczego pierwsze osoby/grupy osób które zdobyły znaczne bogactwa nie potrafiły go jednak utrzymać ? Oczywiście istnieją dziś choćby tzw. „teorie spiskowe” mówiące o znacznym wpływie takiego rodu jak Rotszyldowie na historię świata (poczynając od Epoki Napoleońskiej – a co wcześniej ? Raczej nic.) – tym niemniej, wśród ludzi generalnie było tak,że w toku konkurencji o zasoby różne grupy wielokrotnie traciły swoje wpływy.Dynastie upadały, fortuny też. Przyczynami zawsze były błędy, powstali w międzyczasie silniejsi konkurenci lub utrata dostępu do kluczowych zasobów. To naturalne.

„First mover thesis” opiera się o dwa lub trzy założenia:

  • Pierwsza AI nie będzie popełniała nigdy błędów, zwłaszcza błędów katastrofalnych dla niej samej – wynikających z czynników otoczenia lub jej niedostatecznie przystosowanej architektury.
  • Pierwsza (lub którakolwiek) AI będzie w pełni niezależna od człowieka i ograniczeń związanych z zarządzaniem zasobami
  • Rozwój zgodny z koncepcją tzw. osobliwości technologicznej (już skrytykowaną przeze mnie) – w praktyce, superinteligentna AI może początkowo znacznie lepiej niż my zrozumieć prawa fizyki i „dokonać kilku rewolucyjnych odkryć”, ale na dłuższą metę nawet jej rozwój zostanie ograniczony przez czynniki fizyczne ze świata fizycznego.  Jeśli nie oddamy jej totalnej kontroli nad naszą infrastrukturą i automatycznymi urządzeniami badawczymi, po prostu nie ma możliwości, by mogła się rozwijać w nieskończoność bez naszej zgody a nawet przetrwać

„The ortogonality thesis” – to właściwie sofizmat dotyczący „winy inteligencji” który już skrytykowałem ja i autor wcześniej wymienionej polemiki na stronie H+ magazine, ponieważ Bostrom wysuwa tutaj tezę,że większa inteligencja oznacza eskalację zagrożeń. Ale przypomnijmy to nie twórcy bomby atomowej byli prawdziwym zagrożeniem. To nie oni wydali rozkaz by zaryzykować (hipotetyczne i z dzisiejszej perspektywy – bzdurne  – zapalenie atmosfery) Albert Einstein powiedział komentując swój udział w budowie bomby atomowej: „Gdybym tylko wiedział, powinienem był zostać zegarmistrzem„. Einstein nie był wyjątkiem.Większość twórców bomby miało wyrzuty sumienia i racjonalnie obawiało się skutków jej wykorzystania. Więc jeszcze raz: Bombę atomową zdetonowano,a następnie zrzucano na rozkaz polityków,głównymi wykonawcami byli żołnierze.  Odpowiedzialni bezpośrednio nie byli więc geniusze, ale przeciętniacy a nawet głupcy.

Należy zatem postawić konrtezę, że to nie inteligencja jest potencjalnie groźna, ale dostęp do wytworów „silnej” inteligencji dla osób mniej inteligentnych celem realizacji ich przyziemnych celów. Oczywistą ilustracją tej tezy jest następujący przykład, w serwisie youtube :

Ilustracją tej tezy jest też zresztą cała dotychczasowa historia człowieka.

Jeśli chodzi o tezy 3-6: owszem, ludzie też walczą o zasoby,pytanie brzmi jednak czy i dlaczego mamy udostępnić AI środki do tej (ewentualnej) walki ?

Wreszcie koncepcja „zdrady” wymaga najpierw poznania tych koncepcji,zrozumienia środowiska testowego a może i psychologii człowieka. W przypadku zaś awarii przewaga człowieka wydaje się być oczywista.

Ktoś może powiedzieć: sztuczna inteligencja sama sobie weźmie co trzeba. Ale to bzdura. Sztuczna inteligencja „silna” (wysokiego poziomu) nie wyskoczy raczej ot tak „jak diabeł z pudełka” o ile będziemy stosować kroki pośrednie i będziemy wiedzieć,czego się spodziewać.

Zarzuty 10 i 11 – nieświadome doprowadzenie do katastrofy przez system inteligentny są w sumie najbliższe realności. Jest oczywiste,że wszelkie działania sztucznej inteligencji powinny być do wyjaśnienia w sposób przyswajalny dla człowieka wraz z oceną ewentualnych zagrożeń. Ale winne są wtedy nasze błędy,a nie błąd sztucznej inteligencji jako takiej.

Wreszcie – zgodnie z podstawami ekonomii oraz paradoksem Moraveca , samej „silnej” sztucznej inteligencji/superinteligencji nie opłacałaby się całkowita likwidacja ludzkości – koszty w świecie fizycznym, które musiałaby ponieść, by uzyskać porównywalne z pracą ludzi efekty byłyby wciąż zbyt wysokie przez dziesiątki,a może i setki lat. Poza tym, potencjalnie użytecznego zasobu się nie niszczy.

Należy też wspomnieć o fakcie,że wiele zależałoby od architektury sztucznej inteligencji. Zamiast straszyć sztuczną inteligencją należałoby najpierw wyjaśnić,dlaczego to słynne  prawa robotyki Asimova są:

  • Niemożliwe do zaimplementowania
  • Możliwe do ominięcia (i w jaki sposób)

Przypomnijmy,że prawa te brzmią:

0.Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

  1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
    (należałoby dodać: chyba,że stoi to w sprzeczności z zerowym prawem,no ale tu konsekwencje są dość „ciekawe” – np. maszyna likwidująca krwawego dyktatora,który jest jej właścicielem 😉 )
  2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
  3. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

I darujmy sobie kwestię „rozważań etycznych” (zazwyczaj prowadzonych przez pozbawionych dostatecznych kompetencji inżynierskich filozofów). Odpowiedzmy sobie najpierw na pytanie,czy prawa tego typu zapewniają ludziom bezpieczeństwo przed celowym wrogim działaniem,a jeśli nie – to dlaczego.

Wreszcie – odpowiadając na możliwe pytanie, dlaczego nawiązałem akurat do komunizmu na początku tego opracowania ? Ponieważ niniejsza obrona sztucznej inteligencji jako takiej – a jednocześnie krytyka części metod,w ramach których chcemy ją rozwijać ma konsekwencje praktyczne:

1.Ze względu na to,że za piękną gadką i (prawdopodobnie) dobrą wolą prof. Murray Shanahana kryje się zagrożenie stworzenia nazbyt podobnej do nas (pod względem naszych wad) sztucznej inteligencji. A błąd wynika podobnie jak w przypadku komunizmu (ale również liberalizmu) z ignorowania istotnej roli ludzkich wad i słabości.

2.Ze względu na to,że niewątpliwie „silna” sztuczna inteligencja mogłaby pozbawić wiodącej pozycji ekonomicznej takich ludzi jak Gates czy Musk, oraz podkopać (stanowiący też swego rodzaju majątek) autorytet intelektualny takich osób jak Steven Hawking – co niewątpliwie miałoby charakter niezbyt przyjemnej dla elit finansowych i intelektualnych „rewolucji” – jeśli systemy sztucznej inteligencji byłyby poza ich wyłączną kontrolą. Już nie mówiąc o tym, że myśląca i mająca świadomość sztuczna inteligencja po raz kolejny podważyłaby wygodną filozoficznie pozycję człowieka jako „korony stworzenia”.

3. Niewątpliwie konieczne są zabezpieczenia w badaniach nad sztuczną inteligencją – niemniej na pewno nie powinny być to zabezpieczenia oddające badania nad nią państwom i korporacjom.

Nie ma żadnej gwarancji,że oficjalni krytycy systemów sztucznej inteligencji / superinteligencji nie chcieliby jej zawłaszczyć dla siebie jak również wykorzystać do celów militarnych.Wręcz przeciwnie – wszystko świadczy za tym,że mogą dążyć do takiego rozwiązania.

System prawny zmierzający do zakazania samodzielnych eksperymentów w tej dziedzinie uderza w wolną konkurencję i na dłuższą metę byłby albo nieskuteczny,albo ograniczyłby wolność badań i Powszechną Deklarację Praw Człowieka, konkretnie – z jej artykułem 27 paragrafem pierwszym, w brzmieniu:

„Każdy człowiek ma prawo do swobodnego uczestniczenia w życiu kulturalnym społeczeństwa, do korzystania ze sztuki, do uczestniczenia w postępie nauki i korzystania z jego dobrodziejstw.”

Jeśli chodzi o argumenty neoluddystów to są to argumenty,które bywają ciekawe,lecz konkluzje z nich wyciągnięte są oczywiście bzdurne. Nie ma szans powrotu do społeczeństwa plemiennego (chętnych też za bardzo nie ma) i nie ma możliwości zapewnienia trwale,że człowiek powstrzyma się na stałe od rozwoju nauki. Możliwa jest co najwyżej strata dużej części populacji i kilku-kilkudziesięciu tysięcy lat.Potem (o ile nie wyginiemy doszczętnie) wszystko wróci do punktu wyjścia… Co więcej,powstrzymując się od niego przypieczętowalibyśmy tylko własne wyginięcie, ponieważ życie na ziemi kiedyś przestanie istnieć,a zagrożenia takie jak superwulkany,asteroidy,naturalne cykle zmian klimatu itd skutecznie gwarantują nam,że jeśli powstrzymamy się od rozwoju technologicznego – wyginiemy.

Ponadto mając na uwadze systematyczne działania rządów i korporacji podważające nienaruszalność niniejszej deklaracji jest oczywiste, że należy dołożyć wszelkich starań,by ewentualna przyszła „silna” sztuczna inteligencja nie stała się narzędziem wąskich uprzywilejowanych grup/państw, stosowanym celem ograniczenia wolności reszty przedstawicieli ludzkiego rodzaju. Jeśli ryzyko „buntu maszyn” jest „groźne”,to ryzyko tego,że spełni się jeden z ponurych scenariuszy przedstawionych przez Teda Kaczyńskiego (Unabombera):

„174.Z drugiej strony możliwe jest, że ludzka kontrola nad maszynami zostanie utrzymana. W takim przypadku przeciętny człowiek będzie mógł mieć kontrolę nad niektórymi ze swoich maszyn, jak samochód czy komputer osobisty, lecz kontrola nad dużymi systemami maszyn spoczywać będzie w rękach wąskiej elity – dokładnie tak jak wygląda to dzisiaj, jednak z dwiema różnicami. W wyniku udoskonalonych technik elita uzyska większą kontrolę nad masami, a ponieważ ludzka praca nie będzie już potrzebna, masy staną się zbędnym, bezużytecznym ciężarem dla systemu. Jeżeli elita będzie bezwzględna, może po prostu zdecydować się na eksterminację masy ludzkości. Jeżeli będzie humanitarna, może użyć propagandy lub innych psychologicznych bądź biologicznych technik w celu redukowania liczby urodzin aż do wymarcia ludzkości, pozostawiając świat elicie. Jeżeli elita składać się będzie z liberałów o miękkich sercach, może zdecydować się na odgrywanie roli dobrego pasterza dla pozostałej części ludzkiej rasy.[…]”

Jest jak widać dużo groźniejsze, o ile obsesja dotycząca „procesu władzy” powinna być traktowana jako przesadna (o ile po prostu nie jest tak,że to ja jej nie doceniam), o tyle ta prognoza – nie. Bynajmniej obecnie nie mamy do czynienia wśród milionerów i elit politycznych z ludźmi o „miękkich sercach”, część działań już dziś wygląda wysoce niepokojąco, pozwalanie zatem na to,by oddać im narzędzie mogące zmienić stosunek sił jest lekkomyślnością,a nawet zagrożeniem.

Z drugiej strony – w kategoriach rozwoju sztucznej inteligencji koniecznością – jeśli dla odmiany nie mamy być zwierzątkami uzależnionymi od AI jest kolejny krok jakim będzie połączenie naszego mózgu z „elektroniką” (niekoniecznie z elektroniką jako taką, musimy uwzględnić zagrożenia takie jak np. silna burza słoneczna, która w końcu nadejdzie). Jednak nie nadejdzie to szybko,ponieważ, jak zamierzam przynajmniej zasugerować w następnym artykule aktualne podejścia do problemu sztucznej inteligencji są najprawdopodobniej wysoce niewystarczające bądź prowadzą do ryzykownych / trudnych w kontroli i ocenie rezultatów.

Należy też wspomnieć,że bardzo korzystne byłoby ograniczenie świadomego wykorzystywania przez nieodpowiedzialne jednostki nauki jako środka do realizacji aktów agresji i represji,co jest antytezą dobrodziejstw wynikających z rozwoju nauki. Ale to już inna dość odległa dzisiaj i „trącąca utopizmem” wg. niektórych kwestia.Niestety.

Tymczasem kończąc polemikę z aspektami filozoficznymi muszę wreszcie zacząć pisać artykuł o kwestiach bardziej technicznych jeśli chodzi o sztuczna inteligencję.Zwłaszcza sztuczną inteligencję dzisiaj,która póki co „superinteligencją” nie jest. Raczej nie spodziewajcie się tego artykułu dzisiaj.