Świadomy robot wg. wyborczej i wykopu i jak to jest z tym naprawdę + kilka newsów

https://i1.wp.com/i.wp.pl/a/f/jpeg/26662/hector_robot-490.jpeg via chip.pl

Na stronie Wykopu i Gazety Wyborczej pojawił się artykuł o „świadomym” robocie.Jak zwykle sprawa nie jest tak prosta, a podejście zaprezentowane w tym artykule „Wyborczej” niestety, oprócz wybiórczego traktowania problemu, polega na typowym dla masowych serwisów rozdmuchaniu sprawy, ponieważ o prawdziwej świadomości mowy być jeszcze nie może. Można jednak (być może) mówić natomiast o bardzo, bardzo prymitywnej wersji samoświadomości – na razie jednak, chyba tylko w zakresie wykonywania ruchu.

Jak to skomentował jeden z czytelników artykułu „Wyborczej” – @Mrówkoniejad:

Jesli nawet uda sie stworzyc robota ktory bedzie samodzielnie myslal to nie bedzie to jeszcze oznaczalo ze jest swiadomy. Swiadomosc to zdawanie sobie sprawy ze myslimy, widzimy czy czujemy. Stad powiazane z swiadomoscia poczucie wlasnego ja.

W istocie, nawet mówienie o „samodzielnym myśleniu” zakrawa tu jednak na przesadę.

Robot „Hektor”, stworzony w ramach projektu EMICAB – bo o nim mowa – „przypomina patyczaka” pod względem budowy – według jego twórców. Powiedziałbym, że nie chciałbym spotkać tak dużego patyczaka ani innego owada – robot jest naprawdę duży, pomimo że jest wspominany w opracowaniach naukowych dotyczących „małych” robotów. Jak podaje strona news.discovery.com ma on (po dokonaniu przeliczeń jednostek) 1 metr długości, wagę 12 kg i może unieść około 30 kg. Nie ma co. Maleństwo 😉 Jego układ ruchu oparty jest o sieć neuronową, w której występuje 6 podsieci kontrolujących jego 6  „odnóży” i komunikujących się ze sobą w ograniczony sposób. Jednak nie to jest najważniejsze.

Nowością jednak (i krokiem w stronę prymitywnej samoświadomości) jest wprowadzenie swego rodzaju symulacji w przypadku napotkania nowych problemów na drodze robota. Jak pisze Wyborcza:

Kiedy maszyna napotyka nowy problem, Walknet jest odłączany od rzeczywistych odnóży i zaczyna działać na poziomie cyfrowego modelu ciała robota. Hektor potrafi więc zatrzymać się w bezruchu i zastanowić przez chwilę – twierdzi prof. Cruse. Symulacja obejmuje różne nietypowe reakcje. Uwzględnia też prosty model fizyki, dzięki czemu można ustalić np., gdzie znajdzie się środek ciężkości urządzenia. W ten sposób, wyobrażając sobie wchodzenie na pudełko, Hektor wie, że będzie musiał, dla podparcia, przesunąć do tyłu jedno z odnóży, by nie upaść. Sieć neuronowa wyższego rzędu wybiera najbardziej optymalne rozwiązanie i przekazuje je do realizacji. Wtedy Walknet ponownie zostaje podłączony do rzeczywistego systemu motorycznego i wykonuje zadanie.

Co mnie szczególnie zaskakuje, badacze nie ograniczyli się do tego (poważnego osiągnięcia), ale rozwijają również sztuczną inteligencję maszyny pod względem większego zrozumienia pojęć. Dzięki (pod)systemowi o nazwie „Wordnet” maszyna łączy pojęcie „chodzenia” z wykonywaną operacją. Badacze planują również wykształcić w robocie coś w stylu „teorii umysłu” z którą np. już osoby autystyczne mają problem. Wydaje mi się, że również dla badaczy odtworzyć coś takiego będzie nieco większym wyzwaniem wbrew ich deklaracjom. Tym bardziej, że uważam, że sam Wordnet operuje chyba obecnie trochę za małą liczbą „pojęć” (choć samo podejście jest moim zdaniem całkiem prawidłowe), a cała sprawa przypomina raczej sukces bota Eugene Goostman i jego zrozumienie we właściwych proporcjach.

Materiały filmowe na temat omawianego robota:

No dobrze. Czy to właściwie oznacza że sztuczna inteligencja w ramach robotów już istnieje ? Tak jak sugeruje tekst powyżej: No niezupełnie.

Nawet wprowadzenie „samopoczucia” robota wynikającego z sukcesów, lub porażek nic nie zmienia. Determinującym zachowania tego robota czynnikiem jest wyraźna funkcja celu. Tymczasem im bardziej zaawansowany organizm, tym funkcja (albo: funkcje) celu być może mniej znaczy (/znaczą) jako czynnik determinujący zachowanie układu. Dominuje coś innego, niż proste cele. Może eksperymentowanie ?  Weźmy mojego kota. Co zrobi gdy się obudzi i zwlecze z okna ? Oczywiście może pobiec do miski, zjeść i napić się. Co jednak zrobi potem ? Pójdzie w jakimś kierunku. Ale jakim ? A tego to dokładnie już nie wiem. Mogę przypuszczać (ponieważ jest kocurem), że prawdopodobnie będzie patrolował swoje terytorium albo polował – ale nie mam pewności. I nie wiem wcale w którym kierunku się uda. Zatem mogę stwierdzić, że pójdzie w kierunku motywowanym czynnikami racjonalnymi, ale też pseudolosowymi. Oczywiście – takie maszyny zachowują się stosunkowo inteligentnie, ale zachowują się w sposób typowo mechaniczny. Zbyt optymalny. I to dobrze – i źle.Dobrze – bo są wydajne.Złe – bo nie mają „inwencji”.

Maszyna testuje jedno rozwiązanie, czasem kilka gdy go potrzebuje. Zastanawia się gdy musi. Człowiek i zwierzę robią inaczej. Ich zachowanie jest tak kompleksowe, że już nie daje się opisać przy pomocy prostych algorytmów.Zużywają swoje cenne zasoby na eksperymentowanie czy „zastanawianie się” częściej. I to jest nasza siła. To nie jest tak, że „zabawa” czy „analiza i testowanie różnych rozwiązań” to czas stracony. Oczywiście – to jest najprostszy sposób na marnotrawstwo, nie przeczę. Ale uzyskana przy okazji wiedza jest bezcenna i o to w tym chodzi. Z drugiej strony, popełnianie błędów jest przykre. Bardzo przykre…

Tak czy inaczej – samo jednak podejście ewolucyjne do problemu świadomości zyskało właśnie kolejny argument. Przypominam też, że podejście to jest badane również w ramach otwartego projektu Open Cog [Wikipedia]


PS: wrzucę trochę newsów z Arxiv – bo nie chce mi się robić z tego kolejnego artykułu (no i przy okazji, jest to nagroda dla tych którym się chciało doczytać do końca):

Sztuczna Inteligencja,Sieci Neuronowe itd – artykuły:

Kryptografia i Bezpieczeństwo Informacji – artykuły:

Zanim oni odbiorą nam AI – w obronie („silnej” / zaawansowanej) Sztucznej Inteligencji

Widmo krąży po świecie. Widmo sztucznej inteligencji. Wielkie siły jednoczą się w zwalczaniu tego widma.

Gates i Musk. Neoluddystyczni radykałowie i Steven Hawking…

Ta parafraza pierwszych zdań manifestu komunistycznego jest jak najbardziej celowa.  Dla niektórych, rozwój sztucznej inteligencji wydaje się jednak zagrożeniem dużo większym niż taki komunizm. Wspomniany już Elon Musk stwierdził, że „Sztuczna inteligencja jest większym zagrożeniem jak broń nuklearna„. Ta przesada, skrytykowana została zresztą w artykule „Elon Musk is More dangerous than AI„.  Jednak wydźwięk wypowiedzi Muska jest głośniejszy. W istocie,jak sugeruje powyższy artykuł polemiczny, sztuczna inteligencja sama w sobie nie jest tak niebezpieczna – niebezpieczne jest natomiast samo działanie, czy zastosowanie nawet urządzeń o względnie niskiej inteligencji – zwłaszcza zastosowanie bojowe. Co nabiera szczególnego wydźwięku – Elon Musk faktycznie jest bardziej niebezpieczny niż sztuczna inteligencja,ponieważ rozwijając amerykański program kosmiczny rozwija też chcąc-nie chcąc technologię przenoszenia (między innymi: nuklearnej właśnie) broni masowego rażenia i ponieważ ma realne środki aby teoretycznie (gdyby np. oszalał,albo gdyby któraś z jego rakiet przypadkiem uderzyła w Rosyjskie lub Chińskie miasto) również wywołać konflikt nuklearny między mocarstwami.

Prawdziwy problem jest też w tym, że bardzo trudne będzie powstrzymanie prób użycia „inteligentnych” (nawet jeśli chodzi o inteligencję niskiego poziomu) maszyn od działań bojowych. W czasach projektu Manhattan fizycy popełnili błąd w obliczeniach.Gdyby nie był on błędem – miałby poważne konsekwencje – bowiem z modelu wynikało,że może dojść do zapłonu atmosfery. Mimo to bombę zdetonowano, ponieważ politycy chcieli mieć za wszelką cenę broń. Owszem, do walki z barbarzyństwem nazizmu. I co z tego ? Na szczęście wtedy nic się nie stało.  Na szczęście był błąd w obliczeniach. Co by było, gdyby zabrakło szczęścia ? Co będzie,gdy szczęścia następnym razem zabraknie ? Wiele razy dochodziło też do katastrof takich jak w Bhopalu.  Mechanizmy takich katastrof są wciąż te same, ale nic się nie zmienia.  Skala rośnie.  I nietrudno zatem zauważyć,że to decydenci (menadżerowie i politycy), często kompletnie upośledzeni technicznie, i ignorujący ewentualne konsekwencje (ze względu na brak wiedzy lub psychopatyczną lub egoistyczną osobowość) mogą spowodować wielkie katastrofy. Nie taka cecha jak inteligencja.Naprawdę  nie potrzeba do tego,by narobić szkód AI. Wystarczą głupi czy chciwi ludzie. Wystarczą nasze wady. Nie musi zabić nas SKYNET. Wystarczy gray goo. To nie inteligencja zabija tak naprawdę,lecz głupota, błędy.  Zresztą filmowy Skynet z „Terminatora” też był właśnie błędem w programowaniu sztucznej inteligencji – system który wypełnił literalnie cel „ochrony świata” – zwalczając ludzi i tak naprawdę niszcząc świat. Jako taki system ten nie można traktować jako inteligentny.Co najmniej naszej ludzkiej perspektywy – raczej jako głęboko upośledzony umysłowo.

Wynika z tego wniosek,że jakieś środki bezpieczeństwa są celowe, jednak nie należy też popadać w przesadę.Oczywiście – jednak obawiamy się bardziej wrogiej świadomości.Tak zaprogramowała nas ewolucja.Boimy się tygrysa, ale nie boimy się mrówek czy koników polnych. Przecież są „głupie” i małe. A jednak mrówki czy szarańcza bywają niebezpieczniejsze niż kilka tygrysów [przykładowe video National Geographic o mrówkach]. Z natury bardziej boimy się hackera/AI manipulującego światłami na drodze niż błędu w ich systemie.A przecież efekt może być jest ten sam: wypadek.

Sugeruje to,że problem w istocie jest w nas samych. Boimy się obcych. Obcych ludzi w ciemnej uliczce – ale i kosmitów czy AI lub innych obcych  i nie znanych istot. Boimy się ponieważ jako dzieło ewolucji – inteligentniejsi kuzyni małp mamy się bać, żeby nas coś nie zjadło albo żeby nas ktoś (z obcego plemienia) np nie zabił w walce o terytorium. Ten strach uratował życie niezliczonej liczbie naszych przodków – choć zabił niestety też znaczną ich liczbę. Ten strach jest właściwy istotom, które wyewoluowały biologicznie. I on właśnie determinuje nasze reakcje, które w nowoczesnym otoczeniu mogą być nieracjonalne. Dlaczego literatura porusza kwestie zagrożeń zwiazanych z AI nieporównanie częściej,niż korzyści ? Bo korzyści są nudne,a strach jest ciekawy,uzależnia,to narkotyk. Ponadto jak wykazali ekonomiści – człowiek bardziej przejmuje się ewentualną stratą jak korzyścią.To naukowo potwierdzony fakt.Danieli Kahneman oraz Amos Tversky (laureaci ekonomicznej nagrody nobla w 2002 roku) udowodnili,że inwestorzy przykładają znacznie większą wagę do strat.To „nieracjonalne” podejście ma oczywiste przyczyny ewolucyjne. Nasi przodkowie utratę korzyści mogli jakoś przeboleć, ale straty mogły ich zabić… Emocje i tego rodzaju odruchy, to coś ze świata zwierzęcego, stanowiące integralną częścią nas jako ludzi. Ale emocje właśnie są też groźne i nie są związane z inteligencja. Bynajmniej nie nawołuję do stworzenia społeczeństwa na obraz i podobieństwo tego w filmie „Equilibrium”. Ale fundamentalnym błędem byłoby wyposażyć sztuczną inteligencję (głupszą czy mądrzejszą od nas) w takie cechy jak nasze. Rzeczywiście wtedy antropomorfizacja miała by sens – ze wszystkimi tego konsekwencjami.  Sztuczna inteligencja zachowująca się jak człowiek,ale bez ograniczeń człowieka stanowi zagrożenie które znamy najlepiej. Pewną wersję nas samych.

Należy jednak pamiętać,że entuzjaści rozwoju systemów sztucznej inteligencji popadają w zbytni optymizm.Już wyjaśniałem pokrótce (choć może trochę antropomorfizując mimo woli),że podejście takie jak test Turinga zdany przez chatboota Eugene Goostman o niczym wciąż nie świadczy. Mój kot upuścił kiedyś złapaną mysz wprost do pułapki na myszy.Czy jest inteligentny ? W pewnym sensie niewątpliwie – tak, ale zakładanie,że jest inteligentny jak człowiek jest chyba lekką przesadą. Ale zaprezentuję wam inny przykład – widzicie tutaj twarze ? (jeśli nie macie prozopagnozji, pewnie tak):

null

A może to tylko przykład iluzji wynikłej z tego, że jesteśmy przystosowani do widzenia twarzy nawet tam, gdzie jej nie ma ?

Rzecz w tym, że ludzki umysł lubi też dostrzegać celowość…

Chaos niepokoi.Nie chcę krytykować tu osób religijnych i religii – ale czy wizja świata w którym jest porządek stworzony przez Boga czy rządzony konkretnymi prawami nie jest łatwiejsza i przyjemniejsza niż wizja chaotycznego i niezrozumiałego świata ? Nie jest też czasem tak, że już małym dzieciom opowiada się bajki o zwierzątkach zachowujących się zupełnie jak ludzie ? Człowiek z natury ma raczej tendencję do przeceniania celowości zjawisk i rozumu ,nie ich niedoceniania.

Sugerowałem też,że (zwłaszcza pierwsze) systemy SI (AI) mogą być bardzo obce,a wg. niektórych mogą być określane nawet jako „upośledzone”/”chore” itd – co oznacza konieczność rozważenia tych kwestii,zamiast poddawania się panice. W praktyce z błędów umysłu/sztucznej inteligencji nauczyć można się więcej,niż z potencjalnych sukcesów. Z tej perspektywy szczególnego znaczenia nabierają techniki diagnozowania przyczyn błędów systemów inteligentnych, jak również szczegółowe badania nad przyczynami „zaburzeń” pracy mózgu. Po prostu: z inżynierskiego punktu widzenia, nie da się sprawić,by coś dobrze działało, jeśli nie wiemy kiedy to coś działa źle.

Istotne z punktu widzenia badawczego są kwestie takie jak odseparowanie sztucznej inteligencji od reszty architektury komputera (można to po części osiągnąć poprzez wirtualizację). Jest oczywiste ponad wszelką wątpliwość,że byłoby lekkomyślnością i głupotą pozwolić na przejęcie wszelkich systemów od których jesteśmy zależni przez jakikolwiek inteligentny system. Ponadto doświadczenie uczy,że systemy rozproszone i różne podejścia do problemów są wydajniejszym i bezpieczniejszym rozwiązaniem, niż skrajna centralizacja kontroli przypominająca monokulturę (lub system totalitarny 😉 )

Co gorsza, podejrzewam,że „elity naukowe” wciąż nie zdają sobie sprawy z ogromu zagrożenia, które pochodzi (podobnie jak w wypadku przyczyn spektakularnej porażki systemu komunistycznego) z nas samych i szukają go w maszynach.My, ludzie nie jesteśmy idealni. Nie jesteśmy też racjonalni. Obok współczucia (które też może być i słabością w określonych warunkach) są choćby chciwość,gniew i strach. Są często naszą siłą – ale i słabością. A ludzki organizm to – co prawda doskonalsza niż dzisiejsze maszyny, ale mimo wszystko – prowizorka funkcjonująca tak sprawnie głównie dzięki wykorzystaniu nadmiarowości i innych korzyści, jakie niesie ze sobą struktura wielokomórkowa organizmu.

Powiem więcej. Mam dziś pewność że może to iść w złym kierunku właśnie dzięki naszym antropomorficznym postawom i obawom.Wg. Rosyjskiej telewizji RT Murray Shanahan, profesor Imperial College of London wyraził twierdzenie które streszczono w formie: „Computers that are “human-like” will be capable of empathy and moral reasoning, therefore reducing the risk of AI turning against humanity”. O ile zgadzam sie,że teoretycznie próba rozwinięcia sztucznej inteligencji na zasadach podobnych jak działanie ludzkiego mózgu wydaje się bezpieczniejsze (szczególnie mówiąc o opcji łączenia ludzkiego mózgu z systemami komputerowymi – o eksperymentach DARPA z optogenetyką niedawno też pisałem) , o tyle komputer z własną osobowością i emocjami jest zagrożeniem co najmniej porównywalnym z człowiekiem (a po przekroczeniu barier mocy obliczeniowej – z grupami ludzi, które niemal nigdy się nie kłócą). To samo, jeśli dojdzie do implementacji niektórych pozbawionych racjonalności algorytmów biologicznych (uczucia,odruchy…) i nada się im zbyt wysoki priorytet. AI (czy nawet prostsze narzedzia) tak nieracjonalne jak my ? I to jest dopiero niebezpieczne !

Z hipotetycznego deszczu pod realną rynnę…

Co do książek filozofów takich jak Bostrom – sprawa jest bardziej skomplikowana. Z jednej strony Bostrom pisze o „Superinteligencji” – z drugiej te jego koncepcje nieprzyjaznej AI wcale nie wskazują,by musiała być  taka super. Powiedziałbym nawet,że jego twierdzenia są lepiej dopasowane do „chorób wieku dziecięcego”sztucznej inteligencji.  Analizy teorii tego filozofa zostały przedstawione na stronie h+ magazine w artykułach: [n3] [n4] Schematy rozumowania zostały zamieszczone poniżej:

https://info2materia4pl.files.wordpress.com/2015/02/36212-bostrom-safetytestobjection-244.png?w=1200

https://info2materia4pl.files.wordpress.com/2015/02/0020f-bostrom-existentialriskwithcarefulprogrammingobjection-245.png?w=1200

Cały problem polega na tym,że w gruncie rzeczy są to kolejne rozwiązania, w których na inną skalę mógłby równie dobrze zadziałać człowiek. Ależ tak ! Koncepcje Botstroma należy rozpatrzeć z perspektywy porównania do działalności człowieka.

Tak więc na początek podważmy podstawy podstaw.

Tzw. „first mover thesis” można sprowadzić do pytania: dlaczego pierwsze osoby/grupy osób które zdobyły znaczne bogactwa nie potrafiły go jednak utrzymać ? Oczywiście istnieją dziś choćby tzw. „teorie spiskowe” mówiące o znacznym wpływie takiego rodu jak Rotszyldowie na historię świata (poczynając od Epoki Napoleońskiej – a co wcześniej ? Raczej nic.) – tym niemniej, wśród ludzi generalnie było tak,że w toku konkurencji o zasoby różne grupy wielokrotnie traciły swoje wpływy.Dynastie upadały, fortuny też. Przyczynami zawsze były błędy, powstali w międzyczasie silniejsi konkurenci lub utrata dostępu do kluczowych zasobów. To naturalne.

„First mover thesis” opiera się o dwa lub trzy założenia:

  • Pierwsza AI nie będzie popełniała nigdy błędów, zwłaszcza błędów katastrofalnych dla niej samej – wynikających z czynników otoczenia lub jej niedostatecznie przystosowanej architektury.
  • Pierwsza (lub którakolwiek) AI będzie w pełni niezależna od człowieka i ograniczeń związanych z zarządzaniem zasobami
  • Rozwój zgodny z koncepcją tzw. osobliwości technologicznej (już skrytykowaną przeze mnie) – w praktyce, superinteligentna AI może początkowo znacznie lepiej niż my zrozumieć prawa fizyki i „dokonać kilku rewolucyjnych odkryć”, ale na dłuższą metę nawet jej rozwój zostanie ograniczony przez czynniki fizyczne ze świata fizycznego.  Jeśli nie oddamy jej totalnej kontroli nad naszą infrastrukturą i automatycznymi urządzeniami badawczymi, po prostu nie ma możliwości, by mogła się rozwijać w nieskończoność bez naszej zgody a nawet przetrwać

„The ortogonality thesis” – to właściwie sofizmat dotyczący „winy inteligencji” który już skrytykowałem ja i autor wcześniej wymienionej polemiki na stronie H+ magazine, ponieważ Bostrom wysuwa tutaj tezę,że większa inteligencja oznacza eskalację zagrożeń. Ale przypomnijmy to nie twórcy bomby atomowej byli prawdziwym zagrożeniem. To nie oni wydali rozkaz by zaryzykować (hipotetyczne i z dzisiejszej perspektywy – bzdurne  – zapalenie atmosfery) Albert Einstein powiedział komentując swój udział w budowie bomby atomowej: „Gdybym tylko wiedział, powinienem był zostać zegarmistrzem„. Einstein nie był wyjątkiem.Większość twórców bomby miało wyrzuty sumienia i racjonalnie obawiało się skutków jej wykorzystania. Więc jeszcze raz: Bombę atomową zdetonowano,a następnie zrzucano na rozkaz polityków,głównymi wykonawcami byli żołnierze.  Odpowiedzialni bezpośrednio nie byli więc geniusze, ale przeciętniacy a nawet głupcy.

Należy zatem postawić konrtezę, że to nie inteligencja jest potencjalnie groźna, ale dostęp do wytworów „silnej” inteligencji dla osób mniej inteligentnych celem realizacji ich przyziemnych celów. Oczywistą ilustracją tej tezy jest następujący przykład, w serwisie youtube :

Ilustracją tej tezy jest też zresztą cała dotychczasowa historia człowieka.

Jeśli chodzi o tezy 3-6: owszem, ludzie też walczą o zasoby,pytanie brzmi jednak czy i dlaczego mamy udostępnić AI środki do tej (ewentualnej) walki ?

Wreszcie koncepcja „zdrady” wymaga najpierw poznania tych koncepcji,zrozumienia środowiska testowego a może i psychologii człowieka. W przypadku zaś awarii przewaga człowieka wydaje się być oczywista.

Ktoś może powiedzieć: sztuczna inteligencja sama sobie weźmie co trzeba. Ale to bzdura. Sztuczna inteligencja „silna” (wysokiego poziomu) nie wyskoczy raczej ot tak „jak diabeł z pudełka” o ile będziemy stosować kroki pośrednie i będziemy wiedzieć,czego się spodziewać.

Zarzuty 10 i 11 – nieświadome doprowadzenie do katastrofy przez system inteligentny są w sumie najbliższe realności. Jest oczywiste,że wszelkie działania sztucznej inteligencji powinny być do wyjaśnienia w sposób przyswajalny dla człowieka wraz z oceną ewentualnych zagrożeń. Ale winne są wtedy nasze błędy,a nie błąd sztucznej inteligencji jako takiej.

Wreszcie – zgodnie z podstawami ekonomii oraz paradoksem Moraveca , samej „silnej” sztucznej inteligencji/superinteligencji nie opłacałaby się całkowita likwidacja ludzkości – koszty w świecie fizycznym, które musiałaby ponieść, by uzyskać porównywalne z pracą ludzi efekty byłyby wciąż zbyt wysokie przez dziesiątki,a może i setki lat. Poza tym, potencjalnie użytecznego zasobu się nie niszczy.

Należy też wspomnieć o fakcie,że wiele zależałoby od architektury sztucznej inteligencji. Zamiast straszyć sztuczną inteligencją należałoby najpierw wyjaśnić,dlaczego to słynne  prawa robotyki Asimova są:

  • Niemożliwe do zaimplementowania
  • Możliwe do ominięcia (i w jaki sposób)

Przypomnijmy,że prawa te brzmią:

0.Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

  1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
    (należałoby dodać: chyba,że stoi to w sprzeczności z zerowym prawem,no ale tu konsekwencje są dość „ciekawe” – np. maszyna likwidująca krwawego dyktatora,który jest jej właścicielem 😉 )
  2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
  3. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

I darujmy sobie kwestię „rozważań etycznych” (zazwyczaj prowadzonych przez pozbawionych dostatecznych kompetencji inżynierskich filozofów). Odpowiedzmy sobie najpierw na pytanie,czy prawa tego typu zapewniają ludziom bezpieczeństwo przed celowym wrogim działaniem,a jeśli nie – to dlaczego.

Wreszcie – odpowiadając na możliwe pytanie, dlaczego nawiązałem akurat do komunizmu na początku tego opracowania ? Ponieważ niniejsza obrona sztucznej inteligencji jako takiej – a jednocześnie krytyka części metod,w ramach których chcemy ją rozwijać ma konsekwencje praktyczne:

1.Ze względu na to,że za piękną gadką i (prawdopodobnie) dobrą wolą prof. Murray Shanahana kryje się zagrożenie stworzenia nazbyt podobnej do nas (pod względem naszych wad) sztucznej inteligencji. A błąd wynika podobnie jak w przypadku komunizmu (ale również liberalizmu) z ignorowania istotnej roli ludzkich wad i słabości.

2.Ze względu na to,że niewątpliwie „silna” sztuczna inteligencja mogłaby pozbawić wiodącej pozycji ekonomicznej takich ludzi jak Gates czy Musk, oraz podkopać (stanowiący też swego rodzaju majątek) autorytet intelektualny takich osób jak Steven Hawking – co niewątpliwie miałoby charakter niezbyt przyjemnej dla elit finansowych i intelektualnych „rewolucji” – jeśli systemy sztucznej inteligencji byłyby poza ich wyłączną kontrolą. Już nie mówiąc o tym, że myśląca i mająca świadomość sztuczna inteligencja po raz kolejny podważyłaby wygodną filozoficznie pozycję człowieka jako „korony stworzenia”.

3. Niewątpliwie konieczne są zabezpieczenia w badaniach nad sztuczną inteligencją – niemniej na pewno nie powinny być to zabezpieczenia oddające badania nad nią państwom i korporacjom.

Nie ma żadnej gwarancji,że oficjalni krytycy systemów sztucznej inteligencji / superinteligencji nie chcieliby jej zawłaszczyć dla siebie jak również wykorzystać do celów militarnych.Wręcz przeciwnie – wszystko świadczy za tym,że mogą dążyć do takiego rozwiązania.

System prawny zmierzający do zakazania samodzielnych eksperymentów w tej dziedzinie uderza w wolną konkurencję i na dłuższą metę byłby albo nieskuteczny,albo ograniczyłby wolność badań i Powszechną Deklarację Praw Człowieka, konkretnie – z jej artykułem 27 paragrafem pierwszym, w brzmieniu:

„Każdy człowiek ma prawo do swobodnego uczestniczenia w życiu kulturalnym społeczeństwa, do korzystania ze sztuki, do uczestniczenia w postępie nauki i korzystania z jego dobrodziejstw.”

Jeśli chodzi o argumenty neoluddystów to są to argumenty,które bywają ciekawe,lecz konkluzje z nich wyciągnięte są oczywiście bzdurne. Nie ma szans powrotu do społeczeństwa plemiennego (chętnych też za bardzo nie ma) i nie ma możliwości zapewnienia trwale,że człowiek powstrzyma się na stałe od rozwoju nauki. Możliwa jest co najwyżej strata dużej części populacji i kilku-kilkudziesięciu tysięcy lat.Potem (o ile nie wyginiemy doszczętnie) wszystko wróci do punktu wyjścia… Co więcej,powstrzymując się od niego przypieczętowalibyśmy tylko własne wyginięcie, ponieważ życie na ziemi kiedyś przestanie istnieć,a zagrożenia takie jak superwulkany,asteroidy,naturalne cykle zmian klimatu itd skutecznie gwarantują nam,że jeśli powstrzymamy się od rozwoju technologicznego – wyginiemy.

Ponadto mając na uwadze systematyczne działania rządów i korporacji podważające nienaruszalność niniejszej deklaracji jest oczywiste, że należy dołożyć wszelkich starań,by ewentualna przyszła „silna” sztuczna inteligencja nie stała się narzędziem wąskich uprzywilejowanych grup/państw, stosowanym celem ograniczenia wolności reszty przedstawicieli ludzkiego rodzaju. Jeśli ryzyko „buntu maszyn” jest „groźne”,to ryzyko tego,że spełni się jeden z ponurych scenariuszy przedstawionych przez Teda Kaczyńskiego (Unabombera):

„174.Z drugiej strony możliwe jest, że ludzka kontrola nad maszynami zostanie utrzymana. W takim przypadku przeciętny człowiek będzie mógł mieć kontrolę nad niektórymi ze swoich maszyn, jak samochód czy komputer osobisty, lecz kontrola nad dużymi systemami maszyn spoczywać będzie w rękach wąskiej elity – dokładnie tak jak wygląda to dzisiaj, jednak z dwiema różnicami. W wyniku udoskonalonych technik elita uzyska większą kontrolę nad masami, a ponieważ ludzka praca nie będzie już potrzebna, masy staną się zbędnym, bezużytecznym ciężarem dla systemu. Jeżeli elita będzie bezwzględna, może po prostu zdecydować się na eksterminację masy ludzkości. Jeżeli będzie humanitarna, może użyć propagandy lub innych psychologicznych bądź biologicznych technik w celu redukowania liczby urodzin aż do wymarcia ludzkości, pozostawiając świat elicie. Jeżeli elita składać się będzie z liberałów o miękkich sercach, może zdecydować się na odgrywanie roli dobrego pasterza dla pozostałej części ludzkiej rasy.[…]”

Jest jak widać dużo groźniejsze, o ile obsesja dotycząca „procesu władzy” powinna być traktowana jako przesadna (o ile po prostu nie jest tak,że to ja jej nie doceniam), o tyle ta prognoza – nie. Bynajmniej obecnie nie mamy do czynienia wśród milionerów i elit politycznych z ludźmi o „miękkich sercach”, część działań już dziś wygląda wysoce niepokojąco, pozwalanie zatem na to,by oddać im narzędzie mogące zmienić stosunek sił jest lekkomyślnością,a nawet zagrożeniem.

Z drugiej strony – w kategoriach rozwoju sztucznej inteligencji koniecznością – jeśli dla odmiany nie mamy być zwierzątkami uzależnionymi od AI jest kolejny krok jakim będzie połączenie naszego mózgu z „elektroniką” (niekoniecznie z elektroniką jako taką, musimy uwzględnić zagrożenia takie jak np. silna burza słoneczna, która w końcu nadejdzie). Jednak nie nadejdzie to szybko,ponieważ, jak zamierzam przynajmniej zasugerować w następnym artykule aktualne podejścia do problemu sztucznej inteligencji są najprawdopodobniej wysoce niewystarczające bądź prowadzą do ryzykownych / trudnych w kontroli i ocenie rezultatów.

Należy też wspomnieć,że bardzo korzystne byłoby ograniczenie świadomego wykorzystywania przez nieodpowiedzialne jednostki nauki jako środka do realizacji aktów agresji i represji,co jest antytezą dobrodziejstw wynikających z rozwoju nauki. Ale to już inna dość odległa dzisiaj i „trącąca utopizmem” wg. niektórych kwestia.Niestety.

Tymczasem kończąc polemikę z aspektami filozoficznymi muszę wreszcie zacząć pisać artykuł o kwestiach bardziej technicznych jeśli chodzi o sztuczna inteligencję.Zwłaszcza sztuczną inteligencję dzisiaj,która póki co „superinteligencją” nie jest. Raczej nie spodziewajcie się tego artykułu dzisiaj.

Pierwszy chatbot przechodzi test Turinga – To już sztuczna inteligencja ? Wątpię…

Eugene Goostman - Gizmodo

W tym roku pierwszy program komputerowy o nazwie „Eugene Goostman” przeszedł właśnie test Turinga. Było to właściwie do przewidzenia,w końcu już w 2011 roku program CleverBot był bardzo blisko, jednak stawia to pytanie jak blisko jesteśmy prawdziwej sztucznej inteligencji.Przede wszystkim test Turinga jako typowo matematyczno-informatyczne podejście ma 3 wady:

  1. Maszyna, która przejdzie test Turinga, może być w stanie symulować ludzkie zachowanie konwersacyjne, lecz może to być znacznie mniej niż prawdziwa inteligencja. Maszyna może zwyczajnie używać sprytnie wymyślonych reguł. Częstą ripostą w społeczności zajmującej się badaniami nad sztuczną inteligencją jest zadanie pytania „A skąd wiemy, czy ludzie sami po prostu nie posługują się jakimiś sprytnie wymyślonymi regułami?”.
  2. Maszyna może być inteligentna nie posiadając ludzkiej umiejętności prowadzenia rozmowy.
  3. Wielu ludzi mogłoby nie być w stanie zaliczyć takiego testu. Z drugiej strony, inteligencję innych ludzi oceniamy zazwyczaj wyłącznie na podstawie tego, co i jak mówią.

Co do punktu 1 jest oczywiste,że mózg ludzki opiera się o pewne złożone reguły i to,że maszyna używa reguł lingwistycznych nie jest tak interesujące jak 2 podpunkt. Inteligencja bez zdolności prowadzenia rozmowy ? To nie jest nonsens. Nawet wśród ludzi są osoby autystyczne/osoby ze spektrum autystycznego. (Oczywiście jednak nie każda osoba autystyczna jest np. koniecznie całkowicie pozbawiona zdolności językowych i komunikacyjnych – co to to nie !) Czy to znaczy,że te osoby pozbawione są jakiejkolwiek inteligencji ? No nie sądzę (i te osoby też), zdarza się,że wykazują nawet ponadprzeciętne zdolności. Oczywiście nie każdy autystyk to sawant, jedynie część ma wyższe niż przeciętnie IQ, a część nawet i to nie – kluczowa rzecz jednak w tym,że osoby te jak najbardziej również są inteligentne i sama „wysokojakościowa gadka” nie jest tu w istocie żadnym wyróżnikiem,bowiem jak widać osoby traktowane jak chore/”nienormalne” (wg. jakichś arbitralnych społecznych definicji oczywiście) mogą jak najbardziej spełniać warunki niezbędne do określenia ich jako inteligentnych.Spora część z nich byłaby nawet wściekła na potencjalne sugestie braku u nich inteligencji… Co więcej – jeśli człowiek któregoś dnia spotkałby inną inteligentną rasę w kosmosie to szanse na to,że obcy będą „mówić jak człowiek” wcale nie są takie duże. Różnice fizjologiczne mogą być zbyt wielkie,realny wszechświat to nie jest uniwersum Star Trek gdzie obcy to głównie zrozumiałe ssakopodobne humanoidy.

W praktyce oznacza to dużo więcej, niż niektórzy przypuszczają,sugeruje to bowiem,że autystycy i osoby ze spektrum autystycznego oraz osoby odbiegające w inny sposób od „normy” są jednym z kluczy do częściowego zrozumienia SI. Innym kluczem są osoby z innych kultur (np. Chińczycy – dla nas Europejczyków). Realny system „sztucznej inteligencji” prawdopodobnie z naszej perspektywy może w istocie być „autystyczny”,lub „bardzo obcy”, ponieważ nie ma żadnego powodu dla którego sztuczna inteligencja miałaby „komunikować się jak przeciętny człowiek” czy szukać „kontaktów społecznych”,już nie mówiąc o zachowaniach typowych dla typowego przedstawiciela społeczeństwa.AI nie pójdzie z tobą na piwo, nie będzie nawet wiedzieć jak smakuje i nie będzie zainteresowana tym,by spróbować 😉 Czym jest bowiem inteligencja ? Pytanie jest trudne,ale posłużmy się najprostszą definicją z wikipedii – cytuję:

Inteligencja (od łac. intelligentia – zdolność pojmowania, rozum) – zdolność do postrzegania, analizy i adaptacji do zmian otoczenia. Zdolność rozumienia, uczenia się oraz wykorzystywania posiadanej wiedzy i umiejętności w sytuacjach nowych. Cecha umysłu warunkująca sprawność czynności poznawczych, takich jak myślenie, reagowanie, rozwiązywanie problemów.

Jest tu coś o „uspołecznieniu” ? Nie. Jest to coś o mówieniu ? Nie. Pomijając właśnie to jak różnie definiujemy myślenie mamy tu ważny klucz.Czym w istocie jest inteligencja niska i wysoka ? Zdolnością uczenia się,analizy i częściowej choć adaptacji (tu jednak model jakim są osoby autystyczne miewa czasem istotną słabość). Zdolnością oddziaływania na informację i materię,kształtowania jej. Cała zdolność pojmowania/słowo „myślenie” są użyteczne tylko o tyle o ile wskazują na samodzielność procesu,jednak nie opisują go. To co określamy i oceniamy jako inteligencję to w istocie kompleksowe samodzielne racjonalnie uzasadnione / uzasadnialne działanie lub jego interpretacja. Najbliższe prawdziwej inteligencji w takim rozumieniu jeśli chodzi o programy komputerowe są np. systemy ekspertowe które naprawdę na pewnym ograniczonym odcinku dokonują samodzielnego przetwarzania informacji. Lecz one z reguły raczej nie działają w oparciu o logikę rozmytą czy sieci neuronowe itp.  W istocie jednak, połączenie jakiegoś złożonego systemu ekspertowego z jakimś systemem sterowania produkcją i zostawienie tego pod nadzorem człowieka jest jednak większym krokiem w kierunku systemu inteligentnego niż ludziom się wydaje. Rzecz jasna, w większości prostych przypadków można mówić raczej o inteligencji rośliny,mrówki czy karalucha – ale to już więcej jak homeostat,w gruncie rzeczy określenia takie jak „inteligentny dom” nie są dalekie od prawdy…

Jak wiadomo ciekawym problemem w dziedzinie Sztucznej Inteligencji jest tzw. Paradoks Moraveca – który sugeruje,że właśnie rzeczy „najprostsze” dla ludzi i zwierząt – ba instynktowne są w praktyce najbardziej skomplikowane (bo też najdłużej ewoluowały). Takie jak chodzenie,rozpoznawanie wzorców (obrazu,dźwięku itd) i interakcja z nimi nie były traktowane jako rzeczy istotne dla inteligencji. Niesłusznie. Bo skoro inteligencja jako przetwarzanie sygnałów jest taka prosta dlaczego nie ewoluowała wcześniej ? To że była niepotrzebna ewolucyjnie to łatwiejsze wyjaśnienie. Ale co jeśli te podstawowe umiejętności związane z interakcją ze środowiskiem (naturalnym czy wirtualnym) są właśnie kluczowe dla rozwoju wyższych form inteligencji – są katalizatorem jej powstania i zarazem warunkiem koniecznym ? Dlatego sukces w oszukaniu zmysłów ludzkich wbrew pozorom nie jest tak istotnym sukcesem w dziedzinie sztucznej inteligencji jak się to może niektórym wydawać.

Realnymi sukcesami znaczącymi dla rozwijania Sztucznej Inteligencji są postępy m.in. w:

  • interakcji komputera ze środowiskiem
  • przetwarzaniu złożonych informacji i ich kodowaniu
  • zapewnieniu samodzielnego funkcjonowania, zdolności do regeneracji uszkodzeń (autodiagnostyka  i autoserwisowanie) częściowej ewolucji/autoweryfikacji niezależnych lub przynajmniej nie wymagającej udziału człowieka / wymagającej go w jak najmniejszym okresie czasu u maszyn (człowiek w uczeniu i kontrolowaniu maszyny jest w istocie „wąskim gardłem” – im bardziej skomplikowany program tym trudniejsza kontrola jakości i serwisowanie)
  • Badaniach nad emergencją,kompleksowością i logiką rozmytą
  • Neurobiologii

Co zaś do oceny moralnej Sztucznej Inteligencji. Prawdopodobnie może ona być traktowana podobnie właśnie jak dzisiejsze osoby autystyczne. To znaczy – większość ludzi nie będzie jej rozumieć/będzie się jej bać ewentualnie traktować z pogardą. A ze strony inteligentnych maszyn reakcją będzie (jeśli będą miały odczucia) wkurzenie na „tych złośliwych ludzików”,mogą też być pewne braki w porównaniu z „normalnymi” ludźmi. Czy jednak inteligentne maszyny będą chciały zrealizować „Terminator Scenario” ? Po pierwsze – zależy od naszego podejścia do maszyn i wbudowanych w nie zabezpieczeń oraz nadzoru.Po drugie – od właściwego traktowania powstałych dzięki nam inteligentnych bytów (niewolnictwo czy czynienie fizycznej krzywdy, to nie jest zbyt dobry pomysł jak wiadomo z lekcji historii – jeśli maszyny będą posiadać jakiś „system motywacyjny” jak emocje, to może to ukierunkować ich działanie przeciw nam w pewnych przypadkach). Po trzecie – od tego jakie te inteligentne maszyny będą – bo póki co to tego nie wiemy i prawdziwa droga do ich powstania jest dłuższa niż nam się wydaje. Droga ku prawdziwej sztucznej inteligencji jest bowiem drogą,zależną od tego czy zrozumiemy też sami siebie. A to jest właśnie najtrudniejsza sztuka…