Świadomy robot wg. wyborczej i wykopu i jak to jest z tym naprawdę + kilka newsów

https://i1.wp.com/i.wp.pl/a/f/jpeg/26662/hector_robot-490.jpeg via chip.pl

Na stronie Wykopu i Gazety Wyborczej pojawił się artykuł o „świadomym” robocie.Jak zwykle sprawa nie jest tak prosta, a podejście zaprezentowane w tym artykule „Wyborczej” niestety, oprócz wybiórczego traktowania problemu, polega na typowym dla masowych serwisów rozdmuchaniu sprawy, ponieważ o prawdziwej świadomości mowy być jeszcze nie może. Można jednak (być może) mówić natomiast o bardzo, bardzo prymitywnej wersji samoświadomości – na razie jednak, chyba tylko w zakresie wykonywania ruchu.

Jak to skomentował jeden z czytelników artykułu „Wyborczej” – @Mrówkoniejad:

Jesli nawet uda sie stworzyc robota ktory bedzie samodzielnie myslal to nie bedzie to jeszcze oznaczalo ze jest swiadomy. Swiadomosc to zdawanie sobie sprawy ze myslimy, widzimy czy czujemy. Stad powiazane z swiadomoscia poczucie wlasnego ja.

W istocie, nawet mówienie o „samodzielnym myśleniu” zakrawa tu jednak na przesadę.

Robot „Hektor”, stworzony w ramach projektu EMICAB – bo o nim mowa – „przypomina patyczaka” pod względem budowy – według jego twórców. Powiedziałbym, że nie chciałbym spotkać tak dużego patyczaka ani innego owada – robot jest naprawdę duży, pomimo że jest wspominany w opracowaniach naukowych dotyczących „małych” robotów. Jak podaje strona news.discovery.com ma on (po dokonaniu przeliczeń jednostek) 1 metr długości, wagę 12 kg i może unieść około 30 kg. Nie ma co. Maleństwo 😉 Jego układ ruchu oparty jest o sieć neuronową, w której występuje 6 podsieci kontrolujących jego 6  „odnóży” i komunikujących się ze sobą w ograniczony sposób. Jednak nie to jest najważniejsze.

Nowością jednak (i krokiem w stronę prymitywnej samoświadomości) jest wprowadzenie swego rodzaju symulacji w przypadku napotkania nowych problemów na drodze robota. Jak pisze Wyborcza:

Kiedy maszyna napotyka nowy problem, Walknet jest odłączany od rzeczywistych odnóży i zaczyna działać na poziomie cyfrowego modelu ciała robota. Hektor potrafi więc zatrzymać się w bezruchu i zastanowić przez chwilę – twierdzi prof. Cruse. Symulacja obejmuje różne nietypowe reakcje. Uwzględnia też prosty model fizyki, dzięki czemu można ustalić np., gdzie znajdzie się środek ciężkości urządzenia. W ten sposób, wyobrażając sobie wchodzenie na pudełko, Hektor wie, że będzie musiał, dla podparcia, przesunąć do tyłu jedno z odnóży, by nie upaść. Sieć neuronowa wyższego rzędu wybiera najbardziej optymalne rozwiązanie i przekazuje je do realizacji. Wtedy Walknet ponownie zostaje podłączony do rzeczywistego systemu motorycznego i wykonuje zadanie.

Co mnie szczególnie zaskakuje, badacze nie ograniczyli się do tego (poważnego osiągnięcia), ale rozwijają również sztuczną inteligencję maszyny pod względem większego zrozumienia pojęć. Dzięki (pod)systemowi o nazwie „Wordnet” maszyna łączy pojęcie „chodzenia” z wykonywaną operacją. Badacze planują również wykształcić w robocie coś w stylu „teorii umysłu” z którą np. już osoby autystyczne mają problem. Wydaje mi się, że również dla badaczy odtworzyć coś takiego będzie nieco większym wyzwaniem wbrew ich deklaracjom. Tym bardziej, że uważam, że sam Wordnet operuje chyba obecnie trochę za małą liczbą „pojęć” (choć samo podejście jest moim zdaniem całkiem prawidłowe), a cała sprawa przypomina raczej sukces bota Eugene Goostman i jego zrozumienie we właściwych proporcjach.

Materiały filmowe na temat omawianego robota:

No dobrze. Czy to właściwie oznacza że sztuczna inteligencja w ramach robotów już istnieje ? Tak jak sugeruje tekst powyżej: No niezupełnie.

Nawet wprowadzenie „samopoczucia” robota wynikającego z sukcesów, lub porażek nic nie zmienia. Determinującym zachowania tego robota czynnikiem jest wyraźna funkcja celu. Tymczasem im bardziej zaawansowany organizm, tym funkcja (albo: funkcje) celu być może mniej znaczy (/znaczą) jako czynnik determinujący zachowanie układu. Dominuje coś innego, niż proste cele. Może eksperymentowanie ?  Weźmy mojego kota. Co zrobi gdy się obudzi i zwlecze z okna ? Oczywiście może pobiec do miski, zjeść i napić się. Co jednak zrobi potem ? Pójdzie w jakimś kierunku. Ale jakim ? A tego to dokładnie już nie wiem. Mogę przypuszczać (ponieważ jest kocurem), że prawdopodobnie będzie patrolował swoje terytorium albo polował – ale nie mam pewności. I nie wiem wcale w którym kierunku się uda. Zatem mogę stwierdzić, że pójdzie w kierunku motywowanym czynnikami racjonalnymi, ale też pseudolosowymi. Oczywiście – takie maszyny zachowują się stosunkowo inteligentnie, ale zachowują się w sposób typowo mechaniczny. Zbyt optymalny. I to dobrze – i źle.Dobrze – bo są wydajne.Złe – bo nie mają „inwencji”.

Maszyna testuje jedno rozwiązanie, czasem kilka gdy go potrzebuje. Zastanawia się gdy musi. Człowiek i zwierzę robią inaczej. Ich zachowanie jest tak kompleksowe, że już nie daje się opisać przy pomocy prostych algorytmów.Zużywają swoje cenne zasoby na eksperymentowanie czy „zastanawianie się” częściej. I to jest nasza siła. To nie jest tak, że „zabawa” czy „analiza i testowanie różnych rozwiązań” to czas stracony. Oczywiście – to jest najprostszy sposób na marnotrawstwo, nie przeczę. Ale uzyskana przy okazji wiedza jest bezcenna i o to w tym chodzi. Z drugiej strony, popełnianie błędów jest przykre. Bardzo przykre…

Tak czy inaczej – samo jednak podejście ewolucyjne do problemu świadomości zyskało właśnie kolejny argument. Przypominam też, że podejście to jest badane również w ramach otwartego projektu Open Cog [Wikipedia]


PS: wrzucę trochę newsów z Arxiv – bo nie chce mi się robić z tego kolejnego artykułu (no i przy okazji, jest to nagroda dla tych którym się chciało doczytać do końca):

Sztuczna Inteligencja,Sieci Neuronowe itd – artykuły:

Kryptografia i Bezpieczeństwo Informacji – artykuły:

Pierwszy chatbot przechodzi test Turinga – To już sztuczna inteligencja ? Wątpię…

Eugene Goostman - Gizmodo

W tym roku pierwszy program komputerowy o nazwie „Eugene Goostman” przeszedł właśnie test Turinga. Było to właściwie do przewidzenia,w końcu już w 2011 roku program CleverBot był bardzo blisko, jednak stawia to pytanie jak blisko jesteśmy prawdziwej sztucznej inteligencji.Przede wszystkim test Turinga jako typowo matematyczno-informatyczne podejście ma 3 wady:

  1. Maszyna, która przejdzie test Turinga, może być w stanie symulować ludzkie zachowanie konwersacyjne, lecz może to być znacznie mniej niż prawdziwa inteligencja. Maszyna może zwyczajnie używać sprytnie wymyślonych reguł. Częstą ripostą w społeczności zajmującej się badaniami nad sztuczną inteligencją jest zadanie pytania „A skąd wiemy, czy ludzie sami po prostu nie posługują się jakimiś sprytnie wymyślonymi regułami?”.
  2. Maszyna może być inteligentna nie posiadając ludzkiej umiejętności prowadzenia rozmowy.
  3. Wielu ludzi mogłoby nie być w stanie zaliczyć takiego testu. Z drugiej strony, inteligencję innych ludzi oceniamy zazwyczaj wyłącznie na podstawie tego, co i jak mówią.

Co do punktu 1 jest oczywiste,że mózg ludzki opiera się o pewne złożone reguły i to,że maszyna używa reguł lingwistycznych nie jest tak interesujące jak 2 podpunkt. Inteligencja bez zdolności prowadzenia rozmowy ? To nie jest nonsens. Nawet wśród ludzi są osoby autystyczne/osoby ze spektrum autystycznego. (Oczywiście jednak nie każda osoba autystyczna jest np. koniecznie całkowicie pozbawiona zdolności językowych i komunikacyjnych – co to to nie !) Czy to znaczy,że te osoby pozbawione są jakiejkolwiek inteligencji ? No nie sądzę (i te osoby też), zdarza się,że wykazują nawet ponadprzeciętne zdolności. Oczywiście nie każdy autystyk to sawant, jedynie część ma wyższe niż przeciętnie IQ, a część nawet i to nie – kluczowa rzecz jednak w tym,że osoby te jak najbardziej również są inteligentne i sama „wysokojakościowa gadka” nie jest tu w istocie żadnym wyróżnikiem,bowiem jak widać osoby traktowane jak chore/”nienormalne” (wg. jakichś arbitralnych społecznych definicji oczywiście) mogą jak najbardziej spełniać warunki niezbędne do określenia ich jako inteligentnych.Spora część z nich byłaby nawet wściekła na potencjalne sugestie braku u nich inteligencji… Co więcej – jeśli człowiek któregoś dnia spotkałby inną inteligentną rasę w kosmosie to szanse na to,że obcy będą „mówić jak człowiek” wcale nie są takie duże. Różnice fizjologiczne mogą być zbyt wielkie,realny wszechświat to nie jest uniwersum Star Trek gdzie obcy to głównie zrozumiałe ssakopodobne humanoidy.

W praktyce oznacza to dużo więcej, niż niektórzy przypuszczają,sugeruje to bowiem,że autystycy i osoby ze spektrum autystycznego oraz osoby odbiegające w inny sposób od „normy” są jednym z kluczy do częściowego zrozumienia SI. Innym kluczem są osoby z innych kultur (np. Chińczycy – dla nas Europejczyków). Realny system „sztucznej inteligencji” prawdopodobnie z naszej perspektywy może w istocie być „autystyczny”,lub „bardzo obcy”, ponieważ nie ma żadnego powodu dla którego sztuczna inteligencja miałaby „komunikować się jak przeciętny człowiek” czy szukać „kontaktów społecznych”,już nie mówiąc o zachowaniach typowych dla typowego przedstawiciela społeczeństwa.AI nie pójdzie z tobą na piwo, nie będzie nawet wiedzieć jak smakuje i nie będzie zainteresowana tym,by spróbować 😉 Czym jest bowiem inteligencja ? Pytanie jest trudne,ale posłużmy się najprostszą definicją z wikipedii – cytuję:

Inteligencja (od łac. intelligentia – zdolność pojmowania, rozum) – zdolność do postrzegania, analizy i adaptacji do zmian otoczenia. Zdolność rozumienia, uczenia się oraz wykorzystywania posiadanej wiedzy i umiejętności w sytuacjach nowych. Cecha umysłu warunkująca sprawność czynności poznawczych, takich jak myślenie, reagowanie, rozwiązywanie problemów.

Jest tu coś o „uspołecznieniu” ? Nie. Jest to coś o mówieniu ? Nie. Pomijając właśnie to jak różnie definiujemy myślenie mamy tu ważny klucz.Czym w istocie jest inteligencja niska i wysoka ? Zdolnością uczenia się,analizy i częściowej choć adaptacji (tu jednak model jakim są osoby autystyczne miewa czasem istotną słabość). Zdolnością oddziaływania na informację i materię,kształtowania jej. Cała zdolność pojmowania/słowo „myślenie” są użyteczne tylko o tyle o ile wskazują na samodzielność procesu,jednak nie opisują go. To co określamy i oceniamy jako inteligencję to w istocie kompleksowe samodzielne racjonalnie uzasadnione / uzasadnialne działanie lub jego interpretacja. Najbliższe prawdziwej inteligencji w takim rozumieniu jeśli chodzi o programy komputerowe są np. systemy ekspertowe które naprawdę na pewnym ograniczonym odcinku dokonują samodzielnego przetwarzania informacji. Lecz one z reguły raczej nie działają w oparciu o logikę rozmytą czy sieci neuronowe itp.  W istocie jednak, połączenie jakiegoś złożonego systemu ekspertowego z jakimś systemem sterowania produkcją i zostawienie tego pod nadzorem człowieka jest jednak większym krokiem w kierunku systemu inteligentnego niż ludziom się wydaje. Rzecz jasna, w większości prostych przypadków można mówić raczej o inteligencji rośliny,mrówki czy karalucha – ale to już więcej jak homeostat,w gruncie rzeczy określenia takie jak „inteligentny dom” nie są dalekie od prawdy…

Jak wiadomo ciekawym problemem w dziedzinie Sztucznej Inteligencji jest tzw. Paradoks Moraveca – który sugeruje,że właśnie rzeczy „najprostsze” dla ludzi i zwierząt – ba instynktowne są w praktyce najbardziej skomplikowane (bo też najdłużej ewoluowały). Takie jak chodzenie,rozpoznawanie wzorców (obrazu,dźwięku itd) i interakcja z nimi nie były traktowane jako rzeczy istotne dla inteligencji. Niesłusznie. Bo skoro inteligencja jako przetwarzanie sygnałów jest taka prosta dlaczego nie ewoluowała wcześniej ? To że była niepotrzebna ewolucyjnie to łatwiejsze wyjaśnienie. Ale co jeśli te podstawowe umiejętności związane z interakcją ze środowiskiem (naturalnym czy wirtualnym) są właśnie kluczowe dla rozwoju wyższych form inteligencji – są katalizatorem jej powstania i zarazem warunkiem koniecznym ? Dlatego sukces w oszukaniu zmysłów ludzkich wbrew pozorom nie jest tak istotnym sukcesem w dziedzinie sztucznej inteligencji jak się to może niektórym wydawać.

Realnymi sukcesami znaczącymi dla rozwijania Sztucznej Inteligencji są postępy m.in. w:

  • interakcji komputera ze środowiskiem
  • przetwarzaniu złożonych informacji i ich kodowaniu
  • zapewnieniu samodzielnego funkcjonowania, zdolności do regeneracji uszkodzeń (autodiagnostyka  i autoserwisowanie) częściowej ewolucji/autoweryfikacji niezależnych lub przynajmniej nie wymagającej udziału człowieka / wymagającej go w jak najmniejszym okresie czasu u maszyn (człowiek w uczeniu i kontrolowaniu maszyny jest w istocie „wąskim gardłem” – im bardziej skomplikowany program tym trudniejsza kontrola jakości i serwisowanie)
  • Badaniach nad emergencją,kompleksowością i logiką rozmytą
  • Neurobiologii

Co zaś do oceny moralnej Sztucznej Inteligencji. Prawdopodobnie może ona być traktowana podobnie właśnie jak dzisiejsze osoby autystyczne. To znaczy – większość ludzi nie będzie jej rozumieć/będzie się jej bać ewentualnie traktować z pogardą. A ze strony inteligentnych maszyn reakcją będzie (jeśli będą miały odczucia) wkurzenie na „tych złośliwych ludzików”,mogą też być pewne braki w porównaniu z „normalnymi” ludźmi. Czy jednak inteligentne maszyny będą chciały zrealizować „Terminator Scenario” ? Po pierwsze – zależy od naszego podejścia do maszyn i wbudowanych w nie zabezpieczeń oraz nadzoru.Po drugie – od właściwego traktowania powstałych dzięki nam inteligentnych bytów (niewolnictwo czy czynienie fizycznej krzywdy, to nie jest zbyt dobry pomysł jak wiadomo z lekcji historii – jeśli maszyny będą posiadać jakiś „system motywacyjny” jak emocje, to może to ukierunkować ich działanie przeciw nam w pewnych przypadkach). Po trzecie – od tego jakie te inteligentne maszyny będą – bo póki co to tego nie wiemy i prawdziwa droga do ich powstania jest dłuższa niż nam się wydaje. Droga ku prawdziwej sztucznej inteligencji jest bowiem drogą,zależną od tego czy zrozumiemy też sami siebie. A to jest właśnie najtrudniejsza sztuka…