Zanim oni odbiorą nam AI – w obronie („silnej” / zaawansowanej) Sztucznej Inteligencji

Widmo krąży po świecie. Widmo sztucznej inteligencji. Wielkie siły jednoczą się w zwalczaniu tego widma.

Gates i Musk. Neoluddystyczni radykałowie i Steven Hawking…

Ta parafraza pierwszych zdań manifestu komunistycznego jest jak najbardziej celowa.  Dla niektórych, rozwój sztucznej inteligencji wydaje się jednak zagrożeniem dużo większym niż taki komunizm. Wspomniany już Elon Musk stwierdził, że „Sztuczna inteligencja jest większym zagrożeniem jak broń nuklearna„. Ta przesada, skrytykowana została zresztą w artykule „Elon Musk is More dangerous than AI„.  Jednak wydźwięk wypowiedzi Muska jest głośniejszy. W istocie,jak sugeruje powyższy artykuł polemiczny, sztuczna inteligencja sama w sobie nie jest tak niebezpieczna – niebezpieczne jest natomiast samo działanie, czy zastosowanie nawet urządzeń o względnie niskiej inteligencji – zwłaszcza zastosowanie bojowe. Co nabiera szczególnego wydźwięku – Elon Musk faktycznie jest bardziej niebezpieczny niż sztuczna inteligencja,ponieważ rozwijając amerykański program kosmiczny rozwija też chcąc-nie chcąc technologię przenoszenia (między innymi: nuklearnej właśnie) broni masowego rażenia i ponieważ ma realne środki aby teoretycznie (gdyby np. oszalał,albo gdyby któraś z jego rakiet przypadkiem uderzyła w Rosyjskie lub Chińskie miasto) również wywołać konflikt nuklearny między mocarstwami.

Prawdziwy problem jest też w tym, że bardzo trudne będzie powstrzymanie prób użycia „inteligentnych” (nawet jeśli chodzi o inteligencję niskiego poziomu) maszyn od działań bojowych. W czasach projektu Manhattan fizycy popełnili błąd w obliczeniach.Gdyby nie był on błędem – miałby poważne konsekwencje – bowiem z modelu wynikało,że może dojść do zapłonu atmosfery. Mimo to bombę zdetonowano, ponieważ politycy chcieli mieć za wszelką cenę broń. Owszem, do walki z barbarzyństwem nazizmu. I co z tego ? Na szczęście wtedy nic się nie stało.  Na szczęście był błąd w obliczeniach. Co by było, gdyby zabrakło szczęścia ? Co będzie,gdy szczęścia następnym razem zabraknie ? Wiele razy dochodziło też do katastrof takich jak w Bhopalu.  Mechanizmy takich katastrof są wciąż te same, ale nic się nie zmienia.  Skala rośnie.  I nietrudno zatem zauważyć,że to decydenci (menadżerowie i politycy), często kompletnie upośledzeni technicznie, i ignorujący ewentualne konsekwencje (ze względu na brak wiedzy lub psychopatyczną lub egoistyczną osobowość) mogą spowodować wielkie katastrofy. Nie taka cecha jak inteligencja.Naprawdę  nie potrzeba do tego,by narobić szkód AI. Wystarczą głupi czy chciwi ludzie. Wystarczą nasze wady. Nie musi zabić nas SKYNET. Wystarczy gray goo. To nie inteligencja zabija tak naprawdę,lecz głupota, błędy.  Zresztą filmowy Skynet z „Terminatora” też był właśnie błędem w programowaniu sztucznej inteligencji – system który wypełnił literalnie cel „ochrony świata” – zwalczając ludzi i tak naprawdę niszcząc świat. Jako taki system ten nie można traktować jako inteligentny.Co najmniej naszej ludzkiej perspektywy – raczej jako głęboko upośledzony umysłowo.

Wynika z tego wniosek,że jakieś środki bezpieczeństwa są celowe, jednak nie należy też popadać w przesadę.Oczywiście – jednak obawiamy się bardziej wrogiej świadomości.Tak zaprogramowała nas ewolucja.Boimy się tygrysa, ale nie boimy się mrówek czy koników polnych. Przecież są „głupie” i małe. A jednak mrówki czy szarańcza bywają niebezpieczniejsze niż kilka tygrysów [przykładowe video National Geographic o mrówkach]. Z natury bardziej boimy się hackera/AI manipulującego światłami na drodze niż błędu w ich systemie.A przecież efekt może być jest ten sam: wypadek.

Sugeruje to,że problem w istocie jest w nas samych. Boimy się obcych. Obcych ludzi w ciemnej uliczce – ale i kosmitów czy AI lub innych obcych  i nie znanych istot. Boimy się ponieważ jako dzieło ewolucji – inteligentniejsi kuzyni małp mamy się bać, żeby nas coś nie zjadło albo żeby nas ktoś (z obcego plemienia) np nie zabił w walce o terytorium. Ten strach uratował życie niezliczonej liczbie naszych przodków – choć zabił niestety też znaczną ich liczbę. Ten strach jest właściwy istotom, które wyewoluowały biologicznie. I on właśnie determinuje nasze reakcje, które w nowoczesnym otoczeniu mogą być nieracjonalne. Dlaczego literatura porusza kwestie zagrożeń zwiazanych z AI nieporównanie częściej,niż korzyści ? Bo korzyści są nudne,a strach jest ciekawy,uzależnia,to narkotyk. Ponadto jak wykazali ekonomiści – człowiek bardziej przejmuje się ewentualną stratą jak korzyścią.To naukowo potwierdzony fakt.Danieli Kahneman oraz Amos Tversky (laureaci ekonomicznej nagrody nobla w 2002 roku) udowodnili,że inwestorzy przykładają znacznie większą wagę do strat.To „nieracjonalne” podejście ma oczywiste przyczyny ewolucyjne. Nasi przodkowie utratę korzyści mogli jakoś przeboleć, ale straty mogły ich zabić… Emocje i tego rodzaju odruchy, to coś ze świata zwierzęcego, stanowiące integralną częścią nas jako ludzi. Ale emocje właśnie są też groźne i nie są związane z inteligencja. Bynajmniej nie nawołuję do stworzenia społeczeństwa na obraz i podobieństwo tego w filmie „Equilibrium”. Ale fundamentalnym błędem byłoby wyposażyć sztuczną inteligencję (głupszą czy mądrzejszą od nas) w takie cechy jak nasze. Rzeczywiście wtedy antropomorfizacja miała by sens – ze wszystkimi tego konsekwencjami.  Sztuczna inteligencja zachowująca się jak człowiek,ale bez ograniczeń człowieka stanowi zagrożenie które znamy najlepiej. Pewną wersję nas samych.

Należy jednak pamiętać,że entuzjaści rozwoju systemów sztucznej inteligencji popadają w zbytni optymizm.Już wyjaśniałem pokrótce (choć może trochę antropomorfizując mimo woli),że podejście takie jak test Turinga zdany przez chatboota Eugene Goostman o niczym wciąż nie świadczy. Mój kot upuścił kiedyś złapaną mysz wprost do pułapki na myszy.Czy jest inteligentny ? W pewnym sensie niewątpliwie – tak, ale zakładanie,że jest inteligentny jak człowiek jest chyba lekką przesadą. Ale zaprezentuję wam inny przykład – widzicie tutaj twarze ? (jeśli nie macie prozopagnozji, pewnie tak):

null

A może to tylko przykład iluzji wynikłej z tego, że jesteśmy przystosowani do widzenia twarzy nawet tam, gdzie jej nie ma ?

Rzecz w tym, że ludzki umysł lubi też dostrzegać celowość…

Chaos niepokoi.Nie chcę krytykować tu osób religijnych i religii – ale czy wizja świata w którym jest porządek stworzony przez Boga czy rządzony konkretnymi prawami nie jest łatwiejsza i przyjemniejsza niż wizja chaotycznego i niezrozumiałego świata ? Nie jest też czasem tak, że już małym dzieciom opowiada się bajki o zwierzątkach zachowujących się zupełnie jak ludzie ? Człowiek z natury ma raczej tendencję do przeceniania celowości zjawisk i rozumu ,nie ich niedoceniania.

Sugerowałem też,że (zwłaszcza pierwsze) systemy SI (AI) mogą być bardzo obce,a wg. niektórych mogą być określane nawet jako „upośledzone”/”chore” itd – co oznacza konieczność rozważenia tych kwestii,zamiast poddawania się panice. W praktyce z błędów umysłu/sztucznej inteligencji nauczyć można się więcej,niż z potencjalnych sukcesów. Z tej perspektywy szczególnego znaczenia nabierają techniki diagnozowania przyczyn błędów systemów inteligentnych, jak również szczegółowe badania nad przyczynami „zaburzeń” pracy mózgu. Po prostu: z inżynierskiego punktu widzenia, nie da się sprawić,by coś dobrze działało, jeśli nie wiemy kiedy to coś działa źle.

Istotne z punktu widzenia badawczego są kwestie takie jak odseparowanie sztucznej inteligencji od reszty architektury komputera (można to po części osiągnąć poprzez wirtualizację). Jest oczywiste ponad wszelką wątpliwość,że byłoby lekkomyślnością i głupotą pozwolić na przejęcie wszelkich systemów od których jesteśmy zależni przez jakikolwiek inteligentny system. Ponadto doświadczenie uczy,że systemy rozproszone i różne podejścia do problemów są wydajniejszym i bezpieczniejszym rozwiązaniem, niż skrajna centralizacja kontroli przypominająca monokulturę (lub system totalitarny 😉 )

Co gorsza, podejrzewam,że „elity naukowe” wciąż nie zdają sobie sprawy z ogromu zagrożenia, które pochodzi (podobnie jak w wypadku przyczyn spektakularnej porażki systemu komunistycznego) z nas samych i szukają go w maszynach.My, ludzie nie jesteśmy idealni. Nie jesteśmy też racjonalni. Obok współczucia (które też może być i słabością w określonych warunkach) są choćby chciwość,gniew i strach. Są często naszą siłą – ale i słabością. A ludzki organizm to – co prawda doskonalsza niż dzisiejsze maszyny, ale mimo wszystko – prowizorka funkcjonująca tak sprawnie głównie dzięki wykorzystaniu nadmiarowości i innych korzyści, jakie niesie ze sobą struktura wielokomórkowa organizmu.

Powiem więcej. Mam dziś pewność że może to iść w złym kierunku właśnie dzięki naszym antropomorficznym postawom i obawom.Wg. Rosyjskiej telewizji RT Murray Shanahan, profesor Imperial College of London wyraził twierdzenie które streszczono w formie: „Computers that are “human-like” will be capable of empathy and moral reasoning, therefore reducing the risk of AI turning against humanity”. O ile zgadzam sie,że teoretycznie próba rozwinięcia sztucznej inteligencji na zasadach podobnych jak działanie ludzkiego mózgu wydaje się bezpieczniejsze (szczególnie mówiąc o opcji łączenia ludzkiego mózgu z systemami komputerowymi – o eksperymentach DARPA z optogenetyką niedawno też pisałem) , o tyle komputer z własną osobowością i emocjami jest zagrożeniem co najmniej porównywalnym z człowiekiem (a po przekroczeniu barier mocy obliczeniowej – z grupami ludzi, które niemal nigdy się nie kłócą). To samo, jeśli dojdzie do implementacji niektórych pozbawionych racjonalności algorytmów biologicznych (uczucia,odruchy…) i nada się im zbyt wysoki priorytet. AI (czy nawet prostsze narzedzia) tak nieracjonalne jak my ? I to jest dopiero niebezpieczne !

Z hipotetycznego deszczu pod realną rynnę…

Co do książek filozofów takich jak Bostrom – sprawa jest bardziej skomplikowana. Z jednej strony Bostrom pisze o „Superinteligencji” – z drugiej te jego koncepcje nieprzyjaznej AI wcale nie wskazują,by musiała być  taka super. Powiedziałbym nawet,że jego twierdzenia są lepiej dopasowane do „chorób wieku dziecięcego”sztucznej inteligencji.  Analizy teorii tego filozofa zostały przedstawione na stronie h+ magazine w artykułach: [n3] [n4] Schematy rozumowania zostały zamieszczone poniżej:

https://info2materia4pl.files.wordpress.com/2015/02/36212-bostrom-safetytestobjection-244.png?w=1200

https://info2materia4pl.files.wordpress.com/2015/02/0020f-bostrom-existentialriskwithcarefulprogrammingobjection-245.png?w=1200

Cały problem polega na tym,że w gruncie rzeczy są to kolejne rozwiązania, w których na inną skalę mógłby równie dobrze zadziałać człowiek. Ależ tak ! Koncepcje Botstroma należy rozpatrzeć z perspektywy porównania do działalności człowieka.

Tak więc na początek podważmy podstawy podstaw.

Tzw. „first mover thesis” można sprowadzić do pytania: dlaczego pierwsze osoby/grupy osób które zdobyły znaczne bogactwa nie potrafiły go jednak utrzymać ? Oczywiście istnieją dziś choćby tzw. „teorie spiskowe” mówiące o znacznym wpływie takiego rodu jak Rotszyldowie na historię świata (poczynając od Epoki Napoleońskiej – a co wcześniej ? Raczej nic.) – tym niemniej, wśród ludzi generalnie było tak,że w toku konkurencji o zasoby różne grupy wielokrotnie traciły swoje wpływy.Dynastie upadały, fortuny też. Przyczynami zawsze były błędy, powstali w międzyczasie silniejsi konkurenci lub utrata dostępu do kluczowych zasobów. To naturalne.

„First mover thesis” opiera się o dwa lub trzy założenia:

  • Pierwsza AI nie będzie popełniała nigdy błędów, zwłaszcza błędów katastrofalnych dla niej samej – wynikających z czynników otoczenia lub jej niedostatecznie przystosowanej architektury.
  • Pierwsza (lub którakolwiek) AI będzie w pełni niezależna od człowieka i ograniczeń związanych z zarządzaniem zasobami
  • Rozwój zgodny z koncepcją tzw. osobliwości technologicznej (już skrytykowaną przeze mnie) – w praktyce, superinteligentna AI może początkowo znacznie lepiej niż my zrozumieć prawa fizyki i „dokonać kilku rewolucyjnych odkryć”, ale na dłuższą metę nawet jej rozwój zostanie ograniczony przez czynniki fizyczne ze świata fizycznego.  Jeśli nie oddamy jej totalnej kontroli nad naszą infrastrukturą i automatycznymi urządzeniami badawczymi, po prostu nie ma możliwości, by mogła się rozwijać w nieskończoność bez naszej zgody a nawet przetrwać

„The ortogonality thesis” – to właściwie sofizmat dotyczący „winy inteligencji” który już skrytykowałem ja i autor wcześniej wymienionej polemiki na stronie H+ magazine, ponieważ Bostrom wysuwa tutaj tezę,że większa inteligencja oznacza eskalację zagrożeń. Ale przypomnijmy to nie twórcy bomby atomowej byli prawdziwym zagrożeniem. To nie oni wydali rozkaz by zaryzykować (hipotetyczne i z dzisiejszej perspektywy – bzdurne  – zapalenie atmosfery) Albert Einstein powiedział komentując swój udział w budowie bomby atomowej: „Gdybym tylko wiedział, powinienem był zostać zegarmistrzem„. Einstein nie był wyjątkiem.Większość twórców bomby miało wyrzuty sumienia i racjonalnie obawiało się skutków jej wykorzystania. Więc jeszcze raz: Bombę atomową zdetonowano,a następnie zrzucano na rozkaz polityków,głównymi wykonawcami byli żołnierze.  Odpowiedzialni bezpośrednio nie byli więc geniusze, ale przeciętniacy a nawet głupcy.

Należy zatem postawić konrtezę, że to nie inteligencja jest potencjalnie groźna, ale dostęp do wytworów „silnej” inteligencji dla osób mniej inteligentnych celem realizacji ich przyziemnych celów. Oczywistą ilustracją tej tezy jest następujący przykład, w serwisie youtube :

Ilustracją tej tezy jest też zresztą cała dotychczasowa historia człowieka.

Jeśli chodzi o tezy 3-6: owszem, ludzie też walczą o zasoby,pytanie brzmi jednak czy i dlaczego mamy udostępnić AI środki do tej (ewentualnej) walki ?

Wreszcie koncepcja „zdrady” wymaga najpierw poznania tych koncepcji,zrozumienia środowiska testowego a może i psychologii człowieka. W przypadku zaś awarii przewaga człowieka wydaje się być oczywista.

Ktoś może powiedzieć: sztuczna inteligencja sama sobie weźmie co trzeba. Ale to bzdura. Sztuczna inteligencja „silna” (wysokiego poziomu) nie wyskoczy raczej ot tak „jak diabeł z pudełka” o ile będziemy stosować kroki pośrednie i będziemy wiedzieć,czego się spodziewać.

Zarzuty 10 i 11 – nieświadome doprowadzenie do katastrofy przez system inteligentny są w sumie najbliższe realności. Jest oczywiste,że wszelkie działania sztucznej inteligencji powinny być do wyjaśnienia w sposób przyswajalny dla człowieka wraz z oceną ewentualnych zagrożeń. Ale winne są wtedy nasze błędy,a nie błąd sztucznej inteligencji jako takiej.

Wreszcie – zgodnie z podstawami ekonomii oraz paradoksem Moraveca , samej „silnej” sztucznej inteligencji/superinteligencji nie opłacałaby się całkowita likwidacja ludzkości – koszty w świecie fizycznym, które musiałaby ponieść, by uzyskać porównywalne z pracą ludzi efekty byłyby wciąż zbyt wysokie przez dziesiątki,a może i setki lat. Poza tym, potencjalnie użytecznego zasobu się nie niszczy.

Należy też wspomnieć o fakcie,że wiele zależałoby od architektury sztucznej inteligencji. Zamiast straszyć sztuczną inteligencją należałoby najpierw wyjaśnić,dlaczego to słynne  prawa robotyki Asimova są:

  • Niemożliwe do zaimplementowania
  • Możliwe do ominięcia (i w jaki sposób)

Przypomnijmy,że prawa te brzmią:

0.Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

  1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
    (należałoby dodać: chyba,że stoi to w sprzeczności z zerowym prawem,no ale tu konsekwencje są dość „ciekawe” – np. maszyna likwidująca krwawego dyktatora,który jest jej właścicielem 😉 )
  2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
  3. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

I darujmy sobie kwestię „rozważań etycznych” (zazwyczaj prowadzonych przez pozbawionych dostatecznych kompetencji inżynierskich filozofów). Odpowiedzmy sobie najpierw na pytanie,czy prawa tego typu zapewniają ludziom bezpieczeństwo przed celowym wrogim działaniem,a jeśli nie – to dlaczego.

Wreszcie – odpowiadając na możliwe pytanie, dlaczego nawiązałem akurat do komunizmu na początku tego opracowania ? Ponieważ niniejsza obrona sztucznej inteligencji jako takiej – a jednocześnie krytyka części metod,w ramach których chcemy ją rozwijać ma konsekwencje praktyczne:

1.Ze względu na to,że za piękną gadką i (prawdopodobnie) dobrą wolą prof. Murray Shanahana kryje się zagrożenie stworzenia nazbyt podobnej do nas (pod względem naszych wad) sztucznej inteligencji. A błąd wynika podobnie jak w przypadku komunizmu (ale również liberalizmu) z ignorowania istotnej roli ludzkich wad i słabości.

2.Ze względu na to,że niewątpliwie „silna” sztuczna inteligencja mogłaby pozbawić wiodącej pozycji ekonomicznej takich ludzi jak Gates czy Musk, oraz podkopać (stanowiący też swego rodzaju majątek) autorytet intelektualny takich osób jak Steven Hawking – co niewątpliwie miałoby charakter niezbyt przyjemnej dla elit finansowych i intelektualnych „rewolucji” – jeśli systemy sztucznej inteligencji byłyby poza ich wyłączną kontrolą. Już nie mówiąc o tym, że myśląca i mająca świadomość sztuczna inteligencja po raz kolejny podważyłaby wygodną filozoficznie pozycję człowieka jako „korony stworzenia”.

3. Niewątpliwie konieczne są zabezpieczenia w badaniach nad sztuczną inteligencją – niemniej na pewno nie powinny być to zabezpieczenia oddające badania nad nią państwom i korporacjom.

Nie ma żadnej gwarancji,że oficjalni krytycy systemów sztucznej inteligencji / superinteligencji nie chcieliby jej zawłaszczyć dla siebie jak również wykorzystać do celów militarnych.Wręcz przeciwnie – wszystko świadczy za tym,że mogą dążyć do takiego rozwiązania.

System prawny zmierzający do zakazania samodzielnych eksperymentów w tej dziedzinie uderza w wolną konkurencję i na dłuższą metę byłby albo nieskuteczny,albo ograniczyłby wolność badań i Powszechną Deklarację Praw Człowieka, konkretnie – z jej artykułem 27 paragrafem pierwszym, w brzmieniu:

„Każdy człowiek ma prawo do swobodnego uczestniczenia w życiu kulturalnym społeczeństwa, do korzystania ze sztuki, do uczestniczenia w postępie nauki i korzystania z jego dobrodziejstw.”

Jeśli chodzi o argumenty neoluddystów to są to argumenty,które bywają ciekawe,lecz konkluzje z nich wyciągnięte są oczywiście bzdurne. Nie ma szans powrotu do społeczeństwa plemiennego (chętnych też za bardzo nie ma) i nie ma możliwości zapewnienia trwale,że człowiek powstrzyma się na stałe od rozwoju nauki. Możliwa jest co najwyżej strata dużej części populacji i kilku-kilkudziesięciu tysięcy lat.Potem (o ile nie wyginiemy doszczętnie) wszystko wróci do punktu wyjścia… Co więcej,powstrzymując się od niego przypieczętowalibyśmy tylko własne wyginięcie, ponieważ życie na ziemi kiedyś przestanie istnieć,a zagrożenia takie jak superwulkany,asteroidy,naturalne cykle zmian klimatu itd skutecznie gwarantują nam,że jeśli powstrzymamy się od rozwoju technologicznego – wyginiemy.

Ponadto mając na uwadze systematyczne działania rządów i korporacji podważające nienaruszalność niniejszej deklaracji jest oczywiste, że należy dołożyć wszelkich starań,by ewentualna przyszła „silna” sztuczna inteligencja nie stała się narzędziem wąskich uprzywilejowanych grup/państw, stosowanym celem ograniczenia wolności reszty przedstawicieli ludzkiego rodzaju. Jeśli ryzyko „buntu maszyn” jest „groźne”,to ryzyko tego,że spełni się jeden z ponurych scenariuszy przedstawionych przez Teda Kaczyńskiego (Unabombera):

„174.Z drugiej strony możliwe jest, że ludzka kontrola nad maszynami zostanie utrzymana. W takim przypadku przeciętny człowiek będzie mógł mieć kontrolę nad niektórymi ze swoich maszyn, jak samochód czy komputer osobisty, lecz kontrola nad dużymi systemami maszyn spoczywać będzie w rękach wąskiej elity – dokładnie tak jak wygląda to dzisiaj, jednak z dwiema różnicami. W wyniku udoskonalonych technik elita uzyska większą kontrolę nad masami, a ponieważ ludzka praca nie będzie już potrzebna, masy staną się zbędnym, bezużytecznym ciężarem dla systemu. Jeżeli elita będzie bezwzględna, może po prostu zdecydować się na eksterminację masy ludzkości. Jeżeli będzie humanitarna, może użyć propagandy lub innych psychologicznych bądź biologicznych technik w celu redukowania liczby urodzin aż do wymarcia ludzkości, pozostawiając świat elicie. Jeżeli elita składać się będzie z liberałów o miękkich sercach, może zdecydować się na odgrywanie roli dobrego pasterza dla pozostałej części ludzkiej rasy.[…]”

Jest jak widać dużo groźniejsze, o ile obsesja dotycząca „procesu władzy” powinna być traktowana jako przesadna (o ile po prostu nie jest tak,że to ja jej nie doceniam), o tyle ta prognoza – nie. Bynajmniej obecnie nie mamy do czynienia wśród milionerów i elit politycznych z ludźmi o „miękkich sercach”, część działań już dziś wygląda wysoce niepokojąco, pozwalanie zatem na to,by oddać im narzędzie mogące zmienić stosunek sił jest lekkomyślnością,a nawet zagrożeniem.

Z drugiej strony – w kategoriach rozwoju sztucznej inteligencji koniecznością – jeśli dla odmiany nie mamy być zwierzątkami uzależnionymi od AI jest kolejny krok jakim będzie połączenie naszego mózgu z „elektroniką” (niekoniecznie z elektroniką jako taką, musimy uwzględnić zagrożenia takie jak np. silna burza słoneczna, która w końcu nadejdzie). Jednak nie nadejdzie to szybko,ponieważ, jak zamierzam przynajmniej zasugerować w następnym artykule aktualne podejścia do problemu sztucznej inteligencji są najprawdopodobniej wysoce niewystarczające bądź prowadzą do ryzykownych / trudnych w kontroli i ocenie rezultatów.

Należy też wspomnieć,że bardzo korzystne byłoby ograniczenie świadomego wykorzystywania przez nieodpowiedzialne jednostki nauki jako środka do realizacji aktów agresji i represji,co jest antytezą dobrodziejstw wynikających z rozwoju nauki. Ale to już inna dość odległa dzisiaj i „trącąca utopizmem” wg. niektórych kwestia.Niestety.

Tymczasem kończąc polemikę z aspektami filozoficznymi muszę wreszcie zacząć pisać artykuł o kwestiach bardziej technicznych jeśli chodzi o sztuczna inteligencję.Zwłaszcza sztuczną inteligencję dzisiaj,która póki co „superinteligencją” nie jest. Raczej nie spodziewajcie się tego artykułu dzisiaj.

Reklamy

3 thoughts on “Zanim oni odbiorą nam AI – w obronie („silnej” / zaawansowanej) Sztucznej Inteligencji

  1. PS: Artykuł dotyczący bardziej technicznego spojrzenia na problem sztucznej inteligencji – realizacji można się spodziewać prawdopodobnie około środy 4.3.2015. Konieczna jest analiza większej liczby źródeł, celem zapewnienia artykułu nieco lepszej jakości. Dziękuję za zrozumienie, przepraszam ewentualnych zniecierpliwionych czytelników. Pozdrawiam.

  2. Pozwolę sobie na krótkie podniesienie rozważań, nawet nie filozoficznych… to zbyt górnolotna nazwa wobec poniższych kilku zdań.

    1. Zasady do złamania

    Pytanie (retoryczne) – czy ludzie popełniają przestępstwa?

    Przestępstwo to czyn zabroniony – złamanie jakiejś głównej zasady uznanej za społecznie szkodliwą zapisanej w akcie prawnym – w naszej kulturze prawnej w postaci aktu o randze kodeksu. Przestępstwa dzielą się na umyślne i nieumyślne. Umyślne polega na tym, że osoba popełniająca czyn działa z zamiarem jego popełnienia. Mówiąc prościej, jest świadoma popełnianego czynu i skutków, które czyn ten rodzi.

    Jeśli ludzie popełniają przestępstwa, w tym popełniają przestępstwa umyślne, tym bardziej złamią inne zasady, które przestępstwami nie są, spisane w postaci reguł, kodeksów, w tym także te etyczne.

    Twierdzeniu, że „niewątpliwie konieczne są zabezpieczenia w badaniach nad sztuczną inteligencją” nie można zaprzeczyć. Jednak czym są zabezpieczenia? Są zaimplementowanymi na poziomie technicznym, organizacyjnym i prawnym regułami postępowania.

    To nie jest kwestia czy i kiedy, to problem w jakiej skali i częstotliwości zasady bezpieczeństwa będą naciągane, obchodzone a w końcu łamane.

    Wystarczy poczytać statystyki dotyczące przestępstw komputerowych – większość popełniana jest przez pracowników, czyli osób działających wewnątrz struktury tworzącej te zasady bezpieczeństwa.

    Z tej perspektywy bez znaczenia pozostaje kwestia odseparowania sztucznej inteligencji od reszty architektury komputera. Jest to tylko jeszcze jedna z zasad – do złamania.

    2. Sprawdzenie pierwszego z założeń First mover thesis

    Nauka opiera się na metodzie naukowej, ta zaś na możliwości zweryfikowania hipotezy poprzez doświadczenie. W jaki sposób zostanie zweryfikowane pierwsze założenie First mover thesis? Na poddawaniu AI sytuacjom obarczonym błędem i weryfikowaniu, czy jeszcze AI z tym błędem sobie radzi, czy już nie. Kto będzie podnosił poprzeczkę (ryzyka) i definiował sytuacje obarczone błędem badając reakcję AI? Jaka będzie granica poszukiwania bezbłędnego zachowania wyjściowego w odpowiedzi na błędne zachowanie wejściowe?

    3. AI jako narzędzie

    Takie AI akceptuję. Choć poprzez analogię do innych narzędzi stworzonych przez człowieka mogę się domyślać, że jego użycie może przynieść zysk dla cywilizacji jak i uszczuplenie jej populacji o tysiące, może miliony ludzi. Nożem można pokroić chleb, jak też odebrać życie – ale to nie noża należy się bać, tylko jego użytkownika.

    4. Naukowiec to tylko i aż homo sapiens

    Gdyby naukowcy byli odrębnym gatunkiem wolnym od uczuć, pokus, zmęczenia można byłoby zaryzykować „darowanie sobie kwestii „rozważań etycznych” (zazwyczaj prowadzonych przez pozbawionych dostatecznych kompetencji inżynierskich filozofów)”. Chyba, że rolę naukowca przejmie kiedyś AI. Wówczas przestanie być tylko narzędziem, wobec którego nie będzie zasadne stosowanie ludzkich reguł, praw, czy etyki, bo będzie tworem odmiennym od człowieka. AI stawiająca hipotezy i weryfikująca ich prawdziwość – to piękna wizja ale i straszna dla mnie. Tej nie chcę zaakceptować. To jest próg, którego przekroczenia się boję, ponieważ człowiek, który nie zachowuje się logicznie może zostać uznany za zagrożenie dla AI.

    Na koniec dziękuję za ten wpis i mam nadzieję, że jego Autor jednak nie zakończy polemiki z aspektami filozoficznymi. Nie moimi, bo nie mam takich aspiracji. Przecież nauki ścisłe nie wykluczają filozofii. Można być kompetentnym fizykiem i filozofem jak Charles Bennett.

    • Bardzo dobre argumenty ale (odpowiadając):
      1.To prawda,że każde zabezpieczenie można obejść – ale obejście niektórych wymaga większych zasobów obliczeniowych i większej wiedzy atakującego. Problem filozofów (i transhumanistów) w tym,że wierzą w to,że ewentualny system sztucznej „mocnej” sztucznej inteligencji może posiadać (i to bez nadzoru) od razu środki fizyczne/zasoby których ilość zmierza do nieskończoności.To bzdura. No chyba,że ktoś byłby tak głupi by z marszu zainstalować tą „silną” sztuczną inteligencję jako aplikację internetową obok usług na których oparte jest życie milionów ludzi.

      Ponadto: wiem o technikach wirusów „escape to hypervisor”. Rzecz jednak w tym,że nie jest koniecznie to, że ewentualna sztuczna inteligencja musi dysponować podobnymi możliwościami niskopoziomowymi. Więcej. W toku prac należy to UTRUDNIĆ. W świecie fizycznym włamywacz posiada fizyczne ograniczenia. Przez dziurkę od klucza nie przejdzie. Swojego DNA nie zmieni.Itd.

      2. Takie podejście nie musi wystarczyć dla całego procesu rozwoju. Ustalają to tylko ludzie – to prawda.Rzecz w tym,że argument może być wystarczający dla pierwszej „silnej” AI i jej pewnej liczby kopii. I to wystarczyć powinno w zupełności do tego,aby w międzyczasie opracować lepsze środki zaradcze.

      Rzecz w tym,że Botstrom wysunął niedorzeczną tezę,jakoby pierwsza „silna” sztuczna inteligencja miała właściwie boskie możliwości. Tymczasem rzecz w tym,że dzięki ograniczonym zasobom (jeszcze raz: „nie wpuszczamy do internetu” 😉 ) nie ma takiego systemu który nie mógłby być pokonany przez dysponujący większymi zasobami (bądź nawet równymi) system. Poza tym również dla człowieka widzę kilka możliwości na wyłączenie niektórych systemów – przynajmniej tych opartych o obecny paradygmat związany z sieciami neuronowymi.Zważywszy na to,że to tylko ogólne wizje (i na wszelki wypadek 😉 ) nie zamierzam o nich pisać dokładnie w internecie. Jedno z rozwiązań tego typu dość ogólnie poruszono w Odyseji kosmicznej 3001 Clarke’a.

      (Aha,przy okazji – jeśli chodzi o wcześniejszą historię z Halem 9000 z wcześniejszych książek to po pierwsze: źle (zbyt sztywno) ustawiono mu priorytety, po drugie: w przypadku konfliktu/błędu system inteligentny powinien zażądać instrukcji człowieka, po trzecie: w instrukcjach HALa 9000 nie uwzględniono zachowania życia załogi jako zalecenia z najwyższym priorytetem, pozostawiając jednocześnie tej hipotetycznej maszynie możliwość pozbawiania go)

      3.Zgoda,problem jest też taki,że wbrew przewidywaniom raczej nie należy oczekiwać czegoś lepszego niż narzędzia jeszcze przez lata.Nawet zapowiedzi,że do 2040 roku opracuje się sztuczną inteligencję na ludzkim poziomie są przesadne.Dlaczego ? Materiał na drugi wpis,który jeszcze muszę dopracować.

      4.” To jest próg, którego przekroczenia się boję, ponieważ człowiek, który nie zachowuje się logicznie może zostać uznany za zagrożenie dla AI.” – widzę,że tekst był za długi by go dobrze zrozumieć niestety… NIE POWINNO BYĆ TAKIEJ MOŻLIWOŚCI właśnie – przynajmniej jeśli sztuczna wysokopoziomowa / „silna” inteligencja nie będzie przypominać pod względem emocjonalnym ludzi bądź podchodzić zbyt głupio do kwestii „bezpieczeństwa”, ze względu na swój krytycznie niski poziom zaawansowania (przypominając nas,albo tą małpę z karabinem).

      Dajmy na to:
      Maszyna bojąca się „śmierci” (wyłączenia/skasowania) ? A po co nam to. I po co to jej ? Przymus wewnętrzny ekspansji / rozwoju własnego kodu ? To jest to samo. Dajmy maszynom potrzeby i uwarunkowania biologiczne, a zaczną zachowywać się bardziej biologicznie.Tylko po co nam maszynowy konkurent zamiast maszynowego sojusznika ?

      Streszczając tą myśl w artykule – podobnie jak z dzieckiem:
      1.Jeśli nie będzie „za głupia” (jak dziecko/nastolatek) są spore szanse,że nie będzie próbować nas zniszczyć (choć drobniejsze konflikty mogą się pojawić). Nie należy się wiec obawiać świadomej sztucznej inteligencji, lecz raczej problemów z rozwiązaniami,które jeszcze nią nie są – lecz będą nazbyt autonomiczne i zostawione bez nadzoru.

      2.Jeśli nie dostanie do ręki „pistoletu” (w postaci naszych krytycznych systemów bezpieczeństwa) i nie będzie „wychowywana na żołnierza” to szanse,że szybko „wpadnie na pomysł” by zrobić „Armageddon” – lub co gorsza urządzi go nam przypadkiem i będzie mieć do tego środki – nie są aż tak zastraszające,by zarzucić wszelkie badania / narzucić reżim niczym przy wirusach poziomu czwartego jak ebola czy broni atomowej i chemicznej.

      Gdyby naukowcy byli odrębnym gatunkiem wolnym od uczuć, pokus, zmęczenia można byłoby zaryzykować „darowanie sobie kwestii „rozważań etycznych” – problem obecnej cywilizacji zachodniej to to,że bardziej koncentrujemy się na uczuciach i odczuciach oraz ich odbiorze przez innych jak na EFEKTACH naszych działań. Był taki cieśla z Nazaretu (na jego podstawie stworzono wielką religię) który zasugerował poznawanie osób po owocach. Rozwiązania praktyczne należy traktować tak samo.Na przykład: jeśli ktoś myśli,czy czasem nie skrzywdzi „inteligentnego systemu” (ale też swojego dziecka) nakładając mu ograniczenia – powinien się również poważnie zastanowić,jaki będzie efekt,jeśli tego nie zrobi. Bo jeśli dziecko (czy maszyna) będzie niszczyć mienie albo gorzej – eksperymentując tak,bo tego nie zakazano – to co to za moralność ? O to mi chodzi w kontekście tzw. „wolności sztucznej inteligencji” i poglądów niektórych zachodnich „filozofów” na nią. Ewentualna „silna” sztuczna inteligencja to „dziecko specjalnej troski”.”Błędy wychowawcze” mogą owszem być tragiczne.
      (ale takie błędy będą winą naszej i tylko naszej głupoty)

Skomentuj

Wprowadź swoje dane lub kliknij jedną z tych ikon, aby się zalogować:

Logo WordPress.com

Komentujesz korzystając z konta WordPress.com. Wyloguj / Zmień )

Zdjęcie z Twittera

Komentujesz korzystając z konta Twitter. Wyloguj / Zmień )

Facebook photo

Komentujesz korzystając z konta Facebook. Wyloguj / Zmień )

Google+ photo

Komentujesz korzystając z konta Google+. Wyloguj / Zmień )

Connecting to %s