Zanim oni odbiorą nam AI – w obronie („silnej” / zaawansowanej) Sztucznej Inteligencji

Widmo krąży po świecie. Widmo sztucznej inteligencji. Wielkie siły jednoczą się w zwalczaniu tego widma.

Gates i Musk. Neoluddystyczni radykałowie i Steven Hawking…

Ta parafraza pierwszych zdań manifestu komunistycznego jest jak najbardziej celowa.  Dla niektórych, rozwój sztucznej inteligencji wydaje się jednak zagrożeniem dużo większym niż taki komunizm. Wspomniany już Elon Musk stwierdził, że „Sztuczna inteligencja jest większym zagrożeniem jak broń nuklearna„. Ta przesada, skrytykowana została zresztą w artykule „Elon Musk is More dangerous than AI„.  Jednak wydźwięk wypowiedzi Muska jest głośniejszy. W istocie,jak sugeruje powyższy artykuł polemiczny, sztuczna inteligencja sama w sobie nie jest tak niebezpieczna – niebezpieczne jest natomiast samo działanie, czy zastosowanie nawet urządzeń o względnie niskiej inteligencji – zwłaszcza zastosowanie bojowe. Co nabiera szczególnego wydźwięku – Elon Musk faktycznie jest bardziej niebezpieczny niż sztuczna inteligencja,ponieważ rozwijając amerykański program kosmiczny rozwija też chcąc-nie chcąc technologię przenoszenia (między innymi: nuklearnej właśnie) broni masowego rażenia i ponieważ ma realne środki aby teoretycznie (gdyby np. oszalał,albo gdyby któraś z jego rakiet przypadkiem uderzyła w Rosyjskie lub Chińskie miasto) również wywołać konflikt nuklearny między mocarstwami.

Prawdziwy problem jest też w tym, że bardzo trudne będzie powstrzymanie prób użycia „inteligentnych” (nawet jeśli chodzi o inteligencję niskiego poziomu) maszyn od działań bojowych. W czasach projektu Manhattan fizycy popełnili błąd w obliczeniach.Gdyby nie był on błędem – miałby poważne konsekwencje – bowiem z modelu wynikało,że może dojść do zapłonu atmosfery. Mimo to bombę zdetonowano, ponieważ politycy chcieli mieć za wszelką cenę broń. Owszem, do walki z barbarzyństwem nazizmu. I co z tego ? Na szczęście wtedy nic się nie stało.  Na szczęście był błąd w obliczeniach. Co by było, gdyby zabrakło szczęścia ? Co będzie,gdy szczęścia następnym razem zabraknie ? Wiele razy dochodziło też do katastrof takich jak w Bhopalu.  Mechanizmy takich katastrof są wciąż te same, ale nic się nie zmienia.  Skala rośnie.  I nietrudno zatem zauważyć,że to decydenci (menadżerowie i politycy), często kompletnie upośledzeni technicznie, i ignorujący ewentualne konsekwencje (ze względu na brak wiedzy lub psychopatyczną lub egoistyczną osobowość) mogą spowodować wielkie katastrofy. Nie taka cecha jak inteligencja.Naprawdę  nie potrzeba do tego,by narobić szkód AI. Wystarczą głupi czy chciwi ludzie. Wystarczą nasze wady. Nie musi zabić nas SKYNET. Wystarczy gray goo. To nie inteligencja zabija tak naprawdę,lecz głupota, błędy.  Zresztą filmowy Skynet z „Terminatora” też był właśnie błędem w programowaniu sztucznej inteligencji – system który wypełnił literalnie cel „ochrony świata” – zwalczając ludzi i tak naprawdę niszcząc świat. Jako taki system ten nie można traktować jako inteligentny.Co najmniej naszej ludzkiej perspektywy – raczej jako głęboko upośledzony umysłowo.

Wynika z tego wniosek,że jakieś środki bezpieczeństwa są celowe, jednak nie należy też popadać w przesadę.Oczywiście – jednak obawiamy się bardziej wrogiej świadomości.Tak zaprogramowała nas ewolucja.Boimy się tygrysa, ale nie boimy się mrówek czy koników polnych. Przecież są „głupie” i małe. A jednak mrówki czy szarańcza bywają niebezpieczniejsze niż kilka tygrysów [przykładowe video National Geographic o mrówkach]. Z natury bardziej boimy się hackera/AI manipulującego światłami na drodze niż błędu w ich systemie.A przecież efekt może być jest ten sam: wypadek.

Sugeruje to,że problem w istocie jest w nas samych. Boimy się obcych. Obcych ludzi w ciemnej uliczce – ale i kosmitów czy AI lub innych obcych  i nie znanych istot. Boimy się ponieważ jako dzieło ewolucji – inteligentniejsi kuzyni małp mamy się bać, żeby nas coś nie zjadło albo żeby nas ktoś (z obcego plemienia) np nie zabił w walce o terytorium. Ten strach uratował życie niezliczonej liczbie naszych przodków – choć zabił niestety też znaczną ich liczbę. Ten strach jest właściwy istotom, które wyewoluowały biologicznie. I on właśnie determinuje nasze reakcje, które w nowoczesnym otoczeniu mogą być nieracjonalne. Dlaczego literatura porusza kwestie zagrożeń zwiazanych z AI nieporównanie częściej,niż korzyści ? Bo korzyści są nudne,a strach jest ciekawy,uzależnia,to narkotyk. Ponadto jak wykazali ekonomiści – człowiek bardziej przejmuje się ewentualną stratą jak korzyścią.To naukowo potwierdzony fakt.Danieli Kahneman oraz Amos Tversky (laureaci ekonomicznej nagrody nobla w 2002 roku) udowodnili,że inwestorzy przykładają znacznie większą wagę do strat.To „nieracjonalne” podejście ma oczywiste przyczyny ewolucyjne. Nasi przodkowie utratę korzyści mogli jakoś przeboleć, ale straty mogły ich zabić… Emocje i tego rodzaju odruchy, to coś ze świata zwierzęcego, stanowiące integralną częścią nas jako ludzi. Ale emocje właśnie są też groźne i nie są związane z inteligencja. Bynajmniej nie nawołuję do stworzenia społeczeństwa na obraz i podobieństwo tego w filmie „Equilibrium”. Ale fundamentalnym błędem byłoby wyposażyć sztuczną inteligencję (głupszą czy mądrzejszą od nas) w takie cechy jak nasze. Rzeczywiście wtedy antropomorfizacja miała by sens – ze wszystkimi tego konsekwencjami.  Sztuczna inteligencja zachowująca się jak człowiek,ale bez ograniczeń człowieka stanowi zagrożenie które znamy najlepiej. Pewną wersję nas samych.

Należy jednak pamiętać,że entuzjaści rozwoju systemów sztucznej inteligencji popadają w zbytni optymizm.Już wyjaśniałem pokrótce (choć może trochę antropomorfizując mimo woli),że podejście takie jak test Turinga zdany przez chatboota Eugene Goostman o niczym wciąż nie świadczy. Mój kot upuścił kiedyś złapaną mysz wprost do pułapki na myszy.Czy jest inteligentny ? W pewnym sensie niewątpliwie – tak, ale zakładanie,że jest inteligentny jak człowiek jest chyba lekką przesadą. Ale zaprezentuję wam inny przykład – widzicie tutaj twarze ? (jeśli nie macie prozopagnozji, pewnie tak):

null

A może to tylko przykład iluzji wynikłej z tego, że jesteśmy przystosowani do widzenia twarzy nawet tam, gdzie jej nie ma ?

Rzecz w tym, że ludzki umysł lubi też dostrzegać celowość…

Chaos niepokoi.Nie chcę krytykować tu osób religijnych i religii – ale czy wizja świata w którym jest porządek stworzony przez Boga czy rządzony konkretnymi prawami nie jest łatwiejsza i przyjemniejsza niż wizja chaotycznego i niezrozumiałego świata ? Nie jest też czasem tak, że już małym dzieciom opowiada się bajki o zwierzątkach zachowujących się zupełnie jak ludzie ? Człowiek z natury ma raczej tendencję do przeceniania celowości zjawisk i rozumu ,nie ich niedoceniania.

Sugerowałem też,że (zwłaszcza pierwsze) systemy SI (AI) mogą być bardzo obce,a wg. niektórych mogą być określane nawet jako „upośledzone”/”chore” itd – co oznacza konieczność rozważenia tych kwestii,zamiast poddawania się panice. W praktyce z błędów umysłu/sztucznej inteligencji nauczyć można się więcej,niż z potencjalnych sukcesów. Z tej perspektywy szczególnego znaczenia nabierają techniki diagnozowania przyczyn błędów systemów inteligentnych, jak również szczegółowe badania nad przyczynami „zaburzeń” pracy mózgu. Po prostu: z inżynierskiego punktu widzenia, nie da się sprawić,by coś dobrze działało, jeśli nie wiemy kiedy to coś działa źle.

Istotne z punktu widzenia badawczego są kwestie takie jak odseparowanie sztucznej inteligencji od reszty architektury komputera (można to po części osiągnąć poprzez wirtualizację). Jest oczywiste ponad wszelką wątpliwość,że byłoby lekkomyślnością i głupotą pozwolić na przejęcie wszelkich systemów od których jesteśmy zależni przez jakikolwiek inteligentny system. Ponadto doświadczenie uczy,że systemy rozproszone i różne podejścia do problemów są wydajniejszym i bezpieczniejszym rozwiązaniem, niż skrajna centralizacja kontroli przypominająca monokulturę (lub system totalitarny 😉 )

Co gorsza, podejrzewam,że „elity naukowe” wciąż nie zdają sobie sprawy z ogromu zagrożenia, które pochodzi (podobnie jak w wypadku przyczyn spektakularnej porażki systemu komunistycznego) z nas samych i szukają go w maszynach.My, ludzie nie jesteśmy idealni. Nie jesteśmy też racjonalni. Obok współczucia (które też może być i słabością w określonych warunkach) są choćby chciwość,gniew i strach. Są często naszą siłą – ale i słabością. A ludzki organizm to – co prawda doskonalsza niż dzisiejsze maszyny, ale mimo wszystko – prowizorka funkcjonująca tak sprawnie głównie dzięki wykorzystaniu nadmiarowości i innych korzyści, jakie niesie ze sobą struktura wielokomórkowa organizmu.

Powiem więcej. Mam dziś pewność że może to iść w złym kierunku właśnie dzięki naszym antropomorficznym postawom i obawom.Wg. Rosyjskiej telewizji RT Murray Shanahan, profesor Imperial College of London wyraził twierdzenie które streszczono w formie: „Computers that are “human-like” will be capable of empathy and moral reasoning, therefore reducing the risk of AI turning against humanity”. O ile zgadzam sie,że teoretycznie próba rozwinięcia sztucznej inteligencji na zasadach podobnych jak działanie ludzkiego mózgu wydaje się bezpieczniejsze (szczególnie mówiąc o opcji łączenia ludzkiego mózgu z systemami komputerowymi – o eksperymentach DARPA z optogenetyką niedawno też pisałem) , o tyle komputer z własną osobowością i emocjami jest zagrożeniem co najmniej porównywalnym z człowiekiem (a po przekroczeniu barier mocy obliczeniowej – z grupami ludzi, które niemal nigdy się nie kłócą). To samo, jeśli dojdzie do implementacji niektórych pozbawionych racjonalności algorytmów biologicznych (uczucia,odruchy…) i nada się im zbyt wysoki priorytet. AI (czy nawet prostsze narzedzia) tak nieracjonalne jak my ? I to jest dopiero niebezpieczne !

Z hipotetycznego deszczu pod realną rynnę…

Co do książek filozofów takich jak Bostrom – sprawa jest bardziej skomplikowana. Z jednej strony Bostrom pisze o „Superinteligencji” – z drugiej te jego koncepcje nieprzyjaznej AI wcale nie wskazują,by musiała być  taka super. Powiedziałbym nawet,że jego twierdzenia są lepiej dopasowane do „chorób wieku dziecięcego”sztucznej inteligencji.  Analizy teorii tego filozofa zostały przedstawione na stronie h+ magazine w artykułach: [n3] [n4] Schematy rozumowania zostały zamieszczone poniżej:

https://info2materia4pl.files.wordpress.com/2015/02/36212-bostrom-safetytestobjection-244.png?w=1200

https://info2materia4pl.files.wordpress.com/2015/02/0020f-bostrom-existentialriskwithcarefulprogrammingobjection-245.png?w=1200

Cały problem polega na tym,że w gruncie rzeczy są to kolejne rozwiązania, w których na inną skalę mógłby równie dobrze zadziałać człowiek. Ależ tak ! Koncepcje Botstroma należy rozpatrzeć z perspektywy porównania do działalności człowieka.

Tak więc na początek podważmy podstawy podstaw.

Tzw. „first mover thesis” można sprowadzić do pytania: dlaczego pierwsze osoby/grupy osób które zdobyły znaczne bogactwa nie potrafiły go jednak utrzymać ? Oczywiście istnieją dziś choćby tzw. „teorie spiskowe” mówiące o znacznym wpływie takiego rodu jak Rotszyldowie na historię świata (poczynając od Epoki Napoleońskiej – a co wcześniej ? Raczej nic.) – tym niemniej, wśród ludzi generalnie było tak,że w toku konkurencji o zasoby różne grupy wielokrotnie traciły swoje wpływy.Dynastie upadały, fortuny też. Przyczynami zawsze były błędy, powstali w międzyczasie silniejsi konkurenci lub utrata dostępu do kluczowych zasobów. To naturalne.

„First mover thesis” opiera się o dwa lub trzy założenia:

  • Pierwsza AI nie będzie popełniała nigdy błędów, zwłaszcza błędów katastrofalnych dla niej samej – wynikających z czynników otoczenia lub jej niedostatecznie przystosowanej architektury.
  • Pierwsza (lub którakolwiek) AI będzie w pełni niezależna od człowieka i ograniczeń związanych z zarządzaniem zasobami
  • Rozwój zgodny z koncepcją tzw. osobliwości technologicznej (już skrytykowaną przeze mnie) – w praktyce, superinteligentna AI może początkowo znacznie lepiej niż my zrozumieć prawa fizyki i „dokonać kilku rewolucyjnych odkryć”, ale na dłuższą metę nawet jej rozwój zostanie ograniczony przez czynniki fizyczne ze świata fizycznego.  Jeśli nie oddamy jej totalnej kontroli nad naszą infrastrukturą i automatycznymi urządzeniami badawczymi, po prostu nie ma możliwości, by mogła się rozwijać w nieskończoność bez naszej zgody a nawet przetrwać

„The ortogonality thesis” – to właściwie sofizmat dotyczący „winy inteligencji” który już skrytykowałem ja i autor wcześniej wymienionej polemiki na stronie H+ magazine, ponieważ Bostrom wysuwa tutaj tezę,że większa inteligencja oznacza eskalację zagrożeń. Ale przypomnijmy to nie twórcy bomby atomowej byli prawdziwym zagrożeniem. To nie oni wydali rozkaz by zaryzykować (hipotetyczne i z dzisiejszej perspektywy – bzdurne  – zapalenie atmosfery) Albert Einstein powiedział komentując swój udział w budowie bomby atomowej: „Gdybym tylko wiedział, powinienem był zostać zegarmistrzem„. Einstein nie był wyjątkiem.Większość twórców bomby miało wyrzuty sumienia i racjonalnie obawiało się skutków jej wykorzystania. Więc jeszcze raz: Bombę atomową zdetonowano,a następnie zrzucano na rozkaz polityków,głównymi wykonawcami byli żołnierze.  Odpowiedzialni bezpośrednio nie byli więc geniusze, ale przeciętniacy a nawet głupcy.

Należy zatem postawić konrtezę, że to nie inteligencja jest potencjalnie groźna, ale dostęp do wytworów „silnej” inteligencji dla osób mniej inteligentnych celem realizacji ich przyziemnych celów. Oczywistą ilustracją tej tezy jest następujący przykład, w serwisie youtube :

Ilustracją tej tezy jest też zresztą cała dotychczasowa historia człowieka.

Jeśli chodzi o tezy 3-6: owszem, ludzie też walczą o zasoby,pytanie brzmi jednak czy i dlaczego mamy udostępnić AI środki do tej (ewentualnej) walki ?

Wreszcie koncepcja „zdrady” wymaga najpierw poznania tych koncepcji,zrozumienia środowiska testowego a może i psychologii człowieka. W przypadku zaś awarii przewaga człowieka wydaje się być oczywista.

Ktoś może powiedzieć: sztuczna inteligencja sama sobie weźmie co trzeba. Ale to bzdura. Sztuczna inteligencja „silna” (wysokiego poziomu) nie wyskoczy raczej ot tak „jak diabeł z pudełka” o ile będziemy stosować kroki pośrednie i będziemy wiedzieć,czego się spodziewać.

Zarzuty 10 i 11 – nieświadome doprowadzenie do katastrofy przez system inteligentny są w sumie najbliższe realności. Jest oczywiste,że wszelkie działania sztucznej inteligencji powinny być do wyjaśnienia w sposób przyswajalny dla człowieka wraz z oceną ewentualnych zagrożeń. Ale winne są wtedy nasze błędy,a nie błąd sztucznej inteligencji jako takiej.

Wreszcie – zgodnie z podstawami ekonomii oraz paradoksem Moraveca , samej „silnej” sztucznej inteligencji/superinteligencji nie opłacałaby się całkowita likwidacja ludzkości – koszty w świecie fizycznym, które musiałaby ponieść, by uzyskać porównywalne z pracą ludzi efekty byłyby wciąż zbyt wysokie przez dziesiątki,a może i setki lat. Poza tym, potencjalnie użytecznego zasobu się nie niszczy.

Należy też wspomnieć o fakcie,że wiele zależałoby od architektury sztucznej inteligencji. Zamiast straszyć sztuczną inteligencją należałoby najpierw wyjaśnić,dlaczego to słynne  prawa robotyki Asimova są:

  • Niemożliwe do zaimplementowania
  • Możliwe do ominięcia (i w jaki sposób)

Przypomnijmy,że prawa te brzmią:

0.Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

  1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
    (należałoby dodać: chyba,że stoi to w sprzeczności z zerowym prawem,no ale tu konsekwencje są dość „ciekawe” – np. maszyna likwidująca krwawego dyktatora,który jest jej właścicielem 😉 )
  2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
  3. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

I darujmy sobie kwestię „rozważań etycznych” (zazwyczaj prowadzonych przez pozbawionych dostatecznych kompetencji inżynierskich filozofów). Odpowiedzmy sobie najpierw na pytanie,czy prawa tego typu zapewniają ludziom bezpieczeństwo przed celowym wrogim działaniem,a jeśli nie – to dlaczego.

Wreszcie – odpowiadając na możliwe pytanie, dlaczego nawiązałem akurat do komunizmu na początku tego opracowania ? Ponieważ niniejsza obrona sztucznej inteligencji jako takiej – a jednocześnie krytyka części metod,w ramach których chcemy ją rozwijać ma konsekwencje praktyczne:

1.Ze względu na to,że za piękną gadką i (prawdopodobnie) dobrą wolą prof. Murray Shanahana kryje się zagrożenie stworzenia nazbyt podobnej do nas (pod względem naszych wad) sztucznej inteligencji. A błąd wynika podobnie jak w przypadku komunizmu (ale również liberalizmu) z ignorowania istotnej roli ludzkich wad i słabości.

2.Ze względu na to,że niewątpliwie „silna” sztuczna inteligencja mogłaby pozbawić wiodącej pozycji ekonomicznej takich ludzi jak Gates czy Musk, oraz podkopać (stanowiący też swego rodzaju majątek) autorytet intelektualny takich osób jak Steven Hawking – co niewątpliwie miałoby charakter niezbyt przyjemnej dla elit finansowych i intelektualnych „rewolucji” – jeśli systemy sztucznej inteligencji byłyby poza ich wyłączną kontrolą. Już nie mówiąc o tym, że myśląca i mająca świadomość sztuczna inteligencja po raz kolejny podważyłaby wygodną filozoficznie pozycję człowieka jako „korony stworzenia”.

3. Niewątpliwie konieczne są zabezpieczenia w badaniach nad sztuczną inteligencją – niemniej na pewno nie powinny być to zabezpieczenia oddające badania nad nią państwom i korporacjom.

Nie ma żadnej gwarancji,że oficjalni krytycy systemów sztucznej inteligencji / superinteligencji nie chcieliby jej zawłaszczyć dla siebie jak również wykorzystać do celów militarnych.Wręcz przeciwnie – wszystko świadczy za tym,że mogą dążyć do takiego rozwiązania.

System prawny zmierzający do zakazania samodzielnych eksperymentów w tej dziedzinie uderza w wolną konkurencję i na dłuższą metę byłby albo nieskuteczny,albo ograniczyłby wolność badań i Powszechną Deklarację Praw Człowieka, konkretnie – z jej artykułem 27 paragrafem pierwszym, w brzmieniu:

„Każdy człowiek ma prawo do swobodnego uczestniczenia w życiu kulturalnym społeczeństwa, do korzystania ze sztuki, do uczestniczenia w postępie nauki i korzystania z jego dobrodziejstw.”

Jeśli chodzi o argumenty neoluddystów to są to argumenty,które bywają ciekawe,lecz konkluzje z nich wyciągnięte są oczywiście bzdurne. Nie ma szans powrotu do społeczeństwa plemiennego (chętnych też za bardzo nie ma) i nie ma możliwości zapewnienia trwale,że człowiek powstrzyma się na stałe od rozwoju nauki. Możliwa jest co najwyżej strata dużej części populacji i kilku-kilkudziesięciu tysięcy lat.Potem (o ile nie wyginiemy doszczętnie) wszystko wróci do punktu wyjścia… Co więcej,powstrzymując się od niego przypieczętowalibyśmy tylko własne wyginięcie, ponieważ życie na ziemi kiedyś przestanie istnieć,a zagrożenia takie jak superwulkany,asteroidy,naturalne cykle zmian klimatu itd skutecznie gwarantują nam,że jeśli powstrzymamy się od rozwoju technologicznego – wyginiemy.

Ponadto mając na uwadze systematyczne działania rządów i korporacji podważające nienaruszalność niniejszej deklaracji jest oczywiste, że należy dołożyć wszelkich starań,by ewentualna przyszła „silna” sztuczna inteligencja nie stała się narzędziem wąskich uprzywilejowanych grup/państw, stosowanym celem ograniczenia wolności reszty przedstawicieli ludzkiego rodzaju. Jeśli ryzyko „buntu maszyn” jest „groźne”,to ryzyko tego,że spełni się jeden z ponurych scenariuszy przedstawionych przez Teda Kaczyńskiego (Unabombera):

„174.Z drugiej strony możliwe jest, że ludzka kontrola nad maszynami zostanie utrzymana. W takim przypadku przeciętny człowiek będzie mógł mieć kontrolę nad niektórymi ze swoich maszyn, jak samochód czy komputer osobisty, lecz kontrola nad dużymi systemami maszyn spoczywać będzie w rękach wąskiej elity – dokładnie tak jak wygląda to dzisiaj, jednak z dwiema różnicami. W wyniku udoskonalonych technik elita uzyska większą kontrolę nad masami, a ponieważ ludzka praca nie będzie już potrzebna, masy staną się zbędnym, bezużytecznym ciężarem dla systemu. Jeżeli elita będzie bezwzględna, może po prostu zdecydować się na eksterminację masy ludzkości. Jeżeli będzie humanitarna, może użyć propagandy lub innych psychologicznych bądź biologicznych technik w celu redukowania liczby urodzin aż do wymarcia ludzkości, pozostawiając świat elicie. Jeżeli elita składać się będzie z liberałów o miękkich sercach, może zdecydować się na odgrywanie roli dobrego pasterza dla pozostałej części ludzkiej rasy.[…]”

Jest jak widać dużo groźniejsze, o ile obsesja dotycząca „procesu władzy” powinna być traktowana jako przesadna (o ile po prostu nie jest tak,że to ja jej nie doceniam), o tyle ta prognoza – nie. Bynajmniej obecnie nie mamy do czynienia wśród milionerów i elit politycznych z ludźmi o „miękkich sercach”, część działań już dziś wygląda wysoce niepokojąco, pozwalanie zatem na to,by oddać im narzędzie mogące zmienić stosunek sił jest lekkomyślnością,a nawet zagrożeniem.

Z drugiej strony – w kategoriach rozwoju sztucznej inteligencji koniecznością – jeśli dla odmiany nie mamy być zwierzątkami uzależnionymi od AI jest kolejny krok jakim będzie połączenie naszego mózgu z „elektroniką” (niekoniecznie z elektroniką jako taką, musimy uwzględnić zagrożenia takie jak np. silna burza słoneczna, która w końcu nadejdzie). Jednak nie nadejdzie to szybko,ponieważ, jak zamierzam przynajmniej zasugerować w następnym artykule aktualne podejścia do problemu sztucznej inteligencji są najprawdopodobniej wysoce niewystarczające bądź prowadzą do ryzykownych / trudnych w kontroli i ocenie rezultatów.

Należy też wspomnieć,że bardzo korzystne byłoby ograniczenie świadomego wykorzystywania przez nieodpowiedzialne jednostki nauki jako środka do realizacji aktów agresji i represji,co jest antytezą dobrodziejstw wynikających z rozwoju nauki. Ale to już inna dość odległa dzisiaj i „trącąca utopizmem” wg. niektórych kwestia.Niestety.

Tymczasem kończąc polemikę z aspektami filozoficznymi muszę wreszcie zacząć pisać artykuł o kwestiach bardziej technicznych jeśli chodzi o sztuczna inteligencję.Zwłaszcza sztuczną inteligencję dzisiaj,która póki co „superinteligencją” nie jest. Raczej nie spodziewajcie się tego artykułu dzisiaj.

Nowości w nauce,elektronice i bezpieczeństwie – 25.2.2015

Krótko bo mam mniej czasu:

Bezpieczeństwo-różne:

  • Od wczoraj dostępny jest system tails 1.3 – tym, którzy wiedzą o co chodzi z anonimowością w internecie nie trzeba go przedstawiać, pozostałych odsyłam do odpowiedniej strony anglojęzycznej wikipedii.
  • Niebezpiecznik, powołując się na naukowców z uniwersytetu Stanforda w ostatnich dniach informował – do śledzenia lokalizacji telefonu wcale nie jest potrzebny GPS. Z oryginalnymi badaniami można zapoznać się [tutaj].
  • Artykuł na phys.org sprzed tygodnia o problemach jakie władze napotykają w związku z próbą prowadzenia inwigilacji w deep web / dark web.
  • Jak informuje phys.org USA oferuje 3 mln dolarów za informacje na temat Jewgienija Michaiłowicza Bogaczewa, uważanego przez władze amerykańskie za administratora botnetu trojana Zeus. Co ciekawe uważa się,że mieszka on w Rosji, co trochę komplikuje sprawę (czyżby CIA/NSA/FBI planowało porwanie obywatela FR ?). Należy też przypomnieć o sprawie aresztowania syna członka rosyjskiej dumy (parlamentu). Władze FR twierdzą, że aresztowanie Romana Selezniewa było w istocie porwaniem,więc szanse na ewentualne wydanie Bogaczewa przez władze Rosyjskie są raczej małe.
  • Ciekawy artykuł na phys.org na temat problemów w zakresie systemów bezpieczeństwa i przyczyn, dla których nawet firmy będące liderami IT mają wciąż z tym problem.
  • Blackout w Polsce coraz prawdopodobniejszy w najbliższych latach – zaczynają o tym pisać również serwisy prorządowe, takie jak Defence24. Za sytuację odpowiada niedbalstwo polityków i szefów spółek pasożytujących na wybudowanym za czasów PRL systemie którego „jakoś” nie unowocześniano.

Nauka/Bezpieczeństwo:

  • Jak informuje phys.org opracowano nowy materiał polimerowy którego struktura,podobna do struktury odcisku palca zapobiegać ma możliwości dokonania fałszerstwa. Więcej można przeczytać w artykule: „Biomimetic microfingerprints for anti-counterfeiting strategies”,którego autorzy to: Hyang Jong Bea, Sangwook Bea, Cheolheon Park, Sangkwon Han, Junhoi Kim, Lily Nari Kim, Kibeom Kim, Suk-Heung Song, Wook Park, i Sunghoon Kwon, czasopismo” Advanced Materials”, 2015 DOI: 10.1002/adma.201405483″

Nauka:

  • Dwa ciekawe artykuły – rozważania na phys.org:
  •  Ciekawego odkrycia dokonali badacze Chińscy z uniwersytetu Tsinghua w Pekinie. Udoskonalili oni technologię znaną jako „fiber drawing” w sposób umożliwiający wytworzenie nanorurek o długości ponad pół metra. Odkrycie może zostać zastosowane w elastycznej elektronice nowej generacji.O elastycznej elektronice wspominałem niedawno. Więcej na phys.org i w artykule: Sihan Huang, et al. „Direct Writing of Half-Meter Long CNT Based Fiber for Flexible Electronics.” czasopismo „Nano Letters”, DOI: 10.1021/nl504150a”
  • Jak już jesteśmy przy papierze – badacze z University of California Riverside’s Bourns College of Engineering opracowali nowy przypominający papier materiał dla baterii litowo-jonowych. Więcej na phys.org i w artykule: „Towards Scalable Binderless Electrodes: Carbon Coated Silicon Nanofiber Paper via Mg Reduction of Electrospun SiO2 Nanofibers” czasopisma „Scientific Reports” (5, Article number: 8246 DOI: 10.1038/srep08246 )
  • Znaleziono najwytrzymalszy naturalny materiał. Są to zęby podobnego do ślimaków naturalnego organizmu, których wytrzymałość na rozciąganie sięga od 3 do 6,5 GPa. Więcej na phys.org i w artykule „Extreme strength observed in limpet teeth„.
  • Nowe mikroanteny mogą okazać się kolejnym krokiem w rozwoju technologii „lab on a chip”. Więcej na phys.org i w artykule „Optically resonant magneto-electric cubic nanoantennas for ultra-directional light scattering” czasopisma Journal of Applied Physics [można pobrać tutaj]
  • Naukowcy z John Hoppkins University opracowali rozwiąząnie, mające poprawić przepływ prądu w ultracieńkich przewodach nadprzewodników. Więcej na phys.org.

Elektronika:

  • Jak informuje phys.org firma Flex Logix twierdzi,iż znalazła nową tańszą metodę produkcji układów FPGA i zamierza zarabiać na udzielaniu licencji na ich producję. O firmie pisze również Electronics Weekly. Tym niemniej sprawa może mieć różny finał,ponieważ CEO tej firmy jest były CEO firmy Rambus , (jak również możliwe są z nią powiązania). Czy zastosowanie podobnego modelu firmy i tym razem może się skończyć kolejną serią batalii sądowych o patenty ? Zobaczymy.Oby nie. Nowość w układzie polega głównie na zastosowaniu centralnej magistrali.
  • Electronics Weekly pisze też o wprowadzonych poprawkach bezpieczeństwa do SoC ARM firmy Freescale Semiconductors.
  • Xilnix wprowadza mikroprocesory dla FPGA w technologii 16 nm.

Żeglując przez pustkę ? Technika żagla jako alternatywa dla napędu rakietowego

Teoretycznie epoka żaglowców to bardzo zamierzchłe czasy, dla niektórych okres 100-200 lat wydaje się to „prehistorią”,a istniejące stosowane dziś żaglówki – sportową zabawką i kaprysem bogaczy.

Tym niemniej w kosmosie sytuacja ma sie trochę inaczej. Wiatr słoneczny jest czynnikiem którego nie można lekceważyć, przynajmniej wewnątrz układów planetarnych takich jak nasz. Każda,nawet najmniejsza siła ciągu podczas lotu ma znaczenie. Dla niektórych wydać się może dziwne,że promieniowanie wywiera siłę. Nacisk światła ? Serio? Jak najbardziej. Jeśli pamiętacie lekcje fizyki,to może wspomniano na nich o czymś takim jak ciśnienie promieniowania. Co prawda nie jest ono zbyt duże, ale jeśli dysponuje się dużą powierzchnią to może wystarczyć, zwłaszcza, że w próżni nie ma oporów ośrodka – więc nawet stosunkowo mała siła to czysty zysk.

Na tej podstawie stworzono koncepcję żagla słonecznego. Pierwszą taką próbą miał być Cosmos-1. Niestety misja nie doszła do skutku (usterka rakiety). Pierwszą udaną misją była misja Japońskiej sondy IKAROS wystrzelona w 2010 roku. [artykuł JAXA] [Wikipedia] Niedługo po niej NASA wystrzeliła również sondę NanoSailD2 (poniżej „wizja artystyczna”):

Podstawowym problemem oprócz małego ciągu jest fakt,że dostępna energia maleje wraz ze wzrostem odległości od Słońca.Jako rozwiązanie tego problemu sugeruje się np. rozważenie naświetlania tego rodzaju żagla odpowiednią wiązką laserową.

Tak czy inaczej, głównym zastosowaniem technologii żagla słonecznego będą niewątpliwie sondy bezzałogowe a w przyszłości również kosmiczny transport towarowy.

Oczywiście istnieją i inne rozwiązania oparte na technice żagla – Plasma Sail i MagSail [ o żaglu magnetycznym można poczytać tutaj] – jednak to klasyczna koncepcja wydaje się najprostsza i najtańsza.Oczywiście nowe odkrycia w technikach rakietowych wcale nie gwarantują,że to żagiel będzie narzędziem taniej spedycji kosmicznej,a póki co stworzenie bazy na księżycu czy lądowanie na marsie to jeszcze kwestia przyszłości.Jednak na pewno tani transport kosmiczny będzie krytyczną kwestią przyszłej gospodarki – niezależnie od tego, kiedy ta przyszłość dokładnie nastąpi.

Singularity is NOT SO near – mit „osobliwości technologicznej”

W odpowiedzi na komentarz czytelnika kamil33 postanowiłem wyjaśnić kilka kwestii w sprawie błędnego mitu znanego jako „osobliwość technologiczna„.

Na początek – skąd bierze żywotność takich mitów. Wedle nie do końca zaakceptowanej  przez niektóre środowiska naukowe teorii memów (moim zdaniem krytyka tej teorii jako modelu – pomimo jego wad, jest przesadna), przykładami mempleksów osiągających uzyskujących sukces w środowisku (a co za tym idzie – replikację) są zwłaszcza religie i ideologie.

Jednym z krytycznych rdzeni wielu z tych religii i ideologii jest koncepcja nagrody.

W Chrześcijaństwie i Islamie (oraz chyba w Judaizmie) – jest to koncepcja raju/ trafienia do „królestwa Bożego”. Socjalizm/Komunizm oparty był na idei „społeczeństwa bezklasowego”. Liberalizm – na koncepcji  (według liberałów) uczciwego i samoregulującego się „wolnego rynku”. W przypadku transhumanizmu taki rdzeń motywujący, „nagrodę” ma stanowić osobliwość technologiczna. Wszystkie koncepcje „nagrody” sprowadzają się do podświadomego realizowania instrukcji zawartych w danym mempleksie w nadziei na „okres obfitości dla wszystkich / wybranych” będące spełnieniem archetypicznego marzenia o „rogu obfitości„.  Przede wszystkim – nie jest moim celem zwalczanie mempleksu transhumanistycznego, zwłaszcza,że zarówno idea powszechnego rozwoju technicznego i ostatni krytycyzm środowisk deklarujących się jako transhumanistyczne wobec ograniczonego dostępu osób zainteresowanych do narzędzi i idei technicznych jest ewidentną szansą przetrwania zagrożeń, które są problemami ludzkiego rozdzaju i jako takie są mi bliskie.

Z jednej strony – powstrzymanie rozwoju technicznego już teraz może okazać się śmiertelne dla większości populacji ludzkiej, a na dłuższą metę jest niemożliwe w ogóle ze względu na (wrodzoną dla istot myślących) ciekawość.  Z drugiej – monopolizacja wiedzy i zaawansowanych wytworów nauki i techniki w rękach ograniczonej i bynajmniej nie najinteligentniejszej grupy osób nazwijmy to „wysoce uzdolnionych w manipulacji społecznej” grozi w konsekwencji zagładą fizyczną lub intelektualną (sprowadzenie do roli tzw.”biomaszyn”) pozostałych grup. W praktyce, byłoby to sprowadzenie całego ludzkiego gatunku de facto do genetycznej lub intelektualnej monokultury – są to nawet bardziej szkodliwe niż pomysły ze „zjednoczonym światem” z jednym językiem. Chów wsobny jest ewidentnie szkodliwy dla rozwoju i przetrwania, a fakty wskazują, że jest tak nie tylko w środowisku genetycznym,ale i środowisku memetycznym.

Co jednak jest złego w micie „osobliwości technologicznej” ? Niewątpliwie zrodzi rozczarowanie i niepotrzebnie straszy niewiadomą ignorantów. Co gorsza, powodować też może ograniczenie naszych wysiłków, nad rozwiązaniem problemów teraźniejszości,skoro oczekuje się „technicznego raju” już w niedalekiej przyszłości (osobliwość prognozowano dotychczas już na lata 40-te lub 50-te XXI wieku.) Obawiam się zwłaszcza, że mit ten stworzyły osoby niedostatecznie znające istotne problemy i realia, zatem przynajmniej nie ma on szans spełnienia w tym stuleciu.Co więcej, przypuszczam, że „punkt/moment osobliwy” jeśli chodzi o rozwój nauki jest w praktyce nieosiągalny, pomimo możliwości zajścia istotnego przyspieszenia i istniejącego do niego znacznego,nie wykorzystanego (jednak skończonego) potencjału.

Tak więc mam złą i dobrą wiadomość:

  • Zła : Osobliwość w formie asymptotycznego przyspieszenia to najprawdopodobniej mit.
  • Dobra: Rozwój technologiczny nawet jeśli doświadczy znacznego spowolnienia, o ile nie napotka świadomego i trwałego przeciwdziałania (w tym unicestwienia gatunku ludzkiego), raczej nie powinien zostać całkowicie zatrzymany. Wszystko też wskazuje na to,że bynajmniej nie zostało jeszcze osiągnięte nawet podkrytyczne minimum realizacji dostępnego potencjału (określmy je angielskim skrótem od „subcritical minimum realization of (the) available potential„: SMR-of-AP). Minimum to z pewnego punktu widzenia będzie w istocie pod względem efektów przypominać stan bliski teoretycznemu okresowi osobliwemu (lecz nawet osiągnięcie stanu maksymalnego nie będzie równoważne z teoretycznym okresem „osobliwym”)

Dlaczego osobliwość to zatem mit ? Zapoznajmy się ze skrótowymi opisami kwalifikacji 2 istotnych postaci odpowiadających za tą koncepcję:

Bardzo mi przykro,ale ci ludzie pomimo ich znacznej inteligencji mają pewne braki – są w dużym stopniu teoretykami.

Co to w praktyce oznacza ? To,że mogli nie doceniać realnych,fizycznych zjawisk i warunków, które mogą stanąć na drodze przyspieszeniu w innych dziedzinach. Należy też po raz kolejny przypomnieć – prawo Moora pod pewnymi względami już nie obowiązuje. wbrew optymistycznym przewidywaniom ludzi takich jak Kurzweil, który był gotów rozszerzać je na inne dziedziny życia. Był to jeden z istotniejszych momentów, gdy „osobliwość” zderzyła się z fizyką.  Oczywiście nie znaczy to,że nie jest możliwe produkowanie urządzeń lepszych i o większej mocy obliczeniowej. Po prostu nową drogą stała się zmiana jakości i innych niż poprzednio kwestii ilościowych. Rozwój nauki wciąż jest dynamiczny. Ale koszty procesu ulepszania elektroniki znów rosną…

Przejdźmy jednak do bardziej bezpośrednich zarzutów. Jako były doktorant AGH, który porzucił dalsze studia (raczej mi to nie pomogło,zważywszy że z podjęciem pracy w sektorze prywatnym nie jest mi tak łatwo jak oczekiwałem) mam dość dobrze wypracowany pogląd na realny proces postępu technologicznego i wypracowałem sobie dość sceptyczne podejście do niektórych hurraoptymistycznych deklaracji. W teorii da się wszystko wiele zrobić, można stworzyć wiele nowych teorii. Symulacje komputerowe robi się całkiem szybko. „Wąskim gardłem” we wprowadzaniu nowych teorii są jednak realne eksperymenty.Wielokrotnie się już zdarzało w historii, że teoria z praktyką zderzały się w dość bolesny sposób. Jaka jest zatem różnica między modelem a światem realnym ? Być może, dla niektórych „fizyków teoretycznych” (a może filozofów fizyki ?) jest ona mniej ważna, w końcu ich przewidywania znacznie wyprzedzają wyniki eksperymentów 😉 (taki Bozon Higgsa co prawda znaleziono, ale w formie 2 maksimów w nieco różnych zakresach energetycznych) lecz w praktyce, to ona pozwala powiedzieć jaki model działa a jaki nie. Co zatem ogranicza fizycznie eksperymenty praktyczne ?

  • Koszt – im bardziej skomplikowany eksperyment,tym drożej. Im drożej, tym mniej eksperymentów można wykonać dysponując danymi środkami. Ograniczenia finansowe badań są wszystkim tym,co określa jakość i niezbędny czas. Obniżenie całościowych kosztów badań (w wyniku powiedzmy – inflacji) o 50% wymaga realnego wzrostu gospodarczego o 100%.
  • Dostępność sprzętu i badaczy na czas eksperymentu – ilość potencjalnych wykonawców i sprzętu nie jest nieograniczona i nawet jeśli nie byłoby chorych biurokratycznych procedur na uczelniach, gdyby nawet rolę badacza w całości przejmowały roboty – określona liczba badaczy/maszyn wykonać może tylko skończoną liczbę eksperymentów których czas nie zawsze może być redukowany. Dodam brutalniej – takie np. testy zmęczeniowe i inne testy długoterminowych zjawisk niszczenia materiałów zawsze potrzebują dużego czasu.Pewna minimalna choć niezawodność jest konieczna. W dodatku dochodzi konieczność otrzymania powtarzalnych wyników.
  • Ograniczenia związane ze zmianami w funkcjonowaniu obiektów w skalach bliskich skalom atomowym.
  • Ograniczenia aktualnego sprzętu badawczego i czas jego wymiany na nowy – wbrew pozorom po osiągnięciu pewnego poziomu dokładności sprzętu i stopnia jego komplikacji nie jest możliwe szybkie zwiększenie jego dokładności (koszt i czas modernizacji). Załóżmy,że pomimo wszystko koszt nie gra roli, tak samo jak dostępność sprzętu i badaczy.

Klasycznym przykładem problemu badawczego który napotyka na takie problemy – pomimo tego,że mógłby dać wręcz kolosalny skok technologiczny jest kwestia reaktora fuzyjnego. Koszta projektu ITER są olbrzymie, a  mimo wejścia na ten rynek i innych firm i instytucji oraz wprowadzenia alternatywnych koncepcji, masowe wprowadzenie tokamaków do użytku może bynajmniej nie nastąpić w terminie 10 lat w wariancie optymistycznym. Wariant pesymistyczny jest gorszy – koncepcję tokamaka wymyślono już 50 lat temu i do tej pory są istotne problemy z jej realizacją w praktyce.

Warunki te można też przenieść w obszar świata przemysłowego:

  • Sprzęt/Produkt ma swój cykl życia i nie da się w nieskończoność skracać czasu życia produktu – fizyczne modernizacje są ograniczone przez minimalny akceptowalny czas życia produktu i koszt wymiany na nowy produkt – dodajmy do tego kwestię recyklingu i tego,że ilość surowców jest w większej skali efektywnie ograniczona kosztem i czasem wydobycia/przetworzenia/logistyki.
  • Jeśli produkt nowej generacji zostanie rozwinięty w czasie krótszym,niż czas życia produktu, a tym bardziej w czasie,gdy nie pokryte zostały koszty wytworzenia produktu generacji poprzedniej w przypadku wprowadzenia nowego produktu przed czasem dojść może ekonomicznie co najmniej do swego rodzaju „subiektywnej straty” – jeśli nie w przypadku firmy producenta,to przynajmniej konsumenta który zakupił produkt.Nawet jeśli zignorujemy ten problem współczesnej ekonomii niewątpliwie pozostaje kwestia celowości wymiany danego produktu na produkt danej generacji jeśli można by oczekiwać, że przed końcem czasu życia starego produktu pojawi się nowsza generacja. (Skomplikowane ? Można tego doświadczyć również grając w prostą grę systemu Linux o nazwie [co szczególnie ironiczne – bo daje przykład realnych problemów uderzających w oryginalną wersję tej idei] „Singularity”. W pewnym momencie nie jest celowe „wymiany komputera” na nowszą generację,lecz lepsze wydaje się „przeskoczenie” generacji,ponieważ czas byłby zbyt istotnym „kosztem alternatywnym”. Tak samo jest zresztą z systemami innych urządzeń pracujących długotrwale – np. pompy,elektrownie itd).
  • Ilość surowców jest ściśle ograniczona, jak na razie niedostępne są metody pozwalające odzyskiwać blisko 100% wszystkich materiałów. W dodatku II zasada termodynamiki komplikuje tu nam szyki i należy oczekiwać,że 100% sprawność odzyskiwania materiałów może być efektywnie trudno osiągalna w praktyce – a co za tym idzie wymiana surowców nie może być coraz częstsza,lecz musi napotkać na jakąś racjonalną granicę
  • Termodynamiczne i energetyczne koszty „naciągania praw fizyki” – praw fizyki nie można zmienić, można natomiast wykorzystywać fizyczne „kruczki prawne”. To na takich rzeczach opiera się np. fotowoltaika. Jednak coś za coś. Fotowoltaika tak jak i produkcja mikrochipów wymaga np. ściśle kontrolowanego środowiska i technologii cleanroom. Im bardziej zaawansowana technologia, tym (generalnie) większe zużycie energii. Elektronika oparta na nadprzewodnikach być może zużyje jej mniej – ona jednak potrzebuje efektywnego chłodzenia,albo musi być wysłana w przestrzeń kosmiczną.

W fizyce – i realnym życiu – nie ma nic do końca za darmo.Zawsze jest jednak „coś za coś”. Niekiedy kosztu nie trzeba zapłacić bezpośrednio.Ale koszt zwykle jest. Warto mieć to na uwadze.

Pora jednak na treść bardziej optymistyczną. Co można zrobić,aby osiągnąć/przybliżyć wspomniane minimum podkrytyczne SMR-of-AP ?

Istnieją pewne trendy,które należy wspierać:

  • Redukcja wymogów biurokracji i optymalizacja wykorzystania urządzeń badawczych i produkcyjnych (minimalizacja przestojów badawczych i naprawdę zbędnych kosztów)
  • Lepsze zarządzanie czasem personelu badawczego i większa robotyzacja/automatyzacja badań – wykorzystanie robotów przemysłowych i algorytmów sztucznej inteligencji.
  • Podnoszenie masowego poziomu nauczania – w zakresie tak nauk technicznych jak i obsługi niskopoziomowych systemów „inteligentnych” (selekcja geniuszy nie wystarczy wobec nie docenionego ogromu koniecznych prac podstawowych, związanych np. z tzw. paradoksem Moraveca , zaś problem „wysokiej” sztucznej inteligencji jest najprawdopodobniej trudniejszy niż wydaje się entuzjastom – pomimo tego,że nie jest tak niemożliwy,jak twierdzą krytycy.
  • Efektywne zwiększanie prac w sektorze R&D w miarę automatyzacji przemysłu – częściowo zamiast przepływu do sektora tzw. usług, podnoszących w zasadzie poziom życia części społeczeństwa.Tzw. usługi, to w praktyce w większości przypadków konsumpcja środków, a nie sama akumulacja kapitału technologicznego i intelektualnego. Ze względu na społeczną rolę kapitału finansowego jest oczywiste, że intensyfikowana musi być również praktyczna wymiana wyników z sektorem usług,przemysłowym i rolniczym. R&D nie jest jednak usługą – to sektor zważywszy na system ekonomicznej wymiany teoretycznie deficytowy, choć w praktyce, to on jest podstawowym źródłem realnych zysków.
  • Ograniczenie czynników ekonomicznych, politycznych i ideologicznych zmierzających do ograniczenia przepływu informacji technicznej i jej wymiany w krótkoterminowym lub długoterminowym okresie czasu, oraz traktowania jej jako narzędzia władzy / przemocy ekonomicznej lub politycznej. Realny przepływ informacji ze względu na jej naturę sprawia,że kopiowanie i dzielenie się nią prowadzić może do przyrostu kapitału intelektualnego.
  • Ale także: ograniczyć dostęp informacji o charakterze krytycznym wszelkim czynnikom mogącym zagrozić realizacji powyższych celów, zwłaszcza celu poprzedniego.

Ciasteczka z Cykady.Nowe zagadki, tym razem nie od 3301.

Generalnie lubię zagadki,choć muszę przyznać,że w sensie programistycznym jestem jeszcze zbyt kiepski. Jednym z najciekawszych wyzwań, jakie pojawiało się ostatnio w internecie była działalność grupy Cicada 3301. Nikt nie wie, kim tak naprawdę są twórcy i pierwsi członkowie tej grupy, o jej zagadkach można więcej poczytać choćby na Cicada wiki. Dzięki zagadkom tej grupy można się nauczyć trochę o kryptografii,np użyciu takich narzędzi jak:

  • funkcja xor w programowaniu
  • Książka kodowa (używana w epoce sprzed wynalezienia komputerów jako podstawowe narzędzie)
  • steganografia,szczególnie przy użyciu aplikacji outguess
  • Algorytm Sharmir’s Secret Sharing Scheme.

I wielu wielu innych rzeczach. (mega)Lektura weekendowa Zaufanej Trzeciej Strony pozwoliła mi natrafić na artykuł na temat Marcusa Wannera, programisty który przez dłuższy czas pracował przy aplikacji, do której wykonania Cicada 3301 podobno rekrutowała ludzi (o ile TO był ostateczny cel). Z artykułu tego można dowiedzieć się, że aplikacja ta miałaby zostać zastosowana do ochrony whistle-blowerów, czyli ludzi podobnie jak Manning czy Snowden ujawniających ciemne sprawki rządów. Owocem prac zrekrutowanej grupy był tylko częściowo ukończony kod aplikacji CAKES – co jest skrótem od Cicada Anonymous Key Escrow System.Aplikacja ta miała w uproszczeniu działać prawdopodobnie jako tzw. „kill-switch” umożliwiający automatyczną publikację danych w wypadku aresztowania/uwięzienia/śmierci źródła „przecieku”. Cenne oprogramowanie.

Niestety nie ma lekko.Tego kodu nie znajdziemy raczej na githubie czy innym serwisie tego typu (wierzą w security through obscurity,czy chodzi o jakieś inne intencje ?). W istocie rekrutowany jest (prawdopodobnie przez Marcusa,ale pewności nie ma*) zespół,który ma tą aplikację dokończyć.

Kod został prawdopodobnie „gdzieś w sieci TOR”. Na stronie imgur początkiem miesiąca ukazał się obrazek,którego chyba już nie ma:

d5uoudn-imgur.jpg

Brak danych exif, jeśli cokolwiek jest zaszyte przy pomocy outguess (nie sprawdzałem tego odpowiednimi metodami), to wymaga to pewnie hasła, wymiary 450×450, rozmiar w bajtach nie jest liczbą pierwszą (debian,pod windows może inaczej?)

Inna wskazówka ukazywała się na tweeterze,np

profil DavidaKushner’a
treść:
„For those seeking #CAKES, Marcus Wanner sends this clue trxg7msuwt3inazn zcqvkanvy7aac46b #cicada3301 http://rol.st/157UQsl @rollingstone”
Po przeczytaniu artykułu łatwo było skojarzyć,że chodzi o adres strony w sieci tor.
W istocie wskazówka jest wręcz bardzo prosta,

prowadzi to do strony:

http://trxg7msuwt3inazn.onion/zcqvkanvy7aac46b/

(w czasie pisania artykułu była jeszcze aktualna)

brak dodatkowych danych w źródle strony, wyświetla się na czarnym tle treść:

-----BEGIN PGP SIGNED MESSAGE-----
Hash: SHA256

Hello. We are looking for a group to finish what was started. To find
its members, we have devised a test. This is a group challenge, with no
extra credit to the first. Effective solvers will work together.

r h t o t r p m W a s T : Z Q . / 8 / O ; B i @ & X " k n f f \ M Q s _ o
w 6 R t O o 7 n v m p ; U < f b ; | X ] I . I c | 9 N 3 " o c ? [ m n / A
O & t m p < , 9 9 < | @ 4 ` h ' L $ z ) i ] m m : D j E . . 7 T j _ p & B
k g a , I Q b g > 8 O H b Q m ! O B P I W = } 9 * " E 2 . T H 7 ~ | r v d

We are not who you call 3301, but we trust you will find this quest
interesting nonetheless.

This hidden message is prime for the taking. Good luck.

3301

-----BEGIN PGP SIGNATURE-----
Version: GnuPG v2

iQIcBAEBCAAGBQJUsK7aAAoJEAa9Rf0Os8ZO6iIQAJeFce/Mt2YAjqXv0gTF6igd
j2LQ3Cabx4bTYofcPjXrSMGO1j6mYCsbn0R/4kvfdNYwBJakbsAXf8EdzskXHLDO
tM/Il/DygQFXCZ11xRSH8HuNewOJa0GYEA85hOHKJAMfF0Clcayj0TI6HTc3dVG8
C4l5RX3Aem1s5f4VtojY0uD0ALu7nw7DqQMa8CDCi1lG6DBTgFhE03ArRIVJq6wm
j/lEjw0LoBb+F+ORKjFPzapZI8eJU+0+HWXOqoxzT90eP1MSbFd8gvWOl74Eszr5
pVZjF1uzsoy92VqRGb5mhnXVWXAUC+Pe6A3LCPguPVf9jIRfpXb/g3cnp7cvNh9H
LM+O24yERvbkE2YD5hnXK2Q1ggxy/zB8HdG8E0MQqVWCBGlSz1aECf7AQqreYB+6
G+93NURXIC2EOvDEoT51Lhlo+Ar6jd75c1OzzvOwQWABPRhi6HxNTRmaDu2fteIx
J5BmC9eKwvv8UzA/N5tpiG6VOWU0PkSEmsqiRSrpEOouSz1a8Q6rqd3BdromM0mP
rLur+Z+TWqFnmgDsmFtvz6SrwXK+uFD+eztWOdO8yp0Uq7PqVUiws+dr3x+vZ1Ue
I5TznWo6iLznjWLyVKF0MA+4H9OFp33y9qx6n+Q97Vb3NHGUaheb0pM0sDIGFm4E
qciijJeSuackEnsqs8Vy
=rvSG
-----END PGP SIGNATURE-----

Tej zagadki nawet nie próbowałem rozwiązać zbyt dokładnie, ponieważ nie nadaję się na developera tego rodzaju aplikacji, ze względu na zbyt małą wiedzę programistyczną. Dziś mając więcej do zrobienia ostatecznie podejrzewam,że nawet nie zdążę. Zresztą w obliczu problemów większej wagi dla mojej skromnej osoby – pora się całkowicie skupić na ważniejszych kwestiach (uwaga dla stałych czytelników: przypuszczam,że mogę ograniczyć się do blogowania tylko w soboty)

Kilka informacji:

1.Tekst składa się z 37 znaków (liczba pierwsza – może mieć znaczenie) w 4 wierszach2.Można darować sobie prymitywne zagranie w stylu „ukryte w tekście liczby”

8679399478927 Nie. dzielnik 805109

6799848993277 Nie. dzielnik 37

6799848992377 Nie. dzielnik 7

Ale sprawdzimy jeszcze: 6799848993277 przez 37

daje 183779702521 – ta niestety też nie jest pierwsza…

Nie testowałem liter „O” w wersji „0”.

xor i ssss też raczej nie pasują – lojalnie ostrzegam,że do tego miałem gotowe programy. (wiecie,to chwila szukania w necie)

3. Być może podpowiedź co do metody jest jednak w tekście dokładniejsza, jeśli się wczytać (sam mogę swoją teorię sprawdzić kiedy indziej,dosyć tych spoilerów).

Do przetestowania swojej teorii jednak wolałbym napisać program i nie spieszy mi się ostatecznie – aż tak mi nie zależy na zagadce. Zerknąć do kodu byłoby ciekawe, ale nie mam osobiście tyle zasobów czasu by go poświęcić w całości.

No ale dość spoilerów. – wszystkim zainteresowanym życzę udanego polowania.

*- miłośników teorii spiskowych może zainteresować fakt,że Marcus Wanner nosi takie samo imię „Marcus” jak główny bohater powieści „Mały Brat”/„Little Brother” na licencji CC, której autorem jest Doctorow Cory. Pan Wanner jest raczej rzeczywistą postacią (choć oczywiście w dobie wielkiego brata stworzenie wszelkiego nie tylko towarzyszów Oglivy’ch [patrz: Orwell, rok 1984] jest możliwe), zwłaszcza,że Marcus Wanner ma konto na githubie i stronę internetową , ale to doprawdy zabawne,że jego imię jest takie samo jak imie pana Yallow 😀 Ale może w końcu to przypadek, jak byłem młodszy zdziwiłem się trochę, że moja data urodzenia składa się z liczb pierwszych – gdy sprawdziłem dokładniej – średnio ok. 1 na 7 dni w roku daje liczby pierwsze…

Oczywiście, należy się też zastanowić jak się ma do #CAKES taki projekt futorcap ?