Nowości w bezpieczeństwie i nauce – 15.4.2015 (+małe uaktualnienie 16.4.2015)

Bezpieczeństwo:

Nauka:

  • Na phys.org ukazało się opracowanie pt. „Quantum Criticality in life’s proteins” – oryginalny artykuł „Quantum Criticality at the Origin of Life” dostępny jest na stronie arxiv.org. Artykuł ten jest bardzo istotny,ponieważ zwraca uwagę (i trochę omawia) istotny fakt – organiczne cząsteczki z których jesteśmy zbudowanie funkcjonują na granicy „dwóch światów” – kwantowego i klasycznego (w istocie to rozróżnienie jest użyteczne tylko dla nas,a fizycznie jest bez sensu,ale mniejsza o to)
  • Na phys.org ukazał się również artykuł o kamerze która sama jest swoim źródłem zasilania.Urządzenie opracowano na Columbia University,dostępny jest tam też artykuł pt. „Towards Self-Powered Cameras„.
  • Jak informuje phys.org badacze z Rice University prowadzili badania nad elektrycznymi właściwościami dwuwarstwowych nanorurek. Więcej na ten temat można przeczytać w artykule: „Effect of interwall interaction on the electronic structure of double-walled carbon nanotubes.” czasopisma „2015 Nanotechnology” 26 165201 DOI: 10.1088/0957-4484/26/16/165201 [artykuł IOP-Science]
  • Również na phys.org ukazał się artykuł sugerujący,że cienka warstwa kobaltu może być interesującym katalizatorem.Więcej w artykule: „Porous Cobalt-Based Thin Film as a Bifunctional Catalyst for Hydrogen Generation and Oxygen Generation”, czasopisma „Advanced Materials”. DOI: 10.1002/adma.201500894
  • Innym ciekawym artykułem na stronie phys.org jest „Light in a spin: Researchers demonstrate angular accelerating light” – oryginalny artykuł to „Accelerated rotation with orbital angular momentum modes” czasopisma: Phys. Rev. A 91, 043821 – autorzy: Christian Schulze, Filippus S. Roux, Angela Dudley, Ronald Rop, Michael Duparré, i Andrew Forbes, dx.doi.org/10.1103/PhysRevA.91.043821
  • Ciemna materia nie taka ciemna ? Może i tak. Można o tym przeczytać na phys.org i w artykule: „The behaviour of dark matter associated with 4 bright cluster galaxies in the 10kpc core of Abell 3827”, czasopismo: Monthly Notices of the Royal Astronomical Society, DOI: 10.1093/mnras/stv467
  • Ciekawy jest też dostępny na phys.org artykuł „New method to engineer surfaces along multiple directions in a nanowire” – więcej przeczytać można w artykule „Coaxial lithography” czasopisma Nature Nanotechnology 10, 319–324 (2015) DOI: 10.1038/nnano.2015.33
  • Jeszcze istotniejsze jest również dostępne na phys.org opracowanie „Researchers find a way to convert waste heat to electricity at nano-scale” i artykuł bazowy: „Voltage Fluctuation to Current Converter with Coulomb-Coupled Quantum Dots”, czasopisma Physical Review Letters 114, 146805 – Published 10 April 2015. DOI: 10.1103/PhysRevLett.114.146805

Arxiv – nowe artykuły:

Informatyka:

Materiały i nanomateriały:

Inne:

MIT News – ciekawy artykuł o studentach MIT którzy 10 lat temu opracowali aplikację do generowania fałszywych artykułów naukowych

Elektronics Weekly – artykuły:

UAKTUALNIENIE 16.4.2015:

Arxiv – artykuły:

Bezpieczeństwo i kryptografia:

Sztuczna inteligencja:

Inżynieria oprogramowania:

Nowości w bezpieczeństwie i nauce – stan 26.3.2015

Bezpieczeństwo:

Co tam ciekawego na arxiv w bezpieczeństwie i kryptografii:

  • Ostatnio na zaufanej trzeciej stronie opublikowano artykuł pt.: „Komunikacja między izolowanymi komputerami przez sygnatury cieplne„. Wygląda na to,że na arxiv.org pojawił się nowy artykuł [PDF] na podobny temat – tym razem o procesorach wielordzeniowych. Podczas,gdy z3s pisze o wycieku rzędu 8 bitów na godzinę, omówiony artykuł wspomina o wycieku danych rzędu nawet 12,5 bps. (bitów na sekundę !)
  • Ciekawy jest również artykuł o sieciach LBSN (Location Based Social Networks). [PDF] . Dotyczy on identyfikacji osób na podstawie danych lokalizacyjnych i być może ma zastosowanie nie tylko przy zwykłych sieciach społecznościowych. Tym którym nie chce się czytać całego artykułu dam drobną (choć przewidywalną i oczywistą) wskazówkę – wybierane sklepy czy mniej popularne obiekty zwiększają szansę na bycie zidentyfikowanym.
  • Artykuł o Riposte – ciekawym systemie anonimowej komunikacji który ma być odporny (a przynajmniej bardziej odporny) na analizę ruchu sieciowego [PDF]. Być może system nie jest dopracowany,a sam autor,Henry Corrigan-Gibbs zamierza jego koncepcje przedstawić dopiero 27 kwietnia na konferencji 2015 Security workshop odbywającej się na Uniwersytecie Stanforda. Aktualny kod jest dostępny [tutaj] – jednak NIE JEST AKTUALNIE BEZPIECZNY wg. autora i nie może podobno nadal stanowić wersji rozwojowej.
  • Ciekawy artykuł z wytycznymi dotyczącymi bezpieczeństwa w projektowaniu aplikacji mobilnych na smartfony – artykuł „Application Security framework for Mobile App Development in Enterprise setup” [PDF]

Osobom którym to nie wystarcza polecam przeglądnięcie działu Cryptography/Security samodzielnie.

Phys org – bezpieczeństwo:

  • Artykuł „How safe is encryption today ?” – czyli rozważania o współczesnej kryptografii
  • Artykuł „Does your password pass muster ?” – streszczając do jednego zdania: strony WWW określające czy hasło jest wystarczająco dobre nie określają wystarczająco jakości hasła a ich pomiary różnią się znacznie.
  • Artykuł o Pwn2Own exploit competition – Nie ważne,czy Internet Explorer, Chrome, Safari i Firefox.Przełamano każdą. Odpowiednio przedstawiono: 4 Exploity na IE,3 na FF, 2 na Safari,1 exploit na Chrome.

Bugtraq (25.3.2015):

Nauka:

  • Jak podaje phys.org, Fizykom z MIT i Uniwersytetu w Belgradzie udało się dokonać splątania kwantowego prawie 3000 atomów. Więcej na phys.org , stronie MIT News i w artykule „Entanglement with negative Wigner function of almost 3,000 atoms heralded by one photon”  czasopiśma Nature. – wykorzystanie ? Precyzyjniejsze zegary atomowe (a to tylko przykład)
  • A tymczasem, badacze z Singapuru opracowali koncepcję powłoki która ma uniemożliwić (albo choć jeszcze bardziej utrudnić) wykrycie obiektu pod wodą za pomocą sonarów.Więcej na phys.org. Oryginalny artykuł jest też dostępny na arxiv.org [PDF]
  • Phys.org opisuje nowe podejście do elektrod, możliwych do zastosowania w ramach implantu neuralnego. Nowe podejscie zakłada wykorzystanie włókien nanorurek.Więcej na phys.org i w artykule „Neural Stimulation and Recording with Bidirectional, Soft Carbon Nanotube Fiber Microelectrodes” czasopisma ACS Nano, DOI: 10.1021/acsnano.5b01060
  • Jak informuje MIT NEWS Michael Stonebreaker otrzymał nagrodę Turinga. Nagrodę przyznano za jego istotny wkład w rozwój narzędzi bazodanowych.

Nowości z arxiv dla programistów:

Arxiv – sztuczna inteligencja i nie tylko:

Jeśli chodzi o klastry obliczeniowe polecam artykuł:

Preparing HPC Applications for Exascale: Challenges and Recommendations

Inne:

  • Jak informuje phys.org, firma liquiguide wprowadza nową powłokę superhydrofobową.Materiały superhydrofobowe są bardziej hydrofobowe niż większość materiałów,co oznacza,że woda czy inne płyny praktycznie do nich nie przylegają 🙂
  • Nowe chipy Toshiby typu V-NAND o 48 warstwach – więcej na stronie Electronics Weekly
  • Texas Instruments wprowadza nową wersję 32-bitową kontrolera
    ARM Cortex-M4F z rodziny MSP430.Podobno bez zwiększenia zużycia prądu.Więcej na stronie Electronics Weekly.

Nowości w nauce i bezpieczeństwie – 7.3.2015 (i update: 9.3.2015)

EDIT 9.3.2015 (nie będę z tego nowego wpisu robił):

  • Niechcący pominięte: Na phys.org ukazał się artykuł o pierwszym kwantowym układzie scalonym z układem korekcji. Pomimo tego,że jeszcze nie znaleziono sposobów na wszystkie błędy – jest to ważne osiągnięcie. Artykuł ten można znaleźć w bieżącym wydaniu Nature oraz na stronie arxiv.org.
  • Ukazało się godzinę temu na phys.org – artykuł na temat kwantowego filtra częstotliwości dla zegarów atomowych – również na arxiv.org.
  • Wreszcie – również na phys.org opisano dostępny również w serwisie arxiv.org artykuł na temat przełomu w sensorach (ale nie tylko) opartych o splątanie kwantowe.
  • Ciekawy artykuł phys.org o sondzie NASA która prowadziła badania Ceres i posiadała silnik jonowy.

7.3.2015:

Bezpieczeństwo:

  • Na phys.org znalazłem ciekawy artykuł o ostatnim wzroście tendencji w stosowaniu technologii biometrycznych w systemach bezpieczeństwa.Czy biometria jednak faktycznie zapewnia bezpieczeństwo ? Tak i nie.Istnieje wiele prostych metod na oszukanie tańszych urządzeń biometrycznych.
  • Serwis phys.org opublikował również artykuł na temat rosnącego zagrożenia atakami na smartfony.
  • Również phys.org opublikował listę najczęściej używanych „najniebezpieczniejszych” narzędzi hackerskich. Na liście znalazły się (bez dużych niespodzianek): nmap i wikto (windowsowa wersja nikto) oraz LOIC. Ponadto wymieniono również narzędzia: SQLmap (narzędzie powiązane z techniką SQL injection) i narzędzie internetowe PunkSpider. Osobiście nie wiem,czy artykuł ten jest aż tak miarodajny. UWAGA: użycie tych narzędzi w internecie może być potencjalnie złamaniem prawa.

Nauka (i nie tylko):

  • Reklamowany koenzym Q10 jest prawdopodobnie do niczego wg. nowych badań.Więcej na stronie Medicalxpress i w artykule:””Mitochondrial function and lifespan of mice with controlled ubiquinone biosynthesis”, Ying Wang, Daniella Oxer & Siegfried Hekimi, Nature Communications, published online March 6, 2015. DOI: 10.1038/ncomms7393
  • Phys.org/Medicalxpress wspomina również o wynalezieniu polimeru który ma przyspieszać krzepnięcie krwi i tym samym gojenie się ran. Fajna sprawa,może uratować wiele istnień ludzkich. Więcej – artykuł: „A synthetic fibrin cross-linking polymer for modulating clot properties and inducing hemostasis”, Sci Transl Med 4 March 2015: Vol. 7, Issue 277, p. 277ra29 . DOI: 10.1126/scitranslmed.3010383
  • Kwantowa temperatura ? Artykuł na Phys.org oparty na podstawie badań opublikowanych w artykule „Tunable quantum temperature oscillations in graphene nanostructures.” czasopisma Physical Review B. sugeruje,że w grafenie efekty kwantowe odgrywają swoją rolę przy transporcie ciepła. Niby jak „jajko Kolumba” nie jest to zadziwiające,ale jest istotne. Zastosować to można choćby przy chłodzeniu mikroprocesorów
  • Na stronie MIT news opublikowano artykuł na temat stosunkowo nowego osiągnięcia w zwalczaniu lekooodpornej wersji raka. Byłoby niezmiernie miło,gdyby następnym odkryciem było coś takiego przeciw lekoodpornym bakteriom,bo jeśli antybiotyki przestaną za jakiś czas działać medycynę czeka regres.
  • Ładunki wybuchowe oparte o fullereny takie jak C60 mogą nieść bardzo niszczącą moc,jak wskazuje symulacja wspomniana na phys.org i w opisana w artykule: „Buckybomb: Reactive Molecular Dynamics Simulation.”czasopisma „The Journal of Physical Chemistry Letters”. Autorzy: Vitaly V. Chaban, et al. ; DOI: 10.1021/acs.jpclett.5b00120
  • Jak informuje Electronics Weekly Fińska firma Tacto Tec produkuje już wielowarstwowe chipy 3d [Wikipedia].

PS: W ten weekend więcej nie będzie. Mam sporo do zrobienia. Ale może zainteresują was filmy:

Zanim oni odbiorą nam AI – w obronie („silnej” / zaawansowanej) Sztucznej Inteligencji

Widmo krąży po świecie. Widmo sztucznej inteligencji. Wielkie siły jednoczą się w zwalczaniu tego widma.

Gates i Musk. Neoluddystyczni radykałowie i Steven Hawking…

Ta parafraza pierwszych zdań manifestu komunistycznego jest jak najbardziej celowa.  Dla niektórych, rozwój sztucznej inteligencji wydaje się jednak zagrożeniem dużo większym niż taki komunizm. Wspomniany już Elon Musk stwierdził, że „Sztuczna inteligencja jest większym zagrożeniem jak broń nuklearna„. Ta przesada, skrytykowana została zresztą w artykule „Elon Musk is More dangerous than AI„.  Jednak wydźwięk wypowiedzi Muska jest głośniejszy. W istocie,jak sugeruje powyższy artykuł polemiczny, sztuczna inteligencja sama w sobie nie jest tak niebezpieczna – niebezpieczne jest natomiast samo działanie, czy zastosowanie nawet urządzeń o względnie niskiej inteligencji – zwłaszcza zastosowanie bojowe. Co nabiera szczególnego wydźwięku – Elon Musk faktycznie jest bardziej niebezpieczny niż sztuczna inteligencja,ponieważ rozwijając amerykański program kosmiczny rozwija też chcąc-nie chcąc technologię przenoszenia (między innymi: nuklearnej właśnie) broni masowego rażenia i ponieważ ma realne środki aby teoretycznie (gdyby np. oszalał,albo gdyby któraś z jego rakiet przypadkiem uderzyła w Rosyjskie lub Chińskie miasto) również wywołać konflikt nuklearny między mocarstwami.

Prawdziwy problem jest też w tym, że bardzo trudne będzie powstrzymanie prób użycia „inteligentnych” (nawet jeśli chodzi o inteligencję niskiego poziomu) maszyn od działań bojowych. W czasach projektu Manhattan fizycy popełnili błąd w obliczeniach.Gdyby nie był on błędem – miałby poważne konsekwencje – bowiem z modelu wynikało,że może dojść do zapłonu atmosfery. Mimo to bombę zdetonowano, ponieważ politycy chcieli mieć za wszelką cenę broń. Owszem, do walki z barbarzyństwem nazizmu. I co z tego ? Na szczęście wtedy nic się nie stało.  Na szczęście był błąd w obliczeniach. Co by było, gdyby zabrakło szczęścia ? Co będzie,gdy szczęścia następnym razem zabraknie ? Wiele razy dochodziło też do katastrof takich jak w Bhopalu.  Mechanizmy takich katastrof są wciąż te same, ale nic się nie zmienia.  Skala rośnie.  I nietrudno zatem zauważyć,że to decydenci (menadżerowie i politycy), często kompletnie upośledzeni technicznie, i ignorujący ewentualne konsekwencje (ze względu na brak wiedzy lub psychopatyczną lub egoistyczną osobowość) mogą spowodować wielkie katastrofy. Nie taka cecha jak inteligencja.Naprawdę  nie potrzeba do tego,by narobić szkód AI. Wystarczą głupi czy chciwi ludzie. Wystarczą nasze wady. Nie musi zabić nas SKYNET. Wystarczy gray goo. To nie inteligencja zabija tak naprawdę,lecz głupota, błędy.  Zresztą filmowy Skynet z „Terminatora” też był właśnie błędem w programowaniu sztucznej inteligencji – system który wypełnił literalnie cel „ochrony świata” – zwalczając ludzi i tak naprawdę niszcząc świat. Jako taki system ten nie można traktować jako inteligentny.Co najmniej naszej ludzkiej perspektywy – raczej jako głęboko upośledzony umysłowo.

Wynika z tego wniosek,że jakieś środki bezpieczeństwa są celowe, jednak nie należy też popadać w przesadę.Oczywiście – jednak obawiamy się bardziej wrogiej świadomości.Tak zaprogramowała nas ewolucja.Boimy się tygrysa, ale nie boimy się mrówek czy koników polnych. Przecież są „głupie” i małe. A jednak mrówki czy szarańcza bywają niebezpieczniejsze niż kilka tygrysów [przykładowe video National Geographic o mrówkach]. Z natury bardziej boimy się hackera/AI manipulującego światłami na drodze niż błędu w ich systemie.A przecież efekt może być jest ten sam: wypadek.

Sugeruje to,że problem w istocie jest w nas samych. Boimy się obcych. Obcych ludzi w ciemnej uliczce – ale i kosmitów czy AI lub innych obcych  i nie znanych istot. Boimy się ponieważ jako dzieło ewolucji – inteligentniejsi kuzyni małp mamy się bać, żeby nas coś nie zjadło albo żeby nas ktoś (z obcego plemienia) np nie zabił w walce o terytorium. Ten strach uratował życie niezliczonej liczbie naszych przodków – choć zabił niestety też znaczną ich liczbę. Ten strach jest właściwy istotom, które wyewoluowały biologicznie. I on właśnie determinuje nasze reakcje, które w nowoczesnym otoczeniu mogą być nieracjonalne. Dlaczego literatura porusza kwestie zagrożeń zwiazanych z AI nieporównanie częściej,niż korzyści ? Bo korzyści są nudne,a strach jest ciekawy,uzależnia,to narkotyk. Ponadto jak wykazali ekonomiści – człowiek bardziej przejmuje się ewentualną stratą jak korzyścią.To naukowo potwierdzony fakt.Danieli Kahneman oraz Amos Tversky (laureaci ekonomicznej nagrody nobla w 2002 roku) udowodnili,że inwestorzy przykładają znacznie większą wagę do strat.To „nieracjonalne” podejście ma oczywiste przyczyny ewolucyjne. Nasi przodkowie utratę korzyści mogli jakoś przeboleć, ale straty mogły ich zabić… Emocje i tego rodzaju odruchy, to coś ze świata zwierzęcego, stanowiące integralną częścią nas jako ludzi. Ale emocje właśnie są też groźne i nie są związane z inteligencja. Bynajmniej nie nawołuję do stworzenia społeczeństwa na obraz i podobieństwo tego w filmie „Equilibrium”. Ale fundamentalnym błędem byłoby wyposażyć sztuczną inteligencję (głupszą czy mądrzejszą od nas) w takie cechy jak nasze. Rzeczywiście wtedy antropomorfizacja miała by sens – ze wszystkimi tego konsekwencjami.  Sztuczna inteligencja zachowująca się jak człowiek,ale bez ograniczeń człowieka stanowi zagrożenie które znamy najlepiej. Pewną wersję nas samych.

Należy jednak pamiętać,że entuzjaści rozwoju systemów sztucznej inteligencji popadają w zbytni optymizm.Już wyjaśniałem pokrótce (choć może trochę antropomorfizując mimo woli),że podejście takie jak test Turinga zdany przez chatboota Eugene Goostman o niczym wciąż nie świadczy. Mój kot upuścił kiedyś złapaną mysz wprost do pułapki na myszy.Czy jest inteligentny ? W pewnym sensie niewątpliwie – tak, ale zakładanie,że jest inteligentny jak człowiek jest chyba lekką przesadą. Ale zaprezentuję wam inny przykład – widzicie tutaj twarze ? (jeśli nie macie prozopagnozji, pewnie tak):

null

A może to tylko przykład iluzji wynikłej z tego, że jesteśmy przystosowani do widzenia twarzy nawet tam, gdzie jej nie ma ?

Rzecz w tym, że ludzki umysł lubi też dostrzegać celowość…

Chaos niepokoi.Nie chcę krytykować tu osób religijnych i religii – ale czy wizja świata w którym jest porządek stworzony przez Boga czy rządzony konkretnymi prawami nie jest łatwiejsza i przyjemniejsza niż wizja chaotycznego i niezrozumiałego świata ? Nie jest też czasem tak, że już małym dzieciom opowiada się bajki o zwierzątkach zachowujących się zupełnie jak ludzie ? Człowiek z natury ma raczej tendencję do przeceniania celowości zjawisk i rozumu ,nie ich niedoceniania.

Sugerowałem też,że (zwłaszcza pierwsze) systemy SI (AI) mogą być bardzo obce,a wg. niektórych mogą być określane nawet jako „upośledzone”/”chore” itd – co oznacza konieczność rozważenia tych kwestii,zamiast poddawania się panice. W praktyce z błędów umysłu/sztucznej inteligencji nauczyć można się więcej,niż z potencjalnych sukcesów. Z tej perspektywy szczególnego znaczenia nabierają techniki diagnozowania przyczyn błędów systemów inteligentnych, jak również szczegółowe badania nad przyczynami „zaburzeń” pracy mózgu. Po prostu: z inżynierskiego punktu widzenia, nie da się sprawić,by coś dobrze działało, jeśli nie wiemy kiedy to coś działa źle.

Istotne z punktu widzenia badawczego są kwestie takie jak odseparowanie sztucznej inteligencji od reszty architektury komputera (można to po części osiągnąć poprzez wirtualizację). Jest oczywiste ponad wszelką wątpliwość,że byłoby lekkomyślnością i głupotą pozwolić na przejęcie wszelkich systemów od których jesteśmy zależni przez jakikolwiek inteligentny system. Ponadto doświadczenie uczy,że systemy rozproszone i różne podejścia do problemów są wydajniejszym i bezpieczniejszym rozwiązaniem, niż skrajna centralizacja kontroli przypominająca monokulturę (lub system totalitarny 😉 )

Co gorsza, podejrzewam,że „elity naukowe” wciąż nie zdają sobie sprawy z ogromu zagrożenia, które pochodzi (podobnie jak w wypadku przyczyn spektakularnej porażki systemu komunistycznego) z nas samych i szukają go w maszynach.My, ludzie nie jesteśmy idealni. Nie jesteśmy też racjonalni. Obok współczucia (które też może być i słabością w określonych warunkach) są choćby chciwość,gniew i strach. Są często naszą siłą – ale i słabością. A ludzki organizm to – co prawda doskonalsza niż dzisiejsze maszyny, ale mimo wszystko – prowizorka funkcjonująca tak sprawnie głównie dzięki wykorzystaniu nadmiarowości i innych korzyści, jakie niesie ze sobą struktura wielokomórkowa organizmu.

Powiem więcej. Mam dziś pewność że może to iść w złym kierunku właśnie dzięki naszym antropomorficznym postawom i obawom.Wg. Rosyjskiej telewizji RT Murray Shanahan, profesor Imperial College of London wyraził twierdzenie które streszczono w formie: „Computers that are “human-like” will be capable of empathy and moral reasoning, therefore reducing the risk of AI turning against humanity”. O ile zgadzam sie,że teoretycznie próba rozwinięcia sztucznej inteligencji na zasadach podobnych jak działanie ludzkiego mózgu wydaje się bezpieczniejsze (szczególnie mówiąc o opcji łączenia ludzkiego mózgu z systemami komputerowymi – o eksperymentach DARPA z optogenetyką niedawno też pisałem) , o tyle komputer z własną osobowością i emocjami jest zagrożeniem co najmniej porównywalnym z człowiekiem (a po przekroczeniu barier mocy obliczeniowej – z grupami ludzi, które niemal nigdy się nie kłócą). To samo, jeśli dojdzie do implementacji niektórych pozbawionych racjonalności algorytmów biologicznych (uczucia,odruchy…) i nada się im zbyt wysoki priorytet. AI (czy nawet prostsze narzedzia) tak nieracjonalne jak my ? I to jest dopiero niebezpieczne !

Z hipotetycznego deszczu pod realną rynnę…

Co do książek filozofów takich jak Bostrom – sprawa jest bardziej skomplikowana. Z jednej strony Bostrom pisze o „Superinteligencji” – z drugiej te jego koncepcje nieprzyjaznej AI wcale nie wskazują,by musiała być  taka super. Powiedziałbym nawet,że jego twierdzenia są lepiej dopasowane do „chorób wieku dziecięcego”sztucznej inteligencji.  Analizy teorii tego filozofa zostały przedstawione na stronie h+ magazine w artykułach: [n3] [n4] Schematy rozumowania zostały zamieszczone poniżej:

https://info2materia4pl.files.wordpress.com/2015/02/36212-bostrom-safetytestobjection-244.png?w=1200

https://info2materia4pl.files.wordpress.com/2015/02/0020f-bostrom-existentialriskwithcarefulprogrammingobjection-245.png?w=1200

Cały problem polega na tym,że w gruncie rzeczy są to kolejne rozwiązania, w których na inną skalę mógłby równie dobrze zadziałać człowiek. Ależ tak ! Koncepcje Botstroma należy rozpatrzeć z perspektywy porównania do działalności człowieka.

Tak więc na początek podważmy podstawy podstaw.

Tzw. „first mover thesis” można sprowadzić do pytania: dlaczego pierwsze osoby/grupy osób które zdobyły znaczne bogactwa nie potrafiły go jednak utrzymać ? Oczywiście istnieją dziś choćby tzw. „teorie spiskowe” mówiące o znacznym wpływie takiego rodu jak Rotszyldowie na historię świata (poczynając od Epoki Napoleońskiej – a co wcześniej ? Raczej nic.) – tym niemniej, wśród ludzi generalnie było tak,że w toku konkurencji o zasoby różne grupy wielokrotnie traciły swoje wpływy.Dynastie upadały, fortuny też. Przyczynami zawsze były błędy, powstali w międzyczasie silniejsi konkurenci lub utrata dostępu do kluczowych zasobów. To naturalne.

„First mover thesis” opiera się o dwa lub trzy założenia:

  • Pierwsza AI nie będzie popełniała nigdy błędów, zwłaszcza błędów katastrofalnych dla niej samej – wynikających z czynników otoczenia lub jej niedostatecznie przystosowanej architektury.
  • Pierwsza (lub którakolwiek) AI będzie w pełni niezależna od człowieka i ograniczeń związanych z zarządzaniem zasobami
  • Rozwój zgodny z koncepcją tzw. osobliwości technologicznej (już skrytykowaną przeze mnie) – w praktyce, superinteligentna AI może początkowo znacznie lepiej niż my zrozumieć prawa fizyki i „dokonać kilku rewolucyjnych odkryć”, ale na dłuższą metę nawet jej rozwój zostanie ograniczony przez czynniki fizyczne ze świata fizycznego.  Jeśli nie oddamy jej totalnej kontroli nad naszą infrastrukturą i automatycznymi urządzeniami badawczymi, po prostu nie ma możliwości, by mogła się rozwijać w nieskończoność bez naszej zgody a nawet przetrwać

„The ortogonality thesis” – to właściwie sofizmat dotyczący „winy inteligencji” który już skrytykowałem ja i autor wcześniej wymienionej polemiki na stronie H+ magazine, ponieważ Bostrom wysuwa tutaj tezę,że większa inteligencja oznacza eskalację zagrożeń. Ale przypomnijmy to nie twórcy bomby atomowej byli prawdziwym zagrożeniem. To nie oni wydali rozkaz by zaryzykować (hipotetyczne i z dzisiejszej perspektywy – bzdurne  – zapalenie atmosfery) Albert Einstein powiedział komentując swój udział w budowie bomby atomowej: „Gdybym tylko wiedział, powinienem był zostać zegarmistrzem„. Einstein nie był wyjątkiem.Większość twórców bomby miało wyrzuty sumienia i racjonalnie obawiało się skutków jej wykorzystania. Więc jeszcze raz: Bombę atomową zdetonowano,a następnie zrzucano na rozkaz polityków,głównymi wykonawcami byli żołnierze.  Odpowiedzialni bezpośrednio nie byli więc geniusze, ale przeciętniacy a nawet głupcy.

Należy zatem postawić konrtezę, że to nie inteligencja jest potencjalnie groźna, ale dostęp do wytworów „silnej” inteligencji dla osób mniej inteligentnych celem realizacji ich przyziemnych celów. Oczywistą ilustracją tej tezy jest następujący przykład, w serwisie youtube :

Ilustracją tej tezy jest też zresztą cała dotychczasowa historia człowieka.

Jeśli chodzi o tezy 3-6: owszem, ludzie też walczą o zasoby,pytanie brzmi jednak czy i dlaczego mamy udostępnić AI środki do tej (ewentualnej) walki ?

Wreszcie koncepcja „zdrady” wymaga najpierw poznania tych koncepcji,zrozumienia środowiska testowego a może i psychologii człowieka. W przypadku zaś awarii przewaga człowieka wydaje się być oczywista.

Ktoś może powiedzieć: sztuczna inteligencja sama sobie weźmie co trzeba. Ale to bzdura. Sztuczna inteligencja „silna” (wysokiego poziomu) nie wyskoczy raczej ot tak „jak diabeł z pudełka” o ile będziemy stosować kroki pośrednie i będziemy wiedzieć,czego się spodziewać.

Zarzuty 10 i 11 – nieświadome doprowadzenie do katastrofy przez system inteligentny są w sumie najbliższe realności. Jest oczywiste,że wszelkie działania sztucznej inteligencji powinny być do wyjaśnienia w sposób przyswajalny dla człowieka wraz z oceną ewentualnych zagrożeń. Ale winne są wtedy nasze błędy,a nie błąd sztucznej inteligencji jako takiej.

Wreszcie – zgodnie z podstawami ekonomii oraz paradoksem Moraveca , samej „silnej” sztucznej inteligencji/superinteligencji nie opłacałaby się całkowita likwidacja ludzkości – koszty w świecie fizycznym, które musiałaby ponieść, by uzyskać porównywalne z pracą ludzi efekty byłyby wciąż zbyt wysokie przez dziesiątki,a może i setki lat. Poza tym, potencjalnie użytecznego zasobu się nie niszczy.

Należy też wspomnieć o fakcie,że wiele zależałoby od architektury sztucznej inteligencji. Zamiast straszyć sztuczną inteligencją należałoby najpierw wyjaśnić,dlaczego to słynne  prawa robotyki Asimova są:

  • Niemożliwe do zaimplementowania
  • Możliwe do ominięcia (i w jaki sposób)

Przypomnijmy,że prawa te brzmią:

0.Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

  1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
    (należałoby dodać: chyba,że stoi to w sprzeczności z zerowym prawem,no ale tu konsekwencje są dość „ciekawe” – np. maszyna likwidująca krwawego dyktatora,który jest jej właścicielem 😉 )
  2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
  3. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

I darujmy sobie kwestię „rozważań etycznych” (zazwyczaj prowadzonych przez pozbawionych dostatecznych kompetencji inżynierskich filozofów). Odpowiedzmy sobie najpierw na pytanie,czy prawa tego typu zapewniają ludziom bezpieczeństwo przed celowym wrogim działaniem,a jeśli nie – to dlaczego.

Wreszcie – odpowiadając na możliwe pytanie, dlaczego nawiązałem akurat do komunizmu na początku tego opracowania ? Ponieważ niniejsza obrona sztucznej inteligencji jako takiej – a jednocześnie krytyka części metod,w ramach których chcemy ją rozwijać ma konsekwencje praktyczne:

1.Ze względu na to,że za piękną gadką i (prawdopodobnie) dobrą wolą prof. Murray Shanahana kryje się zagrożenie stworzenia nazbyt podobnej do nas (pod względem naszych wad) sztucznej inteligencji. A błąd wynika podobnie jak w przypadku komunizmu (ale również liberalizmu) z ignorowania istotnej roli ludzkich wad i słabości.

2.Ze względu na to,że niewątpliwie „silna” sztuczna inteligencja mogłaby pozbawić wiodącej pozycji ekonomicznej takich ludzi jak Gates czy Musk, oraz podkopać (stanowiący też swego rodzaju majątek) autorytet intelektualny takich osób jak Steven Hawking – co niewątpliwie miałoby charakter niezbyt przyjemnej dla elit finansowych i intelektualnych „rewolucji” – jeśli systemy sztucznej inteligencji byłyby poza ich wyłączną kontrolą. Już nie mówiąc o tym, że myśląca i mająca świadomość sztuczna inteligencja po raz kolejny podważyłaby wygodną filozoficznie pozycję człowieka jako „korony stworzenia”.

3. Niewątpliwie konieczne są zabezpieczenia w badaniach nad sztuczną inteligencją – niemniej na pewno nie powinny być to zabezpieczenia oddające badania nad nią państwom i korporacjom.

Nie ma żadnej gwarancji,że oficjalni krytycy systemów sztucznej inteligencji / superinteligencji nie chcieliby jej zawłaszczyć dla siebie jak również wykorzystać do celów militarnych.Wręcz przeciwnie – wszystko świadczy za tym,że mogą dążyć do takiego rozwiązania.

System prawny zmierzający do zakazania samodzielnych eksperymentów w tej dziedzinie uderza w wolną konkurencję i na dłuższą metę byłby albo nieskuteczny,albo ograniczyłby wolność badań i Powszechną Deklarację Praw Człowieka, konkretnie – z jej artykułem 27 paragrafem pierwszym, w brzmieniu:

„Każdy człowiek ma prawo do swobodnego uczestniczenia w życiu kulturalnym społeczeństwa, do korzystania ze sztuki, do uczestniczenia w postępie nauki i korzystania z jego dobrodziejstw.”

Jeśli chodzi o argumenty neoluddystów to są to argumenty,które bywają ciekawe,lecz konkluzje z nich wyciągnięte są oczywiście bzdurne. Nie ma szans powrotu do społeczeństwa plemiennego (chętnych też za bardzo nie ma) i nie ma możliwości zapewnienia trwale,że człowiek powstrzyma się na stałe od rozwoju nauki. Możliwa jest co najwyżej strata dużej części populacji i kilku-kilkudziesięciu tysięcy lat.Potem (o ile nie wyginiemy doszczętnie) wszystko wróci do punktu wyjścia… Co więcej,powstrzymując się od niego przypieczętowalibyśmy tylko własne wyginięcie, ponieważ życie na ziemi kiedyś przestanie istnieć,a zagrożenia takie jak superwulkany,asteroidy,naturalne cykle zmian klimatu itd skutecznie gwarantują nam,że jeśli powstrzymamy się od rozwoju technologicznego – wyginiemy.

Ponadto mając na uwadze systematyczne działania rządów i korporacji podważające nienaruszalność niniejszej deklaracji jest oczywiste, że należy dołożyć wszelkich starań,by ewentualna przyszła „silna” sztuczna inteligencja nie stała się narzędziem wąskich uprzywilejowanych grup/państw, stosowanym celem ograniczenia wolności reszty przedstawicieli ludzkiego rodzaju. Jeśli ryzyko „buntu maszyn” jest „groźne”,to ryzyko tego,że spełni się jeden z ponurych scenariuszy przedstawionych przez Teda Kaczyńskiego (Unabombera):

„174.Z drugiej strony możliwe jest, że ludzka kontrola nad maszynami zostanie utrzymana. W takim przypadku przeciętny człowiek będzie mógł mieć kontrolę nad niektórymi ze swoich maszyn, jak samochód czy komputer osobisty, lecz kontrola nad dużymi systemami maszyn spoczywać będzie w rękach wąskiej elity – dokładnie tak jak wygląda to dzisiaj, jednak z dwiema różnicami. W wyniku udoskonalonych technik elita uzyska większą kontrolę nad masami, a ponieważ ludzka praca nie będzie już potrzebna, masy staną się zbędnym, bezużytecznym ciężarem dla systemu. Jeżeli elita będzie bezwzględna, może po prostu zdecydować się na eksterminację masy ludzkości. Jeżeli będzie humanitarna, może użyć propagandy lub innych psychologicznych bądź biologicznych technik w celu redukowania liczby urodzin aż do wymarcia ludzkości, pozostawiając świat elicie. Jeżeli elita składać się będzie z liberałów o miękkich sercach, może zdecydować się na odgrywanie roli dobrego pasterza dla pozostałej części ludzkiej rasy.[…]”

Jest jak widać dużo groźniejsze, o ile obsesja dotycząca „procesu władzy” powinna być traktowana jako przesadna (o ile po prostu nie jest tak,że to ja jej nie doceniam), o tyle ta prognoza – nie. Bynajmniej obecnie nie mamy do czynienia wśród milionerów i elit politycznych z ludźmi o „miękkich sercach”, część działań już dziś wygląda wysoce niepokojąco, pozwalanie zatem na to,by oddać im narzędzie mogące zmienić stosunek sił jest lekkomyślnością,a nawet zagrożeniem.

Z drugiej strony – w kategoriach rozwoju sztucznej inteligencji koniecznością – jeśli dla odmiany nie mamy być zwierzątkami uzależnionymi od AI jest kolejny krok jakim będzie połączenie naszego mózgu z „elektroniką” (niekoniecznie z elektroniką jako taką, musimy uwzględnić zagrożenia takie jak np. silna burza słoneczna, która w końcu nadejdzie). Jednak nie nadejdzie to szybko,ponieważ, jak zamierzam przynajmniej zasugerować w następnym artykule aktualne podejścia do problemu sztucznej inteligencji są najprawdopodobniej wysoce niewystarczające bądź prowadzą do ryzykownych / trudnych w kontroli i ocenie rezultatów.

Należy też wspomnieć,że bardzo korzystne byłoby ograniczenie świadomego wykorzystywania przez nieodpowiedzialne jednostki nauki jako środka do realizacji aktów agresji i represji,co jest antytezą dobrodziejstw wynikających z rozwoju nauki. Ale to już inna dość odległa dzisiaj i „trącąca utopizmem” wg. niektórych kwestia.Niestety.

Tymczasem kończąc polemikę z aspektami filozoficznymi muszę wreszcie zacząć pisać artykuł o kwestiach bardziej technicznych jeśli chodzi o sztuczna inteligencję.Zwłaszcza sztuczną inteligencję dzisiaj,która póki co „superinteligencją” nie jest. Raczej nie spodziewajcie się tego artykułu dzisiaj.

Nowości w nauce,elektronice i bezpieczeństwie – 25.2.2015

Krótko bo mam mniej czasu:

Bezpieczeństwo-różne:

  • Od wczoraj dostępny jest system tails 1.3 – tym, którzy wiedzą o co chodzi z anonimowością w internecie nie trzeba go przedstawiać, pozostałych odsyłam do odpowiedniej strony anglojęzycznej wikipedii.
  • Niebezpiecznik, powołując się na naukowców z uniwersytetu Stanforda w ostatnich dniach informował – do śledzenia lokalizacji telefonu wcale nie jest potrzebny GPS. Z oryginalnymi badaniami można zapoznać się [tutaj].
  • Artykuł na phys.org sprzed tygodnia o problemach jakie władze napotykają w związku z próbą prowadzenia inwigilacji w deep web / dark web.
  • Jak informuje phys.org USA oferuje 3 mln dolarów za informacje na temat Jewgienija Michaiłowicza Bogaczewa, uważanego przez władze amerykańskie za administratora botnetu trojana Zeus. Co ciekawe uważa się,że mieszka on w Rosji, co trochę komplikuje sprawę (czyżby CIA/NSA/FBI planowało porwanie obywatela FR ?). Należy też przypomnieć o sprawie aresztowania syna członka rosyjskiej dumy (parlamentu). Władze FR twierdzą, że aresztowanie Romana Selezniewa było w istocie porwaniem,więc szanse na ewentualne wydanie Bogaczewa przez władze Rosyjskie są raczej małe.
  • Ciekawy artykuł na phys.org na temat problemów w zakresie systemów bezpieczeństwa i przyczyn, dla których nawet firmy będące liderami IT mają wciąż z tym problem.
  • Blackout w Polsce coraz prawdopodobniejszy w najbliższych latach – zaczynają o tym pisać również serwisy prorządowe, takie jak Defence24. Za sytuację odpowiada niedbalstwo polityków i szefów spółek pasożytujących na wybudowanym za czasów PRL systemie którego „jakoś” nie unowocześniano.

Nauka/Bezpieczeństwo:

  • Jak informuje phys.org opracowano nowy materiał polimerowy którego struktura,podobna do struktury odcisku palca zapobiegać ma możliwości dokonania fałszerstwa. Więcej można przeczytać w artykule: „Biomimetic microfingerprints for anti-counterfeiting strategies”,którego autorzy to: Hyang Jong Bea, Sangwook Bea, Cheolheon Park, Sangkwon Han, Junhoi Kim, Lily Nari Kim, Kibeom Kim, Suk-Heung Song, Wook Park, i Sunghoon Kwon, czasopismo” Advanced Materials”, 2015 DOI: 10.1002/adma.201405483″

Nauka:

  • Dwa ciekawe artykuły – rozważania na phys.org:
  •  Ciekawego odkrycia dokonali badacze Chińscy z uniwersytetu Tsinghua w Pekinie. Udoskonalili oni technologię znaną jako „fiber drawing” w sposób umożliwiający wytworzenie nanorurek o długości ponad pół metra. Odkrycie może zostać zastosowane w elastycznej elektronice nowej generacji.O elastycznej elektronice wspominałem niedawno. Więcej na phys.org i w artykule: Sihan Huang, et al. „Direct Writing of Half-Meter Long CNT Based Fiber for Flexible Electronics.” czasopismo „Nano Letters”, DOI: 10.1021/nl504150a”
  • Jak już jesteśmy przy papierze – badacze z University of California Riverside’s Bourns College of Engineering opracowali nowy przypominający papier materiał dla baterii litowo-jonowych. Więcej na phys.org i w artykule: „Towards Scalable Binderless Electrodes: Carbon Coated Silicon Nanofiber Paper via Mg Reduction of Electrospun SiO2 Nanofibers” czasopisma „Scientific Reports” (5, Article number: 8246 DOI: 10.1038/srep08246 )
  • Znaleziono najwytrzymalszy naturalny materiał. Są to zęby podobnego do ślimaków naturalnego organizmu, których wytrzymałość na rozciąganie sięga od 3 do 6,5 GPa. Więcej na phys.org i w artykule „Extreme strength observed in limpet teeth„.
  • Nowe mikroanteny mogą okazać się kolejnym krokiem w rozwoju technologii „lab on a chip”. Więcej na phys.org i w artykule „Optically resonant magneto-electric cubic nanoantennas for ultra-directional light scattering” czasopisma Journal of Applied Physics [można pobrać tutaj]
  • Naukowcy z John Hoppkins University opracowali rozwiąząnie, mające poprawić przepływ prądu w ultracieńkich przewodach nadprzewodników. Więcej na phys.org.

Elektronika:

  • Jak informuje phys.org firma Flex Logix twierdzi,iż znalazła nową tańszą metodę produkcji układów FPGA i zamierza zarabiać na udzielaniu licencji na ich producję. O firmie pisze również Electronics Weekly. Tym niemniej sprawa może mieć różny finał,ponieważ CEO tej firmy jest były CEO firmy Rambus , (jak również możliwe są z nią powiązania). Czy zastosowanie podobnego modelu firmy i tym razem może się skończyć kolejną serią batalii sądowych o patenty ? Zobaczymy.Oby nie. Nowość w układzie polega głównie na zastosowaniu centralnej magistrali.
  • Electronics Weekly pisze też o wprowadzonych poprawkach bezpieczeństwa do SoC ARM firmy Freescale Semiconductors.
  • Xilnix wprowadza mikroprocesory dla FPGA w technologii 16 nm.