Ważniejsze nowości – nauka i bezpieczeństwo: stan 29.11.2014

Bezpieczeństwo – na stronie Cryptome ukazały się:

  • Ciekawy artykuł o słabościach systemowych HTTPS

Nauka:

  • Faktoryzacja kwantowa jest możliwa dla liczb pięciocyfrowych. W 2012 roku była to trzycyfrowaliczba 143… Więcej na phys.org. oraz w artykule „Quantum factorization of 44929 with only 4 qubits„. (Phys.org twierdzi,że największą jest 56193,artykuł – inaczej…) Jak widać kwantowe łamanie algorytmów szyfrujących typu RSA coraz bliżej,tak,jak wcześniej wspominałem.
  • Astronomia/Fizyka: Badacze z MIT potwierdzają – naturalna „tarcza” chroni ziemię przed promieniowaniem. I wiemy jaka jest jej natura. Właściwie dużą rolę odgrywa o promieniowanie elektromagnetyczne, określone jako „plasmaspheric hiss” (plazmasferyczne syczenie ?) – fale elektromagnetyczne o bardzo niskiej częstotliwości. Więcej na stronie MIT News. Dlaczego o tym piszę ? Ponieważ odtworzenie tego w warunkach sztucznych, będzie miało kiedyś podstawowe znaczenie dla kolonizacji przestrzeni kosmicznej.
  • Badacze z MIT opracowali również sposób na tworzenie dużych biologicznych obwodów.Więcej na stronie MIT News.
  • Wygląda na to,że grafen wytrzymać może uderzenie pocisku karabinowego. Więcej w artykule: „Dynamic mechanical behavior of multilayer graphene via supersonic projectile penetration” czasopisma Science (Vol. 346 no. 6213 pp. 1092-1096. DOI: 10.1126/science.1258544). Więcej na phys.org. Nowe lepsze kamizelki kuloodporne ?
  • Niemieccy naukowcy z Saarland University in Saarbrucken są w stanie zrealizować transfer stanu kwantowego foton-atom z wiernością większą od 95%. Jest to ważny krok na drodze ku kwantowym sieciom (takim do wymiany informacji kwantowej). Więcej w artykule: „Experimental protocol for high-fidelity heralded photon-to-atom quantum state transfer.” Autorzy: Christoph Kurz, et al.,czasopismo „Nature Communications”. (DOI: 10.1038/ncomms6527),oraz na phys.org
  • Z kolei naukowcy Irlandzcy z Trinity College opracowali sposób, na „wielopoziomowe” pamięci elektroniczne, przekazujące wiele bitów naraz. Więcej w artykule „A Single Nanoscale Junction with Programmable Multilevel Memory” w czasopiśmie ACS Nano (DOI: 10.1021/nn505139m) oraz na phys.org.
Reklamy

FPGA i GP(GPU) w wysokowydajnych obliczeniach i przetwarzaniu sygnałów. Podstawowe informacje.

Ponieważ już wielokrotnie wspominałem o układach rekonfigurowalnych FPGA (wiki: [PL] [Ang], pora dokładniej wyjaśnić zakres użyteczności tych urządzeń. Przede wszystkim,nie chodzi tu o klasyczne rozwiązania stosowane obecnie przez większość prostych,przeciętnych użytkowników komputerów (choć mogłoby),lecz o zaawansowane obliczenia i symulacje. Zasadniczo więc, mówimy o rozwiązaniach,które bardziej już zaczynają przypominać komputery serwerowe,lub wielkie serwerownie/klastry, niż przeciętnego peceta. (Swoją drogą zresztą,z przeciętnych pecetów można zrobić klaster typu Beowulf)

Oczywiście, w wielkich rozwiązaniach serwerowych stosowane są też liczne mikroprocesory (CPU) – zwłaszcza firm Intel (w przypadku serwerów np. Xeon,Itanium) i AMD (Opteron), w zakładach produkcyjnych zaś,głównie mikroprocesory ARM. Interesujące z pewnych względów są również inne architektury procesorów,np. architektura SPARC – chyba jedyna w pełni otwarta architektura komercyjnego,realnie sprawdzonego procesora – i jej pochodne. Nie można też zapomnieć, o potencjale pojawiających się na rynku mikroprocesorów APU (CPU + GPU) (wiki: [PL] [Ang]). Koszt użycia opartego o nie systemu wieloprocesorowego jest jednak (pomimo potencjalnie oferowanych znakomitych możliwości) większy – tak pod względem kosztów układów, jak i potencjalnej eksploatacji w obliczeniach równoległych,dlatego nie będę ich ujmował w niniejszym tekście,aby uniknąć dodatkowych komplikacji.

Jeśli chodzi o przeprowadzanie symulacji, czy złożonych równoległych obliczeń fizycznych stosunkowo dobrą opinie uzyskały ostatnio rozwiązania typu (GP)GPU. Pod pojęciem GPU kryją się jak wiadomo układy karty graficznej,zatem jako (GP)GPU rozumiemy w praktyce wykorzystanie kart graficznych w skomplikowanych obliczeniach „generalnego przeznaczenia” (General-Purpose computing on Graphic Processor Units).

https://upload.wikimedia.org/wikipedia/commons/5/5b/Geforce3gpu.jpg

Jest to możliwe dzięki faktowi że współczesne mikroprocesory kart graficznych posiadają setki albo nawet tysiące (te obecne zdecydowanie tysiące) pojedynczych rdzeni,na których wykonywane są elementarne obliczenia. Rdzenie te są dużo prostsze w budowie niż rdzenie współczesnych procesorów wielordzeniowych i mają mniejsze możliwości – ale,jak pisałem jest ich piekielnie dużo.I one wszystkie pracują naraz.

Początkowo, użycie procesora graficznego do innego rodzaju obliczeń nie było to takie proste, ale od czasu wprowadzenia rozwiązań takich jak np. technologia CUDA firmy Nvidia, obliczenia te można całkiem rozsądnie przyspieszyć. Również nowsze programy komercyjne (szczególnie dla środowiska Windows), stosujące metodę elementów skończonych w symulacjach, wykorzystują już często możliwości nowoczesnych kart graficznych. Za pomocą kart graficznych można znacznie szybciej obliczać funkcje hashujące, niż na pojedynczym współczesnym procesorze.

Czy zatem GP(GPU) jest najlepszym rozwiązaniem kwestii obliczeń równoległych ? Niekoniecznie.

Układy FPGA również zajmują znaczące miejsce, jeśli chodzi o złożone obliczenia,tym niemniej do niedawna zaprogramowanie ich było to możliwe głównie przy użyciu sprzętowych języków HDL. Układy te, jeśli chodzi o obliczanie stosowanych w kryptografii funkcji hashujących są wręcz uznawane za lepsze, zarówno jeśli chodzi o rezultaty związane z szybkością, jak i koszt energetyczny – nie tylko wśród społeczności naukowo-technicznej,ale i osób „kopiących bitcoiny”.

Przykładowy układ programowalny firmy Altera

Z efektywnością rozwiązań takich jak GP(GPU) można zapoznać się na przykładzie układu Nvidia Tesla, omówionego w artykule wikipedii i przedstawionego poniżej:

Istotne jest,że moc obliczeniową układów GPU mierzymy w FLOPSach (w Polskiej „terminologii”: „flop”),  czyli liczbie operacji zmiennoprzecinkowych na sekundę, natomiast moc obliczeniowa układów FPGA podawana jest raczej w stałoprzecinkowych jednostkach MIPS.  Nie można zatem mówić o prostej porównywalności tych układów pod względem mocy obliczeniowej

I co teraz z tym począć ? Opinie naprawdę wyglądają przecież na bardzo różne. Dla przykładu:

No dobrze. O co w tym wszystkim zatem chodzi ? Jakie wnioski można wyciągnąć z tego szumu informacyjnego, na temat roli układów GPU i FPGA w obliczeniach i systemach obliczeniowych

1. To prawda, że układy (GP)GPU i FPGA mogą konkurować na rynku obliczeniowym, mają też na nim charakterystyczne zalety i wady. I tak:

  • Układy GPU są bardzo wydajne pod względem jakości obliczeń (zwłaszcza w operowaniu danymi , przypominającymi obraz) i łatwiej dostępne na rynku (a zatem, potencjalnie tańsze w zakupie/łatwiejsze w odsprzedaniu)
  • Układy FPGA są za to bardziej wydajne pod względem energochłonności (koszt energetyczny obsługi kart graficznych i całej reszty komputera w tym procesora).
  • GPU mogą być łatwiejsze w zaprogramowaniu jak FPGA i wymagają mniejszej wiedzy, ponieważ ich programowanie z reguły odbywa się w języku wysokiego poziomu. (np. podobnych do C)
  • Układy GPU są za to potencjalnie mniej elastyczne, niż układy FPGA ponieważ są typowymi układami ASIC.

Jeśli zatem tu układy typu GPU wygrywają,to głównie ze względu na mniejsze wymagania co do wiedzy,łatwość programowania i niską cenę urządzenia. Jednak wydajność i koszty odpowiednio zaprogramowanego układu FPGA mogą być odpowiedniejsze/lepsze.

2. Generalnie układy FPGA i GPU mają jednak różne obszary zastosowań:

  • Układy GPU pracując na liczbach zmiennoprzecinkowych oferują dokładniejsze wyniki, gdy układy FPGA są znacznie mniej wydajne, jeśli chodzi o liczby zmiennoprzecinkowe (ich zaimplementowanie wymaga więcej miejsca na układzie)
  • Układy GPU nie są ze względu na swą konstrukcję wydajne przy małych liczb całkowitych czy operacjach dzielenia. Liczby całkowite to bardziej domena procesora czy układów FPGA.
  • Układy GPU uzyskują pełną efektywność tam, gdzie problem można efektywnie uczynić równoległym i minimalną rolę odgrywają zależności w obliczeniach i korzystaniu ze wspólnych danych.
  • Szczyt efektywności układów FPGA występuje tam, gdzie korzysta się z 1 algorytmu (przeprogramowanie zajmuje czas) – choć zważywszy na malejący czas, potrzebny do przeprogramowania układu, ma to coraz mniejsze znaczenie.
  • Układy FPGA mają dużo większą wydajność I/O (wejścia/wyjścia) niż karty graficzne z układem GPU, ograniczone do złącz PCI-Express (nawet wysokowydajnych PCI x16 – złącza te są prawdziwym „wąskim gardłem” dla GPGPU) i nie wymagają nadzoru procesora.
  • Układy FPGA często lepiej radzą sobie z przetwarzaniem danych z licznych źródeł, oraz pewnych form obrazu niezgodnych ze standardami wg których tworzono układy GPU.
  • Układy FPGA są szczególnie cenne dla systemów czasu rzeczywistego, czyli takich, gdzie nawet 1 µs ma znaczenie i nie może być przerw związanych np. ze współdzieleniem zasobów.
  • Nie każdy rodzaj obrazu jest domeną GPU.

Tezy te znajdują częściowe potwierdzenie również w artykule „FPGAs and GPGPUs Vie for Military System Design Mindshare” czasopisma COTS Journal. (artykuł z 2012 roku).

Zalety systemów elektronicznych opartych o FPGA, są zatem chyba szczególnie interesujące, dla rozwiązań analogicznych do np. architektury mainframe, używanej do wielu równocześnie przeprowadzanych operacji (głównie transakcyjnych) oraz wskazują,że jest ona bardziej rozwiązaniem, uzupełniającym niektóre słabości architektury (GP)GPU. Co więcej architektury oparte o FPGA, dają możliwość implementacji rozwiązań informatycznych o charakterze sprzętowym i algorytmów niemożliwych do zrealizowania przy pomocy GPU.

Oczywiście abstrahując od obliczeń musimy również pamiętać,że układy FPGA mogą zastępować niektóre rzadkie i prototypowe urządzenia, jeśli zostaną odpowiednio zaprogramowane. GPU nie. Należy też pamiętać, że duża część problemów, związanych z programowaniem tak pod architekturą (GP)GPU oraz pod układami FPGA jest do rozwiązania w środowisku OpenCL (Wiki:[PL] [Ang]).

Ponieważ w chwili obecnej, nie stać mnie ani finansowo ani pod względem praktycznym na w pełni praktyczne porównanie tych rozwiązań – ewentualne komentarze i korekty osób które tego próbowały (i które pomogą ocenić praktyczną rolę tych rozwiązań czytelnikom tego bloga) są bardzo mile widziane. Dziękuję.

Ku regeneracji v. 2.0 – materiały samoleczące i regeneracja jako funkcja rekonfigurowalnej elektroniki.

Wbrew tytułowi,tak naprawdę,jeśli chodzi o regenerację nie osiągnięto jeszcze tak wiele by dogonić naturę,tym bardziej zaś – wyprzedzić ją. Mimo to sprawa jest ciekawa.

W najnowszej wersji gry Starcraft 2 (Wings of Liberty), oprócz zdolnej do regeneracji rasy zergów również w rasie ludzi potencjalnie dostępna jest „technologia regenerującego się pancerza”. Nie wiem,czy w tej grze ma to jakieś szczególne znaczenie – w rzeczywistości jednak, miałoby na pewno. Popatrzmy bowiem ogólnie:

Siłą ludzi i zwierząt w porównaniu z robotami przy wykonywaniu prac fizycznych, jest zdolność do przystosowania – ale też, do częściowej regeneracji obrażeń. Skóra ulega regeneracji,a po drobniejszych zranieniach i otarciach po jakimś czasie nie pozostaje nawet ślad. Funkcje uszkodzonych tkanek przejmują inne. Naprawdę, trochę trzeba,by uszkodzenie żywego organizmu – człowieka czy zwierzęcia było naprawdę trwałe.Tymczasem uszkodzone maszyny i materiały zwykle pozostaną uszkodzone nawet w drobny sposób,a uszkodzenia te będą się kumulować. Co to oznacza ? Oczywiście: koszty,czas poświęcony na naprawy,konieczność ingerencji technika. mechanika, czy innego specjalisty i zakupu części zamiennej, lub wręcz konieczność zakupu nowego produktu…

Co z tym można zrobić ?

Generalnie rozwiązania są trzy:

  • „Płakać i płacić” – ponosić koszty występującego problemu i napraw usterek.
  • Znaleźć sposób,by część materiału czy systemu przejęła funkcję uszkodzonej,lub chociaż zachowywała się stosownie do uszkodzenia.
  • Znaleźć sposób,by część materiału czy systemu naprawiła się sama.

Rozwiązanie pierwsze,szczególnie gdy niezawodność przegrywa z ceną,czy też może być z natury ograniczona było stosowane do tej pory najczęściej. Pozostałe rozwiązania wyglądają na skomplikowane w praktyce. Nie oznacza to jednak,że przynajmniej częściowo nie mogą zostać zrealizowane.Jest to wyjątkowo ważne,ponieważ własność samoleczenia/samonaprawy może znacząco zwiększyć niezawodność materiałów i wydłużyć czas funkcjonowania niektórych urządzeń.To naprawdę jest możliwe !

Istnieje wiele (często współdziałających) rozwiązań składających się na te rozwiązania – a tym samym na mniej,lub bardziej zaawansowane systemy samoleczące.Są to:

  • Nadmiarowość
  • Modułowość
  • Samoorganizacja
  • Hierarchiczna struktura
  • Możliwość transportu w strukturze różnych jej elementów
  • Specyficzne elementy naprawcze

Przykładem częściowej realizacji stosunkowo prymitywnego sposobu, na pewnego rodzaju przejęcie funkcji uszkodzonego systemu, czy nawet regenerację w samolotach F15, była nadmiarowość elementów elektronicznych, połączona z modelowaniem lotu, w celu wykrycia rozbieżności z modelem sprawnego samolotu. Z czasem założono,że więcej osiągnąć można poprzez zastosowanie sieci neuronowych .Więcej o tych badaniach można poczytać w dokumencie „The story of Self-Repairing Flight Control Systems” dostępnym na stronie NASA

Współcześnie przy coraz krótszym czasie rekonfiguracji możliwe byłoby również (być może) w niektórych wypadkach skorzystanie z rekonfigurowalnych układów FPGA [Wikipedia: PL, ANG ]

Rekonfigurowalna elektronika, nie jest może w pełni porównywalna z najnowszymi dedykowanymi układami ASIC czołowych producentów,ale ma duży potencjał jeśli chodzi o elektroniczne systemy w których funkcję uszkodzonego układu przejmują po przeprogramowaniu inne. W niektórych (szczególnie tych bardzo zaawansowanych przypadkach) bardzo istotną kwestią jest jednak czas rekonfiguracji, zwłaszcza wczytania konfiguracji z pamięci flash. O układach FPGA już wielokrotnie wspominałem, jeszcze napiszę o nich wkrótce,ponieważ jest to bardzo interesująca i w niektórych zastosowaniach – bardzo obiecująca technologia.

W informatyce zresztą stosuje się również niekiedy zastępowalność i nadmiarowość – przykładem jest (w niektórych przypadkach) np. w niektórych macierzach dysków RAID. (należy uważać na macierze softwarowe – obciążają one procesor bardziej)

Jednym z bardziej wydajnych rozwiązań, zmierzających do regeneracji przez systemy elektroniczne pomimo uszkodzeń jest wykorzystanie automatów komórkowych w elektronice rekonfigurowalnej,poprzez wykorzystanie specyficznego algorytmu TTA (Tom Thumb Algorithm). Jest to algorytm powstały na podstawie uproszczenia mechanizmu samoreplikacji w automatach komórkowych znanych jako maszyna samoreplikująca (universal constructor) von Neumanna (który zresztą odpowiada, za wprowadzenie idei samoreplikacji w odniesieniu do maszyn i jest twórcą idei automatu komórkowego – choć opierał się początkowo również na pracach Polsko-Amerykańskiego matematyka Stanisława Ulama). Algorytm ten pozwala na wykorzystanie nadmiarowości urzadzenia rekonfigurowalnego tak,by w miarę możliwości ominąć uszkodzone obszary. Algorytm ten został on wprowadzony przez Umberto Pesavento,badacza włoskiego pochodzenia.

Jednak jak wspomniałem, nadmiarowość i ewentualnie hierarchiczna struktura nie są jedynym rozwiązaniem. Jeśli chodzi o materiały samoleczące, istnieje dużo więcej prostych ideowo,a przy tym bardzo skutecznych rozwiązań.

Zasadniczo, oprócz materiałów samoleczących, ulegających samodzielnej regeneracji wyróżnia się takie,które podlegają jej w odpowiedzi na wprowadzony przez człowieka odczynnik – np. odczynnik chemiczny. Ponadto, pewne materiały posiadają z natury pewne zdolności do „samoleczenia”, na przykład:

  • Określone tendencje do ruchu cząsteczek (w wyniku zjawisk fizykochemicznych takich jak np. dyfuzja
  • Odpowiednie naprężenia ściskające w przypadku pęknięć
  • Odpowiednie nagrzewanie (w wypadku szkieł,szkieł metalicznych i niektórych stopów)
  • Pasywacja / Utlenianie (również ceramiki) i inne reakcje chemiczne powodujące powstanie stabilnej międzywarstwy
  • Przemiany fazowe pozwalające na wypełnienie pęknięć przez nową fazę.
  • W pewnych określonych przypadkach – pamięć kształtu.

Natomiast w literaturze naukowej, wspomina się następujące procesy i rozwiązania intensyfikujące samolecznie:

  • Enkapsulacja i mikroenkapsulacja cząsteczek (zamknięcie w kapsułkach) lub „drążone włókna” („hollow fibres”) z określoną substancją/substacjami wypełniającymi np. pęknięcia.
  • Transport Kanalikowy (przez pęknięcia i pustki)
  • Rozszerzające się fazy
  • Rozdzielanie się faz
  • Odwracalne sieciowanie (polimery)
  • Wzrost temperatury
  • Procesy elektrochemiczne
  • Procesy biologiczne
  • Samoorganizacja cząsteczek (zwłaszcza organicznych – ale nie tylko)

Należy pamiętać,że nie wszystkie te rozwiązania występują we wszystkich materiałach i układach naraz,lecz można zastosować w odpowiednich warunkach nawet kilka z powyższych rozwiązań.

Do bardziej konkretnych przykładów samoleczenia w materiałach należą:

  • Warstwy antykorozyjne i polimerowe, wykorzystujące „mikrokapsułki” lub drążone włókna. Ich działanie polega na tym,że powstałe w materiale pęknięcie jest zasklepiane, dzięki działaniu odpowiednich żywic lub innych odczynników chemicznych. Rozwiązanie z „drążonymi włóknami” pozwala ponadto,na uzyskanie złożonych chemicznie kilku odpowiednich substancji reagujących ze sobą tuż po powstaniu pęknięcia – np. żywicy i utwardzacza w przypadku polimerów.Z przykładem działania enkapsulacji odczynnika w celu powstrzymania wzrostu pęknięcia można zapoznać się na poniższym obrazku:
  • Jonomery EMAA,w których powstałe wskutek trafienia pociskiem pęknięcie, które prawdopodobnie pod wpływem aktywowanych cieplnie przemian ulegają zasklepieniu. Swoją pracę (master thesis) napisał na ten temat Stephen James Kalista Jr.
  • Warstwy pasywacyjne – szczególnie warstwy chromu w stopach żelaza z chromem i strukturach chromowanych. Są to bardzo stare rozwiązania,co nie zmienia faktu,że bardzo skuteczne jeśli chodzi np. o ochronę przed korozją.
  • Pęknięcia mogą być usunięte dzięki obecności odpowiednich naprężeń ściskających oddziałujących na strukturę (na przykład w trakcie eksploatacji)
  • Pęknięcia mogą być usunięte w aluminium w odpowiednich warunkach ,dzięki dyfuzji atomów miedzi w strukturze stopów aluminium.
  • W pękniętej strukturze betonu dzięki obecności bakterii przyspieszeniu ulec może naturalny proces odbudowy struktury krystalicznej węglanu wapnia – co oznacza likwidację części uszkodzeń strukturalnych.

W ten sposób, materiały samoleczące są skutecznym rozwiązaniem, chroniącym materiały przed utratą pełnionych funkcji wskutek pęknięć,korozji i innych uszkodzeń które w sposób skuteczny wyłączają materiał lub urządzenie z dalszej eksploatacji.

Praktycznie jednak procesy te nie umywają się do skuteczności i elegancji np. powstania skrzepu w miejscu zranienia,zrastania się kości, czy natychmiastowego rozkładu,a następnie ponownego złożenia, uszkodzonego wskutek działania światła białka. Tak czy inaczej, technologie te będą dynamicznie rozwijane i w najbliższych dziesięcioleciach należy spodziewać się znacznego postępu w prowadzonych nad nimi badaniach.Ponieważ wbrew tendencji niektórych producentów do planowego postarzania produktów,my konsumenci chcemy dobrych i sprawnych produktów.A w pewnych sektorach – szczególnie medycznym i wojskowości sprawność urządzenia jak najdłużej nadal ma pierwszorzędne znaczenie.

Kwantowe komputery – kolejny krok i co to ma wspólnego z kryptografią.

Tak po pierwsze przeprosiny dla osób czytających tego bloga które przywykły do tego,że zwykle moje nowe wpisy pojawiają się w Niedzielę.Czasem regularności jak widać nie ma,człowiek nie zegarek,czasem pisanie czegoś dłuższego trzeba odłożyć na później.Jeśli nic nie wrzucę do środy, wrzucę w weekend – obiecuję.

Jeśli jednak o nieregularności mowa,to ten krótki wpis będzie na temat informatyki kwantowej.Jak informuje blog geekweek i serwis internetowy czasopisma NewScientist na uniwersytecie KwaZulu-Natal w Durbanie (RPA) po raz pierwszy zrealizowano w praktyce wykonanie algorytmu Simona.Całość opisano w artykule „Experimental Realization of a One-Way Quantum Computer Algorithm Solving Simon’s Problem” czasopisma Physical Review Letters.Co prawda ten algorytm sam nie jest niczym nadzwyczajnym,ale problem z komputerami kwantowymi jest taki,że kwestią czasu jest,gdy  wdrożony na nich zostanie inny algorytm.Algorytm faktoryzacji Shora. Zagrożenie,że ten algorytm zostanie użyty niwecząc skuteczność takich szyfrów jak RSA jest oczywiste.Podatne na ataki kwantowe są w gruncie rzeczy również inne algorytmy szyfrowania,np. algorytm ElGamala. W praktyce więc poważny problem dotyczy dużej części – jeśli nie całości – współczesnej kryptografii klucza publicznego. W dodatku, stosowana jako lekarstwo na wady algorytmu RSA kryptografia krzywych eliptycznych (ECC) będzie bardziej podatna na kryptoanalizę kwantową,niż analogicznej długości klucze RSA ! Podatna będzie także kryptografia krzywych hiperbolicznych (HECC).Mało tego,odpowiednie zastosowanie algorytmu Groovera (w teorii służącego do przeszukiwania nie posortowanej bazy danych,w praktyce – pomocnego w kryptoanalizie) również oznacza osłabienie wielu stosowanych szyfrów (co będzie wymagało odpowiednio dłuższych kluczy)

No dobrze. Jakie znaczenie w praktyce ma niebezpieczeństwo złamania szyfru przez komputer kwantowy ?

Algorytmu RSA i kryptografii krzywych eliptycznych,używają/używały m.in:

  • karty sieciowe
  • „bezpieczna” telefonia komórkowa
  • SSL
  • Podpisy cyfrowe
  • PGP (i przynajmniej częściowo – programy pochodne,o ile używać będą tych szyfrów)

Co prawda, istnieją już dziś algorytmy odporne na wszelkie znane ataki kwantowe – np. algorytm McEliece [Wikipedia][Artykuł na temat jego odporności]. Nieco dokładniejsze,lecz bardzo techniczne informacje, na temat kwantowych ataków na algorytmy kryptograficzne przy użyciu komputerów, można znaleźć w artykule „Classical Encryption and Authentication under Quantum Attacks„. Co równie ważne, algorytmy takie jak AES,czy funkcje hashujące (np. SHA-2) najprawdopodobniej pozostaną stosunkowo bezpieczne przed atakiem kwantowym,choć ich efektywność zostanie zmniejszona do skuteczności kluczy o połowę krótszych.Np klucz 256 bitowy będzie dla komputera kwantowego porównywalny z 128 bitowym.Nie należy jednak zapominać,że mogą one mieć inne słabości…

Kiedy kwantowe komputery zostaną wdrożone na serio do łamania takich szyfrów ? Nie dowiemy się raczej.

Jest przecież oczywiste,że w momencie uruchomienia programów umożliwiających łamanie złożonych szyfrów na komputerach kwantowych, odpowiednie rządy i instytucję będą to trzymać (a może już trzymają ?) w tajemnicy.

Mimo to,nie popadajmy póki co w panikę.Łamanie szyfrów przez komputery kwantowe na dużą skalę to kwestia co najmniej kilku lat,a przy odrobinie szczęścia kilkunastu.Rzecz jednak w tym,że należy się liczyć z tym,że w dłuższej perspektywie wszelkie zaszyfrowane szyframi podatnymi na kwantową kryptoanalizę,które będą gdzieś przechowywane,będą mogły być zdekodowane…

Nowości w nauce, technice, bezpieczeństwie i nie tylko – 9.11.2014

Nauka:

  • Po szumnym ogłoszeniu odkrycia cząstki Higgsa,po Noblu itd przyszły (wreszcie) pytania,czy akcelerator LHC zaobserwował cząstkę Higgsa czy może coś podobnego, oraz pytanie czy była ona sama.No i bardzo dobrze.Model standardowy w fizyce nie do końca jest taki piękny, a ja osobiście uważam,że najciekawsze w teoriach i modelach są ich nieścisłości i ograniczenia. Więcej na omawiany temat na portalu phys.org; oraz artykule „Technicolor Higgs boson in the light of LHC data” opublikowanym w piśmie Physical Reviev Letters i dostępnym również na stronie arxiv.org.
  • Ciekawy argument przeciwko wierze w duchy – wrażenie „obecności” odtworzono w laboratorium. Całość eksperymentu opisana jest w artykule „Neurological and robot-controlled induction of an apparition” opublikowanym w piśmie Current Biology. Więcej na temat tego eksperymentu można poczytać tutaj.
  • Badania nad chipami neuromorficznymi trwają.Grupa z Uniwersytetu w Heidelbergu zaprojektowała w styczniu Chip neuromorficzny zawierajacy 384 sztuczne neurony i 100.000 sztucznych synaps. Ostatnie eksperymenty na MIT z chipem zawierającym 576 takich neuronów obsługującym drona dały bardzo ciekawe efekty.W przeprowadzonym eksperymencie maszyna korzystając z sensorów pracujących w zakresach promieniowania „optycznym” (widzialne promieniowanie), ultradźwiękowym i podczerwonym przeleciała przez 3 pokoje.Cykl uczenia i sam proces eksperymentu nie został dokładnie omówiony,więcej informacji można znaleźć pod adresami: http://phys.org/news/2014-11-drone-flight-special-chip.html i http://www.technologyreview.com/news/532176/a-brain-inspired-chip-takes-to-the-sky/  ponadto warto odwiedzić stronę: http://www.hrl.com/laboratories/cnes/cnes_main.html . O układach neuromorficznych pisałem natomiast tutaj.
  • Badacze z uniwersytetu Cambridge zidentyfikowali klasę polimerów,które przewodzą elektrony niczym nieorganiczne półprzewodniki. Więcej na stronie CambridgeNews.
  • Sukces w badaniach nad piezoelektrykami.Konkretnie chodzi o związek znany jako PZT o wzorze chemicznym Pb[Zr(x)Ti(1-x)]O3. Jest to jeden z najpowszechniej wykorzystywanych piezoelektryków ceramicznych,a sukces polega na potwierdzeniu istnienia specyficznej granicy mającej istotne znaczenie dla piezoelektrycznych właściwości. Więcej informacji na stronie phys.org oraz w artykule „The missing boundary in the phase diagram of PbZr1-xTixO3.” pisma „Nature Communications”. DOI: 10.1038/ncomms6231
  • Amerykańscy Naukowcy z Purdue University opracowali technologię nanoszenia diamentowych wzorów z wykorzystaniem lasera i powierzchni grafitowej.Jest to szczególnie ciekawe zważywszy,że nie potrzebowali do tego wysokich temperatur ani komory próżniowej. Więcej na stronie phys.org i w artykule „Direct Laser Writing of Nanodiamond Films from Graphite under Ambient Conditions” czasopisma „Scientific Reports„. Artykuł jest dostępny na stronie Nature Scientific Reports.
  • Możliwe jest już złamanie zasady symetrii przy samouporządkowaniu w metamateriałach optycznych.Pozwoli to wytworzyć metamateriały optyczne o izotropowej odpowiedzi/reakcji optycznej będące nową jakością,jeśli chodzi o ten rodzaj materiałów.Jednym z zastosowań jest (już wymieniona – przy okazji kropek kwantowych) „czapka niewidka”. Więcej na stronie phys.org oraz w artykule: „Feedback-driven self-assembly of symmetry-breaking optical metamaterials in solution.” czasopisma „Nature Nanotechnology”, DOI: 10.1038/nnano.2014.243
  • Naukowcy niemieccy z Fraunhofer IIS na najbliższych targach w Monachium zaprezentują samochodową łącze samochodowej sieci o przepustowności 10 Gbit/s i . Więcej na stronie Electronics Weekly.

Bezpieczeństwo:

  • Na stronie Cryptome ukazały się ciekawe artykuły:
    • Na temat szpiegowania na Facebooku osób które zmieniły nazwę użytkownika lub dane kontaktowe: PDF. Sztuczka jest jednak prosta.Polega ona na tym,że o ile ktoś nie założył nowego konta id facebooka jest to samo.
    • Ciekawy artykuł na temat Microsoft One Drive i programu PRISM (narzędzia microsofu do szyfrowania nie zapewniają bezpieczeństwa przed NSA)
    • Intel ukarany za nieautoryzowany eksport technologii szyfrujących kwotą 750 tysiecy $. PDF.
    • Artykuł na temat Aplikacji TextSecure,służącej do wysyłania wiadomości tekstowych i jej bezpieczeństwa.
    • Ciekawy tekst na temat bezpieczeństwa sieci Tor,zwłaszcza po zlikwidowaniu Silkroad 2.0
  • Bruce Schneier ostrzega z EFF – sieć Amerykańska firma Verizon śledzi użytkowników korzystających z telefonów komórkowych.Oryginalny artykuł EFF.
  • Pełne podręczniki narzędzia inwigilacji rządowej Hacking Team RCS (Galileo) opublikowane na The Intercept. Kilka serwerów tego programu podobno jest w Polsce.

Inne:

  • Firma Xilinx wyprodukowała FPGA w technologii 20 nm dla przyspieszania prac w systemach Data Center. Produkt nosi nazwę Kintex UltraScaleKU115 FPGA. Więcej na stronie Electronics Weakly.