Katastrofa promu Virgin Gallactic

1 pilot SpaceShipTwo nie żyje,drugi jest w ciężkim stanie.Do katastrofy promu doszło podczas lotu testowego przeprowadzanego przez pracowników firmy Scaled Composites.

To jeden ze smutniejszych dni, jeśli chodzi o dążenie do eksploracji kosmosu i jeśli chodzi o jego komercyjną eksplorację. Co prawda turystyczne wycieczki na bliską orbitę okołoziemską to stosunkowo niewiele,a sama firma Virgin pewnie sobie z tym poradzi. Tym niemniej jest to kolejny wypadek – tym razem komercyjnego promu.Może mniejsza w porównaniu z tym co się stało z promem Columbia czy Challenger – lecz czy dla tego, kto zginie i jego rodziny rozmiar katastrofy ma jakiekolwiek znaczenie ? To tragedia i tyle.

Przypominam też: 27 lipca 2007 trzech pracowników Scaled Composites straciło życie podczas testów silnika. Podbój kosmosu i rozwój wszelkich innych technologii kosztuje niekiedy życie ludzi.Cześć ich pamięci…

Wyrazy współczucia dla rodziny zmarłego pilota SpaceShipTwo. [*]

Condolences to the familly of dead pilot, of SpaceShipTwo. [*]

Co nowego w nauce i technice – przykłady – 29.11.14

  • Nowojorska firma Graphene 3D Lab opracowała technologię druku 3d baterii na bazie polimerowo-grafenowego wypełnienia. Dokładniejszy artykuł na stronie Geekweek. Mówiąc szczerze, podejrzewam,że na samych bateriach się nie skończy, a technologia ta,choć na razie droga i niedoskonała (zwłaszcza ze względu na skalę),pomimo przedstawionych przeze mnie aktualnych wad druku 3d, jest kamieniem milowym ku drukowanym samochodom elektrycznym.News o samochodzie elektrycznym wrzucałem zresztą całkiem niedawno. Czy zatem „Technologiczna osobliwość” (ang. Singularity) jest blisko ? Może nie,ale przy obecnym rozwoju techniki możemy faktycznie mieć wrażenie,jakby była faktycznie coraz bliżej…
  • Jeśli już chodzi o osobliwość technologiczną,to ciekawe jak bardzo w jej pojawienie się będzie uwikłana firma google. Po nowych inwestycjach w robotykę i startupy prowadzące badania nad sztuczną inteligencją google wkracza w obszar medycyny.I nie chodzi tylko o spółkę Calico,ale i nowe wizje na temat już znanej w środowisku naukowym idei zwalczania raka z wykorzystaniem nanocząsteczek.Więcej na giznet.
  • Na stronie cryptome podano link do ciekawego artykułu na temat steganografii w smartfonach.Co to jest steganografia można poczytać szerzej w odpowiednim artykule wikipedii.
  • Technologia HTML5 została ostatecznie oficjalnie zatwierdzona jako standard (ot taka biurokratyczna kwestia .Więcej na phys.org
  • Na portalu phys.org przedstawiono omówienie wyników najnowszych badań na temat kryptografii kwantowej. Wygląda na to,że to więcej niż tylko teoria,i że tym razem na serio udowodniono bezpieczeństwo tej metody.

Na tropie zdefiniowania zagadki życia i jego początków

Życie jest zagadką,taka jest prawda. Nie bez przyczyny próby wyjaśnienia tego zdumiewającego faktu, jakim jest nasze istnienie doprowadziło do powstania tak wielu filozofii i religii. Jednak dopiero w 2 poprzednich stuleciach zagadka ta zaczęła być rozwiązywana na naprawdę naukowych podstawach. Najpierw Karol Darwin ze swoją teorią ewolucji i mnich katolicki Gregor Mendel, prekursor genetyki – który zmarł chyba nawet nie wiedząc, jak fundamentalne rzeczy zauważył – właściwe wnioski wyciągnął dopiero Tomas Hunt Morgan, twórca teorii dziedziczenia chromosomowego. Wielkim sukcesem było też odkrycie kwasu deoksyrybonukleinowego (zwanego DNA) i ostateczne poznanie jego budowy. DNA jest nośnikiem kodu genetycznego zapisywanego na podstawie 4 zasad : dwóch purynowych: adeniny (Ade lub A) i guaniny (Gua lub G) oraz dwóch pirymidynowych: cytozyny (Cyt lub C) i tyminy. Adenina wiąże się z tyminą,a guanina z cytozyną wg schematu

(A—T ; C—G) lub (T—A ; G—C) co sprawia,że praktycznie, 2 nici podczas replikacji DNA są jakby negatywami. Kod genetyczny za pomocą 3 zasad koduje 20 aminokwasów wchodzących w skład organizmów żywych w następujący sposób:
https://upload.wikimedia.org/wikipedia/commons/thumb/7/70/Aminoacids_table.svg/640px-Aminoacids_table.svg.png

W praktyce, naukowcy pracujący nad sztucznym DNA udowodnili w maju tego roku, że liczbę nukleotydów można rozszerzyć do 6, co daje (teoretycznie) możliwość rozszerzenia tej liczby do 172 aminokwasów. Opisali to w artykule: „A semi-synthetic organism with an expanded genetic alphabet” czasopisma „Nature” (doi:10.1038/nature13314)

Problem kodowania jest jednak złożony, a samo DNA jest bardzo niesamodzielne, stąd jeśli chodzi o zagadkę życia zaciemnia ono raczej właściwy obraz rzeczy. Dużo ciekawsze są kwasy rybonukleinowe,które według niektórych teorii mogły pełnić rolę pierwotnego nośnika życia.

No dobrze.Opisałem ciekawe mechanizmy,ale ten „naukowy bełkot” nie wyjaśnia tego „cudownego” przejścia do braku życia do życia organicznego.

Ulubionym argumentem kreacjonistów negujących ewolucję, jest twierdzenie,że życie jest zbyt skomplikowane,przypomina wręcz rejsowy samolot,a ten nie może się poskładać sam. Argumenty te odpierał biolog ewolucyjny Richard Dawkins w swoich książkach,takich jak „Samolubny gen” czy „Wspinaczka na Szczyt Nieprawdopodobieństwa”, a pierwszym argumentem na rzecz samoczynnego powstania aminokwasów i życia był eksperyment Stanleya Millera w 1953 roku. Mimo to, zasadniczo powstanie życia wciąż nie jest satysfakcjonująco wyjaśnione jeśli chodzi o szczegóły. Nie mamy nawet pewności, czy pewne czynniki nie pochodziły z kosmosu. Tym niemniej, nie ma powodu podejrzewać jakiejś „nadzwyczajnej interwencji”,życiu na ziemi powstanie zabrało może nawet niemal miliard lat. A ziemia ma ich jako planeta prawdopodobnie zaledwie 4,5 miliarda lat, więc na „rzucanie śrubkami by powstał samolot” było naprawdę bardzo dużo czasu – i nie wymagało to od razu „samolotu”, żartobliwie można powiedzieć, że ewolucja zaczynała od złożenia dziecinnego latawca który systematycznie ulepszała, aż zrobiła z niego „samolot” który widzimy dziś.

No dobrze. Jeśli akceptujemy już ewolucję jako mechanizm i rozumiemy, że działa ona na podstawie stopniowych,nawarstwiających się poprawek, musimy dojść do oczywistego wniosku. Życie początkowo było całkiem prostym, a nawet stosunkowo mało efektywnym – ale działającym i rozprzestrzeniającym się – tworem. Tym samym jesteśmy już blisko wyjaśnienia tego czym ono jest, bowiem musimy odpowiedzieć na pytanie jakie to warunki musi spełniać życie by przetrwać i rozwinąć się. Warunki dla „materii żywej” określił jako pierwszy Tibor Gánti który zaproponował następujący zbiór warunków, które powinien spełniać system, by uznać go za organizm żywy:

Cechy konieczne:

  1. jest wyodrębniony ze świata zewnętrznego
  2. posiada metabolizm
  3. jest wewnętrznie stabilny, innymi słowy cechuje go homeostaza
  4. posiada podsystem przechowywania i przetwarzania informacji, użyteczny dla reszty systemu
  5. procesy wewnątrz systemu żywego są regulowane

Cechy potencjalne (Cechy które nie są konieczne by system uznać za żywy, ale konieczne by zachodził proces życia na większą skalę):

  1. obiekt żywy musi mieć zdolność do wzrostu i rozmnażania
  2. w replikacji musi zachodzić zmienność (warunek ewolucji)
  3. obiekt musi być śmiertelny

Ja stawiam to jednak znacznie prościej. Najbardziej pierwotny organizm czy inny twór „żywy”:
1.Musi podlegać samoreplikacji lub samoodtwarzaniu (rozmnażanie lub odtworzenie swojej postaci), populacja najprostszych „cząstek życia” musi przyrastać, lub w najgorszym wypadku nie zmieniać się.
2.Musi mieć dość materialnych środków które mogą jej pomóc w powyższym – tak pod względem materii (pełniącej tu jednak rolę „tworzywa” (nie ma zatem powodu,dla którego takim tworzywem nie miałaby być informacja) jak i energii. (metabolizm)

3.Musi być mechanizmem samodzielnie regulującym swoje działanie (homeostaza,i nie tylko), częściowo niezależnym od warunków swego środowiska.

Zatem:

  • Cecha „potencjalna” 1 mieści się w pierwszym – w istocie podstawowym dla życia punkcie.
  • Cecha główna nr 2 pozostaje nie zmieniona
  • Cecha główna numer 3,4,5 to w istocie elementy podpunktu 3
  • „Element podstawowy nr 3” „system informacji” wprowadza nadmierne komplikacje i wrażenie pomagające kreacjonistom i utrudnia analizę. W istocie „informacja” czy „system informacji” powinna być traktowana tylko jako „stany układu”,zaś sugestia „komplikacji” czy „celowości” ukryta za słowem „informacja” jest tu bardzo myląca.
  • Wyodrębnienie ze „świata zewnętrznego” – „warunek konieczny nr 1” jest kwestią istotną przy rozróżnieniu. Sugeruje konieczność istnienia od początku czegoś w rodzaju błony komórkowej, która pomimo pełnienia ważnych funkcji mogła w istocie wyewoluować później. Nie jest niezbędne w sobie jeśli chodzi o samo powstawanie; tworzenie się życia, jest natomiast niezbędnym elementem w pewien sposób definiującym jego zaistnienie, jako tworu (częściowo) niezależnego od środowiska.

Natomiast:

  • Zmienność w replikacji (cecha potencjalna nr 2) bywa zbawiennym motorem ewolucji (choć częściej jest niszczycielska), aczkolwiek jest skutkiem termodynamiki i szkodliwego wpływu środowiska
  • Śmiertelność (cecha potencjalna nr 3) wynika ze szkodliwego wpływu środowiska i ma korzystny wpływ na proces ewolucji i uwalnianie zasobów, w istocie jednak wcale nie jest „cechą życia”, lecz efektem termodynamicznym je regulującym.

3 cechy które wymieniłem, nie wydają się jeszcze zdumiewająco proste. Ale dochodzimy do sedna tego czym jest w praktyce materialne (i nie tylko) życie,co ma znaczenie w egzobiologii, a może i w informatyce.

Istnieje wiele niewystarczających definicji.Dla przykładu:

„Życie jest to sposób istnienia ciał białkowych” – niepoprawne,gdyż zakłada antropomorficznie,że konieczna jest struktura białkowa.Ta wypowiedź Fryderyka Engelsa nie tłumaczy nic,i nakłada nadmierne ograniczenia,niezgodne już ze współczesnym stanem wiedzy

Życie związane jest z pewną substancją, określoną przez swoją naturę chemiczną – jest nią protoplazma” – jest to echo teorii protoplazmatycznej Gántiego,które ogranicza życie do formy czysto chemicznej.

Życie (…) nie jest (…) właściwością jakiegoś specjalnego związku chemicznego – np. białka lub kwasu nukleinowego – ale cechą specyficznej organizacji systemów żywych. Dlatego zwrot „materia ożywiona” jest niepoprawny – powinno się mówić: żywy system materialny” – z tą definicją Gántiego nawet się zgadzam. Ale nie mówi ona za dużo o istocie życia, poza tym, że jest ono jakimś systemem (materialnym).

Zgadzam się za to z definicją którą przedstawił Lee Smolin , który zdefiniował termodynamicznie życie jako: samoorganizujący system nierównowagowy, którego procesami rządzi program, przechowywany w postaci symbolicznej (informacja genetyczna), zdolny do reprodukcji, włącznie z tym programem.

Należy to ująć dokładniej:
Życie jest stanem stabilnego, pomimo narastającej entropii otoczenia, nieuporządkowania/uporządkowania termodynamicznego, zachowującym w przybliżeniu stabilną entropię własną i funkcjonującym w tym stanie kosztem zwiększania entropii otoczenia,  jako w pełni samodzielny (w znaczeniu: nie wymagający zewnętrznej pomocy) nieredukowalny pod względem tej właściwości system.

Co do samego „programu”, to w wypadku najprostszego życia zgadzam się, pod warunkiem, że potraktujemy go podobnie jak informację i system informacji – jako konkretne stany, przekładające się na inne konkretne stany zgodnie z prawami natury,nie jako skomplikowany twór wymagający „programisty”. (Program mógł wyewoluować sam !)

W moim zatem rozumieniu, samopodtrzymująca się (to właśnie jest kluczowe – nie wynikająca już tylko z czynników zewnętrznych) samoorganizacja może być swego rodzaju początkiem życia – w bardzo prymitywnej wersji.

Z punktu widzenia teorii informacji twierdzi się:

„Życie to czasowa zdolność (cecha) swoistego systemu, sterowanego przez informację i przetwarzającego informację, wykorzystywania i przekazywania zawartej w nim informacji semantycznej.”

Moim zdaniem jest to niestety tylko definicja samoorganizacji, pozbawiona klucza, jakim jest kompleksowa zdolność procesu do samodzielnego podtrzymania swego przebiegu, w obrębie systemu w jakim funkcjonuje. (to jak głęboka to samodzielność,to inna sprawa)

Na tej podstawie zatem możemy określić życie jako specyficzną formę samoorganizacji, która sama się podtrzymuje korzystając z właściwości swoich (i środowiska). Sam  proces samoorganizacji jest coraz lepiej poznawany i wbrew pozorom jego „komplikacja” i „cudowność” wynika tylko z kompleksowości zjawisk. Na drodze jednak do stworzenia systemów, które będziemy mogli określić w pełni uczciwie „żywymi”, lub zbliżonymi do żywych stoi jeszcze brak ich zdolności do utrzymania swojego funkcjonowania w sposób trwały, przynajmniej teoretycznie w miarę samodzielnie, bez naszej pomocy.

Nie wynika z tego absolutnie,że osoby potrzebujące cudzej pomocy czy pomocy urządzenia do życia są martwe (bo to bzdura) nie bawmy się tu w tak skrajne upraszczanie i filozofowanie – to jest blog techniczny. Rzecz tylko w tym oto PODSUMOWANIU:

    Powstanie życia wcale nie było nierozwiązalnym problemem jak się potocznie uważa. Wymagało zaistnienia odpowiedniego procesu samoorganizacji materii „ożywionej” w korzystnym środowisku i wytworzenia się skutecznych (aczkolwiek relatywnie prostych) „narzędzi”, uodparniających samoorganizującą się materię przynajmniej częściowo na niekorzystne warunki środowiska. (Określone) Środowisko jest powiązane z istnieniem (określonego) życia w sposób wyjątkowo ważny,a sama częściowa niezależność od niego – jako cecha życia – wynika z możliwości zaistnienia warunków szkodliwych. Oprócz samoorganizacji, warto zwrócić również uwagę na procesy zapewniające aktywne utrzymanie stanu własnego przez układy materialne i informacyjne wbrew czynnikom zewnętrznym. (Szczególnie,że w gospodarce rynkowej, gdzie wymiana produktów jest intensyfikowana np. poprzez planowe postarzanie, trwałość jest cechą coraz mniej cenioną).

A życie to forma podtrzymującej się samoorganizacji, funkcjonującej pomimo presji termodynamicznej.

Idealne hasło – długie, biometryczne, uwierzytelnienie dwustopniowe czy jeszcze coś innego ?

Ostatnio miał miejsce atak hackerski, na przynajmniej niektóre z serwerów GPW.Więcej o tym pisze niebezpiecznik.

Ludzie których hasła złamano generalnie stosowali (zaglądałem na pastebin) hasła słabe.Byli to, niestety chyba nawet niektórzy administratorzy. W tym krótkim artykule wyjaśnię kilka podstawowych drobiazgów dotyczących haseł.

  • Wejście na serwer osiągane jest zwykle dzięki dziurze w którejś z usług serwera,dzięki „podsłuchaniu” hasła (w sieci snifferem,lub fizycznie – keylogerem) lub ordynarnemu zdobyciu pliku z hasłami.Jest to temat zbyt złożony,by omawiać go na tym blogu,ponieważ istnieje naprawdę wiele ewentualności.
  • Hasła systemowe i niektóre programowe zawarte są w formie zakodowanej.Jest tak w wypadku części programów,ale nie zawsze,niektóre hasła prostszych programów zapisywane są jednak w plikach konfiguracyjnych w pozbawionej jakiegokolwiek szyfrowania formie – i wtedy byle kto może przy odrobinie inicjatywy takie hasła obejść.
  • Dodatkowo (przynajmniej w systemach GNU Linux) hasła szyfrowane są za pomocą „jednokierunkowych” algorytmów znanych jako funkcje skrótu takich jak np. MD5 (niestety podatny np. na kolizje), czy dużo mocniejszy kryptograficznie algorytm SHA512 (SHA2 512 bitowy) należący do rodziny SHA2 i stosowany w nowszych wersjach systemów linux już jako domyślny Możliwe jest również zastosowanie innych algorytmów – na przykład blowfish. Dodatkowo,Amerykańskim standardem rządowym ma być docelowo SHA3.
  • System Windows, teoretycznie korzysta z hashowania,niestety w praktyce hasła przechowywane są w pamięci w postaci jawnej (czyli nie zaszyfrowanej) i wystarczy tylko odpowiednie oprogramowanie – więcej na ten temat pisze pan Wojciech Smol na stronie sekurak. Zahashowane hasła przechowywane w pliku SAM który w czasie,gdy komputer jest uruchomiony nie jest dostępny (więc przez sieć pozostaje atak na pamięć). Do zakodowania haseł w pliku SAM może być używany LM NTLM. W praktyce nowsza wersja NTLM to podobno MD4,czyli poprzednik MD5… Oczywiście nie jestem informatykiem i nie wiem,czy gdzieś jakoś nie jest wykorzystywany np. kerberos – ale słabości systemów Windows są widoczne i oczywiste, i niestety taki stan rzeczy trwa to od stosunkowo dawna,a firma Microsoft jest tu chronicznie zbyt pewna siebie.Choć oczywiście poprawia (na szczęście) swoje produkty,a totalna nieobecność pliku hasła w uruchomionym systemie nie jest taka głupia.
  • Nieznane hasła zasadniczo łamane są przy użyciu 2 metod:
    • Brutalnej (brute force) – gdzie wypróbowuje się wszystkie możliwości. W praktyce jest ona zależna od mocy obliczeniowej procesora,rdzeni karty graficznej lub innego wyspecjalizowanego urządzenia (na przykład – chyba niedocenianych układów FPGA ) – ciekawy artykuł na ten temat jest na stronie extremetech.
    • Słownikowej – gdzie korzysta się z gotowych hashy/hashowania najczęściej używanych słów.

Wynikają z tego w praktyce następujące wymogi dla haseł:

  • nie powinny być „słownikowe”,czyli nie powinny być popularnymi słowami i ich kombinacjami,nawet zakończonymi cyframi itp. a już zwłaszcza nazwą loginu czy czymś równie przewidywalnym (ale wciąż się takie trafiają).
  • powinny składać się z możliwie największej liczby możliwych znaków (stąd duże litery i znaki specjalne) – hasła (MD5) mające 8 znaków są obecnie łamane przez biurkowe komputery w mniej jak godzinę,maksimum może dzień jeśli uzyć dużych liter i znaków specjalnych. Hasła dłuższe niż 10 znaków (zwłaszcza jeśli zastosować tą poradę) są już odrobine bezpieczne,tak samo hasła zaszyfrowane algorytmem SHA512 powinny być bardzo bezpieczne w porównaniu z MD5 (ale krótkich haseł i tak nie polecam)

Nie należy oczywiście stosować ZWŁASZCZA haseł takich jak:

  • 123456 / 12345678
  • password / haslo / hasło
  • admin (czy tam inna nazwa użytkownika)
  • qwerty
  • abc123

Niestety wciąż są one podobno popularne…

Niestety sprawa wydłużania haseł nie jest tak prosta, jeśli chodzi o zwykłych,prywatnych użytkowników,czy co gorsza użytkowników w zakładzie pracy.Oni są przede wszystkim wygodni i idą na skróty. Rozwiązaniem dla tego rodzaju ludzi są nowsze (ale niezbyt tanie) metody:

  • Zabezpieczenia biometryczne
  • Wielostopniowe (dwustopniowe) uwierzytelnienie.

Metody te,choć wydają się prostsze i bezpieczniejsze wcale nie muszą takie być. Dwustopniowe uwierzytelnienie wymaga innego urządzenia i wpisywania kolejnych,skomplikowanych kodów. Natomiast systemy biometryczne można do pewnego stopnia oszukiwać sprytnymi sztuczkami,do tego cechy teoretycznie niezmienne i nie do podrobienia wg. twórcy metody,wcale nie muszą takie być w rzeczywistości – co oznacza zarówno możliwość uzyskania dostępu przez osobę niepowołaną,jak i brak dostępu.Co jeszcze z komputerem może raz na jakiś czas przejść,ale jeśli chodzi o np dostęp do konta bankowego,to może być bardzo irytujące. Co równie istotne rozpoznawanie biometryczne wymaga bardziej złożonych algorytmów.

Jakie wyróżnia się przykładowe elementy zabezpieczeń biometrycznych ?

  • Tęczówka oka lub siatkówka
  • Twarz
  • Odciski palców (tłuszcz + żelki i wprawny człowiek może jednak zrobić podobno cuda)
  • Kształt dłoni
  • Głos (do pewnego stopnia może jednak być nagrany)
  • Charakter pisma (uwaga – jego podrobienie mogłoby być dla nas niebezpieczne ze względu na choćby weksle)
  • Charakterystyczny rytm uderzania w klawisze

Ponadto, choć to kosztowne nie wykluczam wykorzystania w przyszłości np DNA (choć w wypadku bliźniąt jednojajowych mogą pojawiać się już problemy),wykorzystywany może być też (np. w bankomatach) układ żył,a w niektórych przypadkach,do rozpoznawania osób analizowany może być np. chód.

W gruncie rzeczy te cechy lub dobranie się do bazy danych z którą porównuje się uzyskane wyniki, są jednak przynajmniej częściowo możliwe do podrobienia czy podmienienia – choć bywa to już bardziej kosztowne niż złamanie hasła. W dodatku należy pamiętać,że udostępnienie danych biometrycznych do identyfikacji ze zdalnym serwerem, to przekazanie tych danych w ręce służb specjalnych i potencjalnych co zdolniejszych hackerów.

A jakieś inne fizyczne rzeczy,np kluczyk/karta magnetyczna ? Przy fizycznym dostępie do komputera oczywiście czemu nie – ale klucz fizyczny da sie też otworzyć,istnieje cała („złodziejska” – u nas posiadanie samych narzędzi jest karalne) sztuka otwierania zamków – tzw. lockpiking.

Aha.Miałem jeszcze o „czymś innym”.Tak sobie myślę,że wpisywanie hasła tylko klawiaturą jest nie do końca mądrą ideą.Przecież w wielu komputerach osobistych używa się myszki/pada itd. Dlaczego nie wykorzystywać np. rysunków/obrazków jako części uwierzytelnienia ? Ciekaw jestem dlaczego nikt nie wpadł na ten oczywisty pomysł już dawno.A może się to nie przyjęło ?

Czego by jednak nie zrobić, to istnieje stara prawda – nie ma zabezpieczeń nie do sforsowania.To tylko kwestia wysiłku.I aż.

Reaktor fuzyjny w ciągu 5-10 lat ?

Ostatnio jakoś mamy wysyp newsów na temat reaktora fuzyjnego już niedługo. O tym,że reaktor termojądrowy jest świętym graalem energetyki; sposobem na wyjątkowo czystą energię elektryczną za śmieszne pieniądze wiadomo od dawna.

O reaktorach fuzyjnych wspominałem już we wcześniejszym wpisie.Pierwsze próby prowadzono już bardzo dawno. Czy wiec zbliżamy się do przełomu ? Oto koncern Lockhead Martin jako kolejny deklaruje,że jest 5-10 lat od przełomu, na miarę co najmniej porównywalnego z dawnymi podróżami na księżyc,czy wprowadzeniem komputera osobistego. Materiał wideo który wrzuca ta firma jest fascynujący:

Naukowcy są jednak nieco krytyczni,zauważając,że w istocie niektóre konieczne badania jeszcze nie zostały zrealizowane,a niektóre rzeczy są w fazie teorii,a Lockhead nie ma jak dotąd prototypu. Musimy pamiętać,że koncepcję tokamaka stworzyli już w 1950 Rosjanie Tamm i Sacharow.I do tej pory, jeszcze się nie udało tego pomysłu zrealizować w praktyce, w formie wydajnego źródła energii.Mimo to,wiele dróg i wiele prób przybliża całą ludzkość do tego wielkiego momentu coraz bardziej. Przypomnijmy:

  • Projekt ITER jest projektem pierwszego reaktora badawczego który ma wytworzyć więcej energii niż potrzebuje. Pierwszy zapłon ma mieć miejsce jednak dopiero za 5 lat – w 2019 roku.
  • Badania nad urządzeniem Polywell są nadal kontynuowane
  • Reaktor Dynomak klasy Spheromak miał niedawno być omówiony w St.Petersburgu – reaktor ten ma być tańszy niż węgiel w eksploatacji. Do materiałów z konferencji 17.10 nie dotarłem na razie,aczkolwiek pan Derek Sutherland zamieścił na swoim koncie wordpress poster (możliwe,że stary,ale i tak dobry)

Wnioski są oczywiste.Badania prowadzone są więcej niż 1 ścieżką.I prędzej czy później, ten reaktor fuzyjny będzie – taki czy inny. Cała kwestia w jednak w utrzymaniu tej plazmy wewnątrz odpowiednim polem magnetycznym i w kontroli nad nią. Czy jednak to jest kwestia 10 lat ? Obawiam się,że wiele tu zależy od środków na badania,możliwe też,że od opracowania lepszych nadprzewodników  i nie tylko- więc ten termin może raczej nie zostać dotrzymany.Chciałbym w to wierzyć,ale skala problemu sprawia,że mam wątpliwości.Rzecz jednak w tym,że to bardzo dobrze,że zwraca się uwagę na tą wielką szansę w mediach. Badania nad fuzją nuklearną mają strategiczne znaczenie nie tylko dla państw,ale całego gatunku ludzkiego. Szczytem (nieosiągalnych niestety) marzeń byłoby,gdyby państwa przeznaczyły na te badania solidarnie choć połowę swoich dotychczasowych budżetów zbrojeniowych – co raczej nie będzie mieć miejsca. Przy odpowiednim zarządzaniu,problem zostałby wtedy dużo szybciej rozwiązany.I bylibyśmy jako cywilizacja od razu lata świetlne do przodu.
Z drugiej strony, jeśli efektywne reaktory fuzyjne rzeczywiście powstałyby w 5-10 lat,to oznaczałoby to,że cały pomysł,by w Polsce postawić reaktor na materiał rozszczepialny (pomijając już oczywiste niebezpieczeństwo, typowych w naszym kraju „oszczędności”,które sprawiają,że po roku nasze „autostrady” nadają się do remontu,ponieważ „wykonana nadzwyczaj oszczędnie” Polska jezdnia niestety pęka) może się okazać wyrzuceniem pieniędzy w błoto na przestarzałą i niebezpieczną technologię. A wtedy zdobędziemy kolejny powód,by swojsko ponarzekać na „niezwykłą bystrość” i „wyjątkowo wielką wiedzę” (zwłaszcza naukowo-techniczną) naszych polityków,z których 82  jest (jak deklarują) nauczycielami i wykładowcami akademickimi (no ale, czego się spodziewać po „humanistach” i to w kraju który nadal konsekwentnie utrzymuje wydatki na naukę na poziomie promili PKB ?).