Maszyny które czytają w myślach

Na początek polecam obejrzenie poniższych filmów:

 

 

Tak.To się dzieje naprawdę.Rozwój współczesnej technologii sprawia,że już niebawem, cuda znane dotychczas jedynie z religijnych mitów staną się rzeczywistością.Nie poprzez „uzdrowienia” lecz poprzez naukę stosowaną.Konkretnie, poprzez wykorzystanie tzw. interfejsu mózg-komputer Co to jednak znaczy dla nas ? I co ważniejsze – dlaczego właściwie nie wszczepiać sobie już teraz masowo takich elektrod/mikrochipów, skoro daje to potencjalnie nowe potężne możliwości ? (Pomijając fakt klasycznego ryzyka związanego z prototypową technologią ?)

Zacznijmy jednak od powtórzenia i uzupełnienia informacji dostępnych na filmach po angielsku.Zasadniczo implanty w formie elektrod nie są rozwiązaniem zbyt nowym,pomysły elektrycznego pobudzania neuronów czy odwrotnie: rejestrowania ich pobudzenia, miały miejsce już przy początkach neurobiologii. W praktyce metoda zaprezentowana na filmach polega na wszczepieniu rodzaju mikrochipu zawierającego szereg elektrod, mających pobudzać neurony lub reagować na ich pobudzenie.Nie są one duże – ale już taka perspektywa jest dla niektórych nieco przerażająca.
Przykładowy implant elektrodowy
Ale elektrody mają wady.Problemem może być zarówno ruch tkanki mózgowej w czaszce przy gwałtowniejszych ruchach (oczywiście przy osobach sparaliżowanych nie występuje tak często,jak i biozgodność.

Biozgodność jest poważnym problemem, nie tylko w przypadku implantów w mózgu,ale i wszelkich implantów stosowanych w medycynie,a problemy z nią objawiają się często różnymi chorobami, nawet pozornie odległych i nie związanych tkanek. Nawet jednak w wypadku stosunkowo biozgodnych substancji (a takie są stosowane w tego rodzaju układach wszczepianych do mózgu), pozostaje problem martwicy okolicznych komórek tworzących izolującą warstwę ochronną przed „ciałem obcym”. Problem biozgodności i wpływu materiałów implantu na okoliczne tkanki jest ważnym problemem medycyny i inżynierii materiałowej a jego charakter jest zdecydowanie kompleksowy. Ryzyko związane z brakiem biozgodności jest podstawowym problemem,przez który wszczepianie sobie czegokolwiek jest ryzykowne.W wypadku implantu elektrodowego, problem izolującej martwej tkanki jest o tyle istotny,że oznacza mniejszą wydajność implantu,a co za tym idzie jego mniejszą użyteczność w dłuższej perspektywie.Dlatego właśnie póki co, elektrody i tego rodzaju implanty wydają się jak na razie ślepą uliczką.

Jednakże prowadzone są badania nad wykorzystaniem zamiast elektryczności i elektrod światła laserowego,ponadto wszczepienie implantu wiąże się z lepszym obrazowaniem, ale nie jest wcale konieczne dla obrazowania pracy mózgu,które może być wykonane innymi metodami np. poprzez EEG i inne nowsze metody nieinwazyjne, które różnią się tylko poziomem szumów i zakresem częstotliwości,ponadto również stosowanie elektrod nie wydaje się jedyną możliwością,gdyż w Berkley prowadzone były badania nad obrazowaniem z udziałem „pyłu neuralnego„. Całość tych badań wygląda naprawdę interesująco,tym niemniej, ponieważ zarówno one jak i badania nad pobudzaniem neuronów przy użyciu światła laserowego nadal trwają, trudno wyciągać jakieś ostateczne wnioski.Efekty na pewno wpłyną znacząco na sterowanie przez człowieka maszynami jak i na odbiór przez nas informacji,dalszy rozwój technologii „czytania w myślach” jest też potencjalnym kolejnym zagrożeniem dla prywatności oraz spowoduje ważkie pytania filozoficzne.Ale tak już z nauką jest…

Reklamy

Porowaty materiał. Ani gorszy ani lepszy tylko inny

Kwestia materiałów porowatych/zawierających pustki materiałów jest starą kwestią, która ze względu na nowe odkrycia, oraz technologię druku 3d nabiera nowego znaczenia.Ocena materiałów zawierających „pustki” nie jest i nigdy nie była jednoznaczna. Porowatość w materiałach litych nie bez powodu, od lat była zwalczana ze względu na osłabianie materiału, co rzutowało na jakość choćby produktów hutniczych i odlewniczych.Z drugiej strony jednak, dzisiaj gdy w technologii druku 3d stosowane jest „drukowanie oszczędnościowe”, a materiały porowate, takie jak piany metaliczne są popularniejszym, niż do niedawna obszarem badań i zastosowań – problem różnic nabiera znaczenia.

Właściwie podobnie jak pianki metaliczne (metal foam) pozostałe materiały o strukturze porowatej i komórkowej można podzielić pod względem mechaniczno-strukturalnym na takie z porowatością zamkniętą i otwartą. Ponadto można też wyróżnić struktury regularne/pełniące rolę „rusztowania” i struktury o losowym rozkładzie porów (czyli jednak głównie pianki metaliczne uzyskiwane metodami metalurgicznymi)
Pianka metaliczna

Generalnie obiekty z porowatością zamkniętą są mniej wytrzymałe mechanicznie niż materiały lite (pustki !) i mają wysoką zdolność do pochłaniania energii odkształcenia pod względnie określonym obciążeniem,co można zauważyć choćby na wykresie jeśli zwróci się uwagę na poziom naprężenia (Stress) i pole pod wykresem:

Wykres - piana aluminiowa

Obiekty z porowatością otwartą natomiast mają natomiast najczęściej jeszcze niższą wytrzymałość niż te z porowatością zamkniętą, bez takiej zdolności do pochłaniania odkształceń.Ze względu na dużą powierzchnię są idealne dla potrzeb chemii,elektrochemii i wymienników ciepła. Oba rodzaje materiałów porowatych mają też niską masę.

Ma to ważne konsekwencje.W przypadku pian metalowych niska masa uzyskiwana jest kosztem obniżenia wytrzymałości materiału – zwłaszcza na naprężenia rozciągające i jego odporności chemicznej – np. na zjawiska korozyjne.Nie inaczej jest w wypadku materiałów porowatych innych niż metal.Oczywiście, w przypadku polimerów zjawiska chemiczne i termodynamiczne mogą mieć inny charakter niż klasyczna korozja – ale są. W przypadku ceramik zaś znaczenie mają nadal naprężenia, które przy większym nacisku mogą doprowadzić do pęknięcia.

Z drugiej jednak strony, właśnie duża powierzchnia czynna ma swoje pozytywne znaczenie np. w technologii akumulatorów i baterii, ponieważ w technologiach tych liczy się odpowiednio duża powierzchnia czynna.Podobna sytuacja jest z wymiennikami ciepła. Oczywiście ograniczeniem jest tu przepływ danego czynnika fizykochemicznego,niemniej generalna tendencja jest wyraźna.

Należy jednak pamiętać,że materiały lite są trwalsze chemicznie (w tym nieco odporniejsze na korozję) i bardziej odporne na obciążenia,zatem odchodzenie od nich wcale nie jest zawsze korzystne.

Cyfrowy mózg w pełnym znaczeniu tego słowa – Układy Neuromorficzne

Mózg szympansa

Dotychczasowe komputery, czy nowe architektury oparte być może o DNA, czy mechanikę kwantową układy kwantowe, o których wspomniałem w poprzednim poście, wbrew pozorom nie są podobne do ludzkiego mózgu, czy jakiegokolwiek mózgu zwierząt w naturze. No dobrze,wykonują operacje logiczne. Obliczają. Przetwarzają dane.Kluczowe kryteria, o których wspomniałem już pisząc posta o sztucznej inteligencji – nieprawdaż ? Owszem. Ale nie są podobne,więc dlaczego nie spróbować tej drogi,skoro być może to odtworzenie struktury ludzkiego mózgu może być kluczem do stworzenia sztucznej inteligencji ? Albo chociaż maszyn przejawiających inteligencję na poziomie zwierząt ? Niektórzy badacze i inżynierowie tak właśnie pomyśleli.

Oczywiście, tego rodzaju podejście ma też wady.Właściwie nie wiadomo,czy „inteligentna” maszyna – na pewnym nieokreślonym poziomie poniekąd „inteligentna”, zachowująca się być może jak najprostsze zwierzęta – nie oznacza też problemów. Nie tylko problemów praktycznych – realnego niebezpieczeństwa – ale też problemów etycznych dla niektórych ludzi. Tym niemniej, dla inżyniera ważne jest to,że to może się sprawdzić na początek,a nie wnikanie w tak dalekosiężne interpretacje etyczne i prognozy,gdyż zajmując się takimi wątpliwościami zawczasu nie da się osiągnąć żadnego rozwoju.No,może poza rozwojem filozofii…

Naśladowanie działania mózgu może być (i raczej początkowo musi) niedoskonałe,ale rzecz w tym,że nawet mózgi najprymitywniejszych zwierząt są w niektórych przypadkach dużo skuteczniejsze od obecnych komputerów. Jak zatem odtworzyć jakikolwiek mózg/układ nerwowy ? Stosując metodologię top down dochodzimy do jednostki elementarnej, jaką jest komórka nerwowa, czyli neuron :

Neuron - wikipedia

Ten rysunek znany dobrze z lekcji biologii, sporo jednak komplikuje,gdy w praktyce działanie neuronu jest (gdy pominie się szczegóły realizacji) stosunkowo proste:

  1. Odbiór sygnału przez synapsy
  2. Wytworzenie jeśli sygnał jest wystarczająco silny (albo jeśli nie jest, to brak wytworzenia) potencjału czynnościowego
  3. Przekazanie sygnału innym neuronom.

Nie jest to zatem klasyczna bramka logiczna. O nie. Kluczem w przypadku zarówno klasycznego, jak i sztucznego neuronu jest to,że każda synapsa może zatrzymać lub przepuścić sygnał dalej, i że potencjalnie to która jest która może ulec w trakcie każdego procesu w którym sieć jest „uczona” zmianie. W matematycznej (komputerowej) sieci neuronowej jest tak dzięki zastosowaniu średnich ważonych dla sygnałów z poszczególnych neuronów,jednak w przypadku neuronów sztucznych i klasycznych chodzi po prostu o odpowiednią substancję między neuronami i jej rozkład. Ale czy można naprawdę wykonać układ elektroniczny który będzie przypominał neuron ? Oczywiście,można coś takiego stworzyć i opatentować tak jak zrobiono to w patencie US 7080054 B2:
US 7080054 B2

Jednak wątpliwe jest odtworzenie od razu wszystkich koniecznych szczegółów,wiele rzeczy ważnych może zostać pominięte.

Istnieją też jednak nieco prostsze rozwiązania od przedstawionego powyżej, czyli memrystory (ang. memristor) w odpowiednich układach elektronicznych:
Memrystor

Jak wiadomo nam z definicji, memrystor różni się od klasycznego tranzystora właśnie tym,że jego oporność elektryczna zależy od tego jakie sygnały przez niego wcześniej przepływały.Oczywiście mamy tu do czynienia tylko z pewnym podobieństwem funkcjonalnym do neuronu – jednak podobieństwem wyjątkowo istotnym w praktyce. Jak widać też na powyższym schemacie, główną zasadą działania jest przepływ atomów/cząsteczek pomiędzy „synapsami” memrystora. Niektóre firmy mają już na polu tego typu urządzeń znaczne osiągnięcia.Np firma Qualcomm inc. opracowała Układ NPU Zeroth. Również inne firmy nie próżnują w badaniach nad neurochipem.

A praktyczne efekty ?

Wideo dotyczące robota z mikrochipem firmy Qualcomm:

Wideo z konferencji naukowej w Capo Caccia we Włoszech (Sardynia) również jest ciekawe:

Tematyka memrystorów oraz układów elektronicznych naśladujących funkcje mózgu z pewnością nie jest tematem który poznano nawet w małej części – podobnie jak w przypadku druku 3d jest to kwestia stosunkowo nowa, choć rzecz oczywista – już niektórych ludzi przeraża. Poniekąd nawet i może słusznie,ponieważ rozbudowa takich układów rzeczywiście może doprowadzić do pojawienia się pewnego rodzaju prymitywnej świadomości w wypadku maszyny.Jednak w praktyce, rzecz jest dużo bardziej skomplikowana i uzyskanie świadomego mózgu na poziomie człowieka wymaga jednak nieco dłuższej pracy.Nie zapominajmy,że nawet najbardziej genialne ludzkie dziecko potrzebuje całych lat nauki by osiągnąć poziom rodziców…

Jakie są jednak specyficzne ograniczenia tej technologii ? Na razie mało znam informacji na ten temat,jednakże kilka rzeczy, które już wydają się oczywiste mogę wspomnieć:

  • Przede wszystkim – tak jak i u nas ludzi – zapominanie. Zapominanie wynika z fizycznych właściwości memrystorów, opisano to choćby w artykule Di Ventry i Pershina „On the physical properties of memresistive,memcapactive and meminductive systems„. Pomysły, by w ramach miniaturyzacji korzystać z memrystorów, jako trwałych pamięci wcale nie muszą być pewnie aż takie dobre, jak się wydają…
  • Należy zadać też pytania o to, jak prowadzić kopiowanie pomiędzy układem memrystorów – zwłaszcza kompleksowo połączonych memrystorów, oraz jak odtwarzać ich stany. Uczenie każdego urządzenia z osobna wcale nie jest aż tak fantastycznym pomysłem – przynajmniej z punktu widzenia ekonomicznego.
  • Ponadto jak pisałem, jest to technologia eksperymentalna – tego typu maszyny owszem, mogą zachowywać sie podobnie do organizmów żywych ,ale „diabeł tkwi w szczegółach”. Szczegółach które zostaną poznane „w warunkach polowych”.Do tego czasu jednak pozostają one wysoce nieprzewidywalne,ponieważ teoria nie będzie tutaj raczej generalnie wyprzedzać praktyki…

Informatyka kwantowa i spintronika – co to jest i co to znaczy dla nas ?

O co chodzi w informatyce kwantowej ? O przetwarzanie informacji z wykorzystaniem elementów mechaniki kwantowej.Zasady informatyki kwantowej są – albo będą – zupełnie inne niż zasady informatyki klasycznej. Sama spintronika zaś zajmuje się realizacją takiej nietypowej kwantowej elektroniki w nieco szerszej praktyce, nie ograniczając się tylko do komputerów… Na czym to jednak polega? Na wykorzystaniu kwantowej właściwości elektronu jaką jest spin, czyli własny moment pędu cząsteczki. Oczywiście cząsteczka nie jest kulką, a spin połówkowy tak jak w przypadku elektronów nie ma nic wspólnego z klasycznym obrotem o 360 stopni.Elektronowi wystarczy 180 stopni obrotu by powrócić do punktu wyjścia, co jest na dobrą sprawę dla nas, w makro-świecie nieco szokujące. Mało tego: W komputerze kwantowym mamy prawdziwą rewolucję jeśli chodzi o architekturę i zasadę działania: zamiast określonych bitów mogących być zerem lub jedynką (stanem lub brakiem stanu,np napięcia) wykorzystuje się kubity (q-bity) które mogą być oboma wartościami naraz; zamiast szybkiego przetwarzania jednego rozwiązania mamy macierz stanów i przetwarzane są wszystkie możliwe dostępne rozwiązania; zamiast konkretnych wyników mamy prawdopodobieństwo (no niestety obliczenia trzeba wiele razy powtarzać by wynik miał sens) – ale zamiast setek czy tysięcy lat łamania pewnych szyfrów możemy mieć sekundy. Zaledwie 300 kubitów może podobno wystarczyć, by dokonać obliczeń na liczbach równie wielkich jak komplikacja znanego wszechświata.

Możliwości takich komputerów/urządzeń są zatem po prostu szokujące dla osób przyzwyczajonych do klasycznej informatyki. Ale zbudowanie ich jest wyzwaniem.Wyzwaniem jest zresztą nawet zaprogramowanie takich komputerów, które będzie wymagało/wymaga nieco innego paradygmatu programowania  – ale istnieje już firma D-Wave która twierdzi,że produkuje pierwsze komercyjne komputery kwantowe. Jest to jednak przynajmniej częściowo przesadzone – a w każdym razie kontrowersyjne, gdyż niektórzy badacze bardzo wątpią w realność zjawiska kwantowego wyżarzenia w przypadku urządzeń tej firmy; ze względu na istotny wpływ zakłóceń w urządzeniach D-Wave oraz brak spełniania przez to urządzenie szeregu charakterystycznych dla komputerów kwantowych wymagań; co oznacza,że realnych komputerów kwantowych jeszcze nie ma – ale narzędzia bliskie im już są…

Fotografia chipa skonstruowanego przez D-Wave Systems Inc., zaprojektowanego do pracy jako 128-kubitowy nadprzewodzący adiabatyczny procesor kwantowy optymalizacji, zamontowany w uchwyt. - wikipedia

Nie ma w tym oczywiście nic dziwnego,skoro układy komputera kwantowego będą musiały najpewniej pracować w temperaturach bliskich zera bezwzględnego, a same zjawiska kwantowe podobnie jak w przypadku mikroskopii elektronowej wymagają naprawdę dobrej izolacji elektromagnetycznej i nie tylko, oprócz potężnego chłodzenia. Jest to zatem kosztowne i skomplikowane,jest to nadal wyzwanie dla inżynierów. Ale też z pewnością – jest to warte wysiłku jeśli chodzi o wykonanie obliczeń jakich nie są w stanie dokonać klasyczne komputery. Oczywiście nie znaczy to,że komputer kwantowy byłby w stanie rozwiązać wszelkie problemy,bo tak oczywiście niestety nie jest. Nie znaczy to,że byłby w stanie złamać wszystkie współczesne szyfry itd (choć większość obecnie stosowanych – owszem) Niemniej przy takiej zdolności obliczeniowej i tak „gra jest warta świeczki”. Prawdziwym problemem dla nas zwykłych użytkowników jest jednak co innego.Uzyskanie miniaturowych, sprawnych układów kwantowych gdy uzyska się prawdziwe układy kwantowe będzie jeszcze większym wyzwaniem,ponieważ miniaturyzacja przy takich wymaganiach co do temperatury i ekranowania będzie bardzo trudna i wymaga całkiem sporo materiałów i pracy. Nie oznacza to oczywiście,że domowy komputer z układem kwantowym jest niemożliwy,napiszę więcej – skoro dokonano już do tej pory (wreszcie) miniaturyzacji zegarów atomowych do niewielkich układów elektronicznych wielkości monety (i są one w sprzedaży!) to dlaczego nie ? :

https://i2.wp.com/www.popsci.com/sites/popsci.com/files/styles/article_image_large/public/images/2011/05/atomicclock.jpg

Ponadto testy z przetaktowaywaniem klasycznych procesorów jak np. AMD Buldozer który w temperaturze 4-6 Kelwinów pracował z częstotliwością ponad 8429 GHz (8,429 THz !) sugerują,że np. skorzystać z efektu chłodzenia potrzebnego dla chipów kwantowych mogą i inne podzespoły dla których takie chłodzenie powiązane z sąsiedztwem chipu kwantowego (wymagającego super-zamrażarki) byłoby korzystne – a ponieważ, aktualna architektura komputerów klasycznych nie powinna nawet mieć za wiele wspólnego z architekturą obecną, zakorzenioną głęboko w kompatybilności wstecznej to nawet dobrze. Na zmiany w tej kwestii też za jakiś czas niewątpliwie przyjdzie czas,nie ma się co oszukiwać – obecne urządzenia mają bowiem bardzo często ograniczenia wynikające z czysto historycznych przyczyn.Pytanie tylko czy te zmiany nadejdą wraz z komputerami kwantowymi,przed nimi czy po nich…

Informatyka kwantowa wymaga rozwiązania wielu naprawdę poważnych problemów,obawiam się,że miejsce większości komputerów kwantowych nawet za 20 lat będzie wciąż w laboratoriach i wielkich centrach przetwarzania danych (data center). Dlaczego ? Po prostu dlatego,że ekranowanie wszelkiego promieniowania jest problemem nie tylko niedocenianym, ale i równie trudnym tak jak problem pojemności baterii – jest bowiem zakorzeniony w fizycznych właściwościach samej materii… To dużo komplikuje.Pewne jest też, jednak że zdolności obliczeniowe takich komputerów będą podobnie jak dzisiaj nieporównywalne z przeciętnym pecetem. Tym niemniej możliwości które będą oferowały tego rodzaju urządzenia będą większe niż możliwości jakiegokolwiek komputera naukowego wykorzystującego architekturę FPGA czy GPGPU. I dokładnie oznacza to,że zwłaszcza wielkie instytucje będą dysponować ogromną mocą obliczeniową.Z jednej strony to dobrze – oznacza to bowiem w praktyce fakt,że możemy dostać dzięki temu bardziej wiarygodne produkty, za niższą cenę w przyszłości.Z drugiej strony – nietrudno się domyślić,że zagrożona może być bardziej nasza prywatność…

Wszystko jest  oczywiście jeszcze przed nami – tym niemniej z podanych wcześniej  powodów nie oczekiwałbym zbyt szybkich postępów w miniaturyzacji układów kwantowych,ponieważ będą one zapewne przez lata jeszcze kosztowne i wymagające.A póki co; co najważniejsze prawdziwych,pełnoprawnych chipów kwantowych jeszcze nie opracowano ! Tymczasem czeka nas być może inna rewolucja w technice, ponieważ chipy neuromorficzne oferują równie ciekawą drogę, bez całkowitego odrzucenia wszystkich zasad charakterystycznych do tej pory dla technologii tranzystorowej. Póki co jednak i tu znamy więcej pytań jak odpowiedzi…

Dla osób poważnie zainteresowanych tematem układów kwantowych ważna wiadomość: Z wideo-bloga Veritasium pozwoliłem sobie na wszelki wypadek załączyć 2 podstawowe materiały wideo, ponieważ osobom znającym język angielski mogą one dużo więcej niż ja teraz powiedzieć o omawianym problemie.Co więcej nawet osoby słabo znające angielski mogą skorzystać na zapoznaniu się z tymi materiałami – więc jeszcze raz gorąco polecam.:

 

Autora tego wideo-bloga też mogę raczej z czystym sumieniem polecić.

Jak to jest i będzie z tym Polskim grafenem ?

https://upload.wikimedia.org/wikipedia/commons/thumb/9/9e/Graphen.jpg/640px-Graphen.jpg

W obecnej sytuacji politycznej, gdy jedna ze sztandarowych inwestycji władz – rządowa spółka Polskie inwestycje Rozwojowe została dość wulgarnie określona przez ministra spraw wewnętrznych w materiałach które udostępniła gazeta „Wprost” – zatem – również polityka gospodarczo-inwestycyjna obecnych władz RP została tak czy owak poddana w wątpliwość. Co gorsza, jednocześnie 20% akcji w spółce „Azoty” zdobywają Rosjanie „co dawałoby im możliwość wprowadzenia własnego przedstawiciela do jej zarządu” – i być może dostęp do informacji o technologii Polskiego grafenu – mogą (i powinny) się pojawić pytania o to, jak z tym Polskim grafenem jest. Samo to,że „Inwestycje Polskie” są związane również z programem Polskie inwestycje rozwojowe nie jest może na razie kluczowym problemem – w końcu wsparcia spółce Nano-Carbon udzielił jak na razie Bank Gospodarstwa Krajowego ,nie zmienia to jednak faktu,że sytuacja Azotów i odtrąbienie niegdyś sukcesu z Polskim grafenem powinno zostać zweryfikowane niezależnie choćby po to,by określić,czy jest to kolejna „wydmuszka” czy przeciwnie – mamy się czego obawiać,zwłaszcza w sytuacji prób „wrogiego przejęcia” i pogarszającej się sytuacji politycznej państwa i czy jakieś długofalowe zagrożenia dla tego projektu są istotne dla kraju – czy nie.Oraz jakie jest zagrożenie ze strony Rosjan.

 

Dla przypomnienia – czym jest grafen:

Było to wiele razy tłumaczone,osobom które kompletnie nie znają tematu polecam choćby tradycyjnie artykuł z wikipedii ,ale w dużym uproszeniu można go traktować jako dwuwymiarową (2d) strukturę węgla na bazie sześciokąta prezentującą nowe fizyczne właściwości.

Przypomnijmy  też od czego się to zaczęło:

W 2011 roku Warszawski Instytut Technologii Materiałów Elektronicznych (ITME) opatentował stosunkowo tanią metodę produkcji grafenu. Początkowo były problemy natury politycznej i nie tylko, w 2012 roku było to jeszcze bez wsparcia władz, co udowadniają choćby takie wpisy blogerskie jak ten  – ale już pół roku temu Donald Tusk,premier Polski mówił o „historycznej chwili”.

Ponadto, również pół roku temu w serwisie crazynauka wieszczono nawet,że już w tym roku (2014) rozpocznie się produkcja Polskego grafenu. Były też sensacyjne doniesienia o nowych zastosowaniach jak np. leczenie nowotwórów .No dobrze. Realnie w Polskim konsorcjum grafenowym prowadzone są obecnie badania z zakresu:

  • Kompozytów grafenu na bazie miedzi i srebra dla elektroniki

  • Grafenowych czujników przepływu

  • Grafenowych czujników magnetycznych

  • Grafenowych past i atramentów do drukowania ścieżek i warstw przewodzących w zastosowaniach do zabezpieczania dokumentów

  • Epitaksjalnego wzrostu grafenu na podłożach metalicznych

  • Grafenowych pokryć kół zębatych i łożysk ślizgowych

  • Atramentów i past drukarskich na bazie grafenu dla elektroniki plastycznej

  • Ultraszybkich laserów światłowodowych na bazie grafenu

  • Przezroczystych grafenowych warstw ochronnych i grzewczych dla optyki.

Czy grafen naprawdę jest szansą, czy ślepą uliczką dla Polskiej nauki i jak to wygląda w praktyce:

Niewątpliwie w czasie,gdy Polscy Naukowcy opracowali technologię wytwarzania grafenu była to technologia nowatorska, o czym świadczy choćby fakt,że kwestia grafenu nie tylko jest wspominana w mediach popularnonaukowych mediach zagranicznych,ale też w dostępnym publicznie (przynajmniej w części) periodyku laboratoriów amerykańskiej NSA „The Next Wave”, konkretnie chodzi tu o egzemplarz Vol.18 no.4. ; artykuł „Will the Carbon be the new Silicon” z Pacyfic National Laboratory będącego częścią amerykańskiego Departamentu Energii. Dostępne w tym opracowaniu informacje sugerują nie tylko znaczenie grafenu w klasycznej elektronice,wspominają jednak, co dużo ważniejsze o jego potencjalnym zastosowaniu w elektronice kwantowej,mogącej zrewolucjonizować współczesną informatykę (i co dużo ważniejsze dla NSA: łamanie dotychczasowych trudnych do złamania szyfrów). Już nie wspominając o czymś takim, jak elektronika wysokich częstotliwości (czyli:szybsza). Niewątpliwie rozwijanie technologii związanych z grafenem  nie było zatem błędem przynajmniej w 2011 roku; jest to faktycznie ważna inwestycja w innowacyjność Polski – jednak należy zwrócić uwagę iż poza-elektroniczne podprogramy badań nad grafenem tak naprawdę wyglądają raczej jak rozpraszanie sił, które są zbyt małe – a konkurencja zagraniczna nie śpi. Ponadto lekceważona jest chyba u nas konkurencja dla grafenu, jaką są m.in. krzemen i germanen . Pomimo faktów, takich jak wątpliwości co do faktycznych możliwości wytworzenia krzemenu oferowana przez krzemen hybrydyzacja sp3 jest potencjalnie korzystniejsza w elektronice kwantowej niż charakterystyczna dla grafenu hybrydyzacja sp2, a jasne jest,że krzem jest pierwiastkiem do którego lepiej dostosowany lub przynajmniej bardziej przyzwyczajony jest współczesny przemysł elektroniczny – co oznacza,że grafen może mieć w bliskiej przyszłości istotną konkurencję. Oczywiście dziś i krzemen wymaga podłoża; głównie srebrnego i są co do niego istotne wątpliwości. Nawet co do tego,czy uzyskane struktury to naprawdę już czysty krzemen.  Ale tak nie musi być zawsze. Co ciekawe są też doniesienia Tajwańsko-Amerykańskie  o możliwości wytworzenia struktury krzemenowej na podłożu grafenowym. Nie wiem za bardzo o przełożeniu praktycznym tych teoretycznych badań – ale to również jest ważne.  Ponadto, również w wypadku elektroniki organicznej zespół amerykańskiego MIT którym kieruje prof.Mircea Dincă opracował również związek organiczny Ni3(HITP)2 opisany w załączonym tutaj artykule , który ma posiadać naturalne pasmo wzbronione,podczas gdy, np. w wypadku grafenu konieczne jest domieszkowanie (a co za tym idzie zaburzenie idealnej struktury co wpływa zawsze jakoś na właściwości).  Nawet krzemen jest tu zapewne jednak nieco lepszy,ponieważ w jego wypadku różne domieszkowanie prawdopodobnie może dawać różne pasma wzbronione (tunable band-gap). Ponieważ nie jestem specjalistą od elektroniki kwantowej i elektroniki na takim poziomie (ale ilu ich jest na świecie bez tytułu co najmniej doktora ?) nie wiem jak wielkie te fakty mogą mieć znaczenie. Wiemy jednak,że wytwarzany metodą epitaksjalną polski grafen podobnie jak krzemen wytwarzany jest też raczej na jakimś (srebrnym lub miedzianym) podłożu,wiemy też,że zachodnia konkurencja nie próżnuje a dysponuje znacznie większymi środkami i koncentruje się na większych badaniach.Oczywiście ktoś może powiedzieć,że naszego państwa być może nie stać na tak intensywne badania.Czyżby ? Program jest wyceniany na ponad 60 mln. PLN. Nawet nie tak dużo,starczyłoby ledwo na 39 i 2/3 czołgu Leopard 2 bez modernizacji,albo 60% kosztów szczytu klimatycznego. To są zatem jak na możliwości finansowe Polski grosze…

Widzimy zatem 2 rzeczy: program badań nad grafenem o ile byłby dobrze realizowany i nadzorowany z pewnością nie byłby wyrzucaniem pieniędzy w błoto. Tym niemniej twierdzenie o „nowej świetlanej przyszłości grafenowej” premiera Tuska jest dziś po upływie 6 miesięcy jak widać zwykłą fikcją, ponieważ wyjątkowo marne środki jeszcze rozproszono na kilka podprogramów dążąc do jak najszybszej komercjalizacji czasem w raczej drugorzędnych kwestiach przy których ścigamy się właściwie z innymi państwami,środki na długotrwałe inwestycje mogą być zagrożone,obecne środki żałosne a wydaje się,że nie ma aż takiej koncentracji na nowych badaniach jaka jest konieczna. Tymczasem jak widać konkurencja nie śpi,a nawet w kwestii grafenu jest wiele kwestii do rozwiązania o rozwiązaniu których – i opatentowaniu których jakoś się nie wspomina – bo ich nie ma,co jest oczywiste przy poziomie innowacyjności w Polsce niestety.To źle. Jeśli nawet Polski projekt grafenowy osiągnie komercyjny sukces to na końcu może się okazać,że zamiast zgarnąć główną nagrodę podczas biegu zbieraliśmy tylko drobniaki zgubione przez kogoś na drodze i przez to przegraliśmy.Takie zagrożenie jest realne…

A co robią w tym wszystkim Rosjanie ?

Jest oczywistym faktem,że Nobla za odkrycie Grafenu w 2010 roku otrzymali pracujący w Wielkiej Brytanii (Manchester) uczeni pochodzenia Rosyjskiego Konstantin Novoselov i Andre Geim:

https://i1.wp.com/i.telegraph.co.uk/multimedia/archive/01732/Andre-Geim_1732272c.jpg

 

W Rosji również trwają badania nad grafenem, choćby badania nad usuwaniem z jego pomocą skażenia. Ostatnie sankcje, jak i próby unowocześnienia Rosyjskiej gospodarki w ramach m.in. stworzenia w 2009 roku centrum innowacji Skolkowo sugerują oczywiście również możliwość zainteresowania Rosjan Polskimi osiągnięciami technologicznymi na polu grafenu. Tym niemniej, Rosjanie mogą mieć nawet większe osiągnięcia od nas, o czym się nie mówi – o czym świadczy wspomniana technologia laserów opracowanych w Rosji w oparciu o grafen, jak i udział 30 Rosjan w konferencji Graphene 2012 w Brukseli, przy 20 uczestnikach z Polski. Realnie mam wrażenie,że Rosyjska nauka otrzymuje realnie co najmniej  większe wsparcie od swojego rządu niż nauka Polska. Diabeł jednak tkwi w szczegółach,a przy przynajmniej podobnym poziomie technicznym, wyniki Polskie dla Rosjan wciąż mogą być łakomym kąskiem, a ich rosnące wpływy zatem rzeczywiście są ważne i niepokojące dla Polskich interesów. Musimy jednak pamiętać, że wbrew propagandzie państwowej, czy opiniom samych badaczy Polskie osiągnięcia w kwestii grafenu nie są niestety aż tak fantastyczne póki co,i od zostania prawdziwą „doliną grafenową” realnie Polskę dzieli jednak (i bez realnej zmiany podejścia władz i biznesu dzielić nadal będzie) póki co przepaść, którą trzeba zasypać.Ale realna duża szansa wciąż jest i szkoda ją by było stracić…