Nanorurki- najbardziej znane wytwory nanotechnologii

W praktyce,większość osób kojarzących nanotechnologię kojarzy też nanorurki węglowe i fullereny jako jedno z podstawowych jej produktów oprócz grafenu.Jak zwykle istnieje coś takiego jak artykuły w wikipedii o nanorurkach i jak zwykle,w polskiej edycji mówią one mało..Przede wszystkim, należy pamiętać,że nanorurki wcale nie muszą być nanorurkami węglowymi – choć te są najpopularniejsze.

Kolejny problem wynika z nazywaniem tego rodzaju tworu rurką.Współczesne osiągnięcia fizyki kwantowej,zwłaszcza teoria korpuskularno-falowa czy teoria atomu wg. Bohra i wszelkie późniejsze – dużo doskonalsze teorie powinny sprawiać,że zachowamy ostrożność.Atomy to w końcu nie są kolorowe kulki połączona patyczkami,jak to pokazują ładne i estetyczne modele.Oczywiście nie chodzi o samo nazywanie ich rurkami,analogia jest. Chodzi tylko o nie zapominanie,o roli zjawisk w nanoskali. „Świat kwantowy „jest nieco inny niż nasz.

Jeśli chodzi o nanorurki węglowe,to teoretycznie wyróżniamy ich 3 rodzaje:

W istocie, wszystkie te kształty wynikają z różnego nawinięcia się „płaskich konfiguracji” węgla (w istocie,można chyba mówić o grafenie) w procesach produkcji,polegających z reguły na kondensacji par atomów węgla – lecz oczywiście różnią się one właściwościami. Stosunkowo najlepsze właściwości wytrzymałościowe – jeśli chodzi o wydłużenie,moduł Younga czy wytrzymałość na rozciąganie – mają nanorurki typu „fotelikowego” (armchair). Wytrzymałość na rozciąganie nanorurek węglowych może być 100 razy większa od zwykłej stali.Planuje się stworzenie kiedyś tzw. Windy kosmicznej na ich bazie.

Również przewodnictwo elektryczne nanorurek jest fantastyczne.Nanorurki, zachowują się bardzo podobnie do metali w tym względzie i potrafią przewodzić prąd nawet na poziomie gestości 4*109 A/cm2. Miedź,srebro czy złoto, stopiłyby się po prostu.Przewodnictwo cieplne nanorurek jest na poziomie niemal 10 razy większym (3500 W/[m·K]  dla nanorurek kontra 385 W/[m·K] ) jak miedź.Same nanorurki w próżni wytrzymują zresztą do temperatur rzędu 2800 stopni Celcjusza w próżni i 750 w powietrzu.W Japonii prowadzono zatem badania, nad żarówkami zawierającymi jako włókno żarowe nanorurki.

Zachowanie nanorurek w polu magnetycznym pozwala również na ich zastosowanie jako sensorów. A to wszystko, to tylko przykłady.

Same nanorurki mogą zostać wykorzystane również w mikroelektronice wymagającej niewielkiej energii,przeprowadzono już liczne próby z wykorzystaniem tranzystorów opartych o nanorurki.Jest to ważne,ponieważ dzięki temu możliwe byłoby uzyskanie chipów zużywających dużo mniej energii.

Jeśli zatem, nanorurki są tak wspaniałe – w czym problem ? Przede wszystkim kosztach produkcji i odpowiedniej jakości. Zaledwie gram nanorurek węglowych jest wielokrotnie droższy od grama złota.Do tego, niektóre nanorurki mogą być toksyczne.Problem toksyczności niektórych nanomateriałów już poruszałem. Problemem jest też, uzyskanie nanorurek odpowiedniej długości.Były oczywiście badania,w których otrzymano już nanorurkę o długości 550 mm (0,55 metra),wyniki ich opublikowano w artykule „Growth of Half-Meter Long Carbon Nanotubes Based on Schulz-Flory Distribution” czasopisma ACS Nano z 2013 roku,niemniej do niedawna przynajmniej produkcja nanorurek dłuższych,jak kilka milimetrów napotykała na istotne przeszkody,wygląda też na to,że trzeba jeszcze poczekać na nieco tańsze rozwiązania.Przede wszystkim ,problemem były (i w dużym stopniu są nadal) defekty strukturalne, obecne w nanorurkach podobnie, jak w stopach metali – choć inne.Dwa lata temu jednak,ukazał się. w czasopiśmie Physical Review Letters artykuł „Efficient Defect Healing in Catalytic Carbon Nanotube Growth„. Być może również były inne,równie istotne. Jak się okazało, teoria mówiąca,że defekty strukturalne są problemem nie do usunięcia w nanorurkach została obalona,rzecz tylko w odpowiednio kontrolowanych warunkach – konkretnie np. w odpowiednich temperaturach i przy odpowiednim wprowadzaniu węgla możliwe jest wytwarzanie naprawdę długich nanorurek.Oczywiście wciąż pozostaje problem defektów powstałych dzięki zjawiskom termodynamicznym,czy promieniotwórczości (np. przemiany Izotopu C-14 z węgla w azot),jest to jednak znaczący krok naprzód.Wciąż jednak, problemem jest wytwarzanie nanorurek tylko jednego konkretnego typu,lub z jednego,konkretnego zakresu.Do tej pory istniało sporo sposobów separacji,ale za bardzo brak rzetelnych metod na produkcję jednego typu nanorurek.Choć szczerze, można powiedzieć,że to wkrótce może przestać być problemem, bowiem niedawno ukazał się w serwisie phys.org artykuł na temat badań, dotyczących tej tematyki.Wyniki ,co prawda,wciąż nie są idealne,ale (podobnie jak wcześniejsze takie badania) są milowymi krokami w kierunku tego,by również ten problem został niebawem rozwiązany.Czy tak będzie ? Zobaczymy.

Jedno jest natomiast pewne.Już teraz kompozyty zawierające nanorurki węglowe są z sukcesem stosowane,nanorurki niewielkich długości zresztą też. Zresztą w istocie,są one stosowane od bardzo dawna.Już stal damasceńska przypuszczalnie zawierała nanorurki węglowe.

Osoby które nie znają tematu nanorurek węglowych i studentów chciałbym natomiast ostrzec przed pewnym błędem,który nie dla każdego wydaje się oczywisty.Nanorurki węglowe i włókno węglowe to nie jest to samo ! To są bardzo różne materiały.Oczywiście, również w wypadku nanorurek występuje anizotropia właściwości.Oczywiście włókno węglowe może mieć bardzo wysoką wytrzymałość zbliżoną do najlepszych stali (2500 MPa),przy dużo niższej masie (jak widać niższą jednak i tak,niż nanorurki). Ale tutaj podobieństwo to należy traktować skrajnie ostrożnie,są to bowiem inne materiały i technologie.

Reklamy

Druk 3d – pierwszy samochód

Jest to właściwie nowe opracowanie newsa ze strony giznet i oryginalnego artykułu ze strony techtimes.

Ostatnio,firma amerykańska Local Motors,we współpracy z Oak Ridge National Laboratory oraz Cincinnati Incorporated dokonała 1 „wydruku” samochodu.Pomimo faktu,że sam „wydruk” zajął 45 godzin,kolejne 2 dni zajęło jednak jego jego złożenie. Jest to zupełnie zgodne z moim wcześniejszym wpisem z czerwca,na temat ograniczeń technologii druku 3d, w którym zwracałem uwagę,że w istocie wydrukować można całkiem fajne części,idzie jednak o to, aby je jeszcze złożyć.

Sam samochód, został wykonany w oparciu o polimery wzmocnione włóknem węglowym.Co ważne – niektórych elementów nie dało się póki co wydrukować (ze względu na złożoność i materiały) – np. akumulatorów,które są bardzo ważne,ponieważ jest to pojazd elektryczny.Pojazd złożono na imprezie „International Manufacturing Technology Show” w Chicago,a projekt wybrano spośród 300 propozycji.Pojazd ma ważyć ok. 1500 funtów,czyli ok 680 kg.

Jazda próbna miała miejsce 13 września,jest zaprezentowana na poniższym filmiku:

Mimo to,wygląda na to,że odbyły się również wcześniejsze próby bez eleganckiego nadwozia:

Moja skromna opinia na to wszystko ? Technologia druku 3d idzie do przodu,ale może lepszy byłby wydruk metalowy ? Osobiście, gdybym miał kupować auto z tworzyw sztucznych, to kupiłbym pewnie raczej starego,poczciwego (a przy tym, może niedługo – zabytkowego) trabanta.:

Trabant

Samochody elektryczne są bowiem problematyczne ze względu na problemy z bateriami,o których bardzo krótko już wspomniałem, w jednym z poprzednich wpisów. Zresztą polimery,zwłaszcza światłoczułe, mają to do siebie,że warunki atmosferyczne nie do końca im sprzyjają,więc również zakup trabanta, jako samochodu użytkowego, ma swoje wady.Co prawda,plastiki nie rozkładają się łatwo w naturze, niemniej wrażliwość polimerów na światło, może być w dłuższych okresach czasu, problemem co najmniej estetycznym.

Obraz w 3 wymiarach – wstęp do zasad działania holografii

Przede wszystkim,jeśli ktoś nie zapoznał się dotychczas, z hologramami w literaturze,filmach SF czy w banknotach na podstawowym poziomie,polecam obejrzenie następujące materiały wideo:

Kompletna fikcja ? Nie.Prawdziwe zjawiska ? Też nie.Wyświetlanie w prawdziwej, trójwymiarowej przestrzeni.To jest właśnie holografia. Niestety,podczas gdy anglojęzyczny artykuł wikipedii o holografii jest dość dobrze zrobiony, artykuł polskojęzyczny niewiele wyjaśnia tak samo jak artykuł dotyczący hologramów. Oczywiście, podstawowa definicja z artykułu o hologramach,brzmiąca:

Hologram – fotograficzny zapis na nośniku przynajmniej dwufalowego obrazu interferencyjnego, który w odczycie daje dwa niezależne od siebie obrazy przestrzenne 3D (trójwymiarowe).

trafia teoretycznie w sedno.Niemniej w praktyce jest to definicja niepełna,gdyż definicja anglojęzyczna brzmi:

Holography is a technique which enables three-dimensional images (holograms) to be made. It involves the use of a laser, interference, diffraction, light intensity recording and suitable illumination of the recording. The image changes as the position and orientation of the viewing system changes in exactly the same way as if the object were still present, thus making the image appear three-dimensional.

Jak widać zatem,Polskojęzyczna definicja jest bardzo niepełna,pomija bowiem kwestię,że „zmiany obserwowanego obrazu,jego pozycja i orientacja zmieniają się dokładnie tak samo,jak gdyby obiekt był rzeczywiście obecny

Jak zatem dokładniej zrozumieć to zjawisko ? Dlaczego wyświetlanie prawdziwie trójwymiarowych obrazów jest kwestią skomplikowaną ? Co oferuje holografia, jeśli chodzi o zapis cyfrowy i dlaczego ? Czym się różnią od klasycznej holografii telewizory wyświetlające obraz trójwymiarowy ? To wszystko zostanie omówione w niniejszym wpisie.

Zacznijmy od podstaw czyli światła i tego,jak działają dwuwymiarowe wyświetlacze czy kartka papieru i czym różnią się one, od trójwymiarowego obiektu.Rzecz jest oczywista.Podczas,gdy obraz czy obiekt dwuwymiarowy z reguły (o ile nie jest rodzajem „hologramu”) jest taki sam, niezależnie od kąta padania światła,obiekt trójwymiarowy – tak samo jak hologram zresztą – wygląda inaczej zależnie od kąta obserwacji.Wrażenie trójwymiarowości można zatem uzyskać po prostu wprowadzając różny obraz zależnie od kąta obserwacji.Brzmi prosto,jak zwykłe powtórzenie znanego już faktu ? Być może. Ale w praktyce, jest dużo trudniejsze do zrealizowania.

Taka właśnie trudność w realizacji i w produkcji sprawia,że proste hologramy stosowane np. w zabezpieczeniach banknotów i innych artykułów papierowych,tudzież inne proste hologramy są jednak inne od w pełni trójwymiarowych hologramów:

Oczywiście, są one mniej skomplikowane jeśli chodzi o uzyskany obraz, w porównaniu, z na przykład holografią laserową. Jest to obraz, który można traktować jako holograficzny,ale nie są to typowo trójwymiarowe hologramy. Ot różny efekt, w zależności od kilku kątów i odpowiedniego światła.Ale ten rodzaj hologramu nie musi to być piękny,trójwymiarowy i wyrazisty.Ma działać.I do stworzenia trudnego do podrobienia zabezpieczenia – wystarczy.

Odpowiadając na kolejną kwestię. Tak zwana „telewizja trójwymiarowa” oraz „kina 3d”, na dobrą sprawę pasują tylko do Polskiej definicji holografii,ze względu na wykorzystanie dość ograniczonych funkcjonalnie obrazów stereoskopowych. Taki obraz anaglifowy co prawda daje złudzenie trójwymiarowości,ale zmiana pozycji, z której dokonuje się obserwacji nie pozwala zaobserwować nic więcej,ba,można zobaczyć wręcz mniej.Jest tak, ponieważ, w przeciwieństwie do holografii nie ma np. innego obrazu np. „z boku”. Bezokularowa stereoskopia (autostereoskopia),w tym technologia soczewkowa opiera się na podobnej zasadzie – bądź w jednym miejscu i oglądaj „trójwymiarowy” obraz. Z drugiej strony nie ma powodu do narzekania.Jak ktoś siedzi na kanapie,to o ile nie dostanie zawrotów głowy (w przypadku niektórych ludzi się to zdarza), głębia obrazu jest wystarczająca,jego rozdzielczość i koszt raczej też.Obraz jest dla każdego ten sam. Jedyny problem,to to,że podobnie jak z wyświetlaczami ciekłokrystalicznymi będzie problem,gdy stoi się z boku.

Tymczasem holografia w pełni trójwymiarowa, daje właśnie prawdziwy trójwymiar, praktycznie z każdego punktu obserwacji.

Jak łatwo się domyślić, dość ciekawym i spektakularnym sposobem, na tworzenie hologramów jest wykorzystanie wiązek laserowych i gazów.W istocie,tak manipulując światłem można uzyskać m.in hologram, przedstawiony w w drugim załączonym filmie. Łatwo się też domyślić,że taka trójwymiarowa holografia, jest związana z poważnym problemem.Problemem związanym z zapisem ogromnej ilości danych. W istocie tak jest.Ale ten kij ma 2 końce. Holografia niesie też obietnice stworzenia dużo lepszych nośników danych,które przecież z natury są trójwymiarowe.

Jak wiadomo niektórym (zwłaszcza fizykom ciała stałego i inżynierom materiałowym)w badaniach materiałów stosuje się m.in. techniki rentgenowskiej analizy strukturalnej.

W technikach z tej grupy tej,badanie struktury krystalicznej, może być prowadzone z wykorzystaniem zjawiska dyfrakcji, m.in korzystając z prawa Bragga. W praktyce, odbywa się to tak,że źródło promieniowania (a czasem i detektor) poruszają się w pewnej płaszczyźnie względem badanej próbki i różne uzyskane wyniki są rejestrowane.Oczywiście, odczyt i zapis informacji zapisanej na nośniku holograficznym nie musi stosować się ściśle,do tych samych zasad co rentgenografia strukturalna,ale podstawowa idea działania,w której źródło (a może i detektor) poruszają się i w zależności od kąta, uzyskują inną informację z zewnątrz przynajmniej,bez uciekania się do technicznych szczegółów,wygląda całkiem podobnie.

No dobrze.W teorii wiemy,o jakie zasady się to opiera.A co ciekawego jest hologramach w praktyce ?

  • W praktyce fizycznej mówi się,że holografia polega na zarejestrowaniu nie tylko zależności między amplitudami fal świetlnych (czy ich kwadratami – natężeniami) – rejestrujemy też ich fazy.W istocie, zarejestrowany obraz jest obrazem interferencyjnym.Więcej, o zjawisku interfererencji można poczytać na stronie Wikipedii.
  • Obraz interferencyjny w każdym punkcie hologramu, pochodzi od światła rozpraszanego przez wszystkie punkty przedmiotu przedmiotu.Zatem, dowolny wycinek hologramu zawiera informacje o całości.Tym niemniej, im mniejsza część hologramu jest dostępna – tym mniejsza ostrość i tym ciemniejszy obraz (Informacja nie jest całkowicie tracona,staje się jednak,coraz mniej dokładna).

Krótko i prosto o sensorach

Czym jest sensor ? Właściwie,Polski odpowiednik tego słowa, czujnik nie oddaje pełni znaczenia angielskiego,które jest powiązane również z naszymi zmysłami.

W Polskim języku obecne jest ponadto określenie detektor.Pomimo faktu,że obserwacja,a wykrycie danego zjawiska to są dwie różne sprawy w mowie potocznej właściwie nie ma sensownego rozróżnienia.

Zasadniczo,zbiorczo, urządzenia tego typu można opisać jako narzędzia, do wychwytywania sygnałów ze środowiska i przetwarzania ich na inne sygnały. Co można obserwować ? Zasadniczo praktycznie każde zjawisko fizyczne,do którego stworzyło się odpowiednie i odpowiednio precyzyjne narzędzie pomiaru. Pełna lista typów sensorów zaprezentowana przez anglojęzyczną wikipedię jest dość długa. Jak widać mierzyć można dźwięki i wibracje,zjawiska chemiczne i elektromagnetyczne,zjawiska optyczne,ciśnienie,promieniowanie, siły,przepływy płynów,położenia,zjawiska termodynamiczne w tym temperatury,siły,przyspieszenia,zjawiska biologiczne i wiele,wiele innych rzeczy.

 

Jeśli chodzi o prostą detekcję chemiczną, prymitywnym detektorem zasadowości mogłaby być fenoloftaleina (którą to właściwość można zapamiętać szkolnym wierszykiem „fenoloftaleina,jak dziewczyna,rumieni się dla zasady”),a papierek lakmusowy,dzięki któremu mierzymy dokładnie ph – sensorem. Ale rzecz w tym,że w istocie,przez sensory i detektory również potocznie rozumiemy narzędzia w coraz większym stopniu autonomiczne,zaś prymitywne narzędzia, służące do obserwacji i pomiaru materialnych stanów są wypierane.Co może być współczesnym sensorem ? Też wiele rzeczy,poczynając od odpowiednich powierzchni i związków chemicznych, po zminiaturyzowane urządzenia elektroniczne czy Mikroelektromechaniczne urządzenia MEMS (Micro-Electro-Mechanical Systems, które mogą być np. takimi układami :

ale nie tylko,ponieważ jak wspominałem – sensory to nie tylko elektronika. Generalnie układy typu MEMS są również obecne np. w dyskach twardych,które zawierają mikrosensory spadku swobodnego. Rozmiar też może być różny. Ale właściwie po co to wszystko ? Wspominałem już o chipach neuromorficznych,jako o rozwiązaniu mogącym m.in poprawić „inteligencję” niektórych urządzeń.Co to ma do rzeczy ?

Nie trzeba naśladować mózgu,żeby zauważyć,że nawet proste urządzenia posiadające „zmysły” może reagować na pewne zjawiska w otoczeniu na bardzo prostym poziomie.Przykładem, jest choćby odruch cofnięcia ręki, w odpowiedzi na parzące gorąco.A nasze otoczenie, bez wątpienia jest zmienne. Zatem „inteligentne” (przy czym, jest to inteligencja niskiego poziomu) urządzenia i materiały mają przewagę. W praktyce, sensory nie muszą być tak skomplikowane, jak mikroprocesory,co nie oznacza,że ich masowe użycie jest tanie.W przyszłości jednak,sensory wszelkiego typu będą coraz powszechniejsze,i to nie tylko w samochodach i samolotach. A zawdzięczać je będziemy inżynierii materiałowej, elektronice, rozwojowi mikrotechnologii i nanotechnologii.Niektórzy powiedzą,że przecież na przeszkodzie stoi koszt.Ale zapominają o jednej ważnej wartości.Wartości informacji uzyskanej dzięki sensorom.Które dzięki ciągłemu wzrostowi wartości informacji mają niezagrożoną przyszłość.Prawidłowe wykrycie zagrożenia pozwala uniknąć awarii.Prawidłowe wykrycie awarii zaś, obniża koszt i czas naprawy.Moim zatem zdaniem, coraz nowsze i tańsze sensory to przyszłość.Nie rzucająca się w oczy,ale bardzo istotna i bardzo złożona kwestia techniczna o podstawowym znaczeniu.

Nowe odkrycia i badania naukowe – 08.2014

Ten wpis nie będzie jako taki na jeden konkretny temat. W tym wpisie krótko poruszę kwestię najnowszych wyników badań na czołowych zagranicznych uczelniach. Obecnie sztandarowymi tematami na stronach MIT i Cambridge są wyniki następujących badań związanych z inżynierią materiałową:

  • Symulacje przeprowadzone na MIT, dotyczące powierzchni międzyfazowych – badania,przeprowadzone przez grupę badawczą profesora, o swojsko brzmiącym nazwisku Demkowicz (który jednak z całą pewnością, swoją karierę naukową karierę zaczynał w USA) dostępny w formie artykułu tutaj. Dlaczego to jest istotne ? Ponieważ wiedza o tym jak zachowują się poszczególne,niejednorodne powierzchnie w kompozytach może prowadzić do polepszenia ich jakości i kontrolowania jej.Demkowicz wymienia dość ekstremalny przykład reaktorów,niemniej projektowanie kompozytów tak,by wykorzystywać ich strukturę,w tym również nieuniknione defekty strukturalne jest bardzo interesującą ideą, nawet jeśli od symulacji do zastosowania w praktyce osiągniętych wyników jeszcze daleka droga.
  • Na uniwersytecie Cambridge tymczasem przeprowadzono badania, nad wykorzystaniem nanocząstek srebra w holograficznym zapisie danych.Ale nie tylko,wyniki te mogą  Efektem rozmieszczenia ponad 16 milionów nanocząstek srebra na milimetr kwadratowy i wykorzystania zjawiska, znanego od czasów starożytnych jako dichroizm, jest możliwość uzyskania układów i nośników o dużo większej gęstości zapisu danych,ze względu na fakt,że w zależności od długości fali (a więc koloru) wiązki światła uzyskany zostanie inny wynik. Są to z pewnością przełomowe badania.Całość opublikowano w artykule „Plasmonic nanoparticle scattering for color holograms” czasopisma „Proceedings of the National Academy of Scieneces of the United States of America”. Omówienie na stronie uniwersytetu Cambridge jest dostępne,oryginalny artykuł niestety nie jest dostępny za darmo,na stronie PNAS mamy tylko abstrakt. A jak to wygląda ? Przykładowe fotografie z artykułu opublikowano na stronie phys.org.

Inne przykładowe (wyselekcjonowane) nowości ze świata nauki- opublikowane na phys.org:

  • Badacze z uniwersytetu Missouri opracowali „prostą,jednostopniową metodę” uzyskiwania nanoprzewodów/nanowłókien germanowych mających pomóc w zwiększeniu wydajności baterii litowo-jonowych. Artykuł „Electrodeposited Germanium Nanowires” opublikowano w piśmie ACS Nano. (artykuł phys.org)
  • Holenderski instytut TU Delft Institute of Nanotechnology przeprowadził badania, nad grafenową strukturą 2D („dwuwymiarową”)  „bębenka” („graphene drum”) , który „ostrzelano” przy pomocy mikrofalowych (długość fali itp) fotonów. Udało się zmierzyć wychylenia „bębenka” i działające na niego siły.Struktura ta może być wykorzystana w nowoczesnych sensorach,lecz co równie istotne w potencjalnych pamięciach kwantowych. Całość badań została opisana w artykule: „Optomechanical coupling between a multilayer graphene mechanical resonator and a superconducting microwave cavity” czasopisma Nature Nanotechnology. (artykuł phys.org)
  • Również w Holandii – Badacze z Uniwersytetów w Wageningen, Eindhoven, Leiden i Nijmegen badali syntetycznego wirusa,mającego służyć do przenoszenia leków – czy raczej, wykorzystanie w tym celu wirusowej powłoki. O ile wiem, astosowanie wirusów w nanotechnologii nie jest nowością,choć może być nieco ryzykowne ponieważ póki co nie udało się jeszcze osiągnąć pełnej kontroli nad wirusami. Wyniki badań opublikowano w artykule „Design and self-assembly of simple coat proteins for artificial viruses” opublikowanym w czasopiśmie „Nature Nanotechnology” (artykuł phys.org)
  • W Laboratoriach Berkley zaobserwowano doświadczalnie ultraszybki przepływ ładunku w czasie ok 50 femtosekund, czyli 5*10-14 sekundy w strukturze typu MX2. Przykładowe struktury tego typu to MoS2 i WS2. Struktury te są traktowane jako konkurencyjne wobec grafenu z uwagi na możliwość manipulowania przy ich przewodnictwie (wyłączanie itd). Całość opisano w artykule „Ultrafast charge transfer in atomically thin MoS2/WS2 heterostructures.” w czasopiśmie „Nature Nanotechnology” (artykuł phys.org)
  • „Najmniejsza możliwe” złącze półprzewodnikowe/bramka, składające się z tylko z 3 atomów, zostało opracowane przez badaczy z Washington University.Całość opisano w artykule „Lateral heterojunctions within monolayer MoSe2–WSe2 semiconductors”,czasopiśmie Nature Materials (artykuł phys.org).

Mimo to,nie traktowałbym tego ostatniego jako nadchodzącej twardej bariery dla rozwoju elektroniki,zdolności magazynowania danych i zdolności obliczeniowej komputerów,ponieważ nie tylko rozmiar się liczy,w informatyce liczy się bowiem jeszcze gęstość upakowania informacji.W czasopiśmie „The Next Wave” będącym periodykiem NSA,w artykule dot. grafenu twierdzi się,że potencjał do rozwoju nadal jest i prawo Moora będzie obowiązywać jeszcze przynajmniej 600 lat. Tymczasem „eksperci” wieszczą koniec znaczenia prawa Moora, dziennikarz „gazety wyborczej” Kędzierski – też. Kto ma racje ? Oryginalne prawo Moora odnosi się do tranzystorów i tu ci ludzie mogą mieć rację,Sam Gordon Moore już w 2006 roku stwierdził,że po upływie 2-3 lat (w 2008-2009 roku) może ono przestać obowiązywać.Ale póki co, nie przestało tak do końca. Poza tym nie jest tak, jeśli chodzi o zdolność obliczeniową i zdolność do magazynowania informacji.Dowodem, są choćby nowe osiągnięcia w dziedzinie utrzymania i kontroli stanu kubitu spinowego w kropce kwantowej, opisane w najnowszym artykule „Electrical control of a long-lived spin qubit in a Si/SiGe quantum dot” czasopisma „Nature Nanotechnology”.