Maszyny też się mylą. Przykładowe błędy hardware.

Na stronach niebezpiecznika oraz zaufanej trzeciej strony pojawiły się ostatnio artykuły o nowej podatności komputerowego hardware na atak – i jej wykorzystaniu. Podatność ta z grubsza polega na tym,że odpowiednio często nadpisywana komórka pamięci dzięki wyciekowi ładunku elektrycznego może oddziaływać na komórkę sąsiednią – i jeśli jest w niej coś ważnego dla bezpieczeństwa systemu, to może być nieciekawie. Atak jest możliwy dzięki temu,że możliwe jest określenie krytycznego obszaru pamięci i wykonanie z poziomu zwykłego użytkownika ataku na ten obszar.

Jak widać: polegamy na elektronice,ale niektórzy zapominają,że błędy się zdarzają.

Tego typu wymuszony błąd – wynikający ze struktury elektroniki nie jest jedynym błędem. Wcześniej niebezpiecznik wspominał o bitsquattingu i problemie oddziaływania promieniowania kosmicznego na pamięci komputerowe. O tych błędach można sobie spokojnie poczytać w tych serwisach. A tu podam inne przykłady.

W początkach lat 90-tych (dokładnie około 1994 roku) użytkownicy komputerów zostali zapoznani z przerażającym odkryciem. Ich procesory ówczesne procesory o częstotliwościach 60-100 Mhz źle wykonywały operację dzielenia. I nie była to oczywiście jakaś prosta operacja.

Przykładową operacją testową było wykonać następujące obliczenie:

962 306 957 033 / 11 010 046 = 87402,6282027341 (wynik poprawny)

962 306 957 033 / 11 010 046 = 87399,5805831329 (wynik błędny)

Był to tak zwany bug FDIV.

Jak pisał Scott Mueller swego czasu w staszych wydaniach swojej książki „Rozbudowa i naprawa komputerów” – w reakcji na to wydarzenie firma Intel zdecydowała się wymienić błędnie działające procesory. Inny, przykładowym problemem była awaria funkcji oszczędzania energii w procesorach EPA Energy Star skutkująca zawieszeniem komputera.

Kolejny przykład, który przestawię jest dużo bliższy współczesności. W serwisie stackexchange dyskutowano nad problemem błędów związanych z obliczeniami procesora. Jak  w trakcie dyskusji jeden z użytkowników zwrócił uwagę,że wyniki obliczeń zmiennoprzecinkowych w układach: Intel i7-3610QM i Nvidia GeForce GTX 660 nieco się różnią. Na przykład otrzymane wyniki:
-1.4906010142701069 Procesor
-1.4906010142701074 Karta graficzna
-1.4906010142701069 Procesor
-1.4906010142701074 Karta graficzna
Błąd wynika głównie z tego,że układy te najprawdopodobniej w różny sposób zaokrąglają. Różnice co gorsza mogą się kumulować… 4,01*10-14 % wartości to może mało,ale wystarczająco dużo obliczeń (zwłaszcza iloczynów) może doprowadzić do wystarczającego błędu by miało to znaczenie.Co z tym można zrobić – niewiele albo nic,bo sprawa jest kwestią zaokrągleń i rozmiaru pamięci.

Kolejny błąd tego typu to klasyczne,dobrze znane programistom przepełnienie bufora. Bo co się stanie,gdy maszynie każe się dodać dwie ośmiobitowe (już od dawna za proste – teraz są 32-64 bity) cyfry:
11111111 i 00000001 dwójkowo to by było 100000000 a w praktyce wynik bez nadmiarowego bitu będzie ośmiobitowa cyfra 00000000. A gdzie powędrowało 1 (nadmiarowy bit) z samego początku ?
Zostało zgubione albo co gorsza – trafiło w inne miejsce pamięci.

Warto tutaj wspomnieć,że rejestry pamięci cache procesora czy karty graficznej mogą być różnie zbudowane.

Ale mało i tego. Niektórzy „dla zwiększenia wydajności” lubią przetaktować sobie procesor. Oczywiście – można a czasem „trzeba”. Sama produkcja chipów jest taka,że spora część układów z „wafla” krzemowego może pracować zanim pojawią się błędy obliczeniowe ze znacznie większymi częstotliwościami taktowania, niż określa producent. Teoretycznie. W praktyce jednak, oznacza to również przyjęcie,że błędy procesora mogą zdarzać się częściej (mniejsza stabilność pracy), a sam procesor może nawalić szybciej. Plus może powodować różne problemy dopasowaniem częstotliwości pracy pamięci i procesora.Wreszcie – jeśli przesadzi się przy przetaktowaniu procesor może się spalić.  Nawet tak spektakularnie,jak przetaktowany układ raspberry pi:

Oczywiście – nie każdy, kto przetaktuje procesor uzna moją argumentację za słuszną. Wzrost efektywności może być bowiem większy jak przyrost problemów,a same problemy mogą być z pewnego punktu widzenia marginalne – i o tym też należy pamiętać.

Niestety,im mniejsze ścieżki mikroprocesorowe tym większego znaczenia nabiera również fizyczna degradacja układu mikrochipu.

Problem dodatkowo komplikują inne, niż wymienione na samym początku błędy pamięci. Nie tylko sąsiednie komórki pamięci i promieniowanie kosmiczne,nie można zapominać o błędach podczas odczytu. Same te problemy opisuje na przykład artykuł „DRAM errors in the Wild:A Large-Scale Field Study„.

Jak widać błąd procesora czy pamięci można raz na jakiś czas spotkać lub spowodować.

Czy to wszystko na co „stać” komputery ? Ależ nie. „Wąskim gardłem” każdego komputera jest magistrala płyty głównej obsługująca komunikację pomiędzy poszczególnymi układami. W starszych komputerach problemy z magistralą i błędami DMA były częstsze niż dziś,lecz wcale to nie znaczy,że dzisiaj takich błędów nie ma. Wciąż mogą się zdarzyć – choć rzadziej. A jeśli doszło by do „zakleszczenia” się między operacjami – urządzenie się „zawiesi” (utknie przy wykonywaniu instrukcji, która stała się bezsensowna.

Jednak, nie tylko komputery się tak mylą.Cała technika cyfrowa (zwłaszcza : wszystko co ma mikrokontroler) jest w końcu oparta dzisiaj na przepływach prądów, które pełnią rolę zera i jedynki – czyli sygnał i brak sygnału (czyt: odpowiedniego prądu).  Podobne błędy, jak w procesorach (i gorsze) spotkać można w robotach przemysłowych i setkach innych urządzeń Często winne są tu błędy programistyczne. Ale nie zawsze winni są programiści. Czasem winny jest konstruktor urządzenia.

A potem:

Dlaczego w takim razie polegamy na tym „zawodnym” sprzęcie ? Bo w większości przypadków nie dzieje się naprawdę nic złego. Przestawienie w wyniku promieniowania kosmicznego średnio 1 bitu na dzień w komputerze dysponującym 4 Gb zwykłej pamięci raczej zwykle nie powinno wywołać i tak katastrofy – choć może i obniża stabilność długotrwale funkcjonującego systemu.Realnie gdyby 1 osoba na 4 miliony ginęła dziennie pod kołami samochodów to (pomimo ogromu tragedii) jakoś by to nas nie ruszało w codziennym życiu – przynajmniej dopóki nie bylibyśmy to my,lub nasi krewni. Tak szczerze,w Polsce ofiar śmiertelnych wypadków drogowych w 2007 było średnio o prawie 60% więcej.

Z drugiej strony sprawa ewentualnych usterek systemów elektronicznych to wcale nie jest drobiazg. Coraz więcej nowych samochodów wyposażanych jest w nową elektronikę.  I bynajmniej jej awaria nie musi być tak niegroźna,jak na poniższym filmie:

Poważniejsze usterki mogą prowadzić nawet do katastrofy.Dlatego ważne jest zapewnienie nadmiarowości i innych środków bezpieczeństwa wszędzie tam,  gdzie bezpieczeństwo jest wymagane. I unikanie sytuacji,w które elementy systemu od którego wymagana jest poprawna praca ulegają przeciążeniu. Przeciążeniu nie tylko zresztą wynikającemu z warunków powiązanych z elektroniką. Itd.

Nowości w nauce,elektronice i bezpieczeństwie – 25.2.2015

Krótko bo mam mniej czasu:

Bezpieczeństwo-różne:

  • Od wczoraj dostępny jest system tails 1.3 – tym, którzy wiedzą o co chodzi z anonimowością w internecie nie trzeba go przedstawiać, pozostałych odsyłam do odpowiedniej strony anglojęzycznej wikipedii.
  • Niebezpiecznik, powołując się na naukowców z uniwersytetu Stanforda w ostatnich dniach informował – do śledzenia lokalizacji telefonu wcale nie jest potrzebny GPS. Z oryginalnymi badaniami można zapoznać się [tutaj].
  • Artykuł na phys.org sprzed tygodnia o problemach jakie władze napotykają w związku z próbą prowadzenia inwigilacji w deep web / dark web.
  • Jak informuje phys.org USA oferuje 3 mln dolarów za informacje na temat Jewgienija Michaiłowicza Bogaczewa, uważanego przez władze amerykańskie za administratora botnetu trojana Zeus. Co ciekawe uważa się,że mieszka on w Rosji, co trochę komplikuje sprawę (czyżby CIA/NSA/FBI planowało porwanie obywatela FR ?). Należy też przypomnieć o sprawie aresztowania syna członka rosyjskiej dumy (parlamentu). Władze FR twierdzą, że aresztowanie Romana Selezniewa było w istocie porwaniem,więc szanse na ewentualne wydanie Bogaczewa przez władze Rosyjskie są raczej małe.
  • Ciekawy artykuł na phys.org na temat problemów w zakresie systemów bezpieczeństwa i przyczyn, dla których nawet firmy będące liderami IT mają wciąż z tym problem.
  • Blackout w Polsce coraz prawdopodobniejszy w najbliższych latach – zaczynają o tym pisać również serwisy prorządowe, takie jak Defence24. Za sytuację odpowiada niedbalstwo polityków i szefów spółek pasożytujących na wybudowanym za czasów PRL systemie którego „jakoś” nie unowocześniano.

Nauka/Bezpieczeństwo:

  • Jak informuje phys.org opracowano nowy materiał polimerowy którego struktura,podobna do struktury odcisku palca zapobiegać ma możliwości dokonania fałszerstwa. Więcej można przeczytać w artykule: „Biomimetic microfingerprints for anti-counterfeiting strategies”,którego autorzy to: Hyang Jong Bea, Sangwook Bea, Cheolheon Park, Sangkwon Han, Junhoi Kim, Lily Nari Kim, Kibeom Kim, Suk-Heung Song, Wook Park, i Sunghoon Kwon, czasopismo” Advanced Materials”, 2015 DOI: 10.1002/adma.201405483″

Nauka:

  • Dwa ciekawe artykuły – rozważania na phys.org:
  •  Ciekawego odkrycia dokonali badacze Chińscy z uniwersytetu Tsinghua w Pekinie. Udoskonalili oni technologię znaną jako „fiber drawing” w sposób umożliwiający wytworzenie nanorurek o długości ponad pół metra. Odkrycie może zostać zastosowane w elastycznej elektronice nowej generacji.O elastycznej elektronice wspominałem niedawno. Więcej na phys.org i w artykule: Sihan Huang, et al. „Direct Writing of Half-Meter Long CNT Based Fiber for Flexible Electronics.” czasopismo „Nano Letters”, DOI: 10.1021/nl504150a”
  • Jak już jesteśmy przy papierze – badacze z University of California Riverside’s Bourns College of Engineering opracowali nowy przypominający papier materiał dla baterii litowo-jonowych. Więcej na phys.org i w artykule: „Towards Scalable Binderless Electrodes: Carbon Coated Silicon Nanofiber Paper via Mg Reduction of Electrospun SiO2 Nanofibers” czasopisma „Scientific Reports” (5, Article number: 8246 DOI: 10.1038/srep08246 )
  • Znaleziono najwytrzymalszy naturalny materiał. Są to zęby podobnego do ślimaków naturalnego organizmu, których wytrzymałość na rozciąganie sięga od 3 do 6,5 GPa. Więcej na phys.org i w artykule „Extreme strength observed in limpet teeth„.
  • Nowe mikroanteny mogą okazać się kolejnym krokiem w rozwoju technologii „lab on a chip”. Więcej na phys.org i w artykule „Optically resonant magneto-electric cubic nanoantennas for ultra-directional light scattering” czasopisma Journal of Applied Physics [można pobrać tutaj]
  • Naukowcy z John Hoppkins University opracowali rozwiąząnie, mające poprawić przepływ prądu w ultracieńkich przewodach nadprzewodników. Więcej na phys.org.

Elektronika:

  • Jak informuje phys.org firma Flex Logix twierdzi,iż znalazła nową tańszą metodę produkcji układów FPGA i zamierza zarabiać na udzielaniu licencji na ich producję. O firmie pisze również Electronics Weekly. Tym niemniej sprawa może mieć różny finał,ponieważ CEO tej firmy jest były CEO firmy Rambus , (jak również możliwe są z nią powiązania). Czy zastosowanie podobnego modelu firmy i tym razem może się skończyć kolejną serią batalii sądowych o patenty ? Zobaczymy.Oby nie. Nowość w układzie polega głównie na zastosowaniu centralnej magistrali.
  • Electronics Weekly pisze też o wprowadzonych poprawkach bezpieczeństwa do SoC ARM firmy Freescale Semiconductors.
  • Xilnix wprowadza mikroprocesory dla FPGA w technologii 16 nm.

Elastyczna elektronika – wstęp. Kilka wyjaśnień na temat pozytywnie pokręconego pomysłu.

Dotychczas stosowana elektronika ma szereg ograniczeń. Jedno z takich praktycznych użytkowych ograniczeń jest kształt i brak możliwości jego zmiany bez ryzyka uszkodzenia obwodu. Tablety czy inne tego typu urządzenia mogą być coraz cieńsze – czy można je jednak zwinąć w rulonik, niczym kartkę papieru ? Odpowiedź brzmi: na razie nie.

„Na razie” jest tu kluczowe, bowiem od szeregu lat trwają badania nad elastyczną elektroniką, a ich rezultaty są coraz bliższe urzeczywistnienia. Jak dwa tygodnie temu informował Giznet firma LG rozpoczyna produkcję elastycznych ekranów OLED. (na razie o maksymalnym promieniu zgięcia 75 mm). Jak ta technologia działa w praktyce ? O tak:

Imponujące ? A to jest dopiero początek. Technologia elastycznej elektroniki nie ogranicza się bowiem do wyświetlaczy, lecz obejmuje również kamery/aparaty fotograficzne, które można nosić na oku w formie soczewki kontaktowej, smart-rękawiczki dla chirurgów (ale i dla pilotów i nie tylko – dlaczego nie), oraz urządzenia monitorujące zdrowie, smart-opaski zamiast telefonów,obrazowanie pracy mózgu itd. Mimo,że technologia ta wciąż „raczkuje” jest ona zatem godna zainteresowania.

Istnieją zasadniczo dwa podejścia w badaniach nad otrzymaniem takiej elektroniki:

  • Rozwój elektroniki organicznej – w zasadzie pomimo dużo gorszych właściwości użytkowych – przez szereg lat dominującej ze względu na większą odporność na zginanie związków organicznych.
  • Podnoszenie odporności na zginanie elektroniki nieorganicznej – trudniejsza,lecz bardziej obiecująca droga, dająca nadzieję na w pełni wydajne urządzenia elastycznej elektroniki.

Głównym obszarem badań przez szereg lat była zatem elektronika organiczna i poszukiwania w zakresie elektroniki nieorganicznej materiałów wykazujących wysoką odporność na zginanie,tym niemniej pod względem strukturalnym mówimy tu o kluczowej roli połączeń dla elektroniki na podłożu polimerowym – czy to organicznej, czy powstałej dzięki odpowiednim technologiom metalizacji powierzchni lub jej kształtowania. W efekcie, otrzymane cienkie warstwy połączone odpowiednimi złączami można odpowiednio wykorzystać.

Wykorzystując krzemowe „wyspy” połączone bardziej elastycznymi złączami, bądź odpowiednie ukształtowanie powierzchni – tak,by oddziaływanie naprężeń nie było znaczne – można więc uzyskać podstawową strukturę podobnego typu:

Phys.org, Dae-Hyeong Kim, University of Illinois, http://phys.org/news/2011-03-stretchable-electronics-device-cardiac-ablation.html

Oczywiście nic nie stoi na przeszkodzie,by inaczej niż na zdjęciu złącza były rozmieszczone w 2 lub więcej płaszczyznach a odpowiednie układy poddać miniaturyzacji.

Nieco bardziej zaawansowane będą zapewne struktury nowej generacji, powstałe dzięki zastosowaniu grafenu, nanorurek węglowych, bądź innych struktur tego typu (np wspomniani przeze mnie konkurenci grafenu – krzemen i germanen).

W praktyce, podstawową technologią otrzymywania najprostszych tego typu układów jak tranzystory czy mikroanteny na powierzchni polimerowej, jest osadzanie metali z wykorzystaniem znanej od dawna w elektronice techniki „maski”. Jednakże, w przypadku nowszych produktów, szczególnie nowej generacji trzeba skorzystać też z dziedzictwa technik które wykorzystuje się w produkcji układów typu MEMS. Należy jednak pamiętać,że podstawowym problemem są nie układy mikroelektroniczne na podłożu polimerowym a odporność złączy pomiędzy nimi na warunki wielokrotnego zginania. Oczywiście jednak, elastyczne tranzystory i układy tego typu to również bardzo istotne i korzystne rozwiązania.

Zainteresowanych większą ilością szczegółów proponuję np. oglądnąć wykład na ten temat z Imperial College w Londynie:

Warto też poczytać poniższe artykuły anglojęzycznej wikipedii: [1] [2]

Elektronika w kosmosie – kilka podstaw

Większość z nas posiada raczej dość wydajne komputery. W epoce wielordzeniowych 64-bitowych procesorów o taktowaniu standardowo powyżej gigaherca, dysków twardych o pojemności wielu gigabajtów w technologiach HDD i SSD procesory takie jak i486 jawią się większości, jako absolutna prehistoria komputerów. A jednak komputer misji Apollo – AGC miał tylko 16 bitowy procesor o taktowaniu 2,048 Mhz i bardzo mało pamięci RAM i ROM. Właściwie był to „taki kalkulator”. Mało tego. Procesory i386 oraz i486 były i są nadal stosowane w szeregu rozwiązań funkcjonujących w przestrzeni kosmicznej.

CC BY-SA 3.0 Appaloosa

To nie żart.To rzeczywistość. Ale dlaczego właściwie tak jest ? Po co używać przestarzałego sprzętu, od którego wydajniejsza jest byle komórka, a nawet część kalkulatorów ?

Są ważne powody. Napisano już kilka artykułów je wyjaśniających np: [1] [2]. A ja napiszę kolejny po to,by zebrać to w całość – i mam nadzieję – zrobić to lepiej.

Zacznijmy od opisu warunków jakie panują w przestrzeni kosmicznej i na orbicie,czy tam na księżycu.No nie są one fajne:

  • Próżnia,a co za tym idzie problem z oddawaniem ciepła (wydaje się dziwne,skoro w przestrzeni kosmicznej jest zimno ? A kojarzycie termos ?)
  • Piekielnie niskie temperatury (nie ma może jakiegoś szybkiego schładzania i strat ciepła, bo próżnia), ale też w dzień nagrzewanie do temperatur nawet do 100 stopni Celcjusza.
  • Promieniowanie kosmiczne i wiatr słoneczny oraz wysokoenergetyczne cząstki w pasach van Allena
  • Spore przyspieszenia przy starcie do lotu w kosmos (efekty siły bezwładności)
  • Nieco inny przebieg niektórych zjawisk chemicznych (nawet ogień w kosmosie pali się inaczej)

Dodajmy do tego duży koszt dotarcia w przestrzeń kosmiczną i dalej, a w efekcie można wyciągnąć już ciekawe wnioski.

Żeby być dokładniejszym, promieniowanie kosmiczne w przestrzeni to w zasadzie w:

  • 83% – protony
  • 13% – cząstki alfa (jądro helu/jon helowy)
  • 3% – elektrony
  • 1% – ciężkie jony (głównie jądra atomowe)

Co ciekawe, całkiem spory odsetek ciężkich jonów w kosmosie, a przynajmniej bliskiej przestrzeni kosmicznej to jony żelaza. Cząsteczki te przenoszą w każdym razie ogromną energię i mogą narobić sporo szkód.

Jeśli chodzi o protony, to chyba każdy kto uczył się fizyki kojarzy, co się stanie,gdy niewielka część nich (1 na 10.000,ale jednak) uderzy w jądro atomowe. Rozszczepienie jądra atomu w mikroprocesorze nie spowoduje może spektakularnej eksplozji, ale tak czy siak – być może istotny – fragment półprzewodnika zmieni swoje właściwości.  Jeśli sieć krystaliczna zostanie naruszona – chip zostanie uszkodzony.Lekko ? Uszkodzenia będą się nawarstwiać,błędy będą ciągle. Co tu dużo mówić – jest to pewien problem nie tylko w kosmosie, ale i potencjalnie w elektrowniach atomowych.Ciężkie jony też mogą namieszać. Puknie taki w nieodpowiednie miejsce i elektronika wariuje, bo stworzyło się trochę za dużo elektronów i dziur na złączu, pojawiają się skoki napięcia lub natężenia – i mamy usmażone chipy (opór elektryczny !). A chipy jak wiadomo nie chipsy (czy inne frytki) – usmażenie im nie służy. Nawet jak taki chip się nie zepsuje to zacznie zachowywać się nieprzewidywalnie, upływ prądu (ang. leakage) zachodzi i takie tam.

Idźmy dalej.Uderzenie ładunku w ścieżki o rozmiarze poniżej 180 nm sprawia problemy –  dochodzi do „ucieczki” ładunku, który błądzi po różnych ścieżkach na układzie, często ze sobą nie związanych – czego efektem jest oczywiście trwała lub tymczasowa awaria w obwodzie. W najlepszym razie zaburzone zostaje działanie. Im w mniejszej technologii układ – tym większa szansa na pobudzenie wielu elementów obwodu. Tym samym miniaturyzacja w kosmosie nie zawsze jest korzystna,a na procesorach wykonanych w technologii takiej jak 800 nm (i486) bardziej można polegać bardziej, bo po prostu na tak wielkiej ścieżce jak jakaś cząsteczka „puknie”, żadnych nadzwyczajnych rzeczy (może) nie będzie.

Problem promieniowania dotyka również pamięci DRAM – również na ziemi, gdzie dziennie na 4 gb ram przypadać ma średnio 1 błąd wywołany promienowaniem kosmicznym dziennie. O zjawisku tym choćby w kontekście bitsquattingu pisał niebezpiecznik. Problem polega na wyzerowaniu bitu przez promieniowanie (1 -> 0). Ponadto, problemem może być również nie tylko uderzenie we fragment danych pamięci, ale też podczas cyklu odczytu/zapisu, dzięki zakłóceniu przepływu danych.

Zabezpieczeniem przed tym zjawiskiem jeśli chodzi o pamięci jest częściowo stosowanie pamięci ECC.

Należy jednak pamiętać,że stosowanie tego rodzaju pamięci na ziemi, w pierwszym lepszym komputerze, nie zawsze jest możliwe – konieczna jest odpowiednia płyta główna. No i są one oczywiście droższe.

Stosowane rozwiązania zabezpieczające przed awarią wywołaną promieniowaniem, to po pierwsze odpowiednie warstwy osłonowe dla mikroprocesorów, odpowiednia konstrukcja chipa oraz nadmiarowość – zarówno jeśli chodzi o układ jak i o zastosowanie kilku układów o różnym oprogramowaniu.

Kwestia temperatur – niskich i wysokich to kwestia nagrzewania i chłodzenia. Jak pisałem w przestrzeni kosmicznej jest zimno,ale za to jest sporo próżni, wiec jakoś wolniej się to schładza (Ale też trudniej pozbyć się nagromadzonego ciepła) Układy krzemowe CMOS jakoś sobie radzą z temperaturami rzędu -150 do -55 stopni Celcjusza (choć są mniej wydajne) ale w temperaturach ponad +200 stopni trzeba stosować inne układy. Zresztą w kosmosie nie ma też dobrego źródła zasilania,ogniwa fotowoltaiczne,rzadziej (i raczej z reguły nie na orbicie) kilka kilo plutonu stąd i pobór prądu musi być mniejszy. Tak się składa,że stare mikroprocesory – tak pod względem poboru prądu jak i produkowanego ciepła są w czołówce.

Wpływ sił bezwładności to z kolei powód dla którego klasyczne talerzowe dyski twarde kompletnie nie nadają się do lotów w kosmos. Działające przy starcie przeciążenia po prostu doprowadziłyby do zniszczenia dysku.  Zamiast nich stosuje się pamięci (i dyski)w technologii flash.A one już mają wady typowe wymienionych rodzajów pamięci.

Ze względu na bezpieczeństwo i chemię również magazynowanie energii jest ograniczone dla niektórych rodzajów baterii. Wybuch lub pożar w kosmosie jest oczywiście niepożądany.

To co omówiłem to rzecz jasna podstawy. Istnieją na ten temat całe specjalistyczne opracowania NASA,zależało mi na wyjaśnieniu kilku drobiazgów – nie na zanudzeniu was na śmierć.Pozdrawiam.

Systemy MEMS – wstęp

Systemy mikroelektromechaniczne znane w skrócie jako MEMS otaczają nas,choć nie zawsze o tym wiemy. Zarówno nowoczesne sensory jak i aktuatory. (siłowniki/napędy mechanizmów/… – nie do końca potrafię tu dokonać przekładu tego terminu). Urządzenia tego typu zawierały np. twarde dyski (choćby sensor upadku). Jest to stosunkowo „nowa” technologia,ale coraz powszechniejsza w elektronice,dlatego też warto się z nią zapoznać. Cechą charakterystyczną układów tego typu jest to,że przynajmniej jeden z wymiarów urządzenia ma rozmiary w mikroskali ( czyli10-6 metra), co sprawia,że często podlegać mogą zjawiskom fizyki zjawisk mezoskopowych [Anglojęzyczna wikipedia]. Należy również zaznaczyć,że ich kompleksowo brzmiąca nazwa nie jest przypadkiem. Bardzo często tego typu małe urządzenia pełnią równocześnie rolę sensora, aktuatora, układu elektronicznego itd. Streszczając – można powiedzieć, że są one niekiedy nawet połączeniem technologii mikroelektroniki, mikrosensorów i mikroaktuatorów w jednym maleńkim urządzeniu.

Zastosowania są bardzo liczne. Od dysków twardych i samochodów po pomiary chemiczne, żyroskopy, produkcja energii przy wykorzystaniu piezoelektryka, a nawet pomiary biologiczne.

Wiele podstawowych informacji o systemach MEMS można poznać na wikipedii [PL] [Ang] oraz w poniższym filmie:

Ponieważ te materiały oraz artykuł Pana Marcina Karbowniczka na stronie czasopisma „Elektronika Praktyczna” tłumaczy bardzo dużo, nie ma sensu tytułem wstępu tak się rozpisywać (ok.wiem.Trochę w tym i mojego „lenistwa” czy raczej braku czasu dzisiaj. Większy artykuł umieszczę następnym razem, przyrzekam )

Polecam zainteresowanym czytelnikom również bardzo rozbudowaną anglojęzyczną stronę, dotyczącą tej rodziny układów:

http://www.memsnet.org/news/

Pozdrawiam.