Reversing/Inżynieria odwrotna w technice i w informatyce – wstęp

No i znów jestem. Dziś napiszę coś o ciekawym zastosowaniu technik badawczych. Aby jednak to zrobić, użyję dość dalekiej – nie tylko geograficznie kwestii – kwestii Chińskiej. Dzisiejsze Chiny nadal słyną z „podróbek” – choć Chińskie produkty są coraz lepszej jakości i bynajmniej nie ograniczają się do „tandety”. To już nie te czasy. Można Chinach dzisiaj mówić wiele. Ale tak, czy inaczej trzeba Chińczykom przyznać jedno. Ku wściekłości i rozpaczy świata zachodniego, sztukę kopiowania opanowali na bardzo wysokim poziomie i na skalę przemysłową. Ale czy tylko Chiny tak robiły ? Nie. ZSRR również korzystał zapewne (obok, lub w ramach szpiegostwa przemysłowego) z technik reversingu. Ba,czy również broniące dziś swoich praw firmy informatyczne jak Apple i Microsoft nie tylko korzystały z rozwiązań konkurencji (Xeroxa) ale i w razie potrzeby również dokonywały reversingu, podobnie jak firmy od hardware które dokonywały w latach 80-tych inżynierii odwrotnej swoich układów – po to,by stworzyć specyfikację a potem opracować inne – lecz kompatybilne – rozwiązania, różne od opatentowanych ?

W istocie tak było, a choćby technika reversingu „clean room” (nie mająca chyba wiele wspólnego poza nazwą z technologią produkcyjną cleanroom), polegająca na wykorzystanie reversingu do stworzenia specyfikacji a następnie wykonaniu własnego układu, wykorzystana do stworzenia BIOSu kompatybilnego z BIOSem koncernu IBM przez firmę Phoenix,a później inne firmy, przełożyła się na to,że IBM PC stał się standardem komputera osobistego, dzięki nasileniu wolnej konkurencji i obecności różnych rozwiązań. Oczywiście korporacja taka jak IBM mogłaby i na tym zarobić i tak mając odpowiednie podejście, w późniejszych latach, a to dlaczego tak nie było to kwestia,którą powinien rozważać kto inny. Świadczy o tym fakt, że stosujące otwarte standardy korporacje nie tylko na tym dziś nie tracą,ale i często zyskują dzięki intensywniejszej współpracy – często wchłaniając później korzystające z ich rozwiązań startupy . WIN-WIN z wolną konkurencją w tle. Ale czy inżynieria odwrotna, znana pod angielskimi terminami jako „reverse engineering” czy „reversing” ogranicza się do takich, często wątpliwych prawnie kwestii jak kopiowanie cudzych produktów ? Niekoniecznie. W istocie reversing może polegać np. na:

  • W przypadku produktów materialnych:
    • zrozumieniu i ewentualnemu skopiowaniu a nawet udoskonaleniu istniejącego rozwiązania technicznego
    • odtworzeniu zagubionej/utraconej dokumentacji produktu
    • znalezieniu właściwego sposobu na dokonanie samodzielnej naprawy,bądź naśladowania określonej techniki naprawczej
    • odtworzeniu dawnych technik o znaczeniu historycznym oraz odrestaurowanie / wykonanie możliwie repliki przedmiotu o znaczeniu historycznym
    • rozpoznanie lub odtworzenie procesu produkcyjnego i jego parametrów
  • W informatyce:
    • Poznawanie działania algorytmów szyfrujących celem deszyfracji komunikatu
    • Poznanie działania oprogramowania (tak cudzego programu jak i wirusa) i ewentualna reimplementacja w innym środowisku informatycznym (inny procesor,system itd.) bądź modyfikacja
    • Poznanie zastosowanych technik programistycznych i ewentualne ich wykorzystanie,bądź stworzenie rozwiązań dających podobne rezultaty bez naruszania patentów
    • Określenie specyfikacji urządzenia/oprogramowania – celem wytworzenia nowego,kompatybilnego
    • Wykrycie błędów programistycznych i luk oprogramowania którego kod źródłowy jest niedostępny

W istocie, część tych rozwiązań jest jak najbardziej legalna,natomiast część pozostałych zawadzać może o szpiegostwo przemysłowe. Nawet jeśli tak jest,to należy pamiętać,że zakazanie danych działań lub ich kryminalizacja , nigdy nie oznacza całkowitego wykluczenia danych działań w praktyce. (Gdyby było inaczej to przestępcy w Polsce nie posiadaliby broni, czy narkotyków, ponieważ to nielegalne). Oznacza to,że zgodnie z przysłowiem „dżina wypuszczonego z pudełka” bardzo trudno zamknąć w nim ponownie, całkowite powstrzymanie postępu technologicznego jest właściwie niemożliwe. Należy też zwrócić uwagę, że inżynieria odwrotna zastosowanych produktów materialnych, jak najbardziej mogłaby być wykorzystana celem wykrycia ewentualnych wad zastosowanego procesu produkcyjnego, oraz celowego wykorzystania jego słabości – szczególnie w wojskowości,ale nie tylko – w literaturze fachowej dotyczącej bezpieczeństwa znany jest przykład amerykańskich inżynierów, którzy dokonali inżynierii odwrotnej automatów do gier hazardowych,aby wygrywać. Wracając do „sprawy Chińskiej”. Chińczykom pewnych rzeczy nie udało się skopiować, pomimo usilnych starań. Do takich rzeczy należą silniki lotnicze. W dalszej części tego tekstu, spróbuję również wyjaśnić potencjalne powody. Tekst ten również wyjaśni, dlaczego jednak łączę przypadki reversingu informatycznego oprogramowania i produktów materialnych. Jeśli się zastanowić,wbrew pozorom, stosowane w tych dziedzinach metodologie mają podobny sens i jedna może inspirować drugą – zarówno, jeśli chodzi o koncepcję znalezienia sposobu na osiągnięcie powtórnego wykorzystania rozwiązania – jak i przeciwnie – koncepcję sposobu utrudnienia, lub wręcz uniemożliwienia czegoś podobnego. Jak wspominałem, inżynieria odwrotna jest techniką badawczo-(re)produkcyjną, zmierzającą do poznania struktury i działania obiektu badań i jego ewentualnego odtworzenia. Co za tym idzie oczywiście należy przeprowadzić:

  • Badania zmierzające do określenia jego struktury – najlepiej w sposób nieniszczący, jednak jeśli dysponować się może większą (bądź w informatyce) nieograniczoną liczbą kopii obiektu badań – również w sposób inwazyjny
  • Badania jego zachowania i działania w możliwie naturalnym środowisku/środowiskach w których obiekt badań pracuje / mógłby pracować.
  • Badania zmierzające do określenia cech charakterystycznych i ograniczeń procesu produkcyjnego (oraz porównać go z dostępnymi sobie procesami produkcyjnymi).

Wymaga zaznaczyć,że przeprowadzenie takich badań wymaga dostatecznych kwalifikacji badacza/badaczy w danej dziedzinie.Przez „dostateczne” rozumiem „potrafi więcej,niż zaprojektować coś samodzielnie” i zna całkiem dziedzinę,w której przeprowadza działania,o chakterze reversingowym. Ponadto, z naturalnych względów analiza oprogramowania, bądź obiektu materialnego ,o którym nic nie wiemy, powoduje znacznie większe trudności, niż analiza czegoś, o czym mamy możliwie sporo informacji nawet specjaliście. W końcu, jeśli ktoś nie wie co to są tosty, nie będzie rozumieć tego czym dokładnie jest toster i tym,co jest istotne w procesie jego działania – choć może, możliwie prawidłowo, nadal określić jego budowę, przy zachowaniu odpowiedniej staranności i doboru właściwości / właściwego materiału, co umożliwia, przynajmniej częściowe skopiowanie jego funkcjonalności w praktyce. Istotne jest jednak wtedy zebranie kompletnych – ba, często wręcz nadmiarowych danych na temat obiektu badań, przy użyciu najnowocześniejszych możliwych narzędzi – które, w praktyce i tak mogą być prymitywne, bądź nieadekwatne, w porównaniu z napotkanym problemem. Odkrycie statku kosmicznego obcej cywilizacji na ziemi wcale nie musiałoby się więc przełożyć na znaczne rozwinięcie technologii podróży kosmicznej.Choć oczywiście mogłoby znacznie ułatwić sprawę, o ile ta cywilizacja byłaby na tyle podobna do naszej,by można było zrozumieć jak działają jej urządzenia. Ponadto, inżynieria odwrotna badając zastosowanie danej koncepcji ma ten naturalny problem,że nie zawsze da się określić, co było błędem wykonawcy obiektu badań/wynikiem eksploatacji, lub niewłaściwego przechowywania, a co jego naturalnych cech. Ujmując to dowcipnie: kopiując zardzewiały gwóźdź, nie każdy musi zauważyć,że gwóźdź nie musi być zardzewiały – zwłaszcza, jeśli kopiuje się coś bardziej zaawansowanego technicznie, jak zardzewiały gwóźdź. Reguły są niezwykle pomocne, lecz nie wszystkie reguły są znane publicznie. Co gorsza, (szczególnie w przypadku produktów materialnych, ale nie tylko) informacja na temat procesu produkcyjnego może być utracona, w rezultacie zastosowania danego procesu wytwarzania, a informacje z nim powiązane mogą być również zmienione,lub zatarte/usunięte w inny sposób. Dla przykładu:

  • Obróbka cieplna lub chemiczna stopów metali może zmienić skład chemiczny stopu startowego – lokalnie lub w całym stopie (to samo zresztą dotyczy polimerów i innych materiałów)
  • W przypadku wielokrotnego kucia i wielokrotnej obróbki cieplnej pewne parametry procesowe mogą zostać zatarte lub utracone.

Ale też:

  • Po kompilacji do wersji binarnej utracone mogą być pewne dane dotyczące języka programowania, i wykorzystanych bibliotek oraz planowanego algorytmu i ewentualnej specyfikacji programu w UML.

Samo prowadzenie analizy produktu materialnego konieczne jest określenie:

  • Wymiarów odtwarzanego obiektu /obiektów wraz z tolerancjami i pasowaniami
  • Charakteru powierzchni
  • Uzyskanie porównywalnych właściwości materiałowych – takich jak np.:
    • Skład chemiczny i fazowy
    • Morfologia i struktura
    • Właściwości mechaniczne,plastyczne i zmęczeniowe
    • Twardość
    • Odporność na zmęczenie materiałów
    • Odporność chemiczna
    • Wprowadzone naprężenia w materiale
    • itd.

Jeśli chodzi o tolerancje,pasowania i charakter powierzchni pod względem ekonomicznym i praktycznym ważne jest określenie jakie są tolerancje i które z nich mają krytyczne znaczenie dla prawidłowego działania produktu oraz określenie prawidłowych punktów bazowych. Samych pomiarów dokonać tego można poprzez zastosowanie:

  • standardowych narzędzi pomiarowych wykorzystujących metody dotykowe i bezdotykowe
  • skanerów laserowych 3d
  • itp.

Określenie tolerancji wymiarowych,choć kluczowe, może zostać dokonane:

  • korzystając z wiedzy, na temat innych elementów produktu i powszechnej wiedzy inżynierskiej / standardów, uwzględniając szczególnie czytelność, charakterystykę procesu produkcyjnego (jeśli jest dostatecznie znany) i łatwość realizacji pomiarów (np. GD&T)
  • eksperymentalnie metodą prób i błędów (testowanie prototypów uzyskanych metodami rapid prototyping [wiki: PL, ANG).

Na ustalenie składu chemicznego,fazowego i wielu innych parametrów materiałowych istnieje bardzo wiele specyficznych metod charakterystycznych dla inżynierii materiałowej i fizyki ciała stałego. Są to np.:

  • Analiza rentgenowska
  • Mikroskopia optyczna
  • Różne techniki mikroskopii elektronowej – SEM,TEM
  • Spektroskopia (masy ale nie tylko)
  • Techniki nieniszczące – np. ultradźwiękowe
  • Technologia FIB
  • i wiele wiele innych rozwiązań

Należy pamiętać,że kwestią pierwszorzędną jest nie uzyskanie w miarę identycznej struktury,lecz raczej w miarę identycznych krytycznych właściwości, wszelkie zaś zmiany zmierzające do poprawienia właściwości produktu – nawet przy wykorzystaniu innych rozwiązań są wysoce wskazane. Krytyczne właściwości zaś, jak zwykle są bardzo trudne do ustalenia bez zewnętrznych informacji,bądź przeprowadzenia eksperymentów. Ponadto, w praktyce działanie urządzeń materialnych, powinno być badane poprzez wykorzystanie m.in. szeregu sensorów (uwaga: tu szczególnie sensorem może być nawet kamera) i narzędzi pomiarowych poza obiektem w trakcie działania, jak również (co byłoby wskazane) wewnątrz obiektu badań inżynierii odwrotnej, celem określenia parametrów i samego działania urządzenia. Przydatne jest również określenie przyczyn ewentualnej usterki, poprzez określenie np. efektów zmęczeniowych,czy korozyjnych („czas życia” produktu poddanego reversingowi). W praktyce uruchomienie urządzenia / jego fragmentów i wykonanie pewnych testów, to niezbędne minimum. Jak widać, przy produktach materialnych, dużo większego znaczenia nabierają koszty przeprowadzania prób i eksploatacji, sam zaś proces inżynierii odwrotnej ma dość dobrze określone reguły i może mieć duże szanse powodzenia. Mimo to, należy pamiętać, że zarówno wykorzystanie sensorów wewnątrz badanego obiektu napotyka na ograniczenia techniczne (odpowiednio małe i odporne sensory) i ekonomiczne. W praktyce, wiele stwierdzeń ma charakter hipotez przeprowadzonych nie wprost,a każda zastosowana metoda analityczna posiada własne ograniczenia i wady,mogące spowodować błąd. Wspomniany przykład problemu z odtworzeniem przez Chiny silników lotniczych z Rosji prawdopodobnie nie wynika głównie z użytych stopów (to rozwiązania zachodnie koncentrują się na lepszych stopach i materiałach w lotnictwie),lecz na braku dostatecznie precyzyjnej bazy przemysłowej i mierniczej, oraz wynikają z braku dostatecznego zrozumienia fizycznych zasad działania takich silników (brak dostatecznej kwalifikacji i wiedzy kadr) ,co wobec braku dostatecznej liczby sensorów wewnątrz działającego silnika utrudniać może zrozumienie koniecznych szczegółów i w konsekwencji wymaga zastosowania metody prób i błędów. W praktyce produkcyjnej zabezpieczania koncepcji produktu, stosunkowo niewiele stoi na przeszkodzie wprowadzania celowych „udziwnień” procesu produkcyjnego jak i swego rodzaju mechanizmów samozniszczenia w niektórych mechanizmach czy układach elektronicznych. W pewnych warunkach możliwe jest też dobranie specyficznej technologii produkcyjnej przez specjalistów,celem utrudnienia reversingu i ewentualnego stworzenia rozwiązania bliskiego duplikatowi. Dla przykładu spotkałem się ostatnio z problemem, który rozwiązywał mój ojciec – z wykształcenia ślusarz-mechanik, w praktyce – mechanik hobbysta. Pewien element samochodowy był bardzo kosztowny (a producent nie wytwarza części zamiennych),a żeby go naprawić trzeba było wykonać pewną „kostkę” z odpowiednio rozmieszczonymi otworami.Cały problem polegał jednak na tym,ze położenie tych otworów nie było jakoś symetryczne (kiedyś było to pewnie zabezpieczenie chroniące właśnie przed mechanikami-hobbystami i nie autoryzowanymi serwisami,aby wymienić całe urządzenie a nie jego część), stąd wykonanie pomiarów ich położenia było w praktyce bardzo trudne bez dokonania wielu pomiarów (uszkodzony oryginał bynajmniej nie był prostokątną płytą) – mimo braku konieczności stosowania wyrafinowanych tolerancji (gdyby jednak było trzeba sprawa wyglądałaby inaczej). Ale mojemu ojcu udało się to obejść (inaczej bym o tym nie pisał). Jak ? Wystarczy pomyśleć, do czego można wykorzystać dostatecznie cienką tekturową kartkę. 😀 Jednak kto nie wpadnie na pomysł obejścia danego rozwiązania, nie zrobi tego i tyle. Większość ludzi nie pracuje z prymitywnym sprzętem, większość ludzi nie potrzebuje być osobą pomysłową – lub wręcz nie jest. W dzisiejszych czasach można zastosować naprawdę skomplikowane rozwiązania przeciwdziałające inżynierii odwrotnej produktu. Trzeba jednak wiedzieć jak to zrobić… Przejdźmy do kwestii informatycznych. W informatyce reversing dotyczy głównie oprogramowania lub jego fragmentów – czy to zapisanego na dysku, czy to funkcjonującego w pamięci komputera. Zarówno środki jak i stosowane odpowiedzi są tutaj bardziej zaawansowane – lecz tu również ich skuteczność bywa różna. Jeśli chodzi o analizę kodu stosowna jest:

  • Disasemblacja kodu – czyli sprowadzenie kodu do instrukcji najbliższego procesorowi języka jakim jest asembler
  • Dekompilacja – czyli próba sprowadzenia kodu do języka wysokiego poziomu.

Pamiętać należy o fakcie, że niektóre kompilatory są stosunkowo uniwersalne – jak GCC i mogą być wykorzystane dla wielu architektur, jak i mogą być przystosowane do konkretnej architektury procesora, tak jak kompilatory Intela. Przekłada się to nie tylko na szybkość pracy kodu na danej architekturze procesora,ale też na nieco inny kod danego asemblera. Sama disasemblacja wymaga zatem znajomości cech charakterystycznych dla danego kompilatora, oraz procesora, oraz zrozumienia instrukcji asemblera. Konieczna jest też stosunkowo duża wyobraźnia,ponieważ stosunkowo wiele instrukcji asemblera przekłada się na pojedynczą instrukcję języka wysokiego poziomu. Problem dekompilacji to problem sprowadzenia kodu z powrotem do poziomu języka wysokiego poziomu. Zależnie od tego,czy język jest:

  • kompilowany do kodu binarnego jak C czy C++
  • sprowadzany do interpretowalnego pseudokodu jak Java czy C# (MSIL / .NET)

Pseudokod jest stosunkowo łatwiejszy do dekompilacji, ze względu na pozostawienie szeregu tagów w kodzie (możliwe do usunięcia np. podczas obfuskacji) jak i na bardziej „wysokopoziomowy” jego charakter, natomiast kwestia dekompilacji kodu binarnego napotyka na większe przeszkody i zazwyczaj tego rodzaju kod jest dużo mniej zrozumiały. Jako zabezpieczenia przed tego typu rozwiązaniami jak dekompilacja i disasemblacja stosuje się:

  • Szyfrowanie kodu (szczególnie różnego rodzaju wirusy – najbardziej prymitywne rozwiązania wykorzystują do szyfrowania operację XOR)
  • Obfuskacja („zaciemnianie”) celem skomplikowania kodu dla:
    • programisty (np. rozrzucenie operacji po kodzie)
    • dekompilatora (wprowadzenie nie obsługiwanych przez dekompilator instrukcji)
  • Unieszkodliwienie disasemblera (z reguły wymaga jednak znajomości stosowanego środowiska i dostosowania do niego, polega na wprowadzeniu instrukcji z którymi program tego typu sobie nie poradzi,jako przykład podaje się instrukcję GOTO w pseudokodzie języka Java)

Jednak również przeciwko tego typu rozwiązaniom istnieją odpowiednie rozwiązania i narzędzia programistyczne służące do deobfuskacji – dostępne np. [tutaj] Jeśli chodzi o określenie funkcjonalności konieczne jest przeprowadzenie testów z operatorem,lub testów zautomatyzowanych mających określić funkcjonowanie aplikacji. Specjalną kategorię takich testów są testy przeprowadzane na wirusach. Stosunkowo bezpieczną metodą przeprowadzania takiego testu jest wirtualizacja. Znane są jednak również metody na wykrycie środowiska wirtualizacji przez wirusa – a tym samym znaczne utrudnienie reversingu. Zdecydowanie najgorsza sytuacja jest jeśli chodzi o ślady procesu produkcji aplikacji,rozpoznania wymaganych funkcjonalności i rozpoznanie braków funkcjonalności (szczególnie w systemach bezpieczeństwa). Niemal niemal niemożliwe jest określenie oryginalnego środowiska testowego i specyfikacji klienta. Osobiście nie uważam,że zawarłem w tym artykule bardzo dużo informacji mimo jego długości. Jest to jak zwykle cała dziedzina wiedzy,której można się uczyć przez lata – i do której możliwe,że potrzebny jest – podobnie jak w przypadku tworzenia wynalazków – talent.

Reklamy

Nowości w nauce i nie tylko – 24 stycznia 2015

  • Kolejny krok ku nanofotonice. Badacze z McGill University w Montrealu opracowali nowy miniaturowy typ lasera o długości 100 μm i szerokości 5 μm. Więcej na phys.org i w artykule: M. H. T. Dastjerdi, et al. „An electrically injected rolled-up semiconductor tube laser.” czasopismo: Applied Physics Letters. DOI: 10.1063/1.4906238
  • Grafen może być bardzo wydajny w fotowoltaice. Więcej na phys.org i w artykule: Johannsen JC, Ulstrup S, Crepaldi A, Cilento F, Zacchigna M, Miwa JA, Cacho C, Chapman RT, Springate E, Fromm F, Raidel C, Seyller T, King PDC, Parmigiani F, Grioni M, Hofmann P. „Tunable Carrier Multiplication and Cooling in Graphene.” Nano Letters December 2 2014. DOI: 10.1021/nl503614v
  • Grafen być może będzie mógł być otrzymywany w potrzebnym kształcie np:

    Więcej na phys.org i w artykule „Edge reconstruction-mediated graphene fracture” czasopisma Nanoscale
  • Nanocząsteczki złota podgrzane mogą pomóc w tanim wierceniu małych porów w ceramice – np przydatnych do analizy DNA w systemach Lab on a chip. Więcej na phys.org oraz w artykule: Lennart J. de Vreede, Albert van den Berg, and Jan C. T. Eijkel, „Nanopore Fabrication by Heating Au Particles on Ceramic Substrates,” czasopisma Nano Letters, 2015, 15 (1), pp 727–731, DOI: 10.1021/nl5042676
  • Do technologii prawdziwej teleportacji jeszcze daleko,ale pewna kiepska podróbka oparta na technologii druku 3d już jest. Więcej na phys org i w tym dokumencie.
  • Nowa praca teoretyczna na temat ciemnej materii sugeruje,że droga mleczna zawierać może choć jeden sprawny wormhole ? Więcej na phys org i w artykule: „Possible existence of wormholes in the central regions of halos.” czasopisma Annals of Physics 350 (2014) 561. DOI: 10.1016/j.aop.2014.08.003 ; dostępnym również na arxiv: [tutaj].
  • Naukowcy z University of California i Berkeley udowodnili relację pomiędzy energią i czasem będącą ograniczeniem dla komputerów kwantowych,wyprowadzając ją matematycznie. Więcej na phys org i w artykule:Macroscopicity of quantum superpositions on a one-parameter unitary path in Hilbert space PhysRevA i na arxiv [tutaj]
  • To nie blog medyczny,ale akurat ta sprawa wygląda nieźle: Kojarzy ktoś grę Fallout i leki przeciwko napromieniowaniu potrafiące wyleczyć człowieka z choroby popromiennej ? W rzeczywistości tak fajnie nie jest,ale opracowano kolejne lekarstwo. Więcej na phys.org i w artykule czasopisma: Chemistry & Biology; Patil et al.: „Combined Mitigation of the Gastrointestinal and Hematopoietic Acute Radiation Syndromes by a Novel LPA2 Receptor-specific Non-lipid Agonist”

Bezpieczeństwo – na blogu Bruce’a Schneiera można znaleźć ostatnio:

  • Link do jego rozmowy ze Snowdenem.
  • Ciekawy wpis na temat bota kupującego losowo nielegalne produkty w blackmarketach (tłum.czarny rynek ?) sieci tor. Koniec końców sprawa skończyła się „aresztowaniem” bota 😉 Czy amatorzy  zakupów nielegalnych produktów (w tym narkotyków) w sieci będą częściej próbować sztuczki „na bota” i „na sztukę” ? Ciekawa sprawa, zwłaszcza, że psa Kory ostateczenie nie skazano (nie wykryto sprawcy) 😉

Polecam czytanie bloga tego Pana.

Ponadto Phys.org na temat bezpieczeństwa:

  • Forum ekonomiczne w Davos.Zachodni naukowcy na nim występujący wieszczą kres prywatności. Ale czy na pewno tak będzie,czy może to raczej marzenia tzw. „elit” ? Generalnie co do futurystów to trzeba być sceptycznym.A o swoją prywatność można nadal dbać,a paniczne podejście związana z zagrożeniem atakami hackerskimi świadczy,że raczej „kresu prywatności” tak do końca – nie będzie. Tym niemniej prywatność będzie coraz droższą do utrzymania i coraz bardziej wartościową kwestią – to nie ulega wątpliwości…
  • Hackerzy „white-hat” są potrzebni i to nie tylko najlepsze jednostki – potwierdziły to badania naukowe z Pensylwania State University. W sumie nic nowego,ale przynajmniej teraz mogą powiedzieć,że mają na to papier 🙂
  • Fujitsu opracowało technologię typowania użytkowników podatnych na cyberataki.

Inne:

Stworzono Nowy język programowania,który ma sprawić,że hardware będzie (teoretycznie – w praktyce nie za bardzo w to wierzę,to chyba marketing) wolne od wad. Więcej na phys.org, można też poszukać pracy „Digital Circuits in CλaSH – Functional Specifications and Type-Directed Synthesis” za jakiś czas w internecie – choć jej autor bronił tą pracę doktorską wczoraj, jeszcze nie można jej znaleźć i nie wiadomo,czy będzie można w ogóle.Niestety.Tak czy inaczej stronkę projektu znalazłem na githubie. Język oparty na Haskellu, w wersji GHC >= 7.8.

Elektronika w kosmosie – kilka podstaw

Większość z nas posiada raczej dość wydajne komputery. W epoce wielordzeniowych 64-bitowych procesorów o taktowaniu standardowo powyżej gigaherca, dysków twardych o pojemności wielu gigabajtów w technologiach HDD i SSD procesory takie jak i486 jawią się większości, jako absolutna prehistoria komputerów. A jednak komputer misji Apollo – AGC miał tylko 16 bitowy procesor o taktowaniu 2,048 Mhz i bardzo mało pamięci RAM i ROM. Właściwie był to „taki kalkulator”. Mało tego. Procesory i386 oraz i486 były i są nadal stosowane w szeregu rozwiązań funkcjonujących w przestrzeni kosmicznej.

CC BY-SA 3.0 Appaloosa

To nie żart.To rzeczywistość. Ale dlaczego właściwie tak jest ? Po co używać przestarzałego sprzętu, od którego wydajniejsza jest byle komórka, a nawet część kalkulatorów ?

Są ważne powody. Napisano już kilka artykułów je wyjaśniających np: [1] [2]. A ja napiszę kolejny po to,by zebrać to w całość – i mam nadzieję – zrobić to lepiej.

Zacznijmy od opisu warunków jakie panują w przestrzeni kosmicznej i na orbicie,czy tam na księżycu.No nie są one fajne:

  • Próżnia,a co za tym idzie problem z oddawaniem ciepła (wydaje się dziwne,skoro w przestrzeni kosmicznej jest zimno ? A kojarzycie termos ?)
  • Piekielnie niskie temperatury (nie ma może jakiegoś szybkiego schładzania i strat ciepła, bo próżnia), ale też w dzień nagrzewanie do temperatur nawet do 100 stopni Celcjusza.
  • Promieniowanie kosmiczne i wiatr słoneczny oraz wysokoenergetyczne cząstki w pasach van Allena
  • Spore przyspieszenia przy starcie do lotu w kosmos (efekty siły bezwładności)
  • Nieco inny przebieg niektórych zjawisk chemicznych (nawet ogień w kosmosie pali się inaczej)

Dodajmy do tego duży koszt dotarcia w przestrzeń kosmiczną i dalej, a w efekcie można wyciągnąć już ciekawe wnioski.

Żeby być dokładniejszym, promieniowanie kosmiczne w przestrzeni to w zasadzie w:

  • 83% – protony
  • 13% – cząstki alfa (jądro helu/jon helowy)
  • 3% – elektrony
  • 1% – ciężkie jony (głównie jądra atomowe)

Co ciekawe, całkiem spory odsetek ciężkich jonów w kosmosie, a przynajmniej bliskiej przestrzeni kosmicznej to jony żelaza. Cząsteczki te przenoszą w każdym razie ogromną energię i mogą narobić sporo szkód.

Jeśli chodzi o protony, to chyba każdy kto uczył się fizyki kojarzy, co się stanie,gdy niewielka część nich (1 na 10.000,ale jednak) uderzy w jądro atomowe. Rozszczepienie jądra atomu w mikroprocesorze nie spowoduje może spektakularnej eksplozji, ale tak czy siak – być może istotny – fragment półprzewodnika zmieni swoje właściwości.  Jeśli sieć krystaliczna zostanie naruszona – chip zostanie uszkodzony.Lekko ? Uszkodzenia będą się nawarstwiać,błędy będą ciągle. Co tu dużo mówić – jest to pewien problem nie tylko w kosmosie, ale i potencjalnie w elektrowniach atomowych.Ciężkie jony też mogą namieszać. Puknie taki w nieodpowiednie miejsce i elektronika wariuje, bo stworzyło się trochę za dużo elektronów i dziur na złączu, pojawiają się skoki napięcia lub natężenia – i mamy usmażone chipy (opór elektryczny !). A chipy jak wiadomo nie chipsy (czy inne frytki) – usmażenie im nie służy. Nawet jak taki chip się nie zepsuje to zacznie zachowywać się nieprzewidywalnie, upływ prądu (ang. leakage) zachodzi i takie tam.

Idźmy dalej.Uderzenie ładunku w ścieżki o rozmiarze poniżej 180 nm sprawia problemy –  dochodzi do „ucieczki” ładunku, który błądzi po różnych ścieżkach na układzie, często ze sobą nie związanych – czego efektem jest oczywiście trwała lub tymczasowa awaria w obwodzie. W najlepszym razie zaburzone zostaje działanie. Im w mniejszej technologii układ – tym większa szansa na pobudzenie wielu elementów obwodu. Tym samym miniaturyzacja w kosmosie nie zawsze jest korzystna,a na procesorach wykonanych w technologii takiej jak 800 nm (i486) bardziej można polegać bardziej, bo po prostu na tak wielkiej ścieżce jak jakaś cząsteczka „puknie”, żadnych nadzwyczajnych rzeczy (może) nie będzie.

Problem promieniowania dotyka również pamięci DRAM – również na ziemi, gdzie dziennie na 4 gb ram przypadać ma średnio 1 błąd wywołany promienowaniem kosmicznym dziennie. O zjawisku tym choćby w kontekście bitsquattingu pisał niebezpiecznik. Problem polega na wyzerowaniu bitu przez promieniowanie (1 -> 0). Ponadto, problemem może być również nie tylko uderzenie we fragment danych pamięci, ale też podczas cyklu odczytu/zapisu, dzięki zakłóceniu przepływu danych.

Zabezpieczeniem przed tym zjawiskiem jeśli chodzi o pamięci jest częściowo stosowanie pamięci ECC.

Należy jednak pamiętać,że stosowanie tego rodzaju pamięci na ziemi, w pierwszym lepszym komputerze, nie zawsze jest możliwe – konieczna jest odpowiednia płyta główna. No i są one oczywiście droższe.

Stosowane rozwiązania zabezpieczające przed awarią wywołaną promieniowaniem, to po pierwsze odpowiednie warstwy osłonowe dla mikroprocesorów, odpowiednia konstrukcja chipa oraz nadmiarowość – zarówno jeśli chodzi o układ jak i o zastosowanie kilku układów o różnym oprogramowaniu.

Kwestia temperatur – niskich i wysokich to kwestia nagrzewania i chłodzenia. Jak pisałem w przestrzeni kosmicznej jest zimno,ale za to jest sporo próżni, wiec jakoś wolniej się to schładza (Ale też trudniej pozbyć się nagromadzonego ciepła) Układy krzemowe CMOS jakoś sobie radzą z temperaturami rzędu -150 do -55 stopni Celcjusza (choć są mniej wydajne) ale w temperaturach ponad +200 stopni trzeba stosować inne układy. Zresztą w kosmosie nie ma też dobrego źródła zasilania,ogniwa fotowoltaiczne,rzadziej (i raczej z reguły nie na orbicie) kilka kilo plutonu stąd i pobór prądu musi być mniejszy. Tak się składa,że stare mikroprocesory – tak pod względem poboru prądu jak i produkowanego ciepła są w czołówce.

Wpływ sił bezwładności to z kolei powód dla którego klasyczne talerzowe dyski twarde kompletnie nie nadają się do lotów w kosmos. Działające przy starcie przeciążenia po prostu doprowadziłyby do zniszczenia dysku.  Zamiast nich stosuje się pamięci (i dyski)w technologii flash.A one już mają wady typowe wymienionych rodzajów pamięci.

Ze względu na bezpieczeństwo i chemię również magazynowanie energii jest ograniczone dla niektórych rodzajów baterii. Wybuch lub pożar w kosmosie jest oczywiście niepożądany.

To co omówiłem to rzecz jasna podstawy. Istnieją na ten temat całe specjalistyczne opracowania NASA,zależało mi na wyjaśnieniu kilku drobiazgów – nie na zanudzeniu was na śmierć.Pozdrawiam.

Cienie studiowania inżynierii materiałowej/fizyki ciała stałego/nanotechnologii w Polsce

Zapewne wczoraj kilka osób mogło się spodziewać się mojego wpisu,więc przepraszam za ewentualną zawiedzioną nadzieję. Dzisiejszy wpis jest raczej z rodzaju tych społeczno-filozoficznych gadanin, coś ciekawszego szykuję raczej na koniec weekendu (jak zdążę).

Wynika to z nasilenia moich prób znalezienia pracy pod koniec stycznia. No niestety – albo jestem za długo po studiach i mam za długie przerwy w zatrudnieniu, albo psychika mi siada – nie wygląda to ciekawo,z finansami kiepsko,a czy ostatecznie jak kilka milionów ludzi po prostu wyjadę z Polski – nie wiem.

Możliwe też,że wszelkie moje problemy wynikają z faktu,że jestem „specyficznym człowiekiem”. Może.

Tak czy inaczej – mam nadzieję,że niniejsza internetowa gadanina (a może smęcenie 😉 ) rozjaśni trochę ludziom w głowach i wyjaśni, do czego studia takie jak moje mogą się teoretycznie przydać – a do czego nie,i dlaczego w kraju takim jak Polska materiałowiec zajmujący się materiałami poza uczelnią jest pewnie stosunkowo rzadkim zjawiskiem. Tekst ten adresowany jest głównie do studentów, headhunterów i takich tam – ale dotychczasowi czytelnicy tego bloga też może dowiedzą się czegoś użytecznego. Jeśli was to nie interesuje – nie czytajcie dalej.

Zasadniczo poza nanotechnologią podane kierunki nie zawsze budzą entuzjazm,ponieważ część maturzystów za bardzo nie kojarzy, co to u diabła jest. Wikipedia częściowo odpowiada na pytanie czym są Inżynieria Materiałowa, Fizyka ciała stałego czy nanotechnologia. I zaczyna to wyglądać ciekawiej,zwłaszcza jeśli wierzymy w gadaninę o „gospodarce opartej na wiedzy”. Tyle,że ta koncepcja rządowa w kraju takim jak nasz, póki co jest generalnie jeśli chodzi o nauki techniczne stekiem bzdur.

W teorii można powiedzieć,że istnieje następująca relacja między absolwentami inżynierii materiałowej , fizyki ciała stałego i nanotechnologii:

  • Inżynier materiałowy – trochę więcej niż fizyk ciała stałego,choć korzysta głównie z jego metod. Bliższy praktyki.Bardziej ogólnie. Może pracować jako:
    • Uzupełnienie inżyniera mechanika – choć nie zastąpi inżyniera mechanika przy pracy konstrukcyjnej/technologicznej wszędzie, z drugiej strony – w mniej mechanicznych etapach produkcji (np: galwanotechnika) jest nawet lepszy.
    • Inżyniera procesu – ponieważ,choć nie zawsze zna maszyny procesowe kojarzyć może jak powinien być realizowany proces.
    • Inżynier jakości – choć w gruncie rzeczy jakościowcy raczej powinni mieć ukończone również zarządzanie by awansować.
    • Pracownik laboratorium/uczelni/działu R&D – ciężko dostać taką pracę,a kontynuowanie życia jako np. doktorant wiąże się z nie najlepszą sytuacją finansową – nauki doświadczalne to bardzo niedoinwestowany sektor o czym przekonałem się na własnej skórze.W Polsce taniej zrobić symulację,a na zrobienie na uczelni jednego eksperymentu można czekać tygodniami. Działy R&D firm w naszym kraju są rzadkie. A na laborantów w przemyśle aż takiego zapotrzebowania nie ma, nawet konieczniejsze jest doświadczenie,być może też, zatrudniani są na te stanowiska nawet ludzie bez wykształcenia wyższego.

Zakres materiału poznawanego na studiach: moim zdaniem: pobieżnie – ale o wszystkim co wiąże się z materiałami. Większa uniwersalność,niż w przypadku innych studiów, teoretycznie można się nauczyć wszystkiego o wszystkich materiałach inżynierskich po trochu, czyli:

  • Metale
  • Polimery
  • Ceramiki
  • Kompozyty
  • Podstawy nanotechnologii
  • itd.

W praktyce wiele zależy od specjalizacji wydziału i uczelni, programu studiów itd.

WAŻNE: Pracę jako samodzielny konstruktor najczęściej można sobie odpuścić. Co prawda, uczelnie uczą programów CADowskich, ale tutaj bez dostatecznego przeszkolenia dostępnego dla inżynierów mechaników nie jest się za dobrą alternatywą dzięki wykształceniu – pozostaje tylko samodzielna praca i nauka wszystkiego od oprogramowania po mechanizmy. (w sumie i tak oprogramowanie z MSDN i w laboratorium trzeba ćwiczyć dłużej, ten czas co na to jest to praktycznie nic.Tyle,że nie samymi programami żyje konstruktor) Jeśli ktoś jednak jest jednocześnie mechanikiem i materiałowcem (niestety nie mój przypadek) to jest to potencjalnie bardzo dobry kandydat na konstruktora.

  • Fizyk ciała stałego – to tak naprawdę nieco lepsza wersja materiałowców, tyle że „bardziej teoretyczna”. Wynika stąd,że są świetni na uczelni,świetnie znają też aparaturę ale mogą mieć większe problemy ze zdobyciem pracy na rynku powiązanej ze specjalizacją. Tym niemniej jeśli ich ktoś doceni…
  • Nanotechnolog – stosunkowo nowy kierunek nanotechnologia przyciągnął ostatnio sporo młodzieży wierzącej w opowieści o „gospodarce opartej na wiedzy”. Sytuacja w jakiej się znajdą na Polskim rynku pracy będzie wyjątkowo kiepska,ponieważ tej „gospodarki opartej na wiedzy” dziś u nas zwyczajnie nie ma. Są to ludzie lepiej niż inni przygotowani do pracy np. dla zachodnich koncernów jeśli te zechcą ich przyjąć za granicą i do pracy naukowej. Rzecz w tym,że poza pracą na uczelni w naszym kraju niemal nie mają szans. Branża nanotechnologiczna teoretycznie powinna zostać zbudowana przez rodzimych specjalistów od inżynierii materiałowej we współpracy z fizykami ciała stałego. Sam przebieg kształcenia też może zależeć od wydziału, który uczy tej nanotechnologii.

No dobrze.Załóżmy jednak,że chodzi nam o własny biznes w sektorze technologicznym,albo,że szukamy pracy za granicą. Kilka obiecujących branż przemysłowych:

  • Branża elektroniczna – choć elektrycy i elektrycy dłubią w obwodach, do pracy przy „waflu krzemowym” czy grafenie przydatni mogą być właśnie absolwenci powyższych kierunków.W Niemczech jest jeden z zakładów produkujących mikroprocesory.
  • Branża systemów elektromechanicznych – byłoby na nią miejsce,póki co jej nie ma.
  • Branża lotnicza – „dolina lotnicza” nie jest miejscem,gdzie załapie się każdy,tym niemniej wydaje się największą nadzieją dla inżynierów materiałowych na Podkarpaciu. Mnie się w sumie na dziś dzień,po kilku latach prób nie udało. Swoją szansę z WSK Rzeszów zaprzepaściłem rezygnując z rozmowy i idąc na studia doktoranckie (które i tak rzuciłem). Nie musi jednak być tak z każdym…
  • Branża biomedyczna – choć ostatnio hodowla komórek macierzystych i wszelkich innych wydaje się wypierać klasyczne implanty, jest to sektor gospodarki w którym można zarabiać niezłe pieniądze,wykonywać zaawansowane produkty i ratować ludzkie życie. Niestety – w Polsce słabo obecna.
  • Branża wojskowa – a jakże ! Wojsko ciągle potrzebuje nowych materiałów na broń i pancerze, urządzenia obserwacyjne (termowizja i nie tylko).Na wczoraj. W Polsce jednak, gdzie zbrojeniówka nie jest w najlepszej kondycji i jest przesiąknięta przez polityczno-związkowy beton i powiązanych z nim ludzi nie wiązałbym z nią za wielkich nadziei, tak samo jak z czołgiem PL- 01 Cocncept. Zaawansowany technicznie pancerz (najpierw obiecywali coś z nanotechnologią) i zrobiony bez absolwentów przez stare kadry HSW i kilku profesorów ? Taaa… jasne. Jeśli ten projekt będzie wdrożony to główne prace będzie wykonywał koncern BAE. Koncern ten póki co wbrew temu co twierdzi wikipedia nie ma chyba istotnej reprezentacji na Polskim rynku. Umowy z Polskimi uczelniami – w tym na pewno AGH i WAT podpisał jednak ostatnio koncern elektroniczny Thales z Francji. Podejrzewam jednak,że w jego przypadku chodzi o rekrutację doktorantów powiązanych z kierunkami elektronicznymi.

Korzystając z okazji chciałbym też rozwiać kilka mitów:

  • Więcej praktyk  – na studiach dziennych tylko niektórym uda się zdobyć praktyki w pracy związanej ze specjalizacją poza okresem wakacyjnym – a w okresie wakacyjnym firmy przeżywają prawdziwe oblężenie. W dziedzinach takich jak informatyka nie jest to wbrew pozorom taki problem,podstawowe narzędzia pracy może mieć bowiem każdy. Ile osób w domu ma zwykły mikroskop,albo frezarkę no ?
  • Praktyki za darmo – trzeba mieć na nie pieniądze.Za darmo to są dla firmy,odbywający je/rodzina musi ponieść choćby koszt utrzymania i dojazdów delikwenta/delikwentki. No i niestety – nie tylko nie przyjmują na nie każdego,ale i realnie nie każdy wykonuje na nich sensowną pracę zgodną ze specjalizacją. Sam podczas pracy w pewnej firmie widziałem automatyków (ci są owszem poszukiwani bardziej) – jeden robił coś w odpowiednim programie,ale drugi w VBA coś robił czy przepisywał coś dla działu jakości.
  • Absolwenci i studenci nic nie potrafią – czyżby ? Z mojego doświadczenia w pracy (niestety tylko pracowałem na czas określony w czasie gdy firma potrzebowała więcej ludzi,a potem nic – a dyrektora działu gdy kończyła się umowa – nie było) wynika, że nowo wdrażana osoba może potrafić więcej, niż wielu starych pracujących od lat pracowników i szybko się może wdrożyć. Oczywiście sytuacja może być inna przy rzucaniu ludzi „na głęboką wodę”, gdy prywatny właściciel małej firmy chce,by ktoś nowy wykonywał pracę specjalisty za cały dział mający wieloletnie doświadczenie.  Przy takiej tytanicznej pracy można owszem zabłysnąć – ale można i spektakularnie polec. Oczywiście – są ludzie którym się chce pracować i tacy,którym nie chce się pracować.Ale to już jest zupełnie inna kwestia…

Mimo moich kłopotów na rodzimym rynku pracy – osobiście nie żałuję wybrania takiego a nie innego kierunku studiów.Zdobycie pracy w Polsce nie jest łatwe dla dużo większej grupy absolwentów, a studia powiązane z materiałami inżynierskimi czy nanotechnologią dają i będą dawać dobrą wiedzę wstępną, przygotowującą do zapoznania się z funkcjonowaniem szeregu dziedzin techniki. Istniejących teraz i takich,które pojawią się w przyszłości. Oczywiście istotnym problemem jest wykorzystanie tej wiedzy w praktyce  i zarobienie na niej,co raczej w najbliższych latach w Polsce będzie trudne.  Cóż zrobić. Trzeba z tym jakoś żyć i szukać rozwiązania własnych problemów. Pozostaje też jednak przestrzec:

Jeśli szukacie pracy po studiach w Polsce,to powyżej wymienione kierunki nie zawsze są bardzo dobrym wyborem jako kierunki bazowe studiów.

Jako kierunki uzupełniające inne studia nadają się świetnie dla szeregu specjalistów np:

  • Dla elektroników – by lepiej zrozumieć elektronikę na poziomie podstawowej fizyki i podstawowych zjawisk (uwaga: rzadko wchodzi wprost w podstawowy uniwersytecki kurs inżynierii materiałowej,bliżej fizyki ciała stałego i nanotechnologia – chyba, że dużo się czyta)
  • Dla inżynierów mechaników pracujących jako konstruktorzy i technolodzy – by mogli lepiej wykonywać swoją pracę rozumiejąc wpływ materiału na konstrukcję,zużycie itd.
  • Dla menadżerów i przedsiębiorców w branżach nowych technologii – by lepiej rozumieć jakieś podstawy procesów produkcyjnych i np. procesy zużycia oraz kwestie jakości
  • inni – z przyczyn których nie wymieniłem

Tak czy inaczej – do tych dziedzin są odpowiednie książki które warto przeczytać.Za jakiś czas może nawet wrzucę recenzje/opisy i takie tam jako oddzielną podstronę tego bloga. [EDIT: Zrobione.Wersja pierwsza.]

Pozdrawiam wszystkich czytających i zachęcam do czytania wcześniejszych wpisów nowe osoby.

Piezoelektryki – jasno i w miarę zwięźle.

Znamy je już ponad stulecie,a mimo to nie każdy je u nas kojarzy. Wielokrotnie wspominane na tym blogu piezoelektryki odgrywają ogromną rolę w przekształcaniu energii elektrycznej w zachowanie mechaniczne i odwrotnie bez konieczności użycia np. odrębnego silnika (oczywiście nie uważam,że należy silniki samochodowe zastąpić piezoelektrykami,bo raczej nie byłoby to wydajne w takiej skali – ale w małych skalach to co innego). A mimo to są tak słabo kojarzone…

Jeśli chodzi o Wikipedię,to zjawisko piezoelektryczne i odwrotne zjawisko piezoelektryczne, znane jako elektrostrykcja są tam dobrze opisane, tak samo jak podstawowe informacje dotyczące piezoelektryków,oraz same piezoelektryki są tam co prawda dobrze opisane.Oczywiście lepiej w wersji anglojęzycznej. No ale można lepiej i bardziej treściwie:

O co chodzi ? Kto zna grekę rozumie,że określenie piezo pochodzi z tego języka od ciśnienia.

Ciśnienie<->Elektryczność. Cała natura zjawiska w jednym słowie.Coś pięknego.

Faktycznie, w istocie:

Piezoelektryczność polega na pojawieniu się ładunku elektrycznego pod wpływem nacisku na materiał (odkształcenia w zakresie sprężystym),a zjawisko elektrostrykcji – na zmianie kształtu pod wpływem działania prądu elektrycznego jak na rysunku. Całość zjawiska powstawania ładunku można też streścić do  poniższego obrazka z Wikipedii:

CC, Wikipedia.de, user: Degreen
Strzałka zielona – naprężenie, pomarańczowa – wygenerowany ładunek.

Prawda że proste i piękne zjawisko ?

Zjawisko to, jest oczywiście stosunkowo od dawna znane, ponieważ odkryto je już w XIX wieku – zrobili to w 1880 roku bracia Curie (tak, jeden z nich to ten,co potem poślubił naszą noblistkę – Marię)

Jeśli chodzi o jego naturę – występuje ono w szeregach substancji – aczkolwiek szczególnie często w przypadku kryształów o strukturze perowskitu, pod względem „teoretycznym”-krystalograficznym można powiedzieć, że występują w dość specyficznych grupach krystalograficznych określanych jako non-centrosymetryczne polarne.

Z typowych ceramik o strukturze perowskitu wymienić można chociażby:

  • BaTiO3
  • PaTiO3
  • Pa(Ti,Zr)O3

Zjawisko nie ogranicza się zresztą do specyficznych ceramik,ale i występuje w polimerach itd. Duża część polimerów stosowanych na piezoelektryki (np. PVDF) wymaga poddania rozciąganiu w procesie produkcyjnym, wyjątkiem jest jednak kopolimer difluorku winilidenu i trifluorku etylenu.

Zastosowań jest jak zwykle mnóstwo – od prostego generowania ładunków (a choćby piezoelektryk w podeszwach butów 🙂 – niby dziwne,a to skuteczny sposób na „przenośną ładowarkę”), czy odzyskiwania energii,poprzez przenoszenie drgań czy wytłumianie drgań, kontrola wrzeciona dysku twardego, a nawet kontrola ułożenia ostrza śmigła helikoptera (mała zmiana kąta,ale duży wpływ na sterowność). Najciekawszym jednak zastosowaniem jest ultrasonografia oraz wykorzystanie głowicy ultradźwiękowej w badaniach nieniszczących – w defektoskopii ultradźwiękowej.[Przykładowy materiał dla studentów PG lub AGH – można poczytać]. Z tego co wiem głowice – nawet te „ceramiczne” są w istocie chyba raczej kompozytami o osnowie ceramicznej zawierającymi polimery piezoelektryczne też. To podobno poprawia wydajność tych głowic.

CC BY-SA 2.5 Wikipedia - user: Drickey

Piezoelektryki wreszcie, pozwalają na dokonanie szeregu pomiarów w akcelerometrach i urządzeniach typu MEMS, o których krótko wstępnie wspomniałem. Warto więc kojarzyć efekt piezoelektryczny i piezoelektryki. A w każdym razie – nie zaszkodzi.