Świadomy robot wg. wyborczej i wykopu i jak to jest z tym naprawdę + kilka newsów

https://i1.wp.com/i.wp.pl/a/f/jpeg/26662/hector_robot-490.jpeg via chip.pl

Na stronie Wykopu i Gazety Wyborczej pojawił się artykuł o „świadomym” robocie.Jak zwykle sprawa nie jest tak prosta, a podejście zaprezentowane w tym artykule „Wyborczej” niestety, oprócz wybiórczego traktowania problemu, polega na typowym dla masowych serwisów rozdmuchaniu sprawy, ponieważ o prawdziwej świadomości mowy być jeszcze nie może. Można jednak (być może) mówić natomiast o bardzo, bardzo prymitywnej wersji samoświadomości – na razie jednak, chyba tylko w zakresie wykonywania ruchu.

Jak to skomentował jeden z czytelników artykułu „Wyborczej” – @Mrówkoniejad:

Jesli nawet uda sie stworzyc robota ktory bedzie samodzielnie myslal to nie bedzie to jeszcze oznaczalo ze jest swiadomy. Swiadomosc to zdawanie sobie sprawy ze myslimy, widzimy czy czujemy. Stad powiazane z swiadomoscia poczucie wlasnego ja.

W istocie, nawet mówienie o „samodzielnym myśleniu” zakrawa tu jednak na przesadę.

Robot „Hektor”, stworzony w ramach projektu EMICAB – bo o nim mowa – „przypomina patyczaka” pod względem budowy – według jego twórców. Powiedziałbym, że nie chciałbym spotkać tak dużego patyczaka ani innego owada – robot jest naprawdę duży, pomimo że jest wspominany w opracowaniach naukowych dotyczących „małych” robotów. Jak podaje strona news.discovery.com ma on (po dokonaniu przeliczeń jednostek) 1 metr długości, wagę 12 kg i może unieść około 30 kg. Nie ma co. Maleństwo 😉 Jego układ ruchu oparty jest o sieć neuronową, w której występuje 6 podsieci kontrolujących jego 6  „odnóży” i komunikujących się ze sobą w ograniczony sposób. Jednak nie to jest najważniejsze.

Nowością jednak (i krokiem w stronę prymitywnej samoświadomości) jest wprowadzenie swego rodzaju symulacji w przypadku napotkania nowych problemów na drodze robota. Jak pisze Wyborcza:

Kiedy maszyna napotyka nowy problem, Walknet jest odłączany od rzeczywistych odnóży i zaczyna działać na poziomie cyfrowego modelu ciała robota. Hektor potrafi więc zatrzymać się w bezruchu i zastanowić przez chwilę – twierdzi prof. Cruse. Symulacja obejmuje różne nietypowe reakcje. Uwzględnia też prosty model fizyki, dzięki czemu można ustalić np., gdzie znajdzie się środek ciężkości urządzenia. W ten sposób, wyobrażając sobie wchodzenie na pudełko, Hektor wie, że będzie musiał, dla podparcia, przesunąć do tyłu jedno z odnóży, by nie upaść. Sieć neuronowa wyższego rzędu wybiera najbardziej optymalne rozwiązanie i przekazuje je do realizacji. Wtedy Walknet ponownie zostaje podłączony do rzeczywistego systemu motorycznego i wykonuje zadanie.

Co mnie szczególnie zaskakuje, badacze nie ograniczyli się do tego (poważnego osiągnięcia), ale rozwijają również sztuczną inteligencję maszyny pod względem większego zrozumienia pojęć. Dzięki (pod)systemowi o nazwie „Wordnet” maszyna łączy pojęcie „chodzenia” z wykonywaną operacją. Badacze planują również wykształcić w robocie coś w stylu „teorii umysłu” z którą np. już osoby autystyczne mają problem. Wydaje mi się, że również dla badaczy odtworzyć coś takiego będzie nieco większym wyzwaniem wbrew ich deklaracjom. Tym bardziej, że uważam, że sam Wordnet operuje chyba obecnie trochę za małą liczbą „pojęć” (choć samo podejście jest moim zdaniem całkiem prawidłowe), a cała sprawa przypomina raczej sukces bota Eugene Goostman i jego zrozumienie we właściwych proporcjach.

Materiały filmowe na temat omawianego robota:

No dobrze. Czy to właściwie oznacza że sztuczna inteligencja w ramach robotów już istnieje ? Tak jak sugeruje tekst powyżej: No niezupełnie.

Nawet wprowadzenie „samopoczucia” robota wynikającego z sukcesów, lub porażek nic nie zmienia. Determinującym zachowania tego robota czynnikiem jest wyraźna funkcja celu. Tymczasem im bardziej zaawansowany organizm, tym funkcja (albo: funkcje) celu być może mniej znaczy (/znaczą) jako czynnik determinujący zachowanie układu. Dominuje coś innego, niż proste cele. Może eksperymentowanie ?  Weźmy mojego kota. Co zrobi gdy się obudzi i zwlecze z okna ? Oczywiście może pobiec do miski, zjeść i napić się. Co jednak zrobi potem ? Pójdzie w jakimś kierunku. Ale jakim ? A tego to dokładnie już nie wiem. Mogę przypuszczać (ponieważ jest kocurem), że prawdopodobnie będzie patrolował swoje terytorium albo polował – ale nie mam pewności. I nie wiem wcale w którym kierunku się uda. Zatem mogę stwierdzić, że pójdzie w kierunku motywowanym czynnikami racjonalnymi, ale też pseudolosowymi. Oczywiście – takie maszyny zachowują się stosunkowo inteligentnie, ale zachowują się w sposób typowo mechaniczny. Zbyt optymalny. I to dobrze – i źle.Dobrze – bo są wydajne.Złe – bo nie mają „inwencji”.

Maszyna testuje jedno rozwiązanie, czasem kilka gdy go potrzebuje. Zastanawia się gdy musi. Człowiek i zwierzę robią inaczej. Ich zachowanie jest tak kompleksowe, że już nie daje się opisać przy pomocy prostych algorytmów.Zużywają swoje cenne zasoby na eksperymentowanie czy „zastanawianie się” częściej. I to jest nasza siła. To nie jest tak, że „zabawa” czy „analiza i testowanie różnych rozwiązań” to czas stracony. Oczywiście – to jest najprostszy sposób na marnotrawstwo, nie przeczę. Ale uzyskana przy okazji wiedza jest bezcenna i o to w tym chodzi. Z drugiej strony, popełnianie błędów jest przykre. Bardzo przykre…

Tak czy inaczej – samo jednak podejście ewolucyjne do problemu świadomości zyskało właśnie kolejny argument. Przypominam też, że podejście to jest badane również w ramach otwartego projektu Open Cog [Wikipedia]


PS: wrzucę trochę newsów z Arxiv – bo nie chce mi się robić z tego kolejnego artykułu (no i przy okazji, jest to nagroda dla tych którym się chciało doczytać do końca):

Sztuczna Inteligencja,Sieci Neuronowe itd – artykuły:

Kryptografia i Bezpieczeństwo Informacji – artykuły:

Dosłownie kilka słów o dronach – UAV i nie tylko

Bezzałogowe statki latające od jakiegoś czasu stają się coraz powszechniejsze i dostępniejsze.Choć prawo nie nadąża za ich stosowaniem chyba pora naprawić przeoczenie i wspomnieć o nich kilka słów. Współczesna technologia sprawia i miniaturyzacja,że typowy samolocik – zabawkę można zacząć powszechnie stosować do obserwacji.Współczesna technika militarna sprawia,że drony RQ-1 Predator są podstawowym narzędziem tzw. „wojny z terroryzmem”. Ponadto rozwój techniki nie zatrzymuje się w tym punkcie. Niebawem dostępne mogą być mikrodrony,wielkości owadów albo pudełka zapałek.A wszelkie obawy o szpiegowanie czy o to,że taki dron może zostać zdetonowany np w pobliżu naszej głowy,czy coś nam wstrzyknąć itd nie są bynajmniej teorią spiskową,lecz coraz bardziej realną możliwością.

Z drugiej strony mikrodrony tak samo jak większe drony mogą wykonać mnóstwo pożytecznych zadań.

Mówi się o budowaniu przy pomocy dronów budynków,o wykorzystaniu dronów w przesyłaniu przesyłek,zwalczania kradzieży itd. Znając życie, z reklamami też pewnie będą za nami latały :/

Jesli chodzi o mikrodrony, to ich lot wymaga nieco innej aerodynamiki niż w przypadku klasycznych samolotów.

Mam nadzieję,że te filmiki pokażą wam czego w najbliższych czasach można się spodziewać:

– zespół quadcopterów na TED:

Mikrodrony – zastosowanie wojskowe:

Ale latające roboty to nie wszystko.Kto powiedział,że roboty muszą latać albo pływać ?

To wszystko nie jest tanie.Ale może być coraz tańsze.Czy zamiast żołnierza można wysłać quadcopter z karabinem ? A czemu nie ? Przeraża ? Owszem.

Coraz łatwiejsze jest też skonstruowanie własnego robota, quadcoptera a niedługo i mikrodrona.Wymaga to tylko odpowiedniego mikrokontrolera oraz odpowiedniej wiedzy. Z drugiej strony można kupić gotowe drony,a ich wykorzystanie po wydarzeniach we Francji (latały m.in. w pobliżu elektrowni atomowych) i wypadku w Waszyngtonie próbuje się ograniczać prawnie lub sprzętowo. Historia ta robi się coraz ciekawsza,i choć nie jestem specjalistą od robotów niewątpliwie powiem tyle.Świat w którym te maszyny zostaną na skalę przemysłową wdrożone będzie ciekawy. A przyszłość,ze wszystkimi gadżetami zaczyna się dziś.

Maszyny też się mylą. Przykładowe błędy hardware.

Na stronach niebezpiecznika oraz zaufanej trzeciej strony pojawiły się ostatnio artykuły o nowej podatności komputerowego hardware na atak – i jej wykorzystaniu. Podatność ta z grubsza polega na tym,że odpowiednio często nadpisywana komórka pamięci dzięki wyciekowi ładunku elektrycznego może oddziaływać na komórkę sąsiednią – i jeśli jest w niej coś ważnego dla bezpieczeństwa systemu, to może być nieciekawie. Atak jest możliwy dzięki temu,że możliwe jest określenie krytycznego obszaru pamięci i wykonanie z poziomu zwykłego użytkownika ataku na ten obszar.

Jak widać: polegamy na elektronice,ale niektórzy zapominają,że błędy się zdarzają.

Tego typu wymuszony błąd – wynikający ze struktury elektroniki nie jest jedynym błędem. Wcześniej niebezpiecznik wspominał o bitsquattingu i problemie oddziaływania promieniowania kosmicznego na pamięci komputerowe. O tych błędach można sobie spokojnie poczytać w tych serwisach. A tu podam inne przykłady.

W początkach lat 90-tych (dokładnie około 1994 roku) użytkownicy komputerów zostali zapoznani z przerażającym odkryciem. Ich procesory ówczesne procesory o częstotliwościach 60-100 Mhz źle wykonywały operację dzielenia. I nie była to oczywiście jakaś prosta operacja.

Przykładową operacją testową było wykonać następujące obliczenie:

962 306 957 033 / 11 010 046 = 87402,6282027341 (wynik poprawny)

962 306 957 033 / 11 010 046 = 87399,5805831329 (wynik błędny)

Był to tak zwany bug FDIV.

Jak pisał Scott Mueller swego czasu w staszych wydaniach swojej książki „Rozbudowa i naprawa komputerów” – w reakcji na to wydarzenie firma Intel zdecydowała się wymienić błędnie działające procesory. Inny, przykładowym problemem była awaria funkcji oszczędzania energii w procesorach EPA Energy Star skutkująca zawieszeniem komputera.

Kolejny przykład, który przestawię jest dużo bliższy współczesności. W serwisie stackexchange dyskutowano nad problemem błędów związanych z obliczeniami procesora. Jak  w trakcie dyskusji jeden z użytkowników zwrócił uwagę,że wyniki obliczeń zmiennoprzecinkowych w układach: Intel i7-3610QM i Nvidia GeForce GTX 660 nieco się różnią. Na przykład otrzymane wyniki:
-1.4906010142701069 Procesor
-1.4906010142701074 Karta graficzna
-1.4906010142701069 Procesor
-1.4906010142701074 Karta graficzna
Błąd wynika głównie z tego,że układy te najprawdopodobniej w różny sposób zaokrąglają. Różnice co gorsza mogą się kumulować… 4,01*10-14 % wartości to może mało,ale wystarczająco dużo obliczeń (zwłaszcza iloczynów) może doprowadzić do wystarczającego błędu by miało to znaczenie.Co z tym można zrobić – niewiele albo nic,bo sprawa jest kwestią zaokrągleń i rozmiaru pamięci.

Kolejny błąd tego typu to klasyczne,dobrze znane programistom przepełnienie bufora. Bo co się stanie,gdy maszynie każe się dodać dwie ośmiobitowe (już od dawna za proste – teraz są 32-64 bity) cyfry:
11111111 i 00000001 dwójkowo to by było 100000000 a w praktyce wynik bez nadmiarowego bitu będzie ośmiobitowa cyfra 00000000. A gdzie powędrowało 1 (nadmiarowy bit) z samego początku ?
Zostało zgubione albo co gorsza – trafiło w inne miejsce pamięci.

Warto tutaj wspomnieć,że rejestry pamięci cache procesora czy karty graficznej mogą być różnie zbudowane.

Ale mało i tego. Niektórzy „dla zwiększenia wydajności” lubią przetaktować sobie procesor. Oczywiście – można a czasem „trzeba”. Sama produkcja chipów jest taka,że spora część układów z „wafla” krzemowego może pracować zanim pojawią się błędy obliczeniowe ze znacznie większymi częstotliwościami taktowania, niż określa producent. Teoretycznie. W praktyce jednak, oznacza to również przyjęcie,że błędy procesora mogą zdarzać się częściej (mniejsza stabilność pracy), a sam procesor może nawalić szybciej. Plus może powodować różne problemy dopasowaniem częstotliwości pracy pamięci i procesora.Wreszcie – jeśli przesadzi się przy przetaktowaniu procesor może się spalić.  Nawet tak spektakularnie,jak przetaktowany układ raspberry pi:

Oczywiście – nie każdy, kto przetaktuje procesor uzna moją argumentację za słuszną. Wzrost efektywności może być bowiem większy jak przyrost problemów,a same problemy mogą być z pewnego punktu widzenia marginalne – i o tym też należy pamiętać.

Niestety,im mniejsze ścieżki mikroprocesorowe tym większego znaczenia nabiera również fizyczna degradacja układu mikrochipu.

Problem dodatkowo komplikują inne, niż wymienione na samym początku błędy pamięci. Nie tylko sąsiednie komórki pamięci i promieniowanie kosmiczne,nie można zapominać o błędach podczas odczytu. Same te problemy opisuje na przykład artykuł „DRAM errors in the Wild:A Large-Scale Field Study„.

Jak widać błąd procesora czy pamięci można raz na jakiś czas spotkać lub spowodować.

Czy to wszystko na co „stać” komputery ? Ależ nie. „Wąskim gardłem” każdego komputera jest magistrala płyty głównej obsługująca komunikację pomiędzy poszczególnymi układami. W starszych komputerach problemy z magistralą i błędami DMA były częstsze niż dziś,lecz wcale to nie znaczy,że dzisiaj takich błędów nie ma. Wciąż mogą się zdarzyć – choć rzadziej. A jeśli doszło by do „zakleszczenia” się między operacjami – urządzenie się „zawiesi” (utknie przy wykonywaniu instrukcji, która stała się bezsensowna.

Jednak, nie tylko komputery się tak mylą.Cała technika cyfrowa (zwłaszcza : wszystko co ma mikrokontroler) jest w końcu oparta dzisiaj na przepływach prądów, które pełnią rolę zera i jedynki – czyli sygnał i brak sygnału (czyt: odpowiedniego prądu).  Podobne błędy, jak w procesorach (i gorsze) spotkać można w robotach przemysłowych i setkach innych urządzeń Często winne są tu błędy programistyczne. Ale nie zawsze winni są programiści. Czasem winny jest konstruktor urządzenia.

A potem:

Dlaczego w takim razie polegamy na tym „zawodnym” sprzęcie ? Bo w większości przypadków nie dzieje się naprawdę nic złego. Przestawienie w wyniku promieniowania kosmicznego średnio 1 bitu na dzień w komputerze dysponującym 4 Gb zwykłej pamięci raczej zwykle nie powinno wywołać i tak katastrofy – choć może i obniża stabilność długotrwale funkcjonującego systemu.Realnie gdyby 1 osoba na 4 miliony ginęła dziennie pod kołami samochodów to (pomimo ogromu tragedii) jakoś by to nas nie ruszało w codziennym życiu – przynajmniej dopóki nie bylibyśmy to my,lub nasi krewni. Tak szczerze,w Polsce ofiar śmiertelnych wypadków drogowych w 2007 było średnio o prawie 60% więcej.

Z drugiej strony sprawa ewentualnych usterek systemów elektronicznych to wcale nie jest drobiazg. Coraz więcej nowych samochodów wyposażanych jest w nową elektronikę.  I bynajmniej jej awaria nie musi być tak niegroźna,jak na poniższym filmie:

Poważniejsze usterki mogą prowadzić nawet do katastrofy.Dlatego ważne jest zapewnienie nadmiarowości i innych środków bezpieczeństwa wszędzie tam,  gdzie bezpieczeństwo jest wymagane. I unikanie sytuacji,w które elementy systemu od którego wymagana jest poprawna praca ulegają przeciążeniu. Przeciążeniu nie tylko zresztą wynikającemu z warunków powiązanych z elektroniką. Itd.

„Modem Neuronowy” ? DARPA – ku nowemu BCI

Jak informuje geekweek DARPA pracuje nad nowym urządzeniem mającym podłączyć ludzki mózg bezpośrednio do komputera.Ciekawa idea (choć w świetle zapędów władz do większej kontroli również potencjalnie przerażająca). Co tu dużo mówić,to chyba dublomózg Urpian z trylogii kosmicznej Borunia i Trepki, czy rzeczywistość którą zapowiadał w swoich książkach SF William Gibbson, lub japońska manga Ghost in the Shell. Wreszcie, również w grze Supreme Commander, na bazie odłamu rasy ludzkiej powstali tzw. „Symbionci”,osoby łączące możliwości ludzkiego mózgu i sztucznej inteligencji, którzy zostali zniewoleni przez ziemski rząd i jak wspomina fabułą gry, przez tysiąclecie walczyli o swoje wyzwolenie.

Któregoś dnia ludzkość zostanie w części, lub całości podłączona. I będą AI czy nie – nie będzie buntu AI.Po prostu, AI staną się częścią nas samych – taki jest kierunek ewolucji technologicznej.Lecz zagrożenie z nią związane w międzyczasie są oczywiście wielkie.W tym kontekście bezpieczeństwo (obok biozgodności elementów takiego interfejsu) nabiera szczególnego znaczenia – o tym,co może się stać w innym przypadku opowiada dostępna na youtube seria serialu H+  – teaser:

Serial można streścić do jednego krytycznego zdania: Jak ludzkość prawie wyginęła,bo system nie miał wystarczających zabezpieczeń (nigdy mieć nie będzie) i był w praktyce za trudny/niemożliwy do wyłączenia.

Co tu dużo mówić. Sytuacja rozwoju w stronę coraz większej integracji nas i technologii i jest powiązane bardzo poważnie z ideą transhumanizmu,która poza faktem bycia ideą przez środowiska ultrakatolickie myloną z „neomarksistowskim liberalnym genderem” czy różnymi utopijnymi ideami posthumanizmu (śmiesznej ideologii odrzucającej nawet jakąkolwiek wyższość człowieka względem zwierząt),sam zaś transhumanizm podobnie jak niegdyś humanizm jest zbyt optymistycznym nurtem ideowym jest w Polsce ideą raczej nieznaną. Może to i dobrze,choć szerzej znana jest błędna z przyczyn ograniczeń fizycznych (prawo Moora nie działa już do końca) idea tzw. „osobliwości technologicznej” jest akurat złudzeniem technicznego raju – nie wskazuje prawdziwych możliwości i zagrożeń, których świadomi powinni być przynajmniej co inteligentniejsi przedstawiciele społeczeństwa. Bowiem te pojawią się niezależnie od tego,czy rozwijających się obecnie technologii się zakaże – czy nie. I podobnie jak internet czy telefony komórkowe zupełnie zmienią nasze życie.

Tymczasem technologia jednak dopiero raczkuje, a to,czym zająć się ma DARPA, jest dopiero jednym z początków traktowania tego bardziej serio.W czerwcu ubiegłego roku wrzuciłem artykuł pt. „Maszyny które czytają w myślach„.

Co takiego ciekawego (i niebezpiecznego) robi DARPA, o czym wcześniej nie wspominałem w tamtym wpisie ? Pierwotne źródło, magazyn H+ daje wskazówkę: optogenetyka, metoda polegająca m.in na modyfikacji DNA części neuronów w mózgu i wykorzystaniu ich reakcji na światło. Nowość polega też na tym,że tym razem możliwy byłby nie tylko odczyt,ale również zapis danych w mózgu. Oczywiście potrzeba jeszcze wielu danych, które na razie mają być zebrane głównie w badaniach na zwierzętach – ale to, że technologia będzie rozwijana jest oczywiste. Po pobieżnym wgłębieniu się w temat okazuje się,że realne wyniki zastosowania optogenetyki mogą być wyjątkowo interesujące i przynieść szybkie rezultaty.

Warto oczywiście wspomnieć jedną ważną kwestię.DARPA nie jest instytucją cywilną,jest instytutem wojskowym USA. Chyba łatwo zrozumieć,co to realnie oznacza i jakie będą pierwsze zastosowania tej technologii.

PS: Mało techniczne, ale ważne.Wczoraj, czyli 17 lutego był międzynarodowy dzień kota. Jeśli posiada was jakiś mruczek/jakaś kicia, nie zapomnijcie z tej okazji rzucić kotu jakiegoś przysmaku.Ponieważ koty podbiły internet i nawet sieć neuronowa google wpadła w ich łapki wydaje mi się to ważne 😀

Update: Ciekawy link – Optogenetics Wiki.

Elastyczna elektronika – wstęp. Kilka wyjaśnień na temat pozytywnie pokręconego pomysłu.

Dotychczas stosowana elektronika ma szereg ograniczeń. Jedno z takich praktycznych użytkowych ograniczeń jest kształt i brak możliwości jego zmiany bez ryzyka uszkodzenia obwodu. Tablety czy inne tego typu urządzenia mogą być coraz cieńsze – czy można je jednak zwinąć w rulonik, niczym kartkę papieru ? Odpowiedź brzmi: na razie nie.

„Na razie” jest tu kluczowe, bowiem od szeregu lat trwają badania nad elastyczną elektroniką, a ich rezultaty są coraz bliższe urzeczywistnienia. Jak dwa tygodnie temu informował Giznet firma LG rozpoczyna produkcję elastycznych ekranów OLED. (na razie o maksymalnym promieniu zgięcia 75 mm). Jak ta technologia działa w praktyce ? O tak:

Imponujące ? A to jest dopiero początek. Technologia elastycznej elektroniki nie ogranicza się bowiem do wyświetlaczy, lecz obejmuje również kamery/aparaty fotograficzne, które można nosić na oku w formie soczewki kontaktowej, smart-rękawiczki dla chirurgów (ale i dla pilotów i nie tylko – dlaczego nie), oraz urządzenia monitorujące zdrowie, smart-opaski zamiast telefonów,obrazowanie pracy mózgu itd. Mimo,że technologia ta wciąż „raczkuje” jest ona zatem godna zainteresowania.

Istnieją zasadniczo dwa podejścia w badaniach nad otrzymaniem takiej elektroniki:

  • Rozwój elektroniki organicznej – w zasadzie pomimo dużo gorszych właściwości użytkowych – przez szereg lat dominującej ze względu na większą odporność na zginanie związków organicznych.
  • Podnoszenie odporności na zginanie elektroniki nieorganicznej – trudniejsza,lecz bardziej obiecująca droga, dająca nadzieję na w pełni wydajne urządzenia elastycznej elektroniki.

Głównym obszarem badań przez szereg lat była zatem elektronika organiczna i poszukiwania w zakresie elektroniki nieorganicznej materiałów wykazujących wysoką odporność na zginanie,tym niemniej pod względem strukturalnym mówimy tu o kluczowej roli połączeń dla elektroniki na podłożu polimerowym – czy to organicznej, czy powstałej dzięki odpowiednim technologiom metalizacji powierzchni lub jej kształtowania. W efekcie, otrzymane cienkie warstwy połączone odpowiednimi złączami można odpowiednio wykorzystać.

Wykorzystując krzemowe „wyspy” połączone bardziej elastycznymi złączami, bądź odpowiednie ukształtowanie powierzchni – tak,by oddziaływanie naprężeń nie było znaczne – można więc uzyskać podstawową strukturę podobnego typu:

Phys.org, Dae-Hyeong Kim, University of Illinois, http://phys.org/news/2011-03-stretchable-electronics-device-cardiac-ablation.html

Oczywiście nic nie stoi na przeszkodzie,by inaczej niż na zdjęciu złącza były rozmieszczone w 2 lub więcej płaszczyznach a odpowiednie układy poddać miniaturyzacji.

Nieco bardziej zaawansowane będą zapewne struktury nowej generacji, powstałe dzięki zastosowaniu grafenu, nanorurek węglowych, bądź innych struktur tego typu (np wspomniani przeze mnie konkurenci grafenu – krzemen i germanen).

W praktyce, podstawową technologią otrzymywania najprostszych tego typu układów jak tranzystory czy mikroanteny na powierzchni polimerowej, jest osadzanie metali z wykorzystaniem znanej od dawna w elektronice techniki „maski”. Jednakże, w przypadku nowszych produktów, szczególnie nowej generacji trzeba skorzystać też z dziedzictwa technik które wykorzystuje się w produkcji układów typu MEMS. Należy jednak pamiętać,że podstawowym problemem są nie układy mikroelektroniczne na podłożu polimerowym a odporność złączy pomiędzy nimi na warunki wielokrotnego zginania. Oczywiście jednak, elastyczne tranzystory i układy tego typu to również bardzo istotne i korzystne rozwiązania.

Zainteresowanych większą ilością szczegółów proponuję np. oglądnąć wykład na ten temat z Imperial College w Londynie:

Warto też poczytać poniższe artykuły anglojęzycznej wikipedii: [1] [2]