Anatomia bestii – legalne, podstawowe informacje o bombie atomowej

Bomba atomowa.Koszmar który 6 sierpnia 1945 roku uderzył w miasto Hiroszima,a następnie 9 sierpnia 1945 uderzył w Nagasaki.
Bomba atomowa - eksplozja Hiroszima

Jak podaje Wikipedia w arsenałach Rosyjskich od 1945 roku było ponad 8500 takich bomb,w Amerykańskich 7700, Francuskich – 300, Chińskich – 240, Brytyjskich – 225,Pakistańskich – 90-110, Indyjskich – 80-100, Izraelskie – 80 itd. W kontekście niepokojów na świecie,to niepokoi.Naprawdę bardzo niepokoi.

Broń która skazić potrafi całkiem spory obszar na tysiące lat.Broń ostateczna masowego rażenia, której boimy się najbardziej (bo broń chemiczna i biologiczna są mniej znane, choć równie straszne dla ludzi – a może i straszniejsze ?). Jak ona działa ? Na szczęście, szczegóły są ściśle tajne,a same eksperymenty grożą śmiercią, lub poważnym napromieniowaniem, tak jak w wypadku „atomowego skauta” Davida Hahna. Tym niemniej, podstawy są powszechnie znane,niektórzy twierdzą też,że CIA przeprowadzało test z udziałem 2 doktorów fizyki nie znających uprzednio tematu,którzy korzystając z powszechnie dostępnej literatury i udostępnionych funduszy, znaleźli sposób na wykonanie bomby która miała prawo działać (ku niezadowoleniu zleceniodawców).

Czy zatem pisanie o tym na blogu nie naraża bezpieczeństwa ? Nie sądzę,ponieważ, nie zamierzam opisywać aż tak dokładnie,i na szczęście, sporo nie wiem. Tym niemniej podstawy,dotyczące bomb atomowych i wodorowych jako ładunków niszczących, wbrew pozorom, nie stanowią tak bardzo teoretycznego, jak praktycznego wyzwania.

W praktyce fizja nuklearna czyli rozszczepienie jądra atomowego jest relatywnie prostym zjawiskiem, opisanym fizycznymi prawami oraz łatwym do przedstawienia na prostym, poniższym obrazku:

Fizja. rozpad jądra Uranu

Tak samo fuzja nuklearna ,  od strony teoretycznej jest opisana bardzo przejrzyście, i bardzo ładnie w literaturze naukowej i również na prostym obrazku:

fuzja deuteru i trytu

Ale to oczywiście w praktyce nie może wystarczyć.To przecież byłoby za proste,prawda? Owszem: prawda.

Podstawowym problemem w zainicjowaniu eksplozji nuklearnej w przypadku materiałów promieniotwórczych jest masa krytyczna,zaś w przypadku eksplozji wodorowej – temperatura.  W teorii wydaje się,że problem jest niewielki,ot potrzebne jest kilka kilogramów materiału promieniotwórczego, albo podgrzanie do odpowiedniej temperatury.I to jest błąd.Owszem.W wypadku uranu 235 mówi się o masie rzędu 11 do 20 kg,a w przypadku plutonu ok. 4-7 kg,ale nie tylko materiał rozszczepialny jest śmiertelnie niebezpieczny, jeśli chodzi o transport,lecz i produkcja takiej ilości materiału rozszczepialnego wymaga wielu ton rudy, albo wręcz pracy reaktora cywilnego w wypadku plutonu.Jak to możliwe,że są takie rozbieżności jeśli chodzi o masę krytyczną ? Odpowiedź jest prosta: to nawet nie dezinformacja,po prostu czystość izotopowa jest różna,a technologia też się zmieniała na przestrzeni lat. Niewłaściwe składowanie może spowodować wybuch.Na szczęście – głównie termiczny,nie nuklearny,ale i tak różnica dla tego,kogo on zabije w pobliżu jest niewielka.Co szczególnie przykre, z autobiografii Feynmana wynika,że  ludzie którzy pracowali przy uranie do 1 bomby atomowej nawet nie wiedzieli,że to może wybuchnąć – nie mówiąc już o chorobach…

Kolejny problem przy wybuchu nuklearnym, to kosmiczne wprost marnotrawstwo. Jak wiadomo z teorii Einsteina w uproszczeniu: E=mc2,czyli masa, równa jest ogromnej energii, którą można wyzwolić.I tu zaskoczenie.Okazuje się (nie wiem,jak to zbadano),że przemianie w energię podlega jedynie ułamek masy.Niespełna 1 gram całkowicie znika.Dlaczego tak jest ? Z bardzo prostego powodu. Reakcja trwa tylko ułamki sekundy a eksplozja rozrzuca materiał rozszczepialny po tak wielkim terenie,że reakcja łańcuchowa zostaje natychmiast zatrzymana.Już sam wybuch powoduje utratę dużej części materiału rozszczepialnego.W dodatku wybuch musi być zainicjowany przez odpowiednio szybki wybuch konwencjonalny.W praktyce osiągalny jest z reguły wybuch dający prędkość zderzenia 2 połówek uranowej kuli rzędu 104 m/s,a prędkość wynikająca z eksplozji nuklearnej to 105 m/s w bombie typu klasycznego (gun type):

Nieco bardziej zaawansowany mechanizm implozyjny, zakłada stworzenie zderzenia w 1 punkcie materiału rozszczepialnego,co oczywiście zwiększa wydajność i redukuje konieczną masę – ale jest też znacznie trudniejsze do zrealizowania,ponieważ wymaga dokładności:

Zapewnienie właściwej realizacji wybuchu nie jest takie proste, i w przypadku bomby atomowej wymaga zapewne bardzo wielkich ilości konwencjonalnego materiału wybuchowego oraz odpowiedniego ukształtowania energii wybuchu,np. przez odpowiednie soczewkowanie:

https://upload.wikimedia.org/wikipedia/commons/thumb/8/83/Implosion_nuclear_weapon_design_-_explosive_lenses.svg/640px-Implosion_nuclear_weapon_design_-_explosive_lenses.svg.png

Pierwsza bomba atomowa, oparta o starszy model (gun type) ważyła ponad 60 ton.Gdyby terroryści zbudowali jej replikę, raczej mieliby znaczny problem z jej przewiezieniem. Lecz nowoczesne głowice mogą ważyć dużo mniej.Na przykład jeśli bronią jest bomba wodorowa.

Wybuch bomby wodorowej jest znacznie bardziej skomplikowany, jeśli chodzi o jego osiągnięcie,ponieważ do fuzji wodoru (a właściwie jego izotopu Deuteru) w Hel potrzebna jest temperatura rzędu 10-100 milionów (1010 min !) stopni Celcjusza. W praktyce, do uzyskania takiej temperatury, nawet bomba atomowa oparta na uranie czy plutonie nie wystarczy. Potrzebny jest kolejny pośredni zapalnik.Jest nim tryt.Jednak tryt,kolejny izotop wodoru, w praktyce okazał się zbyt niestabilny,ma bowiem okres połowicznego rozpadu 12,5 roku – zatem został zastąpiony Litem 6. Paliwem chemicznym dla współczesnych bomb wodorowych jest zatem, prawdopodobnie (o ile nie znaleziono czegoś lepszego) deuterek litu D6Li.Wg starych informacji znajduje się on prawdopodobnie w płaszczu rdzenia uranowego,jednak wikipedia podaje inny schemat,w którym jest on poniżej:

Według tego schematu właściwy ładunek który podlegać ma fuzji znajduje się w części A. Być może, wynika to z pomylenia przez niektórych badaczy starszego projektu z głowicami typu Swan,opracowanymi w 1956 roku w USA (projekt zastosowany w głowicy XW-45), i wykorzystującym jeszcze bardziej – i bezpieczniej (zapobiegając bardziej przypadkowej detonacji) – efekt soczewki detonacyjnej.Masa bomby tego typu wynosi poniżej 50 kg,a moc to 15 kiloton czyli nieco mniej jak „Little Boy” zrzucony na Hiroszimę.

Innym sposobem zainicjowania wybuchu wodorowego,bez skażenia substancjami promieniotwórczymi terenu jest teoretycznie wykorzystanie silnego lasera.Jednak w praktyce,realnie, nic przynajmniej nie wiadomo o sukcesie w tej kwestii. Nawet możliwości superlasera Amerykańskiego omawianego przed rokiem roku wydają się tutaj niewystarczające .A szkoda,gdyż mogłoby to, potencjalnie nieco przybliżyć wykorzystanie ładunków wodorowych również w ogromnych projektach geoinżynieryjnych.

Reklamy

Manipulując światłem – metamateriały optyczne (i nie tylko) – ciąg dalszy

Światło.Zjawisko, dzięki któremu widzimy.Jak wiemy z lekcji fizyki, polega na ruchu falowym fotonów.Zależnie od długości fali mamy różne barwy i różne światło:

Barwy obiektów, które nas otaczają wynikają głównie z tego,że niektóre długości fali zostają odbite,a inne pochłonięte przez przedmioty.  Na przykład, rośliny odbijają światło zielone i dlatego są zielone.Napiszę coś brutalniejszego (zwłaszcza dla kobiet i małych dziewczynek,tudzież homoseksualistów)  – kolor różowy tak naprawdę fizycznie nie istnieje.Serio.To po prostu nasza percepcja braku światła zielonego i nic więcej. Jest o tym napisane choćby na stronie geekweek. Ponadto, wynikają stąd bardzo użyteczne rzeczy.

Barwa czarna pochłania wszelkie światło.Ta właściwość sprawia,że w fizyce istnieje twór idealny, zwany ciałem doskonale czarnym.  Jest ono ważnym modelem m.in. w termodynamice. Ostatnio jak donosi giznet brytyjska firma Surrey NanoSystem opracowała, na bazie nanorurek węglowych nowy materiał Vantablack, pochłaniający aż 99,965% docierającego doń światła.  Co ważne światło przenosi energię.Ma to określone konsekwencje – czarny ubiór nie jest zbyt praktyczny w dzień,jak ktoś kiedyś zatem (może przesadnie ale nie za bardzo) stwierdził Darth Vader mógłby szybko wyparować. Z kolei negatyw koloru czarnego czyli kolor biały odbija większość światła,stąd latem białe czapki,kapelusze, czy podkoszulki w czasie upałów są nieocenione.

Od czego zależy jednak odbicie i pochłanianie światła ?

Opisuje je prawo Snelliusa znane także jako prawo Snella.

Można je zapisać bardzo prosto następująco:

gdzie:

n1 – współczynnik załamania światła ośrodka pierwszego, n2 – współczynnik załamania światła ośrodka drugiego, n21 – względny współczynnik załamania światła ośrodka drugiego względem pierwszego,θ1 – kąt padania, kąt między promieniem padającym a normalną do powierzchni granicznej ośrodków,θ2 – kąt załamania, kąt między promieniem załamanym a normalną.
Rysunek pomocniczy:

Prawo to opiera się na współczynniku załamania światła n21 i jak widać na podstawie tej postaci prawa współczynnik załamania w zasadzie nie powinien być ujemny.No dobrze.Ale to ma ważne konsekwencje dla optyki i nie tylko,ponieważ rozdzielczość soczewki jest ograniczona przez dyfrakcję,a ponadto nie ma sposobu przy takich założeniach stworzyć „czapki niewidki” przy której światło po prostu omijałoby dany obiekt – można by, co najwyżej, obwiesić się kamerami i projektorami ,generującymi mnóstwo ciepła i potrzebującymi mnóstwo energii. Tak samo, przy takim założeniu w optyce nie ma szans na zejście poniżej pewnej skali,co za tym idzie techniki takie jak litografia optyczna,mikroskopia itd. napotykały na znaczne ograniczenie.

Jednak ujemny współczynnik załamania światła może zaistnieć,ponieważ współczynnik załamania wynika z 2 wartości εr i μr  czyli:

εr – względnej przenikalności elektrycznej ośrodka , μr – względnej przenikalności magnetycznej.

 

I one mogą być ujemne,co w efekcie, w rachunkach fizyków daje ujemną wartość. Dzięki temu,wykorzystując ujemny współczynnik załamania światła funkcjonują właśnie optyczne metamateriały,a bajkowa „czapka niewidka” leży w zasięgu ludzkich możliwości. Wykonanie metamateriałów optycznych wymaga jednak nanotechnologii i zejścia do skali poniżej 250 nm.

Wracając jednak do manipulacji światłem.Również materiały takie jak Ventablack są interesujące,ponieważ faktycznie brak konturów i odbitego światła utrudnia jakąkolwiek obserwację. Ludzki wzrok też jest omylny. I ograniczony do bardzo niewielkiego zakresu fal jakim jest światło widzialne, które, jak widać, obejmuje tylko bardzo wąską część promieniowania elektromagnetycznego:

Poprzez wykorzystanie elektroniki możemy jednak zobaczyć promieniowanie UV czy podczerwone lub wzmacniać światło stosując noktowizory.

Kraina zimniejsza niż lód – Ku zeru bezwzględnemu

Dziś,po stosunkowo długiej nieobecności, postanowiłem napisać na temat dość związany z letnimi upałami – choć, jest ich całkowitym przeciwieństwem. Zimno. Choć do zimy mamy pół roku, przez niektórych,tam gdzie słońce przypieka może być bardzo wyczekiwane. Ale, choć wiemy czym mniej więcej jest temperatura – w dużym uproszczeniu ruchem cząsteczek; to pomimo faktu,że istnieje coś takiego, jak temperatura zera bezwzględnego , nawet nie zdajemy sobie sprawy, jak ciepły jest świat w którym żyjemy. Serio.Kriogenika,czyli nauka o niskich temperaturach i ich wykorzystaniu nie jest czymś popularnym,poza literaturą SF i ideą hibernacji nawet nie mamy w zasadzie z nią do czynienia.A jednak temperatury panujące poza Ziemią,bardzo daleko od Słońca powszechne we wszechświecie, są tylko o kilka stopni wyższe od zera bezwzględnego.  Na szczęście (ale czasem, też z przyczyn technicznych: na nieszczęście) próżnia jest bardzo dobrym izolatorem cieplnym. Nie koniec jednak na tym. Temperatury po ciemnej stronie księżyca sięgają nawet -200 stopni Celcjusza.  W tych temperaturach tlen się „tylko” skrapla. Oczywiście, w obszarze przestrzeni kosmicznej (w tym okołoziemskiej) , gdzie względnie obficie występuje promieniowanie słoneczne, można mówić z kolei o temperaturach wyższych jak +120 stopni Celcjusza. Skupmy się jednak na zimnie. Co oznaczają takie warunki ? W warunkach takiego sztucznego,lub naturalnego, kosmicznego wręcz zimna, materiały zmieniają stan skupienia na stały, lub ciekły. Oprócz tego, możliwe są też nie wymagające go przemiany alotropowe i inne ciekawe zjawiska.

Szczególnie chodzi mi tu o nadprzewodnictwo i zjawisko znane jako nadciekłość . Choć utrata przez materiał jakiegokolwiek oporu elektrycznego, czy lepkości wydaje się nudna,a same koszty chłodzenia, w naszym całkiem gorącym (ponad 0 stopni Celcjusza to ponad 273,15 stopni Kelwina) środowisku, z użyciem ciekłego azotu czy ciekłego helu będące na poziomie odpowiednio 77-78 stopni kelwina i zaledwie kilku stopni kelwina,czyli temperatur poniżej -195 stopni Celcjusza wydają się ogromne,to te zjawiska mają kapitalne znaczenie i ogromny potencjał.

Potencjał nadprzewodnictwa już został zidentyfikowany,a marzenia o nadprzewodniku pracującym w temperaturze pokojowej (+20 stopni Celcjusza), lub przynajmniej w miarę wysokiej są dość powszechne wśród fizyków ciała stałego i mających wiedzę naukową biznesmenów.  Nic dziwnego. Choć koszt chłodzenia jest tu,na Ziemi faktycznie ogromny, a nadprzewodniki jak widać na poniższym wykresie generalnie wciąż pracują w stosunkowo niskich temperaturach (przypomnę: zero stopni Celcjusza to 273,15 stopni Kelwina), naprawdę wartość tych zjawisk jest ogromna :

Historia - nadprzewodnictwo
Powód jest oczywisty.Opór elektryczny to straty energii i nagrzewanie się obwodów. Zgodnie z prawami fizyki wyemitowane ciepło zamiast stosunkowo mnemotechnicznego wzoru Q=U*I*t w istocie można przedstawić jako Q=I2*R*t gdzie współczynnik R to opór elektryczny przewodnika. Nadprzewodniki oporu elektrycznego nie wykazują.Prąd może w nich krążyć przez całe lata bez strat. Naprawdę.To nie teoria.Wykonano stosowne eksperymenty.  Kwestią która się w tym miejscu nasunąć może to wykorzystanie tego w przesyle prądu czy tym bardziej elektronice.Rzeczywiście,potencjał ten w elektronice zauważyli już naukowcy z  MIT publikujący dla periodyku amerykańskiej agencji NSA w jej piśmie „The Next Wave”.
Jest to elektronika oparta na tranzystorach typu (R)SFQ (superconductive single-flux-quantum logic) ,która była badana już od lat 80-tych, choćby przez fizyków Rosyjskich – jak na razie jednak nie osiągnęła ona choćby stosownego poziomu miniaturyzacji. Szacuje się,że taka elektronika oprócz wyższego taktowania,spotykanego już przy przetaktowaniu dotychczasowych procesorów mogłaby charakteryzować się poborem mocy na poziomie 1% (0,01 !) mocy koniecznej dla klasycznej elektroniki.

Ale nie dość tego.Tworzenie magnesów nadprzewodzących umożliwia wytworzenie potężniejszych niż kiedykolwiek magnesów i pól magnetycznych oraz urzeczywistnienie zjawiska lewitacji na szerszą skalę, dzięki polu magnetycznemu,zjawisko, które dotychczas było domeną marzeń i mitów. Co ciekawe. Nadprzewodniki nie przepuszczają również obcych pól magnetycznych.One są wypychane na zewnątrz.Zjawisko to nosi nazwę Efektu Meissnera. To bardzo praktyczne zjawiska. Japońskie linie kolejowe w technologii Maglev umożliwiają ruch kolei z prędkością ponad 500 km/h. Główna przyczyna jest prosta – minimalny wpływ tarcia,pociąg taki poruszał się będzie na „poduszce powietrznej” Technologia ta wkrótce zostanie wdrożona w Japonii,gdyż stosunkowo niedawno została uznana za nadającą się do komercyjnego wdrożenia.

Zjawisko nadciekłości, jest natomiast odpowiednikiem nadprzewodnictwa w mechanice płynów.Ciecz nadciekła poruszona, może poruszać się bez końca. „Wspina się” po pionowych ścianach.  Może przenosić ciepło ogromnymi prędkościami.Pod wpływem mechanicznego przepływu ciekłego helu powstać mogą też różne temperatury w naczyniach – i odwrotnie: różnice temperatur mogą wywołać przepływ. W substancji nadciekłej,np. helu II pojawia się też w przypadku kontaktu z falą dźwiękową również druga fala dźwiękowa…

Jak dotąd zjawisko nadciekłości wykorzystuje się głównie przy chłodzeniu.Tym niemniej jest oczywiste,że możliwe są również inne jego zastosowania.

W niskich temperaturach ,możemy zresztą otrzymać też Kondensat Bosego-Einsteina,gdzie wiele cząstek zachowuje się, wskutek efektów kwantowych jak jedna.Zjawisko to wciąż jest badane,jednak korzyści,oprócz badania np. nadprzewodnictwa i nadciekłości są oczywiste – choćby dokładniejszy pomiar czasu, niż w przypadku klasycznych zegarów atomowych.Badania ciągle trwają. Jedno jest pewne. Obszar skrajnie niskich temperatur jest obszarem, w którym ukryte są z pewnością nowe skarby nauki i techniki.

Plazma,4 stan skupienia.

wyładowanie w kuli plazmowej

Stan w fizyce znany jako plazma (ang. plasma, gr. πλάσμα ) jest bardzo interesujący. Sama nazwa znaczy właściwie tyle co „twór” tudzież: „istota”, „cokolwiek sformowanego” – i właśnie głównie wskazuje na tą niecodzienność. Choć podobna do gazu, plazma to twór zjonizowany.Choć zjonizowany – to sumarycznie elektrycznie obojętny.Ale przewodzący prąd i jest podatna na wpływ pola magnetycznego. Jej temperatura, to zwykle wiele tysięcy stopni Celcjusza/Kelwina – lub do jej uzyskania potrzebne są równie krytyczne parametry. Ponadto, większość materii we wszechświecie występuje prawdopodobnie w postaci plazmy.

Choć wyświetlacze plazmowe  nieubłaganie stają się przestarzałe,zjawisko wyładowania plazmowego wciąż jest powszechnie, tak w nauce jak i w technice. I nie chodzi tutaj tylko o spawanie czy cięcie plazmą – choć wysoka dokładność tych technologii jest oczywiście ważna,tak samo, jak stosunkowo małe naprężenia wewnętrzne w materiale – przy dużo mniejszych kosztach, niż przy zastosowaniu lasera.Rzecz jest jeszcze ciekawsza,niż nawet specjalne procesy produkcyjne. Opanowanie plazmy jest bowiem bardzo ważne w Tokamakach,nowym (no powiedzmy – idea jest stara, lecz wciąż nie zrealizowana na poziomie praktyczno-przemysłowym; pochodzi ona jeszcze z roku 1950,jej autorami byli Rosyjscy fizycy Tamm i Sacharow) rodzaju reaktorów mających wykorzystywać fuzję nuklearną,znaną bardziej laikom jako reakcja termojądrowa – w sposób kontrolowany. Osobom nieobeznanym wyjaśniam,że zjawisko fuzji jest spotykane w gwiazdach i polega między innymi na „spalaniu wodoru w hel”. Nie trzeba chyba tłumaczyć, że woda zawierająca wodór,mająca wzór chemiczny H2O jest bardzo powszechna na ziemi,zatem reaktor taki jest spełnieniem marzeń wielu ludzi dotyczących „silnika na wodę”. Kontrolowana i efektywna fuzja to „święty graal” energetyki.  Reaktory JET, ITER  i inne, nadal są reaktorami badawczymi, a duże problemy z utrzymaniem łuku plazmowego w stałej wysokiej temperaturze – i jednocześnie z chłodzeniem nadprzewodników. Projekt ITER jest aktualnie chyba najbardziej zaawansowanym projektem międzynarodowym a jego strona dostępna jest tutaj. Inna metoda,metoda Polywell (wielostudnia), również wymaga kontroli plazmy.

Joint_European_Torus-JET

Po dziesięcioleciach, ludzkość jest już dużo bliższa przełomu w energetyce,momentu gdy pierwszy tokamak wyprodukuje więcej energii niż potrzebuje do swojej pracy. Ale równie długa droga jeszcze przed nami, zanim uzyskany zostanie pierwszy przemysłowo pracujący reaktor fuzyjny…

Ponadto badania nad plazmą dały nam teorię plazmonów, kwazicząsteczek , służących do opisu oscylacji plazmy – a w konsekwencji plazmonikę. Dzięki zaś plazmonice, możliwe będzie uzyskanie m.in. nowych układów – tym razem optoelektronicznych w tym fotonicznych, nowe metamateriały modyfikujące zachowanie światła – dzięki którym możliwe jest stworzenie swego rodzaju „czapki niewidki” i wiele innych rzeczy. Jak więc widać ludzkie próby zrozumienia plazmy przyniosły i jeszcze mogą przynieść ogromne korzyści.

Nienaturalna Czystość

Wracam po przerwie.Być może wyglądała ona niepokojąco,tym niemniej,co zabawne, taka nieregularność poniekąd świetnie pasuje do dzisiejszego tematu.

Czystość.Odwieczny problem człowieka. Poświęcono mu kiedyś,kiedy jeszcze mnie nie było na tym świecie,w 1985 roku 193 odcinek programu „Sonda” pt. „Akcja Czystość”. Jego główni prezenterzy – Panowie Kurek i Kamiński – zginęli tragiczną śmiercią w 1989 roku, w wypadku samochodowym, w drodze do fabryki kotłów „Rafako”, gdzie mieli kręcić część materiałów do swego programu. Choć byłem wtedy małym berbeciem, to znalazłem archiwalne odcinki ich programu,widywałem też powtórki w telewizji. W zasadzie prawa do nich posiada TVP,  jednakże odcinki są chyba dostępne również w serwisie youtube – nie wiem jednak, czy zgodnie z prawem. Tak czy inaczej, zanim przejdziemy do reszty tekstu,  który w części będzie powtórzeniem tez przedstawionych w ich programie, sugeruję minutę ciszy i zadumy ku pamięci tych 2 wybitnych Polskich dziennikarzy naukowych którzy tak dawno odeszli przedwcześnie i nie mieli już właściwie, na przestrzeni lat godnych następców.

[*] [*][*] 29 września 1989 roku.Już niemal 25 lat…

 

Przejdźmy teraz do tematu.Czystość jest stanem nienaturalnym przynajmniej w naszym otoczeniu,zgodnie z 2 zasadą termodynamiki uporządkowanie w układach zamkniętych generalnie spada. Jeśli chodzi o nasz wszechświat rzecz jasna,hipoteza „śmierci cieplnej” to tylko hipoteza, która może okazać się prawdopodobnie błędna,ale w skali ziemskiej ta twarda 2 zasada termodynamiki dobrze obowiązuje. Nasz świat dąży generalnie do nieporządku i bez pewnego kosztu energii z zewnątrz nie można tego powstrzymać.Oczywiście – nawet w lodówce możemy otrzymać bardziej uporządkowaną strukturę, jaką są np. kostki lodu,sami też poniekąd jesteśmy gigantyczną dość uporządkowaną strukturą – ale przypomnę – kosztem energii z zewnątrz…

Zjawisko dyfuzji,reakcje chemiczne itd odgrywają swoją rolę w każdym środowisku o temperaturze wyższej od zera bezwzględnego. Pyły i kurze są w naszym środowisku codziennością,otaczają nas też bakterie. Właściwie skrajna czystość, po przekroczeniu pewnej skali, może być nawet niebezpieczna dla nas,gdyż brak bakterii może prowadzić do reakcji autoimmunologicznej układu odpornościowego,a picie wody destylowanej może doprowadzić do śmierci naszych komórek – i naszej. Swoją drogą, nawet picie zwykłej wody w trakcie wzmożonego wysiłku fizycznego jest niebezpieczne – dlatego właśnie sportowcy używają napojów izotonicznych.

Z drugiej strony generalnie lubimy czystość,nie lubimy życia w śmieciach,kurzu itd. a ich nadmiar również jest dla nas bardzo szkodliwy.W dodatku nasze przedmioty codziennego użytku i narzędzia techniczne ulegają zanieczyszczeniu chemicznemu i reakcjom chemicznym,a zatem, ich powstrzymanie lub nawet odwrócenie jest ważną kwestią. W przypadku przedmiotów codziennego użytku pomagają w tym, na przykład chemiczne środki czystości.I nie chodzi tu tylko o bardzo użyteczne coca-colę i pepsi, które zawierają oprócz cukru np. kwas fosforowy – co sprawia,że są np. niezłym odrdzewiaczem chętnie stosowanym przez sprzątaczki, równie ważne są dedykowane środki czystości,np. detergenty , mydła itd. oraz wyposażenie produktu już w fazie jego produkcji,lub później w odpowiednie powłoki ochronne, które przeciwdziałają osadzaniu się zanieczyszczeń – zarówno nieorganicznych jak i organicznych a nawet i żywych.

Detergenty

W niektórych przypadkach można też wykorzystać np. elektrochemię,co również było pokazane w programie „Sonda”.

Ale kwestia czystości – o czym zapominamy – to nie jest tylko kwestia czyszczenia. To kwestia współczesnej techniki.Czystość układów scalonych,czystość chemiczna stopów i innych materiałów,a nawet paliw jest równie podstawową kwestią. Naturalne materiały i paliwa,nie zawsze uzyskiwane są w czystej formie.Stopy metali uzyskiwane są np. z rud,benzyna – z ropy naftowej itd.W gruncie rzeczy, czystość chemiczna dla potrzeb techniki w procesach produkcji, uzyskiwana jest w dużej części różnymi metodami; np. rafinacji i elektrolizy – ale nie tylko -natomiast zapewnienie braku kurzów i innych relatywnie dużych cząstek jest osiągalne np. dzięki technologii clean room i filtracji.

Procesy rafinacji chemicznej w przypadku metali i paliw opierają się o dyfuzję oraz ewentualne przemiany fazowe czy inne mechanizmy wymuszonego przemieszczania określonych cząsteczek.W przypadku metali zatem tzw. rafinacja strefowa prowadzi do powstania częściowo zanieczyszczonego fragmentu metalu,który musi być usunięty. Są jednak jeszcze dużo doskonalsze metody,które jednak dużo kosztują. Należy też pamiętać,że im większa czystość jest wymagana tym większe jest zagrożenie dla jej utrzymania i większy jej koszt.

Jednymi z najdoskonalszych metod oczyszczania metodami fizycznymi jaką znam (jeśli nie najdoskonalszą), jest zastosowanie wirówek opartych o tzw.”siłę odśrodkową” (która jednak nie jest rzeczywistą siłą,a fizycznym uproszczeniem służącym tłumaczeniu zjawisk wynikających z ruchu po okręgu),które pozwala na osiągnięcie dużej czystości tak materiału organicznego jak i po części izotopów. W przypadku izotopów można mówić o wzbogacaniu i zubażaniu. O tym, jakim postępem technologicznym jest wirówka świadczy choćby fakt,że w czasach przed wprowadzeniem wirówek, separacja chemiczna pierwiastków promieniotwórczych dzięki dyfuzji wymagała wielopiętrowego kompleksu, o powierzchni kilku hektarów. Tym niemniej, nawet separacja izotopów nie służy tylko tworzeniu nowej broni masowego rażenia.W praktyce, dzięki niej i ograniczeniu zjawiska promieniotwórczości możliwe jest uzyskiwanie bardziej wydajnych urządzeń elektronicznych. Proste wirówki stosowane są zresztą np. również w przemyśle mleczarskim. Natomiast przykład małej,medycznej wirówki przedstawia poniższa fotografia:
wirówka
Bowiem czystość to ostatecznie porządek,a porządek znaczy „kontrola”. A nasza nauka i technika dąży do osiągnięcia większej kontroli nad zjawiskami które nas otaczają i narzędziami którymi dysponujemy.