Fotowoltaika (PV) – energia prosto ze słońca

Problem Fotowoltaiki (ang. Photovoltaics) czyli tzw. „Ogniw Słonecznych” właściwie dobrze omawia np. Wikipedia, jednak jak to jest ze szczegółami? W poprzednim wpisie wyjaśniałem problem złącza P-N, jeśli je rozumiemy,i kojarzymy już, czym jest powłoka elektronowa to pora na informację,iż w istocie pojedynczy foton może sprawić,że dany elektron znajdzie się w stanie wzbudzonym lub nawet zostanie wybity z atomu.Takie wybicie nazywamy „efektem fotoelektrycznym„,za jego wyjaśnienie Albert Einstein dostał nagrodę Nobla (za teorię względności już nie – ot komisja noblowska i kontrowersje naukowe w miniaturze). W praktyce zatem, poprzez naświetlenie złącza P-N, możliwe jest uzyskanie zarówno wolnych elektronów, jak i „dziur elektronowych”.I teraz wystarczy je tylko podłączyć – i voila ! mamy przepływ prądu – oto cała idea fotoogniwa w uproszczeniu. Podstawowe ogniwo,jeśli znamy temat, może wyglądać tak:

Ogniwo

W porządku.Znamy więc podstawy. Sprawa jednak, nie jest tak prosta, w praktyce bowiem wyróżnia się następujące rodzaje ogniw:

  • Selenowe
  • Krzemowe:
    • Monokrystaliczne
    • Polikrystaliczne
    • Cienkowarstwowe (głównie amorficzne)
  • Barwnikowe
  • Polimerowe

Omówię tutaj zwłaszcza problem ogniw krzemowych. Co znaczy podział na monokrystaliczne i polikrystaliczne ?

Zasadniczo, bardzo wiele.Osobom, które nie czytały wcześniejszych wpisów z tego bloga, i nie chcą czytać całych artykułów z Wikipedii lub szukać danych w internecie wyjaśniam,że główną różnicą,  pomiędzy monokryształempolikryształem jest fakt,że polikrystaliczna struktura składa się z wielu niewielkich kryształów posiadających własne orientacje krystalograficzne,a monokryształ to pojedynczy kryształ. Tak,jak w mikroelektronice, oznacza to,że struktura bardziej jednorodna – monokrystaliczna – jest stabilniejszym i wydajniejszym rozwiązaniem.I tak jest w istocie,choć zależeć to może, rzecz jasna, nieco od konstrukcji ogniwa. Oznacza to też,że przynajmniej w wypadku ogniw krzemowych, technologia i reżim technologiczny są całkiem podobne,jak w wypadku mikroprocesorów.Zwłaszcza jeśli chodzi o otrzymanie monokryształu, w produkcji konieczne jest stosowanie technologii cleanroom,wraz z całą konieczną sterylnością.

Jeśli chodzi o rozwiązania cienkowarstwowe, są one stosunkowo nowszym wyjściem.Mogą one być lżejsze i nieco wydajniejsze – jest to jednak raczej znów generalizacja. W zasadzie bowiem, postęp w tej dziedzinie jest tak duży,że trudno dokonać jednoznacznej kategoryzacji osobie która nie jest specjalistą,zwłaszcza,ze nowsze rozwiązania,np. oparte o związki, takie jak Telurek Kadmu (CdTe),ogniwa barwnikowe,polimerowe itd. mocno komplikują sprawę. Postęp w tej dziedzinie jest bardzo dynamiczny,co można zilustrować następującym obrazkiem:

Przyrost efektywności

Jak widać istnieją dziś ogniwa o sprawności rzędu ponad 40%. W dodatku komercyjnie dostępne ogniwa mogą mieć sprawność rzędu 20%. Realnie, nawet starsze ogniwa, powinny mieć sprawność rzędu choć 8%. Czy jednak jest sens instalowania takich ogniw np. w Polsce ? Jak widać na poniższym obrazku Słońce nie jest wyjątkowo efektywnym źródłem energii jeśli chodzi np. o Europę:

 

W praktyce jednak,sytuacja u nas nie jest gorsza,niż np. w Niemczech.Oczywiście należy pamiętać,że również w dni pochmurne pewna ilość energii zostanie uzyskana. Pomimo tego,że ogniwa nie muszą być bardzo wydajne nie jest też tak,że są one „ekologiczną niewydajną fanaberią” jak niektórzy utrzymują.Owszem,okres zwrotu w wypadku starszych ogniw wciąż jest duży, a ich wydajność w miarę czasu (jak w wypadku innych źródeł zasilania) spada,lecz czy do tego stopnia jak mówią miejskie legendy i utrzymują sceptycy ? Wydajność systematycznie wzrasta,choć oczywiście podnoszące wydajność układy układy np. śledzące pozycje słońca i dostosowujące do tego nastawienie ogniw są droższe.

Prawdziwe problemy są jednak zupełnie inne np.:

  • Niektóre słabsze,tanie ogniwa są zapewne np. niedostatecznie przetestowane lub dość niefrasobliwie przygotowane. W przeciwieństwie do przemysłu mikroprocesorowego, kontrola jakości w wypadku ogniw PV nie jest tak drastyczna,przejściem testów jest spełnienie określonych wymagań dotyczących uzyskanej mocy i nic innego – a pamiętajmy „Polak lubi tanio”,nawet jeśli „tanie” w istocie jest bardzo drogie,a ta „oszczędność” to czysta głupota polegająca na „zaoszczędzeniu” kilku procent kwoty.W praktyce, może się okazać zatem,że realnie, ogniwo od niepewnego producenta nie spełnia nawet podanych specyfikacji albo wręcz nie działa.
  • Nie jest to stabilne źródło zasilania,zależy od rytmu dnia i nocy,pory roku itd. (ogniwa monokrystaliczne mogą tu być nieco lepsze od porównywalnych ogniw amorficznych ze względu na barierę potencjału)
  • Prawdziwym wąskim gardłem są często akumulatory, w których magazynowana jest energia (jeśli system nie jest podłączony bezpośrednio do sieci)
  • podłączenie do sieci domowej przy równoczesnym korzystaniu z klasycznego systemu energetyki może być zarówno korzystne jak i niekorzystne (obecne prawo jest raczej takie,że właściwie to trzeba sprzedawać ten prąd elektrowni i odkupywać – co prawda w ramach nowej ustawy o OZE mówi się o „preferencyjnych cenach” itd,ale…)
  • Pozycja słońca i ustawienie ogniw względem niej ma decydujące znaczenie – brak systemu śledzącego pozycję słońca czy umieszczenie ogniw na „niewłaściwym dachu” może znacznie wpłynąć na osiągane wyniki.

Osobiście uważam,że choć branża ogniw PV ma niesamowitą przyszłość,to inwestowanie w obecne,mniej wydajne ogniwa, dla użytku domowego wydaje się nieco przedwczesne. Co prawda Polska jest zmuszona do zwiększenia udziału energii odnawialnej przez Unię Europejską,jednak jeśli nie korzysta się z dotacji w praktyce,bardziej uzasadnione wydaje się póki co raczej zainwestowanie w kolektor słoneczny.

Reklamy

Złącze P-N po ludzku

Pomimo obecności artykułu na Wikipedii, właściwie,dzięki gąszczom równań i nie tylko, zwykłym ludziom może być trudno pojąć sedno rozwiązań, będących podstawą współczesnej elektroniki. Więc czym jest złącze P-N , wszechobecne w elektronice, ogniwach PV itd; jak zrozumieć „na chłopski rozum” skomplikowane zjawiska,których wyjaśnienie i wykorzystanie pozwoliło później wytworzyć jeszcze bardziej złożone tranzystory bipolarne ? Jak prosty człowiek,nie będący fizykiem czy elektrykiem/elektronikiem ma to zrozumieć ? Jak ono działa ?

W definicji mowa jest o półprzewodnikach.Tak.To jest znany nam dobrze krzem.

Czysty krzem jednak,bez domieszek jest właściwie izolatorem,a całą strukturę trzeba domieszkować – jeśli czytujesz tego bloga, być może wspomniałem o tym już wcześniej. Po co domieszkować ? Dla obecności elektronu lub dziury*,czyli dwóch podstawowych nośników prądu. Wyjaśnijmy to na przykładach.Istnieje 2 rodzaje domieszkowania:

  • P (ang.Positive) – atomami o wartościowości 3 jak: Bor,Glin,Bar,Ind (B,Al,Ba,In) – głównie borem.
  • N (ang.Negative) – atomami o wartościowości 5 jak: Fosfor,Arsen,Antymon (P,As,Sb) – głównie fosforem

Skoro Krzem ma wartościowość 4, to pierwiastki o wartościowości 3 mają niedobór elektronów (a wiec względny ładunek „pozytywny”,”dziurę” – stąd „positive”) , a te o wartościowości 5 ich nadmiar (a ponieważ elektron ma ładunek ujemny: „negative”).No i dobrze.Ale teraz jeśli kojarzy się zjawisko dyfuzji, czy podstawową wiedzę o elektryczności można zapytać – dlaczego w takim razie, w naturze nie dojdzie do szybkiej dyfuzji czy przepływu elektronów.Cały dowcip jednak w tym,że to zjawisko działa na naszą korzyść tworząc pomiędzy warstwą P i N strefę zubożoną o praktycznie obojętnym,stabilnym ładunku, która w praktyce pełni rolę swego rodzaju bariery. :
strefa zubożona

W naturalnym stanie mamy zatem równowagę.Raczej taką chwiejną,ale równowagę.Wystarczy jednak przyłożyć napięcie, a równowaga ta znika. Napięcie jednak może być oczywiście przyłożone na 2 sposoby:

  • w kierunku przewodzenia, wówczas dodatni (p) biegun napięcia – do obszaru p – wtedy płynie prąd dyfuzyjny
  • w kierunku zaporowym, wówczas dodatni (p) biegun napięcia – do obszaru n – wtedy bariera rośnie.

Widać zatem,dlaczego mówimy o kierunku zaporowym – pomijając możliwe przebicie, złącze jest zatem jednokierunkowe.

Oczywiście to jest teoria elektryczna,w praktyce mamy bariery potencjału itd,ale to już szczegóły, pozwalające zrozumieć szczegóły działania.

*dziura elektronowa (electron hole) choć zachowuje się jak cząstka cząstką oczywiście nie jest;jest wytworem pasmowej teorii przewodnictwa; uproszczeniem,tzw. kwazicząstką a nie np. pozytonem.Gdy byłem młodszy, „dziury” wspomniane w podręczniku sprawiały mi w fizyce dość poważny problem,ponieważ „nie pasowały”. W istocie, jako dziecko nie mogłem pojąć,jak można mówić o poruszającej się pustce,przenoszącej na dodatek jakiś ładunek. Wydawało mi się to nonsensem. Dopiero samodzielne uzupełnianie wiedzy,oraz studiowanie inżynierii materiałowej pozwoliło mi się oswoić z tym pojęciem, i dostrzec pewną analogię (lecz jest to trochę kiepska analogia) do wakancji,poprzez zrozumienie, że to nie „pustka” się może poruszać,ale całe jej otoczenie. Jest prawdziwym problemem,że szkoła uczy nieraz tak wyrywkowo,że niektórzy nie dostrzegają już znaczenia tego, czy jonizacji.Okrojony program nauczania nie jest dobrym programem.

Podstawowy podział materiałów inżynierskich – przestarzały ?

Z grubsza,pod względem budowy materiały inżynierskie dzielimy,na:

Czasem do tego dodawane są materiały amorficzne/szkła – a czasem są one zaliczane po prostu do ceramik (gdy ignoruje się szkła metaliczne)

Problem jednak w tym,że o ile klasyczne materiały bardzo dobrze tu pasują, o tyle w praktyce, podział ten jest skrajnie uproszczony.  Pomija on choćby, znaczący postęp w dziedzinie takiej jak Nanomateriały, będące (może bardzo rozwiniętą – ale jednak) integralną częścią inżynierii materiałowej. Nie akcentuje różnic pomiędzy ceramikami, a fazami międzymetalicznymi,które, ze względu na podobne właściwości i niektórych nieścisłych definicji, mogą być przez niektórych potraktowane jak to samo – co nie wydaje mi się słusznym podejściem. Nie ma w tym podziale też wyróżnienia choćby kwazikryształów.  Kolejna faza międzymetaliczna ? Chyba nie do końca… W praktyce też,nie sposób ustalić co jeszcze kompozytem jest,a co już nie jest,ponieważ choćby faza w stopach żelaza znana jako perlit jest właściwie naturalnym nanokompozytem ferrytu i cementytu.  Poza wygodnym określeniem użytkowym „biomateriały” właściwie nie ma też podziału na materiały pochodzenia biologicznego i pozostałe. Czy wreszcie materiały typowo powierzchniowe (nie tylko lakiery itd) maja do końca wyróżnioną,odrębną kategorię ? Jak widać,nic nie jest tak proste,jak wyglądało to na pierwszy rzut oka.

Oczywiście im więcej szczegółów tym bardziej widać,że część klasyfikacji powinna się nakładać.I dobrze,sklasyfikowanie bardziej złożonych materiałów inżynierskich to nie jest prosta sprawa.

Oczywiście.Każdy podział będzie do pewnego stopnia umowny. Warto jednak wiedzieć,jak bardzo umowny.I temu służy ten wpis.

 

„Nowy Materiał” czy może mikromechanizm z MIT – jak woda popłynąć może w górę

Jak informuje strona MIT News (przedrukowano również na stronie Giznet) na MIT (Massachusetts Institute of Technology) opracowano „nowy materiał” oparty o „mikrowłoski”/pręty na podłożu polimerowym,zmieniające swoje nachylenie pod wpływem pola magnetycznego.Działanie wynalazku przedstawia poniższy filmik:

Same parametry „włosków” to 70 µm wysokości i 25 µm średnicy,kąt skręcania waha się w zakresie 0° – 57°.  Osobom nie rozumiejącym skali wyjaśniam,że 1 µm = 10-6 m,  jest to skala,  którą można wykorzystać np. do opisywania komórek bakterii (w zasadzie komórki bardziej rozwiniętych organizmów częściej mają rozmiary na poziomie dziesiątków µm).

Zastosowanie tego wynalazku,to wg. badaczy m.in. kontrola kierunku przepływu cieczy,kontrola oporu płynu czy dopasowywanie do potrzeb przejrzystości (przezroczystości) optycznej.

Pełny artykuł,udostępniono na licencji OpenAcces Tutaj

Nie mogę się jednak zgodzić z nazwaniem tego, zarówno przez redakcję Giznet jak i wcześniej przez blog MIT „materiałem”. Sami badacze używają określenia „Magnetically actuated surface” co można przetłumaczyć najlepiej jako Magnetycznie uruchamiana/napędzana/sterowana powierzchnia. I w zasadzie, choć nad powierzchnią taką mogliby pracować również inżynierowie materiałowi (sama procedura przygotowania czegoś takiego jak najbardziej wchodzi w ich kompetencje – polerowanie elektrolityczme,wykorzystanie plazmy,utlenianie itd),samo nazywanie otrzymanej powierzchni „materiałem”, jest jednak niezbyt zgodne z definicją materiału,jaką zapewnia (na bardzo podstawowym,i mało naukowym poziomie – ale jednak) choćby Wikipedia:

„Materiał – słowo wieloznaczne. W najbardziej ogólnym sensie jest to surowiec w postaci pierwotnej lub częściowo przetworzony, z którego wytwarza się różne produkty. […]

W dziedzinie naukowo-technicznej nazywanej badaniami materiałowymi materiał definiuje się jako każdą substancję, z której zrobione są analizowane wyroby […]”

Magazynowanie energii – baterie i nie tylko

Cała nasza cywilizacja opiera się na przetwarzaniu energii,zwłaszcza energii elektrycznej, w użyteczną pracę. Gdyby jej nagle zabrakło,np. w wyniku rozbłysku słonecznego,czy końca zasobów, ludzkość, w najlepszym razie, cofnęła by się o kilka stuleci cywilizacyjnie.  Podczas, gdy fenomen wykorzystania energii mechanicznej wody,czy pary jest stosunkowo prostym problemem, elektryczność jest poniekąd nieuchwytna,niewidzialna – chyba,że chodzi o wyładowania atmosferyczne; pioruny,których jednak nie potrafimy wykorzystać w energetyce:

błyskawica

Podobnym przykładem są niekiedy „iskry” wynikające z nagłego wyładowania prądu z przewodów. Można ją za to odczuć. Czasem delikatnie,a czasem… śmiertelnie.Fenomen ten wynikający z przepływu elektronów – tudzież tzw. „dziur elektronowych”  w zasadzie jest częściowo wyjaśniany już w szkołach,lecz niezbyt jasno,ponieważ elektromagnetyzm,jedno z fundamentalnych 4 oddziaływań, nadal jest badany.Kwestia ładunku elektrycznego  czy elektromagnetyzmu nie jest też kwestią prostą ani intuicyjną.

Tak czy inaczej, to na wykorzystaniu elektryczności opierają się nasze urządzenia,to od jej dostaw jesteśmy uzależnieni,uzależnieni bardziej nawet,niż nasi przodkowie. Czasem jednak,stałe dostawy energii są niedostępne.Kable też stanowią problem.Niekiedy energię trzeba zmagazynować.

Jednym z rozwiązań tego problemu (inne to przesył bezprzewodowy energii czy silniki) jest bateria. Przeważnie,jako baterię rozpatrujemy ogniwo galwaniczne. Pierwszym takim ogniwem znanym współczesnej nauce było ogniwo Volty:
Ogniwo Wolty - koncepcja

W istocie jednak,wiele wskazuje na to,że prymitywne ogniwa znali już starożytni,czego prawdopodobnie dowodzi tzw. „bateria z Bagdadu” :

„[…] W latach sześćdziesiątych XX wieku archeologowie znowu znaleźli podobny przedmiot w okolicach Bagdadu, a następnie kilkadziesiąt elementów składowych owych tajemniczych urządzeń (m.in. pręty miedziane i żelazne oraz odpowiednie korki bitumiczne)[…]Dla jej [hipotezy] poparcia zrekonstruowano owe hipotetyczne ogniwa i wypełniono je roztworami kwasów znanych w Mezopotamii w tamtych czasach (octowego i cytrynowego). Baterie zaczęły działać […]” (źródło cytatu – wikipedia)

Bateria z Bagdadu
Pomińmy skomplikowaną debatę „skąd starożytni wiedzieli”,  i co właściwie wiedzieli,ważne jest to,że udowodniono,iż takie ogniwo w istocie miało prawo działać i działało.

Jak widać zatem, sama koncepcja nie jest skomplikowana. Diabeł jednak tkwi w szczegółach.Uzyskana energia zależy od potencjału związanego z reakcjami chemicznymi,powierzchni czynnej i wielu innych czynników.

Wyróżniamy bardzo dużo rodzajów baterii,np:

Istnieją też baterie jądrowe,oparte o rozpad promieniotwórczy,jednak ich zasada działania jest inna, i moim zdaniem, na dobrą sprawę, można by tu raczej mówić o prymitywnym rodzaju generatora,który w dodatku, z natury zapewnia coraz mniej energii (prawo rozpadu naturalnego to sprawia) choć może ją zapewniać przez wiele lat.

Ponadto w praktyce rozróżnienie pomiędzy baterią, a akumulatorem jest raczej dość umowne w powszechnym języku. Wynika to z faktu,że w praktyce akumulator różni się od typowej baterii tym,że przewidziane jest jego wielokrotne ładowanie,sama konstrukcja i funkcje nie są zaś aż tak różne,stąd zdarzają się pomyłki.

Wyróżniamy różne  akumulatory np.:

W praktyce jest ich jeszcze więcej, co udowadniają artykuły Anglojęzycznej Wikipedii o Bateriach i Akumulatorach

Baterie i akumulatory zrewolucjonizowały nasze życie,dzięki ich wykorzystaniu wiele urządzeń elektrycznych stało się naprawdę mobilnymi i na dobrą sprawę niezależnymi od problemów z okablowaniem, czy dostępem do sieci elektrycznej. Niestety – ich wydajność i koszt są istotnymi ograniczeniami.

Problem w tym,że pomimo mnogości rodzajów baterii i akumulatorów, magazynowanie energii nie jest proste,nie jest też do tej pory wystarczająco opłacalne ekonomicznie. W dodatku, baterie podlegają też przecież samorozładowaniu – te popularnie stosowane tracą rocznie 8-20% zmagazynowanej energii. Przesył energii elektrycznej przy pomocy sieci przesyłowej wciąż jest wielokrotnie tańszy.Oczywiście, problem lobbingu koncernów naftowych i energetycznych może być również ważnym powodem braku wystarczającej alternatywy – ale nie jedynym. Problem bowiem polega naprawdę efektywności i tylko wydaje się prosty,a pomimo rozwoju technologii – zwłaszcza w przypadku akumulatorów telefonów komórkowych – koszty wciąż są znaczne.

Oczywiście – z czasem gęstości energii rosną:

https://upload.wikimedia.org/wikipedia/commons/thumb/c/c9/Secondary_cell_energy_density.svg/395px-Secondary_cell_energy_density.svg.png

I wygląda to imponująco,ale tylko do momentu,gdy porównamy to z gęstością energii innych jej źródeł obecnych w naturze:

https://upload.wikimedia.org/wikipedia/commons/thumb/c/c6/Energy_density.svg/800px-Energy_density.svg.png

Jak widać jednak z całości artykułu na Wikipedii dotyczącego gęstości energetycznej wartości te są śmieszne w porównaniu nie tylko z prochem strzelniczym (który tylko pozornie wydaje się efektywny),ale nawet z drewnem czy cukrami.

Oczywiście,baterie są zaprojektowane do efektywnego wyzwalania energii w oczekiwany sposób,a te substancje – same z siebie póki co, nie,ale problem pozostaje.

W tym kontekście bardzo istotne wydają się badania nad „bateriami na cukier”/biobateriami i sztuczną fotosyntezą,ponieważ cukry i enzymy ulegają rozpadowi w sposób ekologiczny a przy tym są dużo wydajniejsze energetycznie. W istocie,w świetle ostatnich badań ze stycznia których wyniki opublikowano w artykule pt. „A high-energy-density sugar biobattery based on a synthetic enzymatic pathway.” w czasopiśmie „Nature Communications”, a omówiono również na stronie Extremetech, urzeczywistnienie takich rozwiązań wydaje się kwestią czasu.Czy tak będzie tak zatem faktycznie ? Zobaczymy.