Informacja

W związku z pogarszającą się jakością moich wpisów, jak również koniecznością załatwienia dużej ilości spraw, w tym bardziej realnym świecie wymagającą mojej pełnej koncentracji na niniejszych zadaniach, niniejszym informuję,że przerywam blogowanie na niniejszym blogu do odwołania (czyli do ukazania się kolejnego wpisu). Nie mówię „żegnam” ale „do widzenia” – a przynajmniej taką mam nadzieję.Ten blog nie jest zamknięty na stałe,lecz raczej zostaje uśpiony do odwołania. Pozdrawiam czytelników.

Jednocześnie każdemu, kto tu trafi przypominam o tym,że listę najważniejszych artykułów przeglądać można poprzez stronę:

Moje wpisy i dokumenty – szybki dostęp. Oczywiście polecam również korzystanie z zlinkowanych źródeł.

Informuję też,że o wszelkich ewentualnych zmianach poinformuję – albo w formie następnego wpisu albo edycji tego i wpisu w formie pewnego rodzaju artykułów.

Pozdrawiam.

kez87

Gniotsa nie łamiotsa i nie tylko – dlaczego lepiej mniej ale lepiej ? + kilka nowości.

Tak się składa,że moje wysiłki w realnym świecie nie za bardzo dają sensowne rezultaty.W naturalny sposób ogranicza to moją możliwość – i chęć do blogowania.Ale póki co,co prawda później niż zwykle ukazuje się ten – kolejny – wpis. Przypuszczalnie kolejne wpisy będą ukazywać się tylko i wyłącznie w weekendy.

Dzisiaj dość ogólnikowo i krótko.O prostych rzeczach.Prostych,ale solidnych.

Do takich rzeczy pasuje potoczne określenie (będące podobno formą rusycyzmu) „gniotsa nie łamiotsa” oznaczającego toporne wytwory (często rodem z komunistycznych czy rosyjskich – ale nie tylko biur projektowych) które przetrwać potrafią lata przy naprawdę niedbałym użytkowaniu.

W naszym życiu spotykamy się często z urządzeniami i narzędziami.I tak się składa,że te najbardziej skomplikowane – szczególnie jeśli należą do tańszych – „lubią” nawalić częściej. Pomimo tego,że planowe postarzanie produktów ma miejsce i jest nieuczciwą działalnością producenta zmierzającą do tego,by produkt nie przetrwał dużo dłużej niż zakłada gwarancja – wiele rzeczy „lubi” nawalić ot tak. Oczywiście procesory komputerów i niektóre zaawansowane technologicznie produkty które lepiej przetestowano nawalają na szczęście z naszej perspektywy (ale w istocie to też korekcja błędów). Ale skąd problemy z rzeczami skomplikowanymi i trwałość rozwiązań prostych ? Oprócz typowych cech materiałowych (im mniejszy element tym bardziej podatny np. na zjawiska termodynamiczne związane z otoczeniem) mamy tu po prostu do czynienia z prawdopodobieństwem i kompleksowością naprawy. Jedna spośród setek części spełniających wiele funkcji po prostu częściej może nawalić.I naprawienie czegoś takiego jest siłą rzeczy bardziej czasochłonnym problemem.

A zatem proste „toporne” i „archaiczne” rozwiązania są bardziej odporne nie tylko ze względu na brak planowego postarzania – ale i prostotę naprawy i fakt,że mniej rzeczy może się w takim czymś zepsuć.Po prostu.

Ponadto dochodzimy do stosunkowo kapitalnej kwestii technicznej.Nadmiarowość i modułowość. Robot łatwo może się zepsuć jeśli nawali jeden z jego siłowników – i jest wtedy bezradny. A człowiek czy zwierzę ? Mówiąc o człowieku czy zwierzęciu że jest prosty w budowie to bzdura – ale każdy żywy organizm jest pokazem triumfu modułowości i nadmiarowości nad „wszechstronnymi” i „zintegrowanymi” rozwiązaniami.Rozwiązanie takie jak modułowość jest już od dawna świadomie i nieświadomie stosowane:

Nawet nasze komputery.W zasadzie trwałe łączenie ich komponentów pewnie nie byłoby problemem dla producenta.Ale po co ? I kto by się dzisiaj zgodził na wlutowany na stałe procesor,pamięć i nawet dysk poza prostymi miniaturowymi tanimi narzędziami ?

Tak więc modułowość, nadmiarowość i prostota modułów (oraz ich wymiany) jest wyznacznikiem tego,do czego powinien dążyć inżynier. Takie podejście nie jest oczywiście dobre zawsze – ale wystarczająco dobre,by o nim przypomnieć.Co czynię.

A teraz nowości.

Bezpieczeństwo:

  • Venom albo CVE 2015-3456 (po co nazwa,skoro tak piękna liczba ?) i możliwy atak na maszyny wirtualne – o ile na jakiejś maszynie wirtualnej użytkownik ma roota. A wszystko przez qemu i zostawiony w podatnych programach kod kontrolera dyskietek…

Arxiv: kryptografia i bezpieczeństwo:

Sztuczna Inteligencja:

Sieci Neuronowe:

Inżynieria Oprogramowania:

Inżynieria Materiałowa i Nanotechnologia:

Inne:

Cryptome:

Setny wpis, czyli nie przeceniajmy liczb i naszych przyzwyczajeń

Tak się składa że po podliczeniu wychodzi co wychodzi. Ten wpis ma numer 100. Jubileusz ? No niezupełnie.

Dzisiaj chciałbym napisać,jak wiele zależy od percepcji matematyki.I zaręczam,że nie będzie to takie nudne. Wróćmy jednak do liczby sto.

Przez Rzymian oznaczana jako C. W praktyce jest to liczba 102. Ale skąd 10 ? Popatrzmy na ręce.Mamy 10 palców. (No chyba że ktoś stracił,albo ma polidaktylię) Stąd ten system liczbowy. Ale cyfra 100 nie jest taka nadzwyczajna. Majowie używali systemu 20-tkowego. Ale co ciekawe – w wielu kulturach szczególną rolę spełnia również liczba 12.System dwunastkowy stosowany był m.in. przez Celtów. U Sumerów podstawą systemu liczbowego była z kolei liczba 60 (5*12).

Co ciekawe dość interesujące właściwości pod względem matematycznym ma system szóstkowy. Komputery korzystają z kolei z systemu dwójkowego. Za interesujący można uznać również system Fibonacciego (zaleta: kompresja i w systemie Fibonacciego nigdy dwie jedynki nie występują na kolejnych miejscach, możemy zatem kolejne dwie jedynki uznać za dodatkowy symbol końca liczby),system silniowy i resztowy. Co najciekawsze – wszystkie te systemy należą do systemów pozycyjnych. Istnieją też systemy addytywne w których istnieje dużo więcej dodawanych do siebie symboli.

Przykładem systemu addytywnego jest Rzymski. XL=40, LX=60 : gdzie X=10 L=50. W praktyce jednak pozycja jak widać i przyjęta konwencja odczytywania liczby – czy również innego ZNAKU i tu ma znaczenie.

Nas,Europejczyków nauczono czytać od lewej do prawej.Nie jest to jednak jedyne rozwiązanie. Alfabet Arabski i pismo chińskie tradycyjnie odczytywało się od prawej do lewej.Choć Chińczycy preferowali zapis pionowy. Oznacza to,że konwencje mogą być mylące. Weźmy liczbę dwójkową poniżej:

1011

1110

1001

0001

Jak to teraz odczytać – zakładając,że mamy liczbę 16-bitową:

Od lewej do prawej czytając od góry: 1011 1110 1001 0001

od prawej do lewej czytając od góry: 1101 0111 1001 1000

czytając od góry i kierując się od lewej do prawej: 1110 0100 1100 1011

czytając od góry i kierując się od lewej do prawej:  1011 1100 0100 1110

cztery możliwosci. Kolejne 4 jeśli czytać od dołu (co nie było wspominane). Plus kolejne 4 możliwości gdyby to odczytywać na skos biorąc liczby ze stworzonej macierzy (a co gdy macierzy nie ma) od góry i od dołu.

Co ciekawe problem nawet z zapisem liczb dwójkowych miał miejsce też w informatyce i był powiązany z istnieniem architektur little endian i big endian. A to są tylko liczby dwójkowe.Pomyślcie ile możliwości jest jeśli użyjemy bardziej skomplikowanych systemów liczbowych albo znaków językowych. W najlepszym wypadku można mówić o łamigłówce.

W dodatku,jeśli chodzi o język system alfabetyczny nie jest jedynym możliwym rozwiązaniem. Choćby języki japoński i koreański mają pismo oparte na systemie sylabicznym. Znane są też pismo ideograficzne (hieroglify starożytnego egiptu), ideograficzno-sylabiczne (choćby dzisiejsze pismo chińskie) itd.

To,że posiadamy przyzwyczajenie do patrzenia na liczby i znaki wg. wyuczonych konwencji, wcale nie znaczy,że są to jedyne słuszne spojrzenia na świat.

Problem w tym,że kwestia ta przekłada się choćby z matematyki na fizykę.Uczono nas,że suma kątów w trójkącie wynosi 180 stopni ? Bzdura – jeśli mamy do czynienia z geometrią hiperboliczną albo eliptyczną. Bo świat nie kończy się na geometriach Euklidesowych.Teoria względności do opisu czasoprzestrzeni używa raczej geometrii hiperbolicznej.

Lecz są to tylko opisy i konwencje. Fizycy szukają jak świętego graala „Teorii wszystkiego” i wydaje im się,że są o krok od jej znalezienia. Lecz wygląda to raczej na kolejne wyprawy w poszukiwaniu „kamienia filozoficznego”. Tak naprawdę bowiem nie możemy mieć (wygodnej) pewności,że wiemy wszystko.Możemy mieć tylko coraz doskonalsze i coraz bardziej prawdopodobne modele. Lecz jaki model jest dobry ? Cechy dobrego modelu omówili Hawking i Mlodinow w książce „Wielki Projekt”:

  1. Elegancki
  2. Zawiera niewiele elementów wprowadzonych arbitralnie i wymagających dopasowania
  3. Zgadza się z wszystkimi wynikami obserwacji i je wyjaśnia
  4. Daje szczegółowe przewidywania wyników przyszłych obserwacji które mogą go obalić (sfalsyfikować), jeśli nie zostaną potwierdzone.

Zasadniczo, należy jednak pamiętać, że słabością każdego modelu jest punkt 3 i 4. Zawarcie wszystkich wyników obserwacji w modelu nie zawsze się udaje,a wysunięcie na podstawie modelu jednoznacznych prognoz też nie jest zawsze użyteczne.

W dodatku nie tylko nasze modele bywają wadliwe.Nasze zmysły i przyrządy – też. Oczy podlegają złudzeniom optycznym. W przypadku zaś urządzeń mamy do czynienia z błędami pomiarowymi. Co więcej zasada nieoznaczoności raczej jednoznacznie sugeruje,że dokonywanie dowolnie dokładnych pomiarów może być niemożliwe.

W dotychczasowej historii nauki było zwykle tak,że po czasie okazywało się,że wszelkie niedoskonałe modele mają swoje zakresy zastosowania. Zaś ludzki umysł, jako z natury niedoskonałe narzędzie powstałe w procesie ewolucji ma swoje ograniczenia – choć dziś nadal jest wspanialszy,od wszystkich naszych dotychczasowych maszyn. W istocie zatem – choć to irytujace, należało by przyjąć,że nie wszystko wiemy.To niepokojące. Nic dziwnego,że ludzie uciekają przed widmem niewiedzy w objęcia religii. Rzecz jednak w tym,że choć geny i nasza natura każą nam szukać perfekcyjnych rozwiązań, to w istocie możemy realizować tylko coraz lepsze rozwiązania. Nigdy nie będziemy perfekcyjnie bezpieczni,szczęśliwi itd. Nigdy nie opracujemy perfekcyjnych rozwiązań.Ale nie jest tak źle i nie ma po co panikować.Możemy wypracować rozwiązania wystarczające dla danych warunków i tworzyć coraz lepsze.

Kilka nowości – 6.05.2015

Znów będzie krótko – bardzo krótko:

  • Jak informuje giznet.pl Niemiecki koncern Daimler wprowadza pierwszą autonomiczną ciężarówkę która już została dopuszczona do ruchu.Co prawda tryb autonomiczny ma działać głównie na autostradach. Ściśle rzecz biorąc autonomiczną bardziej z nazwy – gdyż właściwie posiada ona tylko tryb autopilota itd – tym niemniej jest to kolejny krok w stronę pojazdów autonomicznych.
  • Jak również informuje giznet.pl – w oparciu o materiały NASA EM-Drive działa w próżni dając ciąg. Nowa teoria sugeruje,że chodzi o oddziaływanie mikrofal i ich zachowanie oraz o pewne czynniki związane z kwantową próżnią.

Arxiv-kryptografia:

Sztuczna inteligencja – arxiv:

Sieci neuronowe:

Inżynieria oprogramowania:

Inżynieria materiałowa i nanotechnologia – arxiv:

Phys.org:

Mimo że dzisiejsza prasówka jest stosunkowo krótka,przypuszczam,że będzie całkiem interesująca.Pozdrawiam.

PS: znalazłem ciekawe filmiki – może się wam spodobają:

Użyteczne mniej znane narzędzia trybu tekstowego systemu linux

W ostatnim czasie niestety nie miewam za dużo czasu na napisanie naprawdę dobrego dłuższego tekstu.Nie wiem też,czy nie będę musiał na dłuższy czas przerwać pisania tutaj.Jeśli się na to zdecyduję na pewno pojawi się stosowna informacja.

Tymczasem jednak, może choć dla niektórych czytelników interesująca może być lista ciekawych narzędzi dostępnych w systemie Linux o których nie wspomina się w standardowych podręcznikach – uważam,że ma to całkiem sporo sensu. Część z tych aplikacji jest instalowana domyślnie,część trzeba dopiero zainstalować.

  • split – jest z kolei narzędziem do dzielenia plików w systemie Linux. Podział można przeprowadzić na wiele sposobów np:

split -b1m nazwa a

dzieli plik o nazwie „nazwa” na części o rozmiarze 1mb i nazwach zaczynających się na literę „a”.

Jeśli jednak chodzi o archiwa polecam choćby zipsplit.

  • cat – choć jest to stosunkowo prymitywne narzędzie stosowane głównie do wyświetlania zawartości plików można też łączyć ich zawartości. wystarczy wpisać:

cat nazwa1 nazwa2 > nazwa_out

co ciekawe – pliki można też odczytać od końca używając polecenia tac.

  • bc – rodzaj kalkulatora, domyślnie operuje na liczbach całkowitych. wyjście przez „quit”
  • links i lynx – przeglądarki stron www. Pierwsza dysponuje klasycznym menu,druga bywa bardziej kolorowa. Z przeglądarki lynx można wyjść naciskając „q”
  • mc – większość administratorów zapewne i tak korzysta z tego menadżera plików podobnego do Norton Commandera. Wyjście przez komendę F10
  • nano / pico – stosunkowo prosty i przyjemny dla użytkownika edytor tekstu
  • tar – teoretycznie jest narzędziem archiwizacji,jednak jego domyślą funkcją było łączenie plików w 1 dla napędu kasetowego. Można nim zatem zarchiwizować również bez równoczesnej kompresji pliki poleceniem:

tar -cf archive.tar plik1 plik2

  • chroot – uruchamiany z prawami roota program który zmienia katalog główny uruchamianej aplikacji. Choć w teorii niektórzy mogą go traktować jako „coś w rodzaju wirtualizacji” nie jest całkiem bezpieczny i wymaga do uruchomienia konta root.
  • dd – ponieważ w linuksie wszystko jest plikiem, jest to narzędzie do odczytu i kopiowania niestandardowych plików. Z narzędzia dd należy korzystać ostrożnie. Dość powszechnym zastosowaniem jest tworzenie kopii dysków (również dysków twardych), odzyskiwanie danych i nie tylko. dzięki dd można odzyskać skasowane i nie nadpisane pliki. Przykład zastosowania:

dd if=/dev/cdrom of=/home/user/obraz_plyty.iso   -> tworzenie obrazu płytki

  • diff – narzędzie do porównywania zawartości plików

diff plik1 plik2  -> wyświetla różnice

  • factor – narzędzie do faktoryzacji mniejszych liczb (rozkład na czynniki pierwsze)
  • fbi – przeglądarka obrazków (tylko dla konsoli,nie dla jej emulatora ze środowiska graficznego)
  • fbgs – przeglądarka pdf – jak wyżej (uwaga: konwertuje strony do tiff w celu przeglądania)
  • fdisk , cfdisk – narzędzia do partycjonowania dysków
  • find – narzędzie do szukania plików przykładowe wyszukiwanie:

find katalog -name ‚ala_ma_kota’ -> szuka w danym katalogu pliku o nazwie ala_ma_kota

  • lrzip i (w przypadku rozpakowywania plików tar-owanych) lruntar – obok narzędzi do archiwizacji w formacie xz,bzip2 i gzip (oczywiście posiadanie jak największej ilości narzędzi do kompresji/dekompresji jest dobre,a tych 3 właściwie konieczne)jest to jedno z najwydajniejszych narzędzi jakie można zastosować w kompresji plików.Zwłaszcza dużych plików, takich po kilkaset megabajtów.
  • mcrypt – zastępca crypt, systemowe narzędzie do szyfrowania.Stosunkowo prosty, polecałbym raczej gpg.
  • md5sum i sha*sum (np.sha256sum,sha512sum)- narzędzia do sprawdzania sum kontrolnych plików, alternatywnie rhash dla mniej popularnych funkcji
  • mkfs – narzędzie do formatowania dysków (alternatywnie mkdosfs)
  • outguess – narzędzie steganograficzne do ukrywania informacji w obrazkach
  • sc – arkusz kalkulacyjny dla trybu tekstowego
  • vi – nieco starszy i mniej przyjemny w obsłudze edytor tekstu (choć i tak dużo prostszy od emacsa)
  • wc – program do analizy statystyk tekstu w pliku określający ilość linijek,słów znaków.

wc plik

  • zgv – przeglądarka plików graficznych (dla SVGAlib oraz SDL)

Mam nadzieję,że powyższe informacje okażą się przydatne lub przynajmniej ciekawe.Pozdrawiam.