2009-02-16
Piwnice, Toruń i Kitt Peak, Arizona
Zrobiłem krótki film poklatkowy używając obrazów z kamer internetowych obserwatorium w Piwnicach, pod Toruniem. Napisałem krótki skrypt bashowy, który używając wget, ściągał jpega co 6 sekund. Obraz jest cienkiej jakości i nieostry, ale na filmie wygląda trochę lepiej. Na filmie antena wydaje się mniejsza niż jest rzeczywistości, a ma 32 metry średnicy, albo bardziej obrazowo: więcej niż rubinkowski 11-piętrowiec albo prawie trzy miejskie autobusy; jest całkiem spora. Więcej o teleskopie na oficjalnej stronie.
32m Radio telescope - time-lapse on Vimeo.
Muzyka: Aphex Twin - White Blur 1 (fragment)
Planowałem zrzucać obraz przez tydzień i wybrać najlepsze kąski, ale po jednym dniu kamera przestała wrzucać nowe zdjęcia (to ja zepsułem? ;)). Dopiero niedawno kamera odżyła. Poza tym ciągle było szaro, buro. Na szczęście dziś było czyste niebo i dzięki temu udało mi się uchwycić trochę ruchu chmur i światło zachodzącego słońca.
Nie miałem za to problemów z dobrą pogodą ściągając obraz z kompleksu teleskopów obserwatorium Kitt Peak w Arizonie (tam zawsze jest świetne niebo):
Kitt Peak National Observatory - Time-lapse on Vimeo.
Muzyka: Kevin Shields - Lost in Translation OST - Ikebana (fragment)
Można też zobaczyć to miejsce w Google Street View i Google Maps.
Ściągałem jeszcze obraz z innych obserwatoriów, ale przez większość czasu anteny były mało ruchliwe, miały w tle brzydką pogodę - mało się działo. Będę musiał spróbować za kilka miesięcy.
Wiem, że nie jest to nic bardzo wyszukanego, bo wiele obserwatoriów udostępnia zapisy time-lapsów z każdego dnia i umieszcza na stronie automatycznie. Ale takie Piwnice na przykład nie udostępniają, a na widoku z kamery na żywo ruch prawie nie jest widoczny, bo za wolny. Poza tym fascynuję się tym jak dzisiaj można robić takie rzeczy tylko przez pisanie skryptów i podawanie odpowiednich linków do miejsc z całego świata, siedząc cały czas w bloku, gdzieś na osiedlu w Toruniu.
32m Radio telescope - time-lapse on Vimeo.
Muzyka: Aphex Twin - White Blur 1 (fragment)
Planowałem zrzucać obraz przez tydzień i wybrać najlepsze kąski, ale po jednym dniu kamera przestała wrzucać nowe zdjęcia (to ja zepsułem? ;)). Dopiero niedawno kamera odżyła. Poza tym ciągle było szaro, buro. Na szczęście dziś było czyste niebo i dzięki temu udało mi się uchwycić trochę ruchu chmur i światło zachodzącego słońca.
Nie miałem za to problemów z dobrą pogodą ściągając obraz z kompleksu teleskopów obserwatorium Kitt Peak w Arizonie (tam zawsze jest świetne niebo):
Kitt Peak National Observatory - Time-lapse on Vimeo.
Muzyka: Kevin Shields - Lost in Translation OST - Ikebana (fragment)
Można też zobaczyć to miejsce w Google Street View i Google Maps.
Ściągałem jeszcze obraz z innych obserwatoriów, ale przez większość czasu anteny były mało ruchliwe, miały w tle brzydką pogodę - mało się działo. Będę musiał spróbować za kilka miesięcy.
Wiem, że nie jest to nic bardzo wyszukanego, bo wiele obserwatoriów udostępnia zapisy time-lapsów z każdego dnia i umieszcza na stronie automatycznie. Ale takie Piwnice na przykład nie udostępniają, a na widoku z kamery na żywo ruch prawie nie jest widoczny, bo za wolny. Poza tym fascynuję się tym jak dzisiaj można robić takie rzeczy tylko przez pisanie skryptów i podawanie odpowiednich linków do miejsc z całego świata, siedząc cały czas w bloku, gdzieś na osiedlu w Toruniu.
2009-02-01
Wsteczna propagacja błędu vs. Renoir
UPDATE (2012-11-25): I get many google search hits from people looking for general information on backpropagation algorithm. Here's a very good introduction: sparseAutoencoder.pdf. These notes are from lecture on autoencoders, but the first half is a description of backpropagation algorithm, with practical hints on how to implement it.
Kilka dni temu rozmawiałem z Dziadkiem, Pablo i Qflem o zadaniu, które mieli na przedmiocie Sztuczne Sieci Neuronowe. Polegało na próbie nauczenia warstwowej sieci neuronowej obrazka, za pomocą wstecznej propagacji błędów. Na wejściu jest pozycja (x, y), a na wyjściu ma kolor (r, g, b). Miałem ten przedmiot (dwa lata temu), dlatego wszystko co potrzebne do zbudowania takiej sieci miałem gotowe. Program był gotowy w niecałą godzinę.
Poniżej jest wideo pokazujące kilka testowych przebiegów algorytmu przy różnych konfiguracjach warstw ukrytych i różnej stałej uczenia. Na dole jest numer iteracji ("iter") oraz błąd względem oryginału ("err" i wykres). U góry jest stała uczenia ("eta") i konfiguracja sieci - przykładowo "2x32x16x3" oznacza, że są 2 neurony wejściowe (x, y), 3 wyjściowe (r, g, b) oraz dwie warstwy ukryte, kolejno po 32 i 16 neuronów).
Artificial Neural Network Backpropagation - Renoir on Vimeo.
Muzyka: Zavoloka - Nude Brainitta
Nie jest to może bardzo ciekawe i raczej mało przydatne - po prostu byłem ciekaw jak to wyjdzie. Dużo więcej nie planuję z tym robić, bo mam inne rzeczy na głowie... chociaż może spróbuję jeszcze jeden/dwa pomysły :).
UPDATE: ciąg dalszy
Kilka dni temu rozmawiałem z Dziadkiem, Pablo i Qflem o zadaniu, które mieli na przedmiocie Sztuczne Sieci Neuronowe. Polegało na próbie nauczenia warstwowej sieci neuronowej obrazka, za pomocą wstecznej propagacji błędów. Na wejściu jest pozycja (x, y), a na wyjściu ma kolor (r, g, b). Miałem ten przedmiot (dwa lata temu), dlatego wszystko co potrzebne do zbudowania takiej sieci miałem gotowe. Program był gotowy w niecałą godzinę.
Poniżej jest wideo pokazujące kilka testowych przebiegów algorytmu przy różnych konfiguracjach warstw ukrytych i różnej stałej uczenia. Na dole jest numer iteracji ("iter") oraz błąd względem oryginału ("err" i wykres). U góry jest stała uczenia ("eta") i konfiguracja sieci - przykładowo "2x32x16x3" oznacza, że są 2 neurony wejściowe (x, y), 3 wyjściowe (r, g, b) oraz dwie warstwy ukryte, kolejno po 32 i 16 neuronów).
Artificial Neural Network Backpropagation - Renoir on Vimeo.
Muzyka: Zavoloka - Nude Brainitta
Nie jest to może bardzo ciekawe i raczej mało przydatne - po prostu byłem ciekaw jak to wyjdzie. Dużo więcej nie planuję z tym robić, bo mam inne rzeczy na głowie... chociaż może spróbuję jeszcze jeden/dwa pomysły :).
UPDATE: ciąg dalszy
Labels: neuron
Starsze posty dostępne w archiwum