To jest czwarte podejście do napisania wstępu by nie był zbyt nudny - wykorzystajmy sprawdzoną mieszankę listy wypunktowanej i hiszpańskiej finezji!!
- Masa ciekawych prezentacji na JUGu tej jesieni! KLIKNIJ W KALENDARZ - OLEEEEEEE!
- I do tego dalsze warsztaty ze Scali - OLEEEEEEE!
- Raz w kontekście nauki Sparka - OLEEEEEEE!
- "A co to jest spark?"
- To się własnie dowiesz - OLEEEEEEEEEE!
- A dwa to ciekawsza nauka języka poprzez stopniowa naukę programowania funkcyjnego - OLEEEEEEE!
Lista planowanych spotkań :
- Apache Spark - Wprowadzenie
- Apache Spark - Aspekty bardziej zaawansowane
- Apache Spark - Dataframes
- Apache Spark - Machine Learning podstawy
Po najlepszym wstępnie, który byłem w stanie wymyślić przychodzi część dalsza...
Spark i łatwiejsza nauka
Jeśli kogoś interesuje temat BigData, który ostatnio nazywa się FastData albo InnaData (chociaz IData może być już opatentowana) to Spark przedstawia dosyć ciekawe aspekty edukacyjne. Bo o ile aby napisać "Hadoop hello world" albo trzeba ogarnąć jakiś obraz na maszynę wirtualną albo przebrnąć przez konfigurację kilku xmli to w przypadku Sparka - 1) ściągamy zipa 2) rozpakowujemy 3) startujemy konsolę ... i można działać!
Oczywiście problemy mogę pojawić się na windowsie ale nie będę śmiał się z windowsa bo bill gates podobno wydaje na poprawe życia krajach trzeciego świata niż ludzie wyslali lajków pod demotami na fejsie. W każdym razie...
Polecana platforma do nauki to Ubuntu i generalnie można działać. Widziałem próby ruszenia warsztatów z hadoopem i to bolało a tutaj powinno być łatwo bo ---> uwaga, pojawia się drugi fajny buzzword ---> Spark jest stworzony przez ludzi od DATASCIENCE i oni są przyzwyczajeni, że narzędzia są dla nich łatwe i przyjazne w użyciu (i w sumie fajnie)
Ciekawsza informatyka i zmierzch "risorsa"
Dlaczego warto się nauczyć Sparka i Machine Learning? Zanim zajmiemy się innymi zachętami - najpierw motywator klasyczny :
Teraz można by zrobić długi wywód o homeostazie i ujemnym sprzężeniu zwrotnym w ekonomii ale tak na logike - jak ktoś nie chce robić całe życie CRUDów to musi się nauczyć czegoś innego aniżeli CRUDów (no chyba, że chce robić CRUDy, płacić raty i czuć spełnienie poprzez nowy kredens - to jest kwestia dyskusyjna czy model Cobolowy da się powtórzyć kiedy nowe technologie napierdalaja z taką prędkością, że stare systemy może zacząć sie opłacać przepisywać aniżeli utrzymywać?). I co innego na przykład można robić? NA edx był w wakacje ciekawy "Scalable Machine Learning" także na sparku i tam był ciekawy problem do rozwiązania:
Jest zeskanowany mózg myszy :I teraz trzeba go obrobić i generalnie taki skan to jest własnie dużo danych i trzeba to robić mądrze :
I wiele innych ciekawych rzeczy - jak na przykąłd analiza białek coś tam coś tam DNA coś tam
A jak to nie przemawia to jeszcze raz
Jaki to ma związek ze scalą? Spark jest napisany w Scali i jest to język dla niego natywny. I w sumie na czymś tak praktycznym nauka powinna być przyjemniejsza. Plus jest coś jeszcze jeden front...
A jeśli nic z tego cie drogi czytelniku nie przekonało do przyjścia na warsztaty - to zazwyczaj jest też darmowa pizza.
FP i życie codzienne
Zaraz po mobilizacji 22 października zrobię wykład na podstawie książki - https://manning.com/books/functional-and-reactive-domain-modeling. Generalnie jeśli tylko uda się wyminąć flejma OOP vs FP to otwiera się pola do naprawdę niesamowitych konstrukcji.
Jeśli temat podchwyci to i z tego tez będą jakieś warsztaty. A niezależnie od tego Artur Czajka rozpocznie serię o programowaniu funkcyjnym z Haskellem :
- Myslenie funkcyjne z Haskellem - warsztaty
- 29 października Artur Czajka - Wykład o Monadach - meetup wkrótce
Na nowy rok
Gorąco zachęcam wszystkich do uczestniczenia w budowie społeczności IT w Łodzi.
I Ogólnie polecam mniej tego :A więcej tego :
Brak komentarzy:
Prześlij komentarz