Studia podyplomowe

Data Science – algorytmy, narzędzia i aplikacje dla problemów typu Big Data

REKRUTACJA ZAMKNIĘTA


O studiach

Dane stają się coraz tańsze i wszechobecne. IBM szacuje, że 90 procent istniejących dziś na świecie danych zostało wytworzonych w ostatnich 2 latach. Dane te pochodzą z logów serwerów, urządzeń mobilnych, czujników, instrumentów, transakcji. Przetwarzanie i analiza danych przyczynia się do znajdowania wzorców i regularności w danych, które z kolei pozwalają na poprawę kondycji człowieka, wytworzenie komercyjnej i społecznej wartości.

Na rynku pracy istnieje znaczne, ciągle rosnące zapotrzebowanie na rozumiejących dane profesjonalistów w instytucjach biznesowych, publicznych, organizacjach non-profit. Podaż profesjonalistów mogących pracować efektywnie z dużymi wolumenami danych jest ograniczona i znajduje odzwierciedlenie w rosnących pensjach inżynierów danych, badaczy danych, statystyków i analityków danych. Portal Forbes.pl podaje szacunkowe dane nt. zarobków badaczy danych w USA, które wahają się od 50 tys. USD do 150 tys. USD, zależnie od doświadczenia.

Według Harvard Business Review Data Scientist to najbardziej seksowny zawód XXI wieku.

Zobacz jaki obszar zagadnień obejmuje
Data Science:

Adresaci

Dla kogo są przeznaczone nasze studia?

Studia są przeznaczone dla osób chcących wykorzystywać wiedzę zawartą w dużych wolumenach danych w celu wspierania podejmowania decyzji, w szczególności dla analityków i decydentów z obszaru finansów, bankowości, ubezpieczeń, produkcji, marketingu, handlu, usług, opieki zdrowotnej, branży energetycznej, nauki i innych obszarów działalności. Doświadczenie w pracy z technologiami jest mile widziane (np. podstawowa umiejętność programowania w dowolnym języku, podstawowa znajomość zagadnień związanych z bazami danych i językiem SQL), ale nie jest wymagane.

Dlaczego warto studiować Data Science w Instytucie Informatyki PW?

Studia prowadzone są przez praktyków: osoby na co dzień stosujące narzędzia i metody analizy dużych zbiorów danych w celu rozwiązania konkretnych problemów. Kadrę stanowią zarówno osoby pracujące w biznesie, jak w Instytucie Informatyki Politechniki Warszawskiej, który ma wieloletnie doświadczenie w obszarze eksploracji danych, implementacji systemów eksploracji tekstu, budowy ontologii, wyszukiwania informacji, sztucznej inteligencji.

Dowiedz się więcej

Wizualizacja danych

Jak wizualizacja danych pomaga w biznesie?

Rozmowa Łukasza Kobylińskiego i Piotra Reszki o wartości wizualizacji danych i kompetencjach wymaganych od osób, które zajmują się wizualną analityką danych.

PODCAST

Data Science

Dlaczego wszyscy mówią o Data Science?

O tym, dlaczego zainteresowanie Data Science rośnie z każdym rokiem z rozmowy Łukasza Kobylińskiego i Jakuba Nowackiego

PODCAST

Cel studiów

Celem studiów podyplomowych "Data Science – algorytmy, narzędzia i aplikacje klasy Big Data" jest przekazanie słuchaczom praktycznych umiejętności z zakresu przetwarzania i analizy dużych danych i zapoznanie ich z rolą danych w procesach podejmowania decyzji oraz wykorzystaniem danych jako cennych aktywów strategicznych.

Czego się nauczysz

Po zakończonej nauce Twoje kompetencje wzbogacą się o umiejętność:

  • stosowania metod i narzędzi eksploracji danych
  • programowania w języku R oraz Python na potrzeby analityki dużych danych
  • przetwarzania danych tekstowych
  • stosowania najlepszych praktyk wizualizacji danych
  • używania metod sztucznej inteligencji

Jakie technologie poznasz

Na zajęciach prowadzonych w trybie warsztatowym poznasz od strony praktycznej m.in. następujęce technologie i narzędzia:

  • język Python
  • język R
  • Tableau®
  • SAS® Viya
  • Spark, Kafka, MapReduce
W pakiecie kurs e-learningowy z podstaw Pythona

Dlaczego warto wybrać nasze studia

Nasi wykładowcy

Nasi wykładowcy posiadają bogaty dorobek publikacyjny oraz doświadczenie w realizacji projektów badawczych i komercyjnych, co w połączeniu daje dostęp do eksperckiej wiedzy i praktycznego know-how.

Warsztatowy charakter zajęć

Zajęcia stanowią w większości zajęcia laboratoryjne ukierunkowane na rozwijanie kompetencji i praktycznej znajomości poznawanych narzędzi i technologii.

Najnowsze technologie

Dobór narzędzi i technologii oparty jest o analizę obecnie najpopularniejszych rozwiązań w obszarze Big Data i Data Science.

Renomowana uczelnia

Politechnika Warszawska jest jedną z największych i najlepszych uczelni technicznych w Polsce oraz w Europie Środkowo-Wschodniej. Potwierdzają to wyniki rankingów krajowych oraz zagranicznych, w których uczelnia znajduje się w czołówce klasyfikowanych polskich uczelni technicznych.

Program

Studia obejmują 197 godzin zajęć, w tym 116 godzin zajęć praktycznych w trakcie spotkań weekendowych online w ciągu 2 semestrów. Ukończenie studiów następuje na podstawie egzaminu końcowego.

Celem zajęć jest przybliżenie podstaw wnioskowania statystycznego, a w szczególności budowy modelu statystycznego, estymacji punktowej i przedziałowej, teorii weryfikacji hipotez oraz metod badania zależności między cechami.

Nauczysz się:

Metody i narzędzia eksploracji danych. Podstawowe rozkłady prawdopodobieństwa. Metody konstrukcji estymatorów punktowych i badania ich własności. Przedziały ufności. Podstawowe testy parametryczne. Testowanie zgodności i niezależności cech. Podstawy analizy regresji.

Wykorzystasz:

Język R, RStudio

Programowanie w R

Przedmiot koncentruje się na zaprezentowaniu słuchaczom składni języka R, zaczynając od zagadnień podstawowych, a na średniozaawansowanych kończąc. W trakcie zajęć omawiane będą zarówno tematy ogólnoprogramistyczne, znajdujące zastosowanie w różnych językach programowania, jak również zagadnienia specyficzne dla języka R. Zajęcia poruszać będą również kluczowe kwestie związane z przetwarzaniem danych w R, przy wykorzystaniu najczęściej stosowanej do tego celu biblioteki dplyr.

Nauczysz się:

Wykorzystywać w swojej pracy wszystkie kluczowe elementy składniowe języka R (m.in. zmienne, operatory, typy oraz struktury danych, instrukcje warunkowe, pętle, funkcje). Wydajnie korzystać z języka R, wykorzystując jego specyficzne cechy, takie jak wektoryzowanie operacji, czy wykorzystywanie funkcji „apply” zamiast pętli. Pracować z pakietem dplyr, najpopularniejszym pakietem R, wykorzystywanym podczas przetwarzania danych.

Wykorzystasz:

Język R, środowisko RStudio, bibliotekę tidyverse (tibble, dplyr, readr, stringr).

Programowanie w Python

Przedmiot skupia się na omówieniu kluczowych, z punktu widzenia pracy w Data Science, aspektów składni języka Python. Porusza ponadto najważniejsze zagadnienia związane z przetwarzaniem oraz analizą danych, przy wykorzystaniu najpopularniejszej biblioteki Pythona przeznaczonej do tego celu, czyli Pandas.

Nauczysz się:

Korzystać z najważniejszych elementów składniowych języka Python (m.in. zmiennych, operatorów, prostych i złożonych typów danych, instrukcji warunkowych, pętli, funkcji, klas i obiektów). Programować w sposób funkcyjny oraz obiektowy. Wykorzystywać możliwości biblioteki Pandas podczas przetwarzania oraz analizy danych.

Wykorzystasz:

Python, dystrybucję Anaconda, bibliotekę Pandas.

W ramach przedmiotu omawiane są następujące zagadnienia: wprowadzenie do BigData, skalowalne systemy baz danych na przykładzie Apache Cassandra, składowanie plików na przykładzie Hadoop File System, analiza danych przy użyciu Hadoop Map-Reduce i Apache Spark, zarządzane zasobami, harmonogramowanie i zarządzanie danymi, bezpieczeństwo, integracja.

Nauczysz się:

Ekosystem Hadoopa, HDFS, Formaty plików: text,sequence files, RC, ORC, Parquet, Key-value stores: HBase, Accumulo, Cassandra, In-memory stores: Tachyon, Ignite, Paradygmat MapReduce, Hive, Spark, Kafka.

Wykorzystasz:

Hadoop, MapReduce, Cassandra, HBase, Spark, Hive, Kafka, Python

Prezentacje w ramach przedmiotu obejmują przegląd komercyjnego wykorzystania wybranych metod z obszaru Data Science i Big Data.

Droga modelu uczenia maszynowego: od pomysłu do produktu

W ramach tej części zostanie omówiony proces tworzenia i wdrażania modeli uczenia maszynowego, począwszy od identyfikacji problemu, poprzez zbieranie i analizę danych, budowę modelu, aż po jego wdrożenie i monitorowanie w środowisku produkcyjnym. Przedstawione zostaną kluczowe aspekty, takie jak definicja problemu, wybór i przygotowanie danych, budowanie pipeline'u ETL, oraz testowanie i optymalizacja modelu.

Budowanie wartości w oparciu o dane

W tej części zostaną omówione zastosowania Data Science i Big Data w budowaniu wartości biznesowej i społecznej. Przedstawione zostanie, jak dane stają się kluczowym zasobem w nowoczesnej gospodarce, zilustrowane przykładami firm, takich jak Tesla. Zwrócona zostanie uwaga na znaczenie odpowiedniego pozyskiwania, analizy i wykorzystywania danych oraz na wyzwania, takie jak problemy z jakością danych i potencjalne błędy analityczne. Omówione zostaną tekże różne podejścia do przetwarzania i interpretacji danych oraz rola analityki predykcyjnej i analizy sieciowej w procesie podejmowania decyzji.

Process Mining: Jak wykorzystując własne dane unikać niespodzianek w procesach biznesowych?

W każdej firmie, niezależnie od jej wielkości, efektywność procesów jest kluczowa z punktu widzenia konkurencyjności rynkowej oraz rentowności. To oczywiste. Wiele z tych procesów charakteryzuje jednak organiczny wzrost zachodzący równolegle ze wzrostem firmy czy rozwojem danej linii produktowej lub usługowej. W najlepszym razie proces projektowany jest z wykorzytaniem notacji BPMN, jednak już jego ewolucja i zmiany nie są ani monitorowane, ani dokumentowane.
Narzędzia z grupy Process Intelligence, w szczególności Process Mining przychodzą tutaj na ratunek. Pozwalają zobaczyć proces takim jakim jest on w rzeczywistości, monitorować jego zmiany w czasie a przede wszystkim znajdować źródła optymalizacji.
Zajęcia będą miały miał charakter wprowadzenia do technologii Process Mining. Zostaną omówione główne zagadanienia analityczne związane z analizą procesów w oparciu o dane: a) performance mining, b) analiza wariantów, c) conformance checking, d) źródła oraz przygotowanie danych.
Oprócz teoretycznego wprowadzenia przejdziemy wspólnie przez praktyczne wykorzystanie narzędzia Process Mining używając jako przykładu danych pochodzących z procesu zakupowego (P2P, purchase-to-pay).

Wykorzystanie zasobów informacji niestrukturalnej w dużych przedsiębiorstwach

Architektura informacji, architektura systemów wyszukiwania przetwarzania języka naturalnego, podstawowe zastosowania biznesowe w przedsiębiorstwach: zarządzanie wiedzą, portal dostępu do informacji, aplikacje specjalizowane oparte na sinikach wyszukiwania.

Oprogramowanie SAS Viya, Visual Data Mining and Machine Learning - stanowi uniwersalny framework, który pozwala na łatwe wykorzystanie szeregu metod analitycznych przy budowie liniowych i nieliniowych modeli predykcyjnych oraz technik segmentacyjnych. Tworzone modele wspierają proces podejmowania decyzji z m.in. następujących obszarów: prawdopodobieństwo zajścia zdarzenia, oczekiwana wartość zdarzenia oraz szacowany czas wystąpienia zdarzenia.

Nauczysz się:

Supervised learning: Rodzaje modelowania ze względu na charakter zmiennej objaśnianej, Metody selekcji zmiennych, Techniki imputacji braków danych, Transformacje zmiennych, Drzewa decyzyjne, Regresja, Podstawy sieci neuronowych, Klasyfikacja modeli, Proces scoringu, Wykorzystanie zewnętrznych modeli, np.: R. Unsupervised learning: Techniki klasteryzacji danych, Profilowanie segmentów

Wykorzystasz:

SAS®Viya

Przedmiot obejmuje przegląd gałęzi sztucznej inteligencji i oferowanych przez nie metod przetwarzania dużych zbiorów danych. Działanie poszczególnych klas metod jest badane w trakcie zajęć laboratoryjnych.

Nauczysz się:

Algorytmów ewolucyjnych i genetycznych, metod przeszukiwania przestrzeni stanów, działania sieci neuronowych i konstrukcji systemów eksperckich.

Wykorzystasz:

Python

Przedmiot obejmuje przegląd metod eksploracji danych. W szczególności są tu prezentowane metody odnajdywania zbiorów częstych i reguł asocjacyjnych, metody klasyfikacji, znajdowania wzorców sekwencyjnych i grupowania (clustering). Funkcjonowanie poszczególnych klas prezentowanych metod eksploracji jest badane w trakcie zajęć laboratoryjnych.

Nauczysz się:

Odkrywanie zbiorów częstych przy użyciu algorytmu Apriori, Wyznaczanie reguł asocjacyjnych na podstawie zbiorów częstych, Klasyfikacja z użyciem drzew decyzyjnych, Klasyfikacja z użyciem naiwnego klasyfikatora Bayesowskiego, Klasyfikacja z użyciem wzorców kontrastowych, Ocena jakości klasyfikatora, Wzorce sekwencyjne, Grupowanie gęstościowe, Grupowanie hierarchiczne

Wykorzystasz:

Język R, RStudio

Przedmiot obejmuje przegląd metod automatycznego przetwarzania danych tekstowych. W szczególności są tu prezentowane zagadnienia z zakresu parsowania i struktury języka, analizy statystycznej, analizy gramatycznej, kategoryzacji i grupowania dokumentów, automatycznego tłumaczenia, budowania ontologii, analizy dokumentów hipertekstowych.

Nauczysz się:

Parsing i struktura języka(text corpora, słowa i zdania, tokenization, fleksja), Analiza statystyczna (modele dokumentów, modele języka, collocations, word sense disambiguation), Analiza gramatyczna (POS tagging, parsing, PCFG), Wyszukiwanie informacji, Kategoryzacja i grupowanie dokumentów, Streszczanie dokumentów, Tłumaczenie automatyczne, Wykrywanie słów kluczowych, Budowanie ontologii, Analiza dokumentów hipertekstowych (page rank, SEO), Profilowanie użytkowników, analiza sieci społecznościowych, Analiza zachowania użytkowników (sentiment analysis)

Wykorzystasz:

Python

Przedmiot obejmuje zagadnienia dotyczące najlepszych praktyk wizualizacji danych. W trakcie zajęć omawianych jest 8 typów wizualizacji danych: (i) porównanie części do całości, (ii) analiza w czasie, (iii) analiza relacji, (iv) analiza korelacji, (v) analiza porównawcza, (vi) dystrybuanta, (vii) analiza hierarchii, (viii) analiza przepływu. Rozważane są najczęściej popełniane błędy w wizualizacji danych oraz aktualne trendy w Business Intelligence, między innymi Self-Service Analytics. Podczas zajęć duży nacisk jest kładziony na omówienie najważniejszych koncepcji psychologicznych mających zastosowanie w wizualizacji danych, takich jak: psychologia poznawcza, psychologia Gestalt, prawo Hicksa, psychologia koloru, dopasowanie wzorców, rozpoznawanie twarzy, wpływ społeczny, progresywne ujawnianie, hierarchia potrzeb Maslowa, brzytwa Ockhama, efekt von Restorff. W trakcie zajęć są wyjaśniane pojęcia sygnałów biznesowych (Outliers) oraz koncepcja opowiadania historii przy użyciu danych (Storytelling).

Nauczysz się:

Jak w prosty i zrozumiały sposób pokazać to, co ważne i ukryć to, co nieistotne; Budować dashboard tak, aby użytkownik szybko dotarł do najważniejszych informacji; Dobierać odpowiednie wizualizacje w zależności od typu analizy w oparciu o zasady User Experience Design, Koncepcji wizualizacji danych.

Wykorzystasz:

Tableau®

W pakiecie kurs e-learningowy z podstaw Pythona

W ramach studiów realizowane są zajęcia z programowania w Pythonie dla początkujących. Ukończony kurs e-learningowy stanowi dobre do nich wprowadzenie oraz ułatwienie w opanowaniu materiału dla osób bez doświadczenia programistycznego.

  • 12 godzin nagrań
  • dla zupełnie początkujących, także dla osób bez doświadczenia programistycznego
  • możliwość pracy we własnym tempie
  • zadania sprawdzające opanowanie materiału

Wprowadzenie do środowiska i podstawowe pojęcia

Algorytmy i struktury danych

Programowanie obiektowe

Zaawansowane aspekty programowania obiektowego

Wyjątki i praca na plikach

Wykładowcy

Nasi wykładowcy na co dzień pracują przy dużych projektach biznesowych. Wielu z nich prowadzi zajęcia od pierwszej edycji studiów, nowi prowadzący wybierani są w ramach starannej selekcji. Każdy z nich poza ekspercką znajomością technologii posiada doskonałe umiejętności dydaktyczne zdobyte na salach szkoleniowych, wykładowych, konferencyjnych.

Piotr Adamczyk [MBA] to doświadczony analityk danych, pasjonat wizualizacji i prezentacji danych oraz oprogramowania Tableau. Absolwent ekonometrii na Uniwersytecie Ekonomicznym we Wrocławiu. Buduje i zarządza zespołami konsultantów BI, realizował projekty z obszaru Business Intelligence dla liderów rynkowych z sektora FMCG/Retail, Telekomunikacyjnego, Logistycznego i wielu innych. Od 8 lat wspiera organizacje projektując procesy analityczne oraz budując produkty raportowe dla każdego szczebla zarządczego. Doświadczenie biznesowe zdobywał jako analityk danych, Demand planner w obszarze S&OP.

Marcin Choiński, Data&AI Sr. Director, TVN Warner Bros. Discovery
Pasjonat danych, sztucznej inteligencji oraz ich monetyzacji w zastosowaniach biznesowych. Ekspert i praktyk w dziedzinie zarządzania danymi, zapewniania ich ładu oraz rozwijania kultury organizacyjnej w oparciu o dane, analitykę i AI. Posiada blisko dwudziestoletnie doświadczenie w tworzeniu i wdrażaniu rozwiązań klasy Data Management, Data Governance, oraz AI/ML, w szczególności w branży digital/online i marketingu cyfrowego.
Absolwent Wydziału Elektroniki i Technik Informacyjnych Politechniki Warszawskiej. Od początku kariery zajmował się Hurtowniami Danych i BI, a następnie również MDM, Big Data, Data Science/AI oraz Analityką Biznesową. Pracował jako konsultant m. in. dla globalnych i regionalnych korporacji z branży farmaceutycznej, telekomunikacyjnej i handlowej. Od 8 lat w TVN Warner Bros Discovery odpowiedzialny za dział Data&AI, w tym za zarządzanie zmianą kulturową w obszarze danych, definicję i wdrażanie strategii danych wspierającej realizację strategii biznesowej oraz budowę rozwiązań w obszarze Big Data i AI/ML, w szczególności dla obszaru digital. Kierownik studiów "Big Data i Data Science w zarządzaniu" oraz wykładowca na Akademii Leona Koźmińskiego, jak również wykładowca na studiach podyplomowych oraz MBA Politechniki Warszawskiej. Uprzednio również założyciel i redaktor naczelny portalu BI.PL, trener, główny analityk danych w zespole futbolu amerykańskiego Warsaw Eagles. Hobbystycznie buduje modele analityczne w obszarze sportu, gra w koszykówkę, oraz wędkuje.

Absolwentka Uniwersytetu Warszawskiego na kierunku Informatyka i Ekonometria oraz Szkoły Głównej Handlowej, gdzie ukończyła studia z zakresu Analizy Danych – Big Data. Posiada ponad 7-letnie doświadczenie zawodowe, które od samego początku koncentruje się na danych i ich praktycznych zastosowaniach w biznesie.
Swoje pierwsze doświadczenia zdobywała jako Analityk Customer Insights w Loyalty Partner (Payback), gdzie odpowiadała za analizę zachowań klientów i opracowywanie strategii marketingowych opartych na danych. Obecnie pełni rolę Starszego Konsultanta Analitycznego w SAS Institute, gdzie specjalizuje się w dostarczaniu zaawansowanych rozwiązań analitycznych oraz wdrażaniu technik uczenia maszynowego. Doświadczenie jako wykładowca zdobywała pracując w Polsko-Japońskiej Akademii Technik Komputerowych, gdzie prowadziła zajęcia dotyczące programowania i analizy danych z wykorzystaniem narzędzi SAS.
Na co dzień uczestniczy w kluczowych projektach, które pomagają firmom lepiej zrozumieć dane i przekształcać je w wartościowe informacje biznesowe. Jest certyfikowanym ekspertem SAS Viya, co potwierdza jej zaawansowane umiejętności w zakresie analizy danych i technologii SAS.

Absolwent Politechniki Warszawskiej i Kungliga Tekniska Högskolan w Sztokholmie. Specjalista zagadnień uczenia maszynowego, dużych zbiorów zdanych i modelowania statystycznego. Doświadczenie zdobywał w branży ecommerce, bankowości oraz adtechu, gdzie rozwiązywał problemy związane z systemami rekomendacyjnymi, detekcją fraudów i targetowaniem. Prywatnie pasjonat motoryzacji, futbolu oraz rynku nieruchomości.

Jest autorem, współautorem ponad 100 publikacji naukowych, w tym artykułów w prestiżowych czasopismach naukowych, takich jak Cell, Nature Genetics, Nucleic Acids Research, Bioinformatics, Journal of Clinical Investigation, Genome Research, American Journal of Human Genetics. Głównym celem jego badań jest analiza danych z sekwencjonowania następnej generacji oraz danych z mikromacierzy. Jako doktorant na Politechnice Warszawskiej, dr Gambin był zaangażowany w kilka projektów prowadzonych we współpracy z Baylor Genetics (BG). Ponadto analizował dane aCGH zebrane w BG, w celu zbadania wpływu lokalnej architektury genomu na powstawanie rearanżacji DNA. W ramach stażu podoktorskiego odbytego w laboratorium prof. James’a Lupskiego (BCM, Houston) dr Gambin odegrał znaczącą rolę w odkryciach nowych genów chorobowych zidentyfikowanych w ramach projektu Centers for Mendelian Genomics. Obecnie dr Gambin jest zaangażowany w rozwój i wdrażanie skalowalnych rozwiązań chmurowych na potrzeby analiz genomicznych.

Pasjonat nowoczesnych technologii, poznawania świata przez pryzmat danych oraz nauczania. Miłośnik ciągłego zdobywania i pogłębiania wiedzy. Studiował matematykę w ramach specjalności data science, informatykę, ekonomię oraz zarządzanie. Obecnie pracuje w wolnych chwilach nad doktoratem dotyczącym zagadnień modelowania rynków finansowych z wykorzystaniem złożonych algorytmów predykcyjnych. Od początku kariery zawodowej związany z branżami data science i computer science. Aktualnie zajmuje się kierowaniem oraz realizacją projektów data science dla sektora finansowego. Wcześniej miał okazję pracować nad rozwojem dużych systemów informatycznych opartych o języki Java, Python i R, technologie big data oraz algorytmy data science.

Konrad Jędrzejewski uzyskał tytuł magistra inżyniera elektroniki i telekomunikacji oraz stopień naukowy doktora nauk technicznych w dziedzinie elektroniki odpowiednio w latach 1995 i 2000 na Wydziale Elektroniki i Technik Informacyjnych Politechniki Warszawskiej (oba z wyróżnieniem). Stopień naukowy doktora habilitowanego w dyscyplinie elektronika uzyskał w roku 2014. Od czerwca 2019 roku pracuje na stanowisku profesora uczelni. W roku 1998 ukończył studia na Wydziale Nauk Ekonomicznych Uniwersytetu Warszawskiego uzyskując tytuł magistra na kierunku bankowość i finanse (z wyróżnieniem).

Od 2000 roku pracuje w Instytucie Systemów Elektronicznych na Wydziale Elektroniki i Technik Informacyjnych Politechniki Warszawskiej. W latach 2000-2015 pracował dla NBP kierując projektami i wydziałami. Główne obszary jego działalności naukowo-badawczej to statystyczne i adaptacyjne przetwarzanie sygnałów i informacji, sztuczne sieci neuronowe, przetworniki analogowo-cyfrowe (A/C), w szczególności wykorzystujące oryginalne adaptacyjne algorytmy konwersji A/C, adaptacyjne systemy pomiarowe i telekomunikacyjne, przetwarzanie sygnałów biomedycznych, przetwarzanie sygnałów radiolokacyjnych,. Działalność dydaktyczna obejmuje przedmioty w takich obszarach jak adaptacyjne przetwarzanie sygnałów, teoria informacji, wnioskowanie statystyczne.

Konrad Jędrzejewski jest autorem ponad 80 publikacji naukowych, m.in. artykułów w czasopismach: Measurement, IEEE Transactions on Instrumentation and Measurement, Metrology and Measurement Systems, International Journal of Microwave and Wireless Technology. Jest autorem trzech patentów. Jest członkiem IEEE (senior member), członkiem Polskiego Towarzystwa Informatycznego (PTI), członkiem Polskiego Stowarzyszenia Pomiarów, Automatyki i Robotyki (POLSPAR), członkiem IT Service Management Forum (itSMF) Polska, ekspertem Narodowego Centrum Badań i Rozwoju (NCBiR). Jest członkiem Editorial Board i edytorem (Section Editor) czasopisma ACTA IMEKO oraz edytorem (Section Editor) w International Journal of Electronics and Telecommunications (IJET) i (Associate Editor) w International Journal of Microwave and Wireless Technology. Od marca 2019 roku jest wiceprzewodniczącym Poland Chapter of IEEE Signal Processing Society. Od grudnia 2019 roku jest członkiem zarządu Polskiego Stowarzyszenia Pomiarów, Automatyki i Robotyki (POLSPAR) i sekretarzem Komitetu Pomiarów POLSPAR.

Marzena Bogumiła Kryszkiewicz w roku 1995 uzyskała stopień doktora nauk technicznych w dyscyplinie Informatyka na Wydziale Elektroniki i Technik Informacyjnych Politechniki Warszawskiej, a jej rozprawa doktorska p.t. „Algorytmy redukcji wiedzy w systemach informacyjnych” została wyróżniona. W 2003 r. uzyskała tam stopień doktora habilitowanego w dyscyplinie Informatyka. Za rozprawę habilitacyjną, zatytułowaną „Concise Representations of Frequent Patterns and Association Rules”, otrzymała nagrodę Ministra ENiS w roku 2004. W okresie styczeń-kwiecień 1999 była zatrudniona jako profesor wizytujący w North Carolina University, USA. W latach 2005-2008 pełniła funkcję Prodziekana ds. Nauczania na Wydziale Elektroniki i Technik Informacyjnych PW. W latach 2006-2016 była zatrudniona na stanowisku profesora nadzwyczajnego w Instytucie Informatyki Politechniki Warszawskiej, a od roku 2016 jest tam zatrudniona na stanowisku profesora zwyczajnego (aktualnie zwanego stanowiskiem profesora). Od roku 2009 jest kierownikiem Zakładu Systemów Informacyjnych w tym instytucie. Jest członkiem Rady Naukowej IPI PAN od 2015 r., a od roku 2016 jest starszym rangą członkiem International Rough Set Society IRSS. Od 2019 roku jest członkiem Komitetu Sterującego International Rough Set Society IRSS oraz członkiem Zespołu ds. Stopni Naukowych Rady Naukowej Dyscypliny Informatyka Techniczna i Telekomunikacja w PW. Wypromowała 5 doktorów. Była nagradzana przez Rektora PW za działalność naukową, dydaktyczną i organizacyjną. W roku 2017 została odznaczona Medalem Komisji Edukacji Narodowej. Jej zainteresowania badawcze obejmują: eksplorację danych, odkrywanie wiedzy, zwięzłe reprezentacje wiedzy, w tym reguł asocjacyjnych i wzorców czasowo-przestrzennych, miary oceny reguł asocjacyjnych i decyzyjnych, wydajne wyszukiwanie obiektów podobnych/bliskich, grupowanie, klasyfikację, wykrywanie anomalii, impulsowe sieci neuronowe, rozumowanie w warunkach niepełności i niepewności, zbiory przybliżone, ochronę prywatności. Opublikowała 110 artykułów. Była przewodniczącą konferencji międzynarodowej ISMIS 2011 oraz przewodniczącą komitetów programowych konferencji międzynarodowych RSEISP 2007, RSCTC 2010, CLA 2010, JRS 2014, PReMI 2015, ISMIS 2017, a także przewodniczącą warsztatów międzynarodowej konferencji ECML/PKDD 2011. Recenzowała prace dla międzynarodowych czasopism: IEEE Transactions on Knowledge and Data Engineering, International Journal of Intelligent Systems; International Journal of Information Sciences, Knowledge and Information Systems: An International Journal, Fundamenta Informaticae, Elsevier Data and Knowledge Engineering Journal, Springer Data Mining and Knowledge Discovery Journal, Transactions on Rough Sets Journal, International Journal of Applied Intelligence, European Journal of Operational Research, ARIMA/SACJ Journal.

Dr hab. inż. Marcin Luckner specjalizuje się w praktycznych zastosowaniach uczenia maszynowego i analizy danych. Jego prace naukowe dotyczą wykrywania anomalii i zagrożeń w ruchu sieciowym, analizy danych transportu publicznego, lokalizacji odbiorników telefonii komórkowej.

W ramach Ośrodka Badań dla Biznesu prowadzi projekty badawczo rozwojowe dla firm. Realizował granty Narodowego Centrum Badań i Rozwoju i Narodowego Centrum Nauki. Był kierownikiem badawczych polskiego zespołu w europejskim projekcie z konkursu Horizon 2020 Big Data dotyczącego przetwarzania dużych strumieni danych miejskich. Posiada certyfikaty PRINCE2® Foundationi PRINCE2® Practitioner.

Był członkiem rektorskiego zespołu ds. Innowacyjnych form kształcenia INFOX. Ukończył szkolenia dotyczące Problem Based Learning i Design Thinking. Prowadził warsztaty DT na DTWeek, TEDex i szkolenia dla firm.

Obecnie zatrudniony jest jako asystent naukowo-dydaktyczny w Instytucie Informatyki Politechniki Warszawskiej. Jego zainteresowania badawcze obejmują odkrywanie wzorców sekwencyjnych z danych przestrzenno-czasowych, odkrywanie reguł asocjacyjnych oraz wykorzystanie takich reguł w zadaniach klasyfikacji, a także impulsowe sieci neuronowe, przetwarzanie szeregów czasowych, logiczne bazy danych oraz grupowanie. W roku akademickim 2017/2018 odbył staż naukowy w Knowledge Engineering and Discovery Research Institute (KEDRI) na Auckland University of Technology pracując pod opieką profesora Nikoli Kasabova nad nowymi metodami predykcji zanieczyszczenia powietrza z wykorzystaniem impulsowych sieci neuronowych. W styczniu oraz lutym 2019 odbył wizytę naukową w grupie badawczej OPTIMA kierowanej przez profesora Javiera Del Ser Lorente we firmie Tecnalia Research and Innovation w Kraju Basków. Celem wizyty naukowej było opracowanie nowej metody detekcji anomalii w szeregach czasowych. W okresie październik - grudzień 2019 odbył staż naukowy w Robotics Institute of Carnegie Mellon University, w trakcie którego zajmował się analizą danych związanych z przestępczością.

CEO Astrafox, absolwent Inżynierii Oprogramowania i wykładowca PW. Ekspert Visual Data Science, praktyk z bogatym doświadczeniem wdrożeń systemów Business Intelligence w Polsce i USA. Na co dzień Piotr i jego zespół pomagają Klientom we wszystkich aspektach pracy z narzędziami Business Intelligence: od projektowania KPI, przygotowywania danych, poprzez szkolenia, warsztaty, aż po zaawansowane programowanie i integrację. “Promuje rozwiązania pozwalające skupić się na potrzebach biznesowych a nie technologii. Dzięki narzędziom takim jak Tableau czy Alteryx jestem w stanie zobaczyć i zrozumieć dane, co pozwala na szybkie wyciąganie wniosków oraz podejmowanie właściwych decyzji zmieniających biznes. Moją pasją jest robotyka i astrofizyka, ale zasypiając liczę owce używając Count Distinct…”

Więcej informacji:
https://astrafox.pl/webinary/
https://astrafox.pl/blog/
https://astrafox.pl/tableau-business-intelligence/

Absolwentka wydziału Matematyki i Nauk Informacyjnych Politechniki Warszawskiej, kierunku Matematyka. Od prawie 14 lat związana jest z SAS Institute Polska. Obecnie jako Principal Industry Consultant pracuje w jednostce Customer Intelligence. Do jej głównych obszarów odpowiedzialności należą wdrożenia systemów analitycznych i operacyjnych CRM. Odpowiada m.in. za analizę wymagań biznesowych, projekt i budowę systemów analitycznych, definicję i dostarczenie modeli data mining/machine learning, projekt i budowę oraz optymalizację kampanii marketingowych batch/real-time.

Marek Rupniewski uzyskał stopień doktora w Instytucie Matematycznym Polskiej Akademii Nauk w roku 2009. Wcześniej studiował na Wydziale Elektroniki i Technik Informacyjnych Politechniki Warszawskiej, gdzie w roku 2002 uzyskał tytuł magistra inżyniera na specjalności inżynieria komputerowa oraz na Wydziale Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego, uzyskując tam tytuł magistra matematyki w roku 2004. Od 2003 roku pracuje w Instytucie Systemów Elektronicznych na Politechnice Warszawskiej. Jego badania naukowe koncentrują się wokół teorii przetwarzania sygnałów, a zwłaszcza jej statystycznych aspektów.

Obronił doktorat w Instytucie Informatyki Politechniki Warszawskiej w 2017 roku. Jego zainteresowania badawcze to zastosowania uczenia maszynowego w bankowości i finansach oraz reinforcement learning. Jest autorem oraz współautorem publikacji w prestiżowych czasopismach naukowych z obszaru sztucznej inteligencji, uczenia maszynowego oraz systemów eksperckich. W przeszłości współtworzył pierwszy w Polsce w pełni automatyczny fundusz inwestycyjny. Od 2015 roku kieruje pracami zespołu data science w mBanku, z którym opracował i uruchomił rozwiązania wykorzystujące sztuczną inteligencję oraz uczenie maszynowe m.in do wykrywania fradów transakcyjnych, optymalizacji kampanii marketingowych oraz przewidywania churnu klientów.

Rada programowa

Aby zapewnić aktualność programu studiów konsultujemy dobór tematyki oraz technologii z ekspertami wywodzącymi się ze środowisk akademickiego oraz biznesowego..

Robert Bembenik

Kierownik Studium

Jarosław Chudziak

Experienced CxO; strategist and leader of business and technology transformations; academic lecturer

Krzysztof Dąbrowski

CIO/CTO, mBank S.A.

Piotr Gawrysiak

Profesor Nadzwyczajny, Instytut Informatyki PW

Łukasz Kobyliński

Chief Science Officer, Board Member, Sages

Jakub Koperwas

Adiunkt w Instytucie Informatyki PW, Chief Executive Officer, Board Member, Sages

Radosław Lipiński

Head of Delivery Excellence, Roche Global IT Solution Centre

Mieczysław Muraszkiewicz

Profesor, Instytut Informatyki PW

Jakub Nowacki

Experienced Machine Learning Engineer

Andrzej Olękiewicz

Data Scientist at ZPAV

Robert Stanikowski

Partner and Managing Director, CEE Technology Advantage Practice Leader, The Boston Consulting Group

Paweł Wróblewski

Head of Data Practice at Tietoevry Create Poland

Sprawdź zasady rekrutacji i opłaty

Ze względu na duże zainteresowanie studiami zalecamy skorzystanie z formularza kontaktowego, celem przyspieszenia procesu aplikacji.

Dowiedz się więcej

Partnerzy merytoryczni

logo-img
logo-img
logo-img
logo-img