Big Data - analiza dużych zbiorów danych od podstaw

Big Data - analiza dużych zbiorów danych od podstaw

Opis szkolenia

Program dwudniowego szkolenia zapewnia wprowadzenie w świat analizy dużych danych. Uczestnicy zdobędą wiedzę na temat definicji i wyzwań związanych z Big Data, poznają popularne technologie oraz narzędzia, takie jak Hadoop, Spark czy Apache Kafka, używane do przechowywania, przetwarzania i analizy danych. Szczegółowe omówienie architektury systemów Big Data pozwoli zrozumieć różne modele architektoniczne oraz ich zastosowania. Poprzez praktyczne ćwiczenia uczestnicy nabiorą umiejętności w zbieraniu, przetwarzaniu oraz analizie danych, co pozwoli im skutecznie wykorzystywać potencjał analizy dużych zbiorów danych w swoich organizacjach. Dodatkowo, przegląd narzędzi świata Big Data pozwoli uczestnikom zapoznać się z praktycznymi aspektami pracy z danymi na dużą skalę.

 

Grupa docelowa tego szkolenia obejmuje osoby z różnych dziedzin, którzy chcą poszerzyć swoją wiedzę i umiejętności z zakresu analizy dużych zbiorów danych. So to specjaliści IT, analitycy danych, naukowcy danych, programiści, specjaliści ds. biznesowych oraz kadra kierownicza zainteresowana wykorzystaniem potencjału Big Data w swoich organizacjach.

Uczestnicy szkolenia mogą wykorzystać zdobytą wiedzę i umiejętności w swojej codziennej pracy na różnych płaszczyznach. Przede wszystkim, będą mogli skuteczniej zarządzać i analizować duże zbiory danych, co pozwoli im podejmować bardziej przemyślane decyzje biznesowe oparte na danych. Zdobyta wiedza pomoże w optymalizacji procesów przetwarzania i analizy danych w organizacji, co może prowadzić do oszczędności czasu i zasobów.

Program szkolenia

Dzień 1

  1. Wprowadzenie do Big Data
    • Definicja i wyzwania Big Data
    • Zastosowania Big Data z case study
    • Big Data a Data Science: powiązania i różnice
  2. Architektura systemów Big Data
    • Popularne technologie i narzędzia do przechowywania, przetwarzania i analizy dużych zbiorów danych
    • Przegląd technologii takich jak Hadoop, Spark, NoSQL, Apache Kafka itp.
  3. Porównanie modeli architektonicznych
    • Omówienie różnych podejść architektonicznych w Big Data
    • Przykłady zastosowań różnych modeli
  4. Zbieranie danych
    • Strategie zbierania danych
    • Skalowalne systemy przechowywania danych, w tym Hadoop Distributed File System (HDFS) i Amazon S3
  5. Bazy danych relacyjne i nierelacyjne
    • Porównanie i różnice między nimi
    • Przykłady zastosowań w kontekście Big Data

 

Dzień 2:

  1. Przetwarzanie danych
    • Przetwarzanie wsadowe i strumieniowe
    • Apache Spark jako narzędzie do przetwarzania dużych zbiorów danych
    • YARN, MapReduce, oraz korzystanie z CLI
    • Korzystanie z klastra na AWS
  2. Formaty danych
    • Partycjonowanie danych
    • Rodzaje formatów danych i transformacje między nimi
    • Ćwiczenia z przetwarzania danych
  3. Analiza danych
    • Metody analizy danych w Big Data
    • Narzędzia do analizy danych
  4. Wizualizacja danych
    • Wizualizacja danych w kontekście Big Data
    • Narzędzia i techniki wizualizacji danych
  5. Skalowalność i wydajność
    • Wyzwania związane ze skalowalnością w Big Data
    • Optymalizacja wydajności systemów Big Data
  6. Przegląd narzędzi świata Big Data
    • Oozie, Flume, Sqoop, Kafka: omówienie i zastosowania
  7. Część warsztatowa
    • Praktyczne ćwiczenia z wykorzystaniem narzędzi i technik omówionych podczas szkolenia
    • Rozwiązywanie problemów związanych z analizą i przetwarzaniem dużych zbiorów danych

 

Informacje podstawowe

Co dostajesz w standardzie?