Corsi

Corso Hadoop Apache Spark


Corso Hadoop Apache Spark

Obiettivi

Corso Hadoop Apache Spark

Hadoop è la piattaforma ideale per la gestione dei Big Data aziendali grazie alle alte prestazione ed un costo contenuto.
Obiettivo del corso Hadoop Apache Spark è quello di acquisire competenze riguardo i concetti teorici, strumenti e tecniche per la progettazione e l’implementazione di procedure per l’analisi avanzata dei Big Data.

Programma del corso

  • Illustrare Hadoop, HDFS, YARN, e l’ecosistema HDP
  • Illustrare alcuni Spark use cases
  • Analizzare e manipolare dati utilizzando Zeppelin
  • Analizzare e manipolare dati utilizzando Spark REPL
  • Illustrare lo scopo e la funzione di RDDs
  • Utilizzare le pratiche di programmazione funzionale
  • Eseguire le trasformazioni ed azioni con Spark
  • Lavorare con Pair RDDs
  • Eseguire Spark queries utilizzando Spark SQL e DataFrames
  • Utilizzare Spark Streaming stateless e window transformation
  • Visualizzare dati, generare reports e collaborare utilizzando Zeppelin
  • Monitorare applicazioni Spark utilizzando Spark History Server
  • Apprendere le linee guida generali per l’ottimizzazione delle applicazioni
  • Utilizzare il data caching per migliorare le performance delle applicazioni
  • Effettuare build e package di applicazioni Spark
  • Effettuare il deploy delle applicazioni nel cluster utilizzando YARN
  • Comprendere gli scopi di Spark MLib

Per chi è interessante.

I partecipanti dovranno avere competenze riguardo i principi della programmazione ed esperienza nello sviluppo software con l’utilizzo di Python oppure Scala. Consigliata la conoscenza di SQL e Data Streaming.

Scopri tutti i corsi di BUSINESS INTELLIGENCE

 

 

 


Contenuti del corso:

  • Illustrare Hadoop, HDFS, YARN, e l’ecosistema HDP
  • Illustrare alcuni Spark use cases
  • Analizzare e manipolare dati utilizzando Zeppelin
  • Analizzare e manipolare dati utilizzando Spark REPL
  • Illustrare lo scopo e la funzione di RDDs
  • Utilizzare le pratiche di programmazione funzionale
  • Eseguire le trasformazioni ed azioni con Spark
  • Lavorare con Pair RDDs
  • Eseguire Spark queries utilizzando Spark SQL e DataFrames
  • Utilizzare Spark Streaming stateless e window transformation
  • Visualizzare dati, generare reports e collaborare utilizzando Zeppelin
  • Monitorare applicazioni Spark utilizzando Spark History Server
  • Apprendere le linee guida generali per l’ottimizzazione delle applicazioni
  • Utilizzare il data caching per migliorare le performance delle applicazioni
  • Effettuare build e package di applicazioni Spark
  • Effettuare il deploy delle applicazioni nel cluster utilizzando YARN
  • Comprendere gli scopi di Spark MLib

Destinatari

I partecipanti dovranno avere competenze riguardo i principi della programmazione ed esperienza nello sviluppo software con l’utilizzo di Python oppure Scala. Consigliata la conoscenza di SQL e Data Streaming.

Data

2,3,4,e 5 ottobre 208 con orario 9-18

Durata

32 ore

Sede

Viale Stelvio, 70 - Milano (MM Maciachini)

Verifica Finale

Si

Compila il modulo per pre-iscriverti

Compilando il modulo effettuerai una pre-iscrizione, l'effettiva iscrizione avverrà solo in seguito al raggiungimento del numero minimo di partecipanti. Un nostro incaricato ti ricontatterà per confermare l'effettivo inizio del corso e per le eventuali modalità di pagamento.


 Autorizzo il trattamento dei miei dati personali ai sensi del D.Lgs. 196/2003. Informativa sulla privacy