In questo corso, lo studente apprenderà gli schemi e le pratiche di data engineering visto che si riferiscono al lavoro con soluzioni analitiche in batch e in tempo reale utilizzando tecnologie della piattaforma dati Azure. Gli studenti inizieranno comprendendo le tecnologie centrali di calcolo e conservazione che vengono usate per costruire una soluzione analitica. Esploreranno poi come progettare layer analitici utili e concentrarsi su riflessioni di stampo data engineering per lavorare con file sorgente. Gli studenti impareranno come esplorare interattivamente i dati conservati in un data lake. Impareranno le varie tecniche di incorporazione che possono essere usate per caricare dati usando le potenzialità di Apache Spark su Azure Synapse Analytics o Azure Databricks, o come incorporare usando pipeline Azure Data Factory o Azure Synapse. Lo studente imparerà anche i diversi modi per trasformare i dati usando le stesse tecnologie impiegate per incorporarli. Durante il corso lo studente dedicherà del tempo ad apprendere come monitorare e analizzare le prestazioni di sistemi analitici in modo che possano ottimizzare le prestazioni di carichi di dati o query emesse nei confronti dei sistemi. Lo studente comprenderà l'importanza di implementare la sicurezza per assicurarsi che i dati siano protetti sia che siano a riposo o in transito. Verrà poi mostrato come possono essere usati i dati in un sistema analitico per creare dashboard o costruire modelli predittivi su Azure Synapse Analytics
Il pubblico principale per questo corso è rappresentato da professionisti nel campo dei dati, architetti dati e professionisti nel campo dell'intelligence aziendale che desiderano approfondire il mondo data engineering e costruire soluzioni analitiche usando le tecnologie con piattaforme dati esistenti su Microsoft Azure. Il pubblico secondario per questo corso è costituito da analisti e ricercatori dati che lavorano con soluzioni analitiche sviluppate su Microsoft Azure.
Gli studenti che avranno successo in questo corso hanno delle conoscenze pregresse nel campo del cloud computing e dei concetti centrali riguardanti i dati, ed esperienza professionale con soluzioni dati.
In particolare, completando:
Module 1: Explore compute and storage options for data engineering workloads
Module 2: Run interactive queries using Azure Synapse Analytics serverless SQL pools
Module 3: Data exploration and transformation in Azure Databricks
Module 4: Explore, transform, and load data into the Data Warehouse using Apache Spark
Module 5: Ingest and load data into the data warehouse
Module 6: Transform data with Azure Data Factory or Azure Synapse Pipelines
Module 7: Orchestrate data movement and transformation in Azure Synapse Pipelines
Module 8: End-to-end security with Azure Synapse Analytics
Module 9: Support Hybrid Transactional Analytical Processing (HTAP) with Azure Synapse Link
Module 10: Real-time Stream Processing with Stream Analytics
Module 11: Create a Stream Processing Solution with Event Hubs and Azure Databricks
Python Base
Python Base
Python Avanzato
Python Avanzato
Deep Learning con Tensor Flow
Deep Learning con Tensor Flow
Copyright ©2023 CEGEKA