Seminarinhalt
In diesem Training werden die leistungsstarken Funktionen von Apache Spark für die verteilte Datenverarbeitung sowie die wesentlichen Techniken für effizientes Datenmanagement, Versionierung und Zuverlässigkeit durch die Arbeit mit Delta-Lake-Tabellen untersucht.
Zusätzlich werden in diesem Training auch die Datenaufnahme und -inszenierung mithilfe von Dataflows Gen2- und Data Factory-Pipelines untersucht.
Dieser Training umfasst eine Kombination aus Vorlesungen und praktischen Übungen, die Sie auf die Arbeit mit Lakehouses in Microsoft Fabric vorbereiten.
Programm
- Introduction
- Explore end-to-end analytics with Microsoft Fabric
- Data teams and Microsoft Fabric
- Enable and use Microsoft Fabric
- Knowledge Check
- Introduction
- Explore the Microsoft Fabric Lakehouse
- Work with Microsoft Fabric Lakehouses
- Exercise - Create and ingest data with a Microsoft Fabric Lakehouse
- Introduction
- Prepare to use Apache Spark
- Run Spark code
- Work with data in a Spark dataframe
- Work with data using Spark SQL
- Visualize data in a Spark notebook
- Exercise - Analyze data with Apache Spark
- Knowledge check
- Introduction
- Understand Delta Lake
- Create delta tables
- Work with delta tables in Spark
- Use delta tables with streaming data
- Understand Dataflows (Gen2) in Microsoft Fabric
- Explore Dataflows (Gen2) in Microsoft Fabric
- Integrate Dataflows (Gen2) and Pipelines in Microsoft Fabric
- Understand pipelines
- Use the Copy Data activity
- Use pipeline templates
- Run and monitor pipelines
- Describe medallion architecture
- Implement a medallion architecture in Fabric
- Query and report on data in your Fabric lakehouse
- Considerations for managing your lakehouse
Zielgruppen
Er richtet sich an Fachleute, die Wissen über die Lakehouse-Architektur, die Microsoft Fabric-Plattform und die Möglichkeit der umfassenden Analyse mithilfe dieser Technologien erwerben möchten.