DP-600 Microsoft Fabric Analytics Engineer
Preis Netto: € MwSt.: €
Preis Preis auf Anfrage
Dauer
4 Tage
Standort
Kurssprache englisch
Trainingslösung Online Live
Analytics entwickelt sich von isolierten Tools hin zu vernetzten Plattformen. Im Mittelpunkt steht eine moderne Datenbasis, die Analyse, Engineering und Governance vereint. Der inhaltliche Rahmen verbindet technisches Verständnis mit architektonischem Denken und orientiert sich an realen Anforderungen aus datenintensiven Projekten.
Zentrale Themen
- End-to-End-Datenpipelines in Microsoft Fabric.
- Lakehouse als zentrales Analysefundament.
- Datenmodellierung für analytische Workloads.
- Automatisierung und Orchestrierung.
- Security-, Compliance- und Governance-Konzepte.
- Integration von Reporting- und Analyseebenen.
Voraussetzung
Erfahrung mit Datenstrukturen, SQL, BI- oder Analytics-Umgebungen sowie grundlegende Cloud-Kenntnisse.
Zielgruppe
Fachkräfte aus Data Engineering, Analytics, BI und angrenzenden technischen Bereichen.
Ein ganzheitlicher Blick auf moderne Analytics-Plattformen unterstützt nachhaltige Datenstrategien und fördert souveräne Entscheidungen auf Basis konsistenter, vertrauenswürdiger Daten.
- Gen2-Datenflüsse in Microsoft Fabric analysieren
- Gen2-Datenflüsse erforschen
- Gen2-Datenflüsse und Pipelines kombinieren
- Spark-Datenintegration
- Lakehouse-Datenablage
- Nutzung der erfassten Daten analysieren
- Pipeline-Konzepte begreifen
- Nutzung von Datenkopieraufgaben
- Einsatz von Pipeline-Vorlagen
- Pipeline-Start und -Überwachung
- Microsoft Fabric Lakehouse entdecken
- Arbeiten mit Lakehouse in Microsoft Fabric
- Datenumwandlung im Lakehouse untersuchen
- Medaillon-Architektur erklären
- Medaillon-Architektur umsetzen
- Datenabfragen und Berichtserstellung
- Lakehouse-Management-Strategien
- Spark-Setup und Konfiguration
- Ausführung von Spark-Programmen
- Bearbeitung von Daten im Spark-Datenframe
- Nutzung von Spark SQL für Datenverarbeitung
- Datenvisualisierung in Spark-Notizbüchern
- Delta Lake Konzept
- Erstellung von Deltatabellen
- Spark-Integration mit Deltatabellen
- Deltatabellen für Streaming-Daten nutzen
- Einführung in Data Warehouses
- Data Warehouses in Fabric nutzen
- Datenabfragen und -transformation
- Vorbereitung von Daten für Analysen
- Sicherheit und Monitoring von Data Warehouses
- Datenlade-Methoden untersuchen
- Einsatz von Datenpipelines für Warehouse-Integration
- T-SQL für Datenladen nutzen
- Datenintegration und -transformation mit Dataflow Gen2
- SQL-Editor nutzen
- Visuellen Editor entdecken
- Client-Tools für Warehouse-Abfragen einsetzen
- Überwachung der Kapazität
- Tracking aktueller Prozesse
- Überwachung von Abfragen
- Bedeutung skalierbarer Modelle verstehen
- Best Practices für Power BI-Datenmodellierung anwenden
- Optimierung der Konfiguration großer Datensätze
- Modellbeziehungen analysieren
- Beziehungen konfigurieren
- DAX-Funktionen für Beziehungen anwenden
- Auswertung von Beziehungen verstehen
- DAX-Performance überwachen
- DAX Studio für Fehleranalyse nutzen
- Datenmodell mit Best Practice Analyzer verbessern
- Power BI-Modellzugriff begrenzen
- Modellobjekte in Power BI schützen
- Best Practices für Modellierung nutzen
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00