DP-601 Implementing a Lakehouse with Microsoft Fabric
Preis Netto € MwSt. €
Preis Preis auf Anfrage
Dauer
1 Tag
Standort
Kurssprache englisch
Trainingslösungen Online Live
Analytische Anforderungen wachsen stetig, ebenso die Komplexität der zugrunde liegenden Datenlandschaften. Moderne Plattformkonzepte bündeln Verarbeitung, Analyse und Visualisierung in einer einheitlichen Umgebung.
Zentrale Themen
- Umsetzung einer Lakehouse-Struktur.
- End-to-End-Datenprozesse mit Microsoft Fabric.
- Einheitliche Speicherung und Nutzung von Daten.
- Effiziente Verarbeitung großer Datenmengen.
- Analyse und Reporting auf gemeinsamer Basis.
Voraussetzung
Praxisnahe Kenntnisse in BI, Datenanalyse oder Cloud-nahen Technologien.
Zielgruppe
Fachkräfte aus Data & Analytics, BI, Data Engineering sowie datenorientierte IT-Rollen.
Ein ganzheitlicher Blick auf moderne Datenarchitekturen unterstützt nachhaltige Analysekonzepte und datenbasierte Entscheidungen.
- End-to-End-Analysen mit Microsoft Fabric
- Datenteams und Microsoft Fabric
- Aktivierung und Nutzung von Microsoft Fabric
- Microsoft Fabric Lakehouse entdecken
- Arbeiten mit Lakehouse in Microsoft Fabric
- Daten im Lakehouse erforschen und umwandeln
- Vorbereitung auf Apache Spark
- Spark-Code ausführen
- Arbeiten mit Spark-Datenframes
- Mit Spark SQL arbeiten
- Daten im Spark-Notizbuch visualisieren
- Delta Lake verstehen
- Deltatabellen erstellen
- Mit Deltatabellen in Spark arbeiten
- Deltatabellen für Streaming-Daten nutzen
- Dataflows Gen2 in Microsoft Fabric verstehen
- Dataflows Gen2 in Microsoft Fabric erkunden
- Integration von Dataflows Gen2 und Pipelines
- Pipelines verstehen
- Aktivität "Daten kopieren" nutzen
- Pipeline-Vorlagen anwenden
- Pipelines ausführen und überwachen
- Vereinheitlichte Datenplattform reduziert Komplexität, beschleunigt Analysen und schafft direkte Entscheidungsgrundlagen aus Rohdaten.
- Relevant für Rollen rund um Data Engineering, Analytics und BI, wenn skalierbare Datenarchitekturen gefragt sind.
- Datensilos, langsame Pipelines und inkonsistente Daten verschwinden durch eine integrierte Architektur.
- Grundlagen in Datenverarbeitung, SQL und Cloud-Konzepten erleichtern den direkten Einstieg und schnellere Umsetzung.
- Fokus auf reale Szenarien: Datenintegration, Transformation und Analyse mit konkreten Use Cases aus dem Arbeitsalltag.
- Steigende Datenmengen und Echtzeitanforderungen erhöhen den Bedarf an modernen Plattformen mit zentraler Steuerung.
- Gefragte Skills im Bereich Data Engineering und Analytics steigern Marktwert und eröffnen neue Projektmöglichkeiten.
- Strukturierte Datenflüsse und optimierte Architekturen sorgen für schnellere Ergebnisse und bessere Datenqualität.