DP-601 Implementing a Lakehouse with Microsoft Fabric

Preis
Netto
MwSt.

Preis
Preis auf Anfrage

Dauer
1 Tag

Für Unternehmen und Arbeitssuchende:
dieser Kurs ist zu 100 % förderfähig!
 

Standort

Kurssprache
englisch

Trainingslösungen
Online Live

Analytische Anforderungen wachsen stetig, ebenso die Komplexität der zugrunde liegenden Datenlandschaften. Moderne Plattformkonzepte bündeln Verarbeitung, Analyse und Visualisierung in einer einheitlichen Umgebung.

Zentrale Themen

  • Umsetzung einer Lakehouse-Struktur.
  • End-to-End-Datenprozesse mit Microsoft Fabric.
  • Einheitliche Speicherung und Nutzung von Daten.
  • Effiziente Verarbeitung großer Datenmengen.
  • Analyse und Reporting auf gemeinsamer Basis.

Voraussetzung
Praxisnahe Kenntnisse in BI, Datenanalyse oder Cloud-nahen Technologien.

Zielgruppe
Fachkräfte aus Data & Analytics, BI, Data Engineering sowie datenorientierte IT-Rollen.

Ein ganzheitlicher Blick auf moderne Datenarchitekturen unterstützt nachhaltige Analysekonzepte und datenbasierte Entscheidungen.

Als PDF drucken/speichern
Kursinhalte
  • End-to-End-Analysen mit Microsoft Fabric
  • Datenteams und Microsoft Fabric
  • Aktivierung und Nutzung von Microsoft Fabric
  • Microsoft Fabric Lakehouse entdecken
  • Arbeiten mit Lakehouse in Microsoft Fabric
  • Daten im Lakehouse erforschen und umwandeln
  • Vorbereitung auf Apache Spark
  • Spark-Code ausführen
  • Arbeiten mit Spark-Datenframes
  • Mit Spark SQL arbeiten
  • Daten im Spark-Notizbuch visualisieren
  • Delta Lake verstehen
  • Deltatabellen erstellen
  • Mit Deltatabellen in Spark arbeiten
  • Deltatabellen für Streaming-Daten nutzen
  • Dataflows Gen2 in Microsoft Fabric verstehen
  • Dataflows Gen2 in Microsoft Fabric erkunden
  • Integration von Dataflows Gen2 und Pipelines
  • Pipelines verstehen
  • Aktivität "Daten kopieren" nutzen
  • Pipeline-Vorlagen anwenden
  • Pipelines ausführen und überwachen

Häufig gestellte Fragen

  • Vereinheitlichte Datenplattform reduziert Komplexität, beschleunigt Analysen und schafft direkte Entscheidungsgrundlagen aus Rohdaten.
  • Relevant für Rollen rund um Data Engineering, Analytics und BI, wenn skalierbare Datenarchitekturen gefragt sind.
  • Datensilos, langsame Pipelines und inkonsistente Daten verschwinden durch eine integrierte Architektur.
  • Grundlagen in Datenverarbeitung, SQL und Cloud-Konzepten erleichtern den direkten Einstieg und schnellere Umsetzung.
  • Fokus auf reale Szenarien: Datenintegration, Transformation und Analyse mit konkreten Use Cases aus dem Arbeitsalltag.
  • Steigende Datenmengen und Echtzeitanforderungen erhöhen den Bedarf an modernen Plattformen mit zentraler Steuerung.
  • Gefragte Skills im Bereich Data Engineering und Analytics steigern Marktwert und eröffnen neue Projektmöglichkeiten.
  • Strukturierte Datenflüsse und optimierte Architekturen sorgen für schnellere Ergebnisse und bessere Datenqualität.

Hast du weitere Fragen? Bitte kontaktiere uns.