DP-700 Microsoft Fabric Data Engineer

Preis
Netto:
MwSt.:

Preis
Preis auf Anfrage

Dauer
4 Tage

Unternehmen und Arbeitsuchende:
dieser Kurs ist zu 100 % förderbar!
 

Standort

Kurssprache
englisch

Trainingslösung
Online Live

Die Rolle von Data Engineers verändert sich spürbar: Weg von isolierten Pipelines, hin zu integrierten Plattformlösungen. Moderne Werkzeuge bündeln Engineering, Analytics und Governance in einer Umgebung und erfordern neue Kompetenzen.

Zentrale Themen

  • Plattformgedanke im Data Engineering.
  • Design effizienter Datenflüsse und Architekturen.
  • Zusammenarbeit von Datenverarbeitung und Analyse.
  • Skalierung, Sicherheit und Kostenkontrolle.
  • Best Practices für Betrieb und Weiterentwicklung.

Voraussetzung
Praxiswissen in SQL, grundlegende Datenbankkenntnisse und Erfahrung mit cloudbasierten Datenlösungen.

Zielgruppe
Gedacht für Data Engineers, Analytics Engineers, BI-Entwickler und technisch orientierte Professionals mit Datenfokus.

Das Ergebnis ist ein klar strukturiertes Verständnis moderner Datenplattformen, das technologische Trends einordnet und eine stabile Basis für anspruchsvolle Analytics-Szenarien schafft.

Als PDF drucken/speichern
Kursinhalte
  • Dataflows Gen2 in Fabric
  • Dataflows Gen2 erkunden
  • Dataflows Gen2 & Pipelines verbinden
  • Pipeline-Grundlagen
  • Kopier-Tool nutzen
  • Vorlagen einsetzen
  • Abläufe starten & prüfen
  • Echtzeit-Analyse verstehen
  • Live-Daten in Microsoft Fabric nutzen
  • Datenströme erfassen und transformieren
  • Speicherung und Zugriff in Echtzeit
  • Daten sofort sichtbar machen
  • Prozesse automatisch steuern
  • Bestandteile von Ereignisströmen
  • Ursprünge und Empfänger von Ereignisströmen
  • Umwandlungen in Ereignisströmen
  • Eventhouse starten
  • KQL gezielt einsetzen
  • Materialisierte Views und gespeicherte Prozeduren
  • End-to-End-Analysen mit Microsoft Fabric
  • Datenteams und Microsoft Fabric
  • Microsoft Fabric aktivieren
  • Microsoft Fabric erkunden
  • Lakehouses nutzen
  • Daten analysieren und umwandeln
  • Apache Spark einrichten
  • Spark-Code ausführen
  • Daten im Spark-Datenrahmen bearbeiten
  • Spark SQL für Daten nutzen
  • Daten im Spark-Notebook visualisieren
  • Deltasee begreifen
  • Deltatabellen entwickeln
  • Deltatabellen verbessern
  • Spark und Deltatabellen nutzen
  • Deltatabellen für Streaming-Daten anwenden
  • Medaillon-Struktur erklären
  • Medaillon-Architektur in Fabric umsetzen
  • Datenabfragen und Reporting im Fabric Lakehouse
  • Verwaltung des Lakehouses berücksichtigen
  • Einstieg in Echtzeit-Dashboards
  • Zusatzfunktionen
  • Tipps für optimale Nutzung
  • Data Warehouse Grundlagen
  • Data Warehouse in Fabric
  • Daten abfragen und transformieren
  • Daten für Analyse vorbereiten
  • Data Warehouse sichern und überwachen
  • Datenlade-Methoden untersuchen
  • Pipelines für Warehouse
  • T-SQL verwenden
  • Dataflow Gen2 für Laden & Transformieren
  • SQL-Editor nutzen
  • Visuellen Editor ausprobieren
  • Client-Tools für Warehouse-Abfragen einsetzen
  • Kapazität beobachten
  • Laufende Prozesse beobachten
  • Anfragen überwachen
  • Dynamische Maskierung prüfen
  • Zeilen-Sicherheit umsetzen
  • Spalten-Sicherheit einrichten
  • SQL-Rechte konfigurieren
  • CI/CD-Konzepte begreifen
  • Versionsverwaltung und Git einrichten
  • Bereitstellungspipelines aufbauen
  • Automatisierung von CI/CD durch Fabric-APIs
  • Überwachung verstehen
  • Monitor Hub nutzen
  • Activator aktivieren
  • Fabric-Sicherheit verstehen
  • Zugriffsrechte einrichten
  • Berechtigungen festlegen
  • Fabric-Architektur kennenlernen
  • Rolle des Fabric-Admins begreifen
  • Sicherheit in der Fabric steuern
  • Datenverwaltung innerhalb der Fabric

Hast du weitere Fragen? Bitte kontaktiere uns.