DP-700 Microsoft Fabric Data Engineer
Preis Netto: € MwSt.: €
Preis Preis auf Anfrage
Dauer
4 Tage
Standort
Kurssprache englisch
Trainingslösung Online Live
Die Rolle von Data Engineers verändert sich spürbar: Weg von isolierten Pipelines, hin zu integrierten Plattformlösungen. Moderne Werkzeuge bündeln Engineering, Analytics und Governance in einer Umgebung und erfordern neue Kompetenzen.
Zentrale Themen
- Plattformgedanke im Data Engineering.
- Design effizienter Datenflüsse und Architekturen.
- Zusammenarbeit von Datenverarbeitung und Analyse.
- Skalierung, Sicherheit und Kostenkontrolle.
- Best Practices für Betrieb und Weiterentwicklung.
Voraussetzung
Praxiswissen in SQL, grundlegende Datenbankkenntnisse und Erfahrung mit cloudbasierten Datenlösungen.
Zielgruppe
Gedacht für Data Engineers, Analytics Engineers, BI-Entwickler und technisch orientierte Professionals mit Datenfokus.
Das Ergebnis ist ein klar strukturiertes Verständnis moderner Datenplattformen, das technologische Trends einordnet und eine stabile Basis für anspruchsvolle Analytics-Szenarien schafft.
- Dataflows Gen2 in Fabric
- Dataflows Gen2 erkunden
- Dataflows Gen2 & Pipelines verbinden
- Pipeline-Grundlagen
- Kopier-Tool nutzen
- Vorlagen einsetzen
- Abläufe starten & prüfen
- Echtzeit-Analyse verstehen
- Live-Daten in Microsoft Fabric nutzen
- Datenströme erfassen und transformieren
- Speicherung und Zugriff in Echtzeit
- Daten sofort sichtbar machen
- Prozesse automatisch steuern
- Bestandteile von Ereignisströmen
- Ursprünge und Empfänger von Ereignisströmen
- Umwandlungen in Ereignisströmen
- Eventhouse starten
- KQL gezielt einsetzen
- Materialisierte Views und gespeicherte Prozeduren
- End-to-End-Analysen mit Microsoft Fabric
- Datenteams und Microsoft Fabric
- Microsoft Fabric aktivieren
- Microsoft Fabric erkunden
- Lakehouses nutzen
- Daten analysieren und umwandeln
- Apache Spark einrichten
- Spark-Code ausführen
- Daten im Spark-Datenrahmen bearbeiten
- Spark SQL für Daten nutzen
- Daten im Spark-Notebook visualisieren
- Deltasee begreifen
- Deltatabellen entwickeln
- Deltatabellen verbessern
- Spark und Deltatabellen nutzen
- Deltatabellen für Streaming-Daten anwenden
- Medaillon-Struktur erklären
- Medaillon-Architektur in Fabric umsetzen
- Datenabfragen und Reporting im Fabric Lakehouse
- Verwaltung des Lakehouses berücksichtigen
- Einstieg in Echtzeit-Dashboards
- Zusatzfunktionen
- Tipps für optimale Nutzung
- Data Warehouse Grundlagen
- Data Warehouse in Fabric
- Daten abfragen und transformieren
- Daten für Analyse vorbereiten
- Data Warehouse sichern und überwachen
- Datenlade-Methoden untersuchen
- Pipelines für Warehouse
- T-SQL verwenden
- Dataflow Gen2 für Laden & Transformieren
- SQL-Editor nutzen
- Visuellen Editor ausprobieren
- Client-Tools für Warehouse-Abfragen einsetzen
- Kapazität beobachten
- Laufende Prozesse beobachten
- Anfragen überwachen
- Dynamische Maskierung prüfen
- Zeilen-Sicherheit umsetzen
- Spalten-Sicherheit einrichten
- SQL-Rechte konfigurieren
- CI/CD-Konzepte begreifen
- Versionsverwaltung und Git einrichten
- Bereitstellungspipelines aufbauen
- Automatisierung von CI/CD durch Fabric-APIs
- Überwachung verstehen
- Monitor Hub nutzen
- Activator aktivieren
- Fabric-Sicherheit verstehen
- Zugriffsrechte einrichten
- Berechtigungen festlegen
- Fabric-Architektur kennenlernen
- Rolle des Fabric-Admins begreifen
- Sicherheit in der Fabric steuern
- Datenverwaltung innerhalb der Fabric
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00
09:00 - 17:00