DP-600 Microsoft Fabric Analytics Engineer

4 Tage

Online Live Training in Englisch

Jetzt Angebot einholen

Du möchtest als Analytics Engineer durchstarten und mit Microsoft Fabric arbeiten? In diesem Kurs lernst du alles, was du brauchst, um Daten effektiv zu integrieren, zu analysieren und zu visualisieren – mit den leistungsstarken Tools der Microsoft-Cloud.

Das lernst du:

  • Datenintegration und -aufbereitung: Daten aus verschiedenen Quellen zusammenführen und für Analysen vorbereiten.
  • Datenpipelines erstellen: Automatisierte Pipelines für die effiziente Datenverarbeitung.
  • Datenmodellierung und Analyse: Daten so modellieren, dass sie für Business Intelligence optimal genutzt werden.
  • Power BI für Visualisierungen: Erstelle ansprechende Dashboards und Berichte.
  • Performance optimieren: Datenlösungen schneller und effizienter gestalten.

Warum dieser Kurs?

  • Praxisorientiert: Direkte Anwendung auf reale Projekte.
  • Flexibel: Lerne in deinem eigenen Tempo.
  • Zertifizierung: Baue dir eine anerkannte Qualifikation auf.

Dieser Kurs ist ideal für Einsteiger und Fortgeschrittene, die ihre Datenfähigkeiten ausbauen und in der Welt der Microsoft-Cloud durchstarten wollen. Werde ein Microsoft Fabric Analytics Engineer und eröffne dir neue Karrieremöglichkeiten!
 

Kursinhalte
  • Verstehen von Datenflüssen (Gen2) in Microsoft Fabric
  • Datenflüsse (Gen2) in Microsoft Fabric erforschen
  • Integration von Datenflüssen (Gen2) und Pipelines in Microsoft Fabric
  • Verbindung zu Daten mit Spark
  • Daten in ein Lakehouse schreiben
  • Überlegungen zur Verwendung der aufgenommenen Daten
  • Verstehen von Pipelines
  • Die Aktivität Daten kopieren verwenden
  • Pipeline-Vorlagen verwenden
  • Ausführen und Überwachen von Pipelines
  • Microsoft Fabric Lakehouse erkunden
  • Arbeiten mit Microsoft Fabric Lakehouses
  • Erforschen und Umwandeln von Daten in einem Lakehouse
  • Beschreiben der Medaillon-Architektur
  • Implementierung einer Medaillon-Architektur
  • Abfragen und Berichte über Daten
  • Überlegungen zur Verwaltung des Lakehouses
  • Vorbereitung auf die Verwendung von Apache Spark
  • Ausführen von Spark-Code
  • Arbeiten mit Daten in einem Spark-Datenframe
  • Arbeiten mit Daten mit Spark SQL
  • Visualisieren von Daten in einem Spark-Notizbuch
  • Delta Lake verstehen
  • Deltatabellen erstellen
  • Mit Deltatabellen in Spark arbeiten
  • Deltatabellen mit Streaming-Daten verwenden
  • Grundlagen von Data Warehouses
  • Data Warehouses in Fabric verstehen
  • Daten abfragen und umwandeln
  • Daten für Analysen und Berichte vorbereiten
  • Data Warehouse sichern und überwachen
  • Strategien zum Laden von Daten erforschen
  • Verwendung von Datenpipelines zum Laden eines Warehouses
  • Daten mit T-SQL laden
  • Laden und Transformieren von Daten mit Dataflow Gen2
  • Den SQL-Abfrage-Editor verwenden
  • Den visuellen Abfrage-Editor erkunden
  • Client-Tools zur Abfrage eines Lagerhauses verwenden
  • Kapazitätsmetriken überwachen
  • Aktuelle Aktivitäten überwachen
  • Abfragen überwachen
  • Beschreibung der Bedeutung skalierbarer Modelle
  • Implementierung von Best Practices für die Datenmodellierung in Power BI
  • Konfigurieren großer Datensätze
  • Verstehen von Modellbeziehungen
  • Beziehungen einrichten
  • DAX-Beziehungsfunktionen verwenden
  • Verstehen der Beziehungsauswertung
  • Performance-Analysator verwenden
  • Fehlersuche in der DAX-Performance mit Hilfe von DAX Studio
  • Optimieren eines Datenmodells mit dem Best Practice Analyzer
  • Beschränkung des Zugriffs auf Power BI-Modelldaten
  • Zugriff auf Power BI-Modellobjekte einschränken
  • Gute Modellierungspraktiken anwenden