Beschreibung
In dieser 3-tägigen Schulung "Databricks Lakehouse Grundlagen" lernen Sie, die Databricks-Plattform als zentrales System für Data Engineering und Analytics zu verstehen und operativ zu nutzen. Sie verstehen die Lakehouse-Architektur (Control Plane vs. Data Plane), beherrschen Unity Catalog als Governance-Instanz, implementieren stabile Tabellenstrukturen mit Delta Lake 4.0 und wenden das Medallion-Prinzip für Datenmodellierung an. Nach dem Kurs können Sie Serverless Compute effizient für SQL- und Engineering-Workloads nutzen sowie Photon Engine, Liquid Clustering und Lakeflow Connect produktiv einsetzen.
Zu unserer Schulung Databricks Lakehouse Grundlagen
Zur Übersicht unserer Databricks Schulungen
Inhalte
Lakehouse-Plattform & Architektur
- Architektur-Schichten: Storage/Data/Control Plane
- Photon Engine: Vektorisierter C++ Query-Optimizer
- Compute-Typen: Serverless SQL vs. Classic/Job Clusters
- Workspace-Struktur: Repos, Dashboards, Git-Integration
Delta Lake 4.0 – Der Speicherstandard
- Liquid Clustering: Dynamische Datenorganisation
- Variant-Datentyp: Native JSON-Verarbeitung
- Delta UniForm: Iceberg/Hudi-Interoperabilität
- ACID-Transaktionen, Time Travel, Schema Evolution
Unified Governance mit Unity Catalog
- Drei-Ebenen-Namespace: catalog.schema.table
- Fine-grained Access Control (RBAC)
- Data Lineage & External Locations
- Metadata Management
Data Engineering Fundamentals
- Lakeflow Connect: Native Ingestion-Konnektoren
- Medallion-Architektur: Bronze/Silver/Gold Layers
- Delta Live Tables (DLT): Declarative ETL + Data Quality
- Workflows: Multi-Task Jobs, CI/CD, Autoscaling
Databricks SQL & Analytics
- SQL Warehouse Management & Query Editor
- Dashboards, Materialized Views, Lakehouse Federation
- Direct Lake Queries (Power BI) & Alerts
Performance, Skalierung & Best Practices im Lakehouse-Betrieb
- Analyse und Optimierung typischer Performance-Engpässe in gewachsenen Databricks-Umgebungen unter realen Budget- und Governance-Vorgaben
- Praxisnahe Leistungsverbesserung bestehender SQL- und Engineering-Workloads mit Photon Engine, Serverless Compute und Liquid Clustering
- Vereinfachung von Tabellenlayouts, Partitionierung und Caching zur Reduktion von Betriebsaufwand und Kosten
- Skalierbarer, stabiler Betrieb von Ingestion-, ETL- und Job-Workflows mit Lakeflow Connect, Delta Live Tables und kontrolliertem Autoscaling
- Erkennen und Vermeiden typischer Anti-Patterns aus Konzern- und KMU-Projekten sowie Ableitung konkreter Maßnahmen für die eigene Lakehouse-Architektur
Weitere Infos
Haben Sie Fragen zu diesem Kurs? Füllen Sie das folgende Formular aus und wir melden uns bei Ihnen.
Über den Anbieter

New Elements GmbH / IT-Schulungen.com
Ein zertifizierter Anbieter für qualitativ hochwertige Kurse und Schulungen.
Mehr über New Elements GmbH / IT-Schulungen.com