Dieser vier Tage umfassende, von Experten geleitete Kurs bietet Ihnen eine praxisnahe Einführung in die Entwicklung und Umsetzung von Datenverarbeitungssystemen auf der Google Cloud Platform. Mit einer Mischung aus Präsentationen, Live-Demos und interaktiven Labs lernen Sie, wie Sie Datenverarbeitungssysteme entwerfen, End-to-End-Datenpipelines erstellen, Daten analysieren und maschinelles Lernen anwenden. Dabei stehen strukturierte, unstrukturierte und gestreamte Daten im Fokus, um Ihnen ein umfassendes Verständnis moderner Datenverarbeitung zu vermitteln.
Introduction to Data Engineering Building a Data Lake Building a Data Warehouse Introduction to Building Batch Data Pipelines Executing Spark on Cloud Dataproc Serverless Data Processing with Cloud Dataflow Manage Data Pipelines with Cloud Data Fusion and Cloud Composer Introduction to Processing Streaming Data Serverless Messaging with Cloud Pub/Sub Cloud Dataflow Streaming Features High-Throughput BigQuery and Bigtable Streaming Features Advanced BigQuery Functionality and Performance Introduction to Analytics and AI Prebuilt ML model APIs for Unstructured Data Big Data Analytics with Cloud AI Platform Notebooks Production ML Pipelines with Kubeflow Custom Model building with SQL in BigQuery ML Custom Model building with Cloud AutoML In diesem Kurs erwerben Sie die folgenden Fähigkeiten: Datenverarbeitungssysteme auf der Google Cloud Platform entwickeln Batch- und Streamingdaten durch die Implementierung von Autoscaling-Datenpipelines auf Cloud Dataflow verarbeiten Mit Google BigQuery Geschäftsinformationen aus extrem großen Datasets ableiten Modelle des maschinellen Lernens mit TensorFlow und Cloud ML trainieren, auswerten und mit ihnen Vorhersagen treffen Unstrukturierte Daten mit Spark und ML-APIs auf Cloud Dataproc nutzen Sofortige Informationsgewinnung aus Streamingdaten ermöglichen Offizielle Google Cloud Unterlagen.
Dieser Kurs ist speziell für erfahrene Entwickler konzipiert, die Big-Data-Transformationen verantworten. Dazu gehören Aufgaben wie: Extraktion, Laden, Transformation, Bereinigung und Validierung von Daten. Entwicklung von Pipelines und Architekturen für die Datenverarbeitung. Erstellung und Wartung von Modellen für maschinelles Lernen und Statistik. Abfrage von Datensätzen, Visualisierung von Ergebnissen und Erstellung von Berichten.
Grundkenntnisse in gängigen Abfragesprachen wie SQL Kenntnisse in Datenmodellierung, Extraktion, Transformation und Ladeaktivitäten Kenntnisse im Entwickeln von Anwendungen mit einer gängigen Programmiersprache wie Python Vertrautheit mit maschinellem Lernen und/oder Statistik
Die Preise verstehen sich bei Unternehmern gemäß § 14 BGB zzgl. MwSt. Der dargestellte Preis entspricht dem verfügbaren Gesamtpreis für eine (1) teilnehmende Person.
Rufen Sie uns an, schreiben eine E-Mail oder nutzen das Kontaktformular.
Jetzt anfragenWir freuen uns über Ihre Anfrage und antworten so schnell es geht!