Docker-Container automatisiert nach AWS deployen

Mit Docker ist es einfach geworden, Applikationen lokal zu starten, ohne zusätzliche Abhängigkeiten installieren zu müssen. Einen Cluster auf seinem eigenen Rechner laufen zu lassen ist kein großes Ding mehr. Mit ECS bietet AWS einen Container-Management-Service für die Cloud an, der verspricht, Container entsprechend ihrem Ressourcenbedarf und Verfügbarkeitserfordernissen automatisch im Cluster zu platzieren.

Aber was passiert dazwischen? Und ist es wirklich so einfach?

In diesem Talk werden wir betrachten, welche existierenden Services von AWS verwendet werden können, um Container automatisch zu deployen, und was zusätzlich alles benötigt wird, um sie im Betrieb laufen zu lassen.

Vorkenntnisse

Grundlagenwissen und erste Erfahrungen zu AWS und Docker

Lernziele

Nach dem Vortrag sollten die Teilnehmer eine gute Übersicht darüber haben, wie sich Container auf AWS deployen lassen. Sie sind außerdem in der Lage, die richtige Entscheidungen bei ihren eigenen Anwendungsfällen zu treffen.

 

Agenda

ab 8.30 Uhr Registrierung und Begrüßungskaffee

9.30 Uhr Beginn

Intro

Machine Learning

  • Was ist Machine Learning?
  • Der typische ML Workflow
  • Was sind neuronale Netze?
  • Jupyter Lab mit Python
  • Eine Einführung in TensorFlow
  • Keras als High-Level API für TensorFlow

Praxisteil: Deep Learning Modelle mit Keras

  • Datengeneratoren
  • Datasets explorativ analysieren
  • Hold-Out vs. Cross Validation

11.00 - 11.15 Uhr: Kaffeepause

Praxisteil: Deep Learning Modelle mit Keras

  • Feed-Forward Netzarchitektur
  • Convolutional Neural Networks als Deep Learning Ansatz
  • Evaluation und Visualisierung des Modells

12.30 - 13.30 Uhr: Mittagspause

Pipelines mit Luigi

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

Praxisteil: Den Keras-Workflow mit Luigi implementieren

  • Anforderungen an produktive Modelle
  • Übersicht über Luigi und dessen Module
  • Bau eines Beispiel-Workflows

15.30 - 15.45 Uhr: Kaffeepause

Praxisteil: TensorFlow-Serving

  • Übersicht über TensorFlow-Serving
  • Ladestrategien konfigurieren
  • Deployment des Modells

ca. 17.00 Uhr: Ende

 

Referent

 

Philipp Garbe Philipp Garbe ist Lead Developer bei AutoScout24 in München. Seit mehr als 6 Jahre entwickelt er für das Web und ist aktuell daran beteiligt, die existierende AutoScout24-IT in die nächste Generation von skalierbaren Web-Plattformen zu transformieren. Zusätzlich versucht er, als Docker Captain sein Wissen und Erfahrung mit anderen zu teilen. Philipp ist fasziniert von Technologien und Tools, die es ihm erlauben, schneller und öfter zu deployen. Er erwartet, dass jeder seiner Commits automatisch ausgerollt wird. Von daher überrascht es nicht, dass er von Microservices, Docker und der Cloud begeistert ist. Getrieben von Pain Driven Development glaubt er, dass es nur dann Änderungen gibt, wenn der Schmerz groß genug ist.

Platin-Sponsor

Gold-Sponsoren

Silber-Sponsoren


CC-Newsletter

Sie möchten über die ContainerConf
auf dem Laufenden gehalten werden?

 

Anmelden