Über die Position

Wer sind wir?

Skai (ehemals Kenshoo) ist eine führende Omnichannel-Marketingplattform, die fortschrittliche KI und maschinelles Lernen nutzt, um intelligente Lösungen auf der Grundlage von Daten mit Performance-Medien zu liefern, die eine intelligentere Entscheidungsfindung, höhere Effizienz und maximale Erträge ermöglichen - und damit die Einnahmen von Unternehmen auf der ganzen Welt steigern. Zu den Partnern gehören Google, Meta, Amazon und Microsoft und viele mehr. ~Jährlich werden über die SkaiTM -Plattform Werbeausgaben in Höhe von 7 Mrd. USD verwaltet.

Wir wurden 2006 gegründet und sind 700 Mitarbeiter stark. Wir arbeiten hybrid und haben eine gute Mischung aus Heim- und Büroarbeit.


Was wirst du tun?

Werde Teil eines Teams, das die zentralen Datendienste hinter den Produkten von Skaientwickelt und betreibt.

Als Senior Data Engineer entwirfst, erstellst und wartest du:

  • Datenpipelines und Datendienste
  • Microservices und interne APIs
  • Die Infrastruktur und Werkzeuge, die unsere Datensysteme zuverlässig, beobachtbar und skalierbar machen

In dieser praxisnahen Position kombinierst du Data Engineering, Backend-Entwicklung und DevOps.

Er ist ideal für jemanden, der gerne schichtenübergreifend arbeitet: vom Schema-Design und Datenfluss über Microservice-Code bis hin zu Kubernetes, CI/CD und Observability.


Verantwortlichkeiten:

  • Entwirf und pflege eine robuste Infrastruktur für große Datenverarbeitungs- und Streaming-Systeme.
  • Entwickle Automatisierungs- und Bereitstellungsprozesse mit CI/CD-Pipelines.
  • Baue und betreibe Kubernetes-basierte Umgebungen und containerisierte Workloads.
  • Arbeite mit Dateningenieuren zusammen, um Leistung, Kosten und Zuverlässigkeit von Datenplattformen zu optimieren.
  • Entwirf und entwickle REST-API-Microservices.
  • Bearbeite und löse komplexe Probleme in Produktions- und Staging-Umgebungen.
  • Treibe Initiativen an, die die Beobachtbarkeit, Skalierbarkeit und Entwicklerproduktivität verbessern.
  • Gehe mit gutem Beispiel voran - teile dein Wissen, berate deine Kolleginnen und Kollegen und fördere die besten technischen Verfahren.

Anforderungen

  • 5 Jahre Erfahrung als Data Engineer, Backend Developer oder DevOps.
  • 5+ Jahre Erfahrung mit Python/Java Microservices (Flask, Spring, Dropwizard) und Komponententests.
  • Tiefes Verständnis von Kubernetes, Docker und Container-Orchestrierung.
  • Praktische Erfahrung mit CI/CD-Pipelines (z. B. Jenkins, GitHub Actions).
  • Nachgewiesene Erfahrung mit Snowflake, MySQL, RDS oder ähnlichen Datenbanken.
  • Vertrautheit mit Streaming-Systemen (z.B. Kafka, FireHose), Datenbanken oder Datenpipelines.
  • Selbstlernend, proaktiv und leidenschaftlich bei der Verbesserung von Systemen und Automatisierung.
  • Starke Kommunikationsfähigkeiten und eine kollaborative, teamorientierte Denkweise.


Vorteile:

  • Erfahrung mit Kafka, Airflow oder anderen Datenverarbeitungstools.
  • Kenntnisse von Terraform, Pulumi oder anderen IaC-Frameworks.
  • Vertrautheit mit Datadog, Prometheus oder anderen Observability-Tools.
  • Erfahrung mit AWS (Lambda, EKS, EC2, Step-Funktionen, SQS).
  • Du arbeitest mit KI-gesteuerten Tools oder baust sie auf.

Bewirb dich für diese Stelle

Klicken Sie auf die Schaltfläche, um das Formular zu laden.

Mehr Informationen