TÄTIGKEITSBESCHREIBUNG

Data Platform Engineer


Als Data Platform Engineer gestaltest du die Infrastruktur, die den 24/7-Betrieb unseres Trading Floors ermöglicht und gleichzeitig Hunderte von erneuerbaren Energieanlagen – von Solar- und Windkraft bis hin zu Batteriespeichern – unterstützt.

In einem kleinen, hochkompetenten Team wirst du robusten Datenpipelines entwickeln und skalieren, Echtzeitoperationen ermöglichen und Systeme aufbauen, die komplexe Daten in strategische Entscheidungen umwandeln.

Wir setzen auf kontinuierliches Lernen, pragmatische Problemlösungen und die gemeinsame Verantwortung für die Systeme, die wir erschaffen. Wir fördern ein inklusives, kollaboratives Arbeitsumfeld, in dem Ingenieure eng mit NutzerInnen und Stakeholdern zusammenarbeiten, um im sich ständig wandelnden europäischen Energiemarkt einen nachhaltigen Einfluss zu erzielen.

Dir gefällt es...

  • …dich in einem dynamischen, operationsgetriebenen Umfeld zu bewegen und dabei im engen Austausch mit NutzerInnen und Stakeholdern zu stehen.
  • …in einem kleinen, hochfunktionalen Team zu arbeiten, das Features von der Anforderung über die Umsetzung bis zur Abnahme verantwortet.
  • …Datenpipelines und Warehouse-Modelle zu entwerfen, zu bauen und zu skalieren – als Grundlage für unseren Handelsbetrieb und das Management Hunderter Erneuerbare-Energie-Anlagen.
  • …Verantwortung für deine Systeme zu übernehmen und Verbesserungen anhand von Feedback aus Betrieb und Nutzerperspektive zu planen.
  • …Probleme pragmatisch und iterativ zu lösen – mit dem Ziel, dem Business echten Mehrwert zu bringen.

Du bist von deinen Fähigkeiten überzeugt...

  • Du hast mehr als 5 Jahre Erfahrung in der Software- und Datenentwicklung.
  • Du schreibst sauberen, wartbaren Code in SQL und Python, nutzt Versionskontrolle und arbeitest effektiv im Team – inklusive Code Reviews.
  • Du nutzt Best Practices im Bereich Continuous Delivery sowie GitHub Actions, um täglich wertschöpfende Ergebnisse zu liefern und Fortschritte transparent mit Stakeholdern abzustimmen.
  • Du baust skalierbare, effiziente Datenpipelines mit Airflow, Google BigQuery, DBT und weiteren Tools aus dem GCP- und AWS-Ökosystem.
  • Du setzt Best Practices in Design und Datenmodellierung ein, um ein Data Warehouse zu entwickeln, das nutzerfreundlich, vollständig, sicher und kosteneffizient ist.
  • Du verwaltest Infrastruktur mit Infrastructure as Code (IaC) und Pulumi.
  • Du kommunizierst klar über funktionale und nicht-funktionale Anforderungen, Einschränkungen und Lösungen – sowohl mit technischen als auch nicht-technischen Stakeholdern.

Du wirst lernen...

  • …wie europäische Energiemärkte funktionieren – und wie ein Trading Floor in diesem Kontext operiert.
  • …wie du Stakeholder dabei unterstützt, aus Ideen funktionierende Anwendungen und Datenpipelines zu entwickeln – fundiert durch Data Warehousing und Insights.
  • …wie ein remote arbeitendes, selbstorganisiertes Team Verantwortung übernimmt, Prozesse selbst gestaltet und kontinuierlich mit neuen Tools und Methoden experimentiert.
  • …wie du technische Herausforderungen mit datenbasierten Lösungen und im engen Austausch mit KollegInnen meisterst.
  • …wie du BigQuery nicht nur als Data Warehouse, sondern als strategisches Werkzeug für performante, skalierbare und wartbare Datensysteme einsetzt.

Disclaimer

Während wir dich gerne auf dem Handelsparkett in Hamburg sehen, ist unser Engineering-Team in der Tat weltweit verteilt und Tech-Mitarbeitende können ihre Zeit frei einteilen.

Wenn du dich mit der Position und unserer Vision und unseren Werten identifizierst, freuen wir uns auf deine Bewerbung. Gerne beantworten wir deine Fragen zu der jeweiligen Stelle!