Zum Inhalt springen

Senior Applikationsentwickler (Schwerpunkt Data Engineering)

  • Hybrid
    • Bern, Bern, Schweiz
  • Software Engineering

Jobbeschreibung

Du begeisterst dich für Daten, moderne Cloud-Technologien und sauberen Code?
Dann erwartet dich eine spannende Aufgabe an der Schnittstelle zwischen Softwareentwicklung und Data Engineering. In einem agilen Scrum-Team arbeitest du an der Weiterentwicklung der Datenplattform und entwickelst skalierbare, performante Backend-Lösungen, die Datenprozesse intelligent automatisieren und optimieren.

Aufgaben:

  • Entwicklung und Wartung skalierbarer, effizienter Backend-Lösungen mit Python und PySpark in einer Databricks-Umgebung

  • Erweiterung und Pflege bestehender Backend-Komponenten (z. B. Transformations- und Test-Engine)

  • Implementierung von Unit-Tests mit hoher Testabdeckung sowie Integration in CI/CD-Pipelines (GitLab, trunk-based development)

  • Arbeiten in einem heterogenen Umfeld mit REST-APIs, Oracle-Datenbanken, Dateiimporten und Docker-Containern

  • Automatisierung von Datenvorbereitungsprozessen und lokalen Workflows mit Dagster (oder vergleichbaren Tools wie Airflow oder Databricks Workflows)

  • Identifikation technischer Lücken und Erstellung operativ getriebener Stories

  • Übersetzung fachlicher Anforderungen in technische Spezifikationen, Dokumentation und User Stories

  • Aktive Mitarbeit im agilen Scrum-Team, inklusive Code-Reviews, technischen Diskussionen und kontinuierlicher Produktverbesserung (DevOps)

  • Unterstützung im Betrieb und bei der Weiterentwicklung der Datenplattform in einer Cloud-Umgebung (Azure von Vorteil)

Weitere Tätigkeiten:

  • Umsetzung moderner Datenverarbeitungskonzepte wie ETL/ELT, Data Warehouse, Data Lake, Lakehouse und Medaillon-Architektur, inklusive Performance-Optimierung

  • Modellierung und Weiterentwicklung von Star- und Snowflake-Datenmodellen zur effizienten Datenanalyse und -bereitstellung

Stellenanforderungen

Anforderungen:

  • Abgeschlossenes Studium oder Ausbildung im Bereich Informatik, Data Science oder Wirtschaftsinformatik

  • Fundierte Erfahrung in der Backend-Entwicklung mit Python (PySpark-Erfahrung von Vorteil)

  • Kenntnisse in CI/CD-Pipelines (GitLab), Git und DevOps-Praktiken

  • Erfahrung mit SQL und Oracle-Datenbanken

  • Erfahrung in Cloud-Umgebungen (Azure von Vorteil)

  • Vertraut mit Orchestrierungstools wie Dagster, Airflow oder Databricks Workflows

  • Gute Kenntnisse moderner Datenarchitekturen (ETL/ELT, DWH, Lakehouse)

  • Freude an agiler Zusammenarbeit und technischen Diskussionen

  • Sehr gute Deutsch- und Englischkenntnisse

Generelle Rahmenbedingungen:

  • Start: Januar 2026 - Dezember 2026

  • Pensum: 60%

  • Ort: Bern, 2 mal pro Woche vor Ort zwingend

oder