Inhalte der Stellenbeschreibung
Wir suchen eine:n Senior Data Engineer, der/die unsere Data Platform auf Google Cloud verantwortet, verbessert und skaliert. Deine Arbeit hält die Daten für BI, Analytics und Produktfeatures am Laufen. Du triffst sensible Architekturentscheidungen, etablierst fördernde Engineering-Praktiken, coachst Juniors geduldig und hilfst anderen, ihr bestes zu geben.
Was du unbedingt mitbringst
Mehrjährige Berufserfahrung als Data Engineer (all genders) mit produktionsreifen, verteilten Datensystemen
Hands-on-Erfahrung mit GCP: BigQuery, Cloud Storage, Airflow/Cloud Composer sowie Identity & Access Management
Starke Python-Skills (getesteter, gut lesbarer Code), Erfahrung mit Athena und fortgeschrittene SQL-Kenntnisse
Sorgfältiger Umgang mit Datensicherheit und Datenschutz, besonders bei personenbezogenen Daten
Eine pragmatische Denkweise, klare Kommunikation und ein ausgeprägtes Verantwortungsbewusstsein zeichnet dich aus
Asynchrone Zusammenarbeit ist für dich kein Hindernis (z.B. in der Zusammenarbeit mit US amerikanischen Kolleg:innen)
Sehr gute Englischkenntnisse für den Austausch in einem international agierenden Unternehmen
Was du idealwerweise noch mitbringst
CI/CD Kenntnisse für Daten (z. B. GitLab CI oder Cloud Build), Terraform und Docker
Erfahrungen mit dbt oder einem ähnlichen Transformations-Framework
Sicherer Umgang mit Datenkatalog-/Lineage-Tools (DataHub, Collibra, BigQuery Data Catalog)
Berührungspunkte mit der Aufnahme von Streaming Daten (Pub/Sub, Dataflow, Kafka) oder Echtzeit-Feature-Stores
Erfahrung mit Tableau, MongoDB, PostgreSQL sowie kosteneffizientem Query-Tuning in BigQuery
Interesse an der Nutzung von AI Tools, um deine tägliche Arbeit als Engineer zu verbessern
Was dich erwartet
- Keep Data moving: Datenpipelines und Workflows (Python, Airflow/Cloud Composer) bauen, betreiben und weiterentwickeln, damit sie zuverlässig, schnell und leicht änderbar sind.
- Shape our data models: Mit BigQuery und Cloud Spanner gut strukturierte, performante Datasets für Analytics- und Machine-Learning-Use Cases entwerfen.
- Privacy by Design: Least-Privilege-Zugriffe, Verschlüsselung, Audit-Logging und Data-Quality-Checks anwenden, um GDPR/CCPA zu erfüllen.
- Observability sicherstellen: Klare Dashboards und Alerts erstellen, an einer internationalen Rufbereitschaft (Rotation) teilnehmen und klare, konstruktive Postmortems durchführen.
Wir bei der ParshipMeet Group unterstützen Millionen von Menschen auf der ganzen Welt dabei, sich zu treffen, zu daten und zu verlieben. Unsere Teams sollen genau so vielfältig sein wie unsere Kunden. Neue Kolleg:innen bereichern uns mit neuen Sichtweisen. Dies ist für uns ein wesentlicher Erfolgsfaktor. Deshalb beurteilen wir niemanden nach Alter, Geschlecht, familiärem Hintergrund, Hautfarbe, religiöser Überzeugung oder sexueller Orientierung. Bei uns stehst du als Mensch mit deinen Fähigkeiten im Mittelpunkt!