Aufgaben
- Umsetzung von User Stories und technischen Aufgaben in Jira
- Entwicklung von Datenpipelines zur Datenaufnahme und -verarbeitung / Entwicklung von Datenmodellen für die Speicherung von Daten
- Integration von Daten aus verschiedenen Quellen
- Implementierung von Data Governance- und Sicherheitsrichtlinien
- Optimierung von Datenverarbeitungsprozessen
- Bereitstellung von aufbereiteten Daten für das Reporting
- Automatisierung von Datenprozessen
- Entwicklung von Lösungen zur Skalierung von Dateninfrastrukturen
- Durchführung von Ad hoc Analysen und Plausibilisierungen
- Dokumentation in Confluence / Code-Verwaltung in GitLab
Profil
- Hands-on Erfahrung in der Nutzung von Serverless Data Processing und Integration Technologien wie AWS Glue und Lamb-da
- Praktische Erfahrung in der Umsetzung von Berichten und interaktiven Dashboards in MSPower BI
- Praktische Erfahrung in der Umsetzung von Data Engineering Projekten in der AWS Cloud im Enterprise Umfeld
- Praktische Erfahrung in der Umsetzung von effizienten Daten-Workflows mit Apache Spark, AWS Sagemaker oder PythonPraktische Erfahrung in der automatisierten
- Verarbeitung von Geodaten mittels PTV Visum, OpenStreetMap oder Python
Benefits
- Aussicht auf Folgeprojekte
- Aussicht auf Projektverlängerung