Data Engineer mit der Vorlage als Arbeitsprobe von einem Superset Dashboard (m/w/d)

Remote
Start: 01.07.2025
il y a 4 semaines
Job Typ:
Projekt
Dauer:
01.07.2025 - 31.12.2026
Arbeitsumfang:
Teilzeit - 206 PT
Sprachen:
Deutsch

ID: 174463

Appliquer ici

Westhouse ist eines der führenden internationalen Recruitment Unternehmen für die Vermittlung von hochqualifizierten Fachexperten in Bereichen wie IT Life Cycle, SAP, Engineering, Kaufmännischem und Fachberatung.

Für unseren Kunden suchen wir aktuell eine/n Data Engineer mit der Vorlage als Arbeitsprobe von einem Superset Dashboard (m/w/d) - Remote.

Ihre Aufgaben

    • Entwicklung von BI Dashboards in Apache Superset
    • Beratung und Konzepte zum Design von BI Dashboards
    • Modellierung von Streaming- Daten
    • Umsetzung von Ende-zu-Ende-Lösungen im Business Intelligence Kontext
    • Beratung in Big-Data-, Analytics- und Predictive Analytics-Projekten hinsichtlich Visualisierung
    • Die externe Fachkraft nimmt an allen fachbezogenen Arbeitssitzungen des Projektteams inkl. der Retrospektiven teil
    • Die externe Fachkraft übernimmt im Rahmen ihrer Beauftragung Aufgaben im Projektteam gemäß den agilen Methoden durch Pull von Tasks, die aus User Stories resultieren, gemäß ihren Kompetenzen und in Abstimmung mit dem gesamten Projektteam
    • Die Leistungen werden umgesetzt auf Basis von agilen Vorgehensweisen wie z.B. SCRUM. Die Einhaltung der SCRUM Prozesse im SCRUM Team ist zu berücksichtigen und ein regel-mäßiger Austausch mit dem SCRUM Master/ SCRUM Team ist erforderlich.

Interessiert?

Liliya Pylnova

Tel.: +49-69-24007512
Fax.: +49-69-240075-49
Email: l.pylnova@westhouse-group.com

Appliquer ici


Ihre Qualifikationen

    • MUSS-Kriterium: Bitte nur bewerben, wenn Sie ALLE MUSS-Kriterien erfüllen
    • Umfangreiche Projekterfahrungen in der Entwicklung von Datenstrecken und Dashboards mit den Technologien Apache Superset, Apache Druid und Tableau (Bitte beachten Sie, dass Arbeitsprobe dem Kunden als Referenz vorgelegt werden muss)
    • Mind. 5 Jahre Erfahrung in der Entwicklung von Python und SQL mit Fokus auf Performanceoptimierung
    • Mind. 5 Jahre Erfahrung in der Modellierung und Implementierung von Streaming-Daten und zugehörigen Pipelines
    • Mindestens 1 Projekt in Exploration, Transformation und Analyse von gebäudebezogenen Geodaten und im Frequenzmanagement
    • "Nice to have" Kriterien
    • 3 Jahre Erfahrung mit der Anwendung weiterer Daten-Visualisierungstools, wie Tableau oder PowerBI
    • Mind. 2 Projekte in der Arbeit im agilen Umfeld (z.B. Scrum) inklusive agiler Projektmanagement-Tools (z.B. Confluence und Jira)

Deadline: 30.06.2025

    • Bitte beachten Sie, dass die Abgabefrist für das Projekt der 30.06.2025 ist. Bitte senden Sie danach keine Bewerbungen mehr.