Westhouse ist eines der führenden internationalen Recruitment Unternehmen für die Vermittlung von hochqualifizierten Fachexperten in Bereichen wie IT Life Cycle, SAP, Engineering, Kaufmännischem und Fachberatung.

Für unseren Kunden suchen wir aktuell eine/n

Datenarchitekt/Datenmodellierer (m/w/d) - Wiesbaden

Rahmeninformationen

Referenz:
151295
Start:
04.10.2021
Job Typ:
Projekt
Standort:
Wiesbaden
Umfang:
full-time

Ihre Aufgaben

  • Entwickeln einer Vorgehensweise für die Abstimmung einer modernen Datenarchitektur mit den Stakeholdern
  • Analysieren/Erarbeiten von Anforderungen an eine Datenarchitektur zusammen mit den Projektmitgliedern und anderen Bedarfsträgern
  • Erarbeiten von Möglichkeiten zur Verbesserung der Zuverlässigkeit, Effizienz und Qualität der Daten und des Datenverkehrs u.a.
  • Gestaltung von konzeptuellen und logischen Datenmodellen und Flowcharts
  • Visualisieren des Datenmodells (Fachdatenmodell, technisches Datenmodell)
  • Definition von Sicherheits- und Backupverfahren
  • Aufnahme und Abstimmung der Bedarfe hinsichtlich zeitnaher Verfügbarkeit der relevan-ten Daten bei den Endanwendern
  • Darlegung der Arbeitsergebnisse in Konzeptdokumenten für die Stakeholder
  • Bereitschaft zur Sicherheitsüberprüfung SÜ2 oder Ü2 Sabotageschutz

Ihre Qualifikationen

  • mehrjährige Berufserfahrung in den Bereichen Data Engineering, Business Intelligence, Data Science oder einem verwandten Bereich mit Erfahrung in der Be- und Verarbeitung großer Datenmengen
  • Kenntnisse im Bereich der Datenanalyse, Datenmodellierung, der Datenbankmanagementsys-teme (z.B. Oracle, HANA, Postgres MySQL) und des Informationsmanagements bis hin zu konkreten SQL- und Datenbankadministrationskenntnissen
  • Erfahrung mit Cloud-Architektur im Bereich Big Data und Data Warehousing
  • Erfahrung beim Aufbau und der Wartung beispielsweise von Hadoop-Clustern in einer Hybridumgebung
  • Sehr gute Kenntnisse in mehreren der Big Data-Technologien und -Lösungen (z.B. Spark, Ha-doop, Hive, HDFS)
  • Sehr gute Kenntnisse im Entwerfen und Implementieren einer hochverfügbaren Messaging-Infrastruktur mit hohem Volumen beispielsweise mit Apache Kafka, Flink und Ignite
  • Kenntnisse in der Datenmigration und Datenvereinheitlichung
  • Kenntnisse in der Visualisierung von Datenmodellen (Fachdatenmodell, technisches Datenmodell) (z. B. UML, ERM)
  • Kenntnisse im Aufbau einer Datenarchitektur über mehrere Evolutionsstufen

Interessiert?

Wir freuen uns auf Ihre aussagekräftigen Bewerbungsunterlagen in elektronischer Form.