Wir suchen kluge und innovative Mitarbeiter für Kunden wie Daimler, Porsche und Bosch, die etwas bewegen wollen. Wenn Sie gerne in einem dynamischen Team mit flachen Hierarchien arbeiten wollen, freuen wir uns auf Sie!

Ihre Aufgaben:

  • Erstellung und Pflege einer optimalen Datenpipeline-Architektur und Zusammenstellung großer, komplexer Datensätze, die funktionalen / nicht-funktionalen Geschäftsanforderungen entsprechen
  • Aufbau der erforderlichen Infrastruktur für die optimale Extraktion, Transformation und das Laden von Daten aus einer Vielzahl von Datenquellen mit SQL (sowohl auf On-Premise- als auch auf Cloud-Plattformen einschließlich AWS und Azure)
  • Kundenanforderung verstehen, funktionale/technische Spezifikation erstellen, die Datenarchitektur, Datenpipeline und ETL-Logik bei Bedarf klar umreißen
  • Erstellung von Analysetools, die die Datenpipeline nutzen, um aussagekräftige Einblicke in die Kundenakquise, die betriebliche Effizienz und andere wichtige Kennzahlen für die Unternehmensleistung zu geben
  • Zusammenarbeit mit dem Kunden, um datenbezogene technische Probleme zu lösen und ihre Anforderungen an die Dateninfrastruktur zu unterstützen sowie Zusammenarbeit mit Daten- und Analyseexperten, um mehr Funktionalität in unseren Datensystemen zu erreichen
  • Erstellung und Pflege einer optimalen Datenpipelinearchitektur für Ingestion, Verarbeitung von Daten
  • Erstellung der notwendigen Infrastruktur für ETL-Jobs aus unterschiedlichsten Datenquellen
  • Erhebung von Datenanforderungen, Pflege von Metadaten zu Daten und Überwachung Datensicherheit und Governance mit modernen Sicherheitskontrollen

Ihr Profil:

  • Abgeschlossenes Studium Informatik, Technik oder relevantem Gebiet
  • Umfangreiche Erfahrung im Umgang mit Relational SQL und NoSQL databases, einschließlich Postgres und Cassandra
  • Sehr gute Kenntnisse mit Data Pipeline- und Workflow-Management-Tools wie z. B. Airflow
  • Tifegehende Erfahrung in der Entwicklung von ETL-Pipelines in Cloud-Plattformen (AWS und Microsoft Azure)
  • Erfahrungen mit Stream-Verarbeitungssysteme: Storm, Spark-Streaming, etc.
  • Ausgeprägte Ketnisse im Umgag mit Skriptsprachen: Python, Java, C++, Scala, etc.
  • Erfahrung mit Apache Hadoop, Apache Spark, Kafka
  • Erfahrung mit Cloud-Services: AWS und Azure – Komponenten umfassen EC2, EMR, RDS, Redshift, Azure Data Factory, Azure HDInsight, Azure Cosmos DB, etc.
  • Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift

Es erwartet Sie …

  • Erfahrung in spannenden und internationalen Projekten
  • Kontinuierliche Gehaltsentwicklung
  • Da Vinci Corporate Benefits
  • Training on the job und Sprachkurse
  • Wertschätzung, Motivation und Engagement

Kaum etwas motiviert so sehr wie Erfolg. Da Vinci Engineering engagiert sich für den Erfolg der eigenen Mitarbeiter. Werden Sie ein Teil von uns!

Teile dieses Stellenangebot:
Stellendetails:
Einsatzort

70178 Stuttgart Deutschland

Referenznummer

14321

Kontakt:

Frau Vivienne Schuler

Da Vinci Engineering GmbH

Hauptstätter Straße 149

70178 Stuttgart

+49 711 72240 268

job@davinci.de

+49 711 72240 198

Auszeichnungen:
Zurück zur Übersicht
www.davinci.de