Wir helfen unseren Kunden bei der Erreichung einer ganzheitlichen Datenstrategie, um bessere Entscheidungen treffen zu können. Dabei sind alle Projekte geprägt durch Vertrauen, faires Miteinander und offene Kommunikation. Unser oberstes Ziel ist es, Unternehmen und den öffentlichen Sektor zu unterstützen, Herr ihrer eigenen Daten zu werden und sie auf dem Weg hin zu einer datenorientierten Kultur zu begleiten.
Deine Aufgaben:
In der Position Data Backend Developer bringst Du Dein technologisches und analytisches Wissen in unsere Produkte und die Produktentwicklung ein.
Deine Verantwortlichkeiten werden sein:
- Design und Weiterentwicklung einer modernen, skalierbaren und effizienten Datenplattformarchitektur für den PaaS- und SaaS-Betrieb
- Konzeption und Realisierung von Lösungen zur Integration heterogener Datenquellen mit Batch und Stream Processing im Umfeld von Big Data und Lake House
- Implementierung und Weiterentwicklung von Datenarchitekturen und Verarbeitungspipelines zur Transformation strukturierter, semistrukturierter und unstrukturierter Daten mit Fokus auf Harmonisierung und Standardisierung
- Entwicklung geeigneter Datenmodelle und Streaming-Verarbeitungsfunktionen für die Echtzeitanalyse von Daten
- Entwicklung und Optimierung der Softwarearchitektur als Basis für effiziente Abfragen und Analysen
- Einsatz von Überwachungstools und -mechanismen, um den Status, die Performance und Effektivität der Dateninfrastruktur zu überwachen und zu gewährleisten
- Proaktive und angeleitete Identifikation auftretender Probleme im Produkt und Lösung u.a. in Zusammenarbeit mit der Qualitätssicherung oder dem Supportteam
- Dokumentation der Dateninfrastruktur, -modelle und -prozesse für die Produktentwicklung zusammen mit dem Team
- Enge Zusammenarbeit mit dem Produktmanagement, den Datenanalysten, den Data Scientists und anderen Teammitgliedern, um Anforderungen zu verstehen, zu entwickeln und zu integrieren
- Konstante Weiterbildung bezüglich neuer Technologien und Best Practices im Bereich Datenengineering und IoT
Dein Profil:
Du bringst an Kenntnissen, Fähigkeiten und Fertigkeiten mit:
- Python, C# oder Java
- Clean Code, TDD
- Big Data und Lake House Technologien
- SQL, NoSQL und Time Series Datenbanken
- REST, SOAP APIs in Verbindung mit GraphQL
- Datentransformation, -normalisierung und -standardisierung in Verbindung mit ETL-, ELT-Prozessen
- Batch und Stream Processing
- Protokolle im IoT-Umfeld, z.B. MQTT, AMQP
- Enterprise Service Bus und Message Broker
- Service Oriented Architecture und Microservices
- Azure, Docker, Kubernetes
- daten- und ereignisgetriebene Webanwendungen
- N-tier Architekturen mit ORM
- grundlegende Kenntnisse von Serverbetriebssystemen (Linux, Windows)
- Gute Kenntnisse in Azure DevOps mit GitHub-Integration und CI/CD
- Gute Kenntnisse in agilen Softwareprojektmethoden
- Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift
- Sehr gute analytische Fähigkeiten sowie ausgeprägte Team- und Kommunikationseigenschaften
- Einsatzfreude, selbstständige und proaktive Arbeitsweise mit einem hohen Maß an Qualitätsbewusstsein
- Kreativität und strukturierte Arbeitsweise
Deine Erfahrungen sind:
- Sehr gute praktische Erfahrungen aus diversen datengetriebenen Softwareprojekten
Deine Ausbildung besteht aus:
- Abgeschlossenes FH-Studium der Informatik oder eine vergleichbare Ausbildung sowie mindestens 3 Jahres Berufserfahrung bei der Entwicklung datengetriebener Softwareprodukte oder Services in Cloud Umgebungen.
wettbewerbsfähigen Gehalt – in Abhängigkeit Deiner Qualifikation und Erfahrung – mit entsprechender Überzahlung zum KV-IT
Die Stellenausschreibung richtet sich an alle Menschen gleichermaßen, unabhängig von Alter, Hautfarbe, Religion, Geschlecht, sexueller Orientierung oder Herkunft.