Track This Job
Add this job to your tracking list to:
- Monitor application status and updates
- Change status (Applied, Interview, Offer, etc.)
- Add personal notes and comments
- Set reminders for follow-ups
- Track your entire application journey
Save This Job
Add this job to your saved collection to:
- Access easily from your saved jobs dashboard
- Review job details later without searching again
- Compare with other saved opportunities
- Keep a collection of interesting positions
- Receive notifications about saved jobs before they expire
AI-Powered Job Summary
Get a concise overview of key job requirements, responsibilities, and qualifications in seconds.
Pro Tip: Use this feature to quickly decide if a job matches your skills before reading the full description.
In einem interdisziplinären Projektteam übernimmst Du den Part der technischen Umsetzung von Datenverarbeitungsstrecken in Batch und Realtime. Als Experte für das Data Engineering bist Du im Projekt Ansprechpartner für Kollegen und Kunden. Mit modernen cloud-basierten Technologien generierst Du - KI-unterstützt - innovative Lösungen rund um unsere Produkte.
Wir suchen Dich mit und ohne Berufserfahrung, als (Junior) Data Engineer (all genders) für unsere Standorte in Karlsruhe, Stuttgart, Hamburg, München oder Köln.
Tech Stack:
- Azure SQL Database, Azure Cosmos DB und Datalake Storage
- Weitere Komponenten aus dem Azure Stack wie Log Analytics, KeyVault, API Management
- Azure Portal
- Unternehmenseigener OpenAI-basierter KI-Assistent
- Projektverwaltung in JIRA und Confluence
- Entwicklung von Azure Functions in .NET C# zur Abbildung von Datentransformationen in Realtime. REST API
- Erstellung und Pflege von Azure Data Factory Pipelines zur Automatisierung von Datentransfers.
- Entwicklung von Azure Databricks Notebooks, insbesondere zur Implementierung von ETL-Prozessen mit PySpark – dabei sind erste Programmierkenntnisse und ein gutes Verständnis für Datenverarbeitung gefragt.
- Arbeiten mit SQL, inklusive der Durchführung von Qualitätssicherungen, Datenanalysen und gezielten Performanceoptimierungen auf Speichertechnologien wie Cosmos DB, Azure SQL DB und Data Lake Storage
- Optimierung und Feintuning der Prozesse durch Detailanalysen u. a. mit Log Analytics
- Erste Kenntnisse Programmierkenntnisse (idealerweise in C#, Python und Pyspark).
- SQL-Kenntnisse zur Datenanalyse und Qualitätssicherung
- Verständnis für Cloud-Architekturen und Datenverarbeitungsprozesse
- Interesse an konzeptionellen Themen rund um Datenmodellierung und ETL-Design
- Bereitschaft zur Weiterentwicklung in Technologien wie Databricks und Data Factory
Bei DYMATRIX entwickeln wir mit Leidenschaft innovative Softwarelösungen für datengetriebene, KI-gestützte Customer Experiences. Unsere SaaS-Plattform ermöglicht es Unternehmen, ihre Kontakte automatisiert und personalisiert über alle Kanäle hinweg anzusprechen. Doch wir liefern nicht nur die Technologie – unsere Expert:innen begleiten Kunden von Strategie und Implementierung bis hin zum laufenden Betrieb. Über 200 namhafte Unternehmen aus der DACH-Region, vom Mittelstand bis zum DAX-Konzern, aus Branchen wie Handel, Medien, Banken und Versicherungen vertrauen auf uns. Damit das gelingt, brauchen wir ein starkes Team – wir brauchen Dich!
Key Skills
Ranked by relevanceReady to apply?
Join DYMATRIX and take your career to the next level!
Application takes less than 5 minutes

