Specific Group Data Engineering
Die Specific-Group ist ein eigentümergeführtes IT-Dienstleistungsunternehmen, das sich auf die Finanzbranche und Industrie spezialisiert hat. Wir bieten maßgeschneiderte Lösungen in den Bereichen Data Engineering, Softwareentwicklung. Mit 12 Standorten weltweit und 225 Kollegen*innen in Wien (450 international), besteht unser Team zu 90% aus Senior-Experten*innen. Durchschnittliches Wachstum von 28 % pro Jahr in den letzten fünf Jahren.
Unsere Data Service Line besteht aus rund 40 erfahrenen Kolleg*innen, die sich auf die Beratung und Implementierung im Datenbereich für Enterprise Unternehmen (wie Spar, RBI, Santander, VW, Porsche) spezialisiert haben. Dabei legen wir einen besonderen Fokus auf den Business Value im Datenmanagement, egal ob es sich um klassische Data Warehouses, ETL-Prozesse, Streaming-Applikationen oder modernstes Data Engineering für Cloud-Storage und ML Ops handelt. Wir arbeiten technologieagnostisch und unterstützen sowohl Legacy-Systeme als auch die Cloud-Infrastruktur .
Ein Ausschnitt unserer Projekte:
* Wir haben eine Java-Backend-Anwendung entwickelt, die Versicherungs-APIs orchestriert und über eine grafische Oberfläche Daten-Mapping ermöglicht.
* Eine große Sportliga benötigte eine zentrale Datenplattform für Echtzeit-Analysen. Wir implementieren ein robustes Data Center in der Azure-Cloud, mit Microsoft Fabric, DataFactory und PowerBI. Diese Lösung ermöglicht nahtlose Datenflüsse und Analysen, die allen Beteiligten Mehrwert bieten.
Deine Aufgaben im Cloud-based Data Engineering und Architectural Design
* Durchführen von Workshops (Reisetätigkeit 5%)
* Aufbereitung und Präsentation von Solution Designs für Management / C-Level
* Technische Unterstützung für Pre Sales Angebote
* Moderne DWH sowie Streaming-Infrastrukturen
* Operationale und analytische Datenspeicher
* Cloud-Migration und Modernisierung bestehender Data Warehouses und Data Marts
* Erweiterung Datenpipelines
* Umsetzen von AI Usecases
* Konzeption und Implementierung von Feature Stores für Datenanalyst*innen und - wissenschaftler*innen
* Datenmodelierung nach aktuellen Frameworks (Data Vault 2.0...)
Technisches Umfeld:
* Snowflake, Oracle Cloud Infrastructure, Databricks, Google...
* Apache Kafka, Spark, Flink
* Azure Stack (Azure ML, AKS, Data Factory, PowerBI, Fabrics)
* Airflow und Airbyte oder klassische ETL Tools
* Optimierung der klassischen, On-Premise-Oracle-Datenumgebungen sowie Modernisierung und Migration von Legacy-Systemen wie SAS, Teradata u.v.m.
* Entwicklung automatisierter Datenpipelines, ETL- und ELT-Prozesse sowie REST-Schnittstellen
In welcher Teamumgebung wirst du arbeiten?
* Chris – 24 Jahre Erfahrung als Oracle Admin, Entwicklung & Architektur
* Radik – 21 Jahre Senior Java Backend mit Fokus auf API und Streaming
* Ervin, Dmitriy – 23 Jahre Banking DevOps & PLSQL Entwicklung
* Ivo – 21 Jahre in Management, Datenplattformen, Analytics & Softwareentwicklung
* Vasili – 17 Jahre Erfahrung in Datenbankentwicklung und statistischer Datenanalyse
* Zmitzer – 19 Jahre in Datenbankadministration und -entwicklung
* Robert, Tamas – 21 Jahre Erfahrung als technische Requirement Engineers (DWH-Fokus)
* Parnia – 3 Jahre Erfahrung als Data Analyst
* Nikita – 3 Jahre Erfahrung als Data Analyst und Data Engineer
* Aleksandra – 6 Jahre Erfahrung in Geschäftsprozessautomatisierung, PowerBI-Entwicklung und als Expertin für Data Governance
* Alexandra – 10 Jahre Erfahrung als Business Analyst und Projektmanagerin im Bankensektor
* Ervin – 26 Jahre Erfahrung als Oracle-Administrator und Entwickler
* Nikolaus - 12 Jahre Management, Data Analytics, Data & Platform Architecture und Softwareentwicklung
Was bringst du mit?
* Erfahrung im technischen Consulting
* Über 6 Jahre Praktische Erfahrung mit SQL, PL/SQL oder NoSQL
* Erfahrung mit ETL/ELT Tools
* Grundkenntnisse in Python, R, Java oder Scala
* Interesse DWH Architekturen Visualisieren / aufbereiten
* Deutsch C1 (Internationales Englisch sprachiges Team)
Bewerbungsprozess: (Kein Lebenslauf notwendig)
Direkt im Kalender buchen: calendly.com/max-katlein/15min
1. Kennenlerncall: Wir sprechen transparent über Teamstruktur, Erwartungen und Gehalt
2. Kennenlernen Data Teamlead & Partner
3. Ausarbeitung Use Case
4. Use Case Präsentation & Kennenlernen Teamkollegen
Durchschnittliche Prozessdauer: 11 Tage
Ein marktgerechtes, attraktives und leistungsorientiertes Gehalt ab 80.000 € mit Bereitschaft zur Überzahlung je nach Erfahrung und Qualifikation.
Datenschutz
Gemäß den Vorgaben der Artikel 13, 14 und 21 der Datenschutz-Grundverordnung (DSGVO) informieren wir dich hiermit über die Verarbeitung deiner im Rahmen des Bewerbungsverfahrens übermittelten bzw. von uns erhobenen personenbezogenen Daten sowie über deine Rechte: Ein verantwortungsvoller Umgang mit personenbezogenen Daten ist für uns selbstverständlich.