Description
Deine Hauptaufgaben:
- Du designst, implementierst und optimierst skalierbare Plattformarchitekturen für moderne Data Solutions.
- Du stellst eine stabile, sichere und effiziente Plattforminfrastruktur durch Automatisierung und Infrastruktur als Code (IaC) sicher.
- Du bist verantwortlich für die technische Qualität, Implementierung und Optimierung von Monitoring- und Testing-Strategien für Datenplattformen.
- Du bist zuständig für die Kubernetes Administration (zB. mit Helm, kubectl)
- Du arbeitest eng mit unseren Kunden zur Anforderungsanalyse und technischen Umsetzung zusammen.
- Du verantwortest das Stakeholder-Management von der Kommunikation zu Risiken und Herausforderungen bis hin zu Lösungsvorschlägen.
- Du schulst und befähigst Kunden-Teams zur effektiven Nutzung der entwickelten Plattformen.
- Du stellst eine umfassende und saubere Dokumentation sowie den Wissenstransfer innerhalb des Teams sicher.
- Du trägst zur Weiterentwicklung unseres internen Frameworks bei und wendest unsere Standards und Best Practices erfolgreich in Projekten an.
Was dich zur idealen Besetzung macht:
- Du hast einen Hochschulabschluss in Informatik, Wirtschaftsinformatik oder eine vergleichbare Qualifikation.
- Du bringst mindestens 3-5 Jahre Berufserfahrung als Platform Engineer, DevOps Engineer oder in einer ähnlichen Rolle mit Fokus auf Infrastruktur und Automatisierung mit.
- Du verfügst über praktische Erfahrungen mit Cloud-Technologien, idealerweise in mehr als einer Plattform (Azure, AWS, GCP, Cloudera) und sowohl On-Prem- als auch Cloud-Umgebungen.
- Du hast Kenntnisse in Infrastruktur als Code (IaC) und der Automatisierung mit Technologien wie Terraform, kubectl, Ansible oder Helm.
- Du verfügst über praktische Erfahrung mit Container-Technologien und Orchestrierungslösungen wie Kubernetes oder OpenShift und kennst dich ausserdem mit diversen Authentifikationsverfahren aus.
- Du hast gute Kenntnisse im Bereich Linux-Administration, Netzwerke, Security-Settings und System-Troubleshooting.
- Du verfügst über starke analytische Fähigkeiten, Problemlösungskompetenz und eine schnelle Auffassungsgabe.
- Du hast ausgezeichnete Kommunikations-, Teamfähigkeiten und Stakeholder Management Skills.
- Du arbeitest gerne in einem hybriden Arbeitsumfeld mit der Bereitschaft, 2-3 Tage beim Kunden vor Ort zu arbeiten.
- Du kommunizierst fliessend auf Deutsch und Englisch (C1 oder höher).
Optionale Superkräfte:
- Idealerweise bist du vertraut mit verteilten Systemen wie Apache Kafka, Spark, Flink oder Trino.
- Kenntnisse im Bereich Data Governance, Compliance und regulatorischen Anforderungen.
- Kenntnisse in modernen Datenplattform-Technologien wie DataHub, Azure Fabric, Databricks, DBT, Airflow oder NiFi.
Was wir bieten:
- Flexibles Arbeiten remote oder hybrid
- Wir leben Selbstbestimmung auch intern, mit Vertrauen statt Kontrolle. Wo du arbeitest, entscheidest du.
- Spannende Projekte: Arbeite an der vordersten Front der Datentransformation für führende Schweizer Unternehmen in diversen Branchen.
- Tech-Stack: Nutze modernste Technologien (Kafka, Spark, Azure/AWS, Kubernetes) ohne den Ballast veralteter Konzern-Legacy.
- Kultur & Team: Guter Team Spirit, flache Hierarchien und eine Kultur des Wissensaustauschs und der Zusammenarbeit.
- Weiterentwicklung: Wir investieren in Zertifizierungen und bieten vielfältige Weiterentwicklungsmöglichkeiten und transparente Karrierepfade.
? Bereit für die nächste Herausforderung? Werde Teil von Scigility und gestalte die Zukunft der Datenarchitektur mit uns!
Deine Bewerbung
Wir freuen uns auf deine Bewerbung an jobs@scigility.com oder via unser Webformular. Bei Rückfragen wende dich gerne an Alissa Kübler (jobs@scigility.com / +41 77 912 94 44).
j4id9824532a j4it0936a j4iy25a