Voor deze opdracht mogen wij NIET samenwerken met freelancers of derde partijen. Deze opdracht zal verlopen via een medium lance constructie.
Samenvatting opdracht:
Binnen de afdeling Data Platform Services zijn we op zoek naar een enthousiaste Data Platform Engineer. In deze functie ben je verantwoordelijk voor het door ontwikkelen van onze Azure data infrastructuur en diensten, waarbij de nadruk ligt op het aanbieden van verbeterde en nieuwe functionaliteit. Daarnaast is de insteek dat we zoveel mogelijk willen automatiseren, met een sterke focus op de doorontwikkeling van het platform en werken met selfservice. Samen met je collega’s lever je ondersteuning aan de bedrijfsonderdelen tijdens het onboarding proces. Waar mogelijk werk je conform de bestaande architectuur en waar nodig stel je in overleg de architectuur bij. Als ervaren ontwikkelaar weet jij niet alleen goede code te schrijven, maar heb je ook oog voor alles wat nodig is om een oplossing schaalbaar te maken en op een stabiele en veilige manier in Azure te laten draaien. Je begrijpt de wensen en eisen vanuit de business/interne klanten en kunt deze vertalen naar de techniek. Waarbij je ook oog hebt voor nieuwe ontwikkelingen. Het scrum team waar je in gaat werken is centraal gelegen in de IT organisatie en werkt aan de volgende generatie van onze platforms.
De hoofdfocus van je projecten zal liggen bij Databricks, samen met Unity Catalog als metastore en Delta Lake als opslag laag – vormen deze het hart van ons data platform. Er wordt verwacht dat jij in deze rol in staat bent om het Databricks-ecosysteem te benutten om te voorzien in de behoeften van de opdrachtgever om te komen tot een centrale datamarktplaats. Een belangrijk aandachtspunt zal dus liggen op het implementeren van data catalogus- en marktplaatscomponenten om datavindbaarheid, toegankelijkheid en consumptie mogelijk te maken.
Jou verantwoordelijkheden:
- Samenwerken met cross-functionele teams om de behoeften van klanten te begrijpen en te vertalen naar technische specificaties
- Ontwerpen, ontwikkelen, testen en implementeren van schaalbare, betrouwbare en innovatieve oplossingen op onze Azure data en AI/ML platforms.
- Creëren en onderhouden van geautomatiseerde processen voor het bouwen, testen en implementeren van software met behulp van tools zoals Bicep, Terraform, Azure DevOps CI/CD-pipelines, Bash, Powershell en Python
- Richting geven en fungeren als sparringpartner voor de andere ontwikkelaars; borgen dat ontwikkelde oplossingen voldoen aan de gestelde normen en richtlijnen en architectuurprincipes
- Consultancy leveren aan afnemers van onze platforms en proactief ervoor zorgen dat onze interne klanten vrij worden gesteld van mogelijke belemmeringen
Mooi als je ook dit meebrengt:
- HBO/WO werk- en denkniveau en minimaal 3-5 jaar aantoonbare ervaring met het ontwerpen, ontwikkelen, testen en implementeren van cloudoplossingen op het Azure, AWS, GCP of vergelijkbare cloudomgeving
- Ervaring met twee of meer van de Azure-onderdelen: Azure Synapse, Azure Data Factory, Azure Delta Lake, Azure DevOps en Azure Databricks
- Uitstekende programmeervaardigheden in infra as code (Bicep, Terraform of equivalent). Ervaring met Python en kennis over solution designs in betrekking tot het Databricks platform een pré
- Diepgaand begrip van modern data platform en hoe verschillende aspecten daarvan geïmplementeerd kunnen worden
- Goede communicatieve vaardigheden, bent oplossingsgericht en innovatief en hebt het vermogen om effectief te werken binnen een DevOps-team en met andere stakeholders
Contact
-
1 van 4Vul je gegevens in
Via onderstaande knop kun je je gegevens achterlaten en je CV uploaden.
-
2 van 4Wij nemen contact met je op
In een eerste kennismakingsgesprek bespreken we je wensen, ambities en drijfveren.
-
3 van 4Persoonlijk gesprek
We stellen je voor aan de klant, je wordt uitgenodigd voor een persoonlijk gesprek.
-
4 van 4Contract besprekingen
Bij een match bespreken we samen met jou en de klant alle details door.