Lead Data Engineer/Architect

Opdrachtnummer: MY210608677   |   Sluitingstijd: 15-06-2021 17:00

calendar_icon

15-06-2021 t/m 01-09-2021

pin_icon

Diverse locaties

clock_icon

36 uur per week

Hoofdstandplaats: Utrecht

Extra standplaats: Amsterdam

Opdrachtbeschrijving
De opdracht behelst het opstellen van een solution architectuur voor een data & analytics platform. De solution architectuur dient voor 1 september 2021 opgeleverd te worden. De solution architectuur geeft zicht op de business requirements, vereiste technologie(en), benodigde hardware en de onderlinge afhankelijkheden.

Achtergrond opdracht
De FIOD wil eind 2021 een start maken met het realiseren van een data & analytics platform. Het beschikken over een data & analytics platform past bij de missie en strategische visie van de FIOD. Met het realiseren van een data & analytisch platform wil de FIOD de grip op haar data verwerking versterken en de analyse mogelijkheden uitbreiden om zo de meerwaarde van de gegevens te verhogen.

Organisatorische context en cultuur
De IV- organisatie van de Belastingdienst is verantwoordelijk voor en verzorgt de ICT- voorzieningen. Het merendeel van de applicaties wordt op dit moment door de IV- organisatie zelf ontwikkeld, onderhouden en beheerd in het eigen data center.
Naast de zorg voor continuïteit op de massale heffing- en inningsprocessen die plaatsvinden binnen een degelijke, stabiele omgeving, wordt er tevens volop gewerkt aan modernisering van het IV- landschap. Dit gebeurt deels intern door gebruik te maken van de expertise die intern aanwezig is, maar ook door het aantrekken van (kant-en-klaar) oplossingen en expertise uit de markt.

Eisen
Opleiding, Certificaten, Kennisniveau
Bacherlor of Science
Certified ScrumMaster (ScrumAlliance)
Cloudera Developer for Spark &Hadoop

Professionele Kennisgebieden
Informatiemanagement

Kwaliteitenprofielen
5.2.1 Scrum Master
2.1.4 Data Engineering

Werk- en denkniveau

Kennis en ervaring in het gebruik van JVM talen zoals Java of Scala - 7 jaar
Kennis en ervaring in het gebruik van Apache Hadoop & Spark  - 7 jaar
Kennis en ervaring in het gebruik van Apache Airflow - 4 jaar
Kennis en ervaring in het gebruik van Apache Kafka - 4 jaar

Wensen
Competenties
De competenties waarover de kandidaat dient te beschikken zijn Integriteit, resultaatgericht werken, analyserend vermogen, samenwerken en overtuigen.

Aanvullende kennis
De kandidaat moet aantoonbaar vergelijkbare opdrachten hebben uitgevoerd.De kandidaat moeten kennis en ervaring hebben in het gebruik van o.a.Python, Elasticsearch, Docker, Kubernetes/OpenshiftKandidaat moet aantoonbaar ervaring hebben met o.a.Git, Gitlab, GradleKandidaat dient ervaring te hebben met Linux (Centos/Ubuntu)

Overige functiewensen
Moet aantoonbaar ervaring hebben in het werken binnen een enterprise organisatie of overheidsinstantie.