Text copied to clipboard!

Titel

Text copied to clipboard!

Hadoop Ingenieur

Beschrijving

Text copied to clipboard!
Wij zijn op zoek naar een ervaren Hadoop Ingenieur om ons data engineering team te versterken. Als Hadoop Ingenieur ben je verantwoordelijk voor het ontwerpen, implementeren en onderhouden van grootschalige Hadoop-clusters en big data-oplossingen. Je werkt samen met data scientists, analisten en andere IT-specialisten om betrouwbare, schaalbare en efficiënte data-infrastructuren te bouwen die voldoen aan de behoeften van onze organisatie. Je zult betrokken zijn bij het optimaliseren van data pipelines, het waarborgen van dataveiligheid en het oplossen van complexe technische uitdagingen. Je hebt diepgaande kennis van Hadoop-ecosysteemcomponenten zoals HDFS, MapReduce, Hive, Pig, HBase, Spark en YARN. Je bent in staat om data workflows te automatiseren en te monitoren, en je draagt bij aan de continue verbetering van onze data-architectuur. Daarnaast ben je verantwoordelijk voor het uitvoeren van performance tuning, het beheren van resources en het oplossen van storingen binnen het Hadoop-platform. Je werkt proactief aan het identificeren van knelpunten en het implementeren van innovatieve oplossingen. Je hebt ervaring met het werken in Agile teams en bent in staat om technische documentatie op te stellen en kennis te delen met collega’s. Je bent communicatief vaardig, analytisch sterk en hebt een passie voor het werken met grote datasets. Je volgt de nieuwste ontwikkelingen binnen het Hadoop-ecosysteem en past deze toe binnen onze organisatie. Als Hadoop Ingenieur draag je bij aan de groei en innovatie van onze data-gedreven strategie en help je onze organisatie om waarde te halen uit big data.

Verantwoordelijkheden

Text copied to clipboard!
  • Ontwerpen en implementeren van Hadoop-clusters en data pipelines
  • Beheren en monitoren van Hadoop-ecosysteemcomponenten
  • Optimaliseren van prestaties en resourcegebruik binnen Hadoop
  • Automatiseren van data workflows en processen
  • Zorgen voor dataveiligheid en compliance
  • Oplossen van technische storingen en incidenten
  • Samenwerken met data scientists en analisten
  • Documenteren van technische oplossingen en processen
  • Bijdragen aan de continue verbetering van data-architectuur
  • Blijven volgen van ontwikkelingen binnen het Hadoop-ecosysteem

Vereisten

Text copied to clipboard!
  • HBO- of WO-opleiding in Informatica of vergelijkbaar
  • Minimaal 3 jaar ervaring met Hadoop en big data-technologieën
  • Grondige kennis van HDFS, MapReduce, Hive, Pig, HBase, Spark en YARN
  • Ervaring met Linux/Unix-omgevingen
  • Kennis van programmeertalen zoals Java, Python of Scala
  • Ervaring met het automatiseren van data workflows
  • Sterke probleemoplossende vaardigheden
  • Goede communicatieve vaardigheden in het Nederlands en Engels
  • Ervaring met Agile/Scrum-methodologieën is een pré
  • Bekendheid met cloud-platformen zoals AWS, Azure of Google Cloud is een voordeel

Potentiële interviewvragen

Text copied to clipboard!
  • Welke ervaring heb je met het beheren van Hadoop-clusters?
  • Kun je een voorbeeld geven van een geoptimaliseerde data pipeline die je hebt gebouwd?
  • Hoe ga je om met performance issues binnen Hadoop?
  • Welke Hadoop-ecosysteemcomponenten beheers je het beste?
  • Heb je ervaring met het automatiseren van data workflows?
  • Hoe zorg je voor dataveiligheid en compliance binnen big data-projecten?
  • Kun je werken in een Agile-teamomgeving?
  • Welke programmeertalen gebruik je het liefst voor data engineering?
  • Heb je ervaring met cloud-gebaseerde Hadoop-oplossingen?
  • Hoe blijf je op de hoogte van de nieuwste ontwikkelingen binnen het Hadoop-ecosysteem?