Forside > Opgaver > Freelance – Data arkitekt / Lead udvikler

Freelance – Data arkitekt / Lead udvikler

Deadline: 08/01/2021 UDLØBET - Se aktuelle opgaver

Ønsker du at modtage opgaver som denne på mail?

Vær blandt de første til at få besked, når vi har nye freelance konsulentopgaver. Det tager kun et minut at tilmelde dig.

Tilmeld dig her

Beskrivelse

For at sikre den nødvendige fremdrift i projektet, er der behov for en erfaren Data Engineer i kategorien lead udvikler. Konsulenten skal være en del af DW og BI teamet, og i samarbejde med teamet skal konsulenten bidrage til udvikling af en Azure-cloud baseret dataplatform.  

Teamet skal i gang med udformning af udviklingsprocesser, modelleringsprincipper i forbindelse med implementering af Azure synapse Analytics og Azure SQL DB på skatteforvaltningen dataplatform. Der skal etableres de rette miljøer og konfigurationer i linje med overordnede arkitekturprincipper og sikkerhedsmæssige krav til dataplatformen. ETL-udvikling vil foregå ved Azure Data Factory pipelines. Det forventes at konsulenten kan byde ind ift. emner som releaseprocesser og versionering. ETL-udviklingen koordineres med de øvrige teams, som bl.a. står for ingest af data til Dataplatformen. De hjemtagne data skal modelleres primært til udstillingsformål i Power BI. De hjemtagne data inkluderer både data fra nyudviklede kildesystemer og ”legacy data” fra kildesystemer, der udfases.

Dataplatformen er et stort it-projekt og derfor forventes det, at det fremgår af Leverandørens tilbud, at CV’et detaljeret beskriver, hvordan konsulentens tidligere har udført arbejde med ovenstående type opgaver, samt hvilken type projektet opgaverne er udført på.

Opgavelængde: 11 måneder + Option
Omfang: 40 timer ugentligt (fuldtid)
Opstart: 25. januar
Lokation: København, onsite (pt. remote grundet Covid-19)
Sprog: Dansk & Engelsk

Opgaverne vil bl.a. omfatte følgende:

  • Udvikling af DataOps koncept for automatiseret ingest og versionering af data til Data Warehouse.
  • Udvikling af automatiserede ETL-processer til transformation af data.
  • Udvikling af funktionalitet og opsætning/konfiguration af relevante cloud services, såsom Azure Data Factory og Azure Databricks.

Til løsning af ovenstående opgaver, forventes det, at konsulenten har følgende kompetencer, som der vil blive evalueret på. Ved evalueringen vægtes følgende kriterier lige:

  • Gennemgående kendskab til at skrive/udvikle ETL og ETL-processer (11,11%)
  • Gennemgående kendskab til kendte datamodellerings paradigmer f.eks. Kimball modellering. (11,11%)
  • Gennemgående kendskab til opsætning og anvendelse af Azure Data Factory (11,11%)
  • Gennemgående kendskab til Azure Databricks (11,11%)
  • Gennemgående kendskab til scripting languages som bash og powershell; kendskab til Azure CLI og Azure powershell (11,11%)
  • Gennemgående kendskab til etablering af dataflows og versionering af data ifm. Udvikling og idriftsættelse af ETL-jobs (DataOps). (11,11%)
  • Kendskab til Azure storage teknologier Azure SQL DB og Azure Synapse Analytics (11,11%)
  • Kendskab til SQL (T-SQL) (11,11%)
  • Gennemgående kendskab til sikkerhed og hemmelighedshåndtering på større dataplatformsprojekter. (11,11%)

Det skal beskrives på CV’et, hvordan disse kompetencer er opnået, fra hvilken type projekt og konsulentens rolle på projektet.

Det er godt at have kendskab til:

  • Certificering DP-201 Designing an Azure Data Solution
  • Certificering DP-200: Implementing an Azure Data Solution
  • Det bør fremgå på konsulentens CV, hvornår konsulenten fik sine certificeringer.

Kontakt os med det samme:
Har du de rette kompetencer, så send dit opdaterede CV til lhagelquist@avenida.dk med det samme!