Big Data Developer
Sysdata S.p.A.
Milano Italia
5 gg fa

Descrizione azienda

Sysdata S.p.A. è una delle principali società indipendenti di tecnologia e innovazione in Italia. La società - con i suoi oltre 300 professionisti a Milano, Torino, Bologna e Venezia - fornisce consulenza a grandi organizzazioni nei settori Finanziario, Retail, Automotive e Manifatturiero su progetti di innovazione tecnologica dalla definizione della strategia all'esecuzione.

I centri di eccellenza Sysdata includono Mobile & Web, UX & Interaction Design, Marketing Automation, Business Analytics & Data Science, Cloud Platforms, IoT & Telematics,.

Per maggiori informazioni

Posizione

Stiamo cercando una figura di BigData Developer con esperienza in tecnologie di data management enterprise, che voglia aggiungersi al nostro gruppo dedicato agli sviluppi in Cloud e Big Data.

La figura sarà coinvolta, come membro della squadra tecnica, in progettualità di data management, fra cui ingestion e processing di dati provenienti da diverse sorgenti e con diverse caratteristiche in termini di gestione della sicurezza e della governance del dato.

Le sue responsabilità :

Ingestion e processing di dati su larga scala relativamente alle progettualità in cui la figura verrà coinvolta.

Lettura, estrazione, trasformazione, staging e loading di dati nei tool e framework specifici della soluzione

Costruzione di pipeline e job ETL / ELT per consumare feed di dati da diverse sorgenti.

Implementazione di soluzioni Continuous Integration / Continuous Delivery (CI / CD) sfruttando gli standard aziendali previsti.

Elaborazione e gestione di pipeline per la trasformazione dei dati e lottimizzazione dello storage.

Design e implementazione di soluzioni per il supporto allalimentazione di Data Lake e l'utilizzo dei dati da parte dei vari consumer.

Requisiti :

Conoscenza di linguaggi di scripting per la data management, quali Python, Scala.

Conoscenza di linguaggi per linterrogazione dei database relazionali (SQL, Maria).

Conoscenza di base di almeno una delle soluzioni di storage per DataLake (ADLS2, AWS S3 o GCS)

Conoscenza di base di almeno uno strumento cloud di ETL e orchestrazione (Azure Data Factory, Apache Airflow, Google Workflow).

Esperienza in progetti con focus su data-platform e big data in generale, con particolare riferimento alle fasi di ingestion e processing dei dati.

Nice to Have :

Esperienza di sviluppo di processi di data engineering su soluzioni di Spark Pool gestite (Azure Databricks, AWS Glue, Google DataProc) in linguaggio Scala e / o pySpark

Esperienza di sviluppo su soluzioni cloud gestite di SQL Pool (AWS Athena, Azure Synapse, Snowflake)

Conoscenza di Object-Oriented Programming.

Esperienza nel deployment di funzioni serverless (AWS Lambda, Google Cloud Functions, Azure Functions) o componenti serverless, soprattutto orientati alla gestione dei dati, come AWS Glue

Esperienza di sviluppo di processi di data engineering su soluzioni di Spark Pool gestite (Azure Databricks, AWS Glue, Google DataProc) in linguaggio Scala e / o pySpark

Altre informazioni

Sede di lavoro : modalità ibrida con minima presenza in sede a Milano (Piazza della Repubblica, 32) e Bologna (Via Dè Carracci, 13)

Segnala questo annuncio
checkmark

Thank you for reporting this job!

Your feedback will help us improve the quality of our services.

Applica
La mia Email
Cliccando su “Continua”, autorizzo neuvoo ad utilizzare i miei dati ed inviarmi avvisi email come menzionato nella sezione Politica sulla Privacy di neuvoo. Posso ritirare il mio consenso e cancellare la registrazione in qualsiasi momento.
Continua
Modulo di candidatura