Milano, IT, 20139 +5 more…
17 days ago
Data Engineer

Stiamo cercando un/una Data Engineer esperto/a e motivato/a con un forte background nell'ecosistema Hadoop e una comprovata esperienza con Java Spring Boot (API Rest & Batches) e Oracle DB.

Il/la candidato/a ideale avrà almeno 3 anni di esperienza pratica nell'ingegneria dei dati e una passione per la progettazione, la costruzione e la manutenzione di applicazioni complesse e robuste.

L'esperienza nel settore finanziario è un plus, in quanto aiuterà a comprendere meglio le esigenze dei clienti e il dominio funzionale dell'applicazione.

 

Responsabilità chiave

Competenza nell'ecosistema Hadoop Progettare, implementare e ottimizzare pipeline di dati e flussi di lavoro sfruttando strumenti e tecnologie dell'ecosistema Hadoop, tra cui: HDFS, YARN, Spark, HBase, Impala, HIVE

 

Esperienza Java per API e processi batch

Costruire e distribuire API RESTful utilizzando Java Spring Boot per facilitare l'integrazione dei dati e l'interoperabilità tra i sistemi. Progettare e mantenere processi batch utilizzando Java, garantendo l'esecuzione efficiente dei flussi di lavoro dei dati e della logica aziendale. Implementare soluzioni robuste per la gestione degli errori, la registrazione e il monitoraggio.

 

Gestione dei database

Mantenere e ottimizzare soluzioni di database relazionali utilizzando Oracle DB. Scrivere query SQL e Spark SQL complesse ed efficienti per garantire prestazioni ottimali del database.

 

Ottimizzazione delle prestazioni e risoluzione dei problemi

Monitorare, risolvere i problemi e migliorare le prestazioni dei processi. Garantire l'integrità, la qualità e la sicurezza dei dati.

 

Collaborazione e supporto

Partecipare attivamente alle pratiche Agile, tra cui stand-up e retrospettive quotidiane, per garantire il raggiungimento efficiente degli obiettivi del progetto. Partecipare alle revisioni del codice, alle discussioni sul design e alla collaborazione del team per mantenere standard elevati.

 

Qualifiche richieste:

Competenza nei framework di calcolo distribuito e nell'elaborazione dei dati su scala. Esperienza con pipeline ETL e modellazione dei dati. Solida conoscenza della gestione dei cluster, della risoluzione dei problemi dei big data e dello sviluppo di API con Java Spring. Forti capacità analitiche e di risoluzione dei problemi con attenzione ai dettagli.

 

Se ti rivedi nel profilo descritto, fai application e noi daremo spazio al tuo talento!

Hai qualche domanda? Non ti ritrovi in questo profilo ma vuoi comunque un confronto con noi? Contattaci alla mail careeritaly@gft.com

 

Chi siamo?

GFT Technologies SE (GFT) fondata nel 1987, è oggi rappresentata da un team globale di circa 12.000 dipendenti in Europa, Nord e Sud America e Asia. Siamo costantemente impegnati a guidare la trasformazione digitale nel settore dei servizi finanziari, forniamo consulenza alle principali istituzioni finanziarie a livello mondiale e sviluppiamo soluzioni IT su misura – dalle applicazioni bancarie e sistemi di trading fino all’implementazione e al supporto di piattaforme complete, e modernization di sistemi core banking. Il nostro innovation team, che opera a livello globale, sviluppa, inoltre, nuovi modelli di business, focalizzandosi su temi quali blockchain, cloud engineering, intelligenza artificiale e Internet of Things, trasversalmente in tutti i settori.

 

In GFT potrai lavorare da remoto 5/5. Per informazioni sulle nostre policy sulla Privacy art13 L.679/2016 (GDPR), Diversity Equality & Inclusion, e Sostenibilità vai su: https://www.gft.com/it/it/about-us/Sustainability. GFT Technologies garantisce le pari opportunità nel percorso di selezione, assunzione e nei processi di crescita professionale.

 

Confirm your E-mail: Send Email