898 Posti di lavoro per Manager Di Team Di Analisi Dei Dati in Italia

Junior Big Data Analyst

Brescia, Lombardia Promos

Inserito 4 giorni fa

Lavoro visualizzato

Tocca di nuovo per chiudere

Descrizione Del Lavoro

La figura di Junior Big Data Analyst si occupa di analisi dei dati, elaborazione di reportistica al fine di soddisfare le esigenze delle Proprietà Immobiliari e di fornire dati a supporto dei vari dipartimenti aziendali, in particolar modo all’ufficio Leasing.

Attività principali

  • Predisposizione di presentazioni e materiale a supporto della trattativa commerciale
  • Predisposizione ed invio di proposte economiche agli affittuari
  • Attivazione e monitoraggio, attraverso comunicazioni ufficiali al gruppo di lavoro, delle varie procedure previste (legali, gestionali, tecniche, marketing, retail e amministrative)
  • Predisposizione documenti di approvazione trattativa da sottoporre alle Proprietà Immobiliari
  • Partecipazione attiva ai leasing meeting per la condivisione della strategia commerciale e dei relativi piani di lavoro
  • Analisi e monitoraggio costante dei KPIs a supporto delle attività strategiche
  • Predisposizione reportistica settimanale, mensile, trimestrale e annuale per le Proprietà Immobiliari
  • Predisposizione report aggiuntivi ad hoc su specifica richiesta
  • Preparazione, aggiornamento e invio di planimetrie commerciali di progetto
  • Archiviazione della documentazione principale

Requisiti

  • Laurea in materie economiche (triennale o magistrale)
  • Principi di matematica, amministrazione e finanza
  • Principali strumenti informatici (Internet, Posta Elettronica)
  • Ottima conoscenza del pacchetto Microsoft Office (in particolar modo Excel, PowerPoint)
  • Ottima conoscenza e padronanza della lingua inglese (parlata e scritta), il possesso di eventuali altre lingue straniere rappresenterà titolo preferenziale nella selezione del candidato/a
  • Disponibilità a trasferte
  • Sede di lavoro Brescia

Condividi

WhatsApp Facebook Messenger LinkedIn Twitter #J-18808-Ljbffr
Siamo spiacenti, questo lavoro non è disponibile nella tua regione

Junior Big Data Analyst

Lombardia, Lombardia Promos

Oggi

Lavoro visualizzato

Tocca di nuovo per chiudere

Descrizione Del Lavoro

La figura di Junior Big Data Analyst si occupa di analisi dei dati, elaborazione di reportistica al fine di soddisfare le esigenze delle Proprietà Immobiliari e di fornire dati a supporto dei vari dipartimenti aziendali, in particolar modo all’ufficio Leasing.

Attività principali

  • Predisposizione di presentazioni e materiale a supporto della trattativa commerciale
  • Predisposizione ed invio di proposte economiche agli affittuari
  • Attivazione e monitoraggio, attraverso comunicazioni ufficiali al gruppo di lavoro, delle varie procedure previste (legali, gestionali, tecniche, marketing, retail e amministrative)
  • Predisposizione documenti di approvazione trattativa da sottoporre alle Proprietà Immobiliari
  • Partecipazione attiva ai leasing meeting per la condivisione della strategia commerciale e dei relativi piani di lavoro
  • Analisi e monitoraggio costante dei KPIs a supporto delle attività strategiche
  • Predisposizione reportistica settimanale, mensile, trimestrale e annuale per le Proprietà Immobiliari
  • Predisposizione report aggiuntivi ad hoc su specifica richiesta
  • Preparazione, aggiornamento e invio di planimetrie commerciali di progetto
  • Archiviazione della documentazione principale

Requisiti

  • Laurea in materie economiche (triennale o magistrale)
  • Principi di matematica, amministrazione e finanza
  • Principali strumenti informatici (Internet, Posta Elettronica)
  • Ottima conoscenza del pacchetto Microsoft Office (in particolar modo Excel, PowerPoint)
  • Ottima conoscenza e padronanza della lingua inglese (parlata e scritta), il possesso di eventuali altre lingue straniere rappresenterà titolo preferenziale nella selezione del candidato/a
  • Disponibilità a trasferte
  • Sede di lavoro Brescia

Condividi

WhatsApp Facebook Messenger LinkedIn Twitter #J-18808-Ljbffr
Siamo spiacenti, questo lavoro non è disponibile nella tua regione

Modern & Big Data Engineer/Big Data Architect

Roma, Lazio Capgemini

Inserito 2 giorni fa

Lavoro visualizzato

Tocca di nuovo per chiudere

Descrizione Del Lavoro

Ti piacerebbe dare uno slancio alla tua carriera? Giocare un ruolo da protagonista in una azienda leader nel settore IT? Partecipare all’esperienza di innovazione tecnologica che viviamo ogni giorno in Capgemini?

Cogli l’opportunità, unisciti alla squadra, intraprendi il tuo viaggio.

Per l’accrescimento della practice Insights & Data , parte integrante della unit Digital Service che unisce Eccellenza Tecnologica, Data Science e Competenze di Business cross mercato per aiutare le organizzazioni a ottenere insights di valore attraverso le potenzialità della Data Driven View, siamo alla ricerca di Modern Big Data Engineer e Modern Big Data Architect.

La risorsa si occuperà di supportare i clienti nella progettazione e realizzazione di Architetture Dati Moderne (Modern Data Platform) , nella modellazione, nell’analisi dei dati, nello sviluppo , e nella rappresentazione degli stessi attraverso l’utilizzo di tool dedicati di front end, seguendo i principali base della Data Governance .

  • Laurea in discipline tecnico-scientifiche
  • Competenza nell’analisi e modellazione dati (concettuale e logica) su classico paradigma di Data Platform con architetture dati relazionali in logica DWH (es: ambiente Oracle, Teradata, Ms SQL Server, etc) oppure in ambiente NoSql (MongDB, Elasticsearch, .) e su soluzione open source (Apache Hive, Apache Impala, Apache Hadoop)
  • Conoscenza di uno o più linguaggi di programmazione e/o di interrogazione e piattaforme di sviluppo (Python, Pyspark, SQL, PL/SQL, R, SAS Base )
  • Competenza nella scrittura di query SQL avanzate.
  • Competenza nella progettazione di Architetture DWH Moderne e/o Big Data (Lambda, Kappa) e/o Distribuite (paradigma Data Mesh)
  • Conoscenza delle best practices per la sicurezza dei dati
  • Competenza nel disegno e nello sviluppo di processi di data integration & transformation (ETL) e fondamenti della Data Quality , attraverso i principali tool di mercato.
  • Conoscenza dei principali Framework Big Data e sw a corredo (Hadoop, Hive, Impala, Spark, Scala su framework Java o su framework Spark, etc).
  • Conoscenza delle best practices per la sicurezza dei dati.
  • Conoscenza dei principi base della Data Virtualization
  • Gradita conoscenza dei principi base dei processi e modelli di Data Governance e Master Data Management
  • Gradita conoscenza di tecniche di DevOps
  • Conoscenza della lingua inglese
  • Mentalità analitica , ordinata e orientata al problem solving
  • Attitudine alla comunicazione e al lavoro in team
  • Proattività e attitudine alla gestione del cliente
  • Passione per l’innovazione e l’Information Technology

Quel che ci distingue è esattamente ciò che ci definisce. I nostri talenti, le nostre persone perseguono gli obiettivi con entusiasmo e spirito di squadra, consapevoli di poterli raggiungere perché supportati da una realtà che non pone limiti alla crescita.

Valorizziamo l’onestà, l’iniziativa e il divertimento: questi i valori che ci rendono la prima scelta per i nostri clienti e un’ottima opportunità di crescita per ciascun talento. Assumiamo persone qualificate e di valore senza distinzioni di sesso, razza, disabilità, età, orientamento sessuale, religione o credo, stato civile accompagnando le nostre persone nel percorso di genitorialità.

Nutriamo una cultura inclusiva che permetta a tutti di mostrare a pieno il proprio potenziale e godere di una carriera soddisfacente. La nostra politica di flexible benefits e le nostre policies promuovono uno stile di vita improntato al work life balanced.

La nostra missione è impiegare, sviluppare e trattenere le persone migliori per fornire soluzioni innovative ai nostri clienti.

Teniamo fede ai nostri impegni, prestando attenzione alle risorse appartenenti alle categorie protette, ai sensi degli articoli 1 e 18 della legge 68 del ‘99.

I dati personali saranno trattati in conformità alle disposizioni contenute nel regolamento UE 2016/679.

#J-18808-Ljbffr
Siamo spiacenti, questo lavoro non è disponibile nella tua regione

Modern & Big Data Engineer/Big Data Architect

Lazio, Lazio Capgemini

Oggi

Lavoro visualizzato

Tocca di nuovo per chiudere

Descrizione Del Lavoro

Ti piacerebbe dare uno slancio alla tua carriera? Giocare un ruolo da protagonista in una azienda leader nel settore IT? Partecipare all’esperienza di innovazione tecnologica che viviamo ogni giorno in Capgemini?

Cogli l’opportunità, unisciti alla squadra, intraprendi il tuo viaggio.

Per l’accrescimento della practice Insights & Data , parte integrante della unit Digital Service che unisce Eccellenza Tecnologica, Data Science e Competenze di Business cross mercato per aiutare le organizzazioni a ottenere insights di valore attraverso le potenzialità della Data Driven View, siamo alla ricerca di Modern Big Data Engineer e Modern Big Data Architect.

La risorsa si occuperà di supportare i clienti nella progettazione e realizzazione di Architetture Dati Moderne (Modern Data Platform) , nella modellazione, nell’analisi dei dati, nello sviluppo , e nella rappresentazione degli stessi attraverso l’utilizzo di tool dedicati di front end, seguendo i principali base della Data Governance .

  • Laurea in discipline tecnico-scientifiche
  • Competenza nell’analisi e modellazione dati (concettuale e logica) su classico paradigma di Data Platform con architetture dati relazionali in logica DWH (es: ambiente Oracle, Teradata, Ms SQL Server, etc) oppure in ambiente NoSql (MongDB, Elasticsearch, .) e su soluzione open source (Apache Hive, Apache Impala, Apache Hadoop)
  • Conoscenza di uno o più linguaggi di programmazione e/o di interrogazione e piattaforme di sviluppo (Python, Pyspark, SQL, PL/SQL, R, SAS Base )
  • Competenza nella scrittura di query SQL avanzate.
  • Competenza nella progettazione di Architetture DWH Moderne e/o Big Data (Lambda, Kappa) e/o Distribuite (paradigma Data Mesh)
  • Conoscenza delle best practices per la sicurezza dei dati
  • Competenza nel disegno e nello sviluppo di processi di data integration & transformation (ETL) e fondamenti della Data Quality , attraverso i principali tool di mercato.
  • Conoscenza dei principali Framework Big Data e sw a corredo (Hadoop, Hive, Impala, Spark, Scala su framework Java o su framework Spark, etc).
  • Conoscenza delle best practices per la sicurezza dei dati.
  • Conoscenza dei principi base della Data Virtualization
  • Gradita conoscenza dei principi base dei processi e modelli di Data Governance e Master Data Management
  • Gradita conoscenza di tecniche di DevOps
  • Conoscenza della lingua inglese
  • Mentalità analitica , ordinata e orientata al problem solving
  • Attitudine alla comunicazione e al lavoro in team
  • Proattività e attitudine alla gestione del cliente
  • Passione per l’innovazione e l’Information Technology

Quel che ci distingue è esattamente ciò che ci definisce. I nostri talenti, le nostre persone perseguono gli obiettivi con entusiasmo e spirito di squadra, consapevoli di poterli raggiungere perché supportati da una realtà che non pone limiti alla crescita.

Valorizziamo l’onestà, l’iniziativa e il divertimento: questi i valori che ci rendono la prima scelta per i nostri clienti e un’ottima opportunità di crescita per ciascun talento. Assumiamo persone qualificate e di valore senza distinzioni di sesso, razza, disabilità, età, orientamento sessuale, religione o credo, stato civile accompagnando le nostre persone nel percorso di genitorialità.

Nutriamo una cultura inclusiva che permetta a tutti di mostrare a pieno il proprio potenziale e godere di una carriera soddisfacente. La nostra politica di flexible benefits e le nostre policies promuovono uno stile di vita improntato al work life balanced.

La nostra missione è impiegare, sviluppare e trattenere le persone migliori per fornire soluzioni innovative ai nostri clienti.

Teniamo fede ai nostri impegni, prestando attenzione alle risorse appartenenti alle categorie protette, ai sensi degli articoli 1 e 18 della legge 68 del ‘99.

I dati personali saranno trattati in conformità alle disposizioni contenute nel regolamento UE 2016/679.

#J-18808-Ljbffr
Siamo spiacenti, questo lavoro non è disponibile nella tua regione

Big Data Engineer

Piemonte, Piemonte Experis

Inserito 2 giorni fa

Lavoro visualizzato

Tocca di nuovo per chiudere

Descrizione Del Lavoro

workfromhome

Experis è la società IT & Technology del Gruppo Manpower.

Le persone e le loro competenze sono il nostro successo e insieme ci poniamo come partner tecnologici dei nostri clienti attraverso servizi e soluzioni.

Vogliamo essere artefici, proprio insieme a te, di un ambiente di lavoro innovativo, stimolante e flessibile, attraverso i nostri Valori: People, Knowledge e Innovation.

Experis ricerca un/una Big Data Engineer per potenziare la divisione Financial Services

Il profilo ricercato, una volta inserito nel contesto del team Big Data Hub, sarà incaricato delle seguenti attività:

  • Sviluppo di progetti Big Data in collaborazione e a guida del team di sviluppo dedicato;
  • Gestione dei layer di integrazione su piattaforma Big Data;
  • Contribuire alla evoluzione del sistema Big Data dando una visione prettamente tecnica sulla definizione degli standard, regole e modelli architetturali;
  • Redigere le soluzioni tecniche garantendo gli obiettivi di scalabilità, manutenibilità, sicurezza ed affidabilità del sistema;

Le caratteristiche della persona che si unirà al Team Experis

  • Laurea Magistrale in Informatica, Ingegneria Informatica o equivalente;
  • Conoscenza dei principali pattern architetturali di data-architecture, dei principali concetti e strumenti del contesto Big Data e del calcolo distribuito;
  • Conoscenza ed esperienza nell’utilizzo di strumenti di elaborazione batch (Spark, Amazon Athena, Google BigQuery, Hadoop, Hive, e similari ) e storicizzazione (Amazon S3, Google Cloud Storage, HDFS, e similari);
  • Esperienza con strumenti di elaborazione streaming (Flink, Storm, Spark Streaming, Kafka, e similari );
  • Conoscenza ed esperienza nell’utilizzo di DB NoSQ L (HBase, Cassandra, MongoDB e similari);
  • Conoscenza ed esperienza di linguaggi di programmazione (Java, Python, Scala), in particolare Scala;
  • Esperienza consolidata nella manipolazione, estrazione e trasformazione di database non strutturati;
  • Esperienza pregressa di utilizzo e sviluppo su distribuzione Cloudera e/o Databricks/AWS;
  • Fondamenti del Machine Learning e Deep Learning (algoritmi di clustering, classificazione e regressione);

Lavorerai in un gruppo multinazionale che per il quindicesimo anno è nella classifica delle "World’s Most Ethical Companies".

Manpower ha scelto di certificare il proprio impegno per la Responsabilità Sociale con la Certificazione Etica SA8000, per garantirne una valutazione e parametri oggettivi di misurazione. Il nostro non è solo uno slogan, crediamo nel talento! Il tuo sarà valorizzato attraverso percorsi di formazione e sviluppo personale e professionale.

Offerta: CCNL Commercio, tempo indeterminato, livello di inquadramento e RAL da commisurare in base all’esperienza del/la candidato/a

Benefit: accesso a corsi di formazione soft skills e tecnica; buoni pasto; convenzioni welfare.

Sviluppo: Career coaching: in Experis ogni persona disegna il piano di sviluppo professionale con il proprio Manager, a partire dall’identificazione di un learning path e obiettivi annuali assegnati e verificati attraverso un sistema di review annuale

Modalità di lavoro: On site con possibilità di 2 gg di smart working a settimana

Sede di lavoro : Bologna/Torino/Milano

Experis promuove pari opportunità e rispetto della diversità e inclusione, valutando candidati qualificati senza considerare nazionalità, etnia, credo religioso, orientamento sessuale e disabilità.

NOTE LEGALI: Experis è una compagnia eticamente responsabile. Il servizio è gratuito. I candidati ambosessi (L.903/77 - D.Lgs. n.198/2006) sono invitati a leggere l'informativa Privacy su Aut. Min. Prot. N. 1116 - SG - del 26/11/04.

Il titolare della registrazione e/o candidatura dichiara di essere a conoscenza delle sanzioni penali previste in caso di dichiarazioni mendaci o contenenti dati non più rispondenti a verità come previsto dal D.P.R. nº445 del

#J-18808-Ljbffr
Siamo spiacenti, questo lavoro non è disponibile nella tua regione

Big Data Engineer

NEVERHACK Italy

Inserito 3 giorni fa

Lavoro visualizzato

Tocca di nuovo per chiudere

Descrizione Del Lavoro

Overview

Innovery , gruppo di riferimento nel mercato italiano ed europeo con un’ampia offerta di soluzioni e servizi tecnologici, si è unito a Neverhack , con l’obiettivo di consolidare la propria presenza internazionale e rafforzare la proposta di valore nel settore ICT.

Fondato nel 2021 e presente in 10 Paesi, il Gruppo Neverhack conta attualmente oltre 1.200 professionisti in tutto il mondo. La nostra ambizione: continuare a crescere a livello globale per promuovere un ambiente digitale sempre più avanzato, sicuro ed efficiente.

Per uno dei nostri principali clienti, realtà di riferimento in Italia nel settore della mobilità connessa e dei servizi digitali su larga scala, siamo alla ricerca di un/a Big Data Engineer da inserire nel team Big Data Hub , con il compito di contribuire attivamente alla progettazione, sviluppo e realizzazione di progetti tecnologici in ambito dati.

Responsibilities
  • Definizione delle soluzioni tecniche in ambito Big Data.
  • Coordinamento e gestione di progetti complessi in area Big Data.
  • Progettazione e gestione di un data lake centralizzato integrando dati da polizze, sinistri, IoT automotive (black box), CRM e sistemi legacy.
  • Sviluppo di pipeline real-time con Kafka per l’analisi dei dati telematici automotive e la generazione automatica di alert in caso di incidenti.
  • Creazione di dashboard interattive in Tableau per il monitoraggio delle frodi, condivise con i team antifrode e risk management.
  • Definizione, insieme agli attuari, di modelli di regressione e machine learning per prevedere la frequenza dei sinistri e ottimizzare i premi.
  • Implementazione di processi di data quality e data cleansing per garantire consistenza e affidabilità dei dati provenienti da diversi canali.
Requirements
  • Data Visualization : Tableau, Power BI per la creazione di dashboard.
  • Machine Learning & AI : librerie come Scikit-learn, TensorFlow, PyTorch per modelli predittivi.
  • Ottima conoscenza della lingua inglese (scritta e parlata).
Il tuo spirito in Neverhack
  • Eccellenti capacità relazionali e comunicative.
  • Autonomia, pensiero analitico e forte orientamento al risultato.
  • Attitudine al lavoro in team e proattività.
La tua carriera con noi
  • Partecipazione a progetti innovativi con clienti leader.
  • Formazione e certificazioni con partner di prim'ordine.
  • Comunità interne di esperti in sicurezza informatica e sviluppo.
  • Piano di sviluppo professionale con mentoring e mobilità interna.

Unisciti a noi e contribuisci a costruire soluzioni che fanno la differenza. Il futuro dei dati passa anche da te!

#J-18808-Ljbffr
Siamo spiacenti, questo lavoro non è disponibile nella tua regione

Big Data Engineer

Lombardia, Lombardia UnipolTech

Inserito 4 giorni fa

Lavoro visualizzato

Tocca di nuovo per chiudere

Descrizione Del Lavoro

workfromhome

UnipolTech, società del Gruppo Unipol dedicata alla realizzazione di soluzioni tecnologiche innovative e servizi telematici/IoT distintivi e ad alto valore aggiunto per l’auto, la casa, il benessere e la salute è alla ricerca di un professionista esperto nella gestione di progetti Big Datada inserire nel contesto dell’Area Servizi Informatici della società con il ruolo di:

Sede di lavoro: Bologna / Milano / Firenze / Torino

Il profilo ricercato, una volta inserito nel contesto del team Big Data Hub di UnipolTech, sarà incaricato delle seguenti attività:

  • Sviluppo di progetti Big Data in collaborazione e a guida del team di sviluppo dedicato;
  • Gestione dei layer di integrazione su piattaforma Big Data;
  • Contribuire alla evoluzione del sistema Big Data dando una visione prettamente tecnica sulla definizione degli standard, regole e modelli architetturali;
  • Redigere le soluzioni tecniche garantendo gli obiettivi di scalabilità, manutenibilità, sicurezza ed affidabilità del sistema;
  • Laurea Magistrale in Informatica, Ingegneria Informatica o equivalente;
  • Precedente esperienza professionale nel ruolo di Big Data Engineer;
  • Abilità di analisi progettuale, di definizione e implementazione di soluzioni tecniche;
  • Conoscenza dei principali pattern architetturali di data-architecture, dei principali concetti e strumenti del contesto Big Data e del calcolo distribuito;
  • Conoscenza ed esperienza nell’utilizzo di strumenti di elaborazione batch (Spark, Amazon Athena, Google BigQuery, Hadoop, Hive, e similari) e storicizzazione (Amazon S3, Google Cloud Storage, HDFS, e similari);
  • Esperienza con strumenti di elaborazione streaming (Flink, Storm, Spark Streaming, Kafka, e similari);
  • Conoscenza ed esperienza nell’utilizzo di DB NoSQL (HBase, Cassandra, MongoDB e similari);
  • Conoscenza ed esperienza di linguaggi di programmazione (Java, Python, Scala), in particolare Scala;
  • Esperienza consolidata nella manipolazione, estrazione e trasformazione di database non strutturati;
  • Completano il profilo: ottime capacità relazionali, attitudine al lavoro in team, autonomia e problem solving;

Costituiscono requisiti preferenziali per la selezione i seguenti punti:

  • Esperienza pregressa di utilizzo e sviluppo su distribuzione Cloudera e/o Databricks/AWS;
  • Fondamenti del Machine Learning e Deep Learning (algoritmi di clustering, classificazione e regressione);
  • Principali tecniche di data wrangling, cleansing, exploration e featurization.

La ricerca è rivolta a candidati ambosessi ai sensi della L. 903/77 e D.lgs. 198/2006.

Il candidato in possesso delle competenze e delle esperienze richieste sarà inserito con rapporto di lavoro a tempo indeterminato ai sensi del CCNL Commercio e modalità di lavoro ibride (sede/ remote working).

San Donato Milanese, Lombardy, Italy 6 days ago

#J-18808-Ljbffr
Siamo spiacenti, questo lavoro non è disponibile nella tua regione
Sii il primo a saperlo

Informazioni sulle ultime novità Manager di team di analisi dei dati Posti di lavoro;/Posti Vacanti nella Italia !

BIG DATA ENGINEER

Canali, Emilia Romagna Manpower CORE Experis

Inserito 4 giorni fa

Lavoro visualizzato

Tocca di nuovo per chiudere

Descrizione Del Lavoro

workfromhome

Experis è la società IT & Technology del Gruppo Manpower. Le persone e le loro competenze sono il nostro successo e insieme ci poniamo come partner tecnologici dei nostri clienti attraverso servizi e soluzioni. Vogliamo essere artefici, proprio insieme a te, di un ambiente di lavoro innovativo, stimolante e flessibile, attraverso i nostri Valori: People, Knowledge e Innovation.

Experis ricerca un/una Big Data Engineer per potenziare la divisione Financial Services

Mission

Il profilo ricercato, una volta inserito nel contesto del team Big Data Hub, sarà incaricato delle seguenti attività:

  • Sviluppo di progetti Big Data in collaborazione e a guida del team di sviluppo dedicato;
  • Gestione dei layer di integrazione su piattaforma Big Data;
  • Contribuire alla evoluzione del sistema Big Data dando una visione prettamente tecnica sulla definizione degli standard, regole e modelli architetturali;
  • Redigere le soluzioni tecniche garantendo gli obiettivi di scalabilità, manutenibilità, sicurezza ed affidabilità del sistema;
Le caratteristiche della persona che si unirà al Team Experis
  • Laurea Magistrale in Informatica, Ingegneria Informatica o equivalente;
  • Conoscenza dei principali pattern architetturali di data-architecture, dei principali concetti e strumenti del contesto Big Data e del calcolo distribuito;
  • Conoscenza ed esperienza nell’utilizzo di strumenti di elaborazione batch (Spark, Amazon Athena, Google BigQuery, Hadoop, Hive, e similari) e storicizzazione (Amazon S3, Google Cloud Storage, HDFS, e similari);
  • Esperienza con strumenti di elaborazione streaming (Flink, Storm, Spark Streaming, Kafka, e similari);
  • Conoscenza ed esperienza nell’utilizzo di DB NoSQL (HBase, Cassandra, MongoDB e similari);
  • Conoscenza ed esperienza di linguaggi di programmazione (Java, Python, Scala), in particolare Scala;
  • Esperienza consolidata nella manipolazione, estrazione e trasformazione di database non strutturati;
  • Esperienza pregressa di utilizzo e sviluppo su distribuzione Cloudera e/o Databricks/AWS;
  • Fondamenti del Machine Learning e Deep Learning (algoritmi di clustering, classificazione e regressione);
Cosa offriamo

Lavorerai in un gruppo multinazionale che per il quindicesimo anno è nella classifica delle World’s Most Ethical Companies. Manpower ha scelto di certificare il proprio impegno per la Responsabilità Sociale con la Certificazione Etica SA8000, per garantirne una valutazione e parametri oggettivi di misurazione. Il nostro non è solo uno slogan, crediamo nel talento! Il tuo sarà valorizzato attraverso percorsi di formazione e sviluppo personale e professionale.

Offerta: CCNL Commercio, tempo indeterminato, livello di inquadramento e RAL da commisurare in base all’esperienza del/la candidato/a

Benefit: accesso a corsi di formazione soft skills e tecnica; buoni pasto; convenzioni welfare.

Sviluppo: Career coaching: in Experis ogni persona disegna il piano di sviluppo professionale con il proprio Manager, a partire dall’identificazione di un learning path e obiettivi annuali assegnati e verificati attraverso un sistema di review annuale

Modalità di lavoro: On site con possibilità di 2gg di smart working a settimana

Sede di lavoro: Bologna/Torino/Milano

Experis promuove pari opportunità e rispetto della diversità e inclusione, valutando candidati qualificati senza considerare nazionalità, etnia, credo religioso, orientamento sessuale e disabilità.

Experis è una compagnia eticamente responsabile. Il servizio è gratuito. I candidati ambosessi (L.903/77 - D.Lgs. n.198/2006) sono invitati a leggere l'informativa Privacy su Aut. Min. Prot. N. 1116 - SG - del 26/11/04.

Il titolare della registrazione e/o candidatura dichiara di essere a conoscenza delle sanzioni penali previste in caso di dichiarazioni mendaci o contenenti dati non più rispondenti a verità come previsto dal D.P.R. nº445 del

#J-18808-Ljbffr
Siamo spiacenti, questo lavoro non è disponibile nella tua regione

Big Data Engineer

Piemonte, Piemonte eGlue

Inserito 6 giorni fa

Lavoro visualizzato

Tocca di nuovo per chiudere

Descrizione Del Lavoro

workfromhome
Overview

eGlue è un partner considerato strategico dalle aziende clienti che desiderano innovare e ottimizzare la comunicazione digitale con il proprio customer base. Con oltre 40 anni di esperienza, eGlue affianca i propri clienti in un percorso di trasformazione digitale che abbraccia la comunicazione, la consulenza e l'innovazione tecnologica. L'azienda opera attraverso tre principali aree di business:

  • Engagement Services: eGlue connette le aziende e i loro clienti attraverso strumenti innovativi di comunicazione con l’obiettivo di creare e perfezionare l’esperienza del cliente (Customer Journey) e di conseguire gli obiettivi di business dell’azienda.
  • CCM Consulting: Grazie a una profonda conoscenza del mercato IT e delle dinamiche di business, eGlue offre consulenza di processo per supportare le aziende nello sviluppo e nell'implementazione di strategie in ambito di digital comunication e digital trasformation
  • IT Consulting: eGlue fornisce consulenza IT altamente specializzata in ambito Governance, Cloud & Infrastructure, Big Data & AI e Cyber Security. Con profili verticalizzati sui settori Banking, Insurance, Energy e Utilities, eGlue si propone come un partner in grado di rispondere alle sfide più complesse dei propri clienti, offrendo soluzioni su misura e un supporto di eccellenza.

In ottica di potenziamento della ns divisione IT Consulting stiamo ricercando una figura di:

La persona lavorerà sul progetto di uno dei nostri principali clienti di ambito Finance.

Attività
  • Sviluppo di progetti Big Data garantendo gli obiettivi di scalabilità, manutenibilità, sicurezza ed affidabilità del sistema;
  • Gestione dei layer di integrazione su piattaforma Big Data;
  • Contribuire alla definizione degli standard, regole e modelli architetturali;
  • Coordinamento operativo degli attori coinvolti.
Requisiti
  • Laurea Magistrale in Informatica, Ingegneria Informatica o equivalente;
  • Almeno 2-3 anni di esperienza nel ruolo;
  • Abilità di analisi progettuale, di definizione e implementazione di soluzioni tecniche;
  • Linguaggi di programmazione: Java, Python R (Scala preferenziale);
  • Conoscenza dei principali pattern architetturali di data-architecture;
  • Conoscenza ed esperienza nell’utilizzo di strumenti di elaborazione batch (e.g. Spark, Amazon Athena, Google BigQuery, Hadoop, Hive) e storicizzazione (e.g. Amazon S3, Google Cloud Storage, HDFS);
  • Strumenti di elaborazione streaming (e.g. Flink, Storm, Spark Streaming, Kafka, e similari);
  • Manipolazione, estrazione e trasformazione di database non strutturati;
Requisiti preferenziali
  • Esperienza pregressa di utilizzo e sviluppo su distribuzione Cloudera e/o Databricks/AWS;
  • Fondamenti del Machine Learning e Deep Learning (algoritmi di clustering, classificazione e regressione);
  • Principali tecniche di data wrangling, cleansing, exploration e featurization.
Sede di Lavoro

Torino

Modalità di Lavoro

alternanza settimanale tra presenza on-site (3 gg) e lavoro da remoto (2gg).

Contratto

Assunzione Diretta a tempo indeterminato con contratto CCNL Metalmeccanico, fino a 55.000€ RAL. L’offerta include buoni pasto da 6,50€ per giorno lavorato.

#J-18808-Ljbffr
Siamo spiacenti, questo lavoro non è disponibile nella tua regione

Big Data Engineer

40139 Canali, Emilia Romagna eGlue

Inserito 13 giorni fa

Lavoro visualizzato

Tocca di nuovo per chiudere

Descrizione Del Lavoro

workfromhome

eGlue è un partner considerato strategico dalle aziende clienti che desiderano innovare e ottimizzare la comunicazione digitale con il proprio customer base. Con oltre 40 anni di esperienza, eGlue affianca i propri clienti in un percorso di trasformazione digitale che abbraccia la comunicazione, la consulenza e l'innovazione tecnologica. L'azienda opera attraverso tre principali aree di business:

  • Engagement Services: eGlue connette le aziende e i loro clienti attraverso strumenti innovativi di comunicazione con l’obiettivo di creare e perfezionare l’esperienza del cliente (Customer Journey) e di conseguire gli obiettivi di business dell’azienda.
  • CCM Consulting: Grazie a una profonda conoscenza del mercato IT e delle dinamiche di business, eGlue offre consulenza di processo per supportare le aziende nello sviluppo e nell'implementazione di strategie in ambito di digital comunication e digital trasformation
  • IT Consulting: eGlue fornisce consulenza IT altamente specializzata in ambito Governance, Cloud & Infrastructure, Big Data & AI e Cyber Security. Con profili verticalizzati sui settori Banking, Insurance, Energy e Utilities, eGlue si propone come un partner in grado di rispondere alle sfide più complesse dei propri clienti, offrendo soluzioni su misura e un supporto di eccellenza.

In ottica di potenziamento della ns divisione IT Consulting stiamo ricercando una figura di:

La persona lavorerà sul progetto di uno dei nostri principali clienti di ambito Finance.

Attività:

  • Sviluppo di progetti Big Data garantendo gli obiettivi di scalabilità, manutenibilità, sicurezza ed affidabilità del sistema;
  • Gestione dei layer di integrazione su piattaforma Big Data;
  • Contribuire alla definizione degli standard, regole e modelli architetturali;
  • Coordinamento operativo degli attori coinvolti.
  • Laurea Magistrale in Informatica, Ingegneria Informatica o equivalente;
  • Almeno 2-3 anni di esperienza nel ruolo;
  • Abilità di analisi progettuale, di definizione e implementazione di soluzioni tecniche;
  • Linguaggi di programmazione: Java, Python R (Scala preferenziale);
  • Conoscenza dei principali pattern architetturali di data-architecture;
  • Conoscenza ed esperienza nell’utilizzo di strumenti di elaborazione batch (e.g. Spark, Amazon Athena, Google BigQuery, Hadoop, Hive) e storicizzazione (e.g. Amazon S3, Google Cloud Storage, HDFS);
  • Strumenti di elaborazione streaming (e.g. Flink, Storm, Spark Streaming, Kafka, e similari);
  • Manipolazione, estrazione e trasformazione di database non strutturati;

A completamento del profilo costituiscono requisito preferenziale:

  • Esperienza pregressa di utilizzo e sviluppo su distribuzione Cloudera e/o Databricks/AWS;
  • Fondamenti del Machine Learning e Deep Learning (algoritmi di clustering, classificazione e regressione);
  • Principali tecniche di data wrangling, cleansing, exploration e featurization.

Sede di Lavoro : Bologna

Modalità di Lavoro : alternanza settimanale tra presenza on-site (3 gg) e lavoro da remoto (2gg).

Contratto: Assunzione Diretta a tempo indeterminato con contratto CCNL Metalmeccanico, fino a 55.000€ RAL. L’offerta include buoni pasto da 6,50€ per giorno lavorato.

Casalecchio di Reno, Emilia-Romagna, Italy 23 hours ago

Bologna, Emilia-Romagna, Italy 1 week ago

Bologna, Emilia-Romagna, Italy 1 week ago

Bologna, Emilia-Romagna, Italy 1 week ago

#J-18808-Ljbffr
Siamo spiacenti, questo lavoro non è disponibile nella tua regione

Località vicine

Altri lavori vicino a me

Industria

  1. location_cityAcquisti
  2. location_cityAgricoltura e Silvicoltura
  3. location_cityAmministrazione
  4. location_cityApprendistato e Tirocinio
  5. location_cityArchitettura
  6. location_cityArte e Intrattenimento
  7. location_cityAssicurazioni
  8. location_cityAssistenza all’Infanzia
  9. location_cityAutomobilistico
  10. location_cityAviazione
  11. location_cityBanca e Finanza
  12. location_cityBellezza e Benessere
  13. location_cityBeneficenza e Volontariato
  14. location_cityBeni di Largo Consumo
  15. location_cityCommerciale e Vendite
  16. location_cityComunità e Assistenza Sociale
  17. location_cityConsulenza Manageriale
  18. location_cityConsulenza Risorse Umane
  19. location_cityContabilità
  20. location_cityCreatività e Digitale
  21. location_cityCriptovalute e Blockchain
  22. location_cityE-commerce e Social Media
  23. location_cityEdilizia
  24. boltEnergia
  25. boltEstrazione Mineraria
  26. boltFarmaceutico
  27. boltForze Armate e Sicurezza Pubblica
  28. boltGoverno e No Profit
  29. boltImmobiliare
  30. boltInfermieristica
  31. boltInformatica e Software
  32. boltIngegneria Chimica
  33. boltIngegneria Civile
  34. boltIngegneria Elettrica
  35. boltIngegneria Industriale
  36. boltIngegneria Meccanica
  37. boltInstallazione e Manutenzione
  38. boltIntelligenza Artificiale e Tecnologie Emergenti
  39. boltIstruzione e Insegnamento
  40. boltLaureati
  41. boltLegale
  42. boltLogistica e Magazzino
  43. supervisor_accountManagement
  44. campaignMarketing
  45. campaignMedia e Pubbliche Relazioni
  46. local_hospitalMedicina
  47. local_hospitalOdontoiatria
  48. local_hospitalOspitalità e Turismo
  49. local_hospitalPetrolio e Gas
  50. local_hospitalProduzione e Manifattura
  51. checklist_rtlProject Management
  52. checklist_rtlPulizia e Sanificazione
  53. checklist_rtlRicerca Scientifica e Sviluppo
  54. checklist_rtlRisorse Umane
  55. checklist_rtlRistorazione
  56. checklist_rtlSanità
  57. checklist_rtlServizio Clienti e Assistenza
  58. checklist_rtlSicurezza Informatica
  59. checklist_rtlTelecomunicazioni
  60. checklist_rtlTempo Libero e Sport
  61. psychologyTerapia
  62. psychologyTrasporti
  63. psychologyVendita al Dettaglio
  64. petsVeterinaria
Visualizza tutto Manager di team di analisi dei dati Posti di lavoro;/Posti Vacanti