>   Training   >   Industry 4.0 & Digital transformation   >   Percorso Industrial data scientist

Linkedin

Facebook

Email

Twitter

S
h
a
r
e

Percorso Industrial data scientist
Programma e Date

s

8^ed. Milano
Modalità: Blended
In corso

Modulo 1

Digital Transformation

03 Ott 2025

Modulo 2

Data driven company

Terminata

Modulo 3.1

Data Analytics

Terminata

Modulo 3.2

Artificial intelligence

In corso
02-03 Lug 2025
04-05 Set 2025
02 Ott 2025

: Scarica il piano date

Mod. 1: Digital Transformation


top

Introduzione/obiettivi/idee progettuali

  • Digital Transformation: Innovazione tecnologica vs Strategia oganizzativa
  • Le 3 diverse strategie della Digital transformation: Matrice / Volumi / Valore
  • I fattori abilitanti
  • Il dato come miglioramento continuo
  • Un approccio alla Data analysis
  • Le competenze del Data scientist
  • Cenni alla Data Governance
  • Potenziali progetti di Data analytics - gruppo di lavoro

Continua a leggere

Introduzione/obiettivi/idee progettuali

  • Digital Transformation: Innovazione tecnologica vs Strategia oganizzativa
  • Le 3 diverse strategie della Digital transformation: Matrice / Volumi / Valore
  • I fattori abilitanti
  • Il dato come miglioramento continuo
  • Un approccio alla Data analysis
  • Le competenze del Data scientist
  • Cenni alla Data Governance
  • Potenziali progetti di Data analytics - gruppo di lavoro

Riduci

Mod. 2: Data driven company


top

Data orientation

  • Il percorso del dato per estrarne valore
  • Raccolta ed elaborazione di dati strutturati, semi-strutturati e non-strutturati
  • Lavorare sul flusso dei dati
  • Integrazione delle diverse fonti dati
  • Comprendere gli elementi fondamentali del percorso
  • La catena di trasformazione del dato
  • Architetture di riferimento
  • La qualità e sicurezza del dato
  • Il cloud
  • Consumare il dato
  • MES e Sensori
  • Casi pratici e introduzione al Project work operativo

Introduzione e Concetti Fondamentali

  • Differenza tra dati e informazioni
    • Definizione e concetti chiave
    • Esempi pratici di trasformazione dei dati in informazioni
  • Dinamicità ed eterogeneità dei dati
    • Strutturati, semi-strutturati e non strutturati
    • Fonti di dati (transazionali, social, IoT, etc.)
    • Evoluzione nel tempo e impatti sulla gestione

Data Lake e Architetture di Dati

  • Perché “Data Lake”?
    • Differenza con i Data Warehouse
    • Vantaggi e sfide
    • Architetture tipiche (raw, processed, curated layers)
  • Ciclo di vita dei dati
    • Ingestione, storage, elaborazione, analisi e archiviazione
    • Strumenti e best practice
    • Governance e qualità dei dati
  • Basi dati relazionali e non relazionali
    • SQL vs NoSQL: differenze e casi d'uso
    • Scalabilità e disponibilità

Elaborazione e Analisi dei Dati

  • Flussi in real-time
    • Streaming vs batch processing
    • Strumenti (Kafka, Azure Event Hub, Apache Flink)
  • Introduzione ai Big Data
    • Le 5V dei Big Data (Volume, Velocità, Varietà, Veridicità, Valore)
    • Architetture Lambda e Kappa
  • Big or not big? Scegliere la tecnologia giusta
    • Criteri di scelta (scalabilità, costi, prestazioni)
    • Esempi pratici e decision making

Strumenti e Tecnologie per Big Data

  • Introduzione a Hadoop/Spark
    • Ecosistema Hadoop (HDFS, Hive, Yarn)
    • Spark e il paradigma distribuito
  • Introduzione al mondo cloud: pro e contro
    • Modelli di deployment (IaaS, PaaS, SaaS)
    • Soluzioni cloud per data lake (Azure Data Lake, AWS S3, Google Cloud Storage)
    • Costi e considerazioni di sicurezza

Strategie di Valorizzazione dei Dati

  • Feature engineering e data enrichment
    • Pre-elaborazione dei dati per il machine learning
    • Tecniche di aggregazione, normalizzazione e trasformazione
  • Data virtualization
    • Accesso ai dati senza spostarli

Continua a leggere

Data orientation

  • Il percorso del dato per estrarne valore
  • Raccolta ed elaborazione di dati strutturati, semi-strutturati e non-strutturati
  • Lavorare sul flusso dei dati
  • Integrazione delle diverse fonti dati
  • Comprendere gli elementi fondamentali del percorso
  • La catena di trasformazione del dato
  • Architetture di riferimento
  • La qualità e sicurezza del dato
  • Il cloud
  • Consumare il dato
  • MES e Sensori
  • Casi pratici e introduzione al Project work operativo

Introduzione e Concetti Fondamentali

  • Differenza tra dati e informazioni
    • Definizione e concetti chiave
    • Esempi pratici di trasformazione dei dati in informazioni
  • Dinamicità ed eterogeneità dei dati
    • Strutturati, semi-strutturati e non strutturati
    • Fonti di dati (transazionali, social, IoT, etc.)
    • Evoluzione nel tempo e impatti sulla gestione

Data Lake e Architetture di Dati

  • Perché “Data Lake”?
    • Differenza con i Data Warehouse
    • Vantaggi e sfide
    • Architetture tipiche (raw, processed, curated layers)
  • Ciclo di vita dei dati
    • Ingestione, storage, elaborazione, analisi e archiviazione
    • Strumenti e best practice
    • Governance e qualità dei dati
  • Basi dati relazionali e non relazionali
    • SQL vs NoSQL: differenze e casi d'uso
    • Scalabilità e disponibilità

Elaborazione e Analisi dei Dati

  • Flussi in real-time
    • Streaming vs batch processing
    • Strumenti (Kafka, Azure Event Hub, Apache Flink)
  • Introduzione ai Big Data
    • Le 5V dei Big Data (Volume, Velocità, Varietà, Veridicità, Valore)
    • Architetture Lambda e Kappa
  • Big or not big? Scegliere la tecnologia giusta
    • Criteri di scelta (scalabilità, costi, prestazioni)
    • Esempi pratici e decision making

Strumenti e Tecnologie per Big Data

  • Introduzione a Hadoop/Spark
    • Ecosistema Hadoop (HDFS, Hive, Yarn)
    • Spark e il paradigma distribuito
  • Introduzione al mondo cloud: pro e contro
    • Modelli di deployment (IaaS, PaaS, SaaS)
    • Soluzioni cloud per data lake (Azure Data Lake, AWS S3, Google Cloud Storage)
    • Costi e considerazioni di sicurezza

Strategie di Valorizzazione dei Dati

  • Feature engineering e data enrichment
    • Pre-elaborazione dei dati per il machine learning
    • Tecniche di aggregazione, normalizzazione e trasformazione
  • Data virtualization
    • Accesso ai dati senza spostarli

Riduci

Mod. 3.1: Data Analytics


top

Data Analytics & Artificial Intelligence Statistical learning 1

Opzionale per certificati Six Sigma Green Belt e/o Black Belt

  • Introduzione ai modelli matematici
  • Utilità e limiti di un modello matematico
  • Terminologia di settore e caratteristiche: AI, ML, DL, SL
  • Linguaggi e tecnologie dell’AI
  • Low code, no code e frugal coding
  • Modelli supervised e unsupervised
  • Training, validation, test
  • Regressione, classificazione, clusterizzazione
  • Principali algoritmi usati per statistical learning

Data Analytics & Artificial Intelligence Statistical learning 2

Opzionale per certificati Six Sigma Green Belt e/o Black Belt

  • Esempi pratici con il software Statistica
  • Introduzione al concetto di qualità
  • Introduzione agli strumenti statistici per la qualità
  • Carte di controllo
  • Capacità di processo
  • Introduzione al DoE come strumento per creare e migliorare la qualità
  • Carte di controllo e machine learning
  • Classificazione di serie temporali
  • Predizione dei valori di capacità

Continua a leggere

Data Analytics & Artificial Intelligence Statistical learning 1

Opzionale per certificati Six Sigma Green Belt e/o Black Belt

  • Introduzione ai modelli matematici
  • Utilità e limiti di un modello matematico
  • Terminologia di settore e caratteristiche: AI, ML, DL, SL
  • Linguaggi e tecnologie dell’AI
  • Low code, no code e frugal coding
  • Modelli supervised e unsupervised
  • Training, validation, test
  • Regressione, classificazione, clusterizzazione
  • Principali algoritmi usati per statistical learning

Data Analytics & Artificial Intelligence Statistical learning 2

Opzionale per certificati Six Sigma Green Belt e/o Black Belt

  • Esempi pratici con il software Statistica
  • Introduzione al concetto di qualità
  • Introduzione agli strumenti statistici per la qualità
  • Carte di controllo
  • Capacità di processo
  • Introduzione al DoE come strumento per creare e migliorare la qualità
  • Carte di controllo e machine learning
  • Classificazione di serie temporali
  • Predizione dei valori di capacità

Riduci

Mod. 3.2: Artificial intelligence


top

Machine learning

  • Esempi pratici con R/Python e il software Statistica
  • Introduzione al Machine learning
  • Classificazioni: prevedere etichette
  • Regressioni: prevedere numeri
  • Principali algoritmi di ML (Alberi, ensamble models, random forest, ...)
  • Migliorare il modello: Parametri e Iperparametri come ricercarli
  • Performance e principali metriche (Accuracy, F1, ecc...)
  • Problematiche: Overfitting e altre questioni relative all'apprendimento del modello.
  • Riproducibilita' e messa in opera di una soluzione ML
  • Introduzione al deep learning
  • Obiettivi del deep learning
  • Requisiti del deep learning
  • Dal percettrone al neurone, allo strato di neuroni
  • Funzioni di attivazione, apprendimento e tasks.
  • Backpropagation, gradient-descent e ottimizzatori
  • Meccanismi di regolarizzazione e overfitting.
  • Ricerca degli Iperparametri
  • Le principali architetture (Dense, Convolutive, Ricorrenti)
  • Modelli preallenati, transfer learining e fine-tuning.
  • Mettere in produzione una soluzione deep learning
  • AI generativa
  • Dati sintetici: produrli e utilizzarli
  • Processare il linguaggio: Natural Language Processing
  • Capire il testo: gli Embeddings
  • Large Language Models (LLM)
  • Costi degli LLM e Tokenizzazione
  • Modelli in cloud e on-premises, modelli aperti e proprietari.
  • Memoria di un LLM
  • Agenti AI

Introduzione alla Trasformazione dei Dati

  • Perché è fondamentale la trasformazione dei dati?
    • Il ruolo dell'ETL/ELT nel ciclo di vita del dato
    • Differenze tra dati grezzi e dati trasformati
    • Benefici della preparazione dei dati per analytics e reporting
  • Tipologie di trasformazioni comuni
    • Data cleaning (gestione dei null, duplicati, formati incoerenti)
    • Data enrichment (arricchimento con dati esterni, feature engineering)
    • Aggregazioni e calcoli derivati

ETL vs ELT: Scelte Architetturali

  • Definizione e differenze tra ETL e ELT
    • Quando usare ETL e quando ELT
    • Impatti su performance e scalabilità
  • Architetture cloud e on-premise
    • Differenze tra strumenti cloud-based e tradizionali
  • Modelli di trasformazione
    • Batch vs real-time processing
    • Ingestion incrementale vs full load

Strumenti di ETL/ELT

  • Panoramica sugli strumenti di mercato
    • Azure Data Factory, SSIS, Databricks, Fabric
  • Scenari di utilizzo e confronto tra gli strumenti

Connessione alle Fonti Dati

  • Origini dati più comuni
    • Database relazionali, API, file, streaming data
  • Tecniche di estrazione ottimizzate
    • CDC (Change Data Capture), Partizionamento e parallelizzazione

Trasformazione dei Dati: Tecniche e Strategie

  • Tecniche di data transformation
    • Normalizzazione, Data wrangling, Derivazione di metriche
  • Gestione della qualità del dato
    • Convalida e profilazione, Monitoraggio delle anomalie

Data Pipeline: Dalla Progettazione all'Implementazione

  • Fasi di una pipeline di trasformazione
    • Ingestion → Processing → Storage → Delivery
  • Best practices di design delle pipeline
  • Esercitazione pratica con Fabric

Data Warehouse e DataLakeHouse: Scenari di Trasformazione

  • Differenze tra Data Lake e Data DataLakeHouse
  • Layering architetturale per una gestione ottimale
  • Pattern di trasformazione per Data Warehouse

Esercitazioni ed Esempi Pratici

  • Laboratorio 1: Estrazione e trasformazione di dati
  • Laboratorio 2: Pulizia e aggregazione di dati
  • Laboratorio 3: Ottimizzazione di una pipeline

Casi Progettuali su Piattaforma Azure

  • Architettura di un moderno data platform
  • Data ingestion con Fabric
  • Governance dei dati e gestione dei costi

Best Practice e Lezioni Apprese dal Campo

  • Naming conventions e documentazione
  • Ottimizzazione delle query e dei flussi
  • Sicurezza e gestione dei permessi sui dati
  • Errori comuni e come evitarli

Cosa dobbiamo fare vedere?

  • Definizione di visualizzazione efficace
  • Differenza tra esplorazione e comunicazione dei dati
  • Obiettivi di business vs analisi esplorativa

Il contesto di visualizzazione

  • Tipologie di utenti (executive, analisti, operativi)
  • Storytelling con i dati: come guidare le decisioni
  • Scelta del giusto tipo di grafico (bar chart, line chart, heatmap, etc.)

Report-based tool vs Model-based tool

  • Differenze principali tra report statici e modelli di analisi dinamica
  • Vantaggi e svantaggi di ciascun approccio

Come distribuire le informazioni

  • Report statici vs interattivi
  • Condivisione e sicurezza dei report
  • Automazione dei processi di reporting

Rispondere alle domande (reporting efficace)

  • Tecniche di reporting per la presa di decisioni
  • Identificazione delle KPI chiave
  • Adattamento delle visualizzazioni alle esigenze degli stakeholder

Filtri e modalità di navigazione

  • Filtri di pagina, di report e drill-through
  • Slicers e filtri personalizzati
  • Navigazione gerarchica e interattività

Esercitazioni ed esempi pratici con Power BI

  • Creazione di report da zero
  • Connessione a diverse fonti dati
  • Personalizzazione delle visualizzazioni

Casi progettuali sulla piattaforma Fabric

  • Integrazione con DataLakehouse
  • Scalabilità e performance

Best practice ed esempi dal campo

  • Errori comuni da evitare
  • Ottimizzazione delle prestazioni

Data Governance e Project work

  • Best practice ed esempi dal campo
  • Governance progettuale
  • Impostazione project work

Digital Innovation

  • Digital innovation - Progetti One 2 One

Continua a leggere

Machine learning

  • Esempi pratici con R/Python e il software Statistica
  • Introduzione al Machine learning
  • Classificazioni: prevedere etichette
  • Regressioni: prevedere numeri
  • Principali algoritmi di ML (Alberi, ensamble models, random forest, ...)
  • Migliorare il modello: Parametri e Iperparametri come ricercarli
  • Performance e principali metriche (Accuracy, F1, ecc...)
  • Problematiche: Overfitting e altre questioni relative all'apprendimento del modello.
  • Riproducibilita' e messa in opera di una soluzione ML
  • Introduzione al deep learning
  • Obiettivi del deep learning
  • Requisiti del deep learning
  • Dal percettrone al neurone, allo strato di neuroni
  • Funzioni di attivazione, apprendimento e tasks.
  • Backpropagation, gradient-descent e ottimizzatori
  • Meccanismi di regolarizzazione e overfitting.
  • Ricerca degli Iperparametri
  • Le principali architetture (Dense, Convolutive, Ricorrenti)
  • Modelli preallenati, transfer learining e fine-tuning.
  • Mettere in produzione una soluzione deep learning
  • AI generativa
  • Dati sintetici: produrli e utilizzarli
  • Processare il linguaggio: Natural Language Processing
  • Capire il testo: gli Embeddings
  • Large Language Models (LLM)
  • Costi degli LLM e Tokenizzazione
  • Modelli in cloud e on-premises, modelli aperti e proprietari.
  • Memoria di un LLM
  • Agenti AI

Introduzione alla Trasformazione dei Dati

  • Perché è fondamentale la trasformazione dei dati?
    • Il ruolo dell'ETL/ELT nel ciclo di vita del dato
    • Differenze tra dati grezzi e dati trasformati
    • Benefici della preparazione dei dati per analytics e reporting
  • Tipologie di trasformazioni comuni
    • Data cleaning (gestione dei null, duplicati, formati incoerenti)
    • Data enrichment (arricchimento con dati esterni, feature engineering)
    • Aggregazioni e calcoli derivati

ETL vs ELT: Scelte Architetturali

  • Definizione e differenze tra ETL e ELT
    • Quando usare ETL e quando ELT
    • Impatti su performance e scalabilità
  • Architetture cloud e on-premise
    • Differenze tra strumenti cloud-based e tradizionali
  • Modelli di trasformazione
    • Batch vs real-time processing
    • Ingestion incrementale vs full load

Strumenti di ETL/ELT

  • Panoramica sugli strumenti di mercato
    • Azure Data Factory, SSIS, Databricks, Fabric
  • Scenari di utilizzo e confronto tra gli strumenti

Connessione alle Fonti Dati

  • Origini dati più comuni
    • Database relazionali, API, file, streaming data
  • Tecniche di estrazione ottimizzate
    • CDC (Change Data Capture), Partizionamento e parallelizzazione

Trasformazione dei Dati: Tecniche e Strategie

  • Tecniche di data transformation
    • Normalizzazione, Data wrangling, Derivazione di metriche
  • Gestione della qualità del dato
    • Convalida e profilazione, Monitoraggio delle anomalie

Data Pipeline: Dalla Progettazione all'Implementazione

  • Fasi di una pipeline di trasformazione
    • Ingestion → Processing → Storage → Delivery
  • Best practices di design delle pipeline
  • Esercitazione pratica con Fabric

Data Warehouse e DataLakeHouse: Scenari di Trasformazione

  • Differenze tra Data Lake e Data DataLakeHouse
  • Layering architetturale per una gestione ottimale
  • Pattern di trasformazione per Data Warehouse

Esercitazioni ed Esempi Pratici

  • Laboratorio 1: Estrazione e trasformazione di dati
  • Laboratorio 2: Pulizia e aggregazione di dati
  • Laboratorio 3: Ottimizzazione di una pipeline

Casi Progettuali su Piattaforma Azure

  • Architettura di un moderno data platform
  • Data ingestion con Fabric
  • Governance dei dati e gestione dei costi

Best Practice e Lezioni Apprese dal Campo

  • Naming conventions e documentazione
  • Ottimizzazione delle query e dei flussi
  • Sicurezza e gestione dei permessi sui dati
  • Errori comuni e come evitarli

Cosa dobbiamo fare vedere?

  • Definizione di visualizzazione efficace
  • Differenza tra esplorazione e comunicazione dei dati
  • Obiettivi di business vs analisi esplorativa

Il contesto di visualizzazione

  • Tipologie di utenti (executive, analisti, operativi)
  • Storytelling con i dati: come guidare le decisioni
  • Scelta del giusto tipo di grafico (bar chart, line chart, heatmap, etc.)

Report-based tool vs Model-based tool

  • Differenze principali tra report statici e modelli di analisi dinamica
  • Vantaggi e svantaggi di ciascun approccio

Come distribuire le informazioni

  • Report statici vs interattivi
  • Condivisione e sicurezza dei report
  • Automazione dei processi di reporting

Rispondere alle domande (reporting efficace)

  • Tecniche di reporting per la presa di decisioni
  • Identificazione delle KPI chiave
  • Adattamento delle visualizzazioni alle esigenze degli stakeholder

Filtri e modalità di navigazione

  • Filtri di pagina, di report e drill-through
  • Slicers e filtri personalizzati
  • Navigazione gerarchica e interattività

Esercitazioni ed esempi pratici con Power BI

  • Creazione di report da zero
  • Connessione a diverse fonti dati
  • Personalizzazione delle visualizzazioni

Casi progettuali sulla piattaforma Fabric

  • Integrazione con DataLakehouse
  • Scalabilità e performance

Best practice ed esempi dal campo

  • Errori comuni da evitare
  • Ottimizzazione delle prestazioni

Data Governance e Project work

  • Best practice ed esempi dal campo
  • Governance progettuale
  • Impostazione project work

Digital Innovation

  • Digital innovation - Progetti One 2 One

Riduci

LOGIN



Ricordami

Se hai dimenticato la password clicca qui.

Non sei ancora iscritto?

Registrati

utente completo