Percorso Industrial data scientist Programma e Date
8^ed. Milano
Modalità: Blended
In corso
Modulo 1
Digital Transformation
03 Ott 2025
Modulo 2
Data driven company
Terminata
Modulo 3.1
Data Analytics
Terminata
Modulo 3.2
Artificial intelligence
In corso
02-03 Lug 2025
04-05 Set 2025
02 Ott 2025
Mod. 1: Digital Transformation
top
Introduzione/obiettivi/idee progettuali
- Digital Transformation: Innovazione tecnologica vs Strategia oganizzativa
- Le 3 diverse strategie della Digital transformation: Matrice / Volumi / Valore
- I fattori abilitanti
- Il dato come miglioramento continuo
- Un approccio alla Data analysis
- Le competenze del Data scientist
- Cenni alla Data Governance
- Potenziali progetti di Data analytics - gruppo di lavoro
Continua a leggere
Introduzione/obiettivi/idee progettuali
- Digital Transformation: Innovazione tecnologica vs Strategia oganizzativa
- Le 3 diverse strategie della Digital transformation: Matrice / Volumi / Valore
- I fattori abilitanti
- Il dato come miglioramento continuo
- Un approccio alla Data analysis
- Le competenze del Data scientist
- Cenni alla Data Governance
- Potenziali progetti di Data analytics - gruppo di lavoro
Riduci
Mod. 2: Data driven company
top
Data orientation
- Il percorso del dato per estrarne valore
- Raccolta ed elaborazione di dati strutturati, semi-strutturati e non-strutturati
- Lavorare sul flusso dei dati
- Integrazione delle diverse fonti dati
- Comprendere gli elementi fondamentali del percorso
- La catena di trasformazione del dato
- Architetture di riferimento
- La qualità e sicurezza del dato
- Il cloud
- Consumare il dato
- MES e Sensori
- Casi pratici e introduzione al Project work operativo
Introduzione e Concetti Fondamentali
- Differenza tra dati e informazioni
- Definizione e concetti chiave
- Esempi pratici di trasformazione dei dati in informazioni
- Dinamicità ed eterogeneità dei dati
- Strutturati, semi-strutturati e non strutturati
- Fonti di dati (transazionali, social, IoT, etc.)
- Evoluzione nel tempo e impatti sulla gestione
Data Lake e Architetture di Dati
- Perché “Data Lake”?
- Differenza con i Data Warehouse
- Vantaggi e sfide
- Architetture tipiche (raw, processed, curated layers)
- Ciclo di vita dei dati
- Ingestione, storage, elaborazione, analisi e archiviazione
- Strumenti e best practice
- Governance e qualità dei dati
- Basi dati relazionali e non relazionali
- SQL vs NoSQL: differenze e casi d'uso
- Scalabilità e disponibilità
Elaborazione e Analisi dei Dati
- Flussi in real-time
- Streaming vs batch processing
- Strumenti (Kafka, Azure Event Hub, Apache Flink)
- Introduzione ai Big Data
- Le 5V dei Big Data (Volume, Velocità, Varietà, Veridicità, Valore)
- Architetture Lambda e Kappa
- Big or not big? Scegliere la tecnologia giusta
- Criteri di scelta (scalabilità, costi, prestazioni)
- Esempi pratici e decision making
Strumenti e Tecnologie per Big Data
- Introduzione a Hadoop/Spark
- Ecosistema Hadoop (HDFS, Hive, Yarn)
- Spark e il paradigma distribuito
- Introduzione al mondo cloud: pro e contro
- Modelli di deployment (IaaS, PaaS, SaaS)
- Soluzioni cloud per data lake (Azure Data Lake, AWS S3, Google Cloud Storage)
- Costi e considerazioni di sicurezza
Strategie di Valorizzazione dei Dati
- Feature engineering e data enrichment
- Pre-elaborazione dei dati per il machine learning
- Tecniche di aggregazione, normalizzazione e trasformazione
- Data virtualization
- Accesso ai dati senza spostarli
Continua a leggere
Data orientation
- Il percorso del dato per estrarne valore
- Raccolta ed elaborazione di dati strutturati, semi-strutturati e non-strutturati
- Lavorare sul flusso dei dati
- Integrazione delle diverse fonti dati
- Comprendere gli elementi fondamentali del percorso
- La catena di trasformazione del dato
- Architetture di riferimento
- La qualità e sicurezza del dato
- Il cloud
- Consumare il dato
- MES e Sensori
- Casi pratici e introduzione al Project work operativo
Introduzione e Concetti Fondamentali
- Differenza tra dati e informazioni
- Definizione e concetti chiave
- Esempi pratici di trasformazione dei dati in informazioni
- Dinamicità ed eterogeneità dei dati
- Strutturati, semi-strutturati e non strutturati
- Fonti di dati (transazionali, social, IoT, etc.)
- Evoluzione nel tempo e impatti sulla gestione
Data Lake e Architetture di Dati
- Perché “Data Lake”?
- Differenza con i Data Warehouse
- Vantaggi e sfide
- Architetture tipiche (raw, processed, curated layers)
- Ciclo di vita dei dati
- Ingestione, storage, elaborazione, analisi e archiviazione
- Strumenti e best practice
- Governance e qualità dei dati
- Basi dati relazionali e non relazionali
- SQL vs NoSQL: differenze e casi d'uso
- Scalabilità e disponibilità
Elaborazione e Analisi dei Dati
- Flussi in real-time
- Streaming vs batch processing
- Strumenti (Kafka, Azure Event Hub, Apache Flink)
- Introduzione ai Big Data
- Le 5V dei Big Data (Volume, Velocità, Varietà, Veridicità, Valore)
- Architetture Lambda e Kappa
- Big or not big? Scegliere la tecnologia giusta
- Criteri di scelta (scalabilità, costi, prestazioni)
- Esempi pratici e decision making
Strumenti e Tecnologie per Big Data
- Introduzione a Hadoop/Spark
- Ecosistema Hadoop (HDFS, Hive, Yarn)
- Spark e il paradigma distribuito
- Introduzione al mondo cloud: pro e contro
- Modelli di deployment (IaaS, PaaS, SaaS)
- Soluzioni cloud per data lake (Azure Data Lake, AWS S3, Google Cloud Storage)
- Costi e considerazioni di sicurezza
Strategie di Valorizzazione dei Dati
- Feature engineering e data enrichment
- Pre-elaborazione dei dati per il machine learning
- Tecniche di aggregazione, normalizzazione e trasformazione
- Data virtualization
- Accesso ai dati senza spostarli
Riduci
Mod. 3.1: Data Analytics
top
Data Analytics & Artificial Intelligence Statistical learning 1
Opzionale per certificati Six Sigma Green Belt e/o Black Belt
- Introduzione ai modelli matematici
- Utilità e limiti di un modello matematico
- Terminologia di settore e caratteristiche: AI, ML, DL, SL
- Linguaggi e tecnologie dell’AI
- Low code, no code e frugal coding
- Modelli supervised e unsupervised
- Training, validation, test
- Regressione, classificazione, clusterizzazione
- Principali algoritmi usati per statistical learning
Data Analytics & Artificial Intelligence Statistical learning 2
Opzionale per certificati Six Sigma Green Belt e/o Black Belt
- Esempi pratici con il software Statistica
- Introduzione al concetto di qualità
- Introduzione agli strumenti statistici per la qualità
- Carte di controllo
- Capacità di processo
- Introduzione al DoE come strumento per creare e migliorare la qualità
- Carte di controllo e machine learning
- Classificazione di serie temporali
- Predizione dei valori di capacità
Continua a leggere
Data Analytics & Artificial Intelligence Statistical learning 1
Opzionale per certificati Six Sigma Green Belt e/o Black Belt
- Introduzione ai modelli matematici
- Utilità e limiti di un modello matematico
- Terminologia di settore e caratteristiche: AI, ML, DL, SL
- Linguaggi e tecnologie dell’AI
- Low code, no code e frugal coding
- Modelli supervised e unsupervised
- Training, validation, test
- Regressione, classificazione, clusterizzazione
- Principali algoritmi usati per statistical learning
Data Analytics & Artificial Intelligence Statistical learning 2
Opzionale per certificati Six Sigma Green Belt e/o Black Belt
- Esempi pratici con il software Statistica
- Introduzione al concetto di qualità
- Introduzione agli strumenti statistici per la qualità
- Carte di controllo
- Capacità di processo
- Introduzione al DoE come strumento per creare e migliorare la qualità
- Carte di controllo e machine learning
- Classificazione di serie temporali
- Predizione dei valori di capacità
Riduci
Mod. 3.2: Artificial intelligence
top
Machine learning
- Esempi pratici con R/Python e il software Statistica
- Introduzione al Machine learning
- Classificazioni: prevedere etichette
- Regressioni: prevedere numeri
- Principali algoritmi di ML (Alberi, ensamble models, random forest, ...)
- Migliorare il modello: Parametri e Iperparametri come ricercarli
- Performance e principali metriche (Accuracy, F1, ecc...)
- Problematiche: Overfitting e altre questioni relative all'apprendimento del modello.
- Riproducibilita' e messa in opera di una soluzione ML
- Introduzione al deep learning
- Obiettivi del deep learning
- Requisiti del deep learning
- Dal percettrone al neurone, allo strato di neuroni
- Funzioni di attivazione, apprendimento e tasks.
- Backpropagation, gradient-descent e ottimizzatori
- Meccanismi di regolarizzazione e overfitting.
- Ricerca degli Iperparametri
- Le principali architetture (Dense, Convolutive, Ricorrenti)
- Modelli preallenati, transfer learining e fine-tuning.
- Mettere in produzione una soluzione deep learning
- AI generativa
- Dati sintetici: produrli e utilizzarli
- Processare il linguaggio: Natural Language Processing
- Capire il testo: gli Embeddings
- Large Language Models (LLM)
- Costi degli LLM e Tokenizzazione
- Modelli in cloud e on-premises, modelli aperti e proprietari.
- Memoria di un LLM
- Agenti AI
Introduzione alla Trasformazione dei Dati
- Perché è fondamentale la trasformazione dei dati?
- Il ruolo dell'ETL/ELT nel ciclo di vita del dato
- Differenze tra dati grezzi e dati trasformati
- Benefici della preparazione dei dati per analytics e reporting
- Tipologie di trasformazioni comuni
- Data cleaning (gestione dei null, duplicati, formati incoerenti)
- Data enrichment (arricchimento con dati esterni, feature engineering)
- Aggregazioni e calcoli derivati
ETL vs ELT: Scelte Architetturali
- Definizione e differenze tra ETL e ELT
- Quando usare ETL e quando ELT
- Impatti su performance e scalabilità
- Architetture cloud e on-premise
- Differenze tra strumenti cloud-based e tradizionali
- Modelli di trasformazione
- Batch vs real-time processing
- Ingestion incrementale vs full load
Strumenti di ETL/ELT
- Panoramica sugli strumenti di mercato
- Azure Data Factory, SSIS, Databricks, Fabric
- Scenari di utilizzo e confronto tra gli strumenti
Connessione alle Fonti Dati
- Origini dati più comuni
- Database relazionali, API, file, streaming data
- Tecniche di estrazione ottimizzate
- CDC (Change Data Capture), Partizionamento e parallelizzazione
Trasformazione dei Dati: Tecniche e Strategie
- Tecniche di data transformation
- Normalizzazione, Data wrangling, Derivazione di metriche
- Gestione della qualità del dato
- Convalida e profilazione, Monitoraggio delle anomalie
Data Pipeline: Dalla Progettazione all'Implementazione
- Fasi di una pipeline di trasformazione
- Ingestion → Processing → Storage → Delivery
- Best practices di design delle pipeline
- Esercitazione pratica con Fabric
Data Warehouse e DataLakeHouse: Scenari di Trasformazione
- Differenze tra Data Lake e Data DataLakeHouse
- Layering architetturale per una gestione ottimale
- Pattern di trasformazione per Data Warehouse
Esercitazioni ed Esempi Pratici
- Laboratorio 1: Estrazione e trasformazione di dati
- Laboratorio 2: Pulizia e aggregazione di dati
- Laboratorio 3: Ottimizzazione di una pipeline
Casi Progettuali su Piattaforma Azure
- Architettura di un moderno data platform
- Data ingestion con Fabric
- Governance dei dati e gestione dei costi
Best Practice e Lezioni Apprese dal Campo
- Naming conventions e documentazione
- Ottimizzazione delle query e dei flussi
- Sicurezza e gestione dei permessi sui dati
- Errori comuni e come evitarli
Cosa dobbiamo fare vedere?
- Definizione di visualizzazione efficace
- Differenza tra esplorazione e comunicazione dei dati
- Obiettivi di business vs analisi esplorativa
Il contesto di visualizzazione
- Tipologie di utenti (executive, analisti, operativi)
- Storytelling con i dati: come guidare le decisioni
- Scelta del giusto tipo di grafico (bar chart, line chart, heatmap, etc.)
Report-based tool vs Model-based tool
- Differenze principali tra report statici e modelli di analisi dinamica
- Vantaggi e svantaggi di ciascun approccio
Come distribuire le informazioni
- Report statici vs interattivi
- Condivisione e sicurezza dei report
- Automazione dei processi di reporting
Rispondere alle domande (reporting efficace)
- Tecniche di reporting per la presa di decisioni
- Identificazione delle KPI chiave
- Adattamento delle visualizzazioni alle esigenze degli stakeholder
Filtri e modalità di navigazione
- Filtri di pagina, di report e drill-through
- Slicers e filtri personalizzati
- Navigazione gerarchica e interattività
Esercitazioni ed esempi pratici con Power BI
- Creazione di report da zero
- Connessione a diverse fonti dati
- Personalizzazione delle visualizzazioni
Casi progettuali sulla piattaforma Fabric
- Integrazione con DataLakehouse
- Scalabilità e performance
Best practice ed esempi dal campo
- Errori comuni da evitare
- Ottimizzazione delle prestazioni
Data Governance e Project work
- Best practice ed esempi dal campo
- Governance progettuale
- Impostazione project work
Digital Innovation
- Digital innovation - Progetti One 2 One
Continua a leggere
Machine learning
- Esempi pratici con R/Python e il software Statistica
- Introduzione al Machine learning
- Classificazioni: prevedere etichette
- Regressioni: prevedere numeri
- Principali algoritmi di ML (Alberi, ensamble models, random forest, ...)
- Migliorare il modello: Parametri e Iperparametri come ricercarli
- Performance e principali metriche (Accuracy, F1, ecc...)
- Problematiche: Overfitting e altre questioni relative all'apprendimento del modello.
- Riproducibilita' e messa in opera di una soluzione ML
- Introduzione al deep learning
- Obiettivi del deep learning
- Requisiti del deep learning
- Dal percettrone al neurone, allo strato di neuroni
- Funzioni di attivazione, apprendimento e tasks.
- Backpropagation, gradient-descent e ottimizzatori
- Meccanismi di regolarizzazione e overfitting.
- Ricerca degli Iperparametri
- Le principali architetture (Dense, Convolutive, Ricorrenti)
- Modelli preallenati, transfer learining e fine-tuning.
- Mettere in produzione una soluzione deep learning
- AI generativa
- Dati sintetici: produrli e utilizzarli
- Processare il linguaggio: Natural Language Processing
- Capire il testo: gli Embeddings
- Large Language Models (LLM)
- Costi degli LLM e Tokenizzazione
- Modelli in cloud e on-premises, modelli aperti e proprietari.
- Memoria di un LLM
- Agenti AI
Introduzione alla Trasformazione dei Dati
- Perché è fondamentale la trasformazione dei dati?
- Il ruolo dell'ETL/ELT nel ciclo di vita del dato
- Differenze tra dati grezzi e dati trasformati
- Benefici della preparazione dei dati per analytics e reporting
- Tipologie di trasformazioni comuni
- Data cleaning (gestione dei null, duplicati, formati incoerenti)
- Data enrichment (arricchimento con dati esterni, feature engineering)
- Aggregazioni e calcoli derivati
ETL vs ELT: Scelte Architetturali
- Definizione e differenze tra ETL e ELT
- Quando usare ETL e quando ELT
- Impatti su performance e scalabilità
- Architetture cloud e on-premise
- Differenze tra strumenti cloud-based e tradizionali
- Modelli di trasformazione
- Batch vs real-time processing
- Ingestion incrementale vs full load
Strumenti di ETL/ELT
- Panoramica sugli strumenti di mercato
- Azure Data Factory, SSIS, Databricks, Fabric
- Scenari di utilizzo e confronto tra gli strumenti
Connessione alle Fonti Dati
- Origini dati più comuni
- Database relazionali, API, file, streaming data
- Tecniche di estrazione ottimizzate
- CDC (Change Data Capture), Partizionamento e parallelizzazione
Trasformazione dei Dati: Tecniche e Strategie
- Tecniche di data transformation
- Normalizzazione, Data wrangling, Derivazione di metriche
- Gestione della qualità del dato
- Convalida e profilazione, Monitoraggio delle anomalie
Data Pipeline: Dalla Progettazione all'Implementazione
- Fasi di una pipeline di trasformazione
- Ingestion → Processing → Storage → Delivery
- Best practices di design delle pipeline
- Esercitazione pratica con Fabric
Data Warehouse e DataLakeHouse: Scenari di Trasformazione
- Differenze tra Data Lake e Data DataLakeHouse
- Layering architetturale per una gestione ottimale
- Pattern di trasformazione per Data Warehouse
Esercitazioni ed Esempi Pratici
- Laboratorio 1: Estrazione e trasformazione di dati
- Laboratorio 2: Pulizia e aggregazione di dati
- Laboratorio 3: Ottimizzazione di una pipeline
Casi Progettuali su Piattaforma Azure
- Architettura di un moderno data platform
- Data ingestion con Fabric
- Governance dei dati e gestione dei costi
Best Practice e Lezioni Apprese dal Campo
- Naming conventions e documentazione
- Ottimizzazione delle query e dei flussi
- Sicurezza e gestione dei permessi sui dati
- Errori comuni e come evitarli
Cosa dobbiamo fare vedere?
- Definizione di visualizzazione efficace
- Differenza tra esplorazione e comunicazione dei dati
- Obiettivi di business vs analisi esplorativa
Il contesto di visualizzazione
- Tipologie di utenti (executive, analisti, operativi)
- Storytelling con i dati: come guidare le decisioni
- Scelta del giusto tipo di grafico (bar chart, line chart, heatmap, etc.)
Report-based tool vs Model-based tool
- Differenze principali tra report statici e modelli di analisi dinamica
- Vantaggi e svantaggi di ciascun approccio
Come distribuire le informazioni
- Report statici vs interattivi
- Condivisione e sicurezza dei report
- Automazione dei processi di reporting
Rispondere alle domande (reporting efficace)
- Tecniche di reporting per la presa di decisioni
- Identificazione delle KPI chiave
- Adattamento delle visualizzazioni alle esigenze degli stakeholder
Filtri e modalità di navigazione
- Filtri di pagina, di report e drill-through
- Slicers e filtri personalizzati
- Navigazione gerarchica e interattività
Esercitazioni ed esempi pratici con Power BI
- Creazione di report da zero
- Connessione a diverse fonti dati
- Personalizzazione delle visualizzazioni
Casi progettuali sulla piattaforma Fabric
- Integrazione con DataLakehouse
- Scalabilità e performance
Best practice ed esempi dal campo
- Errori comuni da evitare
- Ottimizzazione delle prestazioni
Data Governance e Project work
- Best practice ed esempi dal campo
- Governance progettuale
- Impostazione project work
Digital Innovation
- Digital innovation - Progetti One 2 One
Riduci
S
h
a
r
e