en

Intervista a Alberto Albertini - Innovation Center Director, Technology Scouting in Antares Vision Group

1 Dicembre 2021

Tempo di lettura: 6 minuti

Ciao Alberto! Il nostro blog è frequentato soprattutto da data scientist e quindi una premessa è d’obbligo: cos’è la pressocolata dell’alluminio?!

Mi permetto di partire dalle basi in virtù della mia esperienza trentennale nel settore. La pressocolata è il processo mediante il quale un metallo fuso (una lega di alluminio soprattutto), viene iniettato ad alta pressione (centinaia di bar) in uno stampo di acciaio. Una volta che il metallo si è solidificato, si apre lo stampo e si estrae il pezzo.

Sembra semplice, ma una macchina (parliamo di macchine orizzontali e oleodinamiche, comunemente dette “presse”), ha un numero straordinario di parametri da regolare e monitorare per funzionare correttamente, e non sono valori stabili nel tempo, ma vanno continuamente modificati durante il processo, anche per l’interazione con altre periferiche di automazione. 

Inoltre stiamo parlando della produzione di getti di leghe di alluminio e magnesio con geometrie molto complesse, con spessori anche molto piccoli, soprattutto per l’Automotive o per componenti elettronici. L’ingegneria dello stampo è fondamentale per la buona riuscita del pezzo, così come lo sono moltissime altre variabili spesso collegate tra loro.

Per dare un ordine di grandezza, basandoci su un’analisi fatta per un costruttore di macchine, sono circa 28 i parametri che influenzano gli scarti, 15 quelli che influenzano la disponibilità delle macchine e 6 quelli relativi alle performance globali. Capite come sia complesso per un operatore ottimizzare il funzionamento delle macchine senza l’aiuto di strumenti di analisi dati e ottimizzazione.

Dal punto di vista dell'innovazione legata ai dati, come si posiziona il settore della pressocolata dell’alluminio?

É un mondo che ha investito moltissimo in automazione negli ultimi 15 anni, nelle cosiddette “Isole automatiche di lavoro” nelle quali sono stati integrati via via altri macchinari e relativi sistemi elettronici di gestione. Nel tempo la meccanica (tranne forse per la macchina a due piani, anziché tre), l’idraulica e soprattutto l’elettronica a bordo macchina si sono evolute meno, mentre l’obiettivo sempre più pressante diventava rendere il processo più performante ed efficiente. Si è lavorato anche sull’ottimizzazione del processo e la riduzione dei tempi ciclo, aumentando la produttività degli stampi, anche per realizzare pezzi di dimensioni maggiori e con spessori ridotti al minimo (i “getti strutturali” che compongono la carrozzeria).

La parte di computer vision e analisi dei dati è stata invece trascurata.

Secondo te quale potrebbe essere la causa per questa mancanza di innovazione legata ai dati?

Sono tematiche nuove per tutti i settori e sicuramente quello della pressocolata è da decenni più conservatore e tradizionale, così come tutta l’industria legata alla produzione di componenti è in ritardo rispetto ad altri ambiti dove i dati sono raccolti con più facilità e analizzati in maniera più automatica. 

È un settore dove c’è ancora una fortissima dipendenza dall’operatore e dalla sua conoscenza della specifica macchina e del processo. Ma è anche un settore che soffre la mancanza di giovani operatori formati e in grado di favorire un adeguato ricambio generazionale.

É proprio il tema delle competenze che deve essere affrontato per colmare il gap. Le macchine sono in continua evoluzione dal punto di vista tecnologico, ma le persone come evolvono?

L’attività di formazione portata avanti dal CSMT di Brescia (https://www.csmt.it/) va proprio in questa direzione: l’High Pressure Die Casting School e la Low Pressure Die Casting School, avviate nel 2014 e nel 2017 in collaborazione con AQM, nascono per rispondere alla chiamata del mercato, in particolare l’Automotive, preparando tecnicamente i futuri operatori di settore, per garantire l’operatività e la competitività delle nostre aziende.

Ma i corsi di formazione non riescono a contemplare tutte le tecnologie più innovative, anche perché l’intelligenza artificiale è molto recente e non comprende ancora un’offerta adeguata di consulenza, programmi e servizi per le imprese. In questo senso Orobix ha consolidato un metodo di lavoro che mette le aziende al centro del processo di adozione dell’AI favorendo il trasferimento di competenze per una più consapevole messa in opera delle nuove tecnologie.

Scendendo nel dettaglio del tema dati, quali sono le applicazioni che secondo te sono più pronte ad essere messe in campo? Sai che noi di Oròbix siamo per le cose concrete...

Le applicazioni sono davvero molteplici, le dividerei in relazione ai dati di input che vengono analizzati: da un lato le serie di dati ricavate direttamente dal processo, e dall’altro le immagini che in questo contesto sono, ad esempio, le immagini termografiche degli stampi. La pressocolata è un processo dove le temperature giocano un ruolo fondamentale.

Per quanto riguarda i dati derivanti dal processo, potrebbero essere usati in primis per tarare le macchine. Non esiste infatti una taratura standard e costante, i parametri non sono stabili nel tempo ma evolvono in relazione a molteplici fattori, comportando la realizzazione di pezzi non sempre di qualità. Strumenti di anomaly detection, possono essere utili per evidenziare in maniera preventiva eventuali derive nei parametri, evitando la produzione di pezzi non conformi e quindi lo spreco di risorse legate alle successive attività (ad esempio la lavorazione meccanica). 

Un monitoring real time e intelligente delle macchine potrebbe essere uno strumento formidabile per migliorare la conduzione delle macchine stesse, con notevoli miglioramenti in termini di OEE (Overall Equipment Effectiveness). Per dare un ordine di grandezza dei risultati ottenibili, con un sistema di questo tipo si stima un miglioramento dell’OEE, che è l’indicatore principe per misurare l’efficienza delle macchine, superiore al 10%. Se penso che spesso il margine di un pressocolatore è molto inferiore al 10%, sono numeri che dovrebbero suscitare un notevole interesse.

Gli stessi strumenti possono essere usati per la manutenzione predittiva sui componenti della macchina, soprattutto le elettrovalvole (sempre più performanti nel feedback, per garantire comandi e retroazioni in tempo reale), consentendo di evitare guasti e fermi macchina improvvisi e permettendo la pianificazione delle operazioni di manutenzione, sulla base di dati real time e non delle indicazioni riportate in scheda tecnica, con notevoli benefici anche lato gestione del magazzino dei pezzi di ricambio e del servizio assistenza.

Ma gli stessi dati possono essere usati anche per “allenare” un modello di ottimizzazione dei parametri macchina, che apprenda – sulla base dell’esperienza pregressa – strategie di fine tuning delle grandezze che influenzano l’ottenimento di pezzi conformi, riducendo i tempi ciclo e massimizzando la produttività.

Infine si può lavorare con algoritmi di computer vision, arrivando ad usare anche immagini termografiche che evidenziano le regioni calde e fredde di una specifica parte della macchina e dello stampo, al fine di individuare in anticipo eventuali derive o fenomeni anomali e dare indicazione agli operatori e alle centraline di termoregolazione per riportare il sistema nel suo stato normale.

Ma quindi anche in questo caso i dati salveranno il mondo della pressocolata dell’alluminio…?!?! 😁

Da “pressocolatore” (“fondeur” dicono nella mia provincia, probabilmente ricordando una qualche dominazione francese visto che nelle mie valli lavorano i metalli da secoli), rimango con i piedi per terra: è ferma l’ambizione di capire un po’ meglio il processo di pressocolata con i dati, anche se non si deve avere la presunzione di farlo senza l’aiuto degli esperti. 

Comunque rimane innegabile che attraverso l’analisi dei dati è possibile mettere in luce gli aspetti critici del processo e dare agli operatori la possibilità di intervenire in tempo. Con risultati che potrebbero essere sorprendenti per il settore.

Credo ci sia la possibilità di dare un aiuto enorme agli operatori del settore che, oltre all’esperienza, possono imparare a gestire le macchine anche attraverso gli output degli algoritmi, con un notevole risparmio di tempo e la possibilità di investire tempo e risorse sugli aspetti più di dettaglio e di supervisione generale. Un’utilissima lente di ingrandimento su ciò che sta succedendo.

Cosa suggeriresti a un imprenditore del settore che vuole capirne di più e magari iniziare un progetto di intelligenza artificiale?

Prima di tutto di non pensare che l’intelligenza artificiale sia qualcosa di teorico o adatto solo ad alcuni settori, o ancora funzionante solo in laboratorio. Ormai ci sono parecchie applicazioni concrete nell’ambito manifatturiero, lungo tutta la filiera, che danno credibilità e sostanza a queste tecniche.

E poi di partire da un “entry level”, ad esempio un problema molto specifico, un’esigenza anche piccola (che però poi si scopre impatta sul tempo ciclo o sulla qualità del getto finito in modo esponenziale), approcciandolo con strumenti che possano far toccare con mano le potenzialità dell’intelligenza artificiale applicata al proprio settore e ai propri dati: iniziare concretamente da problemi piccoli e scalare verso livelli di complessità maggiori.

Inoltre di dedicare risorse umane a queste attività perché i risultati si otterranno solo attraverso lo scambio reciproco e continuativo tra chi si occupa di dati e gli operatori di processo. La comprensione e l’interpretazione dei risultati da parte degli esperti è fondamentale. Permettere al personale tecnico l’utilizzo di strumenti di intelligenza artificiale è un investimento in competitività che si ripagherà in poco tempo.

E ai nostri data scientist che lavorano su progetti nell’ambito manifatturiero, cosa suggerisci?

Di ascoltare gli operatori di processo e affidarsi alla loro esperienza e competenza ma allo stesso tempo di non aver paura di scardinare l’assunto che ho sentito molto spesso: “abbiamo sempre fatto così”. Credo che il valore aggiunto sia l’attenzione che ha Oròbix per gli operatori, assicurandosi il loro coinvolgimento nell’intero processo. Lavorare insieme, ascoltare gli operatori e affidarsi alla loro esperienza e competenza. A volte sarà difficile vincere la resistenza naturale, e alcuni pregiudizi, soprattutto in un settore consolidato. Ma i dati possono aprire nuove strade. Affinché le analisi vengano prese in considerazione è necessario che siano il più esplicative e chiare possibili, deve essere lampante il valore per il business, anzi, il risparmio concreto, e non devono mai sembrare esercizi statistici fini a sé stessi.


Alberto Albertini, nato nel 1966 a Brescia, dove vive. Laureato con lode in Filologia Moderna, lavora da 35 anni nell’industria, oggi come responsabile dell’Innovazione e dello Scouting Tecnologico di un’azienda quotata, leader mondiale nel settore Pharma e Food&Beverage.
Copywriter, giornalista, consulente di marketing e comunicazione, docente a contratto presso la facoltà di Scienze Linguistiche dell’Università Cattolica del Sacro Cuore di Brescia, tra i fondatori della rivista Stile Arte, collabora con la Scuola Holden e Il Giornale di Brescia, ed è l’ideatore e il direttore artistico del festival Rinascimento Culturale. Il suo primo romanzo, “La classe avversa” è stato uno degli esordi letterari italiani più premiati del 2020.

Scarica la brochure di detectiv.ai e il nostro caso studio.
Per sapere di più sul nostro lavoro, consulta la pagina delle nostre AI solutions e contattaci per ulteriori informazioni o richiedere una demo!