“Qui il computer non c’è e non ci sarà mai”, ricordi di un ex dipendente appassionato di informatica

“Qui il computer non c’è e non ci sarà mai”, ricordi di un ex dipendente appassionato di informatica, di Livio Paciotti, Specialista IT per la Simulazione e Controllo di Processo, sistemi DCS, Macchine Virtuali, Analisi Dati.

Sono entrato al Petrolchimico di Ferrara nel 1981 come ricercatore junior.

In quel tempo iniziavano a diffondersi i primissimi “quasi computer” e data la mia “vocazione” per l’argomento, mi impegnai a sviluppare un programma per il calcolo delle valvole di sicurezza.

Era il periodo in cui venivano continuamente fatte delle verifiche di idoneità di quel tipo e quindi uno strumento che potesse sveltire le operazioni di calcolo poteva essere molto utile.

Iniziai con un programmino in BASIC da poche righe su una calcolatrice programmabile personale, ma successivamente, supportato dall’allora management, riuscii a convincere chi di dovere ad acquistare un minicomputer portatile Epson HX20.

A quel tempo (metà anni ’80) era un vero gioiellino, visore rigorosamente LCD da poche righe senza possibilità grafiche e mini stampante incorporata.

In pochi mesi e con l’aiuto di colleghi più esperti di me nel calcolo delle valvole di sicurezza, su quel sistema venne implementato un programma di calcolo che funzionò per diversi anni e con ottimi risultati, prima di essere abbandonato per sistemi migliori come il simulatore Aspen trattato di seguito.

Nel frattempo, al di fuori dello stabilimento lo sviluppo tecnologico dell’informatica correva rapidamente e di conseguenza, anche in seguito all’impulso lungimirante della sede centrale dell’allora Montedison (con il motto: un PC per ogni scrivania), vennero acquistati i primi PC - il “mitico” HP 150 con floppy da 3.5”- ed alcuni ingegneri di processo vennero dotati di quel sistema, allora veramente all’avanguardia.

Ricordo come fosse ora il mio stupore quando feci partire su uno di questi per la prima volta il Lotus 123, ovvero l’antesignano dell’attuale Excel.

Stentavo a credere ai miei occhi, e ricordo che passai molti giorni a immaginare cosa si potesse fare in termini di “conti” con quella “meraviglia”, permettendoci di abbondonare la calcolatrice...

Piano piano questi sistemi vennero adottati in massa, seppur con molte resistenze, perché il pensiero corrente di allora in certi reparti era che i computer fossero principalmente “oggetti per perdere tempo”.

Ricordo, come fosse adesso, la frase di “qualcuno” dell’epoca che disse:

Qui il computer non c’è e non ci sarà mai

Mai ci fu smentita più clamorosa!

Dai PC con fogli elettronici si cominciò a pensare poi ad applicazioni più complesse, ovvero i “Data Base”.

Nel Centro Ricerche ovviamente si maneggiavano già allora moltissimi dati, tutti su fogli di carta e sotto forma di grafici e tabelle.

A quel punto perché non organizzarli meglio con il nuovo strumento?

Detto fatto, cominciarono a fiorire numerosi Data Base con vari programmi scelti sul mercato.

Il migliore risultò, a quell’epoca, a parere mio e di pochi altri, il “DataEase”, molto più “facile” dell’allora imperante DBIII e dopo diverse “conflitti” tra reparti, venne quasi universalmente adottato, almeno nel Centro Ricerche.

Si passò poi a Data Base in rete, che furono utilizzati a livello locale per vari anni.

A tale proposito, a quel tempo, iniziò a svilupparsi una sottile competizione tra reparti centrali e periferici sulla adozione dei sistemi di calcolo nel Centro Ricerche, che culminò con la implementazione del primo sistema “mainframe” della fabbrica, ovvero l’IBM SP2 (primi anni ’90).

Il sistema disponeva di vari nodi e di una libreria di nastri centralizzata per i backup e su questo fu anche “tentata” la implementazione di un programma di gestione della documentazione per la biblioteca, poi abbandonato per le solite dispute interne.

Furono acquistati contemporaneamente molti PC, ed in tutti gli anni ‘90, “sotto Himont”, venne dato un vero, forte e sostanziale impulso alla adozione dei sistemi informatici nel Centro Ricerche.

Mitiche in quel tempo furono gli “scontri” e le infinite discussioni per la adozione di questi sistemi e dei relativi applicativi, come pure travagliata fu l’adozione del primo collegamento Internet fatto con il tramite del CINECA di Bologna.

Venne pure sviluppato un embrione di sito Internet interno al Centro Ricerche, che fu poi subito “destituito” dal “Potere Centrale”, con la adozione di un più organico sito internet “Corporate”.

Nel frattempo, l’interesse per l’automazione di processo iniziò a manifestarsi anche a livello di singolo reparto.

Nei primi anni ‘80 i sistemi di “supervisione e controllo” si limitavano a piccolissimi applicativi quasi marginali, e le sale controllo contenevano un “muro” di strumenti elettro-pneumatici analogici in cui l’operatore era costretto a camminare in su ed in giù per tutta la sua giornata lavorativa.

Con il procedere delle “fusioni” con aziende USA (Himont) decisamente più avanzate in questi argomenti, si iniziò a parlare anche a Ferrara di sistemi DCS.

Come in tutte le transizioni “epocali” ci furono diverse “battaglie” - anche sindacali - per adottare questo modello al posto della tradizionale sala controllo, (si pensava infatti che sarebbe stato necessario meno personale, cosa in parte vera) ma alla fine, come sempre, vinse il “progresso”.

Ricordo il primo DCS a Ferrara, adottato dall’impianto PO1, di marca Honeywell, acquistato, dopo innumerevoli discussioni a tutti i livelli. Alfine riuscì vincitrice la mia proposta, pur con l’aiuto di altri, ormai convinti, ad adottare questo modello.

L’inizio fu un po' traumatico, dovetti imparare nuovi linguaggi di programmazione e concetti del tutto nuovi, ma la implementazione di questi sistemi, durata vari anni, rimane ancora per me un ricordo vivido, tra i più belli del periodo.

Furono anni di duro lavoro e di scontri notevoli tra reparti, funzioni e livelli di management, ma tutto sommato abbastanza costruttivi.

Furono in seguito adottati i sistemi Honeywell per tutti i reparti catalizzatore e piloti uniformando tutti i sistemi su due network indipendenti, mentre per le autoclavi si preferì all’epoca il sistema di Yokogawa, ritenuto più flessibile per quelle applicazioni ed assai meno costoso.

Nel frattempo, un altro “filone” si stava sviluppando in contemporanea, ovvero quello della simulazione di processo e dell’analisi statistica dei dati.

La simulazione era particolarmente interessante perché permetteva di eseguire prove “virtuali” e di analizzare scenari che altrimenti avrebbero richiesto molti giorni di prove e test vari.

Fu così che anche qui, come sempre, dopo varie vicissitudini e “lotte” tra fazioni e funzionari, venne adottato il programma Aspen. Dapprima Aspen MAX, ovvero la versione semplificata, successivamente Aspen Plus, la versione “completa”, ed assai costosa che venne adottata inizialmente per il calcolo delle autoclavi.

In seguito, su mia pressione e ad opera di alcune persone lungimiranti, furono organizzati diversi corsi con gli specialisti della software house e successivamente con consulenti indipendenti, così che alla fine venne formata una “base di conoscenza” del programma, a cominciare dallo scrivente che permise di adottare lo stesso modulo a tutti i livelli: nella ricerca, nei piloti, nelle autoclavi, e da ultimo in produzione.

L’utilizzo di questo programma è stato per me, insieme alla adozione dei DCS, ed alla successiva raccolta dati quanto di più caratterizzante sia stato fatto per la modernizzazione dei processi in quell’epoca.

Un altro argomento di dibattito fu la analisi statistica dei dati e la programmazione degli esperimenti.

Qui devo dire che per quanto le mie “convinzioni” fossero state alquanto tenaci, non riuscii a scalfire la rigida mentalità dell’epoca, pertanto tali metodi vennero adottati, in quel tempo, solo saltuariamente e a macchia di leopardo, (con i programmi StatGraphics e Minitab) e non in maniera pervasiva, come sarebbe stato logico. Un vero peccato, perché si disponeva già dei mezzi e delle metodologie, note e diffuse da tempo per semplificare il lavoro della programmazione delle prove ed analisi dati.

L’ultimo grande argomento che venne affrontato nel processo di informatizzazione dello stabilimento fu quello della “raccolta e storicizzazione dati”, naturale conseguenza della diffusione dei sistemi DCS e della implementazione di un sistema di gestione dati di laboratorio oltre che premessa per la analisi statistica basse dello “Statistical Process Control”.

Anche qui, trattandosi di un Centro Ricerche operante a supporto degli impianti, il tema era particolarmente sentito, per cui vennero esaminati diversi sistemi.

Il primo in assoluto, anno ’86 circa fu il programma Onspec che girava su PC, interfacciato ai primi DCS di Honeywell che permetteva raccolta e storicizzazione dei dati di processo in maniera molto più completa di quanto potesse offrire l’allora DCS.

Si potevano anche implementare soluzioni per la gestione dei batch, molto utili per catalogare le “marce” dei piloti, in congiunzione con il già citato DataEase.

Successivamente, dopo la diffusa adozione dei DCS nei vari impianti, questo sistema, concepito per piccole realtà, non bastò più e si passò ad un più organico applicativo per la raccolta dati impianto, specificamente nato per questo e fornito di tutti i moduli per lo SPC.

Anche qui, dopo molte controversie, si scelse per il Centro Ricerche il sistema OSI-PI, inizialmente supportato anche dal produttore di DCS Honeywell.

Dopo un po' di tempo però la Honeywell smise di supportarlo per adottare il suo nuovo sistema di nome PHD e, da qui in avanti, avvenne una divisione: i reparti di produzione adottarono il sistema PHD di Honeywell, mentre quelli del Centro Ricerche continuarono con OSI-PI.

Questo applicativo venne poi implementato in tutti gli impianti pilota e catalizzatori, cosicché, al momento in cui dovetti andarmene, avevo già iniziato uno studio per portare il sistema OSI-PI a gestire anche i batch sui catalizzatori.

Nella mia ultima parte di permanenza a Ferrara, tutti gli impianti erano dotati di sistemi DCS e di acquisizione dati OSI-PI. Tutti i processisti utilizzavano pienamente il sistema di simulazione Aspen e alcuni si cimentavano anche con programmi di statistica ed analisi dati.

Per ultimo faccio pure un cenno ai sistemi di disegno CAD: all’inizio venne adottato AutoCAD nella versione “base”, per poi usare la versione completa.

Furono testati anche sistemi di automazione molto semplificati per aiutare i disegnatori principalmente nello sviluppo dei P&ID, ma al mio tempo anche qui non riuscii a fare adottare sistemi di CAD più completi che permettessero, ad esempio, una volta completato il disegno con il CAD, di avere anche una lista completa degli strumenti e degli apparecchi in automatico, ovvero la introduzione di ADD-IN specifici di AutoCAD per il disegno di processo.

Un tentativo da parte mia fu fatto anche con il programma di Aspen, allora chiamato Aspen Zyqad, ma non ne ho conosciuto lo sviluppo successivo.

Questo sistema è assai complesso e necessita di almeno una persona dedicata alla implementazione e al supporto dell’utenza, principalmente permette di integrare il P&ID con i Data Sheet degli apparecchi, i fluidi di processo etc., permettendo un completo controllo del progetto dell’impianto nel suo insieme.

Proprio per questa necessità di un supporto continuo e di personale con skill opportuno a quel tempo venne adottato solo marginalmente.

Concludo dando alcuni “suggerimenti”, basati sulla mia esperienza in merito, che ho continuato a sviluppare anche al di fuori dell’ambito dello stabilimento di Ferrara, precisando che non so se ad oggi, magari in tutto od in parte, siano già stati adottati.

I sistemi DCS dovrebbero essere implementati su macchine “standard” e virtualizzate, in modo da permettere l’immediato recupero, in caso di guasto ed il trasporto rapido su diverse architetture.

Molti fornitori si stanno orientando in questo senso.

La adozione di simulatori, con dati condivisi tra i reparti, dovrebbe essere sempre più pervasiva, in modo da ridurre al minimo le prove “reali”.

I sistemi DCS, di “raccolta dati” e di gestione analisi di laboratorio dovrebbero essere integrati al meglio, in modo da permettere agli interessati di visionare i dati nel tempo, per batch, per lotti etc., dovunque e da chiunque (con le opportune autorizzazioni) e permettere quindi una completa correlazione tra i dati di processo, di laboratorio e le caratteristiche chimico-fisiche del prodotto, con il tramite di opportuni programmi di analisi dati.

I sistemi di progettazione impianto dovrebbero essere integrati in modo da permettere una immediata “visione” del progetto in termini di P&ID, strumenti, Data Sheets apparecchiature etc., il tutto tramite un unico programma omni-comprensivo (ne esistono diversi dei più qualificati fornitori).

Un sistema di gestione documentazione centralizzato e completo (Content Management System) dovrebbe essere disponibile a tutti i livelli e “contenere” quanto fatto di rilevante nel Centro Ricerche attraverso gli anni.

Sarebbe infine utile la adozione di un sistema di training operatore che simuli il funzionamento del DCS.

Quello che più conta però (come quasi sempre) è la capacità di “osare” qualcosa di nuovo e soprattutto il sistema “organizzativo” che deve essere il più possibile efficace ed efficiente, in modo da evitare le conflittualità tra reparti / funzioni / sedi che troppo spesso in passato e per mia diretta esperienza hanno portato ad inutili dispendi di energie e di tempo, e che permetta di implementare al meglio e con le necessarie risorse umane e tecnologiche la “digitalizzazione” dei processi a tutti i livelli, in una ottica di lavoro sempre più “smart”.

Newsletter

Newsletter

Inserisci la tua mail per rimanere informato sulle nostre iniziative

Visualizza
privacy

gli sponsor dell'Annuario 2019