l’incertezza nella rappresentazione di problemi multiobiettivo · a.6 prospect theory ... 4.1...

205
POLITECNICO DI MILANO Corso di Laurea Specialistica in Ingegneria Gestionale Facoltà di Ingegneria dei Sistemi L’incertezza nella rappresentazione di problemi multiobiettivo: un confronto tra approcci ed un’esperienza empirica Relatore: Ch.mo Prof. Quirico Semeraro Correlatore: Dott. Ing. Daniele Foffano Tesi di Laurea di: Emanuele F. Montiglio matricola 709222 Anno Accademico 2011-2012

Upload: vantuong

Post on 18-Feb-2019

223 views

Category:

Documents


0 download

TRANSCRIPT

POLITECNICO DI MILANOCorso di Laurea Specialistica in Ingegneria Gestionale

Facoltà di Ingegneria dei Sistemi

L’incertezza nella rappresentazionedi problemi multiobiettivo:

un confronto tra approcci ed un’esperienza empirica

Relatore: Ch.mo Prof. Quirico SemeraroCorrelatore: Dott. Ing. Daniele Foffano

Tesi di Laurea di:Emanuele F. Montiglio

matricola 709222

Anno Accademico 2011-2012

Indice

Abstract (it) v

Abstract (en) vi

Sommario vii

1 Presentazione del problema 11.1 L’ottimizzazione multiobiettivo . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.1.1 Approcci metodologici e classificazione . . . . . . . . . . . . . . . . 41.1.2 Il ruolo dell’incertezza . . . . . . . . . . . . . . . . . . . . . . . . . . 71.1.3 Gli algoritmi di ottimizzazione . . . . . . . . . . . . . . . . . . . . . 11

1.2 L’ottimizzazione multiobiettivo in azienda . . . . . . . . . . . . . . . . . . 121.2.1 La gestione di un design multiobiettivo . . . . . . . . . . . . . . . . 14

1.3 Un problema polimorfo: l’idea di Robusto . . . . . . . . . . . . . . . . . . 151.4 Descrizione del caso: la verniciatura industriale . . . . . . . . . . . . . . . 17

2 Il Modello del Sistema 212.1 Costruzione di modelli empirici . . . . . . . . . . . . . . . . . . . . . . . . . 212.2 Notazione utilizzata e tecniche di stima . . . . . . . . . . . . . . . . . . . . 222.3 Il Metodo della Superficie di Risposta . . . . . . . . . . . . . . . . . . . . . 252.4 RSM in situazioni multiobiettivo . . . . . . . . . . . . . . . . . . . . . . . . 28

2.4.1 Stimatori diversi dagli OLS . . . . . . . . . . . . . . . . . . . . . . . 33

3 Il Modello degli Obiettivi 363.1 Gli approcci all’ottimizzazione multiobiettivo . . . . . . . . . . . . . . . . . 363.2 Dominanza ed efficienza paretiana . . . . . . . . . . . . . . . . . . . . . . . 403.3 I metodi grafici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453.4 L’utilità ed il compromesso . . . . . . . . . . . . . . . . . . . . . . . . . . . 483.5 Funzioni ed Indice di Desiderabilità . . . . . . . . . . . . . . . . . . . . . . 54

3.5.1 L’incertezza nel MDS e nel MDO . . . . . . . . . . . . . . . . . . . . 593.5.2 Il propagarsi dell’incertezza sulla soluzione ottima . . . . . . . . . 633.5.3 L’approccio con simulazioni . . . . . . . . . . . . . . . . . . . . . . . 66

3.6 Gli approcci fuzzy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 693.7 L’Analytical Hierarchy Process . . . . . . . . . . . . . . . . . . . . . . . . . . 75

3.7.1 Metodi alternativi per il calcolo delle priorità . . . . . . . . . . . . 82

i

INDICE ii

3.7.2 L’incertezza nei giudizi: FAHP e SAHP . . . . . . . . . . . . . . . . 863.8 Misure monetarie e criteri economici . . . . . . . . . . . . . . . . . . . . . 89

4 Esperienza empirica 944.1 Descrizione del prodotto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 944.2 Costruzione del MDS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

4.2.1 Le variabili e l’indagine preliminare . . . . . . . . . . . . . . . . . . 974.2.2 Il modello per il riscaldamento . . . . . . . . . . . . . . . . . . . . . 994.2.3 Il modello per la deionizzazione . . . . . . . . . . . . . . . . . . . . 1054.2.4 Il modello per l’ET . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1084.2.5 Commento critico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

4.3 Costruzione ed ottimizzazione del MDO . . . . . . . . . . . . . . . . . . . 1144.3.1 Il MDS adottato e gli obiettivi generali . . . . . . . . . . . . . . . . . 1144.3.2 Modelli di compromesso tra le caratteristiche . . . . . . . . . . . . . 1164.3.3 Modelli basati sull’AHP ed incertezze sul MDO . . . . . . . . . . . 1234.3.4 L’individuazione di una Zona Robusta . . . . . . . . . . . . . . . . 127

5 Conclusioni 1325.1 Discussione sui risultati raggiunti . . . . . . . . . . . . . . . . . . . . . . . . 1325.2 Indagini future . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

Bibliografia 137

A Appendice: Glossario 148

B Appendice: Approfondimenti 172B.1 Individuare la frontiera efficiente . . . . . . . . . . . . . . . . . . . . . . . . 172B.2 Correlazione, ricerca del compromesso ed efficienza . . . . . . . . . . . . . 175B.3 Aggregazione degli obiettivi in fase sperimentale . . . . . . . . . . . . . . . 177B.4 Aritmetica con numeri fuzzy . . . . . . . . . . . . . . . . . . . . . . . . . . 178B.5 Richiami del processo di verniciatura . . . . . . . . . . . . . . . . . . . . . 179

B.5.1 I prodotti vernicianti . . . . . . . . . . . . . . . . . . . . . . . . . . . 179B.5.2 Controlli strumentali per la qualità in verniciatura . . . . . . . . . . 180

C Appendice: Software ed allegati elettronici 184C.1 Procedure relative al problema multiobiettivo affrontato . . . . . . . . . . 184C.2 Applicazioni Software . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186

C.2.1 Script per il calcolo delle priorità . . . . . . . . . . . . . . . . . . . . 186C.2.2 Interfaccia per il metodo delle desiderabilità . . . . . . . . . . . . . 186

C.3 Allegati elettronici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189C.3.1 Documenti pertinenti tratti dall’esperienza empirica . . . . . . . . 189C.3.2 Opuscolo sui difetti in verniciatura . . . . . . . . . . . . . . . . . . 189C.3.3 Analisi statistica dei dati di Tabella D.1 . . . . . . . . . . . . . . . . 189C.3.4 Confronti e simulazioni sul calcolo delle priorità . . . . . . . . . . 189

INDICE

INDICE iii

C.3.5 Documentazione funzioni relative al metodo AHP . . . . . . . . . 189

D Appendice: Dati 190D.1 Dati relativi alle indagini empiriche . . . . . . . . . . . . . . . . . . . . . . 190D.2 Dati in base a cui si è ricavato il MDS . . . . . . . . . . . . . . . . . . . . . 190

INDICE

Elenco delle figure

1.1 Design multiobiettivo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.2 Un esempio grafico di problema multiobiettivo. . . . . . . . . . . . . . . . 31.3 Il processo di decisione/ottimizzazione come raccolta ed elaborazione di

informazioni. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.4 Il ruolo degli algoritmi risolutivi in problemi multiobiettivo. . . . . . . . . 111.5 Le decisioni e la catena di sviluppo di un prodotto. . . . . . . . . . . . . . . 151.6 Obiettivi generali di un processo di verniciatura . . . . . . . . . . . . . . . 20

2.1 Un processo visto come una black box. . . . . . . . . . . . . . . . . . . . . . 222.2 Activity Diagram dell’applicazione del RSM. . . . . . . . . . . . . . . . . . 262.3 Esperimenti sequenziali nel RSM. . . . . . . . . . . . . . . . . . . . . . . . . 282.4 Due insidie del RSM multiobiettivo . . . . . . . . . . . . . . . . . . . . . . . 30

3.1 Costruzione e ruolo del MDO . . . . . . . . . . . . . . . . . . . . . . . . . . 373.2 Modalità per rappresentare le preferenze con un modello . . . . . . . . . . 403.3 Percentuale di soluzioni Pareto–efficienti. . . . . . . . . . . . . . . . . . . . 423.4 Il criterio di dominanza stocastica del I ordine. . . . . . . . . . . . . . . . . 443.5 Scatterplot tra risposte in un problema multiobiettivo. . . . . . . . . . . . . 463.6 Overlay plot e PCP in un problema multiobiettivo. . . . . . . . . . . . . . . 473.7 La ricerca di un design di compensazione . . . . . . . . . . . . . . . . . . . 483.8 Soluzioni individuate da differenti MDO . . . . . . . . . . . . . . . . . . . . 503.9 Curve di indifferenza di tre funzioni di Utilità notevoli. . . . . . . . . . . . 533.10 Funzione di desiderabilità di Derringer e Suich . . . . . . . . . . . . . . . . 553.11 La forma di alcune Funzioni di desiderabilità . . . . . . . . . . . . . . . . . 563.12 Implementazione software dell’approccio con le desiderabilità . . . . . . . 583.13 Distribuzione della desiderabilità associata al livello di una caratteristica . 613.14 Funzione di appartenenza ad un insieme fuzzy . . . . . . . . . . . . . . . . 703.15 Operatori logici fuzzy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 713.16 Sistema di inferenza fuzzy . . . . . . . . . . . . . . . . . . . . . . . . . . . . 733.17 Disposizione gerarchica dei criteri nel metodo AHP . . . . . . . . . . . . . 753.18 Modello di economicità di un prodotto . . . . . . . . . . . . . . . . . . . . . 90

4.1 Componenti e schema di funzionamento del prodotto . . . . . . . . . . . . 944.2 Potenza dei riscaldatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 964.3 Diagramma fish bone . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98

iv

ELENCO DELLE FIGURE v

4.4 Grafici esperimento temperatura I . . . . . . . . . . . . . . . . . . . . . . . 1004.5 Grafici esperimento temperatura II . . . . . . . . . . . . . . . . . . . . . . . 1024.6 Grafici esperimento con filo riscaldante . . . . . . . . . . . . . . . . . . . . 1054.7 Grafici esperimento neutralizzazione delle cariche . . . . . . . . . . . . . . 1074.8 Neutralizzazione delle superfici ed effetto dei collegamenti . . . . . . . . . 1084.9 Grafici esperimento grammatura . . . . . . . . . . . . . . . . . . . . . . . . 1104.10 Fotografie di confronto sul macchinario concorrente . . . . . . . . . . . . . 1124.11 Ispezione visiva delle risposte . . . . . . . . . . . . . . . . . . . . . . . . . . 1154.12 Approssimazioni della frontiera efficiente . . . . . . . . . . . . . . . . . . . 1164.13 Funzioni di desiderabilità associate alle risposte . . . . . . . . . . . . . . . 1174.14 Sensibilità rispetto a variazioni nei livelli dei fattori . . . . . . . . . . . . . 1184.15 Sensibilità rispetto ai parametri del MDO (monitorando DI) . . . . . . . . 1184.16 Sensibilità rispetto ai parametri del MDO (monitorando x2 opt) . . . . . . . 1194.17 Intervalli di confidenza sul valore dell’Indice di desiderabilità . . . . . . . 1204.18 Equivalence Zone per x(n)opt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1214.19 Sistema di inferenza fuzzy come MDO . . . . . . . . . . . . . . . . . . . . 1224.20 Stime ed intervalli delle priorità degli obiettivi . . . . . . . . . . . . . . . . 1234.21 Analisi del risultato dell’ottimizzazione di L . . . . . . . . . . . . . . . . . 1244.22 Analisi del risultato dell’ottimizzazione di D(nc) . . . . . . . . . . . . . . . 1264.23 La natura incerta sia del MDS che del MDO . . . . . . . . . . . . . . . . . 1274.24 Esempio di procedimento per l’individuazione della zona robusta in χ . . 1294.25 Incertezze dovute al MDS ed al MDO . . . . . . . . . . . . . . . . . . . . . 1304.26 La zona robusta del problema multiobiettivo . . . . . . . . . . . . . . . . . 1304.27 Confronti tra le EZ dei modelli e la Zona Robusta . . . . . . . . . . . . . . 131

A.1 Il piano GAIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153A.2 Schema della House of Quality . . . . . . . . . . . . . . . . . . . . . . . . . . 154A.3 Il framework MATE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156A.4 Grafici disposti a matrice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157A.5 Grafi PROMETHEE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164A.6 Prospect theory . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165

B.1 Grafici di un problema con due obiettivi e frontiera convessa . . . . . . . . 172B.2 Grafici di un problema con due obiettivi e frontiera non convessa . . . . . 173B.3 Plot delle Soluzioni efficienti vs correlazione . . . . . . . . . . . . . . . . . . 176B.4 Aggregazione degli obiettivi in fase sperimentale . . . . . . . . . . . . . . . 177

C.1 Script per il calcolo delle priorità . . . . . . . . . . . . . . . . . . . . . . . . 187C.2 Esempio interfaccia per un approccio integrato ai problemi multiobiettivo 188

ELENCO DELLE FIGURE

Elenco delle tabelle

1.1 La matrice delle fonti di incertezza. . . . . . . . . . . . . . . . . . . . . . . . 81.2 Matrice rilevanza vs complessità di un problema . . . . . . . . . . . . . . . 101.3 Tipici problemi multiobiettivo nella realtà aziendale. . . . . . . . . . . . . . 13

2.1 Stimatori del MDS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

3.1 Assiomi riguardanti una Funzione obiettivo . . . . . . . . . . . . . . . . . . 523.2 Alcune classi di Funzioni di desiderabilità . . . . . . . . . . . . . . . . . . . 563.3 Corrispondenza tra valori di desiderabilità e giudizi qualitativi . . . . . . 573.4 Modificatori linguistici fuzzy . . . . . . . . . . . . . . . . . . . . . . . . . . 713.5 Variabili linguistiche per giudizi qualitativi . . . . . . . . . . . . . . . . . . 743.6 La scala fondamentale nel metodo AHP . . . . . . . . . . . . . . . . . . . . 763.7 Valori tabulati del Random Index . . . . . . . . . . . . . . . . . . . . . . . . . 793.8 Piano sperimentale associato alla procedura LLSM . . . . . . . . . . . . . . 84

4.1 Analisi statistica esperimento temperatura I . . . . . . . . . . . . . . . . . . 1014.2 Analisi statistica esperimento temperatura II . . . . . . . . . . . . . . . . . 1024.3 Analisi statistica esperimento temperatura filo . . . . . . . . . . . . . . . . 1044.4 Analisi statistica esperimento deionizzazione . . . . . . . . . . . . . . . . . 1074.5 Analisi statistica esperimento grammatura . . . . . . . . . . . . . . . . . . 1114.6 Analisi SWOT del prodotto analizzato . . . . . . . . . . . . . . . . . . . . . 1134.7 Variabili indipendenti e dipendenti nel MDS . . . . . . . . . . . . . . . . . 1144.8 Pesi e desiderabilità associati alle caratteristiche di interesse . . . . . . . . 1174.9 Considerazioni economiche dal punto di vista di clienti e produttore . . . 1254.10 Confronto tra i valori di diversi MDO . . . . . . . . . . . . . . . . . . . . . 1284.11 Sintesi dei modelli implementati . . . . . . . . . . . . . . . . . . . . . . . . 128

A.1 Confronto tra l’AHP e la Conjoint Analysis . . . . . . . . . . . . . . . . . . . 150A.2 Relazioni di preferenza ed ordinamenti . . . . . . . . . . . . . . . . . . . . 160A.3 Tipologie di scala di misura. . . . . . . . . . . . . . . . . . . . . . . . . . . . 160A.4 Classificazione di alcuni approcci all’ottimizzazione multiobiettivo . . . . 162A.5 Approcci a priori, a posteriori ed iterativi. . . . . . . . . . . . . . . . . . . . . 163A.6 Confronto tra Prospect theory ed un approccio normativo . . . . . . . . . . 166A.7 Denominazioni del concetto di Utilità . . . . . . . . . . . . . . . . . . . . . 171

B.1 Approcci per individuare la Frontiera efficiente . . . . . . . . . . . . . . . . 174

vi

ELENCO DELLE TABELLE vii

B.2 Aritmetica con numeri fuzzy . . . . . . . . . . . . . . . . . . . . . . . . . . 179

D.1 Piano sperimentale e risposte per il MDS . . . . . . . . . . . . . . . . . . . 190

ELENCO DELLE TABELLE

Notazione utilizzata

k Numero delle variabili controllabili (o fattori)

p Numero delle caratteristiche di interesse

χ Lo spazio delle soluzioni: χ ⊂ Rk

γ Lo spazio delle risposte: γ ⊂ Rp

X I fattori o variabili controllabili: X = (X1, X2, ..., Xk) ∈ χ

x Una combinazione di livelli dei fattori: x identifica un punto dellospazio χ

Xi Il singolo fattore (per i = 1, 2, ..., k): si userà xi per indicare undeterminato livello del fattore Xi

Y Le caratteristiche di qualità di un prodotto: Y = (Y1, Y2, ..., Yp) ∈ γ

y I livelli delle caratteristiche di qualità di un prodotto: y identificaun punto dello spazio γ

Yi La singola caratteristica di interesse (per i = 1, 2, ..., p): si userà yi

per indicare un determinato livello della risposta Yi

viii

Abstract

Per ingegnerizzare o sviluppare il design di nuovi prodotti o migliorare quelli esisten-ti, occorrono modelli concettuali delle relazioni che sussistono tra un insieme di fattoricontrollabili (design parameters), le prestazioni che il prodotto è in grado di offrire e lenecessità o gli obiettivi che le persone si prefiggono. Con il supporto di un frameworkmetodologico che distingue tra Modello del Sistema e Modello degli Obiettivi, si cerca lasoluzione ad un problema di ottimizzazione multiobiettivo in condizioni di incertezza,riconoscendo che si dispone tipicamente di relazioni incerte, che semplificano una realtàcaratterizzata da aleatorietà nei processi fisici, nelle misurazioni e da dubbi sulla naturae sulla priorità degli obiettivi.

Vengono discusse le tecniche statistiche per l’analisi dei piani sperimentali (in partico-lare il Metodo della Superficie di Risposta) focalizzando l’attenzione sul loro uso in pre-senza di più obiettivi. Passando poi in rassegna alcuni approcci tra i più diffusi in ambitoeconomico ed industriale (Funzioni di desiderabilità, di utilità, analytical hierarchy process,logica fuzzy), si propone una metodologia che supera l’impossibilità di confrontarne traloro gli esiti a causa delle specifiche ipotesi di ciascuno ed in parte anche la difficoltà neldefinire dei pesi tra le caratteristiche. Considerando l’incertezza si possono infatti indi-viduare set di soluzioni con prestazioni robuste rispetto a differenti rappresentazioni delModello del Sistema e di quello degli Obiettivi.

La metodologia sviluppata, applicata ad un prodotto nel campo della verniciaturaindustriale, mostra come una nuova soluzione di compromesso tra variabili di efficienzae di qualità della finitura, fornisca al decisore una descrizione più completa e maggioreconsapevolezza e flessibilità nella scelta da operare.

Si traggono infine le conclusioni dall’analisi condotta e si indicano i possibili sviluppiper ulteriori approfondimenti.

keywords: ottimizzazione multiobiettivo, response surface methodology, desiderabi-lità, analytical hierarchy process, verniciatura industriale

ix

Abstract

In order to engineer and develop new products’ design or to improve the existing ones,we need some conceptual models to capture the relationships between a set of control-lable factors (design parameters), the levels of quality the product can achieve and peo-ples’ needs or goals. Supported by a general framework making the distinction betweenthe Model for the System and the Model for the Objectives, we look for the solution to amulti-objective optimization problem under uncertainty, recognizing that often only un-certain relationships are available because they simplify a world characterized by uncer-tainty in the physical and in the measurement processes and by doubts about the actualobjectives’ identities and priorities.

We discuss some statistical techniques helping to design and analyze experimentaldata (in particular the Response Surface Method), focusing on their use when multipleobjectives are involved. Providing an overview of the most widely employed approachesfrom economic and industrial fields (desirability and utility functions, analytical hierar-chy process, fuzzy logic), we also propose a novel approach overcoming the impossibilityto make comparisons among the outcomes of different approaches and also the difficultyto define the weight for each quality characteristic. Considering the uncertainty through-out the optimization process we can identify a set of solutions showing robust perfor-mance even when the Model for the System or the one for the Objectives have differentrepresentations from the initial ones.

A new product aiming to improve the industrial coating process gets optimized fol-lowing the proposed method, showing how the the compromise solution that we findrepresents a good tradeoff between efficiency and finishing quality properties and alsoprovides a more complete description the decision-maker can leverage to gain awarenesson the problem and flexibility in the final choice to be made.

Finally, we draw some conclusions from our work and we suggest possible develop-ments for further research.

keywords: multi-objective optimization, response surface methodology, desirabilityfunctions, analytical hierarchy process, industrial coating

x

Sommario

Per ingegnerizzare o sviluppare il design di nuovi prodotti, così come per migliorarequelli esistenti, occorre un modello che descriva le relazioni che sussistono tra un in-sieme di fattori controllabili (Design Parameters) e le prestazioni che il prodotto è in gradodi offrire, così da poterle allineare agli obiettivi prefissati.

Due problemi rilevanti e frequenti sono da un lato l’incertezza che caratterizza il mod-ello semplificato della realtà di cui si dispone e dall’altro la presenza di più obiettiviverso cui si desidera rivolgere l’attenzione: nel primo caso un approccio convenienteconsiste nell’analisi di un sistema complesso per mezzo di ricerche empiriche miratea ricavare dei modelli approssimati, mentre nel secondo si riconosce tipicamente unapluralità di bisogni ed aspettative che il prodotto è chiamato a soddisfare. Un prob-lema così rappresentativo di molte applicazioni pratiche necessita per la sua soluzione diun’ottimizzazione multiobiettivo in condizioni di incertezza. Sebbene vi sia una letter-atura molto ricca che offre ai ricercatori strumenti specifici per ciascuna fase del processo,si avverte la mancanza di una visione organica, di indicazioni su come integrare tra lorotecniche diverse, valutare la qualità della soluzione finale e confrontare eventualmentel’esito di differenti approcci.

Viene quindi proposto un framework metodologico per analizzare il problema in modosistematico e classificare gli approcci a seconda della forma data al Modello del Sistemaed al Modello degli Obiettivi ed a seconda che essi siano considerati noti determin-isticamente oppure caratterizzati da un certo grado di incertezza residua. Durante lacostruzione di un modello della realtà gioca un ruolo chiave la capacità di prevedere ac-curatamente le risposte del sistema in corrispondenza di differenti condizioni operativee la stima dell’errore sperimentale, da cui poi dipende la qualità della soluzione finale.

Approcci statistici più volte applicati con successo in presenza di un solo obiettivocome il Metodo della Superficie di Risposta (RSM), necessitano di alcuni accorgimentiin ambito multiobiettivo dove occorre ad esempio cercare di accrescere ulteriormente laprecisione dei modelli, procedere ad una loro stima simultanea o gestire casi in cui ledirezioni di miglioramento delle singole caratteristiche divergono.

Per la ricerca di un punto di equilibrio in grado di conciliare tra loro le prestazionisi decide poi di ricorrere alla flessibilità, alla semplicità ed all’efficacia dei metodi basatisulla scalarizzazione e sull’assegnazione di un’unica misura di merito alle combinazionidei livelli delle caratteristiche di interesse. Senza una misura oggettiva e strumentaleper il valore complessivo di ogni alternativa progettuale, occorrono metodi prescrittiviadeguati, ovvero approcci che assistono il ricercatore con strumenti e procedure per es-primere e formalizzare correttamente le proprie preferenze. Nel passaggio dalla ricercadel buon adattamento ad una serie di dati raccolti, alla volontà di offrire una rappre-sentazione utile e consistente dell’esperienza e della conoscenza dei decisori, è partico-larmente critica la comprensione della struttura e delle proprietà della Funzione obiet-tivo. Si è deciso pertanto di approfondire alcuni degli approcci più diffusi (in particolarequello con le Funzioni di utilità e di desiderabilità, l’AHP, l’approccio fuzzy e quelli basatisu considerazioni economiche). Esponendo le caratteristiche salienti di ciascuno di essi,dalle formulazioni originarie alle modifiche più recenti ed integrando ove opportuno con

xi

Sommario xii

suggerimenti mirati a migliorare la pratica corrente (ad esempio discutendo Funzioni didesiderabilità asintotiche o la convenienza di tecniche di regressione per la stima dellepriorità), si è provato a superare un limite diffuso, ovvero dei modelli considerati notipur in condizioni di razionalità limitata. Valori della Funzione obiettivo e condizioni ot-timali più interessanti sono individuate sia attraverso procedure analitiche che mediantesimulazioni numeriche. Tali tecniche consentono inoltre di comprendere con quanta pre-cisione è definita la combinazione ottimale dei livelli dei fattori ed in quali zone il sistemaoffre prestazioni equivalenti. Ciò offre al decisore maggiore flessibilità e consapevolezza,anche riguardo alla rilevanza di dubbi circa la modalità di esprimere gli obiettivi. Lestatistiche disponibili sulla distribuzione del valore di merito in date condizioni opera-tive hanno inoltre particolare rilevanza nei processi in controllo stocastico.

La metodologia sviluppata è applicata ad un prodotto nel campo della verniciaturaindustriale dove una soluzione di compromesso (soprattutto in termini di qualità dellafinitura ed efficienza) riveste un ruolo critico nella produzione di beni e dove il ricorso amodelli empirici risulta particolarmente conveniente. L’esempio mostra come la soluzioneanziché presentarsi come unica e nota (una certezza non legittimata dall’analisi) puòfornire informazioni sulle zone contraddistinte da prestazioni equivalenti e eventual-mente robuste rispetto ad una differente rappresentazione dei modelli.

L’esposizione risulta suddivisa nel modo seguente:

• Capitolo 1: presentazione della classe di problemi a cui è rivolta l’attenzione, carat-teristiche salienti, modalità di classificazione, framework di riferimento e descrizionedi alcuni casi generali nelle realtà industriali e di quello particolare in un processodi verniciatura;

• Capitolo 2: esposizione di metodi per la costruzione del Modello del Sistema odel fenomeno fisico, introduzione alla notazione utilizzata ed alle tecniche di stimaed osservazioni circa l’uso del Metodo della Superficie di Risposta in situazionimultiobiettivo;

• Capitolo 3: approfondimento di alcuni approcci per la costruzione del Modellodegli Obiettivi, possibili modalità di classificazione e di espressione delle preferenze,caratteristiche delle versioni originarie e delle modifiche agli approcci esaminati,con particolare riferimento al concetto di dominanza, agli strumenti grafici, allefunzioni di utilità, a quelle di desiderabilità, alla logica fuzzy, all’AHP ed a modellifondati su criteri economici;

• Capitolo 4: svolgimento del progetto di ottimizzazione multiobiettivo nel campodella verniciatura industriale, presentazione del prodotto analizzato e del contestotecnologico, discussione della ricerca empirica e dei modelli ricavati, implemen-tazione di differenti Funzioni obiettivo e tecniche di ottimizzazione, confronto trale soluzioni ottenute, definizione delle Equivalence Zone e della Robust Zone;

• Capitolo 5: discussione sui risultati raggiunti, quesiti ancora aperti e proposte per ipossibili futuri sviluppi;

• Appendici: si include tra gli approfondimenti un glossario con alcuni concetti ritenutiparticolarmente rilevanti a supporto degli approcci multiobiettivo trattati.

Sommario

1Presentazione del problema

When we ask “Why?” concerning an event, we may mean either of two things.We may mean: “What purpose did this event serve?” or we may mean “Whatearlier circumstances caused this event?”.

Bertrand Russell

1.1 L’ottimizzazione multiobiettivo

Un approccio ingegneristico ai processi di sviluppo o miglioramento di una tecnologiaconsiste nel costruire un modello della realtà ed avvalersi di esso per perseguire un in-sieme di obiettivi prefissati attraverso l’attività di design, ovvero intraprendendo azio-ni mirate a modificare delle situazioni esistenti in altre maggiormente preferite [Sim96].Ciò spesso prevede la ricerca di una combinazione dei livelli di alcuni fattori (variabilicontrollate o Design Parameters) che consenta di ottenere un prodotto caratterizzato daun numero definito di proprietà desiderate (variabili dipendenti, di risposta, caratteri-stiche di qualità, di interesse o Functional Requirements). Un problema viene denomina-to “multiobiettivo” se la sua soluzione comporta l’ottimizzazione congiunta di diversecaratteristiche di qualità, influenzate da in insieme di variabili controllate comuni.

Una situazione come quella suddetta è affrontata nella pratica in numerosi campiapplicativi presentando una natura sia trasversale che multidisciplinare. Per ciò che con-cerne il primo aggettivo è chiaro infatti che problemi di questo tipo non sono specificidei soli processi di produzione industriale, ma compaiono ogni qualvolta il valore diuna decisione è misurato rispetto a più di una dimensione; il termine “prodotto” ver-rà in seguito impiegato in questa accezione (sia che ci si riferisca all’ottimizzazione diun manufatto, di un processo, di un servizio, . . . ). Si assumerà inoltre che le differentiproprietà di un prodotto siano in conflitto tra loro e che non si possano ottimizzare tuttesimultaneamente: oltre una certa soglia, il miglioramento di una caratteristica di interesseavviene a scapito del peggioramento di un’altra e la ricerca dell’equilibrio ottimale passaattraverso la risoluzione dei trade off che sussistono tra di esse. La natura multiobiettivodi un problema è quindi definita dalla volontà di ottimizzare delle caratteristiche che pervincoli tecnici non possono assumere simultaneamente il miglior valore possibile e dalla

1

1. Presentazione del problema 2

conseguente necessità di optare per una soluzione di compromesso, anche quando non ènota con esattezza la modalità di compensazione tra gli obiettivi.

Figura 1.1: Modello di qualità multiobiettivo e dell’attività di design.

La connotazione multidisciplinare scaturisce invece da come questo soggetto, che èal centro di rami della Ricerca Operativa noti come Multi Criteria Optimization (MCO),Multi Objective Optimization (MOO), Multi Criteria Decision Making (MCDM) o Multi Cri-teria Decision Analysis (MCDA), susciti interesse in numerosi campi d’indagine (Teoriadell’Utilità e Teoria delle Decisioni, Informatica, Intelligenza Artificiale, Statistica, Qua-lità Industriale, Matematica Teorica ed Applicata, Economia e Psicologia per citarne so-lo alcuni). Non sorprende dunque il numero considerevole tra osservazioni, soluzioniproposte e dibattiti che si sussegue in una letteratura che ha occupato, soprattutto negliultimi decenni, le pagine di numerose pubblicazioni specialistiche1. Questo fenomeno,se da un lato apporta giovamento allo sviluppo della disciplina, comporta alcuni effet-ti collaterali. E’ vero infatti che le risorse dedicate dai ricercatori (soprattutto in ambitoaccademico) concorrono ad una sempre maggiore comprensione del problema ed in al-cuni casi all’introduzione di strumenti più efficienti o efficaci per affrontarlo, ma si assisteanche a fenomeni “di deriva”. Si vogliono così indicare due aspetti distinti:

1. la forma di “specializzazione univoca” che porta chi approfondisce a percorreresentieri talmente caratteristici di uno specifico settore da instaurare di fatto dellebarriere comunicative impedendo via via la possibilità di individuare un minimocomune denominatore tra approcci alternativi o di sfruttare le potenziali sinergie;

2. l’allontanamento tra ciò che viene proposto a livello teorico (spesso dal caratterearticolato o sofisticato) e l’attività più comune e pragmatica della risoluzione di unproblema concreto2 [CMO72].

1Si nota un trend esponenziale nel numero di articoli contrassegnati da parole chiave quali multiplecriteria decision, multiattribute utility, multiple objective programming/optimization, goal programming, AnalyticHierarchy Process, evolutionary/genetic multiobjective, vector optimization e raccolti in Internet dall’aggregatorebibliografico di pubblicazioni scientifiche ISI (www.isiknowledge.com) [WDF+08] .

2Queste osservazioni, frutto dell’analisi della bibliografia raccolta e riscontrate nell’esperienza svol-ta, sottendono le recenti preoccupazioni di un fronte di ricercatori che si interroga sugli sviluppi futuridifficilmente prevedibili di questa disciplina [WDF+08].

1.1. L’ottimizzazione multiobiettivo

1. Presentazione del problema 3

La ricerca di soluzioni per la classe dei problemi multiobiettivo costituisce comunqueuna sfida tra le più affascinanti e stimolanti soprattutto nei settori produttivi ed industria-li, caratterizzati da una tensione sempre maggiore verso un ideale di massima efficienza,dettata da nuove e più complesse esigenze della clientela e da pressioni competitive cheimpongono la realizzazione di prodotti eccellenti sotto molteplici punti di vista.

Si interagisce qui tipicamente con sistemi complessi e caratterizzati da forti e nume-rose interdipendenze, i cui elementi principali sono richiamati in Figura 1.1 dove il per-corso di analisi (dal concetto di qualità desiderata ai fattori determinanti) permette poiquello di sintesi (dai livelli dei fattori alla qualità ottenibile). Si percepiscono quindi dueaspetti particolarmente critici nella risoluzione di problemi multiobiettivo: in primo luo-go occorrerà determinare quali fattori variare e in quale magnitudine considerando chegli effetti delle modifiche si ripercuoteranno simultaneamente su un numero elevato dicaratteristiche di interesse. Questo problema, che sottintende a sua volta la conoscenzadelle relazioni tra fattori e caratteristiche di qualità, sarà l’oggetto del Capitolo 2, incen-trato sulla costruzione e sulla scelta del modello della realtà (o del fenomeno fisico) quidenominato MODELLO DEL SISTEMA (MDS). Il secondo aspetto richiede invece l’indi-viduazione delle relazioni che sussistono tra le caratteristiche di interesse e gli obiettivimirati a determinare le più favorevoli condizioni operative: su questa attività verterà per-tanto la costruzione di un MODELLO DEGLI OBIETTIVI (MDO), discussa nel Capitolo 3.L’uso congiunto dei due modelli determina l’attività di design.

A scopo illustrativo Figura 1.2 mostra un semplice problema in cui sono coinvolti duefattori (X1 e X2) e due caratteristiche (Y1 e Y2) e dove un vettore di funzioni MDS , f(2×1)

ne definisce le relazioni, ovvero Y1 = f1(X1, X2) ed Y2 = f2(X1, X2). Il fine del processorisolutivo è quello di individuare la soluzione del problema (in χ) a cui è associato quelpunto nello spazio delle proprietà (γ) che meglio risponde agli obiettivi prestabiliti.

Figura 1.2: Rappresentazione grafica di un problema multiobiettivo con due caratteristiche di interesse daminimizzare.

Secondo criteri matematici non esiste un ordinamento naturale completo in Rn quan-do n ≥ 2 a differenza di R dove i simboli di disuguaglianza trovano un’univoca in-terpretazione ed è impossibile ordinare le alternative yA, yB ed yC dalla “migliore” alla

1.1. L’ottimizzazione multiobiettivo

1. Presentazione del problema 4

“peggiore” senza introdurre ulteriori ipotesi od informazioni. Da una prima analisi sipuò però notare come yA ed yB minimizzino rispettivamente Y2 e Y1 ed il punto y∗ è unottimo ideale (a volte anche chiamato Ideal/Utopian Solution o Shadow Minimum [DDC96]),situato al di fuori del dominio delle caratteristiche di qualità; ciò accade per via dei tradeoff e ad esso non corrisponde alcuna combinazione dei livelli dei fattori realizzabile.

Un approccio comunemente adottato consiste nel ricercare una funzione Rn → R

che, combinando i valori assunti dalle caratteristiche di qualità del prodotto, forniscaun criterio di ordinamento su Rn permettendo così di giungere alla soluzione miglioretramite l’ottimizzazione di una funzione scalare3.

Funzioni come questa possono essere realizzate con più o meno elaborate equazionimatematiche, composte da pesi e speciali operatori e/o assumere una struttura logico–gerarchica. Nel caso vengano rispecchiate le preferenze di un ipotetico fruitore del pro-dotto esse prendono il nome di Funzioni di utilità (di desiderabilità, di preferenza o Fun-zioni obiettivo) e sviluppatesi inizialmente in ambito microeconomico [Pol67], si sono poidiffuse in numerose varianti che trovano oggi largo impiego in tutti i settori di interesse.

Le condizioni operative ottimali si individuano così attraverso l’ottimizzazione di unafunzione che aggrega le qualità di un prodotto, ovvero

xopt = argmaxχU(Y) = argmaxχU(f(X)) (1.1)

Pur non essendo esente da critiche4 questo approccio si rivela uno strumento effica-ce e versatile in molti casi, consentendo tra l’altro di intendere l’ottimizzazione mono-obiettivo come un caso particolare di quella multiobiettivo.

La finalità di questo primo capitolo è quella di presentare alcuni aspetti generali, con-centrando successivamente l’attenzione nei Paragrafi 1.2 e 1.3 sui contesti produttivi edaziendali dove si cercherà di riconoscere le varie sembianze che i problemi possono as-sumere evidenziandone le caratteristiche comuni e quelle distintive. Prima di fare ciò siritiene tuttavia necessario introdurre brevemente gli approcci metodologici più comune-mente utilizzati nella letteratura dedicata a questi argomenti e la relativa terminologia.Ciò consentirà da un lato di fornire una visione d’insieme ed una classificazione di talimetodologie e dall’altro di specificare meglio la via che si intende seguire e focalizzare sudi essa l’attenzione.

1.1.1 Approcci metodologici e classificazione

E’ facile convincersi intuitivamente dello stretto legame che intercorre tra i problemi diottimizzazione ed i problemi decisionali. Se da un lato l’esito di un’ottimizzazione equi-vale a una decisione presa su delle nuove condizioni operative, dall’altro nella Teoriadelle decisioni (Decision Making Theory) soprattutto nel suo ambito classico, gli attori so-

3Una forma non convessa di γ come quella che si osserva in Figura 1.2 potrebbe in realtà creare alcuniproblemi, come discusso più approfonditamente in Appendice (Paragrafo B.1, pag. 172)

4Un riscontro si ritrova tra le riflessioni sollevate in letteratura sull’approccio corrente alle scienze delWelfare che abbandona di modelli utilitaristici e neoclassici ispirati al pensiero di Bentham a favore dellaricerca di condizioni di Pareto Efficienza (New Welfare Economics) [Sen99].

1.1. L’ottimizzazione multiobiettivo

1. Presentazione del problema 5

no visti come “Massimizzatori”, ovvero agenti con scelte guidate da razionali processi diottimizzazione.

Nella Teoria delle decisioni a seconda delle finalità che i ricercatori si prefiggono, isentieri di indagine possono essere raggruppati in tre macrocategorie [LvW94]:

• approcci descrittivi: studiano le decisioni che prendono le persone con l’intento didescrivere i meccanismi adottati e prevederli;

• approcci normativi: studiano procedure decisionali logicamente coerenti alla ricer-ca di quelle migliori;

• approcci prescrittivi: studiano come aiutare le persone a prendere buone decisio-ni e suggeriscono come allenarle a migliorare. In questa categoria, che presentachiaramente punti di contatto con quella normativa, si mette in risalto la funzionemaieutica degli strumenti proposti al decisore e come essi determinino in modo piùo meno sostanziale il risultato finale5.

Questa distinzione non è universalmente condivisa per via della presenza di “zonegrige” le tre categorie, ma la mancanza di coesione viene spesso attribuita al fatto che letre branche della ricerca – normativa, descrittiva e prescrittiva – hanno avuto origine inambiti disciplinari distinti: rispettivamente Statistica, Matematica ed Economia; Psicolo-gia e Scienze Comportamentali; Ricerca Operativa, Scienze dell’Amministrazione e delManagement [BRT88].

Da un punto di vista quantitativo, gran parte della teoria è di tipo normativo o pre-scrittivo, ovvero si concentra su come identificare la miglior decisione da prendere assu-mendo l’esistenza di un decisore pienamente informato, razionale6 ed in grado di svol-gere calcoli in modo accurato. Una simile ipotesi chiama però in causa i contributi dellaricerca psicologica contemporanea che offre a tal proposito due diverse visioni [Sim96].La prima è quella della Teoria razionale della decisione (o decisione ottima) formulata nel-l’ambito dell’approccio cognitivo Human Information Processing (HIP) secondo cui cono-scere significa (per gli esseri umani tanto quanto per i computer) elaborare informazioni.La teoria della decisione come calcolo razionale di costi e benefici poggia sull’accura-tezza delle informazioni da cui si parte per decidere; se le informazioni sono scarse, opoco attendibili l’ottimalità della decisione ne esce compromessa. L’interpretazione con-trapposta (decisione soddisfacente) identifica viceversa nel processo decisionale anzichéun’analisi razionale e “distaccata” costi/benefici, una valutazione di appropriatezza, checonsisterebbe nella ricerca di corrispondenza tra le situazioni o il contesto e l’identità deldecisore, da cui il nome di Teoria dell’azione situata [Mar91]. In questo modello il ruo-lo dell’attore decisionale passa da chi raccoglie e processa informazioni a colui che devecomprendere la situazione ed attraverso un processo di autodeterminazione, identifica-re una soluzione non necessariamente ottima, bensì “appropriata” date le specificità delcontesto e delle proprie esigenze.

5Approcci differenti influenzano la decisione in modo analogo a quello in cui l’uso di specifici strumentiproduttivi si riflette poi sulle caratteristiche del manufatto.

6L’ipotesi di razionalità, centrale in ambito normativo e prescrittivo, gioca spesso un ruolo chiave anchenei modelli descrittivi in cui si giustifica la validità delle spiegazioni dei comportamenti, osservando che èsufficiente assumere che le persone agiscano “come se” fossero razionali massimizzatori [Fra98].

1.1. L’ottimizzazione multiobiettivo

1. Presentazione del problema 6

Il concetto stesso di razionalità manca tuttavia di una definizione chiara e condivisabenché in generale quasi tutti i modelli di scelta razionale assumano che essa avvenga inaccordo a strutture di preferenza stabili ed alla valutazione completa dei vicoli esistenti.Tra gli assiomi richiesti dall’ipotesi di razionalità i due principali sono [Rub98]

• la razionalità strutturale, ovvero la scelta del decisore dovrebbe essere indifferentetra descrizioni equivalenti del problema (indifferenza al framing effect e ad alterna-tive irrilevanti);

• la razionalità delle preferenze, che comporta come la sostituzione di una data solu-zione con una migliore sia sempre preferibile (da questo assioma derivano i requi-siti di monotonicità e transitività o consistenza delle preferenze).

La scarsa aderenza delle evidenze empiriche al soddisfacimento di tali ipotesi ha tra-sferito dall’ambito descrittivo (che deve riconoscere i limiti dei decisori nel raccogliere eprocessare l’informazione) a quelli normativi e prescrittivi il concetto di “razionalità limi-tata” nel tentativo di gestire anche tale aspetto. A questo proposito sviluppi interessantiderivano dalla Prospect theory, un sentiro di indagine relativamente nuovo che ha già peròincontrato notevole successo in abito accademico con interessanti applicazioni sia nellediscipline economico-finanziarie (es. Finanza comportamentale) che in quelle che guida-no le scelte sociali [KT79]. Sulla base dei risultati sperimentali di ricerche psicologichesono state formulate ipotesi ed elaborato un modello in grado di spiegare alcuni dei mec-canismi alla base delle scelte degli individui ed in particolare di come vengano valutatii rischi. Nei processi decisionali le persone dimostrino moto spesso comportamenti ir-razionali (a seguito di errori o distorsioni percettive e cognitive) che tuttavia presentanodei tratti sistematici tali da renderli in qualche misura prevedibili7 .

E’ importante sottolineare che si tratta sinora fondamentalmente di una teoria descrit-tiva, occupandosi principalmente di situazioni dove le scelte scaturiscono da valutazioniinformali, olistiche, senza il ricorso a metodi prescrittivi. Ipotizzando l’esistenza di uncontinuum tra una scelta compiuta istintivamente ed una più razionale, gli aspetti messiin risalto dalla Prospect theory possono giovare ad un metodo prescrittivo nella misurain cui fosse possibile tradurli in tecniche per evitare al decisore di compiere scelte chia-ramente irrazionali, lasciarsi eccessivamente distrarre dalla modalità in cui il problemaviene presentato ed aumentare la sua consapevolezza del rischio di incappare in notedistorsioni di giudizio.

Una delle caratteristiche salienti del concetto di razionalità limitata consiste comun-que nel considerare il decisore come un sistema a risorse finite cosicché all’aumentaredell’informazione raccolta, che alimenta il processo in Figura 1.3 , si consumano risorsetra cui ad esempio l’attenzione ed il tempo a disposizione del decisore [Sim96] [MF07].

Anche trattando il caso dell’ingegnerizzazione di prodotti è essenziali comprenderequesto fatto qualora si intenda giustificare delle preferenze o la forma stessa di una Fun-zione obiettivo. In alternativa la figura di un esperto del settore, solitamente chiamatoin causa nella letteratura riguardante nuovi approcci formali a problemi multiobiettivocome colui che ha il compito di fornire degli input critici (ad esempio i parametri o pesi

7[v. Glossario: Prospect theory] .

1.1. L’ottimizzazione multiobiettivo

1. Presentazione del problema 7

Figura 1.3: Il processo di decisione/ottimizzazione come raccolta ed elaborazione di informazioni. Sievidenziano i flussi che alimentano e collegano le principali attività.

di una forma funzionale), è un artefatto che elude il problema più che mirare a risolver-lo. Non essendo possibile se non a livello speculativo fare affidamento su di un soggettoche con certezza assoluta possa condurre ad “un’ottima decisione” o alla “migliore ot-timizzazione”, gli approcci prescrittivi tendono a riconoscere scelte razionali quando ildecisore applica un approccio dalla struttura logicamente e scientificamente valida8.

Le proposte in seguito esaminate si distinguono per la loro capacità di assistere ilricercatore nella costruzione dei modelli e di implementare correttamente delle conse-guenze implicite nelle scelte compiute e nelle informazioni che ha fornito. Sono dunqueapprocci prescrittivi e che, dando credito alla volontà manifestata dalle persone di com-portarsi nelle situazioni reali in accordo ai più basilari principi di razionalità [LvW94],sarà anche lecito definire razionali.

1.1.2 Il ruolo dell’incertezza

Quando però la razionalità è limitata l’ottimizzazione multiobiettivo consiste in un’atti-vità contrassegnata da lacune di conoscenza ed occorrerebbero strumenti per riconosceree gestire questi limiti. L’incertezza può essere tale da consentire l’impiego di strumentidi analisi statistica, dove attestare la validità di un modello ricavato da dati empirici con-siste nell’utilizzare un nuovo insieme di osservazioni, diverso da quello con cui è statostimato, per valutarne l’accuratezza nel prevedere l’output dati gli input. La costruzionedel MDS è spesso riconducibile a questa fattispecie, ma non sempre lo è altrettanto quel-la del MDO dove l’output è una misura più o meno arbitraria dell’utilità che il decisoreattribuisce ad ogni prodotto sottoposto al suo giudizio.

Ignorando per il momento questa differenza qualitativa tra incertezze e concentran-dosi sulla loro provenienza, in Tabella 1.1 viene incrociato il tipo di informazione a dispo-sizione sul fenomeno che si desidera modificare con quello sulla forma degli obiettivi. Larappresentazione evidenzia l’introduzione di un’incertezza nel passaggio per il fenome-no da modelli noti a modelli empirici e per la Funzione obiettivo da una forma nota (osupposta assegnata) ad una endogena che occorre ricavare. Si prospettano quattro casi9:

• MDS – MDO : questa rappresenta la situazione più semplice da gestire in quanto

8[v. Glossario: Validità, Solidità] .9Esclusi dalla presente classificazione sono gli approcci in cui una forma propriamente detta del M DO è

considerata non conoscibile come ad esempio i metodo paretiani “puri” [v. Glossario: Dominanza] .

1.1. L’ottimizzazione multiobiettivo

1. Presentazione del problema 8

MODELLO DEGLI OBIETTIVI

noto non noto

noto

Entrambi i modelli noti e deter-ministici

Modello del fenomeno fisico no-to e deterministico, ma incer-tezza su come aggregare gliobiettivi

MODELLO DEL MDS – MDO MDS – MDO

SISTEMA

non noto

Relazioni tra fattori e qualità ri-cavata empiricamente, modalitàdi aggregazione degli obiettivinota o assegnata

Relazioni empiriche tra fattori equalità, incertezza sul modo diaggregare obiettivi e caratteristi-che

MDS – MDO MDS – MDO

Tabella 1.1: Incrocio di incertezze tra MODELLO DEL SISTEMA e MODELLO DEGLI OBIETTIVI. Siindividuano quattro possibili situazioni a seconda che i modelli in questione siano totalmentenoti e deterministici oppure affetti da incertezza.

la conoscenza della Funzione obiettivo rende l’ottimizzazione sotto ogni aspettomono-obiettivo, non figurando alcun termine di errore o incertezza;

• MDS – MDO : anche in questo caso il problema è solo formalmente multiobiettivopoiché il processo in cui le proprietà vengono aggregate in un unico valore avvienesenza incertezza alcuna. Occorrono tuttavia procedimenti per costruire e validarei modelli empirici e valutare la propagazione dei rispettivi termini di errore sullecondizioni di ottimo;

• MDS – MDO : in questo caso si conoscono con precisione le relazioni che lega-no i fattori (X) alle caratteristiche di interesse (Y), ma il decisore non è in grado dispecificare con certezza la modalità di risoluzione dei trade off. Si incontrano proble-mi di costruzione, validazione della struttura delle preferenze e di quantificazionedell’incertezza e dei suoi effetti sulle condizioni ottime;

• MDS – MDO : in quest’ultima situazione alle incertezze sulle leggi che governano ilfenomeno fisico si aggiungono quelle sulle preferenze con caratteristiche simili allasomma dei due casi precedenti a cui si aggiunge anche un’eventuale interazione trale fonti di incertezza.

E’ interessante ritrovare qui, in particolare per il MDS , il ruolo biunivoco dei metodidi indagine scientifica che permettono sia di astrarre e generalizzare (dal fenomeno nonnoto ad un modello teorico) che di caratterizzare un fenomeno specifico (attraverso espe-rimenti e modelli empirici). Nel caso del MDO si possono invece comprendere meglio idifferenti sentieri di indagine: gli approcci descrittivi hanno consentito di osservare comegli assiomi di perfetta razionalità non fossero adeguati a rappresentare le incertezze cheinvece si incontrano in realtà e la finalità degli approcci normativi e prescrittivi è spessoquella di progettare metodi mirati a ridurre tali incertezze ed accompagnare il decisoreda una condizione in cui le preferenze non sono note ad una in cui è più ragionevoleritenerle tali, legittimando un’approssimazione MDO . La Tabella 1.1 proponendo l’in-

1.1. L’ottimizzazione multiobiettivo

1. Presentazione del problema 9

certezza sulla Funzione obiettivo come controparte di quella sul fenomeno fisico, puòanche suggerire ove possibile l’uso di strumenti analoghi per trattare i due aspetti10.

Le quattro situazioni descritte non dovrebbero essere intese come specifiche e distinteapplicazioni concrete, quanto piuttosto delle semplificazioni modellistiche che al ricerca-tore può sembrare giusto o conveniente adottare. E’ infatti facile convincersi che il casoMDS – MDO è quello che più rispecchia le situazioni reali, ma non necessariamentequello in base a cui il problema deve o può essere risolto. L’incertezza come sintomodi un’incompleta conoscenza, è strettamente legata al concetto di complessità, che inve-ce pone di fronte ai limiti delle capacità conoscitive ed elaborative umane. Il ruolo delricercatore è tipicamente quello di affrontare i problemi costruendo modelli semplifica-ti in cui si omettono i dettagli considerati di secondaria importanza conservando soloquelli necessari. Essendo gli approcci più approfonditi – che incorporano tutte le fontidi incertezza – generalmente anche più onerosi da gestire, un passaggio critico consistenell’individuare punti di snodo tra i costi ed i benefici del livello di approssimazioneadottato. In tal senso un approccio multiobiettivo può presentare costi legati a:

• interpretazione e comprensione del metodo: è richiesto uno sforzo iniziale nel casoin cui occorra acquisire per la prima volta le competenze richieste dall’approccio;

• implementazione ed adattamento al caso specifico: le proposte, spesso di caratte-re generale, necessitano alcune operazioni prima di poter essere impiegate in unaspecifica applicazione. Una volta fatto ciò, occorre modellare il problema secondoquanto prescritto (o previsto) dal metodo scelto;

• requisiti informativi: un approccio può richiedere informazioni non al momentodisponibili e che occorrerà raccogliere dalle rispettive fonti;

• risorse computazionali: a valle della fase di modellazione se ne rende necessariauna di elaborazione e svolgimento di calcoli per pervenire al risultato finale. Moltifattori influiscono sulla tipologia di tali risorse che possono variare da software dibase ad applicazioni evolute, fino all’eventualità di dover implementare per interol’algoritmo risolutivo.

A quelli ora elencati si può aggiungere un costo opportunità derivante dalla non pienacertezza di aver scelto l’approccio più adatto al caso in esame, di averlo implementatocorrettamente e dalla consapevolezza circa l’esistenza di discussioni aperte in letteraturain merito alla sua validità ed alle sue effettive potenzialità.

Rispetto alla semplificazione MDS – MDO (indubbiamente la più adottata in prati-ca) un approccio più impegnativo può produrre viceversa vantaggi in termini di:

• analisi più completa, supportata da una teoria scientifica e possibilmente da riscon-tri empirici in numerose applicazioni: ciò si traduce generalmente in minori rischidi aver tralasciato informazioni critiche e nella maggior fiducia di aver impiegatoun metodo valido;

10Osservando però che se è legittimo attribuire alle osservazioni di un esperimento la natura di stimenon distorte di un qualche parametro “vero” di una popolazione, non è altrettanto semplice verificare lamedesima assunzione nel caso delle preferenze.

1.1. L’ottimizzazione multiobiettivo

1. Presentazione del problema 10

• valore della decisione potenzialmente maggiore: un’analisi più approfondita puòridurre i rischi di selezionare condizioni operative subottimali (la migliore cono-scenza degli obiettivi può tradursi in un’utilità attesa più elevata che tenga contodelle incertezze);

• informazioni sull’incertezza: la qualificazione e quantificazione delle incertezzepermette una loro gestione, sia essa mirata a ridurle attraverso ulteriori proget-ti oppure a considerarle nella scelta delle condizioni ottimali (ne è un esempio ildesign di processi robusti);

• valore storico: un approccio più completo ed elaborato riduce generalmente il ri-corso a giudizi soggettivi e consente dunque, anche attraverso una migliore do-cumentazione, di verificare a distanza di tempo la procedura svolta, rintraccian-do gli aspetti più efficaci e gli errori commessi e generando nuova informazione econoscenza utile in futuro.

Tra questi benefici il maggiore è probabilmente il secondo, che corrisponde ad unautilità “vera” più elevata, ma è anche quello più difficile da valutare. L’incremento divalore è infatti scarsamente conoscibile a priori, poiché richiederebbe un’analisi differen-ziale sui risultati di alcuni approcci alternativi in competizione tra loro ed applicati almedesimo problema. Anche tale confronto a posteriori risulta tuttavia problematico com-portando costi associati a ciascun approccio implementato ed ai problemi di traducibilitàtra varie scale di misura si aggiunge la proprietà di un processo di ottimizzazione (e del-la decisione che da esso ne scaturisce) di modificare irreversibilmente le condizioni delcontesto; ripetere l’ottimizzazione con un metodo alternativo pone innanzi i vincoli e leopportunità generatesi in seguito ad una decisione inizialmente presa11.

RILEVANZA O IMPATTO DELLA DECISIONE

bassa elevata

bassa

Problemi frequenti, semplici econ modeste ricadute

Modellazione semplice, ma cri-ticità dei risultati

COMPLESSITÀSemplici eurismi, procedurestandard, MDO implicito

Approccio olistico, gestione deirischi e delle incertezze

DEL PROBLEMA

elevata

Problemi difficili da modellare,ma dagli effetti contenuti

Modellazione articolata, forti in-terdipenenze, esito con impor-tanti ricadute

Analisi C/B, trial and error Approccio analitico, gestionerischi ed incertezze

Tabella 1.2: La matrice incrocia la rilevanza o l’impatto dell’esito di una decisione con la complessità delproblema che occorre risolvere nell’intento di riconoscere l’approccio più efficace.

I due ostacoli principali all’applicazione di approcci multiobiettivo più complessi incondizioni di incertezza risentono da un lato del fatto che che ha poco senso applica-re metodi elaborati a modelli empirici caratterizzati da considerevoli errori sperimen-

11Non sempre questa modifica è immediata, ma si rende sovente necessario attendere che avvenga permisurare appieno il valore conseguito dal processo di ottimizzazione. Il confronto da le prestazioni a lungotermine di design alternativi suggeriti da diversi approcci è, quando avviene, un’operazione al più teorica.

1.1. L’ottimizzazione multiobiettivo

1. Presentazione del problema 11

tali [DC07] e dall’altro del non poter dimostrare incontrovertibilmente i vantaggi di unapproccio elaborato rispetto a quelli di uno più semplice.

Gli impatti di alcune decisioni in ambito aziendale (tra cui quelle di design) sono tut-tavia considerevoli, protratti nel tempo e si ripercuotono su sistemi complessi; Tabella 1.2mostra come tutti questi siano fattori che consiglino l’impiego di approcci efficaci nell’in-corporare le incertezze. Al crescere dalla rilevanza della decisione e della sua complessitàaumentano infatti sia il rischio che l’entità del danno derivante dall’aver tralasciato le in-formazioni necessarie, giustificando un’analisi maggiormente completa e rigorosa. Unsimile principio precauzionale è solo in apparente contrasto con il rasoio di Occam12. Lasemplificazione introdotta modellando una situazione MDS – MDO con una MDS –MDO accresce infatti il rischio di sviluppare soluzioni subottimali. Peraltro un approc-cio eccessivamente semplice, ancorché più intuitivo, facente massiccio ricorso a parerisoggettivi e da parte di terzi (per definizione non falsificabili13), produce un esito che tra-scende l’ambito scientifico. Il ricercatore, pur non essendo necessariamente colui adibitoalla risoluzione dei trade off, dovrebbe presidiare anche questo aspetto per non vanificaregli sforzi profusi nelle indagini sperimentali sul MDS .

1.1.3 Gli algoritmi di ottimizzazione

Un’ultima distinzione su cui occorre fare chiarezza, è quella tra l’approccio impiegato,che si concretizza nella produzione di una Funzione obiettivo e la procedura per condurrel’ottimizzazione, ovvero l’algoritmo applicato a suddetta funzione14 [KL98].

Figura 1.4: Tra gli elementi che concorrono nello svolgimento del problema gli algoritmi di ottimizzazionesi interfacciano direttamente con la funzione da ottimizzare.

Considerando il ruolo centrale riservato alla prima di queste questioni nel presente

12“Pluralitas non est ponenda sine necessitate”, principio che porta a preferire quella più semplice tra teoriein competizione tra loro e dotate della stessa capacità previsiva.

13Si fa riferimento alla “falsificabilità” come criterio secondo Popper per demarcare l’ambito delle teoriedi cui si può controllare la “verità” (scientifiche) da quello delle teorie non controllabili (non scientifiche).

14Si definisce la Funzione obiettivo come la risposta alla domanda “Cosa ottimizzare?”, mentre l’algoritmoa quella “Come ottimizzare?” [KL98].

1.1. L’ottimizzazione multiobiettivo

1. Presentazione del problema 12

lavoro, la digressione si potrebbe evitare se non vi fossero sostanziali interazioni tra i dueelementi e si potessero analizzare in modo indipendente, ma come mostrato in Figura 1.4risulta vero il contrario. Pur essendo approfonditi in ambiti di ricerca differenti, vi sonoaddirittura casi in cui una classificazione rigida è inefficace per via di forti interazioni.Se da un lato le peculiari proprietà di una funzione ottimizzanda possono imporre l’usodi algoritmi idonei (ad esempio la non continuità delle derivate o una forte nonlineari-tà sconsigliano i metodi euristici basati sul gradiente), dall’altro si assiste a tentativi perimportare le idee alla base degli algoritmi all’interno di approcci di ottimizzazione mul-tiobiettivo. Ciò avviene ad esempio nel caso degli algoritmi di Evolutionary MultiobjectiveOptimization (EMO) con particolare riferimento a quelli sviluppati per ottimizzare un vet-tore di obiettivi (VEGA, PAES, NSGA-II, . . . ), ma anche negli algoritmi di ottimizzazioneinterattivi e più in generale in tutti quelli che di fatto prescrivono criteri di aggregazione.Considerando il contesto della trattazione, non verranno fatti in seguito riferimenti aglialgoritmi risolutivi se non in modo incidentale, ovvero nei casi in cui l’accoppiamento traproblema ed algoritmo risulti particolarmente critico. Nelle altre situazioni si ipotizzeràche non sia possibile individuare un algoritmo che garantisca prestazioni superiori (intermini di efficienza ed efficacia) per ogni possibile problema ed all’interno di classi dimetodi simili tra loro, l’adeguatezza di uno in particolare di essi ad una specifica funzio-ne (si parla in questi casi di algoritmo specializzato) costituisca più che altro un eventocasuale [WMCSJ97].

1.2 L’ottimizzazione multiobiettivo in azienda

I problemi multiobiettivo sono comuni in molti settori ed in ambito aziendale, dove quo-tidianamente le teorie scientifiche si sottopongono al vaglio dell’applicazione, essi trova-no una sorgente abbondante ed inesauribile. Dal punto di vista qualitativo, quelli affron-tati in questa sede rivestono un’importanza cruciale poiché, come testimonia la vivacitàdella ricerca, è dalla capacità di saper rispondere a obiettivi potenzialmente in conflittotra loro che derivano le maggiori opportunità di progresso tecnologico e di accrescimentodella competitività per le imprese operanti in mercati evoluti.

La stessa analisi costi/benefici, pilastro del pensiero economico e della gestione razio-nale d’impresa presenta una matrice multiobiettivo. L’approccio tradizionale consiste invalutazioni omogenee (tipicamente misure economico-finanziarie) di ambedue gli aspet-ti ed in una successiva fase di aggregazione in un unico indicatore, ottenuto per mezzodi rapporti o somme algebriche. Sempre più spesso però questa analisi è consideratainsoddisfacente, preferendo preservare l’eterogeneità tra le voci di costi e benefici construmenti multiobiettivo [RHWD04] [PBSG03]. E’ significativo anche solo citare comeogni funzione ed unità operativa dell’impresa cerchi risposte a problemi multiobiettivoformulando le soluzioni considerate più idonee rispetto al contesto, alla pluralità dellesituazioni lavorative ed alla formazione di chi esercita in ciascun ruolo.

La sintetica panoramica di Tabella 1.2 raccoglie un piccolo campione estratto da unambiente ove virtualmente ogni risorsa può beneficiare di soluzioni multiobiettivo, pur

1.2. L’ottimizzazione multiobiettivo in azienda

1. Presentazione del problema 13

ambito problema dettagli

FINANZA

AZIENDALE

ottimizzare un portafoglio di titoli azionari massimizzare il rendimento atteso di unportafoglio e minimizzarne il rischio (cfr.modello di Markowitz per la soluzionedel problema della frontiera efficiente deiportafogli)

FINANZA

AZIENDALE

scegliere la struttura finanziaria ottimale, ov-vero del miglior bilanciamento tra capitale dirischio e di debito

risolvere il trade off tra i possibili benefici de-rivanti dall’aumento del rapporto di leva edi costi dell’indebitamento connessi al rischiocrescente

CONTROLLO

DI GESTIONE

valutare le performance aziendali raggruppamento di diversi indicatori (conta-bili, KPI, . . . ), all’interno di uno strumentografico che offra una percezione complessi-va semplice ed immediata (cfr. i cosiddetti“cruscotti” e la Balanced Scorecard [KN96])

CONTROLLO

DI GESTIONE

analizzare le prestazioni differenziali di unitàorganizzative

il metodo più diffuso è il Data EnvelopmentAnalysis (DEA) che impiega strumenti di pro-grammazione lineare per condurre uno stu-dio sulla frontiera efficiente [v. Glossario:Data Envelopment Analysis]

MARKETING caratterizzare le preferenze del mercato ad esempio la Conjoint Analysis mira a rile-vare le caratteristiche di interesse ed i relati-vi pesi dati dalla clientela per formulare pre-visioni d’acquisto [v. Glossario: ConjointAnalysis]

MARKETING–QUALITÀ

tradurre le preferenze del mercato in specifi-che di progetto

tra i diversi metodi sviluppati la House ofQuality (HOQ) ha il fine di collegare le infor-mazioni raccolte dalla clientela ai parametriprogettuali [v. Glossario: House of Quality]

CONTROLLO

QUALITÀ

monitorare simultaneamente molteplici ca-ratteristiche

ad esempio mediante Carte di ControlloMultivariate con limiti calcolati in base adistribuzioni multinomiali

Tabella 1.3: Alcuni esempi tipici di problemi multiobiettivo (a quelli menzionati si potrebbero aggiun-gere la gestione della supply chain e della logistica in generale, quella della produzione, lapianificazione di un layout, . . . ).

conservando tratti specifici15. E’ chiaro come qui più che altrove si potrebbe avvertirela mancanza di un esplicito confronto interdisciplinare, pensando in particolare a quelleinteressanti opportunità si aprono nelle zone grige ove un medesimo problema multio-biettivo lega tra loro differenti funzioni aziendali. E’ il caso ad esempio del rapporto tra ilMarketing (interprete delle molteplici necessità e preferenze del mercato) e l’Ingegneria diprodotto (chiamata a soddisfarle con un design appropriato) o di quello tra quest’ultimaed il Controllo industriale della qualità. Un approccio in fase di studio prevede di colle-gare l’attività di progettazione a quella di controllo della produzione in serie, impiegandocarte per osservare l’evoluzione di una sola misura di merito (come può essere l’Utilità)

15Ad esempio vi sono chiare differenze tra il design di un prodotto ed il controllo delle prestazioni azien-dali. Nel secondo caso la scelta di non aggregare misure di prestazione potenzialmente in conflitto tra loro ègiustificata dalla dinamicità delle rilevazioni, dalla necessità di individuare rapidamente gli scostamenti daitarget (secondo la filosofia di Management by Objectives) e provvedere a ribilanciare le priorità nel modo piùflessibile. E’ interessante osservare come anche in questi casi vi siano proposte di contaminazione, valutandole prestazioni dei prodotti con cruscotti di indicatori, tipicamente a valle della fase di progettazione.

1.2. L’ottimizzazione multiobiettivo in azienda

1. Presentazione del problema 14

calcolata a partire dai livelli delle caratteristiche dei prodotti [JW05]. Pur non essendosemplice da stimare in termini di distribuzione ed effetti delle covarianze tra caratteri-stiche, questa rimane una via naturale e coerente da seguire per controllare prodotti oprocessi ottimizzati per mezzo di una Funzione obiettivo [TW06].

1.2.1 La gestione di un design multiobiettivo

Un problema multiobiettivo richiede competenze sia tecniche, in particolar modo mo-dellistiche e statistiche, che gestionali a fronte della rilevante presenza del fattore umano.L’insieme di attività svolte può essere per la gestione d’impresa sia un progetto che unprocesso: è un progetto in quanto occorre un’allocazione mirata di risorse e tempi perpervenire ad un risultato definito (la realizzazione di un prodotto ottimale). Il flusso diattività viene comunemente gestito con tecniche di Project management e valutato in ter-mini di efficienza ed efficacia [BSV02]. Acquista le caratteristiche di un processo quandosi colloca in politiche di miglioramento continuo e filosofie di business quali il Total qua-lity management. Qualità ed obiettivi mutano anche a seconda che l’ottimizzazione siafinalizzata al miglioramento incrementale, venendo cioè applicata a situazioni esistenti,o viceversa ad un nuovo progetto di sviluppo ed ingegnerizzazione. In tutti i casi occorreperò in fase di modellazione rispondere a due quesiti fondamentali:

• Qual è la natura degli obiettivi? Da dove provengono?

• Chi detiene le informazioni e le competenze necessarie alla risoluzione del proble-ma? Che meccanismi occorre mettere in atto per renderle disponibili?

Il primo aspetto porta ad identificare e raccogliere sistematicamente tutte e sole le carat-teristiche da includere nell’analisi, eventualmente secondo quanto suggerito dal modelloteorico che si è deciso di adottare. Nei processi produttivi, ad esempio, gli obiettivi ri-spondono alle specifiche inserite nei disegni, alle tolleranze (per cui uno standard è offertodai Basic Tolerancing Principles [AA09a]) ed alle politiche di Gestione della qualità adotta-te in azienda. Nello sviluppo di un nuovo prodotto le competenze e le informazioni delMarketing giocano spesso un ruolo fondamentale nell’interpretare i bisogni del mercatoe tradurli in obiettivi: la motivazione alla base di tali bisogni è tradizionalmente ricon-dotta alle categorie market pull, technology push e customized needs [UE+95] e la raccoltarazionale di informazioni può avvenire secondo il modello di Kano [KSTT84]. Tale clas-sificazione, spesso integrata in altri strumenti quali la House of Quality16 [TS00], suddividei requisiti in basic, ovvero proprietà che il cliente intervistato potrebbe non menzionare,ma la cui mancanza viene immediatamente percepita come insoddisfacente, expressed,cioè requisiti che egli riconosce, è in grado di formalizzare e concorrono all’aumento del-la soddisfazione ed infine exciting, una classe che racchiude caratteristiche non note alcliente e da lui non espressamente richieste, ma la cui presenza suscita attrazione verso ilprodotto. La Requirements Analysis (recepita in ISO 9000) offre dimensioni in parte com-plementari al modello di Kano, distinguendo le caratteristiche di interesse in functionale non-functional requirements. Le prime definiscono le funzionalità di un sistema (“cosa”

16[v. Glossario: House of Quality] .

1.2. L’ottimizzazione multiobiettivo in azienda

1. Presentazione del problema 15

fa il prodotto), mentre le seconde il modo in cui esso le esplica (“come”) presentandositipicamente da aggettivi che caratterizzano i functional requirements.

L’attenzione che deve essere posta nelle fasi più a monte del processo di design apparechiara nello schema di Figura 1.5. Occorre definire espressamente ed il prima possibilegli obiettivi che ci si prefigge per limitare l’insorgere di ricicli segnati dal costo crescen-te di eventuali modifiche. Ne consegue che essendo le prime fasi spesso anche quellecontraddistinte dalla maggiore incertezza ed ambiguità, le decisioni più importanti sonoanche le più rischiose, fatto che aumenta i benefici degli approcci di tipo MDS – MDO .

Figura 1.5: Con l’avanzamento dello sviluppo diminuisce la flessibilità del progetto, rendendo le modifichein corso d’opera via via più difficili e costose (modificato da [RoTD06]).

E’ indispensabile incentivare la collaborazione tra la funzione di Marketing e quelladi Ricerca e sviluppo (o Ingegneria industriale) e promuovere il reciproco scambio di in-formazioni e competenze. Senza un sistema di comunicazione programmato ed efficacela condivisione degli obiettivi risulta impedita anche solo dalla diversa percezione dellarealtà e dal linguaggio adoperato dalle due funzioni. L’analisi multiobiettivo richiede in-vece per sua natura la partecipazione, il lavoro di squadra e lo sfruttamento delle sinergietra diverse discipline rappresentate in un tipico team di progetto.

Dalla natura sequenziale del diagramma di Figura 1.5 si riconosce come le tecnicheimpiegate, le assunzioni, le ipotesi, le incertezze ed in generale tutte le caratteristichedelle fasi a monte, impattano in modo diretto o indiretto sulla natura degli input di quel-le a valle, condizionando il risultato finale. Il Project manager ha dunque il compito dipreservare una visone organica e complessiva sull’approccio messo in atto, così come ilricercatore ha quello di fare esplicito riferimento alle interdipendenze tra le fasi e gli ele-menti del problema al fine di poterne validare la soluzione. Per vari motivi è difficilereperire in letteratura esperienze che descrivono per intero la risoluzione di un problemamultiobiettivo dalle fasi iniziali (con l’applicazione di un metodo per definire gli obiettivi,l’indagine sperimentale per costruire un MDS , . . . ) alla sintesi di una Funzione obiettivoed alla sua ottimizzazione. Come in ogni problema complesso infatti ciascun passaggiooffre numerosi spunti di riflessione ed approfondimento, ma occorre provvedere affin-ché la frammentazione del problema nelle trattazioni teoriche non rischi di tradursi inuna grossa lacuna nelle applicazioni pratiche.

1.3 Un problema polimorfo: l’idea di Robusto

Pur in presenza di diverse caratteristiche di interesse, la scelta di impiegare un approcciomono-obiettivo può essere giustificata dall’importanza predominante che ha una qualità

1.3. Un problema polimorfo: l’idea di Robusto

1. Presentazione del problema 16

sulle altre (si approssima così una soluzione multiobiettivo con una mono-obiettivo). E’questa una pratica molto comune se si riconosce che quasi ogni problema reale ha naturamultiobiettivo [Zit02] e si presterebbe ad essere affrontato con tali tecniche. A sostegnodi questa tesi si osserva come molti di essi si presentino sotto forme particolari anche insituazioni in cui non si elencano esplicitamente le diverse prestazioni ricercate o in cuila natura del contesto porta a darne una differente denominazione. Si pensi ad esem-pio alle applicazioni che chiamano in causa l’idea di “Robustezza”, ovvero la ricerca dicondizioni operative insensibili a modifiche e variazioni tra cui:

• l’introduzione di obiettivi addizionali: si ipotizzi che vengono eseguite, a distanzadi tempo, ottimizzazioni disgiunte su differenti caratteristiche di qualità che con-dividono il medesimo sottoinsieme di fattori. Ciò potrebbe verificarsi per un pro-cesso produttivo impostato nell’intento di massimizzare una certa risposta ed siprema successivamente per ottimizzarne una ulteriore. Occorre monitorare due ri-sposte nel corso degli esperimenti per scongiurare l’eventualità che miglioramentidella dimensione di qualità appena introdotta avvengano a scapito di gravi degradidella vecchia, fatto di cui a volte ci si accorge solo in seguito;

• i processi di usura: come nel caso precedente l’orizzonte temporale è fonte di pro-liferazione degli obiettivi. Ci si concentra qui su problemi di affidabilità, ossia ilvariare della qualità nel tempo [FGE05] (anche Reliability). Un compromesso traperformance istantanee e la capacità di conservarle a livelli accettabili per un perio-do di tempo sufficientemente lungo, è ad esempio individuato introducendo nelMDO termini per minimizzare il deterioramento previsto nelle prestazioni;

• la variabilità naturale: di questa vasta problematica si occupa quel ramo del De-sign Of Experiments (DOE) che prende il nome di Robust Design e costituisce forsel’espressione più nota delle idee di Probabilistic Design. Oltre alla risposta media diuna data caratteristica di qualità riveste infatti un ruolo di egual rilievo (ed a volteperfino maggiore17) la dispersione che si genera intorno al valore atteso. Tale os-servazione, inizialmente sottoposta all’attenzione del dibattito scientifico in campoindustriale da Taguchi [Mon06], implica la necessità di affiancare a ciascuna carat-teristica di interesse, come ulteriore obiettivo, quello di minimizzarne la varianzanelle condizioni ottime nel tentativo di ridurre la sensibilità rispetto alla variabilitànaturale del processo. L’approccio attualmente considerato più promettente consi-ste in alcune modifiche apportate al metodo classico della Superficie di Risposata(RSM) e verrà discusso nel capitolo successivo

• le condizioni operative: secondo una diversa accezione di Robust Design soluzioni“robuste” sono quelle in cui il sistema si dimostra relativamente insensibile a pic-cole variazioni nei livelli dei fattori [DG05]. L’intento è di prevedere la presenza diimprecisioni o modesti scostamenti non controllabili dai livelli impostati, predili-gendo zone dove le risposte del sistema non si riducono drasticamente nell’intornodel punto prescelto. Un tale accorgimento può essere inserito nel MDO tramite

17Un processo con ridotta variabilità, ma non centrato, è solitamente più semplice da correggere di unoche è viceversa centrato, ma caratterizzato da una eccessiva varianza [Mon07].

1.3. Un problema polimorfo: l’idea di Robusto

1. Presentazione del problema 17

indicatori della qualità dell’intorno della generica soluzione x0 [BZ06]) oppure con-siderato in un’analisi di sensibilità a valle ed a complemento dell’ottimizzazione[DS80]

Anche se interessati a tutte queste declinazioni di “Robustezza” la decisione di inseri-re nel problema di design ulteriori caratteristiche necessita di un’analisi tra costi e benefici(in accordo al Rasoio di Occam). Due vie ugualmente percorribili consistono nell’aggiun-gere nuovi obbiettivi ad un insieme minimo, oppure scartare le caratteristiche meno rile-vanti riducendo l’insieme di quelle potenziali. Entrambi i casi conducono verso il puntodi snodo tra la volontà di concentrarsi sulle sole qualità realmente importanti e la pul-sione spesso dettata dallo sviluppo dei mercati, dalla crescente complessità dei requisitidei clienti e dalla varietà di tecniche produttive e strutture dei costi degli operatori, chetendono a moltiplicare le necessità da soddisfare.

1.4 Descrizione del caso: la verniciatura industriale

Il caso empirico che è stato studiato con tecniche multiobiettivo consiste nel processo disviluppo di un nuovo prodotto nel campo della verniciatura industriale. La verniciatu-ra costituisce un’attività critica tra fasi di produzione di un bene poiché la durata delleoperazioni, l’ingombro ed il costo di impianti ed attrezzature, nonché la delicatezza el’attenzione richiesta nella scelta delle procedure e nella regolazione dei fattori, fa sì cheessa sia tipicamente un collo di bottiglia del processo industriale. Inoltre, posizionandosia valle di svariate fasi di trasformazione, i manufatti che modifica hanno accresciuto ilproprio valore aggiunto. La maggiore criticità nasce però dalle due esigenze fondamen-tali a cui la verniciatura deve rispondere: proteggere e decorare le superfici dei prodotti.Nel primo caso si influenza la resistenza nel tempo o la durabilità e dunque la capacitàdi mantenere inalterate le caratteristiche dei manufatti difendendoli dagli agenti esterni,mentre la seconda esigenza ha il fine di fornire loro un aspetto più gradevole, incremen-tandone ulteriormente il valore. Il risultato del processo di verniciatura è una delle prime(se non la prima) qualità rilevate dal cliente attraverso i suoi sensi: la vista registra pro-prietà quali il colore, la tonalità, la brillantezza, l’uniformità, . . . , il tatto percepisce lostrato ricoprente sostituitosi a quello del prodotto lavorato in termini di ruvidità, durez-za, . . . e l’olfatto può rinvenire la piccola quantità di solventi che abbandona la superficieanche quando questa appare asciutta. Dal punto di vista strategico è spesso molto diffici-le riprodurre altrove lo stesso ciclo applicativo e pertanto una prestazione così cruciale aifini commerciali costituisce anche un patrimonio aziendale difficilmente sottraibile dallaconcorrenza [AO96].

L’armonia tra i due macro-obiettivi – proteggere e decorare – non è scontata ed infat-ti l’azione protettiva a volte viene subordinata alla cura per l’aspetto estetico, del qua-le si ritiene più interessato l’utilizzatore finale18. Molti elementi interagendo tra loroinfluenzano a diversi livelli gli obiettivi e ad una prima analisi si distinguono:

18Sebbene non sia immediato misurare in modo strumentale l’estetica dello strato ricoprente è sempliceper le persone averne una percezione generale e qualitativa: dal punto di vista emotivo e psicologico talefacilità accresce il peso di queste caratteristiche nel guidare le scelte dei consumatori, quando semplificano i

1.4. Descrizione del caso: la verniciatura industriale

1. Presentazione del problema 18

1. il supporto, ovvero il manufatto da ricoprire;

2. il prodotto verniciante;

3. il processo tecnologico, inteso in senso lato così da comprendere attrezzature, ope-razioni ed ambiente esterno.

Il presente studio si è concentrato su una fase ristretta dell’ultimo di questi elementi, maè chiaro che il problema presenta forti interdipendenze. Per ottenere buoni risultati nonsolo occorre ad esempio che il supporto sia in condizioni idonee in termini di pulizia,umidità e temperatura, ma esso può determinare a sua volta obiettivi e vincoli a secondadella forma, della funzione, del materiale e delle lavorazioni precedentemente subite,suggerendo od imponendo una classe di prodotti e di tecniche di applicazione. In modoanalogo, una stessa proprietà come può essere la viscosità della vernice, che ne influenzail potere filmogeno (ossia la capacità di ricoprire il manufatto con uno strato continuoed uniforme) può essere condizionata sia dalla composizione chimica, che dal tipo dimiscelazione19, che dalla temperatura (essendo quest’ultimo un parametro di processo).

Le caratteristiche di interesse nonché i criteri di scelta per un processo e le relativeapparecchiature ed impostazioni dipendono così:

• dalla qualità della finitura che esso consente di ottenere: nonostante l’ampio margi-ne di discrezionalità in base a cui si definisce la qualità in questo settore, si consideracomunemente:

– l’aderenza: la vernice deve essere perfettamente ancorata al supporto;

– la brillantezza: supposta uniforme e pari a quella desiderata;

– la distensione: tanto migliore quanto più si presenta liscia in tutti i punti, esen-te da screpolature, corrugazioni a “buccia d’arancia”, crateri, punte di spillo,schivature, colature, . . . ;

– le prestazioni fisico-chimico-meccaniche della pellicola: adeguate al tipo diutilizzo ed alle sollecitazioni che subirà il pezzo;

– l’inglobamento di sostanze estranee: non si deve notare all’esame visivo otattile la presenza di pulviscolo o bolle;

– l’accuratezza nella verniciatura di spigoli e pieghe, dove lo spessore del filmasciutto deve essere uniforme rispetto al resto del pezzo;

– la copertura: la tonalità deve essere uniforme in tutti i punti e qualora non siaprevisto, non si deve intravedere il fondo;

• l’Efficienza di trasferimento (ET), ovvero percentuale di vernice che raggiunge ilpezzo, rispetto alla quantità consumata. In particolare nelle tecniche a spruzzo, do-ve l’ET varia tra il 40% ed il 75%, una parte della vernice non raggiunge subito la

processi decisionali [Sch05] [KT79].La rilevanza di qualità sensoriali all’apparenza prive di oggettive unità di misura, induce anche molti

degli operatori incontrati (muniti di processi dal forte contenuto di tradizione ed esperienza) a considerarela verniciatura un’abilità ancor prima che una competenza, un’arte ancor prima che un tecnica. Affinché ledue visioni convivano in armonia è però implorante che le convinzioni soggettive ed non dimostrabili nonostacolino lo sviluppo di processi razionali, ingegnerizzati e standardizzati.

19Maggiori dettagli sul prodotto verniciante, sulle tipologie di difetti e sulle misurazioni sono riportati inAppendice (pag. 179).

1.4. Descrizione del caso: la verniciatura industriale

1. Presentazione del problema 19

superficie, ma si perde nell’ambiente causando il fenomeno noto come “nebbia diverniciatura” o overspray. Aumentare l’ET è un obiettivo prioritario, traducendo-si in un risparmio economico (nell’acquisto di materie prime, ma anche nei costidi recupero dell’overspray ed in quelli di raccolta e smaltimento) ed in una minoreemissione di inquinanti (le norme di alcuni paesi fissano un limite minimo al 65%).L’ET dipende però da molti fattori, tra cui le apparecchiature utilizzate ed i para-metri di esercizio (ad esempio pressione, movimentazioni, distanza dal pezzo, . . . ),dall’ambiente (temperatura, turbolenze d’aria, . . . ), dalla geometria del pezzo e dacaratteristiche della vernice quali la viscosità ed il residuo secco (vernice rimanentedopo l’evaporazione delle componenti volatili);

• la produttività oraria: occorre poter stimare quanti prodotti si possono realizzareo quanta superficie si può ricoprire con il desiderato livello di finitura nell’unitàdi tempo. Ciò dipende dalle operazioni di movimentazione, di setup, dal numero,dalla durata e dal tipo di applicazione della vernice nonché dal tempo occorrenteper l’asciugatura.

Nelle tecniche di verniciatura con sistemi pneumatici (air coating) l’applicazione dellavernice avviene per mezzo di una pistola o aerografo dove l’impatto violento del prodot-to verniciante con l’aria ne provoca la rottura in numerose goccioline, poi convogliate dalflusso sul pezzo secondo la geometria dell’ugello (tipicamente in un getto di forma co-nica o a ventaglio). Questa modalità non garantisce un’Efficienza di trasferimento moltoelevata, ma la versatilità di impiego e la qualità di finitura ottenibile la rendono di fattola tecnica più utilizzata per la verniciatura industriale. Alcune delle prestazioni possonoessere influenzate dalla qualità dell’aria di atomizzazione ed il macchinario studiato siposiziona proprio lungo il tragitto che collega i compressori agli aerografi, svolgendo untrattamento combinato sul flusso che lo attraversa.

Lo schema in Figura 1.6 mostra, organizzate per categorie, le tipiche caratteristichedi qualità a cui si presta attenzione nei processi di verniciatura e che si ritiene possanoessere influenzate dall’azione del macchinario. Si tratta chiaramente un problema mul-tiobiettivo, sia per la pluralità di caratteristiche di interesse, sia per i tradeo off che è lecitoattendersi tra di esse. E’ ad esempio fatto noto che una distanza eccessiva della pistoladalla superficie causa problemi di distensione ed “aggrappaggio”, oltre ad una perditadi prodotto sotto forma di overspray. Se la distanza è invece insufficiente si incorre nelrischio di colature, riducendo solo di poco l’overspray, causato questa volta da un “effettorimbalzo”. Quando le goccioline di vernice nella “nebbia” si depositano sui pezzi verni-ciati tendono a formare una patina ruvida (attenuando la brillantezza), mentre quelle va-ganti imbrattano l’apparecchiatura e l’ambiente di lavoro. La volontà sarà dunque quelladi aumentare l’ET (che per la legge di conservazione della massa comporta una riduzionedell’overspray) ed al tempo stesso migliorare i risultati in termini di caratteristiche fisicheed estetiche, garantendo il raggiungimento delle prestazioni desiderate.

1.4. Descrizione del caso: la verniciatura industriale

1. Presentazione del problema 20

Figura 1.6: Gli obiettivi di un processo di verniciatura nutrono tra loro forti interdipendenze, ma percomodità vengono qui suddivisi e raggruppati a seconda mirino ad aumentarne l’efficienza(“come” si svolge l’attività) o l’efficacia (le proprietà della copertura sul prodotto finito).

1.4. Descrizione del caso: la verniciatura industriale

2Il Modello del Sistema

Since the measuring device has been constructed by the observer... we have toremember that what we observe is not nature in itself but nature exposed to ourmethod of questioning.

Pierre Simon de Laplace

2.1 Costruzione di modelli empirici

Questo capitolo ha per oggetto il MODELLO DEL SISTEMA ovvero un vettore di funzioniRk → Rp che descrive le relazioni tra i fattori influenti e ciascuna caratteristica di interes-se. Nel caso non si disponga di una sua forma nota il primo passo di un’ottimizzazionemultiobiettivo è quello di ricavarne una empiricamente, ovvero tentando di spiegare ilcomportamento non noto di un fenomeno utilizzando una funzione matematica che ap-prossima la realtà osservata in una serie di dati raccolti. Questo approccio, che prevedeil ricorso ad esperimenti appositamente progettati, ha incontrato notevole successo conlo sviluppo delle nozioni statistiche e matematiche e presenta i maggiori benefici quan-do non vi sono modelli teorici o quando le specifiche condizioni ambientali o operativeproducono osservazioni che si discostano significativamente dalle previsioni teoriche.

In questa sede verrà trattato solo il caso del MDS non noto con particolare riferimentoad incertezze di natura statistica. Nel condurre gli esperimenti un contributo notevole èdato dal Design of Experiments (DOE), la disciplina che tratta la formulazione di pianifattoriali per studiare i fenomeni raccogliendo ed analizzando i dati in modo efficace edefficiente1. Non essendo possibile o economicamente conveniente misurare le qualità deiprodotti in corrispondenza di ciascuna combinazione dei livelli dei fattori, si preferiscericorrere a tali piani per ricavare un modello matematico che catturi la relazione esistentetra le risposte ed i fattori all’interno di un dominio di interesse.

Lo schema in Figura 2.1 assimila il processo indagato ad una black box dove modifi-cando delle variabili in ingresso (fattori qui suddivisi in controllabili o non controllabilidal ricercatore) si producono effetti misurabili sulle quantità in uscita.

1Maggiori dettagli circa i vantaggi di questo metodo sul tradizionale “one factor at the time” si trovano neiriferimenti bibliografici ed in particolare in [Mon06] sono approfonditi concetti fondamentali quali la replicadelle osservazioni, la casualizzazione ed il blocking. I modelli teorici, se disponibili, contribuiscono comunqueanche in questo contesto di formare una base di conoscenza utile in fase di progettazione degli esperimenti.

21

2. Il Modello del Sistema 22

Figura 2.1: Un generico processo visto come una black box (adattato da [DC07]).

La relazione, o il modello che lega input ed output si suppone abbia un’espressionedel tipo

Yi = fi(X1, X2, ..., Xk) + ε i (2.1)

dove Yi è la risposta i-esima, mentre nella somma a destra il primo termine viene consi-derato il suo valore “vero” o deterministico, non direttamente osservabile data l’ipotesiche la sua rilevazione avvenga sempre assieme al secondo addendo ε i definito rumoreo errore. La funzione fi è supposta incognita ed uno degli scopi del DOE è quello dicaratterizzarla pervenendo ad una stima in seguito indicata con il simbolo fi.

Il ruolo dell’errore sperimentale è assolutamente centrale poiché su ε i si fonda il cri-terio per stabilire la significatività dei termini racchiusi in fi ed al contempo è propor-zionale al grado di incertezza dell’approssimazione di cui si dispone. Tale incertezza sipuò ricondurre a due tipologie [H+01]: in primo luogo fi è diversa da fi in quanto dipen-de dai dati raccolti e ripetere il piano sperimentale conduce verosimilmente ad una suastima differente. Inoltre il processo che fornisce la risposta Yi può essere definito “rumo-roso” (ovvero caratterizzato da una propria variabilità naturale) e valutazioni ripetutedi fi(x1, x2, . . . , xk) + ε i forniscono risultati non identici2 (il modello in questione non èuna mappatura deterministica da χ a γ). Entrambi questi aspetti si possono incorporarenell’analisi per mezzo di opportuni strumenti statistici.

2.2 Notazione utilizzata e tecniche di stima

Con la seguente esposizione di alcuni risultati si illustra l’approccio metodologico diriferimento, nonché le principali assunzioni e le proprietà a supporto della discussione.

2Un simile argomento si ritrova nella distinzione tra bias e varianza [DC07]. Con il primo termine siindica la differenza sistematica tra il modello “vero” e quello approssimato, mentre con il secondo l’errorecampionario (o sperimentale).

2.2. Notazione utilizzata e tecniche di stima

2. Il Modello del Sistema 23

Si assume che alla qualità di un prodotto concorrano p risposte Yi (con i = 1, 2, . . . , p)che dipendono da una serie di fattori X = (X1, X2, . . . , Xk). Mantenendo l’ipotesi di addi-tività del termine d’errore è possibile riformulare l’Equazione 2.1 esplicitando la presenzadi un vettore βi di dimensione (k× 1) che contiene i parametri caratteristici di fi

Yi = fi(X, βi) + ε i (2.2)

L’esatta formulazione di fi è sconosciuta così come lo è il vettore βi. Si suppone che glierrori sperimentali ε i abbiano media nulla e varianza σ2

ε iverificando così le uguaglianze

E[Yi|x] = fi(x, βi) e V(Yi|x) = σ2εi

e che per ogni coppia di risposte Yi ed Yj i rispettivierrori condizionati ε i ed ε j siano indipendenti tra loro. Con tecniche di DOE, una seriedi prove sperimentali nella regione χ può essere programmata e condotta raccogliendodati su cui eseguire il fit dei modelli ipotizzati. Per ciascuna caratteristica di interesse ilmodello stimato si presenterà come

Yi = fi(X, βi)

Attraverso questa equazione si possono calcolare stime delle risposte in ogni punto xnella regione sperimentale. Si suppone che Yi = E(Yi|X) sia uno stimatore non distortodi E(Yi|X) e che sia disponibile una formula per quantificare l’incertezza ad esso legatacosì come a quella dei valori previsti, rispettivamente V(E(Yi|X)) e V(Yi|X). Anche questistimatori delle varianze si ipotizzano non distorti.

All’interno di tale framework, la classe di modelli probabilmente più nota ed utilizzataè la Regressione lineare multipla. Nella fattispecie ci si attende che la relazione tra larisposta i-esima ed i fattori segua un’equazione di tipo

Yi = Z′iβi + ε i (2.3)

dove Zi è un vettore (qi × 1) di trasformazioni lineari, polinomiali o non lineari, dei fat-tori (qi sarà di conseguenza il numero complessivo di parametri). Si è usato Z al posto diX nell’Equazione 2.3 per indicare come questo vettore, che definisce la forma funzionaledel modello, possa essere differente da quello che si limita ad elencare i fattori, a cui ven-gono infatti comunemente aggiunti un termine costante, funzioni di uno o più fattori oviceversa si escludono i termini non significativi. In seguito, per non appesantire la no-tazione, si userà X salvo specificare diversamente nei casi in cui il cotesto crei ambiguitàsul tipo di vettore o matrice a cui ci si riferisce.

Sulla base di ni prove indipendenti, ogni modello viene stimato a partire dai dati rac-colti minimizzando la somma dei quadrati delle distanze tra le osservazioni e la “retta”di regressione ovvero con il Metodo dei Minimi Quadrati (Ordinary Least Squares, OLS).Si ricavano così stime non distorte degli elementi del vettore di parametri dalla notaespressione

βi = (X′X)−1X′Yi (2.4)

dove X è la matrice (ni × qi) dell’esperimento (per la risposta i-esima) ed Yi il corrispon-

2.2. Notazione utilizzata e tecniche di stima

2. Il Modello del Sistema 24

dente vettore (ni × 1) delle misurazioni effettuate per ciascuna caratteristica osserva-ta. La formula per prevedere nuovi valori della risposta in corrispondenza di una datacombinazione di livelli x è perciò

Yi = x′ βi = x′(X′X)−1X′Yi = E(Yi|x) i = 1, 2, ..., p

Impiegando il modello a fini previsivi per stimare l’output del sistema nelle nuove condi-zioni x, l’incertezza associata al valore atteso E[Yi|x] e al valore previsto Yi|x si quantifi-cano rispettivamente con le formule

V[E [Yi|x]

]= σ2

εix′(X′X)−1x (2.5)

eV[Yi|x] = σ2

ε i(1+ x′(X′X)−1x) (2.6)

e dove

σ2εi=

1(ni − qi)

ni

∑j=1

(yij − yij)2 =

ε′i εi

(ni − qi)(2.7)

è lo stimatore non distorto della componente non deterministica, ovvero dell’errore resi-duo. Da esso dipende anche la matrice di varianza-covarianza dei parametri del modello,data da

V[β|X] = σ2ε i(X′X)−1 (2.8)

dalla cui diagonale si ricava il cosiddetto “errore standard” di ciascun coefficiente come

se(βj) =√

σ2ε i(X′X)−1

jj .

Il metodo OLS offre semplicità di calcolo e proprietà delle stime certamente desidera-bili a condizione che siano soddisfatte alcune ipotesi [Gre03] ed in particolare:

1. se (X′X) è invertibile è garantita l’esistenza dei parametri βi ;

2. se E(ε i|X) = 0, in modo equivalente se E(Yi|X) = Xβ, β ricavato è uno stimatorecorretto dei parametri incogniti (ovvero E(βi) = βi) ;

3. se E(ε′iε i|X) = σ2i In, dove In è la matrice identità (n × n), (ipotesi di omoscheda-

sticità e assenza di correlazione tra i residui) allora lo stimatore OLS è BLUE (BestLinear Unbiased Estimator) e ha varianza minima;

4. se ε i|X ∼ N(0, σ2i In), o in modo equivalente se y|X ∼ N(Xβ, σ2 I), le stime OLS

sono consistenti, cioè asintoticamente normali e corrette, efficienti e normali anchein campioni finiti.

L’ultima ipotesi, che contraddistingue i metodi parametrici da quelli non-parametrici, co-stituisce un’assunzione modellistica e, qualora soddisfatta, garantisce che l’uso degli OLSè una scelta efficiente anche rispetto all’impiego di altre classi di stimatori non lineari.

2.2. Notazione utilizzata e tecniche di stima

2. Il Modello del Sistema 25

2.3 Il Metodo della Superficie di Risposta

Gli elementi statistici appena riportati si ritrovano nel Metodo della Superficie di Rispo-sta (Responce Surface Methodology, RSM) che è schematizzato in Figura 2.2 e consiste in unapproccio sequenziale e pianificato con l’obiettivo di migliorare un prodotto o un pro-cesso. Esso incorpora tecniche di DOE per raccogliere i dati efficientemente ed ottenerestime con varianza minima, di Regressione per stimare i modelli approssimati e di Ri-cerca Operativa per avvicinarsi alle condizioni operative ottimali. Nella maggioranzadei casi le funzioni utilizzate per descrivere ciascuna risposta Yi sono, per semplicità, deipolinomi benché la cosa non costituisca di per sé un vincolo. L’espansione in serie diTaylor supporta comunque l’idea di poter approssimare con espressioni lineari e con laprecisione desiderata generiche funzioni, purché godano di opportuni requisiti di conti-nuità e derivabilità. Si può ipotizzare che esista un intorno sufficientemente piccolo incui qualunque funzione soggetta ad indagine sperimentale verifica tali requisiti, ma ciònondimeno esiste un trade off tra:

• il desidero di mantenere limitato lo spazio dell’esperimento affinché l’approssima-zione polinomiale sia adeguata ;

• quello di ampliare il range dei fattori per migliorare le stime degli effetti e deicoefficienti della retta di regressione [Mon06].

Condurre una serie di piccoli esperimenti è considerata una strategia preferibile rispettoa quella di prevedere un esperimento unico e onnicomprensivo che difficilmente sarà ingrado di rispondere alle domande che ci si pone.

Nel RSM si succedono una prima fase di esplorazione con esperimenti mirati a localiz-zare la direzione del miglioramento modificando via via le condizioni operative correntilungo quell’asse ed una seconda, giunti in prossimità dell’ottimo, in cui il modello cheapprossima la superficie viene raffinato e si esegue su di esso un’ottimizzazione matema-tica. Partendo infatti dalle condizioni operative correnti, in generale lontane dall’ottimo,si suppone che il sistema presenti poca curvatura e dunque un modello del primo ordi-ne risulta appropriato; nella prima fase (anche detta di screening) nei modelli appaionosolitamente i soli effetti principali:

Yi = β0,i + X′βi + ε i

dove il termine β0,i rappresenta l’intercetta e βi il vettore dei parametri del modello. Perspostarsi verso l’ottimo si utilizza una procedura basata sul gradiente determinando cosìla direzione in cui la risposta Yi aumenta (o diminuisce qualora l’ottimo sia un punto diminimo) più rapidamente. La traiettoria è quella di salita (discesa) rapida per cui, avan-zando via via di un passo opportunamente stabilito, vengono condotti esperimenti conpiani fattoriali centrati lungo questa direzione sino a che non si osserva più crescita (de-crescita). Si impiegano comunemente singole repliche di piani fattoriali 2k, corredati daalmeno 3 repliche del punto centrale per consentire la stima dell’errore sperimentale e laverifica di adeguatezza del modello del primo ordine [Mon06]. In questi piani ortogonali

2.3. Il Metodo della Superficie di Risposta

2. Il Modello del Sistema 26

Figura 2.2: Activity Diagram UML di un processo di ottimizzazione ove si adotta il RSM. Sono evidenziatigli strumenti più comunemente impiegati, le possibili fonti di incertezza e la collocazione diattività e sottoattività.

2.3. Il Metodo della Superficie di Risposta

2. Il Modello del Sistema 27

il punto centrale indica la condizione operativa corrente e le distanze ±Δ lungo ogni fat-tore delimitano la regione di interesse ed il dominio di pertinenza del modello. Occorreprendere tre decisioni fondamentali nella fase di esplorazione:

1. scegliere la direzione da seguire;

2. determinare la lunghezza del passo con cui allontanarsi dal punto corrente;

3. stabilire una stopping rule ovvero un criterio in base a cui decidere se procedere conl’iterazione successiva oppure arrestarsi.

Compito dello sperimentatore è trovare opportune risposte a tali quesiti supportatodai riferimenti offerti nella copiosa letteratura che copre ciascuno di questi argomenti[DC07]. Ad esempio, il già menzionato metodo della salita ripida e la Ridge Analysis pos-sono risolvere i primi due problemi, mentre s potrebbe optare per un approccio intuitivoo uno più formale come criterio di terminazione3.

La fase di screening si interrompe qualora il modello del primo ordine riveli un lack offit ovvero non costituisca più un’approssimazione adeguata della superficie di risposta.Come mostra Figura 2.3 la curvatura che si incontra suggerisce che probabilmente losperimentatore è arrivato nella zona dell’ottimo4. E’ allora necessario avvalersi di unmodello che incorpori tale nonlinearità e spesso si propende per uno del secondo ordine.Inserendo i quadrati dei fattori e le interazioni doppie, la superficie di risposta per ognicaratteristica viene così descritta da

Yi = β0,i + X′βi + X′BiX+ ε i

dove βi (di dimensioni k× 1) contiene i coefficienti associati agli effetti principali, mentrela matrice Bi (simmetrica e di dimensioni k× k) contiene quelli dei quadrati “puri” e delleinterazioni doppie. A meno di particolari necessità, lo strumento più comune per racco-gliere i dati in questa fase è il Central Composite Design (CCD) [MCJ89], una classe di pianiortogonali e ruotabili che ha incontrato particolare successo nelle indagini empiriche.

La presenza del vettore di fattori X in tutti i modelli Yi non significa che le rispostedevono necessariamente condividere la medesima forma funzionale o presentare tuttii fattori significativi (o loro trasformazioni): la costruzione dei modelli può, in primaistanza, supporsi indipendente per ogni risposta e per ciascuna di esse si dovrà deter-minare quale sottoinsieme di fattori è significativo (se uno di essi non lo è, l’elementocorrispondente nei vettori di parametri assumerà semplicemente valore 0).

3Alla decisione soggettiva circa l’aver raggiunto un “risultato soddisfacente” si può sostituire ad esempioun criterio economico [Olg06], che suggerisce di verificare se il costo dei nuovi esperimenti (necessari adaccrescere la precisione delle stime) è controbilanciato dal vantaggio economico derivante da tale progresso.

4Come tutti i metodi euristici l’RSM non offre reali garanzie che, pur avendo raggiunto un massimo, que-sti non sia un ottimo locale. Perturbare le condizioni iniziali e scegliere casualmente la direzione da seguire(con probabilità di scelta proporzionale alle entità del miglioramento previsto) sono esempi di strategie attea ridurre questo rischio. Diverse tecniche di verifica sono suggerite e discusse in [DC07].

2.3. Il Metodo della Superficie di Risposta

2. Il Modello del Sistema 28

Figura 2.3: Successione degli esperimenti nel RSM. a) piano fattoriale 2k con repliche centrali usato in fasedi screening e b) CCD utile a modellare una superficie quadratica.

2.4 RSM in situazioni multiobiettivo

In situazioni multiobiettivo l’applicazione del RSM potrebbe richiedere da un lato la ri-soluzione di alcuni problemi che si incontrano solo in presenza di più caratteristiche diinteresse da ottimizzare e non nel caso in cui ve ne sia una sola e dall’altro la necessitàdi prestare maggiore attenzione ad aspetti comuni alle applicazioni mono-obiettivo. Inparticolare in questo secondo caso una qualità sempre auspicabile come l’accuratezza deimodelli, intesa come capacità di fornire una buona approssimazione delle superfici esa-minate, acquista nei problemi multiobiettivo ulteriore rilevanza. Ci si può convincere diciò considerando come il proliferare dei modelli coinvolti nell’ottimizzazione e delle fontidi incertezza ad essi associate (se supposte indipendenti tra loro), produce coeteris paribusuna maggiore estensione dell’intervallo nello spazio χ ove il ricercatore può affermaretrovarsi l’ottimo con un dato livello di confidenza. Al contempo stime congiunte di unmaggior numero di parametri incogniti potrebbero richiedere la raccolta di più dati perpoter essere effettuate con la precisione desiderata.

Ad esempio è noto che per la probabilità che si verifichino p eventi simultaneamente,sussiste la seguente relazione (dalla disuguaglianza di Bonferroni)

1− Pr(Y1 ∪ Y2 ∪ ...∪ Yp) ≥ 1−p

∑i=1

Pr(Yi)

Se si rende necessario costruire intervalli di confidenza sulle coordinate del punto diottimo derivante dai p modelli stimati si incorre dunque nel rischio di vedere aumentarel’errore di I tipo con il numero dei test effettuati5.

Anche l’ampiezza dei Rapporti di Copertura (o Coverage Rates) [Olg06], cioè la per-

5In particolare varrà la relazione αfam ≤ ∑pi=1 αi. Un approccio comunemente adottato qualora non si

conosca la distribuzione congiunta delle variabili o non si facciano su di essa ipotesi specifiche, è quellodi ridurre l’α del singolo test, cosicchè scegliendo αi = α/p è possibile controllare l’errore di I tipo del testcomplessivo e di conseguenza l’ampiezza degli intervalli di confidenza.

2.4. RSM in situazioni multiobiettivo

2. Il Modello del Sistema 29

centuale della regione di interesse χ in cui supporre trovarsi l’ottimo con un livello diconfidenza (1− α) o quella dell’Equivalence Zone , ovvero l’insieme di punti che offronorisultati tra loro non statisticamente distinti, dipende sia dall’approccio impiegato perrisalire alla forma del MDO e per calcolare le stime che dalla qualità del MDS6. La sele-zione di un modello caratterizzato da un ridotto errore sperimentale σε i , si traduce infattiin una contrazione dell’ampiezza dell’intervallo di confidenza sull’ottimo. Qualora lestime avvengano con il metodo OLS è quindi indispensabile che le ipotesi alla base dellasua applicabilità, in particolare i test sui residui della regressione, siano verificate. Allostesso modo l’adeguatezza e la capacità previsiva dei modelli dovrebbe essere accertataavvalendosi di criteri condivisi e significativi. Uno di essi è ad esempio la statistica R2

adj

che, partendo dal coefficiente R2 definito come

R2 =SSregression

SStotal=

Y′Xβ− nY2

Y′Y− Y′Xβ(2.9)

e che come noto tende ad 1 incondizionatamente al crescere del numero di parametri inassenza di repliche, può essere calcolato mediante la formula

R2adj = 1− (1−R2)

(n− 1n− p

)

Così come per R2 anche il valore di R2adj è compreso7 nell’intervallo [0; 1] e cresce all’au-

mentare della qualità del modello approssimante, ma tenendo conto dei gradi di libertàpersi nell’effettuare le stime dei parametri. Si riduce così il rischio di generare overfittinginseguendo la componente di “disturbo” nelle osservazioni [AA09c]. Un’altra utile sta-tistica da considerare nella scelta tra forme funzionali alternative è il Predicted REsidualsSum of Squares (PRESS) dato da

PRESS =n

∑i=1

(yi − yi)2 =

n

∑i=1

e2i

dove yi è la previsione fornita dal modello stimato con tutti i dati ad eccezione dell’i-esima osservazione (nelle condizioni xi): questo metodo si fonda sull’idea che un buonmodello non dovrebbe dipendere eccessimamente da poche singole osservazioni. Ol-tre ai tre appena ricordati sono stati proposti molti altri indicatori di bontà del fit (adesempio R2

prev, CP, AIC, . . . [Gre03, Mon06]), ma occorre ricordare che spesso queste stati-stiche sono tra loro fortemente correlate ed un uso massiccio non produce reali vantaggiinformativi. Inoltre, come funzione dei dati raccolti, è incauto considerarle quantità de-terministiche ed il loro valore non riduce in alcun modo l’importanza di un’attenta fasedi validazione.

In ambito multiobiettivo dove si dispone di un modello per ogni caratteristica si può

6[v. Glossario: Equivalence Zone]7E’ altresì fondamentale che a) il termine costante (intercetta) sia incluso tra i regressori e b) il polinomio

sia stimato con il metodo OLS poiché in caso contrario questi indicatori perdono di significato. In raresituazioni R2

adj può anche assumere valori negativi.

2.4. RSM in situazioni multiobiettivo

2. Il Modello del Sistema 30

voler stabilire quali siano le approssimazioni “migliori” e quali le “peggiori”, ma statisti-che come l’R2

adj possono risultare fuorviati. Se infatti si paragonano tra loro valori di R2 ildenominatore dei rapporti nell’Equazione 2.9 deve essere il medesimo. Applicare ai datiuna trasformazione logaritmica produrrà ad esempio quasi sempre l’impressione di unmiglior fit, connotato da un R2 superiore poiché i logaritmi hanno l’effetto di ridurre levarianze, senza per questo riflettere di per sé un vantaggio a fini informativi o previsivi.La pratica di confrontare in base all’R2 l’efficacia dei modelli, è piuttosto comune [Ste04c][dTG05] [XLTX04] quando si vuole conoscere quali siano le approssimazioni dotate di unnotevole errore sperimentale destinato a propagarsi in incertezza sulla posizione dell’ot-timo. I modelli qui posti a confronto però non solo hanno differenti Yi, ma costituisconorappresentazioni matematiche di fenomeni fisici sostanzialmente diversi ed il giusto in-tento di stimolare un’analisi più accorta ed un miglioramento delle rappresentazioni più“deboli” non dovrebbe fondarsi su un simile criterio. Lo stesso errore sperimentale (σε i )non fornisce informazioni sulla priorità in base a cui concentrare nuovi sforzi, poiché es-sa dipende in ultima analisi dagli obiettivi e dalle tolleranze associate a ciascuna rispostae dunque dal rapporto tra l’incertezza del modello ed il suo ruolo nel MDO.

Una possibilità offerta dal RSM consiste infine nel trasformare l’ottimizzazione dimolte caratteristiche, in una mono-obiettivo già nella fase di esplorazione empirica ag-gregando le proprietà nel momento stesso in cui i dati vengono raccolti così da seguiredirettamente il gradiente della Funzione obiettivo [Cah02]. Pur non avendo ritrovatoesperienze in cui è applicato e discusso approfonditamente questo approccio, si può ipo-tizzare che esso consegua il miglior bilancio tra vantaggi e svantaggi in corrispondenzadi problemi semplici, con poche caratteristiche coinvolte e ove vi sia uno stabile consensosulla forma della funzione di aggregazione8.

Figura 2.4: Problematiche che possono insorgere applicando il RSM in scenari multiobiettivo (nel casoproposto Y1 ed Y2 sono da massimizzare in funzione di X).

Scegliendo invece di mantenere misure separate delle qualità nel corso delle sessionisperimentali, il calcolo del gradiente pone innanzi al problema di determinare la direzio-ne ed il passo degli spostamenti e, come mostra Figura 2.4 a) dove il gradiente diverge,

8Questa procedura è schematizzata e discussa in Figura B.4 (Appendice pag. 177).

2.4. RSM in situazioni multiobiettivo

2. Il Modello del Sistema 31

la soluzione potrebbe non essere univoca. Una strategia consiste nel pesare in base apriorità i sentieri di crescita di ciascuna risposta [AA.09d] attraverso i seguenti passaggi:

1. calcolare i gradienti gi=1,2,...,p come nel caso mono-obiettivo. Se una risposta (oil suo previsto miglioramento) è evidentemente di interesse prioritario sulle altreutilizzare solamente quel dato, in alternativa proseguire al passo (2);

2. determinare le priorità (o l’importanza) πi per ciascuna delle p risposte ricavandocosì un gradiente pesato

g =π1g1 + π2g2 + ...+ πpgp

∑pi=1 πi

con direzioned =

g‖g‖

Un altro approccio si avvale di coni di confidenza sulla direzione di massimo miglio-ramento, definiti come i volumi in cui si trovano i “veri” gradienti con livello di confiden-za (1− α) [DC96]. Si può così attenuare il peso di modelli poco precisi, contraddistinti daconi molto vasti e che forniscono di conseguenza direzioni inaffidabili, la cui estensionerisulta proporzionale a (1−R2), pesando la i-esima risposta con9 [AA.09d]

πi =R2

i

∑pj=1 R2

j

i = 1, 2, ..., p

Anziché spostarsi sulla superficie indagata raccogliendo simultaneamente i valori diogni caratteristiche di interesse, si potrebbe ritenere più conveniente condurre il RSMseparatamente su ogni risposta. Così facendo si avrebbe da un lato una migliore com-prensione delle relazioni che sussistono tra i fattori e ciascuna caratteristica di qualità edall’altro riferimenti più precisi sulla localizzazione degli ottimi non vincolati, quelli cioèconseguibili in assenza di compromessi. Come mostra Figura 2.4 b) però le regioni in cuiun polinomio di secondo grado è adatto a rappresentare l’intorno dell’ottimo per le tuttele funzioni potrebbero essere disgiunte. Onde evitare l’utilizzo dei modelli al di fuori delcapo di sperimentazione, occorrerebbe estendere l’ampiezza dei piani fattoriali, ma cosìfacendo si incorre nel rischio di dover aumentare anche l’ordine minimo dei polinomi.Ne conseguono costi di sperimentazione lievitati per via del maggior numero di esperi-menti che occorrono per assicurare la buona qualità delle stime. L’impiego di funzioni“definite a tratti” risolve in parte questi problemi, pur necessitando di maggiore atten-zione nella successiva fase di ottimizzazione matematica. Un vantaggio degli approccibasati sul MDO e discussi nel prossimo capitolo consiste nel fatto che essi sono efficacianche se non si dispone di forme quadratiche significative per ogni risposta nel caso incui, contraendo lo spazio di sperimentazione, si individuino superfici meglio descritte damodelli lineari ed altre da relazioni di grado maggiore.

9Questo è un esempio di come sia diffuso il confronto diretto degli R2i tra i modelli anche se si riferiscono

a differenti fenomeni fisici.

2.4. RSM in situazioni multiobiettivo

2. Il Modello del Sistema 32

Un impiego del RSM che merita particolare attenzione è quello riguardante i problemidi Robust Design dove all’ottimizzazione di una qualità si aggiunge la necessità di ridurreil più possibile la varianza intorno al valore target. Come suggerito da numerosi riscon-tri reali l’ipotesi di varianza omogenea delle osservazioni non sempre è valida e qualoranon si verifichi, il metodo classico può risultare fuorviante. In questi casi si preferiscericorrere al Dual Response Suraface Approach [VM90], un metodo che ha ricevuto consi-derevole attenzione e consenso [DCM93]. L’approccio consiste fondamentalmente nellostimare due modelli, uno per il momento primo condizionale ed uno per quello secondoovvero, utilizzando semantica DOE, per il Location Effect (Yμ) e per il Dispersion Effect (Yσ).Successivamente uno di essi viene ottimizzato sotto il vincolo imposto sulla risposta datadall’altro. Nella fattispecie una delle prime formulazioni, risolta per via analitica con ilmetodo dei moltiplicatori di Lagrange, è stata:

minx∈χ Yσ

s.v. Yμ = T(2.10)

dove i modelli di II grado si presentano solitamente come

Yσ = γ0 +k

∑i=1

γixi +k

∑i=1

γiix2i +∑

k

∑i<j

γijxixj+ εσ

Yμ = β0 +k

∑i=1

βixi +k

∑i=1

βiix2i +∑

k

∑i<j

βijxixj+ εμ

Il problema della soluzione di Eq. 2.10 è che si basa sull’ipotesi irrealistica di co-stringere la media stimata ad uguagliare un valore deterministico e pertanto venne in-trodotta come nuova Funzione obiettivo il Mean Squared Error [LT95], espresso comeMSE = (Yμ − T)2 + Y2

σ . Questo consiste essenzialmente in un approccio MinMax10 basa-to sulla distanza delle risposte dal proprio ottimo ideale. Tuttavia anche questa funzioneha l’inconveniente di non porre restrizioni su quanto è concesso a Yμ di allontanarsi dalvalore target [CN96] e pertanto è seguita una controproposta che si avvale di elementidi logica fuzzy e che nutre forti analogie con il metodo delle desiderabilità [KL98] . Ri-mandando ulteriori approfondimenti all’analisi del MDO, si vuole qui porre l’accento suipossibili accorgimenti nel corso dell’esplorazione empirica. Rispetto al caso generico diproblema multiobiettivo con due qualità, il particolare legame che sussiste tra media evarianza si differenzia in quanto:

• entrambe le quantità vengono rilevate nel medesimo esperimento, che occorreràreplicare per misurare la varianza;

• venendo meno l’ipotesi di omoschedasticità le stime OLS non sono più adatte percalcolare i coefficienti del modello di regressione di Yμ.

Il primo punto può far insorgere i problemi discussi circa li scelta del gradiente daseguire, ma sembra questa una situazione in cui, sulla base a considerazioni teoriche, si

10v. Glossario: MinMax.

2.4. RSM in situazioni multiobiettivo

2. Il Modello del Sistema 33

può individuare una risposta prioritaria tra le due. Secondo le osservazioni di Taguchi gliobiettivi del ricercatore sono infatti in primis quello di ridurre la varianza e solo in seguitodi ottimizzare il valor medio della risposta (cfr. Paragrafo 1.3). Alcune osservazioni inmerito al secondo punto vengono invece esposte nel paragrafo successivo trattando didelle tecniche di stima alternative.

2.4.1 Stimatori diversi dagli OLS

La presenza di eteroschedasticità, tipica nei casi di Robust Design, viola le ipotesi di ap-plicabilità degli OLS (elencate a pag. 24) e gli stimatori per il modello del Location Effectperderebbero la proprietà di essere BLUE (cfr. pag. 24). Un metodo per riguadagnare ef-ficienza consiste nel sostituirli con quelli WLS (Weighted Least Squares, un caso particolaredi Generalized Least Squares) calcolati in modo iterativo facendo ricorso al modello dellavarianza. L’approccio si articola nei seguenti passaggi:

1. si effettua il fit del modello per Yμ a partire dai dati raccolti yμ,i con le stime OLS ;

2. sui residui eμ,i di tale modello si stima quello per la varianza Yσ = εμ,i =W′γ ;

3. la variabile di risposta yμ,i/εμ,i è utilizzata per una nuova stima OLS del Location Ef-fect ritornando al passo (1) sino a che i residui di questa regressione non soddisfanol’ipotesi di normalità.

Vi è il rischio di impiegare impropriamente questo metodo anche in situazioni cheevidenziano la presenza di outliers e può essere utile distinguere le stime WLS dalla co-siddetta Robust Regression che trova implementazione di alcuni software statistici [AA09c].L’idea in questo secondo caso consiste nell’assegnare un peso a ciascuna osservazione ri-ducendo gli effetti di quelle anomale per ottenere una funzione ad esse meno sensibile. Lascelta dei pesi è effettuata in modo automatico ed iterativo ripetendo il seguente processosino a convergenza:

1. si esegue il fit del modello OLS su tutti i dati a cui si assegna il medesimo peso;

2. ciascuna osservazione è pesata in modo proporzionale alla distanza dal valore pre-visto εμ,i ;

3. si ripete il passo (1) stimando un modello sui dati pesati e dove la risposta divienepertanto yμ,i/(yμ,i − yμ,i)

2 = yμ,i/εμ,i .

Questa procedura è utilizzabile anche quando le condizioni operative non sono replicateper fare sì che la stima dei coefficienti non sia influenzata da poche osservazioni anomale.E’ facile tuttavia osservare che ciò non porta né ad una migliore comprensione, né allapossibilità di prevedere la magnitudine dell’errore sperimentale, in quanto non è chia-mata in causa alcuna funzione per modellare la varianza della caratteristica di interesse.Si preferisce sempre in presenza di outliers verificare il processo di acquisizione dei dati,valutare l’eventualità di aver omesso fattori significativi o utilizzare dummy per escluderei dati sospetti per cui si dispone di una causa assegnabile.

Un’alternativa agli stimatori OLS è anche rappresentata da quelli di Massima Verosi-miglianza (MLE) che rendono più agevole la stima di modelli non lineari e che prevedono

2.4. RSM in situazioni multiobiettivo

2. Il Modello del Sistema 34

anch’essi, in presenza di eteroschedasticità, il ricorso ad un modello per la varianza dellecaratteristiche di interesse [Gre03].

L’analisi statistica di più modelli pone infine la questione del grado di correlazionetra le loro risposte. Per tenerne conto si raccomanda di utilizzare lo stimatore propostoda Zellner denominato Seemingly Unrelated Regressions (SUR) [DS80]. I maggiori vantaggidi queste stime rispetto a quelle tradizionali si hanno quando i termini di disturbo sonocorrelati tra le equazioni e quando i regressori selezionati per ciascuna caratteristica sonodiversi; in caso contrario le stime SUR e quelle OLS si equivalgono. Per implementarequesto approccio si parte dai modelli delle caratteristiche da ottimizzare

Yi = Ziβi + ε i per i = 1, ..., p

dove

Yi =

yi,1

yi,2...

yi,ni

(ni×1)

, Zi =

1 −1 −1 ∙ ∙ ∙1 +1 −1 ∙ ∙ ∙1 −1 +1 ∙ ∙ ∙∙ ∙ ∙

(ni×qi)

, βi =

β0,i

β1,i...

βqi ,i

(qi×1)

e li si rappresenta in un sistema riunito in forma matriciale

Y =

Y1

Y2...

Yp

=

Z1 0 . . . 00 Z2 0...

. . ....

0 0 . . . Zp

β1

β2...

βp

+

ε1

ε2...

εp

che può anche venire riscritto come Y = Zβ+ ε . La matrice Z è diagonale a blocchi e lestime dei coefficienti β si ricavano da

β = (Z′(Z⊗ Iq)−1Z)−1Z′(Σ⊗ Iq)

−1Y (2.11)

dove Σ è la matrice di varianza-covarianza tra le risposte, Ip la matrice identità di dimen-sioni (p× p) e con il simbolo ⊗ si indica il prodotto di Kronecker tra matrici. La matricedi covarianza dei parametri β nel metodo SUR è

Cov[

β]= (Z′(Σ⊗ Ip)

−1Z)−1 (2.12)

Per ricavare β nelle Equazioni 2.12 e 2.11 occorre la stima della matrice di varianza-covarianza Σ. Zellner propone di calcolarla in base ai residui dei fit OLS disgiunti perciascuna risposta in modo che ogni elemento Σij corrisponda a

Σij =ε′i ε j

pi, j = 1, 2, ..., p

2.4. RSM in situazioni multiobiettivo

2. Il Modello del Sistema 35

Yi correlate Yi non correlate

varianza Yi omogenea SUR / MVR OLSvarianza Yi non omogenea - GLS (WLS)

Tabella 2.1: Alcuni metodi disponibili per la stima del MDS classificati a seconda delle caratteristichedelle risposte.

dove ε i ed ε i sono i vettori dei residui dei modelli stimati rispettivamente per l’i-esima e

la j-esima risposta. La varianza della previsione di ΣY(X) è valutata a partire da cov[

β]

che si presenta a sua volta suddivisa in blocchi ciascuno dei quali formato da cov[

βi, βj

],

ovvero dalla matrice di covarianza (Ki×Kj) tra βi e βj. Infine la matrice Σy(x) =[Σyij(x)]

di dimensione (p× p), è composta dagli elementi

Σyij(x) = x′i Cov

[βi, βj

]xj i, j = 1, 2, ..., p

Il vettore (Ki × 1) dei regressori per la i-esima risposta qui compare come xi ed è unsottoinsieme di x [KKJ05] [Gre03]. Con gli stimatori del metodo SUR benché ognunadelle p equazioni possa sembrare indipendente e contenga specifici vettori di coefficienti,variabili dipendenti ed indipendenti, i modelli sono legati tra loro dalla struttura deglierrori sperimentali e dal loro valore atteso nullo, ovvero

E(εε′) =

Σ11 IT Σ12 IT ∙ ∙ ∙ Σ1M IT

Σ21 IT Σ22 IT ∙ ∙ ∙ Σ2M IT...

. . ....

ΣM1 IT ΣM2 IT . . . ΣMM IT

MT×MT

= 0

Il metodo SUR, sebbene comporti uno svolgimento più articolato, offre un’efficienzadegli stimatori maggiore se i residui sono correlati o al peggio pari a quella degli OLS.Un ulteriore vantaggio di questo approccio consiste nella possibilità di calcolare statisti-che di bontà del fit sull’intero sistema riunito in forma matriciale per saggiare la qualitàcomplessiva del MDS usato nel corso dell’ottimizzazione.

2.4. RSM in situazioni multiobiettivo

3Il Modello degli Obiettivi

In short, not only there is no way to compare apples with oranges, there is noteven an all-purpose way to grade apples. Still, there are special-purpose ways ofgrading apples – weight, sugar content, skin thickness, number of worms, andso on.

John Allen Paulos

3.1 Gli approcci all’ottimizzazione multiobiettivo

In questo capitolo si esamina il MODELLO DEGLI OBIETTIVI, ovvero il criterio che legai livelli delle caratteristiche di interesse agli obiettivi che guidano l’ottimizzazione ed incui viene tradotta la strategia di miglioramento del design del prodotto. Si ipotizzeràche tale costruzione possa essere espressa da una funzione Rp → R, intendendo questacome una qualsiasi relazione che trasformi un vettore di livelli di qualità in una grandez-za scalare. Un simile approccio non comporta grosse perdite di generalità, rivelandosial contrario sufficientemente flessibile da poter fornire rappresentazioni anche a stradeapparentemente differenti (come ad esempio l’AHP o il PROMETEE1).

La prima domanda che sorge spontanea è se non convenga avvalersi, anche in que-sta fase, dei medesimi strumenti adottati per il MODELLO DEL SISTEMA; pur essendoviproposte che si muovono in questa direzione2 la logica più frequentemente adottata e piùcoerente con la natura endogena di obiettivi e preferenze, è di assumere che una eventua-le Funzione di utilità debba essere costruita riflettendo nella propria struttura gli obiettividel decisore piuttosto che risultare il buon adattamento a dati auto-prodotti e difficilmen-te verificabili [MA04]. Questa logica deriva sia dalla natura stessa dei metodi prescrittivi,che dovrebbero servire ad affinare le domande piuttosto che ad inseguire un set di dati,che dalla distinzione tra i concetti di “incertezza” (uncertainty) ed “imprecisione” (impre-cision) [AO95]. Con il primo termine si indicano tipicamente variazioni non controllabilidi natura stocastica (tipiche del MDS ), mentre con il secondo l’incertezza che nutre chiè chiamato a scegliere tra opzioni alternative (tipica del MDO ).

1[v. Glossario: PROMETEE] .2[v. Glossario: Conjoint Analysis]

36

3. Il Modello degli Obiettivi 37

Non sorprende pertanto che le ricerche siano solitamente guidate dall’interesse ad im-plementare approcci prescrittivi che aiutino a migliorare il processo di definizione degliobiettivi, aumentandone l’affidabilità e legittimando il passaggio ad un MDO , piutto-sto che mirare a gestire incertezze di natura stocastica. L’imprecisione è riconducibile ailimiti di conoscenza e di capacità di rappresentazione del problema, qui inteso come ilcomplesso degli obiettivi, della realtà e del rapporto che sussiste tra i due. Con tale pre-supposto si può meglio comprendere la nascita e la sopravvivenza di una molteplicitàdi metodi prescrittivi, che si affermano e distinguono per ciò che ciascuno di essi ritienenecessario includere nella descrizione del problema e nel processo che porta al M DO, piùche per le soluzioni finali difficilmente comparabili tra loro in modo oggettivo.

Come mostra Figura 3.1 all’approccio empirico adottato nella costruzione del MDS ,si può contrapporre il processo che porta a definire il MDO : in questo secondo caso larelazione tra i dati ed il modello non è altrettanto chiara ed esistono influenze reciprocheanche se, come si avrà modo di constatare presentando alcuni approcci specifici, vienespesso assegnato al modello il ruolo predominante.

Figura 3.1: Se in molti casi si può affermare che il MDS “proviene” dalle osservazioni, non sempre è lecitofarlo nel caso del MDO .

Tutti i metodi prevedono un numero finito di passaggi al termine dei quali si giungead una funzione che definisce un qualche tipo di ordinamento in γ, attribuendo dellerelazioni di preferenza (o precedenza) tra i suoi elementi. Quando si traducono degliobiettivi informali in linguaggio matematico, dette relazioni possono costituire sia unoutput che un input nel senso che vengono sia definite (ex post) dalla funzione su γ, ma altempo stesso ci si può avvalere della loro intuizione per costruire detta funzione, comeindicato dalle due frecce in Figura 3.1. Nella Logica delle preferenze, la disciplina chestudia queste relazioni, viene riconosciuta l’esistenza di quattro tipologie fondamentali[FGE05] (esprimibili con operatori binari del tipo yA R yB): la preferenza stretta, l’indiffe-renza, la preferenza debole e l’impossibilità di confronto. Approcci che non ammettonol’impossibilità di confronto sono spesso classificati come ispirati alla Scuola americana laquale, basata sulla Teoria dell’utilità, consente sempre di ordinare completamente tuttele soluzioni potenziali. La cosiddetta Scuola francese, al contrario, si fonda sul criterio dioutranking (surclassamento) e ritiene la non-preferenza un giudizio insostituibile, ponen-do al contempo maggior enfasi sulle differenze tra preferenza stretta e debole: le ipotesiimpiegate non sono però più sufficienti a garantire la completezza dell’ordine in γ.

Le preferenze possono venire espresse in differenti fasi del processo di ottimizzazio-ne: se ciò avviene a monte, il metodo viene detto a priori, se invece i giudizi sono effettuatia valle dell’individuazione di un set di soluzioni efficienti, a posteriori e nel caso infine lepreferenze si definiscano man mano che procede l’esplorazione di γ, l’approccio è det-

3.1. Gli approcci all’ottimizzazione multiobiettivo

3. Il Modello degli Obiettivi 38

to progressivo o iterativo [MA04] [And01]. La migliore collocazione di questa attività hasuscitato notevole dibattito senza tuttavia giungere ad una posizione conclusiva e ricono-scendo che ciascuna strategia presenta particolari vantaggi e svantaggi3. Occorre inoltreconsiderare due aspetti importanti. In primo luogo molti approcci possono essere adat-tati ed utilizzati in diverse modalità: il metodo AHP, per esempio, trova applicazione siaa priori per pesare i criteri di interesse e specificare i coefficienti del MDO, che a poste-riori onde individuare in un set di alternative quella più interessante. In modo analogole Funzioni di desiderabilità, nate come strumento a priori, sono state proposte per unuso a posteriori o per guidare una ricerca iterativa [MT06]. In secondo luogo, in condi-zioni di perfetta razionalità, si presuppone che qualunque metodo – a priori, a posteriori oiterativo – individui la medesima soluzione ottimale [Rub98], ovviamente a condizioneche essa gli sia raggiungibile. Considerando tuttavia i limiti cognitivi delle applicazionipratiche, le modalità a posteriori ed iterative potrebbero accrescere la conoscenza del de-cisore facendo emergere alcune delle alternative disponibili, rivelando i range di ciascunacaratteristica, riducendo lo spazio di indagine e con esso la complessità del problema.Questo beneficio teorico non necessariamente si traduce però in un aumento del “livellodi razionalità” ed in una maggiore oggettività del processo decisionale, poiché spesso gliapprocci a posteriori si dimostrano indifferentemente proni a scelte soggettive e non debi-tamente giustificate, quando forse un approccio a priori richiederebbe un maggiore sforzoanalitico e l’esternalizzazione di preferenze e requisiti (producendo maggiore trasparen-za e più chiara documentazione). Nella pratica i metodi a posteriori ed iterativi vengonospesso applicati a problemi ove γ è insieme discreto, mentre in caso contrario si tende aprediligere un metodo a priori.

Due tipi di classificazione che pertanto si integrano a quella appena data prendono inconsiderazione la granularità delle variabili (distinte in continue, discrete dense e discreterade4 [PBSG03]) e la loro scala di misura. Quest’ultimo attributo è particolarmente criticoin quanto qualifica tanto i fattori e le risposte quanto le preferenze ed il valore di merito diciascun prodotto. In Metrologia si considerano comunemente quattro tipologie di scala:nominale, ordinale, per intervalli e razionale ed a seconda di quella impiegata sussistonospecifiche proprietà ed operazioni ammissibili tra variabili5.

Quando vi è la volontà di considerare il ruolo dell’incertezza, un approccio si distin-gue anche a seconda della strategia adottata che può essere:

• per via analitica: con elementi di probabilità e statistica (e/o di logica fuzzy) siincorporano nella funzione ottimizzanda le informazioni disponibili sui parametridistributivi delle variabili:

3cfr. Tabella A.5 in Appendice a pag. 163 e Tabella A.4 a pag. 162 per un ulteriore confronto.4La scomposizione del concetto di “discreto” in due classi ha il duplice intento di poter descrivere varia-

bili “quasi continue” (come ad esempio un valore monetario o una misurazione sperimentale) e considerareoperazioni di approssimazioni (passaggio da variabili continue a discrete) o viceversa di interpolazione.Queste trasformazioni saranno infatti tanto più pertinenti quanto maggiore è la densità dell’insieme discre-to rispettivamente di arrivo o di partenza. Questa via può anche rivelarsi la più rapida per consentire l’usonel problema in esame di uno specifico approccio multiobiettivo, presentato ipotizzando che X e Y abbianouna certa granularità. Tipicamente è la natura di “scelta” e di Decision Making dei problemi multiobiettivo adassumere γ discreto, mentre i modelli di Statistica sperimentale operano più spesso con funzioni continue.

5[v. Glossario: Scala di misura]

3.1. Gli approcci all’ottimizzazione multiobiettivo

3. Il Modello degli Obiettivi 39

– inserendo ad esempio tra gli obiettivi quello di minimizzare la dispersioneintorno al valor medio della Funzione obiettivo;

– considerando le ripercussioni delle incertezze sulla distribuzione delle quan-tità yopt e xopt ;

• mediante simulazione numerica: un algoritmo iterativo valuta o ottimizza ripe-tutamente la Funzione obiettivo variando le quantità critiche nei rispettivi rangeprevisti alla ricerca del miglior bilanciamento, secondo un criterio prestabilito, trail valore atteso e la dispersione. L’analisi di sensibilità può costituire un caso par-ticolare di simulazione condotta a valle dell’ottimizzazione e presenta i maggioribenefici qualora la modellazione diretta di alcune incertezze risulti troppo onerosao inattendibile in quanto violate le ipotesi all base dei metodi analitici.

La simulazione consente inoltre di fare leva sulle tecnologie ITC sostituendo in parte ledifficoltà modellistiche con uno sforzo elaborativo e computazionale. Note criticità si in-contrano tuttavia nella scelta del passo che definisce una griglia di valutazione in insiemicontinui e quella circa il numero di fattori da variare simultaneamente: in entrambi i casiaumenta esponenzialmente il numero di iterazioni e di conseguenza le risorse richiestedall’algoritmo (fisiche e di tempo). A seconda delle interpretazioni anche l’analisi di sen-sibilità (o di robustezza) può avvenire con due finalità: controllare quanto cambiano irisultati al variare dei parametri oppure stabilire quanto ai parametri è concesso variaresenza per questo impattare eccessivamente sui risultati.

Accanto alle principali dimensioni di classificazione qui riportate – scuola o criterio,fase di espressione delle preferenze, granularità delle variabili, scala di misurazione, mo-dalità di considerare l’incertezza – occorrerebbe stabilire l’insieme dei requisiti in base acui si valuta l’efficacia e la pertinenza di un approccio. Dalle informazioni raccolte, talepassaggio, essenziale quanto più si riconosce che la scelta del miglior approccio ha insé le caratteristiche di un problema multiobiettivo, non è approfondito se non in modoframmentario [Cho03] [MA04] [TL96] e non si dispone di un sistema di giudizi univer-salmente condiviso. Nella proposta avanzata in [Ste04b] un metodo deve ad esempiosoddisfare tre requisiti fondamentali:

1. Pareto-optimality: la soluzione individuata deve essere pareto efficiente poiché, secosì non fosse, sarebbe difficile riconoscerla come una soluzione ottima;

2. Scalability: si dovrebbe garantire la possibilità di impiego del metodo indipenden-temente dal numero di obiettivi e vincoli coinvolti;

3. Practicability: il metodo deve essere sviluppato per risolvere problemi concreti,con la possibilità di incorporare la conoscenza di esperti e garantire una sempliceinterpretazione dei risultati.

Anche nell’eventualità di aggiungere ulteriori requisiti a queste qualità tutte desiderabili(per esempio Completezza della rappresentazione, Precisione e rigore della documenta-zione offerta, Misurabilità di qualità tangibili ed intangibili, Strumenti di comunicazione

3.1. Gli approcci all’ottimizzazione multiobiettivo

3. Il Modello degli Obiettivi 40

e trasmissibilità, . . . ) occorre prima chiarire i dubbi esistenti circa la loro reale efficacia6,universalità ed esaustività.

Nei prossimi paragrafi verranno richiamati due approcci, il criterio di efficienza pare-tiana ed i metodi grafici, rispettivamente rappresentativi del requisito di Pareto-optimalitye di quello di trasmissibilità e la cui esposizione risulterà funzionale per i metodi suc-cessivi. Entrambi gli approcci non prevedono la costruzione di un MDO, ma poiché essinon sono conclusivi in molte situazioni, si devono prendere in esame altri che miranoad ottimizzare una quantità scalare ottenuta combinando i valori delle caratteristiche diinteresse alla ricerca del miglior compromesso.

Figura 3.2: Diverse modalità per rappresentare le preferenze in un modello.

In quest’ultimo caso il modello può rappresentare le preferenze in tre modi7: in formafunzionale (tipicamente mediante una Funzione di utilità), relazionale (come avviene neiconfronti a coppie dell’AHP e negli approcci basati sul criterio di outranking) o in unastruttura logica (attraverso operazioni di congiunzione e disgiunzione oppure con regoledel tipo “se . . . allora . . . ”). La Figura 3.2 evidenzia gli stretti rapporti tra questi tipi dirappresentazione, che ammettono conversioni da una forma all’altra ed al tempo stessola possibilità di fare leva sui loro punti di forza complementari.

Esempi di modelli più incentrati su di una rappresentazione di tipo funzionale sonoquelli con le Funzioni di utilità (Paragrafo 3.4) e di Desiderabilità (Paragrafo 3.5). Pa-ragrafo 3.6 introduce invece l’impiego della logica fuzzy, come approccio in cui la rap-presentazione logica delle preferenze assume un ruolo predominante. Il metodo AHP,esposto in Paragrafo 3.7, si fonda sulle relazioni che emergono dai confronti a coppie tracaratteristiche e tra soluzioni alternative. Infine, poiché le ottimizzazioni multiobiettivonon possono prescindere dai criteri di economicità dell’impresa, Paragrafo 3.8 analiz-za alcuni metodi (tipicamente di tipo funzionale) dove gli obiettivi vengono misurati intermini monetari o finanziari.

3.2 Dominanza ed efficienza paretiana

Il concetto classico di efficienza paretiana non richiede al decisore né di definire una Fun-zione di utilità per aggregare gli obiettivi, né dei rapporti di conversione tra gli stessi eneppure il grado in cui ciascuno concorre all’utilità complessiva8. La condizione di domi-

6cfr. Paragrafo 3.2 per alcune insidie del requisito di efficienza paretiana, tradizionalmente considerato ilpiù solido.

7[v. Glossario: Preferenza] .8[v. Glossario: Lexicographic ordering] per un metodo che in parte gode di simili qualità.

3.2. Dominanza ed efficienza paretiana

3. Il Modello degli Obiettivi 41

nanza o efficienza di una soluzione9 è ampiamente discussa in letteratura e ci si limiteràqui a riproporre una definizione della cosiddetta “forma debole” di dominanza, in ba-se a cui una soluzione (sia rappresentata dal vettore yA = [yA i] per i = 1, 2, .., p) vienedetta efficiente se nessun obiettivo (Yi) può essere ulteriormente migliorato senza che ciòcomporti il deterioramento di almeno un’altra caratteristica di interesse. Tra i molteplicimodi per esprimere formalmente questa relazione (indicata con i simboli � oppure �)una con il pregio di fornire unità alla trattazione è

yA � yB ⇔1p

p

∑i=1

I≤(yA i, yB i) = 1 (3.1)

dove I≤(yA i, yB i) è una funzione indicatrice così definita

I≤(yA i, yB i) =

{1 yA i ≤ yB i

0 yA i > yB i

Se l’Equazione 3.1 è verificata allora yA domina yB, se il valore della somma pesataè invece zero yA � yB e si dice che yA è dominato da yB ed infine se essa è compresa in(0; 1) le due soluzioni non sono direttamente comparabili in termini di dominanza.

A partire da tale relazione, che gode della proprietà transitiva, una soluzione (yA)viene detta efficiente se in γ non vi sono elementi che la dominano. L’insieme di tutte lesoluzioni efficienti rappresenta la Soluzione completa del problema multiobiettivo e cia-scuno dei rispettivi punti in χ si candida per la scelta delle condizioni operative ottimali.Salvo casi in cui l’ottimizzazione è banale e non esistono trade off, applicando il criterio diefficienza quella realizzata è una relazione di semiordine nell’insieme γ e per riflessionein χ.

Benché il concetto di efficienza sia un locus classicus dell’analisi multiobiettivo pre-senta alcune criticità, prima tra tutte la difficoltà di circoscrivere accuratamente la Solu-zione completa: raramente è infatti possibile giungere ad essa per via analitica e si devericorrere ad algoritmi numerici che operano sul confronto tra dati discreti campionatinello spazio delle soluzioni10. Un secondo inconveniente è che all’aumentare del nume-ro di obiettivi p la Soluzione completa può arrivare a ricoprire un’ampia frazione di γ.Nella fattispecie il numero atteso di elementi non dominati tra n vettori uniformemen-te11 distribuiti nello spazio di un cubo unitario p-dimensionale può essere approssimato

9In modo coerente alla maggioranza della letteratura, in questo paragrafo il termine “soluzione” vieneimpiegato in riferimento a punti di γ. Si assume inoltre che tutti gli obiettivi siano da minimizzare. Ci siriconduce facilmente a questa situazione utilizzando −Yi per una risposta originariamente da massimizzaree |Yi− T| per quella che si desidera avvicinare ad un valore target. Poiché la relazione classica di dominanza èindifferente rispetto al valore assoluto assunto localmente dalle variabili (e di conseguenza a trasformazionimonotone applicate su di esse sia pure in modo indipendente), può essere più conveniente utilizzare laquantità (Yi − T)2 rispetto al modulo che misura la distanza euclidea. [v. Glossario: Efficienza]

10Una breve presentazione di alcuni metodi è offerta in Appendice B.1 (pag. 172).11cfr. Appendice B.2 (pag. 175) per un’indagine su come varia il numero di soluzioni efficienti a seconda

della correlazione tra risposte.

3.2. Dominanza ed efficienza paretiana

3. Il Modello degli Obiettivi 42

[KVGN05] dalla la formula

NDp,n =n

∑i=1

(−1)i+1

1n−1

(np

)

(3.2)

In Figura 3.3 sono riportate delle curve ottenute dall’Equazione 3.2 e da cui si os-serva come l’insieme delle soluzioni efficienti tenda rapidamente a coincidere12 con γ

all’aumentare di p. Quando ciò avviene il potere discriminante del criterio paretiano èconsiderevolmente ridotto e viene minata anche l’efficacia dei metodi a posteriori che do-vrebbero sottoporre al decisore un numero elevato di alternative tra cui scegliere [MT06][TW04]. Un aspetto da non sottovalutare, in parte deducibile dal grafico, è che nellarealtà una soluzione dominata potrebbe essere resa efficiente aumentando in numero dicaratteristiche in base a cui la si valuta. In assenza di un MDO formale è quindi piuttostosemplice descrivere “buone” anche soluzioni subottimali.

Figura 3.3: Le curve mostrano per diversi valori di ‘n’ la percentuale attesa di elementi efficienti . Rispettoa Eq. 3.2 le ordinate vengono espresse in percentuale e corrispondono a (NDp,n/n).

Per superare alcuni dei limiti connessi al concetto di efficienza occorre muoversi indue direzioni: ridurre il numero delle soluzioni individuate e rendere l’ordinamento suγ il più vicino possibile alla completezza. Alcune proposte in letteratura modificanocosì la definizione classica di natura dicotomica (per la quale non avrebbe cioè sensodomandarsi “quanto” una soluzione sia efficiente poiché un dato elemento può solo es-serlo oppure no) e sviluppano diverse misure del livello di “intensità” della relazione didominanza. Gli approcci di Pareto (out)ranking o di k-ottimalità agiscono, ad esempio,valutando l’efficienza di una soluzione in base a sottoinsiemi di obiettivi. Dalla Solu-zione completa, che racchiude vettori di dimensione p, vengono scartati in un processoiterativo gli elementi dominati rispetto a (p− 1), (p− 2), . . . , 2 caratteristiche di interesse.Una soluzione godrà pertanto del grado massimo di efficienza se resta tale anche qualora

12Ad esempio con 15 obiettivi ND15,1000 ' 980 e con 20 risulta ND20,1000 > 999 cioè la percentuale disoluzioni efficienti tra quelle considerate è prossima al 100%. .

3.2. Dominanza ed efficienza paretiana

3. Il Modello degli Obiettivi 43

giudicata in base a sottoinsiemi di obiettivi [LGMF04]. Diviene di conseguenza possi-bile ridurre la dimensione della Soluzione completa, come intuibile da Figura 3.3 spo-standosi verso l’origine delle ascisse. Ulteriori benefici della procedura consistono nellapossibilità di contenere la soggettività introdotta dal decisore, in quella di ricondursi adobiettivi stocastici (appari infatti più probabile che una condizione operativa k-ottimalegeneri prodotti efficienti [FA02]) ed, a seconda dell’ordine con cui vengono esclusi gliobiettivi, in maggiori garanzie che alla fine del processo si giunga ad un ordinamentocompleto [LGMF04]. Un’altra estensione della definizione classica è quella di WeightedPareto Dominance [Cve00] che riformula la condizione di dominanza dell’Equazione 3.1introducendo dei pesi ∑

pi=1 wi = 1 associati a ciascuna caratteristica ed un valore soglia τ

così da diventare

yA �w yB ⇔p

∑i=1

wi I≤(yi,A, yi,B) ≥ τ

Questa versione coincide con quella classica se ogni wi è pari a 1/p e τ = 1; negli altricasi si rivela critica la scelta dei pesi attribuiti dal decisore (un passaggio meno flessibilee trasparente di quello degli approcci mirati a costruire un MDO).

Una variante per contenere tale arbitrarietà, si avvale del concetto di Fuzzy Pareto Do-minance [KVGN05] per il quale la possibilità che una soluzione sia dominante è indicatada una variabile continua compresa in [0; 1]. Ne esistono diverse implementazioni adesempio tramite la funzione I≤ così definita

I≤(yA i, yB i) =

{1 yA i ≤ yB i

yB iyA i

yA i > yB iper yA i, yB i ∈ R+.

Data ciascuna coppia di elementi si calcola quanto una soluzione è dominante (ruoloattivo) e quanto è dominata (ruolo passivo) ad esempio mediante le espressioni13

μa(yA, yB) =1p

p

∑i=1

I≤(yA i, yB i) e μp(yA, yB) =1p

p

∑i=1

I≤(yB i, yA i)

Dai valori ottenuti analizzando ciascun possibile confronto si può anche ricavare unaquantità scalare da associare ad ogni soluzione e con cui stabilire l’ordinamento finale14.

Poiché il criterio classico di efficienza non poggia su un particolare MDO , nella mag-gioranza dei casi non vi sono specifiche riflessioni in merito alla natura delle incertezzeche lo caratterizzano (l’unico parametro sul cui valore sarebbe possibile nutrire dubbiè l’eventuale target), ma è certamente lecito domandarsi cosa accade quando le rispostedel MDS non sono quantità deterministiche. La Dominanza stocastica (del I ordine15)

13Si è preferito qui sostituire il simbolo di produttoria della formulazione originale [KVGN05] con quellodi sommatoria per conservare l’analogia con l’Equazione 3.1.

14Il ranking value di ciascuna alternativa si può calcolare ad esempio come ryA= max μp(yA, y)

∀y ∈ γ ∧ y , yA. [v. Glossario: PROMETHEE per riscontrare alcune analogie] .15Gli ordini successivi al primo, qui non trattati, chiamano in causa la sensibilità del decisore ed in par-

ticolare nella Teoria dell’utilità ci si riferisce ad ipotesi di Risk Adversion (avversione al rischio) e di RuinAdversion (avversione al rischio asimmetrica o avversione al tracollo). Uno strumento alternativo è la co-siddetta dominanza “probabilistica”, espressa in [FE05] dalla condizione ∑

pi=1 Pr(yA i ≤ yB i) > 1− α e che

3.2. Dominanza ed efficienza paretiana

3. Il Modello degli Obiettivi 44

considera come unica ipotesi la monotonicità della funzione di preferenza. Rispetto allagenerica caratteristica Yi, la soluzione yA è preferibile a quella yB se si verifica che

E[yA i]− E[yB i] ≤ 0.

Si stabilisce inoltre che yA i domina stocasticamente yB i (nel I ordine) se, definita F(∙) laFunzione di ripartizione di un variabile aleatoria, risulta che F[yB i]− F[yA i] ≥ 0 per ognivalore di Yi ed in almeno un punto vale il segno di disuguaglianza stretta. I grafici diFigura 3.4 esemplificano tale forma di dominanza nel caso di due variabili normalmentedistribuite. Se la condizione si verifica per ogni caratteristica Yi allora yA �SI yB e cioètra le due alternative sussiste un rapporto di dominanza stocastica.

Figura 3.4: Il criterio di dominanza stocastica del I ordine. I riquadri a) e b) sono relativi rispettivamentealle densità di probabilità ed alle cumulate.

Se però si immagina che yA i ed yB i siano le risposte per la caratteristica Yi in corri-spondenza di due distinti livelli dei fattori e stimate da un modello di regressione lineareper cui valgano le ipotesi di omoschedasticità, il criterio di dominanza stocastica del I or-dine fornirà risultati sempre concordi a quelli della definizione tradizionale e determini-stica di efficienza. L’unica differenza (sostanziale) risiede nel fatto che in questo caso nonsi deve confidare nell’efficienza delle singole realizzazioni. Inoltre, per distribuzioni con-tinue, non è possibile accettare l’ipotesi di dominanza sul loro intero supporto [Hey01] (oancor meglio rifiutare l’ipotesi di non-dominanza [DD06]). Nella letteratura che affron-ta l’argomento non è ancora stato possibile reperire interessanti applicazioni pratiche incampo ingegneristico: viene suggerito in questi casi di restringere lo spazio di analisi azone di interesse specifico o impiegare intervalli di confidenza così da supportare il crite-rio di efficienza ancor più su quello di statisticamente distinto [FE05] mentre da un puntodi vista informale, è chiaro che si nutrono aspettative di rifiuto per un eventuale test dinon-dominanza solo a condizione di aver osservato dominanza nei campioni raccolti.

Si vuole infine accennare anche al rapporto che lega la condizione di efficienza alMDO poiché essa costituisce di fatto sia il punto di partenza degli approcci a posteriori –che per essere implementati necessitano della Soluzione completa o di una sua approssi-mazione – che una verifica sulla soluzione individuata da quelli a priori. In particolare inquesto secondo caso ci si può domandare come la funzione matematica che combina gli

viene indicata come yA �α yB.

3.2. Dominanza ed efficienza paretiana

3. Il Modello degli Obiettivi 45

obiettivi debba riflettere la relazione di dominanza. Una corrispondenza biunivoca traquest’ultima e la relazione “<” (minore di) tra gli elementi nel dominio di una qualsivo-glia funzione reale non è quasi mai possibile (come conseguenza del teorema di Bridgese Mehta [Lau03]), ma se ne può ottenerne un omomorfismo. Ciò significa costruire unMDO che non contraddica mai la relazione di efficienza assegnando ad esempio a yB

un valore minore di yA qualora yA � yB . Tale proprietà è stata già verificata in let-teratura [TW04, MT06, DD98] per tutte le funzioni che si esamineranno negli approcciprossimamente trattati.

3.3 I metodi grafici

Chi si appresta a risolvere un problema di ottimizzazione è solitamente guidato da duespecifiche esigenze informative: trovare la soluzione ottima ed approfondire la cono-scenza dello spazio in cui essa si colloca. Il secondo tipo di conoscenza (di natura “to-pologica”) consente ex post un’analisi di sensibilità, aiutando a comprendere l’entità delpeggioramento delle prestazioni del sistema a seguito di allontanamenti dalle condizio-ni di ottimo e a riconoscere viceversa le zone in cui queste possono considerarsi ancoraaccettabili. Ex ante concorre invece all’insieme di informazioni che permettono di com-misurare gli obiettivi che ci si prefigge alle risposte che fornisce il sistema, valutando labontà del livello di una caratteristica di interesse in relazione alla sua effettiva distribu-zione. I metodi grafici si dimostrano strumenti efficaci per entrambi gli scopi e possonotrasmettere al ricercatore molte informazioni mantenendo un impatto complessivo im-mediato ed intuitivo, pur incontrando delle difficoltà laddove si debbano rappresentarevariabili in spazi maggiori di R2 o R3. All’aumentare del numero p di obiettivi o dei kfattori, il contributo dei grafici viene presto limitato non essendo semplice predisporreuna proiezione dei dati tale da conservare informazioni sufficientemente chiare ed utili.

La rappresentazione più comune è probabilmente lo Scatterplot che, nel piano Yi ×Yj,associa a ciascuna soluzione (y ∈ γ) un punto di coordinate (yi, yj). Da questo grafico,esemplificato in Figura 3.5, si possono intuire le relazioni tra le risposte, la distribuzionecongiunta delle soluzioni, così come la forma e l’ampiezza dell’insieme che raccogliequante tra loro non sono dominate (qui anche detto Frontiera efficiente).

Per p > 2, poiché non esiste una mappatura delle relazioni di dominanza da un datospazio ad uno di dimensione inferiore [KY07], si prospettano differenti vie percorribili:

• disporre in Y1 × Y2 unicamente dei punti i cui livelli delle restanti caratteristiche diqualità (Yi con i , 1, 2) sono fissati ad un valore prestabilito, pur nascondendo cosìmolte delle eventuali soluzioni;

• rappresentare sul piano un insieme di soluzioni indipendentemente dai livelli dellecaratteristiche escluse, come in Figura 3.5 a): verosimilmente la Frontiera efficientenon sarà più una curva ma diverrà una superficie o una nuvola di punti;

• sostituire i punti con simboli o grafici a stella (Star plots, Glyph plots, “facce”, . . . )che indichino con la loro forma e dimensione, i livelli delle variabili escluse dagli

3.3. I metodi grafici

3. Il Modello degli Obiettivi 46

Figura 3.5: Scatterplot delle osservazioni raccolte in un piano sperimentale per due risposte da minimizzare(i punti rossi sono soluzioni efficienti). Il grafico acquista un particolare significato quandoYi = Yμ ed Yj = Yσ , sia in ambito industriale [LA04] che finanziario [Giu04].

assi, come in Figura 3.5 b): se tuttavia gli obiettivi sono troppo numerosi o i puntitroppo ravvicinati la lettura risulta confusa;

• collegare le soluzioni nello Scatterplot per formare un grafo parzialmente connessoche preservi il più possibile in R2 le relazioni di dominanza tra le alternative (comeproposto in [KY07]16).

Se il numero delle caratteristiche di interesse lo consente anche una matrice di grafici, chetipicamente organizza una serie di Scatterplot, offre interessanti spunti di analisi17.

Spostando l’attenzione dallo spazio γ a quello χ, uno strumento molto diffuso è senzadubbio il Contour Plot. Sovrapponendo i grafici delle curve isolivello di ciascuna caratte-ristica di qualità si ottiene un Overlay Plot in grado di evidenziare le aree di intersezioneche meglio rispondono agli obiettivi ed all’interno delle quali va ricercata la soluzioneottimale, come in Figura 3.6 a). Potendo osservare solo i grafici relativi a due fattori pervolta, se k > 2 occorrerà però stabilire a quali livelli fissare le rimanenti Xi e la scelta piùcomune ricade sui valori della soluzione ottima individuata da un approccio numerico.Ad esempio si può mostrare una superficie dove sull’asse delle ascisse è posto il fatto-re più importante dell’esperimento, su quello delle ordinate il secondo più importante,fissando i fattori rimanenti ai rispettivi livelli ottimali (DEX Contour Plot, [AA.09d]). Ilrischio noto è che all’aumentare di p scompaiano zone fattibili a causa della sovrappo-sizione di un numero troppo elevato di caratteristiche di interesse e risulta pertanto unostrumento più efficace in presenza di poche variabili indipendenti e dipendenti.

Per concentrare informazioni in una visualizzazione che ha meno dimensioni di quan-te ne abbia il problema (dimensionality reduction), sono stati anche proposti i Parallel Coor-dinates Plot ovvero grafici in cui gli assi anziché essere ortogonali tra loro sono disposti

16Tale rappresentazione sostituisce uno Scatterplot p-dimensionale fornendo informazioni sulla Frontieraefficiente e non solo sulla dispersione come nel calcolo delle componenti principali. Risulta tuttavia più im-pegnativa dando origine essa stessa un problema multiobiettivo per rappresentare il minor numero possibiledi relazioni sbagliate, conservando al contempo i rapporti di vicinanza tra le soluzioni.

17[v. Glossario: Matrix plot]

3.3. I metodi grafici

3. Il Modello degli Obiettivi 47

Figura 3.6: a) Overlay plot che nasce dalla sovrapposizione dei Contour Plot (in bianco le zone diintersezione che meglio rispondono ad obiettivi e vincoli).b) Parallel Coordinates Plot per un problema con 4 obiettivi.

parallelamente come mostra Figura 3.6 b). Anziché far corrispondere ad ogni soluzioneun singolo punto, la si rappresenta con una linea spezzata che interseca gli assi Yi in cor-rispondenza dei rispettivi livelli. Obiettivi adiacenti in conflitto tra loro sono collegatida linee che si intrecciano tanto più intensamente quanto maggiore è la proporzionalitàinversa tra le variabili, così come avviene per la coppia Y2 ed Y3 in Figura 3.6 b), men-tre linee approssimativamente parallele, come quelle tra Y1 ed Y2, riflettono obiettivi inarmonia. Rispetto a grafici del profilo delle singole soluzioni, come quelli a stella o atornado, i Parallel Coordinates Plot mostrano più chiaramente i range di ciascuna caratteri-stica ed i trade off, sebbene occorrano opportune permutazioni dell’ordine degli assi pergodere di una visione più completa. Impiegati in approcci a posteriori o iterativi, i Paral-lel Coordinates Plot aiutano anche a scartare parte delle soluzioni efficienti restringendoprogressivamente degli intervalli definiti su ciascun asse Yi [FPL05].

Rappresentare in un piano elementi provenienti da uno spazio p-dimensionale im-pone comunque la rinuncia ad alcune informazioni ed un unico tipo di grafico diffi-cilmente sarà sufficiente per comunicare con tutte le persone coinvolte nel processo diottimizzazione. Pur essendo sempre utile avere un riscontro visivo dei trade off tra gliobiettivi, della distribuzione delle risposte o delle relazioni del MDS , si trovano anchesuggerimenti in letteratura associando specifiche rappresentazioni a complemento delleprocedure analitiche negli approcci più diffusi18.

Un aspetto che occorre tenere in debita considerazione è l’incertezza sui modelli poi-ché essa raramente trova una controparte nei grafici. Più spesso infatti i punti, le curve ele superfici rappresentano stime puntuali di valori attesi o realizzazioni. Per questa ragio-ne e per via della difficoltà nel pervenire ad un’unica soluzione di miglior compromessoper via grafica, questi i metodi difficilmente si sostituiscono alle tecniche analitiche deiproblemi concreti.

18[v. Glossario: GAIA]

3.3. I metodi grafici

3. Il Modello degli Obiettivi 48

3.4 L’utilità ed il compromesso

Un problema multiobiettivo può essere risolto trasformandolo in uno mono-obiettivo,ma permane un’importante differenza poiché, come mostra il criterio di efficienza, la so-luzione di compromesso (compensatoy design) che massimizza la Funzione obiettivo nonesclude la possibilità che ve ne siano altre di ottimali. Per un’impresa la decisione disviluppare il design di più prodotti non è tuttavia in alcuni casi contemplata ed in altricomporta un tale aumento dei costi produttivi da sconsigliare l’adozione di una gammamaggiormente ampia. Anche dal punto di vista del consumatore il tradizionale assioma“più scelta = più felicità” viene sempre più frequentemente messo in discussione dalle re-centi ricerche [Sch05, VBS+08]. Il processo che porta dunque a definire l’unica soluzioneda implementare viene qui inserito in Figura 3.7 a complemento del percorso di indaginesperimentale concretizzatosi nella costruzione del MDS .

Figura 3.7: Processo decisionale che completa l’indagine empirica discussa nel Capitolo 2 ( cfr. Figura 2.1).L’elemento centrale del feedback è la Decisione, ma anche i termini Persona o Designer possonorisultare appropriati a seconda delle interpretazioni .

Il grado di formalizzazione del MDO che è necessario raggiungere indipendente-mente dall’approccio adottato, dipende evidentemente dalla qualità e dalla quantità diinformazione che può venirvi inclusa, contribuendo a raffinare il modello della realtà.A differenza dell’elemento Processo di Figura 3.7, intendere la Decisione come una blackbox può non essere la scelta migliore per almeno due ragioni: in primo luogo l’output diquest’ultima non è necessariamente una misura sperimentale, oggettiva e chiaramentedefinita. Secondariamente, data la natura endogena delle preferenze, appare più promet-tente procedere anziché dai valori osservati alla stima delle funzioni che li determinano

3.4. L’utilità ed il compromesso

3. Il Modello degli Obiettivi 49

(cioè seguendo un approccio puramente sperimentale), per il sentiero inverso definendodapprima delle relazioni tra le caratteristiche ed in base ad esse assegnare dei valori dimerito a ciascun prodotto o alternativa. Una successiva fase di validazione assume diconseguenza spesso i connotati di una verifica di coerenza.

Si può supporre che gli elementi caratteristici del MDO siano quelli che compaiononella generica espressione

U = f (Y(X), X, ε). (3.3)

dove la variabile dipendente U rappresenta una misura cardinale dell’Utilità (o un con-cetto affine19). Si è scelto di esplicitare anche la presenza dei fattori X onde indicareeventuali vincoli sui valori da essi assunti o preferenze circa il loro livello di utilizzo; iltermine ε rende infine conto della generica presenza di errori o incertezze sulla formu-lazione del MDO . L’Utilità è una grandezza che possiede una chiara valenza intuitivaed operativa, ma una natura astratta e sfuggevole. Una definizione viene nella Teoria deibisogni delle persone, secondo cui le necessità di un soggetto possono venire scompostee trovano ciascuna una risposta nelle caratteristiche Yi di uno o più prodotti [Lan66]; sidefinisce così l’Utilità come il grado in cui una data combinazione dei livelli di tali ca-ratteristiche riesce a soddisfare i bisogni percepiti. Quanto ai problemi di misurabilità,essi derivano in parte anche dalla passata convinzione (non sempre superata) che sia unaqualità intrinseca degli oggetti, quando è ormai condiviso che trattasi di una circostanzache emerge solo in relazione a dei bisogni umani.

Gran parte del lavoro svolto in letteratura, sia quella descrittiva che prescrittiva, con-siste nell’imporre restrizioni sulla forma di f (∙); se ne ipotizza e giustifica una specifica(tipicamente di natura parametrica) e si propone un metodo per ricavare i valori neces-sari a caratterizzarla ed ottimizzarla. Per quanto riguarda l’unicità di tale funzione sideve riconoscere da un lato che trasformazioni o formulazioni differenti del MDO pos-sono individuare la medesima soluzione, mentre dall’altro che obiettivi analoghi possonocondurre a soluzioni diverse. Nel primo caso si osservi ad esempio che l’Equazione 3.3rappresenta una famiglia di funzioni, essendo la soluzione dell’operazione di minimizza-zione (o massimizzazione) indifferente rispetto a trasformazioni monotone della Funzio-ne obiettivo. Al tempo stesso però il MDO è una traduzione in linguaggio matematicodelle percezioni del decisore e dato un medesimo problema ed un generale assenso sugliobiettivi, si può giungere a diverse soluzioni tramite formulazioni non equivalenti eppu-re non in contraddizione tra loro. Una simile circostanza è esposta in Figura 3.8 dove sievidenziano gli ottimi di MDO che riflettono tutti la volontà di minimizzare due qualità.

Il processo di costruzione del MDO può essere analizzato attraverso le informazioniche vi vengono incorporate così da riconoscere gradi di raffinamento successivi [FGE05].La relazione di dominanza prevede una rappresentazione dei prodotti tramite vettori diqualità nello spazio γ

Y = [Y1 Y2 . . . Yp] dove Yi=1...p = fi(X, ε i)

19[v. Glossario: Utilità]

3.4. L’utilità ed il compromesso

3. Il Modello degli Obiettivi 50

Figura 3.8: Soluzioni individuate da differenti MDO in cui i due obiettivi Y1, Y2 sono da minimizzare.L’ottimo ideale Y∗ ha coordinate (y∗1; y∗2).

Non bastando questo ad ottenere l’ordinamento completo desiderato, una prima tipolo-gia di informazione consiste nell’applicare a ciascuna caratteristica una trasformazioneper superare le differenze tra unità di misura e rendere le qualità comparabili tra loro[SH97]. Tale operazione può assumere la forma di una semplice normalizzazione o ri-flettere un legame non lineare tra il livello della caratteristica e quello dell’utilità ad essoassociata: in termini più formali ui(∙) può essere una mappa da Yi ad un intervallo (siaper convenzione [0; 1] ) che conserva l’ordine di preferenza di Yi . Le soluzioni Y cheerano efficienti in γ restano tali anche a seguito della trasformazione una volta misuratein termini di utilità

Yu = [u1(Y1) u2(Y2) . . . up(Yp)]

a condizione che le ui(∙) siano funzioni monotone (e quindi invertibili). A seguito diquesto passaggio si potrebbe già associare a ciascun punto Yu ∈ Rp un valore scalarecon operatori quali min(Yu) e max(Yu). Il primo è piuttosto diffuso in pratica quandosi assume che la qualità complessiva di un prodotto sia pari al livello della sua caratte-ristica peggiore, mentre il secondo è appropriato se è la migliore tra le prestazioni chene definisce il merito20. La sola trasformazione delle caratteristiche è però spesso insuffi-ciente, anche considerato che l’analisi multiobiettivo nasce proprio dal voler evitare chela valutazione di un prodotto avvenga in base ad una sola delle sue misure di qualità.

Il secondo passaggio per costruire il MDO consiste pertanto nel definire un legamefunzionale tra le caratteristiche del prodotto. Nel caso più semplice questi è suppostolineare ed assume la forma di una media pesata21

U(u[Y]) = w1u1(Y1) + w2u2(Y2) + ∙ ∙ ∙+ wpup(Yp) (3.4)

L’Equazione 3.4 è estremamente diffusa sia in letteratura che in pratica e può costitui-

20[v. Glossario: MinMax] .21Per convenzione ed in virtù della proprietà di indifferenza rispetto alle trasformazioni monotone, si può

fare in modo che ∑pi=1 wi = 1.

3.4. L’utilità ed il compromesso

3. Il Modello degli Obiettivi 51

re la base da cui si sviluppano approcci più complessi. Tale forma viene supportata daricerche in ambito economico e psicologico [Lan66] e da considerazioni prescrittive edassiomatiche che giudicano convenienti le proprietà di compensazione dell’operazionedi addizione. La stessa struttura si ritrova nelle interpretazioni statistiche di Utilità attesadove i pesi acquistano il significato di probabilità ed anche quando si ricorre ad un’espan-sione in serie per approssimare localmente Funzioni di utilità eventualmente non lineari[DFS+92]. Una delle implicazioni più rilevanti dell’Equazione 3.4 risiede nel fatto che lepreferenze associate ai livelli delle caratteristiche sono supposte additivamente indipen-denti tra loro, ovvero la variazione di utilità che consegue al cambiamento del livello diuna data qualità non dipende da quello delle restanti Yi. Le derivate parziali di U sonoinfatti costanti

∂U∂ui(Yi)

= wi (3.5)

oppure ∂U∂Yi= wi se l’i-esima caratteristica è misurata direttamente in termini di utili-

tà. Lo studio delle derivate della Funzione di utilità affonda le sue radici nella correnteeconomica del Marginalismo, dove l’Equazione 3.5 viene denominata Utilità margina-le: essa fornisce informazioni preziose in fase di ottimizzazione (come condizioni sulpunto stazionario) e per saggiare la sensibilità della soluzione rispetto a variazioni infi-nitesimali dei livelli delle caratteristiche. Essere in grado ex ante di definire i valori delleutilità marginali di (p − 1) caratteristiche e supporre la sussistenza del legame lineare,sono informazioni sufficienti per specificare in modo univoco il MDO . Altri due concettiutili per analizzare qualsiasi Funzione obiettivo sono quelli di Utilità marginale decre-scente e Saggio marginale di sostituzione (SMS). Il primo riflette la convinzione secondocui l’Utilità marginale di una data caratteristica varia a seconda del suo livello, ovvero∂U∂Yi= f (Yi) ed in particolare si trova spesso riscontro di un effetto di saturazione per cui,

oltre una certa soglia, miglioramenti del livello di una qualità hanno ripercussioni semprepiù modeste sull’utilità che le persone gli attribuiscono (a differenza di ciò che avvienein Equazione 3.4). Si definisce invece il Saggio marginale di sostituzione il rapporto trautilità marginali:

SMS =∂U∂Yi

/∂U∂Yj=

wj

wi.

Tale quantità22 rappresenta l’importanza relativa tra due caratteristiche, ma definisce an-che un rapporto di compensazione tra i livelli essendo il saggio al quale un ipoteticodecisore è disposto ad accettare il peggioramento di Yi a fronte del miglioramento di Yj

mantenendo inalterata la percezione di utilità complessiva. La conoscenza di almeno(p− 1) saggi di sostituzione è sufficiente a caratterizzare appieno l’Equazione 3.4.

Lo studio analitico della Funzione di utilità mette anche in risalto l’analogia esistentetra il MDO ed una proposizione logica: ad obiettivi che si sostituiscono perfettamente traloro (operazione di disjunction) si fa corrispondere l’operatore logico OR; se invece essi

22Il concetto di elasticità è prossimo a quello di SMS, ma a differenza di quest’ultimo si considerano varia-zioni percentuali dei livelli delle caratteristiche [Fra98]. Negli studi econometrici le elasticità corrispondonoai coefficienti stimati da un modello lineare se sia la variabile dipendente che quelle indipendenti sonoespresse in logaritmi naturali.

3.4. L’utilità ed il compromesso

3. Il Modello degli Obiettivi 52

Nome Proprietà

I condizioni di contorno U(0, . . . , 0) = 0 U(1, . . . , 1) = 1II monotonicità U(Y1, . . . , Yi , . . . , Yp) ≤ U(Y1, . . . , Y′i , . . . , Yp) sse Yi ≤ Y′iIII continuità U(Y1, . . . , Y′i , . . . , Yp) = limYi→Y′i

U(Y1, . . . , Yi , . . . , Yp)

IV elemento assorbente U(Y1, . . . , 0, . . . , Yp) = 0V idempotenza U(c, . . . , c) = c e c ∈ [0; 1]

Tabella 3.1: Requisiti per una funzione ottimizzanda in un problema multiobiettivo (adattato da [OA93]).

sono complementari e devono essere soddisfatti simultaneamente in un rapporto fissa-to (conjunction), viene utilizzato AND. Spesso le caratteristiche in parte si sostituisconoed in parte si compensano, dando vita a soluzioni più propriamente dette di compro-messo (compromise) [SA98]. Nell’algebra booleana si è soliti rappresentare gli operatoriOR ed AND rispettivamente con addizioni e moltiplicazioni ed anche in ambito decisio-nale approfonditi studi sono stati condotti per trovare idonee controparti alle forme diaggregazione intermedie. Nel cosiddetto approccio assiomatico la scelta viene ristrettadefinendo una serie di requisiti che l’operatore deve soddisfare [Ott92]. Tra quelli ripor-tati in Tabella 3.1 l’elemento assorbente risulta ad esempio necessario in tutte le situazionidove se una caratteristica eccede un certo valore soglia (una performance minima, un costomassimo, . . . ) l’intero prodotto viene giudicato inaccettabile. Tale assioma, non ottem-perato dall’Equazione 3.4 a meno di non abbinarle una funzione indicatrice, è verificatodall’operatore min(Yu) o dalla media geometrica definita come

U(Yu) =

(p

∏i=1

ui(Yi)wi

) 1∑ wi

. (3.6)

Sia la somma algebrica che l’Equazione 3.6 per essere idonee rappresentazioni degliobiettivi necessitano però della verifica di alcune ipotesi ed in particolare di quella cheprende il nome di mutua indipendenza delle preferenze. L’utilità di ciascuna caratteristi-ca non deve dipendere dal livello di quelle rimanenti ovvero, nel caso di due sole qualità,se ad esempio l’alternativa (y1a, y2b) è preferita rispetto a (y1a, y2d) allora (y1c, y2b) devesempre essere preferita ad (y1c, y2d). L’approssimazione è ragionevole in molte tipologiedi problemi, ma anche le eccezioni non mancano [FS98], soprattutto se sono previsti pre-mi o diminuzioni di utilità per l’effetto di sinergie tra le caratteristiche, un’informazionequesta da inserire nel MDO .

E’ interessante osservare che molte delle forme di aggregazione più comuni e dovesussiste la mutua indipendenza delle preferenze, si possono esprimere in modo unificato

Us(Yu) =

(∑

pi=1 wiu(Yi)

s

∑pi=1 wi

) 1s

(3.7)

Per s = 1 si ha la media aritmetica (Eq. 3.4), per s → 0 quella geometrica (Eq. 3.7) e pers → −∞ l’operatore min. I valori intermedi del parametro s consentono di modellarecon continuità le transizioni tra le proprietà di ciascuna forma [SA98]. Le caratteristiche

3.4. L’utilità ed il compromesso

3. Il Modello degli Obiettivi 53

Y1, Y2 complementari trade-off “intermedio” Y1, Y2 complementariU = ∑ wiYi U = ∏ Ywi

i U = min(Yi)s→ 0 s = 1 s→ −∞

Figura 3.9: Contour plot (o mappe di isoutilità o di indifferenza) per tre differenti aggregazioni di dueobiettivi.

di alcune di esse vengono mostrate in Figura 3.9 dove la pendenza delle linee in ciascunpunto equivale al Saggio marginale di sostituzione.

Occorre anche stabilire in modo chiaro la scala con cui si decide di misurare l’Utilitàanche se, per il tipo di inferenza che si desidera fare quando il MDO o il MDS non so-no noti, è sempre vantaggioso ipotizzare che si tratti di una quantità cardinale. In casocontrario non avrebbe infatti neppure senso parlare di varianza dei valori della Funzio-ne obiettivo. La distinzione tra utilità cardinale ed ordinale [Bau58] avviene a livelloteorico a seconda che sia lecito o meno assumere dei livelli di intensità della relazionedi preferenza. Se ad esempio l’Equazione 3.3 è intesa come una razionalizzazione dellepreferenze tale per cui U(YA) ≥ U(YB) se e solo se YA � YB e dove valga la proprietàtransitiva, conduce unicamente ad un ordine delle alternative che non legittima calcolisulle differenze tra le utilità dei prodotti o tra quelle associate a livelli distinti di una datacaratteristica. Ciò si ritrova nelle mappe di indifferenza, composte da fasci di curve chemai si intersecano (come avviene nei grafici di Figura 3.9 in R2). Qualsiasi trasforma-zione monotona modifica i valori assoluti ma, conservando l’ordine, non influisce su talimappe e non varia i saggi marginali di utilità. Quasi tutti i moderni economisti consi-derano concettualmente errato riferirsi ai valori assoluti di U soprattutto nel confrontotra le Funzioni di utilità di diversi individui, ritenendo che somme o medie tra Utili-tà siano operazioni prive di significato nelle scelte sociali. L’uso indiretto dei livelli diUtilità conserva quindi solo una valenza operativa poiché si rende necessario associaread un’utilità ordinale una tra le infinite funzioni di utilità cardinale in grado di rappre-sentarla. L’uso diretto dell’utilità cardinale si è invece visto in più occasioni accettato orespinto dal pensiero economico dominante [Str53] con svariati tentativi di giustificarla,definirla e misurarla [Alc53]. La difficoltà nell’attestarne il livello con precisione sembrainfatti controbilanciata dalla facilità con cui si ammettono diverse intensità di preferenza,condizione di per sé sufficiente all’esistenza di un’Utilità cardinale23.

Il problema di misurazione resta critico poiché, se dal punto di vista operativo è quasi

23Un’altra via che conduce a forme di Utilità cardinale è quella seguita nel metodo dell’utilità attesa divon Neumann-Morgenstern [v. Glossario: MAUT] .

3.4. L’utilità ed il compromesso

3. Il Modello degli Obiettivi 54

irrilevante considerare l’utilità come una proprietà fisica dei beni o una grandezza sog-gettiva, la fase di aggregazione degli approcci più diffusi esige che le grandezze sianomisurate da una scala che attribuisce significato ai valori assoluti di ui(∙) e nei paragrafisuccessivi si ipotizzerà pertanto che U ed u corrispondano a misure di utilità cardinale.

3.5 Funzioni ed Indice di Desiderabilità

L’approccio con le Desiderabilità è uno strumento di ottimizzazione multiobiettivo par-ticolarmente diffuso nelle indagini empiriche mirate al miglioramento delle tecnologie(nelle funzioni di Ricerca e Sviluppo, di Qualità Industriale, . . . ) dove il MDS è ricava-to sulla base di esperimenti [ADS07] [Der94]. Il metodo si articola in due passaggi: siassocia dapprima a ciascuna risposta una Funzione di desiderabilità di(Yi(X)) nel dupli-ce intento di rendere omogenee le scale di misurazione e di riflettere le preferenze deldecisore rispetto ai livelli di ogni qualità. Alleggerendo la notazione sottintendendo ladipendenza da X, si stabilisce che se i livelli dell’i-esima prestazione sono inaccettabiliallora di(Yi) = 0, mentre dove ci si ritiene pienamente soddisfatti si assegna alle rispostedi(Yi) = 1. Per valori intermedi la Funzione di desiderabilità è tanto maggiore quantomigliore è il giudizio sulla qualità del prodotto nella dimensione di Yi , associando unamisura nell’intervallo [0; 1].

Nella seconda fase le Funzioni di desiderabilità vengono aggregate in una quantitàscalare formando il cosiddetto Indice di desiderabilità D(Yi=1...p) che misura la qualitàcomplessiva del prodotto. Il metodo più comune tra quelli proposti24 consiste nell’appli-care una media geometrica pesata

D(d1(Y1), . . . , dp(Yp)) =

(p

∏i=1

(di(Yi))wi

) 1∑ wi

con wi > 0 (3.8)

Questa definizione consente di bilanciare i livelli delle caratteristiche di interesse ed, es-sendo dotata di elemento assorbente, anche una sola caratteristica inaccettabile conferisceal prodotto nel suo complesso una desiderabilità pari a zero. I livelli ottimali dei fattorisono infine ricavati massimizzando l’Equazione 3.8 in χ.

Al metodo originario [Har65] sono susseguite numerose modifiche e varianti: la pro-posta di Derringer e Suich [DS80] è quella che ha suscitato più consensi in virtù di unacostruzione particolarmente semplice e flessibile delle Funzioni di desiderabilità e del-l’interpretazione data ai loro parametri. Le espressioni sono in forma aperta e variano a

24La media geometrica nel caso bivariato può essere intesa come la ricerca del lato del quadrato che haarea equivalente a quella di un rettangolo di dimensioni date (simile analogia vale per l’iperspazo Rp).Alternative a volte prese in considerazione sono la media aritmetica pesata [Der94] e l’operatore min(∙)[KL98]. Quest’ultimo, la cui interpretazione è già stata discussa, si rivela robusto nel caso gli errori deimodelli delle risposte non siano indipendenti [KL00]. Nell’Equazione 3.8 viene inoltre solitamente eliminatol’esponente esterno imponendo convenzionalmente che ∑

pi=1 wi = 1.

3.5. Funzioni ed Indice di Desiderabilità

3. Il Modello degli Obiettivi 55

seconda dell’obiettivo prefissato; per caratteristiche da minimizzare si ha ad esempio

di(Yi) =

1 se Yi < bi(ai−Yiai−bi

)sise bi ≤ Yi ≤ ai

0 se Yi > ai

(3.9)

presentandosi graficamente come mostrato in Figura 3.10. I valori di ai e bi rappresentanole soglie oltre le quali i livelli dell’i-esima caratteristica sono visti rispettivamente comeperfettamente soddisfacenti o assolutamente inaccettabili e l’esponente si stabilisce comevaria la desiderabilità nell’intervallo compreso tra i due limiti. In particolare se si è pariad 1 sussiste un legame lineare tra l’aumento di Yi e la diminuzione di desiderabilità,si > 1 rende la funzione convessa nell’intervallo [ai; bi] premiando i livelli più prossimialla soglia di piena soddisfazione (ed acuendo di fatto l’importanza della caratteristica)e 0 < si < 1 induce l’effetto opposto, assegnando aumenti di di cospicui non appenaoltrepassato il limite di inaccettabilità.

Figura 3.10: Esempio di Funzione di desiderabilità per una caratteristica da minimizzare. La funzione ècontinua (ma non nelle derivate).

Alternative alla proposta di Derringer e Suich discusse in letteratura sono raccoltein Tabella 3.2, ma è chiaro che molte funzioni comprese tra 0 ed 1 potrebbero risulta-re idonee rappresentazioni (funzioni di ripartizione statistiche, appartenenze ad insiemifuzzy [AA09b], desiderabilità generalizzate [DCMM96] [Ste04b] [FGE05], . . . ). Un’accu-rata scelta dei parametri consente a volte di approssimare tra loro queste differenti classidi funzioni, che però conservano punti di forza e di debolezza sia in fase di costruzionee interpretazione che in quella di ottimizzazione. Nel primo caso, rispetto a semplicitàdi costruzione e flessibilità, le formule di Derringer e Suich, che consentono tra l’altro ditrattare casi di avvicinamento asimmetrico al target, sembrano dominare le altre. Tuttaviala presenza di aree estese dove la Funzione obiettivo è piatta e di punti di discontinuitànelle derivate sono fattori che ostacolano applicazione di alcuni algoritmi di ottimizza-

3.5. Funzioni ed Indice di Desiderabilità

3. Il Modello degli Obiettivi 56

LTB STB NTB

Harrington [Har65] exp(− exp(−a− bY)) 1− exp(− exp(−a− bY)) exp(−∣∣∣ Y−T

b

∣∣∣n)

Derringer e Suich[DS80]

0 se y < a(Y−ab−a

)sse a ≤ Y ≤ b

1 se Y > b

1 se y < b(a−Ya−b

)sse b ≤ Y ≤ a

0 se Y > a

0 se y < a1(Y−a1T−a1

)s1se a1 ≤ Y ≤ T

(a2−Ya2−T

)s2se T ≤ Y ≤ a2

0 se Y > a2

Gibb [GCM01](

1+ exp(− Y−a

b

))−1 (1− exp

(− Y−a

b

))−1exp

(

− 12

(Y−T

b

)2)

Le Bailly e Govaerts[GdT05]

Φ(

Y−ab

)1−Φ

(Y−a

b

) √

Φ(

Y−a1b1

) (1−Φ

(Y−a2

b2

))

Tabella 3.2: Alcune classi di Funzioni di desiderabilità per i casi Larger-The-Better (LTB), Smaller-The-Better (STB), Nominal-The-Best (NTB). Le ultime due proposte sono le uniche continue esempre differenziabili. Avendo omesso i pedici, Y è qui l’i-esima risposta, i parametri T , ae b sono definiti a seconda dell’obiettivo e Φ è la Funzione di ripartizione di una Normalestandard (adattato da [dTG05]).

zione25 ed hanno stimolato tentativi mirati a rendere le funzioni sempre differenziabili[DCMM96].

Figura 3.11: La forma delle Funzioni di desiderabilità secondo le definizioni riportate in Tabella 3.2. Lelinee continue mostrano i casi NTB, mentre quelle tratteggiate ed a punti rispettivamenteSTB e LTB.

Una volta scelta una classe di Funzioni di desiderabilità si presenta il problema dicome definire i valori di soglia minima, massima ed i target: una opzione è ricavarli dalletolleranze o specifiche di progetto, che a loro volta si assume riflettano requisiti funzio-nali o bisogni rilevati per gli utilizzatori finali, un’altra è consultare un esperto del settoreoppure fissarli in base ai range o alla distribuzione delle risposte [dTG05]. Quest’ultima

25Complice l’aumento di nonlinearità con il numero p di risposte, molti problemi restano difficili darisolvere per gli algoritmi basati sul gradiente indipendentemente dalle funzioni adottate [OSPHL04].

3.5. Funzioni ed Indice di Desiderabilità

3. Il Modello degli Obiettivi 57

valori interpretazione

1 “soddisfazione ultima”, miglioramenti oltre questa soglia non aggiungono valore0,8 – 1 “eccellente”, distinto miglioramento rispetto alle altre soluzioni0,63 – 0,8 “buono”, leggero miglioramento della qualità industriale0,4 – 0,63 “accettabile”, ma mediocre0,3 – 0,4 “al limite”, (borderline)0 – 0,3 tra “inaccettabile” e “totalmente inaccettabile” 28

Tabella 3.3: Corrispondenza tra valori di desiderabilità e giudizi qualitativi [Har65] [Ste04c] ( cfr. tabelleanaloghe in [RA03] e [v. Glossario: Design for Six Sigma] ).

soluzione, pur rinunciando a parte del contributo informativo potenziale di questi riferi-menti, è semplice ed evita il rischio di rendere il problema infattibile a causa della defini-zione disgiunta delle Funzioni di desiderabilità. Occorre inoltre notare che pur volendoall’occorrenza specificare i parametri s ed i pesi w, sono rare esperienze riportante in let-teratura dove tali quantità sono diverse da 1, insinuando il dubbio se la scelta non sia cosìdifficile o arbitraria da far prevalere il cosiddetto Principio della ragione insufficiente26

[AA02] [FGE05]. Anche in presenza di questi dubbi si può però spesso circoscrivere unsottoinsieme di parametri la cui scelta deve essere particolarmente accorta27 attraversoun’analisi di sensibilità a valle dell’ottimizzazione.

Quando il compito è affidato ad un esperto del settore Tabella 3.3 può aiutare a tra-durre degli obiettivi non formalizzati in desiderabilità fornendo le interpretazioni peralcuni valori di D ed essendo consultabile volendo congiungere una serie di punti asse-gnati in corrispondenza di opportuni valori sulle ascisse (Yi). Quanto agli esponenti, chedovrebbero rispettare forme di consistenza o transitività [Der94], un simile riferimento sipuò invece trovare nella Tabella 3.4 relativa ai modificatori linguistici fuzzy.

Una volta stabilita la struttura dell’Indice di desiderabilità (in termini di classe di di edi criterio d’aggregazione) è possibile, qualora si disponga di una proxy attendibile per D,risalire ai parametri mediante un fit ( cfr. Figura 3.1). Indipendentemente dalla linearità omeno del modello da stimare, il problema è qui nella difficoltà di scindere la componentesoggettiva da misure di valore quali un prezzo, un costo o le previsioni di vendita. Puòal limite accadere che un maggior consenso sul MDO si ottenga unicamente sostituendoil termine “desiderabilità” con quello di “efficacia”. Quest’ultima, espressa come notodal rapporto (output conseguito / output atteso), equivale di fatto ai valori di di e D avendoposto come denominatore 1, ossia considerando come output atteso il livello che rendemassimamente soddisfatti. L’esempio è indicativo di come in presenza del fattore umanoi termini ed il significato loro attribuito acquisti un ruolo determinante. Avvalendosi dei

26Se il decisore non ha ragioni per preferire un attributo ad un altro o se considera tutti i pesi egualmenteprobabili, tale principio invita a considerare parimenti desiderabile ciascuna caratteristica.

27Soprattutto nel caso delle funzioni di Derringer e Suich, non di rado il particolare livello di alcuni limitio esponenti non produce effetti sulle condizioni di ottimo. Ottimizzando l’Equazione 3.8 è infatti irrilevan-te il valore assoluto dei pesi wi , ma conta unicamente quello relativo (ed un discorso analogo vale per gliesponenti s a cui l’effetto dei pesi si sovrappone [FS98]). Si è qui sperimentato come fino alla metà dei para-metri inizialmente specificati sia permesso variare in range molto ampi prima di mostrare ripercussioni sulrisultato dell’ottimizzazione: è il caso dei denominatori delle Funzioni di desiderabilità che non modificanoxopt (non sono attivi) fintanto che non avvengono passaggi da un forma all’altra nell’Equazione 3.9.

3.5. Funzioni ed Indice di Desiderabilità

3. Il Modello degli Obiettivi 58

benefici dimostrati proprio in queste situazioni dai confronti a coppie, una strategia èinfine quella di ricorrere all’integrazione con metodi quali l’AHP per determinare i pesie la forma delle di [MK02], una strada che verrà percorsa nel Paragrafo 4.3.

Senza risolvere i dubbi che possono sorgere durante l’implementazione del metodo[KL98] [JK08] e considerando i parametri come input, diversi pacchetti software di analisistatistica (MINITAB®, JMP®, Design Expert®, R, . . . ) mettono a disposizione degli utentifunzionalità interessanti per il metodo con le Desiderabilità, offrendo ad esempio la possi-bilità di analizzare interattivamente le soluzioni consigliate o ricercarne autonomamentedi nuove, per mezzo di interfacce grafiche come quella mostrata in Figura 3.12.

Figura 3.12: Grafico interattivo al termine dell’ottimizzazione di 4 caratteristiche tramite l’approccio delleDesiderabilità (MINITAB®).

E’ interessante osservare come problemi di ottimizzazione vincolata si possano ri-solvere con il metodo delle Desiderabilità modellando ogni vincolo con una funzionea scalino unitario. La stessa strategia consente di confinare la ricerca delle condizioniottime all’interno della regione di sperimentazione29 o di esprimere in forma chiusa e“virtualmente” differenziabile le forme di Derringer e Suich. In particolare, la propostaqui avanzata, parte dalla definizione dell’approssimazione analitica dello scalino in t conla funzione logistica

dsc(Y, t) =1

1+ e−2k(Y−t)(3.10)

che per valori di k sufficientemente elevati consentirebbe di riscrivere l’Eq. 3.9 come

di(Yi) = 1 ∙ (1− dsc(Y, bi)) +

(ai − Yi

ai − bi

)si

∙ dsc(Y, bi) (1− dsc(Y, ai)) (3.11)

collegando tra loro le forme locali di una funzione definita a tratti, ma non offrndo realibenefici. Specificando invece i parametri k = 2/(ai − bi) e t = (bi + ai)/2 si ottiene la

29Funzioni di desiderabilità di questo tipo agiscono direttamente sui fattori, ovvero di(Xi). Con una tran-sizione meno ripida degli scalini si può anche indurre l’ottimizzazione a prediligere il centro della regionesperimentale, dove i modelli empirici sono solitamente più precisi.

3.5. Funzioni ed Indice di Desiderabilità

3. Il Modello degli Obiettivi 59

migliore approssimazione che può offrire l’Equazione 3.10 di una Funzione di deside-rabilità lineare “spezzata” (Eq. 3.9) e si può definire la Funzione di desiderabilità come

di(Yi) = α ∙ dDSi (Yi) + (1− α) ∙ dsc

i (Yi) (3.12)

Un valore di α = 1 fa corrispondere l’Equazione 3.12 all’espressione di Derringer e Sui-ch, mentre gli α in (0; 1) individuano delle transizioni verso l’approssimazione logistica.L’Equazione 3.12 offre in particolare due vantaggi: in fase di ottimizzazione iniziare ascegliere un valore basso di α aiuta un algoritmo euristico ad individuare più interessan-ti condizioni di partenza. Al contempo essa rappresenta un ragionevole compromessotra l’interpretazione dei parametri di forma delle Funzioni di desiderabilità ed un’osser-vanza più rispettosa degli assiomi della Teoria dell’utilità. Nel caso delle Funzioni didesiderabilità proposte da Derringer e Suich, infatti, la presenza di zone pianeggianti(una qualità tradizionalmente apprezzata) oltre che sconveniente in fase di ottimizzazio-ne contrasta con la teoria dei Saggi marginali decrescenti e contravviene all’assioma dinon sazietà. La ratio di forme come quella in Figura 3.10 dove sotto un certo valore o al disopra di un’altro tutti i livelli di Yi sono indifferenti, è affine al concetto di tolleranza edalle logiche di ingegnerizzazione dei prodotti, ma anche in queste circostanze, è preferibi-le dal punto di vista prescrittivo il comportamento di una di che tenda a 0 ed a 1 in modoasintotico implicando l’esistenza di relazioni di preferenza, per quanto deboli, in tutto ildominio. Queste osservazioni contraddicono quindi le impressioni che forme alternativea quelle di Derringer e Suich siano meno efficaci [DCMM96] [OSPHL04] ed al contemporendono prioritaria la necessità di conciliare le Funzioni di desiderabilità con gli assiomidella Teoria dell’utilità e quella di prestare attenzione ad evitare nelle applicazioni unaverifica sacrificata delle implicazioni teoriche e dell’apprpriatezza delle funzioni scelte.In particolare si deve infine ricordare che:

• le forme tradizionali sono idonee solo se il presupposto la mutua indipendenzadelle preferenze risulta valido30;

• aggregare le desiderabilità con l’operatore min(∙) non produce un omomorfismodella condizione di (Pareto) efficienza ed è buona norma sincerarsi che le caratteri-stiche diverse da quella peggiore siano ai massimi livelli ottenibili (eventualmentesull’esempio di ciò che avviene nell’approccio lessicografico).

Un discorso a parte merita invece lo studio del problema qualora si intenda considerarel’incertezza dei modelli.

3.5.1 L’incertezza nel MDS e nel MDO

Un aspetto a lungo trascurato nell’applicazione del Metodo con le desiderabilità e chesolo di recente ha ottenuto maggior attenzione [Ste99] [Cah02], è il ruolo rivestito dal-l’incertezza sul MDS . L’approccio tradizionale considera infatti note le relazioni da χ aγ impiegando all’interno di funzioni come quelle in Tabella 3.2 i modelli stimati avendo

30In caso contrario occorre ad esempio ipotizzare Funzioni di desiderabilità congiunte del tipo dij(Yi, Yj).

3.5. Funzioni ed Indice di Desiderabilità

3. Il Modello degli Obiettivi 60

posto il contributo dei termini d’errore stocastico pari al proprio valore atteso, cioè zero.Il difetto più rilevante insito in questa procedura, che ignora di fatto ogni forma di incer-tezza e riconduce il problema alla forma MDS – MDO , risiede nell’eventualità di essereindotti in errore in quanto la Funzione obiettivo che si vorrebbe ottimizzare differisce daquella impiegata, ovvero

E[D(d1(Y1(X)), . . . , dp(Yp(X)))

], D

(d1(E[Y1(X)]), . . . , dp(E[Yp(X)])

)(3.13)

Il membro a destra dell’Equazione 3.13 è la forma che viene massimizzata nell’approc-cio tradizionale mentre quello a sinistra è l’obiettivo ritenuto comunemente più correttonella Teoria dell’utilità attesa. In presenza di incertezza esso corrisponde ad una cosid-detta average case analysis e consiste nella ricerca di condizioni operative che “in media”offrono prestazioni superiori rispetto alle altre. Al tempo stesso, immaginando l’esisten-za di un processo stocastico con dei livelli di desiderabilità proporzionali ai benefici o aiprofitti ricavabili dalla vendita dei prodotti, massimizzare E[D(∙)] equivale a ricercare lasoluzione che nel lungo periodo fornisce il valore massimo.

Considerando ingiusto trascurare nel corso dell’ottimizzazione gli errori sperimentalidopo che hanno avuto un ruolo centrale nel corso della costruzione del MDS , diversericerche hanno provato a colmare tale lacuna [Cah02] [GdT05] [Kur05] [LK07]. Prima diconcentrare l’attenzione su di esse occorre però comprendere quando anche l’approcciotradizionale si possa rivelare adeguato (fatto riscontrabile in alcuni casi documentati inletteratura dove l’analisi aggiuntiva non porta in fondo a benefici eclatanti). In primologo i due membri dell’Equazione 3.13 tendono a coincidere non solo quando le varianzedelle stime tendono a zero, ma anche quando si verifica l’ipotesi di indipendenza, con-dizione sufficiente affinché il valore atteso di un prodotto tra variabili aleatorie sia parial prodotto dei rispettivi valori attesi. In Figura 3.13 si vuole mostrare esplicitamente ladistribuzione di probabilità di yi e la sua influenza su quella di di(yi). Una prima con-siderazione che emerge dal grafico è che non è rilevante la riduzione in termini assolutidella varianza di yi, quanto piuttosto quella in rapporto all’ampiezza dell’intervallo trai limiti di specifica. Inoltre la differenza tra di(E[Yi]) ed E[di(Y)] è tanto più trascurabilequanto meno intensa è la trasformazione operata da di sulla forma della distribuzione diprobabilità di Yi. In corrispondenza di intervalli in cui la nonlinearità della Funzione didesiderabilità è maggiore31, ad esempio in prossimità dei valori soglia, le differenze tra ilrisultato del metodo classico e quelli dei nuovi approcci tendono a farsi più sensibili.

Nel caso di una funzione di Derringer e Suich lineare, l’approccio tradizionale com-mette un errore trascurabile solo se la variabilità delle caratteristiche di qualità è ridottae la distribuzione di di(Yi) non diviene troppo asimmetrica. In Figura 3.13 questo è ilcaso della curva in blu, ma non di quella rossa dove la distribuzione di di(Yi) divieneuna normale censurata. La distorsione causata dal metodo classico se le varianze nonsono trascurabili, è diviene critica quando si dovrebbero in realtà preferire soluzioni chepur essendo caratterizzate da valori inferiori di di(E[Y]) si collocano in zone in cui ladesiderabilità media è più alta [LK07].

31Il grado di intensità della curvatura è sempre da valutarsi rispetto alla dispersione di Yi.

3.5. Funzioni ed Indice di Desiderabilità

3. Il Modello degli Obiettivi 61

Figura 3.13: La distribuzione di di(Yi) dipende da quella di Yi e dalla trasformazione subita.

Siccome il calcolo diretto del valore atteso dell’Indice di desiderabilità può risultareun’operazione molto complessa una prima opzione può essere quella di modificare laFunzione obiettivo massimizzando un indice di resa complessiva od una proporzione diconformità, intesa come la probabilità che tutte le risposte si trovino simultaneamenteall’interno dei rispettivi limiti di specifica32. L’inconveniente di questo approccio è chetrascura la forma delle Funzioni di desiderabilità tra le soglie di piena ed assente soddi-sfazione. Per fare di queste informazioni un uso più proficuo e considerare al contempouna possibile varianza non omogenea delle risposte condizionate, si è suggerito [Der94][KL98] un approccio robusto che associ a ciascuna caratteristica di qualità una coppia diFunzioni di desiderabilità, la prima per modellarne il location effect ed una seconda perridurne il dispersion effect. I risultati sono più concordi con quelli ottenuti massimizzandola proporzione di conformità, ma occorre stabilire arbitrariamente dei limiti superiori perle varianze ed, in presenza di Funzioni di desiderabilità asimmetriche rispetto al target, siè dimostrato come la valutazione dei trade off tra valore atteso e dispersione non sempreavvenga correttamente [LK07].

Una terza via prevede l’impiego di una Funzione obiettivo dalla forma intermedia traquelle di Equazione 3.13, ovvero

D(

E[d1(Y1(X))], . . . , E[dp(Yp(X))])

dove i valori attesi delle Funzioni di desiderabilità sono definiti [LK07] come33

E[di(Yi(X))] =∫

di(Yi(X))pi(Yi(X)) dYi (3.14)

32Ci si riferisce in questo caso al Rolled Throughput Yield, [CH01]. Un altro indicatore con simili proprietàè il Capability Index del sistema nel suo complesso (MCpk), calcolato come media geometrica dei CapabilityIndex riferiti alle singole caratteristiche [LK07]. [v. Glossario: Design for Six Sigma] .

33Se le variabili aleatorie sono fra loro indipendenti, si evita l’uso di pesi e l’aggregazione avviene con

3.5. Funzioni ed Indice di Desiderabilità

3. Il Modello degli Obiettivi 62

Nell’Equazione 3.14 con pi(Yi(X)) viene indicata la densità di probabilità di Yi , conmedia e deviazione standard provenienti dai rispettivi modelli per il location ed il di-spersion effect. I vantaggi di questo approccio sono che considera tutte le informazionicontenute nelle Funzioni di desiderabilità assieme alla robustezza del processo, senzaper questo richiedere specifiche sui limiti per le varianze. I punti di debolezza nasconoinvece dal calcolo non immediato dell’integrale: per poche eccezioni si dispone di unaforma analitica [Ste04a], ma più in generale occorre affidarsi all’approssimazione nume-rica data da un software specializzato. Nascono poi problemi quando le distribuzioni didi(Yi(X)) ed Yi(X) sono molto differenti tra loro (ed in particolare la prima può risultarepiù schiacciata, come in Figura 3.13) e si consiglia così in questi casi un quarto approcciomassimizzando Pr(D(y1, . . . , yn) ≥ D∗|x) , assegnato a D∗ un valore fissato [LK07].

Questi approcci alla ricerca della Funzione obiettivo migliore hanno però dei limitied in particolare quello di non fornire statistiche su xopt. Negli approcci deterministici leinformazioni che infatti ci si attende dall’ottimizzazione sono fondamentalmente due: ilivelli ottimali dei fattori (xopt) ed il valore della Funzione obiettivo D(xopt). In presenzadi una componente stocastica per ottenere tali dati occorre comprendere i meccanismi dipropagazione dell’incertezza sui risultati. Anche in questo caso si voglio le risposte alledomande fondamentali:

1. Quali sono le condizioni operative ottimali?I livelli dei fattori xopt devono però tenere conto del fatto che la Funzione obiettivonon è nota con certezza e per questo si cerca di ricavarli ottimizzando E[D(x)] ;

2. Quanto vale la Funzione obiettivo in corrispondenza di xopt?Al valore atteso in corrispondenza di qualsiasi condizione operativa tra cui quel-la ottimale, può essere associata una stima puntuale E[D(x)] e dei limiti per unintervallo di confidenza che quantifichino l’incertezza intorno a E[D(x)] .

Inoltre ci si pone ulteriori interrogativi:

3. Con quanta precisione si conosce xopt? Esistono altre soluzioni equivalenti?Esistono almeno due metodi che conducono alla costruzione di regioni di confi-denza in χ intorno alla posizione di xopt : il primo consiste nel ricercare altri puntiche, con una certa probabilità, potrebbero essere l’ottimo “vero”, mentre il secondoricerca soluzioni a cui corrisponde un valore atteso della Funzione obiettivo nonsignificativamente dissimile da quello di xopt ;

l’operatore prodotto, Eq. 3.14 permette di ricavare E(D(∙)). Infatti sotto tali ipotesi

E[D(d1(Y1(X)), . . . , dp(Yp(X)))] =∫∙ ∙ ∙

∫D(∙)p(D(∙)) dY1 ∙ ∙ ∙ dYp =

=∫

d1(Y1)p(d1(Y1)) dY1 ∙ ∙ ∙∫

dp(Yp)p(dp(Yp)) dYp

E’ possibile al limite anche risalire alla varianza dell’Indice di desiderabilità in modo relativamentesemplice sfruttando un risultato noto sul prodotto tra due variabili aleatorie indipendenti, ovvero [Goo62]

σ2Y1∙Y2

= E[Y21 Y2

1 ]−Y21Y

21 = σ2

Y1σ2

Y2+Y

21σ2

Y2+Y

22σ2

Y1

La distribuzione di E[D(∙)] risulta però poco trattabile per via analitica e le inferenze non sono agevoli.

3.5. Funzioni ed Indice di Desiderabilità

3. Il Modello degli Obiettivi 63

4. Con quanta precisione si può prevedere il valore della Funzione obiettivo in corri-spondenza di date condizioni operative?Oltre alla stima del valore atteso E[D(x)] ed al relativo intervallo di confidenza, si èinteressati ad un intervallo per i valori previsti di D(x) .

Queste esigenze informative si possono soddisfatte in modo più completo seguendo levie proposte nei due paragrafi successivi che illustrano rispettivamente un approccioanalitico ed uno attraverso simulazioni numeriche. In entrambi i casi il riferimento èal metodo con le desiderabilità in cui il MDS è ricavato sperimentalmente, ma gli stessistrumenti sono adatti anche a Funzioni obiettivo di differente forma e quando si vuoleassociare ai pesi ed ai coefficienti del MDO una fonte aleatoria di variabilità.

3.5.2 Il propagarsi dell’incertezza sulla soluzione ottima

L’incertezza può essere analizzata tramite espansioni in serie ed avvalendosi di appros-simazioni asintotiche delle distribuzioni coinvolte [dTG05], ovvero di risultati statisticidisponibili per lo studio delle proprietà di variabili casuali quando la numerosità deicampioni si suppone molto elevata. In tale contesto la convergenza in distribuzione èdefinita come la proprietà che ha una funzione di ripartizione di tendere a coincidere con

un’altra per n→ ∞ (un esempio la tn di Student per cui tn−1d−→ N(0, 1) per n sufficien-

temente grande). Quest’ultima è anche detta “distribuzione limite” con media e varianzapari ai limiti dei primi due momenti della variabile aleatoria di partenza. Il metodo Delta,solitamente adottato per approssimare la varianza di una funzione di variabili aleatorie,può essere qui utile anche per conoscerne il valore atteso [dTG05].

Supposta h una funzione differenziabile di variabili aleatorie, i valori di media evarianza sono approssimabili con serie di Taylor del secondo ordine:

E[h(Y1, Y2, . . . , Yp)] ≈ h(E[Y1], E[Y2], . . . , E[Yp]) +12

p

∑i=1

[∂2h

∂Y2i

V[Yi]

]

+

+p

∑i<j

[∂2h

∂Yi∂YjCov[Yi, Yj]

]

(3.15)

V[h(Y1, Y2, . . . , Yp)] ≈p

∑i=1

[(∂h∂Yi

)2

V[Yi]

]

+ 2p

∑i<j

[(∂h∂Yi

)(∂h∂Yj

)

Cov[Yi, Yj]

]

(3.16)

dove le derivate si intendono valutate in Yi = E[Yi]. L’ipotesi che le risposte condizionatea x siano indipendenti tra loro (Yi|x ⊥⊥ Yj|x) permette di trascurare i termini in cui com-pare la covarianza. Attraverso l’Equazione 3.15 si calcola il valore atteso dell’Indice didesiderabilità nel seguente modo

DN(x) = E[D(x)] = E

[p

∏i=1

(di(Yi))wi |x

]

[p

∏i=1

(di(E[Yi|x]))wi

]

∙ (1+ B(x)) =

= DC(x) ∙ (1+ B(x)) (3.17)

3.5. Funzioni ed Indice di Desiderabilità

3. Il Modello degli Obiettivi 64

dove il termine B(x) corrisponde a

B(x) =12

p

∑i=1

wi(wi − 1)

∂di(Yi)

∂Yi

di(E[Yi|x])

2

+ wi

∂2di(Yi)∂Y2

i

di(E[Yi|x])

∙ V[Yi|x]

(3.18)

Questo nuovo indice equivale dunque a quello classico “corretto” dal termine B(x). So-stituendo alle quantità incognite le stime delle previsioni E(Yi|x) date dal MDS e quelledell’errore associato V(Yi|x) = σ2

εi, le condizioni operative ottimali si ricavano massimiz-

zando l’Equazione 3.17:

xNopt = argmaxχDN(x) = argmaxχ(D

C(1+ B)) (3.19)

Il metodo Delta consente a questo punto di derivare le proprietà asintotiche dellostimatore DN(x) e costruire un intervallo di confidenza per DN(x). Tale metodo asse-risce infatti34 che se θ è un vettore di parametri stimati su n osservazioni da θ per cui√

n(θ− θ)d−→ N(0, Σ) e g è una funzione differenziabile in ogni punto allora

√n(g(θ)−

g(θ))d−→ N(0, ∂g

∂θΣ∂g′

∂θ ).Si può considerare nell’Equazione 3.19 l’incertezza su B(x) trascurabile, se compa-

rata a quella su DC(x) il quale diventa la funzione differenziabile dei parametri stima-ti θ = E(Y|x) = {E(Y1|x), . . . , E(Yp|x)} di valore atteso E(Y|x) e matrice di varianza–covarianza Σ = diag(V(E(Y1|x)), . . . , V(E(Yp|x)). Essendo irrealistico considerare E[D(x)]asintoticamente normale è necessario operare una trasformazione e quella consigliata inletteratura [Cah02] [DLP05] è

logit(

E[D(x)])= ln

(E[D(x)]

1− E[D(x)]

)d−→ N

(logit(E[D(x)]), V

(logit(E[D(x)])

))(3.20)

Tale trasformazione fornisce un supporto (−∞;+∞) ed al tempo stesso garantisce unintervallo di confidenza che risulterà compreso in [0; 1]. I passaggi per ricavare un’ap-prossimazione della varianza a cui si è interessati consistono nell’applicare per tre voltel’Equazione 3.16 ed in particolare:

V(logit(E[D(x)])

)≈

1(

E[D(x)] ∙ (1− E[D(x)]))2 ∙ V[E[D(x)]] (3.21)

doveV[E[D(x)]] ≈

(1+ B(x)

)2∙ V[DC(x)] (3.22)

34Più in generale la versione multivariata [Gre03] afferma che posto θ un vettore (p× 1) di variabili alea-

torie e g(θ) un insieme di J funzioni continue di θ che non dipendono da n, allora√

n(g(θ) − g(θ))d−→

N(0, G(θ)ΣG(θ)′), dove G(θ) è una matrice (J × p) la cui j-esima riga è il vettore di derivate parziali dellaj-esima funzione rispetto a θ′.

3.5. Funzioni ed Indice di Desiderabilità

3. Il Modello degli Obiettivi 65

e

V[DC(x)] ≈p

∑i=1

wi ∙

∂diE(Yi |x)∂E(Yi |x)

di(E(Yi|x))∙ DC(x)

2

∙ V[E(Yi|x)]

(3.23)

L’intervallo asintotico di confidenza al (1− α)100% per logit(E[D(x)]) risulta infine essere

logit(E[D(x)])± z1−α/2

√V(logit(E[D(x)])

)(3.24)

e quello per DN(x) viene dato dalla trasformazione inversa

elogit(DN(x))±z1−α/2

√V[logit(DN(x))]

1+ elogit(DN(x))±z1−α/2

√V[logit(DN(x))]

(3.25)

I limiti dell’intervallo non saranno necessariamente simmetrici e potranno essere calcolatiper qualunque soluzione in χ per quantificare l’incertezza intorno alla stima di DN(x).

All’interno del domino χ si può individuare anche quella che è definita l’optimumequivalence zone (più semplicemente Equivalence Zone o EZ) ovvero l’insieme delle con-dizioni operative che, in base ai modelli di cui si dispone, forniscono prestazioni nonstatisticamente differenti da quelle di xN

opt e per i quali si è portati a non rifiutare l’ipotesiE[DN(x)] = E[DN(xN

opt)]. La statistica è costruita a partire dalla differenza in logaritmi

ΔD(x, xNopt) = ln(E[D(x)])− ln(E[D(xN

opt)]) (3.26)

la cui distribuzione è ritenuta più simile ad una normale rispetto a quella di una differen-za tra logit [Cah02]

ΔD(x, xNopt)

d−→ N(

ΔD(x, xNopt), V(ΔD(x, xN

opt)))

(3.27)

Un sottoinsieme di χ che si può asserire con una confidenza del (1− α)100% contengacondizioni operative ugualmente ottime viene pertanto definito da [dTG05]

EZ ≡{

x ∈ χ : 0 ∈[

ΔD(x, xNopt)± z1−α/2

√V(ΔD(x, xN

opt))

]}

(3.28)

La stima della varianza che occorre per calcolare i limiti dell’insieme è quella di

V(ΔD(x, xNopt)) = V

(ln(E[D(x)])

)+ V

(ln(E[D(xN

opt)]))

− 2Cov(

ln(E[D(x)]), ln(E[D(xNopt)])

)(3.29)

Le due varianze presenti nell’Equazione 3.29 possono essere ricavate in modo simile aquanto fatto nell’Equazione 3.21 e ad esempio vale che

V[ln(E[D(x)])] ≈V[E[D(x)]]

E[D(x)]2(3.30)

3.5. Funzioni ed Indice di Desiderabilità

3. Il Modello degli Obiettivi 66

E’ anche opportuno pervenire ad un’approssimazione del termine di covarianza che quinon può essere trascurato. Essa è data da

Cov[ln(E[D(x)]), ln(E[D(xN

opt)])]≈

1+ B(x)

E[D(x)]Cov

[DC(x), DC(xN

opt)] 1+ B(xN

opt)

E[D(xNopt)]

(3.31)

dove

Cov[

DC(x), DC(xNopt)]≈

p

∑i=1

wi ∙

∂di(E(Yi |x))∂E(Yi |x)

di(E(Yi|x))∙ DC(x)

∙ Cov[

E(Yi|x), E(Yi|xNopt)]∙

wi ∙

∂di(E(Yi |xNopt))

∂E(Yi |xNopt)

di(E(Yi|xNopt))

∙ DC(xNopt)

(3.32)

Si ha infine Cov[

E(Yi|x), E(Yi|xNopt)]= σ2

i z′(Z′Z)−1zNopt nel caso dei modelli di regressione

lineare. Queste stime possono essere utilizzate per caratterizzare l’insieme definito nel-l’Equazione 3.28, verificare se un dato punto x vi appartiene o meno e circoscrivere deilimiti in χ attraverso un processo di campionamento.

La complessità nell’implementare questo metodo dipende dal numero di variabilialeatorie coinvolte (le risposte fornite dai modelli stimati ed i possibili parametri aggiun-tivi), dal numero di fattori e dalla forma delle funzioni, per le quali è comunque richiestala derivabilità in ogni punto. Il calcolo di derivate numeriche semplifica in parte la pro-cedura, ma la rende meno precisa [Gre03]. I risultati ottenuti sono comunque piuttostoattendibili nonostante l’aver approssimato le distribuzioni esatte con quelle asintotichee le medie e le varianze con le loro espansioni in serie. Alcuni confronti mostrano chesia i valori attesi che i limiti sono molto vicini a quelli ottenibili a seguito di simulazioniintensive [dTG05] [DLP05]. E’ comunque cruciale che, se si suppone normale una distri-buzione limite, tale ipotesi non sia in aperto contrasto con la forma assunta in campionifiniti: se si utilizzano altre Funzioni obiettivo la convenienza delle trasformazioni logit(∙)e ln(∙) dovrebbe dunque sempre essere sottoposta ad una scrupolosa verifica.

3.5.3 L’approccio con simulazioni

La simulazione come strumento per studiare la propagazione dell’incertezza nel metodocon le desiderabilità viene già ipotizzata in [Der94] per approssimare i quantili dell’Indicedi desiderabilità, avendo riconosciuto la presenza di eventuali fonti di incertezza sia neimodelli delle risposte che nelle Funzioni di desiderabilità e riconducendo in particolarequest’ultima al caso di più persone chiamate a definirne la forma.

Se da un lato gli approcci numerici consentono di ricavare la distribuzione di funzio-ni anche molto complesse delle variabili aleatorie, tanto più vicine a quelle asintotichequanto maggiore il numero di iterazioni, il loro limite più evidente consiste nelle capa-cità allocative necessarie a conservare in memoria le ingenti quantità di dati prodotti edin quelle computazionali per generarli ed elaborarli. La curva di sviluppo delle tecnolo-

3.5. Funzioni ed Indice di Desiderabilità

3. Il Modello degli Obiettivi 67

gie porta a prevedere un costo marginale decrescente di tali risorse ed un rilassamentodei vincoli sulle prestazioni, ma ciò potrebbe non bastare per via della dimensione dellasimulazione che cresce esponenzialmente con k e linearmente con p.

Le procedure incontrate in letteratura e qui discusse ipotizzano, per ciascuna carat-teristica di qualità, di un modello composto da una componente deterministica ed unastocastica del tipo Yi = f (X)+ ε i con ε i N(0, σε i). Questi viene considerato il modello “ve-ro” e cioè quello che determina la i-esima risposta e da cui derivano i dati osservati in unpiano sperimentale. In [dTG05] per verificare l’adeguatezza dell’intervallo di confiden-za sui valori attesi dell’Indice di desiderabilità, viene eseguita la seguente simulazione(S = 10 000):

S volte {. con i modelli Yi = f (X) + ε i simulare le risposte dei ppiani sperimentali

. eseguire su essi il fit per ogni modello f si=1...p(X)

in ogni punto x0 in χ {. calcolare e conservare il valore di D( f s

i=1...p(x0))

}}

(sim-1)

L’Indice di desiderabilità viene calcolato mediante l’Equazione 3.17 ritenuta una buo-na stima di E[D(x)]; al termine della simulazione si dispone, in ogni punto del domi-nio, di una distribuzione empirica (composta da S rilevazioni35 comprese nell’inteval-lo [0; 1]) e la validazione dell’intervallo di confidenza calcolato con L’Equazione 3.25avviene mediante il confronto dei quantili di queste distribuzioni empiriche.

Una seconda simulazione [dTG05] consente, una volta note le condizioni operativeottimali xopt, di verificare l’adeguatezza dell’optimum equivalence zone analitica (Eq. 3.28):

S volte {. con i modelli Yi = f (X) + ε i simulare le risposte dei ppiani sperimentali

. eseguire su essi il fit per ogni modello f si=1...p(x)

in ogni punto x0 in χ {. calcolare e conservare il valore

di D( f si=1...p(x0))− D( f s

i=1...p(xopt))

}}

(sim-2)

Anche in questo caso, al termine della procedura, ad ogni punto del dominio è asso-ciata la distribuzione di S osservazioni della quantità aleatoria D(x) − D(xopt) e quelletra loro che contengono il valore 0 tra i quantili (α/2) e (1 − α/2) corrispondono allesoluzioni appartenenti all’optimum equivalence zone.

Una simulazione può rappresentare anche un metodo efficace per pervenire ad un in-

35A titolo di esempio, ipotizzando costante e pari a δ il numero di intervalli in cui viene suddiviso ilrange di ciascun fattore, i dati che in questo caso occorre conservare ed analizzare sono S ∙ δk , per i quali sidovranno valutare S ∙ δk ∙ p Funzioni di desiderabilità.

3.5. Funzioni ed Indice di Desiderabilità

3. Il Modello degli Obiettivi 68

tervallo di previsione sul valore dell’Indice di desiderabilità in date condizioni operative.Sebbene infatti si possano reperire limiti costruiti per via analitica nel caso di particolarifunzioni di desiderabilità [TW06] [GdT05], per le forme più generali l’approccio nume-rico si rivela la via più agevole. A differenza delle prime due procedure non è inoltrenecessario esplorare tutto χ, ma è sufficiente simulare ad ogni iterazione i valori di prisposte Yi|x e calcolare con esse l’Indice di desiderabilità36.

S volte {. simulare i valori di Ys

i=1...p|x0 dalle rispettive

distribuzioni teoriche

. calcolare e conservare il valore di D(Ysi=1...p|x0)

}

(sim-3)

L’agoritmo fornisce nelle condizioni operative inizialmente specificate (tipicamentex0 = xopt) la distribuzione empirica dai cui quantili si ricavano i limiti dell’intervallo diprevisione per D(∙).

La finalità originaria delle due simulazioni che seguono [Ste04a, Ste04c], è quella dimostrare come il fatto di considerare deterministica la Funzione obiettivo quando in real-tà i modelli che legano risposte e fattori sono empirici, possa condurre a risultati fuor-vianti. Ad ogni iterazione viene eseguita l’ottimizzazione di un Indice di desiderabilitàcalcolato nel modo classico senza termini di correzione e, poiché tale Funzione obiettivovaria a seconda delle stime dei parametri nei modelli Yi=1...p, ciò conduce a condizionioperative ottime leggermente differenti.

S volte {. con i modelli Yi = f (X) + ε i simulare le risposte dei ppiani sperimentali

. eseguire su essi il fit per ogni modello f si=1...p(x)

. conservare il livelli ottimali dei fattori

xopt = argmaxχDI( f si=1...p(x))

}

(sim-4)

Al termine della simulazione si dispone di una distribuzione empirica (k-dimensionale)delle condizioni operative ottime. Inserendo ciascuna di esse nei modelli Yi = f (X) sipuò infine ricavare il valore del “vero” Indice di desiderabilità, dimostrando ad esempiocome nell’applicazione presentata in [DS80], vi sia un numero non trascurabile di casi(circa il 5%) in cui la soluzione del problema offre una desiderabilità complessiva pari azero e realizza cioè un prodotto inaccettabile. Per comprendere appieno la criticità di que-sto risultato è importante prestare attenzione alla distinzione tra una percentuale di pro-dotti realizzati con almeno una caratteristica inaccettabile (eventualità ammissibile in unprocesso in controllo stocastico) e la scelta di condizioni operative che si crede realizzinoprodotti soddisfacenti, ma in realtà ad esse corrisponde una desiderabilità nulla.

36Poiché Yi−Yi√σ2

εi(1+x′(X′X)−1x)

∼ t(ni − qi) il valore simulato di una risposta in x0 può essere dato da Ysi =

Yi + tϕ

√σ2

ε i(1+ x′(X′X)−1x) dove ϕ ∼ U(0, 1).

3.5. Funzioni ed Indice di Desiderabilità

3. Il Modello degli Obiettivi 69

Nell’ipotesi di aver individuato xopt con il metodo tradizionale, una simulazione ap-parentemente simile a (sim-1) segue l’algoritmo:

S volte {. con i modelli Yi = f (X) + ε i simulare le risposte dei ppiani sperimentali

. eseguire su essi il fit per ogni modello f si=1...p(x)

. calcolare e conservare il valore di DI( f si=1...p(xopt))

}

(sim-5)

Se l’Indice di desiderabilità è calcolato senza correzioni [Ste04c], si avrà così per risultatola distribuzione di una variabile aleatoria che stima E[D(∙)] in modo distorto.

3.6 Gli approcci fuzzy

La logica fuzzy è una logica multivalore (o polivalente) sviluppatasi a seguito dell’intro-duzione da parte di Zadeh [Zad65] della teoria degli insiemi fuzzy. Si sostituisce allacondizione dicotomica di verità della logica booleana, una funzione di appartenenza adun insieme (membership function) per indicare il grado in cui un dato elemento ne fa parte.Tale appartenenza è tipicamente rappresentata da una funzione continua che ha valoreminimo in zero, per elementi che con certezza non appartengono all’insieme e massimoin uno, nel caso di elementi che sicuramente vi appartengono. I valori intermedi dellamembership function qualificano membri per i quali la condizione di appartenenza può ri-sultare contemporaneamente parzialmente vera e parzialmente falsa. Questo approccioconsente di trattare in modo formale informazioni imprecise e benché in virtù di ciò lalogica fuzzy abbia incontrato un discreto successo in diverse applicazioni di automazio-ne, data mining ed intelligenza artificiale, il suo uso è spesso oggetto di controversie. Imaggiori pregi sono quelli di poter modellare asserzioni e concetti vaghi, tipici per certiversi dell’esperienza umana e simili a quelli incontrati nel linguaggio naturale o anche disintetizzare la dinamica di sistemi complessi con poche regole logiche, il tutto all’internodi un framework di analisi definito e matematicamente rigoroso. Al tempo stesso l’impie-go di questi strumenti e di un’incertezza differente da quella di natura probabilistica37,può portare a degli eccessi: di soggettività, per via di funzioni o regole difficili da verifi-care e validare, di incertezza sui risultati finali, i quali se troppo vaghi perdono di utilità,di utilizzo, in quanto virtualmente ogni elemento di un problema è accompagnato da uncerto grado di incertezza ed infine di risorse computazionali necessarie a volte anche soloper svolgere semplici operazioni.

37L’affermazione può essere riconsiderata a seconda delle interpretazioni date ai concetti di probabilità edi grado di appartenenza (anche grado di verità o possibilità). Sono state osservate sovrapposizioni tra idue strumenti [BZ70], ma l’incertezza di natura fuzzy (anche imprecisione o vaghezza) viene in particolarericondotta a tre categorie [MJ04] [TS06]: ontologica, linguistica ed epistemologica. Quella ontologica siriferisce alla natura fisica degli oggetti mentre quella linguistica insorge a causa dei limiti del linguaggionaturale. La vaghezza epistemologica è infine causata da limiti sensoriali, dalla mancanza di conoscenza oda incomplete capacità computazionali. Tutte queste incertezze sono comuni nei giudizi soggettivi [TS06].

3.6. Gli approcci fuzzy

3. Il Modello degli Obiettivi 70

Nei problemi qui considerati, la logica fuzzy può intervenire nella costruzione del M DOprincipalmente in tre modi:

1. rappresentandolo tramite un’operazione logica che coinvolge le caratteristiche diinteresse dei prodotti;

2. costruendo con esse un sistema di inferenza formato da regole logiche;

3. integrandosi ad altri metodi per descrivere misure e valori imprecisi.

Prima di entrare in maggior dettaglio occorre sintetizzare alcuni concetti di caratteregenerale. Dato un insieme fuzzy A il grado di appartenenza di una variabile viene sta-bilito da una funzione μA(x) ∈ [0; 1] come indicato negli esempi di Figura 3.14; quantitàcritiche di tali funzioni sono il supporto, ovvero l’insieme di elementi con grado di ap-partenenza diverso da zero, il core ovvero quello di coloro con grado pari ad 1 e gli α-cut,cioè gli insiemi di elementi del supporto con grado almeno pari ad un valore α.

Figura 3.14: Nel quadro a sinistra è rappresentata una forma trapezoidale di appartenenza ad un insiemefuzzy. Alcune classi parametriche alternative [AA09b] sono mostrate nei grafici a destra, tracui funzioni triangolari spesso rappresentative di numeri fuzzy.

Al dominio di μ(x) può essere associato un significato semantico definendo così unaVariabile fuzzy (sia ad esempio “dimensione”) e gli insiemi che si costruiscono su diesso prendono il nome di Valori fuzzy (“piccolo”, “medio”, “grande”, . . . ). Quest’ulti-ma attività viene detta di granulazione (in contrapposizione alla quantizzazione operatada insiemi non-fuzzy o crisp) e consiste nel suddividere il dominio, anche detto univer-se of discourse della variabile, facendo sì che al variare di x l’appartenenza ad un datoinsieme diminuisca ed aumenti quella ad un’altro. Le operazioni di unione ed inter-sezione tra insiemi fuzzy, così come la negazione, non sono definite in modo univocoe la scelta dipende da quale forma meglio si adatta al problema o su quali proprietàsi desidera fare affidamento [AA09b] [BH03]: due soluzioni diffuse sono la Min/Max-norm e la Product/Bounded Sum-norm [BZ70] mostrate in Figura 3.15. Nella prima colon-na a destra le aree ombreggiate mostrano il risultato di unioni ed intersezioni ottenutecon le espressioni inizialmente proposte da Zadeh (Min/Max-norm), ovvero μA∧B(x) ,min{μA(x), μB(x)} e μA∨B(x) , max{μA(x), μB(x)}. Nell’ultima colonna si notano in-vece le differenze con una definizione alternativa di tali operatori (Product/Bounded Sum-

3.6. Gli approcci fuzzy

3. Il Modello degli Obiettivi 71

hedge espressione matematica

very very (μA(y))4

extremely (μA(y))3

very (μA(y))2

a little (μA(y))1,7

more or less / somewhat√

μA(y)slightly (μA(y))1/3

Tabella 3.4: Espressione di modificatori linguistici fuzzy (anche noti come fuzzy hedges) [KKJ05] [Zad72].

norm), ovvero μA∧B(x) , μA(x) ∙ μB(x) e μA∨B(x) , μA(x) + μB(x)− μA(x) ∙ μB(x). Inambedue i casi la negazione è espressa dal complemento μ¬A(x) = 1− μA. Un molte-plicità di operatori alternativi, formalizzati attraverso i concetti di T-norm (per indicareunioni o congiunzioni) ed S-norm (o T-conorm per intersezioni o disgiunzioni), è statapresentata ed analizzata nella letteratura specializzata [SA98] [Luo01].

Figura 3.15: Confronto tra operatori hard (Min/Max-norm) e soft (Product/Bounded Sum-norm) applicatiai due insiemi fuzzy A e B del riquadro a sinistra.

Anteponendo avverbi (quali “molto”, “abbastanza”, “decisamente”, “appena”, . . . )ai Valori fuzzy se ne varia in qualche misura il significato e tali sfumature sono rappre-sentate mediante trasformazioni matematiche applicate alle funzioni di appartenenza.E’ infatti riconosciuta un’equivalenza tra un’affermazione del tipo “y è molto A” ed “yè A è molto vero” [Zad72]. Come tradurre un avverbio in un’operazione matematica èun’altra scelta che dipende dall’implementazione e dal contesto. In Tabella 3.4 vengonomostrate alcune potenziali formulazioni: gli esponenti maggiori dell’unità hanno l’effet-to di concentrare una funzione di appartenenza, mentre quelli minori di diluirla (esisteanche la possibilità di intensificarla, ovvero diluirla in prossimità dei massimi gradi diappartenenza e concentrala verso quelli minimi).

Gli elementi sin qui riportati sono sufficienti ad illustrare un primo metodo di co-struzione del MDO e che consiste essenzialmente dapprima nell’associare a ciascunacaratteristica Yi una funzione di appartenenza ad un insieme come ad esempio “il livellodi Yi è soddisfacente” e successivamente nel definirne uno nuovo attraverso un’operazio-

3.6. Gli approcci fuzzy

3. Il Modello degli Obiettivi 72

ne logica (tipicamente AND). L’ottimizzazione consiste poi nella ricerca delle condizionioperative xopt che realizzano il prodotto che con massimo grado appartiene al nuovoinsieme (anche detto insieme Decisione). Come nell’approccio con le Desiderabilità, an-che in quello fuzzy obiettivi e vincoli vengono trattati allo stesso modo [BZ70] ed i dueapprocci si equivalgono [KL98] quando le funzioni di appartenenza μi(∙) = di(∙) sonoriferite ad insiemi D(i) ≡ “la caratteristica i-esima è ad un livello desiderabile” e la lorointersezione è costruita con l’operatore prodotto:

μD(1)∧D(2)∧∙∙∙∧D(p) =p

∏i=1

di(Yi(X)) (3.33)

La differenza rispetto all’approccio con le desiderabilità risiede dunque più nell’interpre-tazione data che non nella procedura di implementazione: l’Equazione 3.33 non attestaun livello di desiderabilità come l’Equazione 3.8, bensì il grado di appartenenza (o lapossibilità di appartenenza) di un elemento ad un insieme; non vi sono riferimenti al-l’incertezza nel contesto delle Funzioni di desiderabilità classiche, mentre essa è centralenell’approccio fuzzy ed alla base stessa delle definizioni insiemistiche. L’operazione diaggregazione è infine in questo caso una condizione logica prima che una relazione arit-metica e si può specificare in qualunque modo si ritenga più appropriato una volta defini-te forme analitiche per AND ed OR. La ricerca della forma migliore ha suscitato notevoledibattito poiché molti tipi di medie potrebbero prestarsi allo scopo (tra cui quelle armo-niche, geometriche, aritmetiche, quadratiche, . . . [DF66]), ma anche negli approcci fuzzy,in contesti industriali, si tendono spesso a prediligere le proprietà di quella geometrica odell’operatore min(∙) [TYAT99].

Si può intendere il secondo metodo per formulare un MDO come un’estensione delprecedente e consiste in un sistema di inferenza fuzzy (Fuzzy inference system, FIS), ovverouno strumento con cui rappresentare ragionamenti imprecisi. Si valutano una serie diregole del tipo

SE <premessa> ALLORA <conseguenza>

dove la premessa è un’operazione logica tra insiemi fuzzy e si realizza un’inferenza logi-ca nello schema definito modus ponens generalizzato [AA09b] [BH03]. Le due modalità divalutazione più diffuse sono i sistemi di inferenza di Mamdani e quelli di Takagi-Sugeno:nel primo caso la conseguenza è a sua volta un insieme fuzzy, mentre nel secondo unafunzione reale38. La procedura attuata nei sistemi di Mamdani è schematizzata in Fi-gura 3.16: il processo ha inizio con una fase di fuzzificazione degli input ed applicandole operazioni logiche di cui si compone ciascuna premessa sui gradi di appartenenza, sicalcola il grado di pertinenza della relativa regola. Detto in altri termini, a seconda del-le relazioni logiche espresse nelle premesse, si giunge al grado con cui ognuna di esserisulta vera per i dati in ingresso. L’inferenza prosegue in una seconda fase deducendoin modo analogo il grado di verità delle conseguenze ed infine aggregandole tra loro. Ilrisultato è un insieme fuzzy che può all’occorrenza essere convertito in una quantità sca-

38Trattasi in tal caso di una funzione tipicamente di grado piuttosto basso delle variabili in ingresso (quidelle caratteristiche di qualità).

3.6. Gli approcci fuzzy

3. Il Modello degli Obiettivi 73

lare (defuzzificato) calcolando ad esempio la posizione del suo baricentro (o centroide).Queste coordinate non sempre sono agevoli da individuare poiché richiedono il compu-

to dell’integrale u0 =∫

uμC(u)du∫μC(u)du

, ma esistono formule alternative in grado di offrirne in

modo rapido ragionevoli approssimazioni.In un sistema inferenziale nella versione di Takagi-Sugeno l’output finale dell’infe-

renza è invece già un valore reale, corrispondente ad una media pesata delle funzionispecificate in ciascuna conseguenza. Più una premessa risulta vera per i dati in ingresso,più la sua conseguenza predomina sulle altre, producendo l’effetto di una transizione

graduale da una forma all’altra secondo la relazione u0 =∑ μRi

fi(Y1,...,Yp)

∑ μRi.

Figura 3.16: Nell’esempio vi sono due caratteristiche di interesse da minimizzare e due regole, R1: [se Y1è Bassa e Y2 è Bassa allora il prodotto è Buono] ed R2: [se Y1 è Media e Y2 è Media allora ilprodotto è Mediocre]. I valori in ingresso vengono inizialmente fuzzificati valutando quantoessi appartengano agli insiemi [Yi Alta] ed [Yi Media]; da ciò dipende quanto è pertinenteciascuna regola (qui è applicata la Min/Max-Norm). Al grado di verità delle premesse cor-risponde quello delle conseguenze da cui, una volta unite tra loro (operazione Max), si puòricavare un output defuzzificato come ascissa del baricentro.

In Figura 3.16 è riportato un semplice esempio dell’applicazione di un sistema diinferenza di tipo Mamdani, un strumento che verrà anche adoperato nel caso discussonel capitolo successivo. Tabella 3.5 offre invece un riferimento, tra i molti in letteratura,per semplificare la granulazione delle variabili con le forme comunemente date ai valorilinguistici di alcuni giudizi sulla qualità complessiva dei prodotti [BH03].

Per quanto riguarda la possibilità di validazione, va osservato che le funzioni di ap-partenenza dipendono intrinsecamente dal contesto (la “grandezza” di un elemento hasignificato solo in relazione a ciò con cui lo si confronta) nonché dalla sensibilità di chiha il compito di specificarle. Per il loro uso e la loro costruzione si opera in due direzioniopposte: l’esemplificazione (dalle caratteristiche generali ai casi particolari) e l’astrazione(dagli esempi ad una regola generale) [BZ70]. Esistono diversi algoritmi per validare, mo-

3.6. Gli approcci fuzzy

3. Il Modello degli Obiettivi 74

Opinione μ(u)

Very Poor (VP) (0, 0, 0.1, 0.2)Poor (P) (0.1, 0.2, 0.2, 0.3)Medium Poor (MP) (0.2, 0.3, 0.4, 0.5)Fair (F) (0.4, 0.5, 0.5, 0.6)Medium Good (MG) (0.5, 0.6, 0.7, 0.8)Good (G) (0.7, 0.8, 0.8, 0.9)Very Good (VG) (0.8, 0.9, 1.0, 1.0)

Tabella 3.5: Proposta di granulazione dei giudizi espressi in un sistema di inferenza impiegando funzionidi appartenenza di forma trapezoidale (eventualmente degeneri in triangoli) [WY98] [KKJ05].

dificare o costruire ex novo insiemi e regole fuzzy a partire ad una serie di dati osservati.Tali algoritmi, definiti di apprendimento o di estrazione di conoscenza, sono prevalen-temente di tipo euristico e mirano a minimizzare un qualche criterio di discordanza trale quantità osservate e le previsioni fornite dal modello: una strategia può essere quelladi aggiungere degli insiemi o regole o rimuovere quelli in eccesso, modificare i parame-tri di forma, appoggiarsi ad algoritmi di training per le reti neurali o interagire con unesperto del settore alla ricerca di una configurazione che offra al tempo stesso un’inter-pretazione significativa ed un buon fit [AA09b] [BH03]. La condizione necessaria perapplicare questi algoritmi resta il fatto che l’output del sistema sia osservabile e diretta-mente misurabile. Inoltre diviene spesso difficile trattare in modo analitico situazionidove intervengono sia insiemi fuzzy che incertezze di natura stocastica. Quando gli in-put di un sistema di inferenza sono quantità aleatorie, come avverrebbe per un MDS nonnoto, la strada preferita è tipicamente quella di condurre una serie di simulazioni: in talmodo le funzioni di appartenenza corrispondono ad esempio ad una serie di valori attesio medie delle curve ricavate in ciascun run [BZ70].

La terza modalità di intervento a cui si è fatto riferimento consiste nell’impiego dinumeri fuzzy all’interno di altri approcci multiobiettivo per rappresentare parametri dalvalore vago. Senza scendere qui in dettaglio è bene rammentare che l’appropriatezzadi tale pratica è spesso controversa e che lo svolgimento dei calcoli (non sempre agevole)può avere qualche utilità a condizione che il numero di operazioni si mantenga contenuto(come discusso in Appendice B.4 pag. 178).

In conclusione, malgrado i limiti spesso rilevati, applicazioni in cui la logica fuzzy sidimostra uno strumento efficace vengono documentate in diversi ambiti [CF96] ed essarisulta diffusa in alcuni settori industriali soprattutto per governare particolari tipologiedi controlli automatici [AA09b]. In ambito decisionale si deve comunque riconoscerle ilmerito di far risaltare la natura logica del MDO come proposizione che riflette gli intentidel decisore e quello di fornirgli i mezzi per modellare obiettivi e misurazioni quandoquesti sono vaghi.

3.6. Gli approcci fuzzy

3. Il Modello degli Obiettivi 75

3.7 L’Analytical Hierarchy Process

Il metodo AHP consiste in un approccio sistematico per rappresentare gli elementi di unproblema che viene scomposto per assegnar loro misure di priorità attraverso una seriedi confronti a coppie. Da un lato la popolarità del metodo, soprattutto in ambito deci-sionale e dall’altro le numerose controversie circa le procedure impiegate ed i risultati acui conduce, hanno dato origine a numerose varianti dell’approccio originariamente svi-luppato da Saaty [Saa90]. Classificarle ed elencare la ragion d’essere di ciascuna, esuladagli obiettivi qui prefissati e ci si limiterà ad offrire una breve panoramica della versio-ne standard (tuttora la più diffusa) approfondendo un ristretto numero di aspetti che siavvertono come particolarmente critici.

I tre pilastri su cui poggia il metodo e che giocano un ruolo sequenziale nella suaapplicazione sono:

1. decomposition/modelization: il problema viene scomposto, se ne individuano gli ele-menti distintivi e li si dispone in una gerarchia che procede da una visione piùgenerale ad una più particolareggiata;

2. comparative judgements/valuation: si crea una matrice che contiene i giudizi circa igradi di importanza relativa che scaturiscono dal confronto a coppie tra gli elementidi uno stesso livello rispetto ad un dato criterio posto nel livello sovrastante e daessa si estrae un livello di priorità locale per ciascun elemento;

3. synthesis of priorities: le priorità globali sono ottenute aggregando le priorità lo-cali, tipicamente mediante la sommatoria dei prodotti tra quelle che compaionoin un dato livello e quelle dei criteri corrispondenti (detti di controllo) nel livellosuperiore.

Figura 3.17: Il problema viene organizzato all’interno di una gerarchia che incorpora obiettivi (anchedenominati criteri) ed alternative. Il nodo al vertice rappresenta l’obiettivo generale nellaforma più aggregata (e può esservi inserita una sintesi descrittiva del problema).

Analizzando più in dettaglio questi passaggi il problema viene dapprima modellatoall’interno di una gerarchia come in Figura 3.17 dove la costruzione parte in genere dalbasso con delle alternative39, inserendo nei livelli più alti i criteri di giudizio a seconda

39L’AHP nasce con l’obiettivo di valutare un numero discreto di alternative e gli output dell’approcciosono dunque un ordine e delle distanze (anche importanze cardinali, priorità o pesi) rispetto ad un insiemefinito di opzioni. Sebbene sia possibile valutare insiemi infiniti (numerabili) di alternative, ci si limiterà per

3.7. L’Analytical Hierarchy Process

3. Il Modello degli Obiettivi 76

aij significato

1 eguale importanza3 importanza moderata di i rispetto a j5 forte o sostanziale maggior importanza7 importanza molto forte o dimostrata9 importanza estrema

2, 4, 6, 8 valori intermedi1/2, 1/3, . . . , 1/9 reciproci utilizzati per i confronti inversi, quando cioè j è più importante di i

Tabella 3.6: La scala fondamentale del metodo AHP fissa corrispondenze tra valori numerici ed equiva-lenti linguistici. Sono stati ammessi anche valori ad un decimale tra 1 e 2 per considerare conmaggior precisione scarti di importanza più modesti [Saa90].

dei rapporti logico-gerarchici che si ritiene sussistano tra di loro: se il giudizio su un datoelemento dipende da un criterio, le rispettive celle sono collegate da un segmento.

Nei metodi che prevedono la scomposizione del problema in forma gerarchica (neidiagrammi fishbone come nell’AHP [FS01]) una domanda pertinente è quanto dettagliatadebba essere l’analisi o la suddivisione. Esperienze condotte nello studio della consisten-za nel tempo dei processo decisionali (anche replicabilità o temporal stability ed in cui cioèsi confrontano i giudizi dei medesimi soggetti in occasioni distinte) mostrano una mag-giore variabilità dei giudizi nelle forme olistiche dell’AHP, in cui cioè le alternative sonovalutate direttamente rispetto al goal, che in quelle analitiche dove invece è frapposto unlivello di attributi tra alternative e goal [MB01]. Inoltre il termine d’errore (inteso come in-consistenza tra i giudizi forniti da un soggetto nelle due occasioni) aumenta con il numerodi criteri nelle formulazioni olistiche, mentre si mantiene stabile nel caso degli approccianalitici. Benché vi sia dunque il trade off tra questo errore e lo sforzo richiesto ai giudici(maggiore la scomposizione del problema, maggiore il numero di confronti su cui occor-re esprimersi) in problemi complessi e rilevanti si consiglia sempre una scomposizionedettagliata della gerarchia per ottenere risultati più informativi ed accurati [MB01].

Nella seconda fase (che segue anch’essa un approccio bottom up [FS01]) rispetto ad undato criterio, la matrice dei confronti a coppie tra le p alternative del livello sottostante è

CM(p×p) =

1 a12 a13 . . . a1p

a21 1 a23 . . .

a31 a32 1...

......

. . .

ap1 . . . 1

. (3.34)

In ciascuna cella aij si inserisce la misura di quanto viene preferito o si ritiene più impor-tante l’elemento sulla riga i rispetto a quello di colonna j attraverso un giudizio apparte-nente alla scala fondamentale riportata in Tabella 3.6.Inoltre sussistono le seguenti ipotesi o assiomi a fondamento del metodo di Saaty:

il momento a supporre che le p alternative siano le caratteristiche di qualità di un prodotto, delle quali sidesidera ricavare il grado di importanza relativa.

3.7. L’Analytical Hierarchy Process

3. Il Modello degli Obiettivi 77

• nella matrice dei confronti aij = 1/aji ed aii = 1 (reciprocal axiom);

• gli elementi soggetti al confronto non devono avere un peso tanto eterogeneo da farricadere i giudizi al di fuori della scala fondamentale (homogeneity axiom);

• i giudizi circa le priorità degli elementi in una gerarchia non devono dipendere daelementi posti nei livelli inferiori (synthesis axiom);

• se ci si attende un certo valore delle priorità, occorre verificare che quelle fornitedall’applicazione del metodo non siano radicalmente diverse (expectation axiom).

Nell’approccio tradizionale le priorità si ricavano attraverso il calcolo di un autovet-tore di CM. In particolare, ipotizzando note le priorità e pari a w = {wi, w2, . . . , wp},ciascun elemento della matrice dei confronti dovrebbero valere aij = wi/wj e quindi 40

CMw =

1 w1/w2 w1/w3 . . . w1/wp

w2/w1 1 w2/w3 . . .

w3/w1 w3/w2 1...

.... . .

...wp/w1 . . . 1

. (3.35)

Si risale da questa matrice alle priorità risolvendo il problema CMww = λw ovvero(CMw − λI)w = 0, che ha soluzione se λ è un autovalore di CMw. Osservando che latraccia di CMw equivale alla somma dei suoi autovalori e che tutti eccetto uno sono pari azero per via del fatto che ogni riga è un multiplo di una qualsiasi altra, si deve conclude-re che λ è l’autovalore positivo e non nullo (altrimenti detto principale ed indicato comeλmax) a cui è associato l’autovettore w.Quando ai rapporti teorici si sostituiscono i giudizi suscettibili di imprecisione, anche lamatrice CM contiene elementi tutti positivi e reciproci rispetto alla diagonale principale;se i giudizi sono sufficientemente prossimi ai valori veri dei quozienti da stimare, per cuiaij ' wi/wj , CM si interpreta come una piccola perturbazione di CMw ed in tal caso ilsuo autovettore principale risulta ancora idoneo ad individuare le priorità ricercate41.

Una volta in possesso di tutte le priorità locali per ogni alternativa ed ogni criterio dicontrollo, occorre procedere alla loro sintesi. In una gerarchia come quella di Figura 3.17,completamente connessa e senza sub-criteri, la priorità globale dell’i–esima alternativarispetto al goal viene data da

w goalalt.i =∑

j

w goalcrit.j ∙ wcrit.j

alt.i (3.36)

dove wgoalcrit.j corrisponde alla priorità locale del j-esimo criterio rispetto al goal e wcrit.j

alt.i aquella dell’alternativa i-esima rispetto al criterio j-esimo. Se la gerarchia è disposta su

40Gli elementi aij sono legati ai saggi di sostituzione nei modelli additivi di utilità per via del fatto che ledue quantità dovrebbero essere tra loro proporzionali.

41Una procedura per ricavare il vettore di priorità consiste nel moltiplicare CM per se stessa fino aconvergenza [Xul97] [RTL98] (condizione che si verifica per tutte le matrici non troppo inconsistenti).

3.7. L’Analytical Hierarchy Process

3. Il Modello degli Obiettivi 78

più livelli, l’Equazione 3.36 deve essere opportunamente applicata in modo ricorsivo42.Un importante valore aggiunto del metodo AHP risiede nella capacità di misurare

l’inconsistenza manifestata da chi compie i confronti attraverso un meccanismo formale,elegante e connaturato nella procedura di calcolo delle priorità [RTL98]. Nella fattispeciesi definisce l’ideale di consistenza come la transitività cardinale dei giudizi espressi, percui si ha massima consistenza se aij ∙ ajm = aim per ogni i, j, m ∈ [1, . . . , p]. Tale relazionedifficilmente è verificata in pratica (dove si può assistere anche ad una più preoccupanteinconsistenza ordinale), ma se lo fosse sarebbero sufficienti (p − 1) giudizi per definiretutte le priorità. Le celle rimanenti contengono informazioni ridondanti che però vengo-no sfruttate qualora la matrice non sia perfettamente consistente per migliorare le stimee formare il Consistency Index [Saa90][RTL98] [MJART05] definito dal rapporto

CIp =λmax − p

p− 1(3.37)

Come misura di un errore esso risulta pari a 1p(p−1) ∑i,j(eij − 1) posto eij = aij

wj

wied equi-

vale all’opposto della media degli autovalori non principali di CM [Saa08c] . Il valoredell’Equazione 3.37 è sempre maggiore o uguale a 0 in quanto l’autovalore principalesoddisfa la relazione λmax ≥ p con il simbolo di uguaglianza verificato solo nel caso diaij = wi/wj [Saa04b]. Il confronto tra il CIp ed il rispettivo Random Index, ovvero unaquantità ottenuta per simulazione e riportata in Tabella 3.7, produce il Consistency Ratiopari quindi a CR = CIp/RIp. Si ritiene che un CR minore del 10% qualifichi una matricenon troppo dissimile da quella teorica ed i cui giudizi sono da considerare accettabili.In caso contrario sono disponibili diverse procedure per accrescere la consistenza, iden-tificando di volta in volta il giudizio più problematico (ad esempio quello con maggioreij), suggerendo il valore che esso dovrebbe assumere per apportare il massimo aumentodi consistenza e fornendo altre informazioni spendibili dal decisore per rivedere i proprigiudizi [ST07] [FS01]. E’ anche possibile calcolare l’inconsistenza dell’intera gerarchia[Cho03] ed è importante sottolineare come formulazioni analitiche dell’AHP manifestinovalori di CR solitamente inferiori rispetto alle rispettive forme olistiche [MB01]. Ridur-re il Consistency Ratio non dovrebbe però essere inteso come un obiettivo prioritario edimprescindibile in quanto un CR basso è al più una condizione necessaria ma non suf-ficiente all’accuratezza ed alla validità dei giudizi [Mul98] ; al tempo stesso si riporta disituazioni in cui vengono ammesse matrici con CR > 10% che sembrano fornire risultatipiù accurati [ST07]. Esiste una componente del grado di consistenza che è comunque

42Più in generale l’espressione della priorità di ciascuna alternativa nel livello più basso della gerarchiarispetto al vertice (la sua utilità complessiva) viene definita una forma multilineare (e non lineare) [Saa04b].Indicando con h un livello della gerarchia e con Nh il numero di alternative su quel livello, la priorità dell’i-esimo elemento è infatti data da:

whi =

Nh−1,...,N1

∑i2,...,ih−1=1

wh−1i1i2∙ ∙ ∙w2

ih−1ih−2w1

ih−1i1 ≡ i

Più ricca ed articolata è la gerarchia, sia in termini di estensione che di profondità, più diventa complessala sua forma multilineare, intesa comunque come un’approssimazione costruita a partire da componentimonodimensionali della “vera” funzione di preferenza libera nello spazio degli obiettivi [Bar01].

3.7. L’Analytical Hierarchy Process

3. Il Modello degli Obiettivi 79

p 2 3 4 5 6 7 8 9

RI 0 0,58 0.9 1.12 1.24 1.32 1.41 1.45

Tabella 3.7: I valori di riferimento del RI ottenuti simulando 50.000 CI relativi ad altrettante matrici diconfronto tra p elementi. L’impiego di RI per p > 7 dovrebbe tuttavia essere evitato.

un prerequisito del pensiero razionale e le cause dell’inconsistenza sono comunementericondotte ad errori di trascrizione o immissione dei dati, a mancanza di informazione, ainsufficiente concentrazione, ad un’inconsistenza nel mondo reale43, ad una struttura delmodello inadeguata o ad alternative troppo disomogenee [FS01].

Nel metodo AHP il numero massimo di alternative sottoposte a confronto diretto nondovrebbe eccedere 7 per via di un vincolo dettato da ragioni psicologiche [Bad94], dal ra-pido aumento del numero di giudizi richiesti pari a p(p− 1)/2, dai limiti della scala fon-damentale ed infine dalla natura asintotica del RIp che rende via via più difficile soddisfa-re il requisito di consistenza in matrici di dimensioni elevate [CYZH04] [SO03b] [ST07].In presenza di un numero superiore di alternative conviene raggrupparle in sottoinsiemidi al più 7 elementi uno dei quali in comune e collegare con quest’ultimo le priorità for-nite dalle matrici di confronto in ciascun gruppo [Saa05] [SO03b] [FS01]. La medesimastrategia – suddividere le alternative in gruppi omogenei ed utilizzare un elemento comepivot – consente di affrontare situazioni in cui la disomogeneità tra gli elementi farebbericadere alcuni giudizi al di fuori della scala fondamentale.

L’AHP permette in generale di trattare sia caratteristiche tangibili che intangibili, siadiscrete che continue; in quest’ultimo caso, considerando il confronto tra un numero fi-nito di prodotti rispetto ad una data caratteristica di qualità (variabile continua), i valoriaij potrebbero provenire dal rapporto tra i livelli misurati. Si tende tuttavia a preferire ilricorso alla scala di Tabella 3.6 onde considerare l’eventuale nonlinearità tra le misure, illoro grado di utilità o la percezione che ne si ha dei differenti livelli [Saa05] [FS01].

Inizialmente l’AHP è stato presentato come un generico strumento di misurazionecercando di enfatizzare le differenze tra il concetto di utilità e le misure di priorità. Inambito decisionale si è però presto giunti alla conclusione che priorità, utilità e preferen-za fanno riferimento alla medesima proprietà di cui non sono che diverse denominazioni[Bar01]. Contrariamente ad atri approcci l’AHP sembra però non ottemperare a tutti gliassiomi della Teoria dell’utilità e ciò ha sollevato molte critiche, fino a convincere unaparte di ricercatori del fatto che il metodo non fondi la propria credibilità su basi teori-che, bensì esclusivamente sulla diffusione e sull’uso che ne viene fatto in una diversitàdi problemi [War04]. Alcune soluzioni parziali risolvono le controversie ammettendoad esempio la convivenza di più interpretazioni, ma per altre l’esito rimane aperto. Lecritiche vertono in particolare su [HV87] [War04]:

1. la scarsità di fondamento assiomatico: le quattro ipotesi elencate sono da alcu-

43Questa forma di inconsistenza, in fondo esterna alle responsabilità del decisore, ha un esempio classiconell’ambito sportivo dove gli esiti dei match in un torneo raramente soddisfano la proprietà transitiva.

3.7. L’Analytical Hierarchy Process

3. Il Modello degli Obiettivi 80

ni considerate inefficaci, generiche e non esaustive nel caso si voglia circoscriverel’ambito di applicazione del metodo;

2. l’ambiguità delle domande alle quali il decisore deve rispondere: anche ammet-tendo la possibilità di poter quantificare l’intensità delle preferenze, i paragoni ba-sati sull’importanza conservano una forte componente soggettiva, dipendono dal-l’interpretazione e dalla sensibilità di chi giudica ed appaiono privi di riferimenti[DW90]. Inoltre si confondono gli effetti del normalizzare le scale di misura e quellidell’attribuzione di pesi;

3. l’appropriatezza della scala di misura: Saaty illustra le differenti scale per giungerealfine a quelle ritenute più opportune sia per i giudizi che per le priorità [Saa04b] inquanto da esse dipende l’ammissibilità o meno delle operazioni svolte. Le conclu-sioni a cui giunge non sono però condivise da tutti: quella razionale non è l’unicascala atta a valutare le preferenze ed in particolare quella di Saaty (di Tabella 3.6)non è equispaziata (una geometrica sarebbe forse preferibile [Ram01]), è priva dellozero ed i rapporti perdono così di significato [Bar01];

4. le anomalie indotte dal principio di composizione gerarchica nell’AHP.

Ciò a cui si fa generalmente riferimento in quest’ultima classe di critiche è il rank reversalovvero il fenomeno che avviene nelle gerarchie con almeno tre livelli (goal compreso),quando l’ordine delle priorità globali muta a seguito dell’aggiunta o dell’eliminazione diuna o più alternative. Se da un lato la scuola tradizionale difende la correttezza di taleeventualità [FS01] in quanto ciò rispecchia un comportamento già osservato nei proces-si decisionali, dall’altro il fenomeno viene fortemente disapprovato da chi si consideramaggiormente interessato alla valenza prescrittiva del metodo e ritiene il rank reversal unsintomo di irrazionalità [Mul98] contrario agli assiomi della Teoria dell’utilità che richie-dono invece l’indipendenza della soluzione da alternative irrilevanti. L’opinone ora piùdiffusa è che i due aspetti – consentire o impedire la possibilità di rank reversal – possanoconvivere sebbene non nei termini inizialmente intesi44: ci si riferisce al distributive modeAHP quando la sintesi delle priorità prevede la normalizzate in modo che la loro sommasia 1 ed ammettendo di conseguenza la possibilità di rank reversal. Questa forma di AHPè indicata per sistemi chiusi, ovvero nelle circostanze in cui la scelta finale non compor-ta l’esclusione o la perdita dei benefici derivanti dalle alternative con priorità inferioree quando si può considerare valida un’affermazione del tipo “se una caratteristica desi-derata si presenta a livelli alti in molte alternative, tale abbondanza (o disponibilità) hal’effetto di ridurne l’importanza” [FS01]. Ci si riferisce invece all’ideal mode quando si in-tende prevenire il rank reversal: le strategie proposte in questo caso spaziano dall’impiegodella media geometrica per il calcolo delle priorità locali, ad una normalizzazione che ledivide per la priorità con grado più alto, alla sostituzione della sommatoria in Eq. 3.36con un prodotto (Multiplicative AHP) [WC09] [IL09]. Benché si rivelino politiche efficaciin molti casi [FS01], è stato dimostrato come questi accorgimenti non sempre bastino ad

44Affermare che uno strumento di supporto alle decisioni è al contempo utile dal punto di vista normativoed adeguato da quello descrittivo è di per sé contraddittorio. L’argomentazione si può riassumere nelladomanda “Perchè mai vi sarebbe la necessità di un approccio formale che descrive come vengono presedecisioni non aiutate ed al tempo stesso prescrive come esse dovrebbero essere prese?” [SH97].

3.7. L’Analytical Hierarchy Process

3. Il Modello degli Obiettivi 81

escludere totalmente il fenomeno [Saa04b]: la modalità ideale dell’AHP è particolarmen-te indicata in sistemi aperti, ovvero se la finalità è quella di scegliere l’unica alternativacon priorità globale maggiore e scartare le altre.

L’aver accolto la distinzione tra modalità nel metodo standard, non è sufficiente perchi mette in discussione lo stesso principio del confronto a coppie così come è intesonell’AHP, facendo notare che per effettuare misure affini di preferenze incognite occorre-rebbero almeno tre oggetti a garanzia che la misura in una scala per intervalli non risultiin un’assegnazione arbitraria di numeri [Bar01]. Vi è inoltre un numero assai elevato dimodifiche proposte, ma scarsamente considerate, come ad esempio la sezione di un ele-mento da impiegare come unità in base a cui confrontare tutti gli altri (linking pin AHP) ostrategie per definire un ordine di partenza delle alternative agevolando e migliorando laqualità dei giudizi. A tal proposito una possibilità che si potrebbe approfondire è anchequella di operare dapprima i confronti tra le alternative, come avverrebbe in qualunquealgoritmo di sorting, al solo scopo di stabilirne l’ordine e valutare in un secondo tempol’entità delle (p− 1) distanze che intercorrono tra loro applicando il metodo tradizionale.

Se la scuola tradizionale mostra resistenza a questi cambiamenti, si è però evolutariconoscendo come il synthesis axiom e più in generale le ipotesi di indipendenza tra i cri-teri non rispecchio compiutamente in alcuni casi le relazioni tra le preferenze. L’AnaliticalNetwork Process (ANP) è infatti la generalizzazione dell’AHP quando il grafo del proble-ma anziché una semplice gerarchia diviene una rete con cluster e feedback in grado diindicare come anche le alternative possano influenzare i criteri (e non solo viceversa) ocome questi ultimi possano non essere tra loro indipendenti. Per il calcolo delle prioritàsi rende necessaria una super-matrice che raccolga all’interno della sua particolare strut-tura tutti i collegamenti della rete ed i giudizi espressi [IL09] [Saa08c] e diventa di grandesupporto disporre di un software che implementati questa classe di modelli (ad esempioSuperDecisions®, Expert Choice®).

Un ultimo aspetto che occorre menzionare è l’impiego del metodo AHP quando ledecisioni vengono prese da gruppi di persone. Le due strategie più diffuse prevedonol’Aggregazione dei giudizi individuali (AIJ) e l’Aggregazione delle priorità individuali(AIP): nel primo caso ciascuna cella delle matrici dei confronti è la media geometrica deigiudizi proposti da ogni decisore, mentre nel secondo si calcolano dapprima le prioritàsecondo ciascuno di loro e solo in seguito esse vengono aggregate con una media geome-trica45. Alcune procedure impiegate nel calcolo delle priorità possono far sì che i risultatidei due approcci coincidano, ma quando i giudici hanno visioni molto contrastanti l’o-perazione di media finisce quasi sempre col produrre uno scontento generale. Altre ideeesplorate prevedono quindi la minimizzazione di una misura del livello di insoddisfa-zione del gruppo o quella di porsi l’obiettivo di accrescere forme di consistenza collettiva[MJART05] [CC08].

Si rileva in conclusione come dato di fatto nell’AHP la peculiare convivenza tra alcune

45Posto M il numero dei decisori, aij =M√

∏Mm=1 aijm sono gli elementi dell’unica matrice di confronti

nel metodo AIJ. Nel caso dell’AIP, per contro, ogni decisore compila una propria matrice e le priorità finali

risultano wi =M√

∏Mm=1 wim .

3.7. L’Analytical Hierarchy Process

3. Il Modello degli Obiettivi 82

forti critiche alla componente teorica dell’approccio e l’estrema diffusione di cui essogode nelle applicazioni pratiche, tra la quantità di varianti proposte al metodo originale edelle implementazioni software che non prevedono l’uso di strumenti alternativi a quellistandard. Quest’ultimo aspetto diviene in parte limitante riconoscendo, come mostratonel paragrafo seguente, che può esservi una certa convenienza nel giungere alle prioritàin modo diverso rispetto al calcolo dell’autovalore principale.

3.7.1 Metodi alternativi per il calcolo delle priorità

Nei progetti di miglioramento multiobiettivo affrontati con le tecniche esposte nel Capi-tolo 2, il MDS descrive tipicamente un continuum di prodotti possibili ed il metodo AHPpuò contribuire alla soluzione in diversi modi:

1. viene dapprima prodotto un insieme finito di design alternativi, avendo cura che siarappresentativo dello spazio delle soluzioni o delle sue zone più interessanti ed inseguito con l’AHP si seleziona quello con priorità globale più elevata;

2. si implementa un approccio ibrido, dove l’AHP aiuta a definire i parametri o i pesidella Funzione obiettivo;

3. si definisce con l’AHP un sistema di rating in base a cui assegnare un giudiziocomplessivo ad ogni possibile prodotto senza per questo la necessità di operareconfronti diretti.

Il primo approccio risulta immediato ed il suo punto di debolezza più evidente risiedenella discrezionalità con cui si selezionano le alternative progettuali da considerare ed ilrischio di tralasciare soluzioni preferibili. Il secondo, oltre ad eliminare questa eventua-lità, mira a rendere più trasparente e razionale la scelta dei parametri (si pensi ai pesidi Eq. 3.4, agli esponenti di Eq. 3.8 o alla forma stessa delle Funzioni di desiderabi-lità). La terza strategia può essere infine considerata un particolare declinazione dellaprecedente46 [FS01] [Saa90] [Saa05].

Si concentrerà dunque l’attenzione sulla seconda metodologia ipotizzando per como-dità il caso della media pesata

U = w1Y1 + w2Y2 + ∙ ∙ ∙+ wpYp (3.38)

Il metodo adottato per calcolo delle priorità risulta un passaggio critico anche in que-sto caso, quando tutte le p caratteristiche potrebbero collocarsi sul medesimo ed unicolivello della gerarchia ( cfr. Figura 3.17). La scelta del metodo più appropriato è una que-stione tuttora dibattuta [Yue09] [GZC09] e sebbene molte delle proposte convergano al

46I sistemi di rating (o valutazioni assolute) si impiegano quando il numero di alternative da valutare èelevato. A differenza del metodo classico (relativo) in un sistema di rating e alternative non compaiono nellagerarchia, ma si stabiliscono piuttosto degli standard o scale di giudizi per ciascun criterio in termini verbali(come ad esempio “eccellente”, “sopra la media”, . . . , “scarso”, . . . ) o definendo degli intervalli nel range dimisurazione. Questi vengono poi convertiti in priorità (ideali in quanto divise per la priorità più alta) conuna matrice di confronti. Si valutano infine le alternative una alla volta attribuendo ad ogni dimensione diqualità un giudizio attinto tra quelli definiti per il criterio corrispondente ed aggregandoli (moltiplicandoli)secondo l’importanza dei criteri e la loro disposizione nella gerarchia.

3.7. L’Analytical Hierarchy Process

3. Il Modello degli Obiettivi 83

medesimo vettore di pesi per matrici consistenti [GR94], in generale non ne esiste unache domini le altre da ogni punto di vista. Accanto al metodo dell’autovalore principa-le (EIG), difeso dai sostenitori dell’approccio tradizionale [Saa03] [Saa08a] [SY99], ve nesono alcuni che si distinguono per la semplicità di calcolo, come ad esempio la mediaaritmetica o quella geometrica (Geometric Mean Method, GEM) i quali consistono nel con-durre le suddette operazioni sugli elementi delle righe di CM dopo averne normalizzatole colonne. Altri particolarmente interessati mirano invece a minimizzare la distanza traCM e CMw come nel caso del Logaritmic Least Squares Method (LLSM) che presupponeun modello per i giudizi del tipo aij = (wi/wj)εij . Se il termine di errore εij segue unadistribuzione lognormale (standard) la forma linearizzata del modello diviene

ln aij = ln wi − ln wj + ε ij con ε ij ∼ N(0, σ2ij) (3.39)

e sotto l’ulteriore ipotesi di varianza omogenea tra i giudizi ε ij = ε ∼ N(0, σ2ε ) , si stima

(ln wi) = βi per mezzo di una regressione ordinaria [LH03]. Risalendo poi da questestime alle priorità47 mediante wi = eβi , si osserva che esse coincidono con quelle ottenu-te applicando il metodo della media geometrica ed eventualmente a quelle di Massimaverosimiglianza [GR94] [CW85]. Ipotesi per modelli alternativi al LLSM sono note in let-teratura, pur mostrando una minore diffusione: in particolare il termine di errore anzichélognormale può divenire ε ∼ N(0, σ2

ε ) ed il relativo modello aij = wi/wj(1+ εij) [SV87][CW85], oppure si può ipotizzare questi segua una distribuzione uniforme, triangolare,gamma o ancora sia pari al rapporto tra due variabili aleatorie [CW85]. Allo stesso mo-do il suo contributo può essere additivo in un modello del tipo aij = wi/wj + ε ed intal caso la procedura impiegata per stimare le priorità è nota come Direct Least SquaresMethod (DLSM), che nella versione semplificata (Weighted Least Squares Method, WLSM)prevede il modello semplificato (aijwj − wi) = ε così da permettere di ricavare i pesiminimizzando la somma degli ε2 [Yue09]. Si è inoltre avanzata l’ipotesi che formulandoi guidizi il decisore consideri le differenze tra priorità anziché il loro rapporto e quindila forma corretta dovrebbe essere aij = wi − wj + ε o che in modo più o meno implicitovaluti simultaneamente ambedue le tipologie di confronto. Ciò ha portato a riflettere sulfatto che i giudizi non dovrebbero essere accettati e trattati come misurazioni attendibiliessendo rilevazioni psicologiche che richiedendo la stima di una funzione di valutazionesoggettiva per legare i giudizi a rapporti numerici più accurati [BCS10].

Il LLSM resta però particolarmente significativo poiché, oltre ad essere una delleprime alternative proposte all’EIG, è forte di motivazioni teoriche [CW85], psicologi-che ed evidenze empiriche a supporto del modello logaritmico e della relativa distri-buzione dell’errore [LH03], oltre che della semplicità di applicazione e dell’omomorfi-smo con il GEM. Esaminando dunque più a fondo questa tecnica di stima si osserva chel’Equazione 3.39 può essere riscritta come

ln aij =p

∑m=1

Ym ln wm + ε dove Yi = 1, Yj = −1 e Ym = 0 per m , i, j (3.40)

47Non si fa qui distinzione con le priorità normalizzate (dove la formula però sarebbe wi =eβi

∑pi=1 eβi

).

3.7. L’Analytical Hierarchy Process

3. Il Modello degli Obiettivi 84

Y1 Y2 Y3 . . . Yp−1 Yp ln(aij)

1 -1 0 . . . 0 0 ln(a12)1 0 -1 . . . 0 0 ln(a13)0 1 -1 . . . 0 0 ln(a23)

... . . ....

0 0 0 . . . 1 -1 ln(a(p−1)p)

Tabella 3.8: Piano sperimentale associato alla procedura LLSM.

e l’aspetto del piano sperimentale con cui avviene la raccolta dei dati può essere si-mile a quello di Tablella 3.8. Una prima analisi evidenzia come la matrice dell’esperi-mento soffra di multicollinearità e non abbia rango pieno: anziché scartare una colonna[LH03], si suggerisce qui di aggiungere una riga, poiché più conveniente e più sempliceda interpretare come una condizione al contorno48

Y1 Y2 Y3 . . . Yp−1 Yp ln(aij)

1 1 1 . . . 1 1 0

La riflessione se incorporare i giudizi reciproci ed eventualmente aggiungere una co-lonna per il termine costante porta a concludere che i due aspetti risultano tra loro legatiin quanto inserire i reciproci implica un’intercetta pari a zero per costruzione. Conside-rare le celle al di sotto della diagonale di CM accresce inoltre i gradi di libertà dell’erroree pur trattandosi di dati “ridondanti”, di fatto rende le stime più significative; al di là diquesto beneficio aritmetico, l’ipotesi aij = 1/aji è un’informazione del problema ed è be-ne che trovi spazio anche nell’analisi. Si ipotizzerà pertanto che la dimensione finale dellamatrice dell’esperimento completo sia (p2− p+ 1)× p, anche se solo (p−1)p

2 osservazionivengono specificate in modo indipendente.

Il LLSM ed in generale le procedure di calcolo delle priorità che si riconducono amodelli di regressione facilitano per molti versi l’analisi in presenza di dati mancanti,purché vi siano almeno p giudizi (di cui p− 1 indipendenti) così da consentire la stimadelle priorità e del termine d’errore. Anche nel caso delle decisioni di gruppo l’applica-zione diviene immediata poiché consiste semplicemente nell’aggiungere repliche al pia-no sperimentale49 [CW85] [Lip09]. L’approccio con la regressione consente infine anchedi ipotizzare una stima simultanea di tutte le priorità nella gerarchia se si raccolgono igiudizi all’interno di un unico piano sperimentale [Lip09].

Per quanto riguarda l’analisi statistica non vi sono ragioni teoriche per ritenere soddi-sfatti i requisiti che legittimano l’applicazione degli OLS, soprattutto per via della scala dimisura discreta e della simmetria delle osservazioni, due caratteristiche che si ritrovanonella distribuzione dei residui, eppure in molte delle applicazioni documentate essi su-perano un test di normalità [LH03]. L’analisi fornisce in effetti utili informazioni purché

48Le priorità ottenute, normalizzate secondo la formula di Nota 47, sono indipendenti dal valore che siinserisce nella cella della risposta (ma lo stesso non si può dire del loro grado di significatività). Lo zero èqui una scelta arbitraria con l’effetto di annullare la media marginale della risposta.

49Ciò ovviamente non sostituisce processi di mediazione e solitamente non conduce ai medesimi risultatidegli approcci AIP ed AIJ.

3.7. L’Analytical Hierarchy Process

3. Il Modello degli Obiettivi 85

non si dimentichi l’origine endogena dei dati e la natura del modello. Nella fattispecieanziché tentare di attenuare il peso di eventuali outliers con tecniche robuste [LH03] oc-corre esaminare in dettaglio i confronti che hanno dato origine alle osservazioni anomale,correggerle o riconoscere di aver tralasciato un criterio rilevante.

La conversione dei coefficienti stimati in priorità avviene nel LLSM come wi = eβi edal punto di vista statistico ciò significa che se βi ha distribuzione (asintoticamente) nor-male, alle priorità viene assegnato il valore mediano di wi. Volendo invece riferirsi allamedia, una trasformazione più corretta sembrerebbe wi = eβi+se[βi ]

2/2 (variante indicatain seguito con la sigla LLSMe). Per determinare se le alternative hanno priorità distintee raggrupparle all’occorrenza in classi, è certamente più conveniente effettuare i test disignificatività sui coefficienti della regressione piuttosto che sulle priorità [LH03]. Inoltreaffidandosi a metodi diversi dall’EIG esistono indicatori di consistenza che rispetto al CRoffrono il vantaggio di non dipendere dall’autovalore principale della matrice di confron-ti. Il Compatibility Index (CIn) corrisponde ad esempio alla media degli elementi di unamatrice ottenuta moltiplicando quella dei giudizi per una composta dai rapporti tra lepriorità trovate50 [Saa04a]. Si verifica che CIn ≥ 1, con il simbolo di uguaglianza validoin caso di perfetta consistenza. Se le priorità sono calcolate con la media geometrica l’in-dicatore proposto in [AMJ03] [MJART05] è invece GCI = 2

(p−1)(p−2) ∑i<j(ln eij)2 , mentre

applicando un modello di regressione ed essendo la dispersione dei residui influenzatadal grado di inconsistenza, è possibile consultare i valori dell’R2 o del MSE 51.

Nel confronto tra le caratteristiche dei diversi approcci, alcuni risultati interessantiderivano dall’esito di una simulazione qui allestita che ha condotto a conclusioni allinea-te a quelle di altri studi simili [Lip09]. Si è trovata conferma di come le priorità ottenuteda differenti metodi convergano all’aumentare del grado consistenza, senza per questoriuscire a stabilire in modo univoco quale sia la procedura ottimale [GK93] [WC09] [IL06][BG94]. Una seconda simulazione52 è stata poi condotta per quantificare l’inconsistenzache nel metodo AHP può introdursi semplicemente per via dell’uso della scala fonda-mentale: da essa è emersa una distorsione modesta, ma sufficiente a modificare in alcunicasi l’ordine delle alternative (ad eccezione di quella con priorità più alta).

Non si è trovata traccia in letteratura di proposte per impiegare metodi di regressioneper il calcolo delle priorità quando i criteri non sono tra loro indipendenti (come alter-nativa all’ANP giudicato a volte eccessivamente complesso [IL09]). Una soluzione puòdunque essere quella di inserire un termine di interazione direttamente nell’Equazione3.38. Ipotizzando un MDO con due caratteristiche U = w1Y1+w2Y2 l’aggiunta del termi-ne w12Y1Y2 rappresenta, a seconda del segno, il premio dovuto alla sinergia riconosciutatra le caratteristiche o viceversa la penalità che riflette l’avversione nel vederle realizzateassieme. Per quantificare w12 si può trattare l’interazione come un nuovo criterio nella

50Il prodotto qui impiegato è quello di Hadamard (dot product), in cui l’elemento di posizione ij nellamatrice risultato è pari al prodotto fra i due che occupano la medesima posizione nei fattori. Siano CM lamatrice dei giudizi, w = {w1...p} il vettore di priorità e CMv la matrice di elementi v′ij = wi/wj, allora il CIn

rappresenta la media degli elementi di CM ∙ CM′v.51Esistono in questo caso specifiche per i valori da assegnare a σ2

0 per fare sì che un test di consistenza nellaforma H0 : σ2

ε ≤ σ20 con α pari al 5 o all’1% produca esiti concordi al criterio CR < 10% [GR94] .

52Sia questo studio che quello precedente sono consultabili in Allegati elettronici C.3.4 (pag. 189).

3.7. L’Analytical Hierarchy Process

3. Il Modello degli Obiettivi 86

matrice dei confronti. Chiedersi direttamente quanta importanza abbia l’interazione ri-spetto ad una data qualità non ha molto senso, ma rileggendo i giudizi come le rispostea domande del tipo “che importanza ha raggiungere un livello alto della caratteristica Y1

rispetto ad uno alto di Y2?”, allora anche quella “che importanza ha raggiungere un livel-lo alto della sola caratteristica Y1 rispetto ad uno alto di entrambe?” può trovare rispostanella scala fondamentale.

Vale infine la pena infine di evidenziare l’opportunità d’impiego di piani sperimen-tali come quello di Tabella 3.8 anche al limite nel processo di costruzione del MDS .Simili applicazioni dell’AHP vengono già messe in luce in [RFC01] dove, distinguen-do tra attributi sensoriali e grandezze oggettive, si suggeriscono confronti a coppie peruna valutazione più accurata de primi. L’obiettivo è quello di rendere meno ambigui igiudizi sulle proprietà difficili da misurare, ottenendo al contempo indicazioni circa laconsistenza manifestata da chi è preposto a quantificare gli attributi sensoriali.

Pur consapevoli delle ragioni a sostegno dell’impiego della versione tradizionale del-l’AHP [Saa04a] [Saa05] si ritiene che il metodo con la regressione resti un valida alterna-tiva nelle applicazioni e sia degna di ulteriori approfondimenti. Con essa si può infattiricondurre l’intero approccio ad una serie di “linee guida” per la modellazione dei pro-blemi e la progettazione di piani sperimentali in tutte le situazioni in cui la risposta nonè misurabile o si predilige una sua valutazione soggettiva alla rilevazione strumentale.In quest’ottica sarebbe quindi interessante disporre di nuove verifiche sull’uso di pianifrazionati per richiedere al decisore un minor numero di giudizi.

3.7.2 L’incertezza nei giudizi: FAHP e SAHP

Nella versione standard dell’AHP i giudizi aij sono intesi come numeri ben definiti (possi-bilmente estratti dalla scala fondamentale), ma per svariate ragioni si può voler sostituiread essi un intervallo od un insieme di valori. Se si assegna ad ogni elemento di dettointervallo un grado di possibilità si da vita ad estensioni fuzzy dell’AHP (FAHP) mentrese si assegnano delle probabilità ci si riconduce alle sue versioni stocastiche (SAHP).

Secondo i promotori del FAHP la vaghezza, l’incertezza e la soggettività sono fat-tori che rendono le stime puntuali del metodo convenzionale inadeguate a riflettere larealtà, non tenendo in debita considerazione l’inesattezza della traduzione dei giudiziin valori numerici. Occorre dunque fuzzificare i valori della scala fondamentale mo-dellandoli con opportune funzioni di appartenenza nel loro intorno. Diverse proceduresono poi state proposte per ricavare le priorità dalla matrice di confronti fuzzy CM espaziano dall’estensione del metodo tradizionale (EIG) con operazioni tra numeri fuz-zy [TS06] [KB02], all’utilizzo di approssimazioni e procedure di calcolo alternative dellepriorità [ÖÖ07] (avvalendosi ad esempio del GEM e delle formule di Tabella B.2 pag. 179[MVGS01]), all’uso di α-cut [AÖ06] , all’introduzione di problemi di programmazionelineare o non lineare [SBD01] [Mik03]. Un obiettivo addizionale tipicamente considera-to è quello di massimizzare la consistenza della matrice CM. Una delle prime proposteavanzate [Buc85] consiste nell’esprimere i giudizi come numeri fuzzy di forma trapezoi-dale aij = (bij, cij, dij, eij) o triangolare. Le priorità vengono quindi ricavate con la media

3.7. L’Analytical Hierarchy Process

3. Il Modello degli Obiettivi 87

geometrica definendo e calcolando le seguenti funzioni [Kor08]:

fi(y) =[∏

pj=1((cij − bij)y+ bij)

]1/nper 0 ≤ y ≤ 1

gi(y) =[∏

pj=1((dij − eij)y+ eij)

]1/nper 0 ≤ y ≤ 1

f (y) = ∑i=1 fi(y) e g(y) = ∑i=1 gi(y)

bi =[∏

pj=1 bij

]b = ∑n

i=1 bi ci =[∏

pj=1 cij

]c = ∑n

i=1 ci

di =[∏

pj=1 dij

]d = ∑n

i=1 di ei =[∏

pj=1 eij

]e = ∑n

i=1 ei

Le priorità finali, anch’esse numeri fuzzy, sono definite come wi =(

bie , ci

d , dic , ei

b

)con

un grafico della funzione di appartenenza che è zero a sinistra di bie ed a destra di ei

b ,

nell’intervallo[

bie , ci

d

]è definito da x = fi(y)

g(y) , è un segmento di valore 1 nell’intervallo[

cid , di

c

]e nell’intervallo

[dic , ei

b

]viene definito da x = gi(y)

f (y) . Tracciando le parti oblique

occorre ricordare che l’asse x (su cui sono espressi valori di priorità) è orizzontale e quelloy (gradi di appartenenza in [0; 1]) è verticale.

Anche se la scelta dipende dal problema, sono state presentate tabelle di riferimentoper aiutare a definire le funzioni di appartenenza per i giudizi [KB02] [ÖÖ07] conside-rando in alcuni casi i valori reciproci simmetrici mentre in altri no. Se si eccede conl’estensione di ciascun insieme (volendo indicare molta vaghezza), il numero di moltipli-cazioni ed addizioni porta però ad avere priorità con un supporto vasto e sovrapposte,poco utili al processo decisionale.

Saaty si dichiara fortemente contrario alla fuzzificazione dell’AHP considerando ilFAHP una generalizzazione ridondante ed un aggravio computazionale non ripagato dabenefici degni di nota. Egli sostiene che l’AHP è già per sua natura “fuzzy” [ST07] , inquanto l’incertezza è inclusa e gestita durante tutto il processo di estrazione delle priori-tà. La matrice CM è considerata una perturbazione di CMw e si ottiene una misura delgrado di inconsistenza trattando già gli stessi rapporti che rappresentano i giudizi comenumeri incerti. Renderli ulteriormente vaghi non solo non garantisce risultati più accura-ti, ma rischia di peggiorarli. Con diversi esempi si rileva che quando i giudizi sono scarsi(manifestando al limite anche inconsistenza ordinale) il FAHP fornisce risultati ancor piùdistanti da quelli “veri” ed anche il proposito di ridurre l’inconsistenza a priori ed in mo-do automatico contrasta con l’intento prescrittivo del metodo, senza peraltro condurrea risultati più prossimi alla realtà. In linea con l’affermazione “garbage in – garbage out”,Saaty sottolinea che un giudice indipendentemente dall’incertezza che nutre nei confron-ti dei propri giudizi, può essere disinformato o non abbastanza competente. In tal casonon c’è modo di catturare la realtà attraverso gli input che fornisce e fuzzificarli non gio-va a nulla. Per il verso opposto se il giudice è ben informato, l’AHP in base alla teoriadelle perturbazioni fornisce risultati attendibili e modificare i giudizi per considerare l’in-certezza (o ricercare una perfetta consistenza) non influisce sulle risposte né le indirizzaverso quelle vere quando esse sono sconosciute. Il FAHP viene sconsigliato anche comestrumento per aggregare i voti di più giudici, mancando prove sia teoriche che empiriche

3.7. L’Analytical Hierarchy Process

3. Il Modello degli Obiettivi 88

a dimostrazione della sua superiorità rispetto ai metodi tradizionali.Mentre nel caso di giudizi fuzzy gli intervalli riflettono l’incapacità da parte del deci-

sore di esprimere misure singole e precise, i giudizi stocastici implicano una distribuzio-ne di probabilità su un intervallo associato a ciascun giudizio. L’interpretazione diffusaè però quella che tali distribuzioni siano di natura soggettiva, sovrapponendosi così al-l’approccio precedente. Nel SAHP si mette però in luce una nuova forma di rank reversalche qui sta ad indicare la probabilità che le priorità si scambino di posizione per viadei giudizi aleatori. Date per essi le distribuzioni di probabilità si vorrebbe conoscere laprobabilità che due priorità si scambino di posizione, quella che una priorità si scambicon una qualsiasi altra o che avvenga almeno uno scambio, che si ottenga un ordine inparticolare ed infine che una data alternativa risulti prima, seconda, . . . [SV87]. Si puòrispondere a questi interrogativi, tutti tra loro collegati, con una simulazione ed in par-ticolare ipotizzatando una distribuzione uniforme sull’intervallo per aij , si inserisconovalori campionati nella matrice dei confronti [SV87]. L’algorimo risulta dunque essere

S volte {. campionare dal relativo intervallo il valore da inserire

in ogni cella sopra la diagonale di CM e completare

con i reciproci

. calcolare e conservare il vettore di priorità ws

}

(sim-3.1)

Al termine della simulazione si dispone dell’approsimazione empirica della distribu-zione del vettore w con cui calcolare ad esempio la probabilità di rank reversal tra unacoppia di alternative attraverso i limiti di un intervallo asintotico. La procedura può es-sere estesa al campionamento da distribuzioni qualsiasi e correggere l’ipotesi errata diindipendenza tra le priorità [SS97]. In particolare si possono rielaborare i risultati del-la simulazione ricavando una matrice Q(p×p) i cui elementi qij indicano la massima trala frequenza relativa delle volte in cui viene osservata la priorità i-esima precedere laj-esima e quella dei casi in cui si verifica il contrario. In alternativa si può considerareespressamente la matrice di varianza-covarianza del vettore w per condurre i test su unmodello multivariato (a condizione di soddisfare le ipotesi di normalità).

Nei casi documentati in cui si considerando i giudizi come variabili aleatorie, le sti-me puntuali non si discostano sensibilmente da quelle dei metodi deterministici (ancheintroducendo nuovi modi per calcolare le probabilità di rank reversal o per valutare sedue priorità sono statisticamente distinte considerando i giudizi come il parametro di unesperimento Bernoulliano e pervenendo ad un modello logit multinomiale [Hah03]). Ilsuggerimento della scuola tradizionale resta dunque, in presenza aleatorietà o scenari al-ternativi e rischi associati ai criteri o alle alternative, di scontare queste informazioni neigiudizi assegnati, oppure rappresentare l’incertezza in uno o più criteri nella gerarchia[FS01] o ancora dedicarle un’analisi a parte distinguendo Benefici, Opportunità, Costi eRischi (BOCR) di un progetto [Saa04b].

Nei problemi multiobiettivo qui esaminati, l’incertezza stocastica potrebbe presentar-si in due modi nell’AHP: confrontando i criteri, ossia quando si intende definire l’impor-

3.7. L’Analytical Hierarchy Process

3. Il Modello degli Obiettivi 89

tanza relativa delle caratteristiche di qualità, oppure confrontando prodotti alternativirispetto ad un determinato criterio. Nel primo caso la distribuzione di probabilità suigiudizi è più spesso di origine soggettiva e la semplice stima delle priorità con il LLSMpuò consentire un tipo di inferenza comparabile a quella di alcune versioni del SAHP(ciò verrà mostrato nell’esempio riportato nel prossimo capitolo).

Nel confronto tra prodotti la ratio può essere invece quella di rinunciare alla scalafondamentale ed utilizzare i rapporti tra i livelli dell’i-esima qualità nelle alternative (se-guendo di fatto il primo tra gli approcci elencati a pag. 82). Il modello dei giudizi risulte-rebbe pertanto aij = (yi(x) + ε i)/(yj(x) + ε j) dove numeratore e denominatore proven-gono entrambi dal MDS . Quando le risposte condizionate seguono una distribuzionenormale, per cui il loro rapporto segue una distribuzione di Cauchy, si possono ricavareper simulazione i quantili delle distribuzioni delle priorità ed in base ad essi definire irelativi intervalli di confidenza. Sembra al momento inesplorata l’ipotesi alternativa diapplicare il LLSM inserendo nel piano sperimentale un certo numero di repliche ( cfr.Tabella 3.8). Le risposte ln(aij) sarebbero così ottenute campionando dalle distribuzionidi yi(x) + ε i ed yj(x) + ε j e dalla regressione si giungerebbe agli intervalli di confidenzasulle stime dei coefficienti. Da un confronto preliminare tra queste procedure (qui omes-so) è emerso che in entrambi i casi – le medie delle priorità da un lato ed i coefficientidi regressione (trasformati) dall’altro – si perviene a stime corrette delle priorità teorichedel modello senza componente stocastica (e sia le realizzazioni delle priorità che i residuidel LLSM non smentiscono l’ipotesi di normalità). Chiaramente più sono tra loro vicinie tendendo a sovrapporsi due intervalli, tanto maggiore è la probabilità di rank reversaltra le alternative: se però nel caso dell’approccio coi quantili empirici si osserva un inter-vallo intorno alla priorità i-esima proporzionale ad σεi , lo stesso non avviene nel LLSMdove, per via della particolare matrice dell’esperimento, l’errore standard risulta il mede-simo per tutti i coefficienti. Maggiori approfondimenti sarebbero dunque necessari percomprendere appieno le qualità di questi due approcci.

3.8 Misure monetarie e criteri economici

Inserire nel MDO misure economico-finanziarie consente di conciliare l’attenzione rivol-ta alle prestazioni e alla qualità come la si è intesa nei paragrafi precedenti, con criteriallineati agli obiettivi aziendali di economicità, contenimento dei costi, creazione di va-lore o rispetto dei vincoli di budget. Sul piano teorico si potrebbe intendere un prodottocome un investimento che l’impresa compie per accrescere il proprio valore economico53,ma su quello operativo tale contributo si rende difficilmente stimabile anche a causa delleinterdipendenze tra risorse ed impieghi, che ostacolano la possibilità di isolarlo comple-tamente dalle altre attività aziendali [Azz06]. L’analisi delle relazioni che intercorrono trai costi sostenuti dall’impresa, le qualità dei prodotti realizzati ed i profitti da essi derivatinel breve o nel lungo termine è anch’essa notoriamente complessa, articolata e multidisci-

53Un investimento si giudica tipicamente in base al valore che esso apporta all’impresa, ad esempio tramiteuna misurazione dei flussi di cassa attualizzati, ossia NPV = ∑ NCFt

(1+k)t .

3.8. Misure monetarie e criteri economici

3. Il Modello degli Obiettivi 90

plinare e ci si limiterà qui a mettere in luce solo alcuni aspetti ritenuti più critici e suscitatidall’incontro tra ottimizzazione multiobiettivo e rilevazioni di carattere economico.

Figura 3.18: Modello semplificato delle relazioni che intercorrono tra le variabili che determinano laconvenienza della realizzazione e dello scambio di un prodotto tra impresa e clienti.

In Figura 3.18 è presentato un modello fondato sulla semplice idea che un’impresa hainteresse a realizzare il proprio prodotto se i benefici che ne può trarre sono maggiori deicosti sostenuti per crearlo ed in modo speculare un cliente acquista tale bene solo se ilbeneficio che esso gli giova (o il valore da lui attribuito al bene) è superiore al suo costodi acquisizione. Il contemporaneo verificarsi delle due disuguaglianze è una condizionedi esistenza dello scambio e del prodotto che così diviene il punto di contatto tra i dueagenti54. A tutti gli elementi di Figura 3.18 corrispondono eventuali obiettivi nel MDOed in particolare, potendo argomentare sul grado di intensità delle due disuguaglianze siosserva quanto segue:

1. un’impresa desidera massimizzare il valore del proprio prodotto poiché in questomodo coeteris paribus rafforza entrambe le relazioni, ovvero risulta da un lato piùvantaggioso per lei produrlo e dall’altro è più conveniente per un cliente acquistar-lo. Se si considerano i benefici come determinati dalla qualità e dalle prestazioni of-ferte, è esattamente in quest’ottica che si collocano i progetti di ottimizzazione mul-tiobiettivo sin qui analizzati ed incentrati sulla massimizzazione dell’utilità comecompromesso tra le caratteristiche;

2. un’impresa ha anche interesse a ridurre i propri costi rafforzando coeteris paribusla convenienza a realizzare il prodotto (la qual cosa può eventualmente tradursi inun aumento dei profitti). Così facendo ha l’occasione anche di ridurne il prezzo divendita facendo leva su una componente importante del costo del cliente55;

3. la riduzione dei costi non può però andare eccessivamente a scapito del valore del

54Volendo collegare nello schema la prospettiva del produttore con quella del consumatore ci si riferisceprincipalmente al costo di realizzazione da un lato ed a quello d’acquisto dall’altro (pur non essendo leuniche componenti dei due costi). Il prezzo del bene, argomento di per sé estremamente articolato conmolteplici determinati (tra cui soprattutto le caratteristiche del mercato), lo si può far rientrare nel modellosemplificano sia come costo d’acquisto che come proxy dei benefici del prodotto.Si osserva infine che lo schema, replicato a sinistra o a destra, si presta a descrivere una filiera che porta allarealizzazione di prodotti complessi.

55Politiche che operano nelle due direzioni – massimizzazione del valore dei prodotti e riduzione dei costidi produzione – accrescono quasi per definizione la competitività dell’impresa.

3.8. Misure monetarie e criteri economici

3. Il Modello degli Obiettivi 91

prodotto offerto, poiché in tal caso anziché rafforzare le due disuguaglianze le siindebolirebbe56;

4. alcune qualità sono percepite dal cliente sotto forma di prestazioni che impattanosull’insieme di costi da lui sostenuti (ad esempio quelli di installazione, esercizio,manutenzione e smaltimento eventualmente a suo carico). Se il prodotto consumarisorse per espletare le proprie funzionalità, acquistano particolare importanza iparametri di efficienza (un aspetto a cui sono particolarmente attenti gli acquirentiindustriali).

I collegamenti tra gli elementi di Figura 3.18 riassumono le relazioni appena osservatein un modello che si distingue dagli approcci precedenti in quanto cerca di analizzareuna scelta anziché delle preferenze: solo sotto opportune ipotesi le due vie conduconoinfatti alle medesime conclusioni, quando cioè la preferenza viene considerata una sceltaipotetica, mentre la scelta una preferenza rivelata [KLG09].

In fase di design i costi produttivi eventualmente considerati nel MDO sono gli unicisuscettibili di variare tra le alternative progettuali poiché influenzati dai fattori controllatiXi=1...k e hanno pertanto una relazione che può essere espressa come cj = f j(X). Anchealcuni costi sostenuti dal cliente possono dipendere dai fattori, ma tale relazione passatipicamente attraverso le prestazioni dei prodotti, ovvero c′j = f j(Yi=1...p(X)). Questadistinzione evita di commettere l’errore di considerare due volte nella Funzione obiettivo,sia come prestazione che come leva di costo, una data caratteristica di qualità57.

Definito il criterio di rilevazione adottato (a costi storici, standard, previsti, . . . ), inse-rire un obiettivo monetario nel MDO non comporta generalmente problemi particolariin quanto esso si presenta a tutti gli effetti come un’ulteriore caratteristica di qualità nelMDS la cui relazione con i fattori, se non nota, è stimabile empiricamente [JIN10]. Primadi approfondire questo tipo di aggregazione è utile ricordare che in letteratura vi sonomolti esempi in cui si preferisce considerare separatamente i benefici ed i costi associatiai prodotti ed individuare solo nelle fasi finali dell’ottimizzazione l’alternativa che offreil miglior bilanciamento58. I vantaggi di questo modo di procedere sono tanto maggioriquanto più è difficile stabilire con precisione dei trade off tra costi e prestazioni, ovveroquando ad esempio un costo più elevato può essere giustificato da prestazioni superiori,dal raggiungimento di una maggior quota di mercato o da un premio di prezzo suffi-ciente a compensarlo [Azz06]. Queste caratteristiche, tra cui vi figurano valori strategici,

56La relazione tra i costi sostenuti e qualità è assai più articolata poiché ad esempio se da un lato spesemaggiori sono necessarie a garantire una buona qualità (ad esempio per pianificare e monitorare i processi),è ormai giudizio condiviso che la scarsa qualità genera costi (in termini di scarti, rilavorazioni e gestione didifetti e malfunzionamenti individuati prima o dopo la vendita) [v. Glossario: Design for Six Sigma] .

57Rallentare l’usura del prodotto e ridurre i costi di manutenzione per l’utente sono obiettivi almeno inparte sovrapposti. La classificazione delle caratteristiche in driver di valore e driver di costo (distinguendotra costi per l’impresa e costi per il cliente) può aiutare a prevenire un simile errore.

58Nelle versioni dell’AHP che prevedono la suddivisione del problema in Benefici, Opportunità, Rischie Costi delle alternative (BOCR analysis), solo dopo averne ricavata la priorità in ciascuna delle quattrodimensioni, un giudizio di sintesi per l’alternativa i-esima viene calcolato nel rapporto Bi ∙Oi

Ci Rio nella somma

bBi + oOi − cCi − rRi [Saa04a] [SO03a]. Un altro esempio significativo è l’approccio MATE dove si cerca lasoluzione migliore nel piano definito “costo × efficacia” (il trade space) che fa corrispondere ad ogni puntoun’alternativa progettuale [RHWD04] [v. Glossario: MATE] .

3.8. Misure monetarie e criteri economici

3. Il Modello degli Obiettivi 92

tipicamente mal si prestano a valutazioni a priori e solo in termini economici. Scena-ri futuri, dinamiche di mercato, collocazione in nicchie o segmentazioni della clientelasono notoriamente difficili da formalizzare con precisione in un modello [PBSG03] edanziché lasciare ad un algoritmo il compito di stabilire automaticamente la soluzione mi-gliore nascondendo le altre, può convenire approfondire la conoscenza delle opportunitàdisponibili e riservarsi il diritto di escludere solo in seguito in modo più consapevoleeventuali prodotti insoddisfacenti. Ispezionare una frontiera efficiente tra benefici e costi(in R2 o R4 per misure non deterministiche) è inoltre spesso un problema più trattabilerispetto alla ricerca in Rp.

Nei casi più semplici invece un MDO che incorpori sia obiettivi economici che pre-stazioni può avere una serie di vantaggi. Si presentano due vie percorribili: convertirei valori monetari in utilità o viceversa esprimere l’utilità in termini monetari. La primaopzione è preferita dalle teorie economiche in cui si è ormai consolidata l’idea che neiprocessi decisionali occorre stimare il valore del denaro in base all’uso che se ne può fare,piuttosto che in base alla sua quantità. Una funzione di utilità per filtrare le misurazionisi ritrova ad esempio nel metodo AHP quando si suggerisce di ricorrere sempre alla scalafondamentale [Saa05] [FS01] . Analogamente dopo aver costruito il modello di costo infunzione dei livelli di impiego dei fattori cj = f j(X) gli si può associare una funzione didesiderabilità dj(cj).

I criteri più vicini ai paradigmi contabili preferiscono invece conferire al M DO unaunità di misura monetaria, massimizzandola se essa esprime un profitto o minimizzan-dola se racchiude un insieme di costi. Nel primo caso, quantificando le variazioni diprezzo che il mercato riconosce ai diversi livelli di qualità, si vorrà massimizzare un indi-ce relativo come il rapporto Ui =

Δibenefici $Δicosti $ oppure uno assoluto come il profitto, ovvero

quanto ricavabile dalla vendita del prodotto al netto dei costi di realizzazione. Esem-pi invece di MDO come funzione di costo si ritrovano invece negli approcci legati alconcetto di Quality loss function. Essi mirano essenzialmente a valutare il costo implicitodi prodotti con prestazioni diverse da quelle ottimali e trovano largo impiego in ambitoindustriale spesso considerando l’origine empirica del MDS 59 [VM90] [RFC01] [KKJ05].

La domanda se sia più conveniente convertire i valori monetari in utilità o viceversa,pone quella più generale sul rapporto di causalità tra le due grandezze. L’utilità attribuitada un soggetto ad un’alternativa può venire intesa come una misura olistica dei benefici,incerti nella rilevanza e nella possibilità di impatto, che il prodotto può apportargli in undato orizzonte temporale, e per questo eventuale approssimabili dalla somma di flussimonetari scontati. Al tempo stesso scelte di acquisto e prezzi dei beni si interpretanoa volte come manifestazioni dell’utilità, una variabile non osservabile ed ipotetica cheguida i comportamenti nelle persone60 [Gre03].

Premesso dunque che la differenza sembra essere più formale che non sostanziale,l’uso diretto dei costi è maggiormente efficace in presenza di chiare priorità tra le ca-ratteristiche o quando il sistema di controllo adottato dall’impresa è già predisposto asupportare uno specifico processo di ottimizzazione del design sulla base di dati econo-

59[v. Glossario: Quality loss function]60[v. Glossario: Valore (ed Utilità)] .

3.8. Misure monetarie e criteri economici

3. Il Modello degli Obiettivi 93

mici. E’ il caso ad esempio del target costing, un sistema di sviluppo di prodotti o servizi,nonché di misura delle prestazioni durante il loro ciclo di vita. La giustificazione di unaFunzione obiettivo basata su misure monetarie poggia qui su due aspetti: la stretta in-tegrazione con il sistema di rilevazioni economiche e la finalità di valutare a consuntivol’efficacia del progetto mediante l’analisi degli scostamenti tra misure di costo.

Più spesso si deve però riconoscere come prezzi e costi siano in realtà dei vettori dicomponenti confusi con il valore di un bene [Rub98] e diventa preferibile una misura diutilità, per disaccoppiare il problema ed evitare la necessità di comprendere con esattezzacome si monetizzino i livelli delle caratteristiche di qualità. Questa strategia resta efficaceanche all’interno degli approcci di costing, sia che si consideri un orizzonte di tempo limi-tato, sia che si cerchi di valutare l’intero ciclo di vita dei prodotti; in approcci come quellodelle desiderabilità si possono incorporare vincoli di budget, senza per questo diminuirel’importanza data alla ricerca continua di opportunità di miglioramento, piuttosto cheall’individuazione puntuale degli scostamenti tra obiettivi e risultati effettivi.

Per questa ragione, nel caso riportato nel capitolo successivo, si è optato ad esempioper considerare un costo (quello di esercizio di un macchinario in termini di consumoenergetico) attraverso delle preferenze sui livelli della quantità fisica che ne determinanel modo più diretto l’ammontare (la potenza assorbita).

3.8. Misure monetarie e criteri economici

4Esperienza empirica

There are three principal means of acquiring knowledge [. . . ] observation ofnature collects facts; reflection combines them; experimentation verifies theresult of that combination.

Denis Diderot

4.1 Descrizione del prodotto

Obiettivo del progetto, svolto presso un’impresa multinazionale fornitrice leader di attrez-zature per la verniciatura industriale, è stato quello di analizzare il funzionamento di unsistema per il trattamento dell’aria che alimenta gli aerografi (le pistole) nella tecnologiaair coating, definendone le caratteristiche di qualità e valutandone le prestazioni in termi-ni assoluti ed in rapporto alla concorrenza al fine di individuare possibili miglioramenti(in termini di struttura ed impostazioni) e proporre l’implementazione ottimale.

Figura 4.1: L’aria in ingresso attraversa le tre componenti principali dell’apparecchiatura subendodifferenti tipologie di alterazione ad ogni fase.

La configurazione di base dell’apparecchiatura è quella mostrata in Figura 4.1 dove si

94

4. Esperienza empirica 95

distinguono tre elementi posti in serie: un filtro meccanico-chimico, una barra antistaticaed un riscaldatore. L’aria prelevata dall’ambiente viene dapprima filtrata e compressa1 edal suo ingresso nell’apparecchiatura presenta già una pressione controllata con umiditàrelativa e temperatura piuttosto basse. La fase di filtraggio ha il compito di rimuovereresidui solidi e liquidi eventualmente presenti per via di un’imperfetta pulizia della lineadi alimentazione. Le impurità residue nell’aria (tipicamente olii e siliconi) potrebberooccludere le pistole o essere proiettate sui manufatti, respingendo localmente la vernice ecausando un difetto comunemente noto col nome di “occhi di pesce”. Nella seconda fasel’aria viene invece riscaldata per mezzo di una resistenza a piastre. E’ infatti risaputo chespruzzare la vernice ad una temperatura tra i 20 e 30 °C offre una serie di vantaggi:

• dal punto di vista economico si risparmiano i diluenti pur garantendo la giustafluidità ed il rispetto dei tempi d’essiccazione;

• dal punto di vista ambientale il minor uso di diluenti riduce le emissioni inquinantidurante l’evaporazione delle componenti più nocive;

• dal punto di vista tecnico aumenta la qualità del film. Il minor uso di solventi riduceil rischio di colature, aumenta l’uniformità del prodotto applicato e la brillantezzadella superficie. In fase di evaporazione i solventi possono infatti causare micro-forinel prodotto indurito, con un conseguente effetto opacizzante.

A temperature inferiori ci si avvicina invece alla Temperatura minima di filmazione, al disotto della quale le resine non si saldano in modo ottimale. A quelle troppo elevate, tali daad asciugare completamente o in parte la superficie delle particelle di vernice atomizzata,si incorre viceversa nel rischio che la vernice “bruci” alterando le proprie caratteristicheestetiche e compromettendo l’aderenza. Per trovare il giusto equilibrio spesso si riscaldala vernice mantenendola a temperatura controllata (spruzzatura a caldo), ma una delleipotesi qui fatte è di poter sostituire o integrare questa pratica riscaldando l’aria di ali-mentazione e sfruttando il piccolo volume delle goccioline che fa sì che lo scambio dicalore con l’aria che le convoglia sul pezzo sia molto rapido.

La potenza necessaria a realizzare l’operazione di riscaldamento aumenta all’aumen-tare del salto termico desiderato ΔT e della portata d’aria che attraversa il macchinario.A questo proposito il grafico di Figura 4.2 riporta il calcolo della potenza teorica neces-saria in funzione di ΔT e di tre livelli di portata, indicando con le linee di riferimentoorizzontali le prestazioni della resistenza nel macchinario esaminato rispetto a quelle diun prodotto concorrente. Si osserva che la potenza di targa di quest’ultimo appare ido-nea solo per una portata di circa 0, 1Nm3/min oppure un ΔT inferiore ad 1°C, entrambecondizioni incompatibili con la tecnologia esistente e con gli obiettivi dichiarati. La stessaconclusione è confermata da un modello psicometrico, implementato per considerare iltasso di umidità residua che allontana l’aria dall’idealizzazione a gas perfetto.

1Sia la compressione che l’abbassamento della temperatura (con appositi freezer) contribuiscono a deumi-dificare l’aria. La pressione raggiunta dipende poi dal tipo di installazione e dalla tecnologia, variando dapoco più di 2 bar nei sitemi HVLP (High Volume Low Pressure) dove la pressione del prodotto è di centinaiadi bar, fino a ranggiungere i 4 - 8 bar nel sistema tradizionale. In entrambi i casi una scarsa qualità dell’ariacompressa o condizioni di esercizio errate danno luogo a sprechi di vernice o a finiture di bassa qualità.

4.1. Descrizione del prodotto

4. Esperienza empirica 96

Figura 4.2: Grafico della potenza necessaria per innalzare di ΔT tre diverse portate d’aria. Il modellodi riferimento è Q = ma(h2 − h1) e si considera il rendimento dei riscaldatori pari a 0,4,trascurando il fatto che la potenza risente in parte delle temperature iniziali e finali.

Il flusso viene poi convogliato tra le maglie di una barra antistatica al fine di modifica-re le proprietà elettriche del gas separando parte delle molecole in ioni positivi e negativi.Il più comune principio di funzionamento delle barre antistatiche si avvale dell’effetto co-rona, tale per cui una corrente elettrica (dall’amperaggio estremamente basso) fluisce traun conduttore a potenziale elevato (migliaia di Volt) con un’estremità appuntita ed il flui-do neutro circostante, generalmente l’aria. L’effetto si manifesta quando la differenza dipotenziale supera un valore sufficiente a provocare la ionizzazione rompendo i legamidelle molecole, ma insufficiente all’innesco di un arco elettrico. In questo stato le caricheopposte tendono a neutralizzarsi e quelle dello stesso segno contribuiscono ad aumentarela permeabilità elettrica dell’atmosfera. Particelle cariche sono sempre presenti nell’aria etendono ad attrarre e polarizzare quelle vicine. Ad uno ione positivo mancano uno o piùelettroni che è in grado di accogliere da una carica negativa, mentre uno ione negativopuò essere costituito da un singolo elettrone così come da un atomo o una molecola controppi elettroni, rendendolo disponibile a neutralizzare una carica positiva. Le dimensio-ni degli ioni variano dai più piccoli e comuni (small ion), tra le 2 e le 30 molecole attratteda un singolo ione, a quelli più grandi (large ion o heavy ion), dove la carica è inglobatain corpuscoli di polvere, fumi o vapore. I più grandi arrivano ad una massa 1000 voltesuperiore rispetto ai piccoli (fermo restante che gli ioni positivi sono generalmente piùpesanti di quelli negativi) e hanno di conseguenza una mobilità inferiore.

Nonostante le cariche tendano a scomparire col tempo dall’ambiente e dai manufat-ti scambiando elettroni con gli elementi circostanti o disperdendosi a terra, nei repartiproduttivi si vede aumentare la loro normale concentrazione per diverse ragioni:

• per via del contatto e separazione tra due materiali (forse la causa più comunenell’industria, dove si generano numerosi attriti, movimentazioni su nastri, . . . );

• per un rapido sbalzo di temperatura (il passaggio dei semilavorati nei forni, . . . );

• per l’esposizione a radiazioni (raggi UV, raggi X, campi elettrici, . . . );

• per via di attriti generati da operazioni di taglio, levigatura, . . . ;

4.1. Descrizione del prodotto

4. Esperienza empirica 97

• per induzione (ponendo un oggetto in un campo generato da cariche statiche).

Diversi elementi manifestino inoltre una propensione a caricarsi positivamente o negati-vamente (e quindi una tendenza a cedere o acquistare elettroni) a seconda del materialedi cui sono composti e della loro posizione relativa nella serie triboelettrica.

L’eliminazione delle cariche statiche migliora la qualità della finitura, aiutando la di-stensione uniforme della resina e diminuendo l’assorbimento di inquinanti e particellecariche vaganti (difetto noto come “sporchini”). A differenza dei dispositivi a spazzolache agiscono per strisciamento sulle superfici, le barre mirano ad eliminare il problemain modo attivo, ma potrebbero per questo generare effetti indesiderati, primo tra tutti laproduzione d’ozono. A seguito di ricerche per accertare le condizioni di sicurezza deglioperatori, non si sono rilevati rischi connessi all’uso dell’apparecchiatura esaminata.

Due fattori di disturbo dai tratti stagionali che influenzano la concentrazione di elet-tricità statica sono l’umidità relativa e la temperatura dell’aria nell’ambiente. Avendol’acqua proprietà conduttive, maggiore è l’umidità più è facile che le cariche decada-no rapidamente al suolo, mentre in ambienti secchi la concentrazione di ioni è maggiore.Aumenti di temperatura in un corpo ne incrementano la conduttività consentendo di dis-sipare le cariche elettrostatiche, viceversa se il materiale ha proprietà di isolante termicol’elettricità sulle superfici sopravvive più a lungo.

E’ stato ipotizzato, senza tuttavia particolari evidenze al riguardo, che la deionizza-zione possa giovare anche alla qualità della copertura dei punti difficili da verniciarequali spigoli, vertici, incavi ed aree riparate non disposte frontalmente rispetto al gettodi vernice. Alcune di queste eventualità ammettono un fondamento teorico (degli effettidi Farady in funzione della geometria del pezzo o il fenomeno della concentrazione loca-lizzata di eccessi di carica in zone con minor raggio di curvatura), ma altre sembrano piùazzardate e in presenza di angoli ciechi, è ad esempio difficile evitare che l’assenza di viedi fuga crei turbolenze che ostacolano il corretto deposito del prodotto. Migliori risultatisi potrebbero in questi casi ottenere con la verniciatura elettrostatica o quella HVLP, maper un confronto dettagliato di vantaggi e svantaggi e dei possibili ambiti applicativi diciascuna tecnologia si rimanda alla letteratura specializzata [Pas04].

4.2 Costruzione del MDS

4.2.1 Le variabili e l’indagine preliminare

Lo schema in Figura 4.3 evidenzia come le qualità perseguite siano influenzate da nume-rosi fattori, qui suddivisi in Parametri di processo (relativi all’apparecchiatura esamina-ta), di lavorazione (la classe probabilmente più influente), caratteristiche del Manufatto eFattori di disturbo (come potrebbe esserlo l’operatore, se presente). Il prodotto vernician-te, il supporto, la tecnologia di verniciatura ed il modello di aerografo non solo però sonoestranei all’influenza del macchinario analizzato, ma risultano legati tra loro ed influen-zati da ulteriori fattori, determinano il risultato finale in modo più sostanziale di quantonon sia in grado di farlo un sistema per il trattamento dell’aria.

4.2. Costruzione del MDS

4. Esperienza empirica 98

Figura 4.3: Nel diagramma fish bone sono raccolti alcuni dei principali fattori che verosimilmente hannoun impatto sulle caratteristiche di interesse.

Malgrado ciò si è supposto appropriato, almeno inizialmente, un piano di sviluppodella ricerca così suddiviso:

1. caratterizzazione dell’apparecchiatura: attività prevalentemente di laboratorio mi-rata a conoscere a fondo il funzionamento del prodotto per essere in grado di pre-vedere gli effetti dell’aria in ingresso e delle diverse regolazioni sulle proprietàdell’aria in uscita, apportando eventuali modifiche già in questa fase;

2. sviluppo di un MDS per descrivere le relazioni tra i fattori controllabili ed alcuninoti obiettivi chiave, riconosciuti e ricercati dagli operatori del settore;

3. sviluppo di un MDO per combinare tra loro gli obiettivi;

4. ottimizzazione del modello e identificazione delle condizioni operative consigliate.

La prima fase non prevede l’uso di vernici o particolari attrezzature, cosicché i fattoriesterni al sistema entrino in gioco solo a partire dalla successiva. Anche allora, potendosispesso considerare come caratteristiche fisse del processo realizzato da un cliente, si èdeciso di osservare il comportamento del macchinario in un numero ristretto di realtàed affrontare il problema dal punto di vista della robustezza solo in seguito. Le indaginiempiriche cercano dunque dapprima risposte a domande quali:

1. L’ordine dei tre componenti nell’apprecchiatura è importante?

4.2. Costruzione del MDS

4. Esperienza empirica 99

2. Come varia la temperatura raggiunta dall’aria in uscita al variare dei fattori?

3. Che vantaggi offre un sistema a filo riscaldante rispetto al riscaldatore a piastre?

4. Come varia la capacità di neutralizzare le cariche al variare dei fattori2?

Ed in un secondo tempo i quesiti diventano:

5. Come risponde il macchinario in un reale contesto produttivo presso il cliente?

6. In che misura si differenzia dalla proposta della concorrenza?

Le due caratteristiche di interesse “strumentali” direttamente influenzabili dal siste-ma e che si crede abbiano ripercussioni sulle qualità finali sono:

1. la temperatura dell’aria misurata all’uscita del macchinario (oppure al termine diun tubo di collegamento);

2. la capacità di neutralizzare corpi carichi elettrostaticamente.

I principali fattori di cui si desidera verificare la significatività sono invece:

• la portata3 dell’aria che attraversa il sistema [Nm3/min];

• la temperatura impostata sul riscaldatore [°C];

• la regolazione del potenziometro della barra ionizzante [on/off, ΔV];

• le caratteristiche (lunghezza, materiale, sezione, . . . ) del tubo di collegamento tral’apparecchiatura e l’ipotetica pistola.

Sempre verificando l’umidità e la temperatura dell’aria in ingresso durante le sessioni,si è iniziato col misurare le risposte del sistema a seconda che le fasi successive al filtrofossero nell’ordine la ionizzazione ed il riscaldamento o viceversa. Si è così immedia-tamente compreso che, essendo il riscaldatore collegato a terra, nella prima delle dueconfigurazioni l’aria perdeva ogni capacità neutralizzante in quanto tutte le cariche ve-nivano disperse all’interno dell’apparecchiatura. Ciò è divenuto lo spunto per rifletteresulla necessità di prestare attenzione a tutti i passaggi collegati a terra incontrati dal gettod’aria lungo la linea (in particolare agli attacchi delle pistole). Isolando il riscaldatore edil raccordo metallico del tubo in uscita, l’apparecchiatura si è mostrata indifferentementein grado di riscaldare e neutralizzare in entrambi i setup.

4.2.2 Il modello per il riscaldamento

Due sessioni sperimentali hanno avuto luogo per comprendere la capacità del sistema diriscaldare l’aria. Nella prima vengono variati due soli fattori (la temperatura impostatanel controllore del riscaldatore e la portata d’aria) ognuno su 4 livelli replicando due volteciascuna condizione (32 osservazioni in totale di cui una scartata per un errore di trascri-zione). Tale progettazione deriva dalla volontà di stabilire la significatività di eventualitermini di secondo e terzo ordine e garantire al contempo la buona stima dell’errore.

2L’efficacia del filtro non è stata messa in discussione poiché offre una pulizia dell’aria sempre adeguata.Sostituendo una cartuccia ogni 1-2 anni a seconda dell’utilizzo, si ottengono prestazioni certificate di pocoinferiori a quelle delle applicazioni medicali.

3Fattore preferito rispetto alla pressione dell’aria in ingresso [bar, atm].

4.2. Costruzione del MDS

4. Esperienza empirica 100

Figura 4.4: Grafici prodotti nel corso dell’analisi della temperatura dell’aria in uscita (Equazione 4.1).

Dal grafico mostrato in Figura 4.4 a) si osserva che quando la temperatura impostataè bassa (30 e 40 °C) sembra esservi una relazione lineare che porta la temperatura inuscita a diminuire all’aumentare della portata. A temperature più alte si nota inveceuna brusca perdita di trasferimento di calore in corrispondenza della portata massima.Il grafico degli effetti principali in Figura 4.4 b) mostra il naturale legame positivo tratemperatura impostata e temperatura dell’aria in uscita. La portata sembra esercitare uneffetto minore, forse di natura quadratica. Le linee all’incirca parallele nel grafico delleinterazioni doppie (qui omesso) lasciano supporre l’assenza di forti effetti incrociati.

Sono state vagliate diverse forme funzionali e l’analisi statistica di quella che sem-bra essere la migliore è riportata in Tabella 4.1 a cui corrisponde il modello lineare (neicoefficienti)

Tout = −94, 7+ 7, 84T − 0, 161T2 + 0, 00117T3 − 0, 610P3 (4.1)

pur essendo il termine in P3 verosimilmente superfluo. Vi è infatti il rischio di un modellosovraparametrizzato per via di una stima del MSE inferiore a quella reale e dovuta allasensibilità della termocoppia (±0, 5 °C) che ha prodotto diverse repliche coincidenti4. Iresidui in Figura 4.4 c) e d), appaiono comunque normali, non autocorrelati ed è rispettatal’ipotesi di omogeneità della varianza (p-valueBartlett test: 0,406).

4In particolare il fit di un modello con i soli effetti principali sarebbe Tout = 9, 38+ 0, 679 T − 2, 79 P a cuicorrisponde R2

adj = 97,5%. I residui appaiono normali (p–valueAD = 0, 217), ma ad un’ispezione visiva non

convince l’ipotesi di indipendenza dai valori stimati e si evidenzia lack of fit.

4.2. Costruzione del MDS

4. Esperienza empirica 101

Factor Type Levels Values

T fixed 4 30; 40; 50; 60P fixed 4 0,67; 0,92; 1,26; 1,70

Regression Analysis: Tout versus T; T2; T3; P3

Predictor Coef SE Coef T P

Constant −94,66 18,81 −5,03 0,000T 7,836 1,338 5,85 0,000T2 −0,16094 0,03066 −5,25 0,000T3 0,0011667 0,0002268 5,14 0,000P3 −0,61013 0,08484 −7,19 0,000

Analysis of Variance

Source DF SS MS F P

Regression 4 1904,50 476,12 642,74 0,000Residual Error 27 20,00 0,74Lack of Fit 11 6,75 0,61 0,74 0,688

Pure Error 16 13,25 0,83Total 31 1924,50

Tabella 4.1: Analisi statistica del primo esperimento sulla temperatura dell’aria in uscita. Tutti i terminiinseriti appaiono significativi. S = 0,860681; R2

adj = 98,8%.

In un successivo esperimento si è verificato anche l’effetto del collegamento tra l’ap-parecchiatura e gli aerografi, munendosi a tale scopo di tubi in due diversi materiali edi lunghezza pari a 5 ed a 10 metri e raccogliendo in un piano sperimentale 24 osserva-zioni. Quando la procedura di casualizzazione porta all’impiego in due run consecutividello stesso collegamento si attendono alcuni minuti affinché lo scambio termico tra l’a-ria e le pareti del tubo non causi rilevazioni correlate allo stato precedente (l’attesa durasintanto che non si registrano letture stabili). Il modello ricavato viene qui omesso5 inquanto compatibile con quello ottenuto unendo i dati raccolti nei primi due esperimentie disponendo così in totale di 31+ 24 = 55 osservazioni6.

In Figura 4.5 a) non si evidenziano comportamenti inattesi dei fattori già analizzati esi osservano effetti inversamente proporzionali rispetto alla lunghezza ed al tipo di tubo.I grafici nella matrice di interazione in Figura 4.5 b) sono paralleli, ad eccezione forsedell’interazione tra portata e tipo di tubo.

I risultati dell’analisi sono raccolti in Tabella 4.2 e, scartata una delle variabili dummya correzione d’intercetta per il materiale del tubo (mutualmente esclusive ed esaustive),il modello infine proposto è

Tout =− 13, 0+ 1, 52 T + 1, 17 P− 0, 483 L+ 3, 67 tuEPDM16+

+ 3, 11 tunone − 0, 00991 T2 − 1, 18 P2 (4.2)

Viene confermato che il tubo in gomma EPDM16 consegue prestazioni mediamente

5v. Allegati Elettronici.6Nel caso precedente si può supporre un tubo di materiale indefinito con lunghezza pari a zero.

4.2. Costruzione del MDS

4. Esperienza empirica 102

Figura 4.5: Grafici relativi alla seconda sessione sperimentale.

Factor Type* Levels Values Notes

T cont. 4 (30); 40; (50); 60 Temperatura sul display [°C]P cont. 4 0,67; (0,92); 1,26; 1,70 Portata [Nm3/min]L cont 3 0; 5; 10 Lunghezza tubo [m]tunone dummy 2 0; 1 Tipo tubo: nessunotuEPDM16 dummy 2 0; 1 Tipo tubo: EPDM16tuPU14x10 dummy 2 0; 1 Tipo tubo: PU14x10 (scartata)

Regression Analysis: Tout versus T; P; L; tuEPDM16; . . .

Predictor Coef SE Coef T P

Constant −13,032 6,221 −2,09 0,041T 1,5186 0,2448 6,20 0,000P 1,173 4,788 0,24 0,808L −0,4833 0,1456 −3,32 0,002tuEPDM16 3,6667 0,7278 5,04 0,000tunone 3,111 1,255 2,48 0,017T2 −0,009907 0,002600 −3,81 0,000P2 −1,178 2,007 −0,59 0,560

Analysis of Variance

Source DF SS MS F P

Regression 7 2463,65 351,95 110,73 0,000Residual Error 48 152,56 3,18Total 55 2616,21

Tabella 4.2: Analisi statistica dell’esperimento sulla temperatura dell’aria unendo i dati di due sessioni diprove. Non è riconosciuta l’utilità di un fattore di blocco e si conservano i termini P e P2 inquanto il secondo viene consigliato dalla procedura stepwise. S = 1,78280; R2

adj = 93,3%.

4.2. Costruzione del MDS

4. Esperienza empirica 103

superiori (circa +11, 1%) rispetto a quello in poliuretano PU14x10 e dissipa quasi mezzogrado Celsius per ogni metro aggiuntivo. Codificando i livelli dei fattori risulta chiaroche la maggior influenza sulla temperatura dell’aria in uscita è data dalla temperaturaimpostata sul display dell’apparecchiatura (misurata nel riscaldatore e su cui si basa l’a-zione del termostato). In sintesi e con i dovuti distinguo, la prima risulta mediamentel’82% della seconda, mentre la portata, seppur statisticamente significativa, non rivesteun ruolo chiave nel modello empirico del processo a conferma della potenza adegua-ta del riscaldatore installato. Il calore disperso nel tragitto macchinario-pistole è invececonsiderevole come evidente dall’aver quantificato l’efficacia di tubi in un materiale piùcoibentante (ma meno diffuso tra gli operatori del settore).

L’efficenza del riscaldatore attuale è tuttavia opinabile poiché posto così a monte com-porta perdite consistenti, risultando al contempo l’elemento più costoso tra quelli checompongono l’apparecchiatura (sottoposta a normativa ATEX7 ) ed il più energivoro. Siè predisposta dunque una sessione sperimentale per valutare l’opportunità di sostituirlocon un sistema a filo riscaldante, in cui una resistenza di potenza inferiore è posta lungoun filo fatto correre all’interno del tubo. Da una visone preliminare dei grafici degli effet-ti principali e delle interazioni doppie in Figura 4.6 a) e b), i primi appaiono significativied in particolare alla lunghezza del tubo ed alla temperatura impostata sembra associatoun contributo non esclusivamente di tipo lineare, probabilmente per via della cessionedi calore all’aria che avviene nel nuovo sistema in modo distribuito. Le linee all’incircaparallele nei grafici delle interazioni testimoniano viceversa la loro importanza margina-le. La retta di regressione considerata più idonea, la cui analisi occupa Tabella 4.3, risultaessere

Tout = −9, 48+ 5, 69L+ 0, 288T − 2, 57P− 0, 323L2 (4.3)

Questa forma funzionale non è immediatamente comparabile con l’Equazione 4.2 per viadel diverso principio di funzionamento dei due riscaldatori. Per confrontarli in terminidi temperatura raggiungibile dall’aria in uscita, sono stati calcolati in Figura 4.6 d) degliintervalli di confidenza (al 95%) intorno ai valori previsti in corrispondenza di ciascunadelle condizioni sperimentali eseguite nell’ultimo piano. Tali intervalli, in blu per il ri-scaldatore a piastre ed in rosso per quello a filo, sono ricavati rispettivamente da Eq. 4.2

ed Eq. 4.3 come Y0 ± t1− α2 ,n−p

√s2(x′0(X

′X)−1x0). Si osserva che le temperature in uscitasono in tutti casi eccetto uno diverse tra loro e quelle del riscaldatore a piastre sono supe-riori a quelle del riscaldatore a filo. Come da attese la differenza si riduce all’aumentaredella lunghezza del tubo ed è minima in corrispondenza del tubo da 10 m. Un criterio diefficienza per valutare la convenienza del nuovo sistema può dunque essere:

Tout filo

Potenza assorbitafilo

?>

Tout piastre

Potenza assorbitapiastreovvero T% =

Tout filo

Tout piastre

?>

Potenza assorbitafilo

Potenza assorbitapiastre

7Direttiva europea circa l’impiego di equipaggiamenti e le modalità di lavoro in ambienti con atmosfereesplosive; qui l’eventualità è dovuta all’infiammabilità dei prodotti vernicianti ed alla loro dispersione nel-l’aria. Il dispositivo analizzato, non essendo a diretto contatto con le vernici, può utilizzare componenti cherispondono a normative meno rigide.

4.2. Costruzione del MDS

4. Esperienza empirica 104

Factor Type Levels Values Notes

T cont. 3 40; 50; 60 Temperatura sul display [°C]P cont. 3 0,46; 1; 1,2 Portata [Nm3/min]L cont 3 5; 7,5; 10 Lunghezza tubo [m]

Regression Analysis: Tout versus T; P; L; L2

Predictor Coef SE Coef T P

Constant −9,479 2,686 −3,53 0,003L 5,6889 0,6739 8,44 0,000T 0,28778 0,01531 18,79 0,000P −2,5676 0,3929 −6,54 0,000L2 −0,32267 0,04417 −7,30 0,000

Analysis of Variance

Source DF SS MS F P

Regression 4 158,092 39,523 124,82 0,000Residual Error 16 5,066 0,317Total 20 163,158

Tabella 4.3: Analisi statistica dell’esperimento sulla temperatura dell’aria con il sistema a filo riscaldante.I termini inseriti appaiono tutti significativi. S = 0,562705; R2

adj = 96,1%

A partire da valori attesi ottenuti come per gli intervalli di Figura 4.6 d) si è dunqueeseguito il fit di un modello con T% come variabile dipendente

T% = 0, 242+ 0, 187L− 0, 00410T − 0, 0589P− 0, 0101L2

Le ipotesi sui residui sono rispettate e la sua capacità esplicativa è da considerarsi buo-na (S = 0,0189783; R2

adj = 96,1%). Dallo studio della funzione o da una serie di con-tour plot, si osserva che nel range dei livelli dei fattori T% oscilla tra il 60% e poco piùdel 100%, raggiungendo il massimo in corrispondenza di T basso, P basso, ed L lun-go. In tali condizioni il sistema a filo è indubbiamente preferibile e se si considera che

Potenza assorbitafiloPotenza assorbitapiastre

' 600W2100W ' 28, 57% esso si rivela in ogni caso la scelta più efficiente8.

Nella pratica si è ovviato provvisoriamente ai problemi insorti per via del tempo di tran-sitorio che si instaura quando l’aria nei tubi rimane ferma per un certo periodo e gli ugellidelle pistole sono chiusi, praticando fori nei condotti a garanzia di un ricircolo costante.Considerando anche il deterioramento accelerato di un tubo contenente il filo caldo siè continuata la ricerca di nuovi sistemi e spostare la fase di riscaldamento ancora più avalle, il più vicino possibile agli aerografi.

8I termostati di entrambi i riscaldatori reagiscono a molteplici fattori producendo un reale consumo dienergia differente dal valore di targa. Potenze assorbite, istantanee e medie, oltre ad essere proporzionalialla temperatura impostata (ed in generale al salto termico desiderato), aumentano con la portata d’aria, cheraffreddando la resistenza richiede un maggiore scambio di calore nell’unità di tempo. La ragionevolezzadella precedente approssimazione è stata dunque verificata misurando l’intensità di corrente che attraversal’apparecchiatura nel tempo (dati automaticamente acquisiti su PC tramite un apposito multimetro).

4.2. Costruzione del MDS

4. Esperienza empirica 105

Figura 4.6: Grafici prodotti nello studio del sistema a filo riscaldante. Si riportano in particolare gli Effettiprincipali, le interazioni doppie ed il test di normalità sui residui del modello in Equazione 4.3,nonché il grafico usato per confrontare le due tipologie di riscaldamento.

4.2.3 Il modello per la deionizzazione

La prima sperimentazione condotta allo scopo di caratterizzare la capacità di rimozionedelle cariche statiche si è svolta nel modo seguente:

1. un manufatto in plastica è caricato per strofinio sino a raggiungere un certo poten-ziale misurato dal rilevatore di cariche;

2. l’oggetto viene esposto al getto d’aria ionizzata (portata costante e pari a 0,36 Nm3/min)per un tempo cronometrato e preventivamente concordato;

3. si misura nuovamente l’elettricità statica residua sul pezzo dopo il trattamento.

La descrizione delle quantità osservate è riportata nella prima parte di Tabella 4.4 e si èosservato come l’impossibilità di condizionare con precisione la carica conferita ai ma-nufatti possa riflettersi nell’analisi statistica in diversi modi. Prima di valutare però l’usodi strumenti meno standard, si è voluto provare ad eseguire il fit di due particolari for-me funzionali: una prevede come variabile di risposta la carica residua sul pezzo (Ce f ),considerando tra i fattori quella iniziale (Cei, caratterizzata da livelli in parte casuali)ed un’altra considera come resa del processo la riduzione relativa di elettricità statica(Ce% = Ce f /Cei), essendo più efficace di quello per le differenze in termini assoluti.

Non avendo potuto far variare simultaneamente la lunghezza del tubo e la tempera-tura impostata nel riscaldatore, si è dovuto procedere con due sessioni di prova. Nella

4.2. Costruzione del MDS

4. Esperienza empirica 106

prima il riscaldatore è spento e la temperatura dell’aria risulta pari a quella registrataall’ingresso dell’apparecchiatura (18,2 °C). Il modello che così si ottiene è

Ce f = −7, 54+ 1, 31Cei + 1, 20L− 0, 121L2 − 0, 0709 te Cei + 0, 125 te L (4.4)

Sono soddisfatte le ipotesi sui residui ed esso mostra una discreta capacità esplicativa (S =1,60725; R2

adj = 87,9%) la quale migliora ulteriormente rimuovendo la nona osservazione

in cui il getto non è sembrato da subito ben indirizzato sul pezzo ( R2adj = 93,5%).

I grafici degli effetti principali e delle interazioni in Figura 4.7 a) e b) si riferisconoinvece al modello di riduzione della percentuale di elettricità statica. Si nota il probabileeffetto del tempo di esposizione, del tipo di manufatto (che pure non viene riconosciutocome significativo nel corso dell’analisi) e quello eventualmente non lineare della lun-ghezza del tubo. Anche in questo caso, in modo piuttosto sorprendente, la regolazionedel potenziometro nella barra antistatica non sembra influenzare l’efficacia del getto d’a-ria. I segmenti nella matrice delle interazioni doppie si dispongono in modo parallelo,forse ad eccezione di quelli tra tipo di manufatto e tempo di esposizione. A seguito diun’analisi in parte guidata dalla procedura stepwise, il modello risulta infine

Ce% = 0, 812− 0, 0680 te+ 0, 0880 L+ 0, 00731 te L− 0, 00851 L2 (4.5)

(S = 0,118474; R2adj = 73,7%). Le statistiche in Tabella 4.4 si riferiscono alla stessa forma

funzionale a cui si è aggiunta una variabile dummy per catturare l’anomalia della nonaosservazione. In entrambi i casi i residui si presentano normali, non autocorrelati e convarianza omogenea. Tra i due modelli si è preferito quello di Equazione 4.5 in quanto piùimmediatamente comunicabile e spendibile nel corso delle prove successive9. Ad esso siriferisce anche il grafico di superficie riportato in Figura 4.7 a) da cui appare evidente chei risultati preferiti (ovvero la maggior neutralizzazione di cariche, in blu) si ottengono pertempi di esposizione lunghi e collegamenti brevi tra l’apparecchiatura e le pistole. L’usodel modello al di fuori dei limiti del piano sperimentale viene particolarmente sconsiglia-to poiché la forma non lineare è probabilmente dovuta alla tendenza asintotica a lasciareinvariata la concentrazione di carica sui manufatti al ridursi di te ed all’allungarsi di L.

Nella seconda sessione sperimentale si è variata la temperatura impostata sul riscal-datore a filo (a 40 o a 60 °C), ma la lunghezza del tubo in poliuretano è rimasta costante(pari a 5 m) e si è impiegato come supporto unicamente il becher in plastica.

Il modello diviene

Ce% = 0, 802+ 0, 00194 T − 0, 000600 T Dmax − 0, 00459 te (4.6)

(S = 0,0149738; R2adj = 75,2%). Va osservato che la variabilità della riposta in questo secon-

do esperimento è molto più modesta (indicativamente tra 75 ed 85% della carica iniziale),a causa della presenza del tubo e la funzione appare quasi pianeggiante; la maggior ridu-zione di carica si ottiene comunque in corrispondenza di temperature basse e prolungati

9Il confronto diretto tra R2adj non è informativo poiché la variabile dipendente è diversa tra i due modelli.

4.2. Costruzione del MDS

4. Esperienza empirica 107

Factor Type* Levels Values Notes

Ce f cont. * * Carica elettrostatica residua dopo esposizione [kV]Cei cont. * * Carica elettrostatica iniziale per strofinio [kV]Ce% cont. * * Riduzione percentuale di carica (Ce f /Cei)Dmax cat. 2 1; 0 Potenziometro deionizzatore al massimo (1)te cont. 3 2; 5; 10 Tempo di esposizione al getto d’aria [s]L cont. 3 0; 5; 10 Lunghezza tubo PU14x10 [m]Ma cat. 2 1; 0 Tipo di manufatto: Becher (1) o tazzina (0)

Regression Analysis: : Ce% versus te; P; L; L2; . . .

Predictor Coef SE Coef T P

Constant 0,80417 0,06712 11,98 0,000te −0,06645 0,01076 −6,18 0,000L 0,09477 0,02109 4,49 0,000te ∙ L 0,007440 0,001891 3,93 0,001L2 −0,009332 0,001759 −5,31 0,000r9 −0,3245 0,1051 −3,09 0,006

Analysis of Variance

Source DF SS MS F P

Regression 5 1,17776 0,23555 23,28 0,000Residual Error 21 0,21245 0,01012Total 26 1,39021

Tabella 4.4: Analisi statistica di un modello ricavato per gli effetti dell’aria ionizzata (S = 0,100582; R2adj

= 81,1%). L’esclusione della nona osservazione avviene per mezzo del fattore r9 .

Figura 4.7: Alcuni grafici prodotti nell’analisi dell’esperimento circa la capacità del sistema di ridurre lapercentuale di carica elettrostatica presente sui manufatti.

4.2. Costruzione del MDS

4. Esperienza empirica 108

tempi di esposizione.Si è infine provato a ricavare un modello avvalendosi sia dei dati della prima sessione

sperimentale che di quelli della seconda, pervenendo così a

Ce% = 1, 24+ 0, 159 L− 0, 00949 L2 − 0, 297 te+ 0, 0191 te2 + 0, 00156 T (4.7)

Tale modello (S = 0,0616170; R2adj = 89,1%) richiede però maggiori approfondimenti ed

una rigorosa fase di validazione. Non solo infatti occorre rimuovere la nona osservazioneperchè i residui superino il test di normalità, ma si trova conferma dell’impressione avutadurante gli esperimenti circa la maggiore difficoltà nel caricare i manufatti col trascorreredel tempo ed in particolare nella seconda sessione sperimentale10. Un test t sul confrontotra le medie di popolazioni normali conduce infatti al rifiuto dell’ipotesi nulla H0 : μI

Cei≤

μI ICei

a favore di H1 : μICei> μI I

Cei(p-value: 0,021). La spiegazione di questo fenomeno è

probabilmente attribuibile alla prolungata immissione di aria ionizzata in un ambienteche, pur essendo vasto ed aerato, ha eventualmente raggiunto un “grado si saturazione”di ioni nell’aria.

Ciò che accomuna gli ultimi quattro modelli è comunque la generale concordanza deisegni dei coefficienti; si evince che l’effetto neutralizzante dell’aria emessa dal sistema ètanto maggiore quanto più corto è il tubo, quanto maggiore è il tempo di esposizione equanto più bassa è la temperatura. L’effetto del tempo di esposizione non necessita diparticolari commenti, mentre Figura 4.8 a) mostra come gli ioni abbiano più occasioni diricombinarsi tra loro in lunghi tragitti costretti verso le pistole. Un discorso analogo valeper la temperatura che, aumentando lo stato di agitazione delle particelle nell’aria, riduceil tempo occorrente alle cariche per ricombinarsi11.

Figura 4.8: L’effetto desiderato di neutralizzazione delle superfici (a sinistra) è ostacolato dalle traiettoriedegli ioni nei tubi di collegamento (a destra) che facilitano gli scambi di elettroni.

4.2.4 Il modello per l’ET

Per studiare il comportamento del macchinario in contesti reali che prevedono l’uso diprodotti vernicianti, sono stati visitati alcuni clienti di cui si sono raccolti i feedback. Ladisponibilità dimostrata da parte delle funzioni commerciali nell’organizzare gli incontri

10Data la scelta della variabile di risposta l’introduzione di un fattore di blocco non si mostra efficace.11L’efficacia indicata dai costruttori di dispositivi antistatici (mediamente 15 m di distanza) è riferita al

getto libero ed i moti micro e macroscopici dell’aria la riducono sensibilmente.

4.2. Costruzione del MDS

4. Esperienza empirica 109

non ha tuttavia impedito che la volontà di interferire il meno possibile con il programmalavorativo dei clienti prendesse a volte il sopravvento sulla necessità di raccogliere deidati in modo sistematico secondo i piani sperimentali prestabiliti.

Nel corso di una prima visita presso un noto produttore di arredi del Nord-Italia,l’apparecchiatura è stata collegata alla linea di alimentazione dell’aria in un sistema diverniciatura delle parti di mobili (in legno e compensato). Il grado di automatizzazionedel processo ha consentito, almeno per supporti delle stesse dimensioni, di considerareaccuratamente ripetibili le condizioni operative. La fase di verniciatura avviene in lottidi dimensioni medio-piccole: i manufatti provenienti dalle lavorazioni a monte (l’ultimadelle quali è la levigatura) sono posizionati su nastri trasportatori, ripuliti ed irrorati daun getto d’aria per rimuovere pulviscoli e residui di materiale dalle superfici e fanno illoro ingresso nella camera di verniciatura (singolarmente o in piccoli gruppi a secondadella dimensione). Quattro pistole montate su bracci automatizzati ricoprono di prodot-to verniciante le facce del manufatto ad eccezione di quella a diretto contatto con il pianod’appoggio (un supporto non riutilizzabile in carta). Ad operazione conclusa esso escedal lato opposto della camera e sosta in un forno di cottura per circa un’ora per asciugarela vernice e facilitare l’evaporazione dei solventi. Un operatore ispeziona quindi visiva-mente la qualità di ciascun pezzo e lo posiziona su carrelli diretti alla fase di montaggioo imballaggio o alla verniciatura delle facce eventualmente ancora scoperte. Ogni cam-bio colore (in cui si seleziona una differente ricetta) prevede una fase di lavaggio in cuisi elimina il prodotto in circolo in una vasca di raccolta e manualmente si procede allapulitura degli ugelli. Il sistema può essere classificato come HVLP: la pressione dell’ariaè di 2,5 bar (stimata 2,20 - 2,25 bar in lavoro), mentre quella del prodotto è di 120 bar(85 - 90 bar in lavoro). Si è stimata la lunghezza del tubo di collegamento (in polietilene,PE12x10) dall’apparecchiatura alle pistole in 13-15 m.

I dati raccolti, non si prestano purtroppo alla definizione di modelli per le caratteristi-che di interesse, né ad un’analisi statistica formale avendo rinunciato al controllo attivosu fattori quali la forma e la dimensione del supporto, ricetta e colore, pressione dell’ariae pressione del prodotto.

Risultati incoraggianti sono però giunti da grammature della vernice asciutta effettua-te ad intervalli di tempo quasi regolari su pannelli di dimensione 1 × 0, 25 m medianteuna bilancia supposta sensibile a variazioni di 2 g. Si è rilevato il passaggio da 36 g (ov-vero 144 g/m2) di prodotto depositato sui pannelli di prova prima dell’introduzione del-l’apparecchiatura a 48 g (192 g/m2) con il dispositivo azionato e riscaldatore impostatoa 60 °C (circa 26 °C alle pistole). Considerato questo un deposito eccessivo il responsabi-le di reparto ha disposto l’abbassamento della pressione del prodotto con un risparmioatteso di materie prime. E’ stato possibile anche abbassare di mezzo bar la pressionedell’aria, un’operazione che secondo gli esperti del settore ha ripercussioni positive sulladistensione e sul grado di brillantezza della finitura. Con il controllore impostato a 68 °Cl’addetto alla qualità ha segnalato un miglioramento della finitura superficiale rispetto aprima dell’introduzione dell’apparecchiatura e l’impressione di un ventaglio di vernicemeglio definito per via di un minor overspray.

L’esperienza svolta presso un secondo produttore di mobili d’arredo e propietario di

4.2. Costruzione del MDS

4. Esperienza empirica 110

un processo di verniciatura analogo a quello descritto nella visita precedente, si è con-cretizzata in un primo modello empirico per il peso del prodotto depositato sui pezzi (edi conseguenza per l’ET). Vengono impiegate vernici ad acqua e l’attrezzatura utilizzatasi compone di due bracci robotizzati ciascuno dotato di due pistole; le condizioni inizia-li prima dell’introduzione dell’apparecchiatura comprendono un’aria di atomizzazionealla pressione di 1,2 bar e il prodotto verniciante a 110 bar. Il tubo di collegamento tral’apparecchiatura e le pistole (in poliammide, PA8x10) qui misura 7 m in lunghezza. An-che in questo caso però, per non interferire con l’attività lavorativa del cliente, la qualitàdel piano ne ha risentito. Oltre ad essere sbilanciato, si è dovuto prendere nota di cambidi colore e pur cercando di tenere sotto controllo la pressione del prodotto, non si sonopotuti evitare aggiustamenti imprevisti. Malgrado ciò si osserva in Figura 4.9 a) come ilfattore Colore non sembri particolarmente influente e si segnala piuttosto la presenza diun dato isolato (130 g) che oltre a costituire la prima osservazione, corrisponde a condi-zioni operative mai più avvicinate. Tenendo in considerazione questi ed altri problemi,il modello proposto ed analizzato in Tabella 4.5 risulta infine essere

G = 173− 8, 7 P− 0, 913 T + 1, 14 T P− 31, 5 P2 (4.8)

Il cui fit non sembra però molto accurato ed i p-value in Tabella 4.5 segnalano molti ter-mini non significativi, ma se vi comparisse come unico regressore la temperatura, cioèil consiglio della procedura stepwise, gli indicatori di bontà del fit peggiorerebbero ulte-riormente ( R2

adj = 41,0%). La stima dell’errore non è comunque in questo caso un buoncriterio discriminante per via dell’impossibilità di misurare la risposta con la dovuta pre-cisione. Figura 4.9 b) suggerisce di operare a basse pressioni dell’aria di atomizzazio-ne e temperature relativamente elevate per aumentare la quantità di vernice depositatasui manufatti ed in queste condizioni l’operatore segnala anche un getto più definito edugelli meno sporchi.

Figura 4.9: a) Nel primo riquadro si nota la penuria di osservazioni, la natura discreta delle misurazioni ela presenza del dato anomalo. b) In corrispondenza dell’angolo più interno del grafico si rilevail maggior deposito di vernice sui pezzi.

Onde comprendere come si collochi l’apparecchiatura oggetto di studio rispetto alle

4.2. Costruzione del MDS

4. Esperienza empirica 111

Factor Type Levels Values Notes

G cont. * 130 . . . 150 Quantità di vernice depositata [g/m2]Colore cat. 4 * [giallo, rosso, bianco, blu]P cont. * 0,7 . . . 1,4 Pressione aria atomizzazione [bar]T cont. * 30 . . . 84 Temperatura impostata [°C]

Regression Analysis: G versus P; T; TP; P2

Predictor Coef SE Coef T P

Constant 173,02 51,59 3,35 0,012P −8,70 74,17 −0,12 0,910T −0,9132 0,5586 −1,63 0,146T P 1,1418 0,5516 2,07 0,077P2 −31,52 27,71 −1,14 0,293

Analysis of Variance

Source DF SS MS F P

Regression 4 309,61 77,40 5,61 0,024Residual Error 7 96,64 13,81Total 11 406,25

Tabella 4.5: Analisi statistica dell’esperimento di grammatura. S = 3, 71559; R2adj = 62, 6%.

alternative proposte dal mercato in questo segmento, si sono svolte alcune prove pressoi clienti su uno dei dispositivi più diffusi. In una prima valutazione è stata monitoratal’ET del processo di verniciatura di tappi in plastica per bombolette spray, posizionati agrappolo su supporti cilindrici che ne raccolgono da 60 a 100 a seconda delle dimensioni.Il grappolo viene agganciato ad una giostra che imprime una rotazione rispetto all’asseverticale mentre una sbarra (orizzontale) a cui sono fissate delle pistole compie traslazio-ni dall’alto al basso e viceversa, automaticamente ed a velocità controllata, erogando lavernice sui pezzi.

Il dispositivo della concorrenza, composto da una fase filtrante (in cui l’aria attraversauna soluzione liquida brevettata), una fase riscaldante ed una antistatica, è qui collegatoalle pistole da un tubo in nylon (� 10) di lunghezza pari a 5 m. Nel corso di prove prelimi-nari si è dimostrato che l’apparecchiatura non produce variazioni percepibili nella tem-peratura dell’aria di alimentazione12, non consente di rimuovere l’elettricità statica svi-luppata su alcuni oggetti di prova13 e l’unico effetto rilevato consiste in un innalzamentodell’umidità relativa dell’aria (verosimilmente per via del passaggio nel liquido).

Per quanto riguarda l’efficienza di trasferimento, avendo riconosciuto il peso costantenei supporti privi di vernice (master), si sono raccolti alcuni campioni sia nella configu-razione con l’apparecchiatura collegata al sistema, che in quella che la vede by-passataricavando i seguenti dati di sintesi

N Media [g] DevSt SE Mediasenza 6 50,3667 0,0816 0,033con 6 50,3833 0,0408 0,017

12Come osservato a livello teorico in Figura 4.2 la potenza del riscaldatore è insufficiente.13Misure dell’efficacia di due pistole ad aria ionizzante presenti nello stabilimento rilevano un problema

di messa a terra per una di esse e confermano l’attendibilità di strumento e procedura di misurazione.

4.2. Costruzione del MDS

4. Esperienza empirica 112

Il test t per il confronto tra le medie delle due popolazioni porta a non rifiutare l’ipotesiche esse coincidano (p-value 0,668 per l’alternativa H1 : μsenza , μcon e di conseguenza0,334 per H1 : μsenza < μcon) e non si registra neppure la riduzione significativa dellavarianza (p-valueLevene’s test 0,664). Se quantitativamente l’ET risulta la medesima con osenza l’apparecchiatura, dal punto di vista qualitativo il cliente stesso non rileva grossimiglioramenti in termini di definizione nella geometria del getto o della capacità speratadi ricoprire le zone problematiche (angoli, spigoli, rientranze, . . . ).

Prove analoghe in un’altro impianto di verniciatura automatizzato in cui si sono pre-si in considerazione manufatti di diverse forme, materiali e vernici dalla maggiore ominore viscosità, hanno condotto a simili conclusioni. In particolare ispezionando at-tentamente i manufatti di Figura 4.10 non si distinguono differenze in termini ottici, diaderenza al supporto, di spessore del film o quantità di vernice depositata, né di veloci-tà/dinamica del processo (ger. Verlauf ). Prove cronometriche sui tempi d’asciugatura,non suggeriscono differenze tra le medie dei pezzi verniciati con o senza il macchinario.

Figura 4.10: Fotografie di pezzi verniciati (profilo ondulato in alluminio, piano in acciaio ed estrusionein alluminio) senza (a sinistra) e con (a destra) l’apparecchiatura concorrente. Anche adun’ispezione ravvicinata non si notano differenze.

Una seconda alternativa proposta dal mercato prevede anch’essa fasi di filtraggio,riscaldamento e ionizzazione, aggiungendo come peculiarità l’aumento della concentra-zione di azoto nella miscela dell’aria di atomizzazione allo scopo dichiarato di migliorarela resa del processo. Pur non avendo testato direttamente il prodotto si è osservato cheper conseguire un aumento di poco meno del 20% della quantità di azoto nell’aria (dal78% al 97%) occorre sostenere costi notevoli. Il dispositivo ha un prezzo di listino diquasi un ordine di grandezza superiore rispetto alle alternative, occorrono modifiche allalinea di alimentazione e si rende necessario prelevare e comprimere circa 2,4 Nm3 d’ariaper ogni Nm3 di miscela di gas utilizzabile nel processo di verniciatura. Se i benefici delprimo concorrente non sembrano dunque chiari, questa seconda proposta non appare aprima vista conveniente ed in ambedue i casi le evidenze raccolte non supportano unriscontro oggettivo delle promesse commerciali.

4.2.5 Commento critico

L’analisi sin qui condotta ha permesso di sviluppare dei modelli empirici per il funzio-namento dell’apparecchiatura e di sondare con attività di laboratorio l’efficacia di con-figurazioni alternative. La fase di ricerca sul campo, pur incontrando talune difficoltà,

4.2. Costruzione del MDS

4. Esperienza empirica 113

STRENGTHS WEAKNESSES

• intende soddisfare bisogni reali espressi dai clienti • le performance devono essere valutate caso per caso•mostra efficacia ed un costo contenuto • i test possono essere costosi e scomodi per i clienti• non compete con altri prodotti commercializzati

dall’azienda• i benefici dipendono dalle specifiche condizioni

operative

THREATS OPPORTUNITIES

• dubbi insistono sui piani di sviluppo futuri • riguadagna vendite strategiche contrastando laconcorrenza

• difficoltà nel definire obiettivi e target misurabili • intensifica rapporti e collaborazioni con i clienti• rishio di sottrarre risorse a progetti del core business • rafforza l’immagine di un’azienda interessata al

miglioramento della qualità• si può apparire deboli di fronte al cliente se

l’applicazione risulta inefficace

Tabella 4.6: L’analisi SWOT dell’apparecchiatura aiuta a riflettere sul tipo di sviluppo a cui sottoporla estimola il confronto tra i reparti coinvolti nell’attribuire delle priorità.

ha prodotto risultati interessanti a sostegno della sua efficacia e competitività, nonostan-te alcuni clienti lamentino di non riuscire a mantenere nel tempo i benefici inizialmenteraggiunti. Date le differenze nelle tipologie di impianti, l’apparecchiatura necessita in-fatti di essere testata ad ogni nuova installazione e di strumenti di misura accurati perrilevarne le effettive prestazioni. Mostrata una sintesi della ricerca condotta e delle di-rezioni di sviluppo individuate al vertice aziendale, il progetto ha suscitato interesse edapprezzamento con la conseguente decisione di mantenere tutti gli sforzi in esso con-vogliati. E’ essenziale quindi anche in futuro non distogliere l’attenzione dalla ricercadi risultati oggettivi e misurabili, poiché in molti casi si insinua ancora il sospetto chesiano valutazioni di carattere emotivo a guidare la scelta del cliente se investire o me-no nella fase di trattamento dell’aria14. Il prodotto analizzato resta parte del patrimonioaziendale come risorsa a disposizione della forza commerciale per proporre ai clienti unavalida alternativa alle soluzioni della concorrenza. Da questo punto di vista il progettoha avuto esito positivo, considerato che il suo fine strategico, le cui caratteristiche salien-ti sono riassunte nell’analisi SWOT di Tabella 4.6, è in primo luogo quello di impedireche l’installazione di un dispositivo per il trattamento dell’aria divenga l’occasione pergli agenti della concorrenza di attuare politiche di cross-selling su altri componenti dellalinea di verniciatura che costituiscono il core-business dell’impresa fornitrice.

14Ci si riferisce in particolare ad un “fattore moda” per cui l’installazione di un’aparecchiatura presso unoperatore del medesimo distretto industriale, può divenire la ragione sufficiente per munirsi della stessatecnologia. Inoltre è opinione diffusa che in molti processi di verniciatura la pressione del prodotto sia ec-cessiva e l’introduzione del dispositivo diviene l’occasione per rivedere i parametri del processo e correggerele derive, azione che porta a confondere la vera causa dei miglioramenti.

4.2. Costruzione del MDS

4. Esperienza empirica 114

Variabile Unità di misura Note

Y1 : De # Numero di difetti rilevati in un m2 di superficie verniciataY2 : Gl gu (gloss units) Indice della lucentezza del filmY3 : ET % Efficienza di trasferimento

X1 : T °C Temperatura impostata sul macchinarioX2 : P Nm3/min Portata d’aria di alimentazioneX3 : D V Potenziale impostato nella barra elettrostatica

Tabella 4.7: Variabili indipendenti e dipendenti nel MDS . I livelli dei fattori si assumono codificati.

4.3 Costruzione ed ottimizzazione del MDO

4.3.1 Il MDS adottato e gli obiettivi generali

Se è difficile che un’apparecchiatura agendo in un solo punto abbia il potere di influenza-re tutte le proprietà desiderate in un processo di verniciatura15, è emerso come la qualitàdell’aria abbia ripercussioni positive su alcune di esse. Il MDS ricavato nel corso del-l’esperienza empirica soffre tuttavia di limiti per cui si preferisce proseguire il processodi ottimizzazione, a scopo illustrativo, supponendo un’apprecchiatura contraddistinta daun’efficacia leggermente maggiore di quella riscontrata, dove le relazioni per il numero didifetti localizzati (somma di schivature, sporchini, occhi di pesce, . . . ) individuati in unmetro quadrato di superficie verniciata (De), per la misura del gloss (Gl) e dell’Efficienzadi trasferimento (ET) sono date rispettivamente da

De = 6, 0513+ 0, 562486T + 3, 42816P+ 1, 00183D+ 1, 60926T2 + 3, 5538P2+ (4.9)

+ 2, 66992D2 − 2, 75TP+ 5PD

( S = 2,12207; R2adj = 88,81% )

Gl = 75, 1017− 1, 80062T + 0, 0482617P− 0, 367778D+ 0, 910912T2+ (4.10)

− 0, 768467P2 − 1, 82913D2 − 0, 5625TP− 1, 0625TD+ 1, 1875PD

( S = 0,629559; R2adj = 94,82% )

ET = 74, 921+ 2, 65932T − 0, 575798P− 2, 05856D− 1, 05926T2 − 1, 76636P2+ (4.11)

− 1, 85475D2 + 0, 9375TP− 1, 1875PD

( S = 1,00291; R2adj = 93,23% )

Le variabili sono descritte in Tabella 4.7 ed in particolare il numero di difetti ed il glosssono rappresentativi dell’interesse rivolto all’efficacia del processo ed alla qualità delprodotto finito, mentre l’ET è il parametro prioritario per valutarne l’efficienza16.

L’obiettivo sarà quello di operare nelle condizioni che minimizzano il numero di di-fetti, massimizzano l’Efficienza di trasferimento e mantengono la brillantezza prossima

15cfr. Figura 1.6.16Le relazioni sono allineate a quanto emerso dagli esperimenti condotti. I dati di origine sono riportati in

Tabella D.1 (pag. 190) e la relativa analisi statistica figura tra gli allegati elettronici (C.3.3, pag. 189).

4.3. Costruzione ed ottimizzazione del MDO

4. Esperienza empirica 115

al valore target di 74 gu. Da una prima ispezione di Figura 4.11 non è subito chiaro nelparallel coordinates plot e negli scatterplot, se e quanto gli obiettivi siano tra loro in conflitto,anche se i coefficienti di correlazione tra le risposte suggeriscono una lieve sinergia.

Figura 4.11: Una trasformazione dei dati raccolti rende qui tutte le caratteristiche di interesse daminimizzare. La dimensione Y1 è ripetuta nel PCP per visualizzare tutte le permutazioni.

Benché il numero di caratteristiche e di fattori sia già sufficiente a creare difficoltà nel-le visualizzazioni, Figura 4.12 riporta tre grafici da cui si comprende la disposizione dellesoluzioni non dominate. Il primo riquadro rappresenta la proiezione nel piano Y1 × Y3

dell’approssimazione della Soluzione completa ottenuta mettendo all’opera due diversialgoritmi (il NBI in blu ed un algoritmo evolutivo in verde17) che mostra chiaramente itrade off e come oltre una certa soglia, aumenti nell’ET vadano a scapito della possibili-tà di ridurre il numero di difetti. Nelle due proiezioni che riguarderebbero Y2, la formadella frontiera è meno chiara poiché il sistema garantisce un gloss pari al target in molte-plici condizioni operative. La posizione dell’ottimo ideale è indicata in in rosso. I graficisuccessivi spostano invece l’attenzione nello spazio dei fattori: in particolare Figura 4.12b) mostra gli stessi punti efficienti rispetto ai livelli di X1 ed X3 che li determinano. Ladispersione di queste soluzioni, una nube a forma di fuso in χ , si ritrova in Figura 4.12c) dove se ne evidenzia una particolare sezione (in blu) in corrispondenza di un livellospecifico della variabile esclusa (X2 = 0.12791), ottenuta valutando le funzioni Eq. 4.9,Eq. 4.10 ed Eq. 4.11 in una griglia equispaziata in χ. I punti del NBI appaiono più ordi-nati di quelli dell’algoritmo evolutivo che, pur non producendo molta varietà in questaapplicazione, sembra maggiormente accurato ed individua una zona simile a quella del-l’algoritmo utilizzato nel riquadro c), di gran lunga il più costoso in termini di tempo edove i bordi frastagliati e la presenza di punti isolati dipendono dal passo nella griglia divalutazione in χ.

17I calcoli necessari in questo paragrafo sono eseguiti in MATLAB®, ricorrendo in particolare ai packageGODLIKE - A robust single-& multi-objective optimizer per implementare gli algoritmi evolutivi e Multicore -Parallel processing on multiple cores per ottimizzare l’uso delle risorse durante le simulazioni più intensive.

4.3. Costruzione ed ottimizzazione del MDO

4. Esperienza empirica 116

Figura 4.12: a) Frontiera efficiente in b) Proiezione in X1 × X3. c) Grafico precedente ottenuto con undiverso algoritmo ed evidenziando una sezione.

L’ideal solution in Figura 4.12 a) ha per coordinate

Yi X1 X2 X3

min Y1 1.0197 -1.6117 -1.6818 1.3872min(Y2 − 74)2 74 0.96357 0.12332 0.097877max Y3 77.4512 1.4589 0.46025 -0.70229

Nelle tre ottimizzazioni disgiunte, per Y1 è attivo uno dei vincoli che definiscono i li-miti della regione sperimentale, mentre essendo il valore target del gloss in più puntiraggiunto, la soluzione proposta per Y2 risente dell’algoritmo e delle condizioni iniziali18.

4.3.2 Modelli di compromesso tra le caratteristiche

E’ stato anzitutto sviluppato l’approccio classico con le desiderabilità (di tipo MDS –MDO ): per rendere la costruzione meno arbitraria si è deciso, concordati dei limiti di [Mod-1]

piena o assente soddisfazione, di avvalersi dell’AHP per determinare gli esponenti. Lepriorità derivanti da confronti a coppie tra alcuni livelli fissati su ciascuna caratteristicapresa singolarmente sono serviti da riferimento per modellare la forma delle funzioni,come mostrato in Figura 4.13 e, valutando l’importanza relativa delle caratteristiche, si èrisaliti ai pesi dell’Indice di desiderabilità. I dati in base a cui si sono ricavati i parametridi questo MDO sono raccolti in Tabella 4.8.

L’ipotesi di indipendenza tra i criteri sembra riflettere adeguatamente il problemaattuale e l’ottimizzazione dell’Indice di desiderabilità ottenuto con la media geometricaconduce alle condizioni

x(c)opt = [0.56402 0.12791 − 0.47109]

Y(x(c)opt) = [6.99802 74.307 76.6787]

df(x(c)opt) = [0.31446 0.91458 0.67002]

D(c)(x(c)opt) = 0.53923

18Quella indicata è stata fornita da un algoritmo basato sul gradiente; il NBI ha individuato x0 =[−1.4162 − 1.4328 1.0679], mentre un algoritmo evolutivo x0 = [−1.3516 − 1.4558 − 1.3387].

4.3. Costruzione ed ottimizzazione del MDO

4. Esperienza empirica 117

Figura 4.13: Funzioni di desiderabilità associate alle tre risposte dove i punti evidenziati corrispondonoalle priorità assegnate con l’AHP. I pesi dei tre obiettivi (dalla matrice di confronti in Tabella4.8) risultano essere wDe,Gl,ET = [0.32 0.08 0.60], (CR = 0.0017).

Caratteristica Funzione di desiderabilità

Y1 : De df1(0, 18, 2.35, ‘STB’)Y2 : Gl df2(70, 74, 80, 2.6, 1.7, ‘NTB’)Y3 : ET df3(65, 80, 1.6, ‘LTB’)

cmDe(0 ; 9 ; 18) = [1 4 9 ; 1/4 1 3 ; 1/9 1/3 1]cmGl(70 ; 72 ; 74 ; 77 ; 80) = [1 1/3 1/9 1/4 1/2 ; 3 1 1/4 1/2 2 ; 9 4 1 4 6 ; . . .

4 2 1/4 1 3 ; 2 1/2 1/6 1/3 1]cmET(80;72;65) = [1 3 9 ; 1/3 1 5 ; 1/9 1/5 1]cmDe,Gl,ET = [1 4 1/2 ; 1/4 1 1/7 ; 2 7 1]

Tabella 4.8: Parametri delle funzioni di desiderabilità e matrici di confronti a coppie in base a cui si sonoricavate le priorità.

Come previsto il punto x(c)opt è efficiente e si situa all’interno della regione evidenziatain Figura 4.12 c); si decide di considerare quello ottenuto un compromesso accettabi-le, dato il valore dell’Indice di desiderabilità e dei livelli delle risposte se paragonati almiglior risultato raggiungibile da ciascuna di esse presa singolarmente. Una soluzionenon dissimile si raggiunge utilizzando le Funzioni di desiderabilità asintotiche definitein Equazione 3.12 (con α = 0, 9) risultando in tal caso

x(a)opt = [0.54592 0.1044 − 0.44934]

Y(x(a)opt) = [6.93224 74.3557 76.6374]

L’analisi di sensibilità inizia prendendo in considerazione come varia il valore della Fun-zione obiettivo a seguito di piccoli spostamenti dei fattori dalle condizioni operative otti-mali e Figura 4.14 mostra nel piano X1 × X3 i contour plot delle funzioni coinvolte, postoX2 al proprio livello ottimale.

Le incertezze sul MDO si sondano invece valutando la sensibilità della Funzioneobiettivo rispetto alle variazioni dei parametri e nei grafici di Figura 4.15 si mostra il suolivello massimo se li si modifica uno alla volta. Alcuni esponenti e la soglia di pienasoddisfazione per l’ET sembrano rivestire un’importanza critica, mentre il lato sinistro didf2 in particolare, non essendo coinvolto nelle condizioni ottime, non ha sulla Funzioneobiettivo effetto alcuno. Ciò che interessa maggiormente è però l’influenza dei parametri

4.3. Costruzione ed ottimizzazione del MDO

4. Esperienza empirica 118

Figura 4.14: Sensibilità rispetto a variazioni nei livelli dei fattori (con X2 = 0.12791).

sulle condizioni ottime e da grafici come quelli di Figura 4.16 si nota ad esempio che il nu-mero massimo di difetti e la stessa soglia dell’ET, sono i valori con maggiori ripercussionisulla coordinata X2.

Figura 4.15: Sensibilità rispetto a variazioni dei parametri del MDO , monitorando D(c). Si è variato unparametro per volta massimizzando poi la Funzione obiettivo e conservandone il risultato.

Un primo metodo per considerare in modo più formale l’incertezza connessa all’usodi modelli empirici consiste nell’ottimizzare una Funzione obiettivo aggregando i valoriattesi delle funzioni di desiderabilità come discusso per l’Equazione 3.14 (pag. 61). Nonessendo possibile un’espressione analitica degli integrali che ivi compaiono, il calcolo ècondotto numericamente e si giunge alle condizioni

x(e)opt = [0.49753 0.031819 − 0.38389]

Y(x(e)opt) = [6.74646 74.4832 76.5081]

D(e)(x(a)opt) = 0.53276

L’ottimo in χ non si discosta molto da quello del metodo tradizionale, ma si nota il miglio-ramento nella caratteristica con desiderabilità più bassa (De) a scapito delle altre; il suolivello ottimo è infatti vicino alla soglia di inaccettabilità ed il modello è contraddistintodall’errore sperimentale relativamente maggiore.

Un secondo approccio discusso per considerare l’incertezza richiede l’espansione in

4.3. Costruzione ed ottimizzazione del MDO

4. Esperienza empirica 119

Figura 4.16: Sensibilità rispetto a variazioni dei parametri del MDO monitorando X2opt. Variando unodei parametri ed ottimizzando la Funzione obiettivo si conserva la coordinata X2 dell’ottimo.

serie della Funzione obiettivo e l’uso delle approssimazioni asintotiche, correggendo l’In-dice di desiderabilità tradizionale come illustrato nel Paragrafo 3.5.2 (pag. 63). Il calcolodelle derivate parziali viene qui eseguito numericamente e si sono conservate le Funzionidi desiderabilità di Figura 4.13, supponendo che la distanza del punto di compromes-so dai luoghi di discontinuità nelle derivate renda meno stringente il ricorso alle formesempre differenziabili.

Ottimizzando un Indice di desiderabilità come quello di Equazione 3.17 si giunge a [Mod-2]

x(n)opt = [0.56005 0.12509 − 0.46852]

Y(x(n)opt) = [6.98651 74.3136 76.6711]

D(n)(x(n)opt) = 0.53689

In questo caso la differenza rispetto alle condizioni ottime del metodo classico è ancorpiù modesta, ma diviene possibile analizzare dettagliatamente la soluzione trovata. Inparticolare i limiti dell’intervallo di confidenza al 95% sul valore della Funzione obiettivo,

calcolati a partire dall’Equazione 3.25, risultano essere 0.46692 ≤ E[D(n)(x(n)opt)] ≤ 0.60544.ed in Figura 4.17 a) si può anche osservare come varino in χ (nell’esempio rispetto alfattore X2 avendo posto X1 ed X3 a livelli ottimali).

L’incertezza si ripercuote sulle condizioni operative ottimali dovendo ammettere l’e-sistenza di altri punti che conseguono prestazioni non dissimili, o meglio non statistica-mente distinte, da quelle individuate e tra cui dunque è indifferente scegliere. L’insiemedi dette soluzioni è l’Equivalence Zone (EZ) e si ricava sulla base della condizione di Equa-zione 3.28. E’ questo un problema per il quale è assai più semplice verificare se un puntoappartiene o meno all’EZ piuttosto che individuarne con precisione forma e perimetro.Il grafico in Figura 4.18 a) ne offre comunque un’approssimazione (più l’area è scura, piùsono i livelli di X2 che appartengono all’EZ) e in Figura 4.18 b) la stessa proiezione in

X1 × X3 intorno ad x(n)opt, evidenzia anche la sezione per X2 = 0.12509 dove si è adottatauna risoluzione maggiore. Di tutti i punti equispaziati esaminati nel cubo della regione disperimentazione, circa il 5,5 % di essi è risultato appartenere all’EZ (il 9 % di quelli nellasezione evidenziata): come è lecito attendersi l’area più vasta racchiude piccole pertur-

bazioni di x(n)opt, ma si osservano anche combinazioni di livelli dei fattori piuttosto distanti

4.3. Costruzione ed ottimizzazione del MDO

4. Esperienza empirica 120

Figura 4.17: a) Intervalli di confidenza sul valore dell’Indice di desiderabilità rispetto ad X2. La lineatratteggiata indica il massimo della curva centrale D(n)(∙) e cioè nel valore ottimo di X2 edove l’intervallo di confidenza ha l’ampiezza indicata. b) Distribuzione simulata del valore

atteso e di quello previsto per D(n)(x(n)opt ).

in grado di raggiungere valori della Funzione obiettivo non dissimili da quello massimo.Nel caso di Figura 4.18 a) e b) la presenza di un perimetro dalla forma riconoscibile aldi fuori dell’EZ centrale è più probabilmente causato dalle condizioni operative dove leFunzioni di desiderabilità non sono differenziabili, fatto che induce in errore l’algoritmodi verifica della condizione di appartenenza19. Può comunque accadere, come con altrimetodi che individuano regioni di confidenza intorno al punto stazionario di DIn, che laregione in χ sia aperta o chiusa, che sia unica oppure costituita da un certo numero dizone disgiunte. La risoluzione in questi grafici dipende dal passo della griglia in cui vie-ne valutata la condizione di Eq. 3.28 e data la dimensionalità di χ, la procedura divienerapidamente onerosa. Ovviamente è possibile concentrare gli sforzi in zone di interessespecifico, così come è stato fatto restringendo le maglie nelle sezioni evidenziate dove ilfattore escluso X2 è al livello ottimale. Il trade off tra accuratezza e risorse computazio-nali si avverte ancor di più quando si ricorre ad una simulazione come quella presentatain (sim-2) (pag. 67). L’EZ così ricavata è rappresentata in Figura 4.18 c) dove viene rico-

nosciuta la sola area chiusa intorno ad x(n)opt, di dimensione visibilmente maggiore rispettoa quella dell’approccio analitico (la frazione di punti appartenenti all’EZ diviene l’8,3% del totale ed il 14,5 % di quelli appartenenti al piano X2 = 0.12509). Alla presenzadi bordi “sfumati” viene qui attribuita una duplice causa. In primo luogo il valore di

S è forse scarso e le distribuzioni empiriche delle differenze D(n)(x0) − D(n)(x(n)opt) nonsono sufficientemente simili a quelle asintotiche (manifestando maggiore variabilità). Se-condariamente, per ottenere un risultato in tempi ragionevoli, si è dovuto ricorrere adun’ulteriore approssimazione, estraendo un campione ancor più ridotto con cui stimare iparametri di una distribuzione (supposta normale20) impiegata per calcolare i percentili

19Questa tesi è anche supportata da Figura 4.14 a) dove la stessa geometria si osserva alle “pendici”dell’Indice di desiderabilità.

20L’algoritmo implementato prevede alcuni test per valutare l’appropriatezza di questa ipotesi.

4.3. Costruzione ed ottimizzazione del MDO

4. Esperienza empirica 121

2.5% e 97.5%. Entrambi questi aspetti possono venire corretti migliorando gli algoritmio prediligendo maggiormente l’accuratezza dei risultati alla brevità dei tempi di attesa.La forma e la dimensione dell’EZ ottenuta per via numerica, per quanto non del tut-to dissimile da quella dell’approccio analitico, mostra macroscopiche differenze per cuioccorreranno ulteriori indagini finalizzate a comprenderne più a fondo le cause.

Figura 4.18: a) Densità dell’Equivalence Zone di x(n)opt rispetto ad X2. b) Approssimazione tramite lacondizione analitica. c) Approssimazione dell’EZ ricavata dai quantili della distribuzione

simulata di D(n)(x(n)opt )− D(n)(x0).

L’approccio numerico consente anche di calcolare un intervallo di previsione sui va-lori di ˆD(n)(∙) in corrispondenza di una qualsiasi condizione operativa. Figura 4.17 b)riporta il risultato di una simulazione condotta secondo (sim-3) (pag. 68) dove si evi-denziano i limiti dell’intervallo al 95% sui valori previsti nell’ottimo, ovvero 0.3160 ≤

ˆD(n)(x(n)opt) ≤ 0.74515. Allo stesso modo si può applicare (sim-1) (pag. 67) per appros-simare i limiti dell’intervallo di confidenza sul valore atteso della Funzione obiettivo incorrispondenza di una qualunque combinazione di livelli dei fattori, così da giungere ad

esempio per quello al 95% intorno ad x(n)opt a 0.46736 ≤ E[D(n)(x(n)opt)] ≤ 0.60384. Questointervallo non solo ha un’ampiezza minore di quella sui valori previsti, ma conferma ilrisultato trovato dal metodo analitico.

Si è a questo punto confrontata la soluzione dell’approccio delle desiderabilità conuna Funzione obiettivo modellata da un sistema di inferenza fuzzy. Date le già discusseaffinità tra i due approcci si è deciso di affrontare il problema in modo indipendente, for-mulando nuove funzioni di appartenenza, sempre nell’intento di minimizzare il numerodi difetti, ottenere un gloss prossimo la target e massimizzare l’ET. In Figura 4.19 è pre-sentata una configurazione semplice, con poche funzioni per granulare input ed output ele due sole regole

R1:

Se (i difetti sono pochi) e (il gloss è vicino al target) e (l’ET è alta) allora (prodotto e processo sono buoni)

R2:

Se (i difetti sono moltissimi) e (il gloss è troppo opaco) e (l’ET è bassa) allora (prodotto e processo sono

inadeguati)

4.3. Costruzione ed ottimizzazione del MDO

4. Esperienza empirica 122

Le condizioni ottime consigliate risultano così [Mod-3]

x( f )opt = [0.50462 − 0.20666 − 0.0048876]

Y(x( f )opt) = [ 6.47524 74.4465 75.9478]

U( f )(x( f )opt) = 0.92964

dove U( f )(x( f )opt) corrisponde alla misura dell’output defuzzificato. Nonostante la diversanatura della Funzione obiettivo si sono ottenuti simili livelli delle caratteristiche di inte-resse, pur associate a condizioni ottimali più distanti da quelle trovate precedentemente.

Figura 4.19: Schema del sistema di inferenza usato per rappresentare il MDO .

Implementando questo approccio sono emersi tre aspetti su cui riflettere:

• la flessibilità modellistica della logica fuzzy comporta un notevole numero di para-metri da definire e scelte da compiere sulla cui appropriatezza non si ha riscontronei risultati finali;

• ai primi tentativi le regole specificate sono apparse poco pertinenti quando va-

lutate in x( f )opt (fatto dimostrato dalla piccola area della funzione di appartenenzadell’output). Esse sono infatti rappresentative di casi “estremi” su cui è concettual-mente facile ragionare e non già focalizzate su una soluzione di compromesso;

• l’implementazione di un sistema più ricco con una più fine granulazione dellevariabili e con otto regole ha evidenziato ancor più le criticità precedenti ed hacondotto ad una soluzione peggiore21.

21Una descrizione completa degli approcci fuzzy implementati è disponibile tra gli allegati elettroni-ci (Paragrafo C.1 a pag. 184), dove è approfondita tutta l’analisi multiobiettivo qui condotta. La so-

luzione individuata dal sistema più ricco è stata x( f )opt′ = [−0.70541 0.21068 − 1.399] ed Y(x( f )opt

′) =

[10.0942 72.4209 71.7788] ed è dominata dalle precedenti. Resta un caso interessante in quanto si è prova-to a rilassare l’ipotesi di indipendenza tra le preferenze, mediante una regola per specificare come l’eventualerealizzarsi di un gloss elevato e di un consistente numero di difetti è leggermente da penalizzare in quantorende la disomogeneità della finitura ancor più palese.

4.3. Costruzione ed ottimizzazione del MDO

4. Esperienza empirica 123

Valutare questo tipo di Funzione obiettivo è infine abbastanza costoso e ciò limita lapossibilità di acquisire efficientemente informazioni sulla dispersione dei risultati se li siconsiderano quantità aleatorie.

4.3.3 Modelli basati sull’AHP ed incertezze sul MDO

Sono state analizzate due funzioni obiettivo con una più forte impronta del metodo AHPche si differenziano tra loro per la modalità di normalizzazione delle caratteristiche. Dallamatrice dei confronti a coppie di Tabella 4.8 sono stati calcolati i pesi con il LLSM ed ilgrado di inconsistenza piuttosto basso produce dei valori quasi identici alle priorità giàdeterminate con la procedura EIG. Si possono però ora ricavare anche degli intervalli diconfidenza al 95% che risultano essere

βET = 0.8797 0.8083 < βET < 0.9510βGl = −1.1107 −1.1821 < βGl < −1.0394βDe = 0.2310 0.1597 < βDe < 0.3024

(R2 = 99.90% ; S = 0.05451). Come si osserva in Figura 4.20 a) nel grafico relativo aicoefficienti della regressione ed in quello della loro versione trasformata in priorità, nonsolo il criterio più importante è l’ET seguito dal numero di difetti e dal gloss, ma la chiaranon sovrapposizione degli intervalli rende molto remota l’eventualità di rank reversal.

Figura 4.20: Stime puntuali ed intervallari dei coefficienti del LLSM e delle rispettive trasformazioniin priorità. a) Per i modelli che considerano tre caratteristiche di interesse. b) Nel caso siaggiunga ad esse l’interesse per il consumo energetico dell’apparecchiatura.

Nel primo modello si è continuato ad utilizzare le trasformazioni di Figura 4.13 ag-gregando però le caratteristiche con la media aritmetica e quindi massimizzando

U(a) = w1df1(Y1(x)) + w2df2(Y2(x)) + w3df3(Y3(x)) (4.12)

da cui si ottengono come condizioni ottime

4.3. Costruzione ed ottimizzazione del MDO

4. Esperienza empirica 124

x(u)opt = [1.129 0.32235 − 0.61269]

Y(x(u)opt) = [8.61206 74 77.3448]

U(a)(x(u)opt) = 0.59182

Il secondo modello ha invece previsto una normalizzazione lineare delle unità di mi-sura, dividendo i valori di ciascuna risposta per il range di variazione22 e sommando poinella Funzione obiettivo gli scarti quadratici dai valori target in modo analogo a quantoavviene nelle QLF, quindi dovendo minimizzare [Mod-4]

L = w1

(Y1(x)− 0

nf1

)2

+ w2

(Y2(x)− 74

nf2

)2

+ w3

(Y3(x)− 100

nf3

)2

(4.13)

Il miglior punto di compromesso ha così coordinate

x(l)opt = [0.71385 0.17861 − 0.50447]

Y(x(l)opt) = [7.37148 74.1886 76.9134]

L(x(l)opt) = 0.068137

e si colloca non distante dagli ottimi dei primi approcci discussi legati al metodo delle de-siderabilità23. Figura 4.21 c) mostra l’approssimazione dell’EZ a cui si è giunti mediantesimulazione come un’area all’incirca simmetrica intorno al punto stazionario e relativa-mente estesa (il 5.5% di χ ed il 14% dei punti nella sezione X2 = 0.17861). L’intervallodi previsione sui valori di L e quello sui valori attesi al 95%, ricavati dai quantili del-

le distribuzioni simulate di Figura 4.21 b), risultano 0.04799 ≤ E[L(x(l)opt)] ≤ 0.09183 e

0.01789 ≤ L(x(l)opt) ≤ 0.17352.

Figura 4.21: a) Contour plot della Funzione obiettivo nel piano X1 × X2 con X2 = 0.17861. b) Intervalli

di confidenza e di previsione sul valore della Funzione obiettivo in x(l)opt. c) Equivalence zone

di x(l)opt indicandone la presenza ed evidenziando la sua sezione per X2 = 0.17861.

22Dato ti il target per la risposta i-esima, i fattori di normalizzazione sono ottenuti come nfi = maxj(yij −ti)−minj(yij − ti) dove yij sono i dati osservati e raccolti nel piano sperimentale (Tabella D.1).

23E’ interessante notare come vi sarebbero diverse combinazioni di pesi che consentono, inseriti

nell’Equazione 4.13, di pervenire allo stesso risultato di x(c)opt ed una di esse è w = [0.344 0.296 0.36].

4.3. Costruzione ed ottimizzazione del MDO

4. Esperienza empirica 125

RICAVI COSTI

punto di vista del produttore

• Ricavi vendita macchinario• Profitti vendita altri prodotti (manut./cross-selling)

• Costo produzione macchinario• Costi R&S

punto di vista del cliente

• Risparmio MP (vernici)• Risparmio manutenzione cabina• Profitti da migliore qualità prodotti

• Costo acquisto macchinario• Costi esercizio• Costi manutenzione macchinario

Tabella 4.9: Considerazioni economiche soppesate da clienti e produttore emerse nel corso della ricerca edello sviluppo dell’apparecchiatura.

Le tre caratteristiche di qualità fino ad ora considerate hanno già chiare ripercussionisui costi e sui profitti dell’impresa (difetti e gloss determinano rilavorazioni o un auspi-cabile premio di prezzo, mentre l’ET condiziona l’acquisto di materie prime), ma comemostrato in Tabella 4.9 esistono altri fattori economici rilevanti sia dal punto di vista delproduttore che da quello del cliente. Si nota come una variabile finora trascurata che di-pende dai fattori è il costo di esercizio del macchinario in termini di consumo energetico(misurato in Watt). La relazione che si aggiunge nel MDS è ora quindi

Ng = 2256, 25+ 247, 164T + 15, 7062P+ 186, 5TP (4.14)

( S = 68,6067; R2adj = 92,49% )

L’energia richiesta cresce infatti con la temperatura desiderata e la portata d’aria, mentrela deionizzazione assorbe come noto una percentuale trascurabile.

Il peso di questo nuovo obiettivo deve però essere inferiore rispetto ai preceden-ti in quanto si ritiene che tutti i consumi siano già in larga misura compatibili con ilruolo e le funzionalità dell’apparecchiatura. Viene definita la funzione di desiderabi-lità per la nuova caratteristica Y4 : Ng come df4(1800, 3000, 1, ‘STB’) e dalla matricedei confronti a coppie tra le quaità24 si ricava il nuovo vettore di pesi wDe,Gl,ET,Ng =

[0.327 0.108 0.531 0.034]. Gli intervalli in Figura 4.20 b) mostrano che pur conser-vandosi l’ordine, la maggiore inconsistenza di cmDe,Gl,ET,Ng (R2 = 87.93%, S = 0.3833,CR = 0.092), rende meno significativa la differenza tra le priorità di ET e De.

Le condizioni ottime secondo l’appoccio classico delle desiderabilità con quattro obiet-tivi si modificano in

x(cc)opt = [0.47732 0.075468 − 0.43777]

Y(x(cc)opt ) = [6.7742454 74.422013 76.514234 2382.131]

d f (x(cc)opt ) = [0.3297 0.88339 0.65498 0.51489]

D(cc)(x(cc)opt ) = 0.53618

mentre quelle dell’Indice corretto secondo Eq. 3.17 sono ora [Mod-5]

24cmDe,Gl,ET,Ng = [1 4 1/2 9; 1/4 1 1/7 6; 2 7 1 9; 1/9 1/6 1/9 1] .

4.3. Costruzione ed ottimizzazione del MDO

4. Esperienza empirica 126

x(nc)opt = [0.47243 0.070337 − 0.43231]

Y(x(nc)opt ) = [6.7573747 74.433282 76.514234 2380.3191]

D(nc)(x(nc)opt ) = 0.53359

I limiti dell’intervallo di confidenza (asintotico) sul valore ottimo dell’Indice di deside-rabilità in quest’ultimo caso sono 0.46550 < E[D(nc)(x(nc)

opt )] < 0.60046 e corrispondonoall’altezza delle curve nel punto massimo della funzione di Figura 4.22 a). L’EZ è stata ap-prossimata mediante la procedura analitica in Figura 4.22 b) e con l’approccio simulativoin Figura 4.22 c). Anche in questo caso la somiglianza tra i due risultati è solo superficia-le, essendo l’estensione della seconda EZ nella parte evidenziata sensibilmente maggioredella prima (5,2% contro 4.4% in generale e 7,7% contro 10.2 % per X2 = 0.070337).

Figura 4.22: a) Intervallo di confidenza sul valore della Funzione obiettivo D(nc) al variare di X2, con X1ed X3 ai livelli ottimali. b) EZ ricavata in base alla condizione analitica. c) EZ ricavata persimulazione.

Avendo sinora posto attenzione solo sull’incertezza derivante dal MDS si è voluto an-che indagare come vari l’EZ trattando i pesi associati alle caratteristiche di interesse comevariabili aleatorie. Un algoritmo simile a (sim-2) viene quindi applicato in corrisponden-

za di x(nc)opt inserendovi anche un modello per i pesi in base alle statistiche ottenute con il

LLSM. Si giunge così ad un’EZ più estesa rispetto a quella ottenuta considerando la sola [Mod-6]

incertezza sul MDS ed infatti Figura 4.23 a) mostra un’area per molti aspetti analoga aquella di Figura 4.22 c) eppure un po’ più vasta (5,5% dei punti in χ e 12.5% nella sezione

evidenziata). Anche l’intervallo di confidenza sul valore della Funzione obiettivo in x(nc)opt

risulta un poco aumentato come mostrano gli istogrammi di Figura 4.23 b), passando da[0.4655 ; 0.6035] nel caso dei pesi deterministici a [0.4627 ; 0.6073].

La risoluzione del problema con un approccio veramente di tipo MDS – MDO richie-de però che il modello completo soggetto ad ottimizzazione consideri simultaneamentetutte le fonti di incertezza. In questa sede è pertanto stata implementata una funzionetale da restituire all’algorimo la media di un campione ricavato simulando la variabili-tà dei coefficienti delle relazioni del MDS e quella dei pesi, in modo analogo a quantofatto per calcolare l’ultima EZ. Si ripropone il problema di ricercare l’ottimo di una fun-zione stocastica, ma anziché implementare il RSM si è deciso di affidare il compito a tre

4.3. Costruzione ed ottimizzazione del MDO

4. Esperienza empirica 127

Figura 4.23: a) Equivalence Zone rispetto ad x(nc)opt , considerando simultaneamente incertezze sul MDS e

sul MDO . b) Confronto del valore della Funzione obiettivo tra un approccio MDS – MDOed uno MDS – MDO . c) Distribuzione simulata del valore della Funzione obiettivo negliottimi individuati da due diversi algoritmi.

algoritmi di tipo derivative free, ciascuno dei quali ha condotto ad una diversa soluzio-ne25. Il primo di essi (che poggia sul metodo del simplesso) suggerisce di operare circa in

x0 = [0.47 0.07 − 0.44] se il punto di partenza è x(n)opt, mentre staziona più o meno nelcentro della regione sperimentale qualora inizi da lì la ricerca. Il secondo (una strategiapattern search) individua un punto in prossimità di x0 = [0 − 0.62 0.25] , mentre il terzo(basato su algoritmi evolutivi) tende ad indirizzarsi verso x0 = [−0.12 − 0.69 0.24].

Le ragioni di questo fenomeno sono da ricercare in primo luogo in una numerositàdel campione simulato per stabilire il valore atteso della Funzione obiettivo, forse insuf-ficiente per una sua stima precisa. Secondariamente la varianza della Funzione obiettivorischia a volte di prevalere sulla capacità degli algoritmi di distinguere le prestazioni invari punti e ad esempio, gli istogrammi in Figura 4.23 c) sembrano suggerire che pur es-sendo la stima del massimo valore atteso secondo il primo algoritmo inferiore rispetto aquella dell’algoritmo evolutivo, le due soluzioni non sono statisticamente distinte.

4.3.4 L’individuazione di una Zona Robusta

Il paragrafo precedente dimostra che anche quando i modelli empirici sono sufficiente-mente precisi se presi singolarmente, il rumore della Funzione obiettivo può divenireelevato. Questo aspetto è attualmente piuttosto trascurato sia in letteratura che nei sup-porti software dedicati dove, partendo con l’ipotesi di modelli incerti, si giunge ad unrisultato certo. Se ciò da un lato semplifica la scelta finale, cela dall’altro una serie diassunzioni poco rappresentative della realtà.

Dopo aver implementato diversi approcci, si osserva in Tabella 4.10 come non vi sianocasi in cui la soluzione proposta da un dato MDO è giudicata nettamente più scarsa

25Non solo la natura “rumorosa” della Funzione obiettivo fa sì che ogni volta che si esegue per intero un’ot-timizzazione con un dato algoritmo si pervenga ad una soluzione leggermente diversa dalla precedente, male procedure sembrano prediligere consistentemente distinte zone di χ.

4.3. Costruzione ed ottimizzazione del MDO

4. Esperienza empirica 128

D(c) D(a) D(e) D(n) U( f ) U(a) L D(cc) D(nc) è eff.? in EZ?

x(c)opt 0,5392 0,5357 0,5315 0,5369 0,9279 0,5782 0,0691 0,5355 0,533 sì sì

x(a)opt 0,5392 0,5357 0,5321 0,5369 0,9282 0,5762 0,0693 0,5357 0,5332 sì sì

x(e)opt 0,5385 0,5353 0,5328 0,5362 0,9287 0,5702 0,0705 0,5359 0,5334 sì sì

x(n)opt 0,5392 0,5357 0,5316 0,5369 0,928 0,5778 0,0691 0,5356 0,533 sì sì

x( f )opt 0,523 0,5203 0,5172 0,5209 0,9296 0,5468 0,0808 0,5244 0,522 sì sì

x(u)opt 0,5084 0,504 0,4955 * 0,922 0,5918 0,0746 0,4949 * sì *

x(l)opt 0,537 0,5331 0,5275 0,5346 0,9267 0,5862 0,0681 0,5309 0,5283 sì sì

x(cc)opt 0,5386 0,5353 0,5322 0,5363 0,9287 0,5713 0,0705 0,5362 0,5337 sì sì

x(nc)opt 0,5385 0,5352 0,5323 0,5362 0,9287 0,5709 0,0706 0,5362 0,5337 sì sì

Tabella 4.10: Ogni MDO riconosce la propria come la soluzione ottimale (sulla diagonale), ma nellecolonne i valori di merito sono piuttosto simili tra loro.

Modello Tipo di approccio Nome X1 X2 X3

Desiderabilità classico MDS – MDO [Mod-1] / D(c) 0.56402 0.12791 -0.47109Desiderabilità con df asintotiche MDS – MDO D(a) 0.54592 0.1044 -0.44934Desiderabilità attesa (calcolo integrale) MDS – MDO D(e) 0.49753 0.031819 -0.38389Desiderabilità corretta (metodo Delta) MDS – MDO [Mod-2] / D(n) 0.56005 0.12509 -0.46852FO fuzzy (sistema semplice) MDS – MDO [Mod-3] / U( f ) 0.50462 -0.20666 -0.0048876FO Desiderabilità + AHP (LLSM) MDS – MDO U(a) 1.129 0.32235 -0.61269QLF + AHP (LLSM) MDS – MDO [Mod-4] / L 0.71385 0.17861 -0.50447Desiderabilità classico + obiettivo di costo MDS – MDO D(cc) 0.47732 0.075468 -0.43777Desiderabilità corretto + obiettivo di costo MDS – MDO [Mod-5] / D(nc) 0.47243 0.070337 -0.43231Desiderabilità corretto + obiettivo di costo+ pesi aleatori

MDS – MDO [Mod-6] ” ” ”

Tabella 4.11: Sintesi dei principali modelli implementati e relative stime sulle condizioni operative ottime.

o inaccettabile da uno differente e, circostanza ancor più rilevante, tutte le opzioni sidimostrano efficienti e si concentrano in una zona circoscritta26 di χ . Le stime puntualidelle coordinate trovate sono riportate per comodità in Tabella 4.11.

La disponibilità delle EZ associate a tali soluzioni puntuali consente di definire unaRobust Zone (RZ), ovvero il luogo delle soluzioni tali per cui il fatto che esse offranoprestazioni non distinguibili da quelle ottime, risulta simultaneamente vero per tutti imodelli. Detto in altri termini, indipendentemente dal modello utilizzato, scegliere unacondizione operativa all’interno della RZ costituisce una scelta ottimale.

L’esistenza dalla RZ è certamente subordinata al fatto che l’intersezione tra le EZ con-tenga soluzioni, una condizione verificata nel problema di verniciatura sinora trattato. Ilprocedimento per isolare questa zona è esemplificato dai grafici in Figura 4.24:

• per un dato MDO si individua l’approssimazione dell’EZ in base ai test sulla dif-

26Tale zona costituisce tra l’altro un sottoinsieme dell’Equivalece Zone di x(n)opt (la prima calcolata con l’ap-proccio analitico). I valori mancanti derivano da un gloss pari al target che rende df2 non differenziabile.

Essendo i punti nell’intorno di x(u)opt all’interno dell’EZ è però lecito supporre che anch’esso lo sia.

4.3. Costruzione ed ottimizzazione del MDO

4. Esperienza empirica 129

ferenza tra le prestazioni in ciascun punto rispetto a quelle dell’ottimo secondo ledistribuzioni empiriche (sim-2);

• il risultato può essere visualizzato con uno scatterplot in R3, con un solido (envelopesurface) che evidenzia i confini della nuvola di punti27 oppure isolando particolarisezioni mediante Contour plot;

• la Robust Zone è infine definita dai punti appartenenti a tutte le EZ.

Figura 4.24: Visualizzazione di una EZ che, intersecata con le altre, permette di individuare la ZonaRobusta in χ .

E’ interessante innanzitutto osservare come un procedimento analogo consenta dicomprendere meglio il ruolo delle incertezze su MDS ed MDO rispetto a quella comples-siva. Applicando il modello [Mod-5] nel problema di verniciatura, si nota in Figura 4.25che l’estensione dell’EZ dovuta alla sola incertezza sul MDS è maggiore rispetto a quellaottenuta considerando la sola incertezza sul MDO (riquadro a sinistra): la prima ricopreinfatti il 4,47 % di χ , mentre la seconda solo l’1,94 %. Figura 4.25 b) mostra invece l’EZquando si considera l’aleatorietà dei coefficienti in entrambi i modelli e la sua estensio-ne diviene pari al 5,41 % di χ . Questi valori dimostrano in modo chiaro come i dueproblemi – rappresentazione del MDS e del MDO – non siano tra loro indipendenti28.

Per individuare la Robust Zone è stata condotta una intensiva sessione di simulazioniprendendo in considerazione i seguenti modelli:

• [Mod-2] : Funzione obiettivo D(n) con tre caratteristiche (De, Gl, ET)

• [Mod-3] : Funzione obiettivo fuzzy con tre caratteristiche (De, Gl, ET)

• [Mod-4] : Funzione obiettivo QLF con tre caratteristiche (De, Gl, ET)

• [Mod-5] : Funzione obiettivo D(n) con quattro caratteristiche (De, Gl, ET, Ng)

• [Mod-6] : Funzione obiettivo D(n) con quattro caratteristiche (De, Gl, ET, Ng)

La loro eterogeneità, per tipologia ed assunzioni è la ragione che tipicamente porta gliapprocci tradizionali a concludere che i risultati non sono tra loro comparabili, ma divie-ne al contrario un fattore desiderabile nel confronto basato sull’incertezza. Figura 4.26 a)

27Un passaggio intermedio può consistere nell’applicare un algoritmo di smoothing per rendere lageometria più precisa ed i perimetri meno influenzati dalla presenza di outliers.

28Nei casi estremi una scarsa conoscenza del MDS rende pressoché irrilevante lo sforzo di stabilire conprecisione il MDO e viceversa.

4.3. Costruzione ed ottimizzazione del MDO

4. Esperienza empirica 130

Figura 4.25: Incertezze relative al MDS ed al MDO ed alla loro combinazione, sezioni per X2 = 0, 0703.

mostra l’Overlay plot tra le Equivalence Zone di ciascuno dei 5 modelli in una sezione pros-sima ad X2 = 0, 0703 (valore di portata d’aria ottimale secondo [Mod-2] ). L’intersezionetra queste regioni è evidenziata in blu in Figura 4.26 b) e proposta tridimensionalmentenel solido di Figura 4.26 c). Si è riusciti infine ad ottenere una zona circoscritta dalla for-ma piuttosto regolare, con un volume pari all’1,24 % della regione di sperimentazione edal cui interno si collocano le condizioni operative ottimali, indipendentemente dal M DOprescelto e considerando tutte le fonti d’incertezza.

Figura 4.26: La Zona Robusta del problema multiobiettivo analizzato.

L’estensione della RZ ha per limite superiore quella dell’EZ più piccola e, nel proble-ma analizzato, presenta una forma sensibilmente influenzata da [Mod-3] . Dagli isto-grammi di Figura 4.27 si osserva infatti che molte delle soluzioni nell’EZ del MDO fuz-zy appartengono alla RZ (il 72,5 %). Tale dato va però interpretato considerando chela defuzzificazione del valore della Funzione obiettivo ad ogni iterazione, ha comporta-

4.3. Costruzione ed ottimizzazione del MDO

4. Esperienza empirica 131

to la perdita dell’informazione sulla forma delle funzioni di appartenenza delle conse-guenze del FIS; non potendo così valutare appieno l’incertezza su questo MDO si deveconsiderare l’estensione dell’EZ trovata solo un limite inferiore di quella corretta.

Figura 4.27: Dagli istogrammi si comprendono le dimensioni di ciascuna EZ (rispetto alla regionesperimentale) e quelle relative delle loro intersezioni con l’EZ.

Dalla disposizione della RZ in χ si può in conclusione affermare che, entro certi limiti,aumenti della temperatura dell’aria producono effetti positivi sulla resa del processo, aconferma delle riflessioni fatte in tal proposito durante la presentazione della tecnologia edel prodotto. Anche le indicazioni circa la portata dell’aria di alimentazione confermanoche sia livelli troppo alti che livelli troppo bassi sono, per ragioni differenti, da evitare. Ilprincipale fattore che regola l’intensità della fase di deionizzazione viene consigliato adun livello basso, a testimonianza della sua modesta efficacia nell’attuale configurazionedel macchinario.

La maggioranza delle condizioni operative nella RZ ha come caratteristica con desi-derabilità più bassa il numero di difetti De, a cui è oltretutto associato il modello con unottimo disgiunto vincolato dai limiti della regione sperimentale. Ricerche future di so-luzioni interessanti dovrebbero dunque interessarsi al comportamento del sistema versoX2 ≤ −1.6818 o come esposto in Figura 3.7 (pag. 48), provare a sviluppare modalitàinnovative per ridurre il numero di difetti in un ciclo di miglioramento continuo.

4.3. Costruzione ed ottimizzazione del MDO

5Conclusioni

Only if we speculate on possible futures, can we begin to define desirable goals.

Herbert N. Woodward

5.1 Discussione sui risultati raggiunti

Il ricercatore che si pone per obiettivo il miglioramento di prodotti o processi rispetto apiù di una caratteristica di qualità, deve sia stabilire come trattare l’incertezza sulle leggiche ne governano i comportamenti che trovare un modo efficace per aggregare tra lorotali caratteristiche. La criticità del primo di questi due problemi è ormai ampiamentecondivisa ed esistono molti strumenti per affrontarlo in modo razionale, scientifico, pro-gettando esperimenti ed analizzando i dati raccolti. Pur essendo state sviluppate diverseproposte, l’incertezza sulla Funzione obiettivo come problema di scelta dell’approccioprescrittivo, della forma funzionale data alla scalarizzazione e dei pesi, resta largamenteinsita nel comportamento del ricercatore intenzionato a tradurre preferenze ed obiettivipiuttosto chiari, seppur non completamente formalizzati.

Il problema qui delineato è pertanto rilevante, fortemente rappresentativo della realtàe si è esposto un metodo per giungere alla sua soluzione attraverso due modelli distintitra loro interconnessi: il MODELLO DEL SISTEMA ed il MODELLO DEGLI OBIETTIVI. Glistrumenti applicabili a ciascuno di essi preso singolarmente provengono da letteratureestremamente ricche, ma con ancora pochi riferimenti circa il loro uso congiunto. Ta-le studio è però necessario in quanto nei problemi multiobiettivo l’approccio analiticoconvive con la successiva fase di sintesi che conduce alla soluzione finale.

Il presente elaborato prova a colmare almeno in parte queste lacune offrendo anchedelle risposte ai quesiti sorti nel corso delle ricerche. In particolare:

1. E’ stato proposto ed adottato un framework metodologico conveniente, che partedalla distinzione dei ruoli del MDS e del MDO e valuta gli approcci ai problemimultiobiettivo in base a come essi trattano le incertezze nei due modelli. Ciò hapermesso di riconoscere la formalizzazione più competa ( MDS – MDO ) e di or-ganizzare la presentazione confrontando gli strumenti più idonei in ciascuna fase(ad esempio dall’applicazione di un RSM multiobiettivo alle recenti estensioni adalcuni metodi di aggregazione degli obiettivi).

132

5. Conclusioni 133

2. Analizzando il MDO sono stati presi in esame gli approcci più diffusi tra cui quellodelle Funzioni di utilità/desiderabilità, l’AHP, l’approccio fuzzy ed i criteri econo-mici; sono state approfondite le proprietà di ciascuna forma ed i sistemi per consi-derare la natura non deterministica dei livelli di qualità (gli input di tali modelli),un aspetto non considerato nelle formulazioni originali.

3. Per quanto riguarda l’incertezza sui pesi da assegnare alle caratteristiche, si è osser-vato come l’approccio AHP (seppur controverso) consente di raccogliere in modosemplice informazioni utili a quantificarla. Accanto alla procedura tradizionale èstata presentata la stima delle priorità mediante tecniche di regressione, ricono-scendo un nuovo parallelismo con l’analisi di piani sperimentali ed evidenziandoil confronto tra l’indice CR e le stime di bontà del fit.

4. Il problema concreto nell’ambito della verniciatura industriale, è servito al contem-po da stimolo per ricercare approcci risolutivi efficaci e da verifica sulla validità deirisultati. La presenza di tre fattori significativi differenzia il lavoro svolto da moltistudi precedenti, evidenziando difficoltà di visualizzazione e limiti di scalabilità,ma anche avvicinando l’esempio semplificato ai problemi reali.

5. L’implementazione di modelli alternativi ha condotto a soluzioni distinte a cui poisono state associate delle Equivalence Zone. Il confronto tra le soluzioni puntuali e leEZ ha fatto emergere nuove considerazioni dal forte impatto sia sul ruolo dell’in-certezza nel MDO che sulle decisioni che coinvolgono più attori. Ad esempio, an-che quando manca il completo assenso sull’approccio da seguire o la certezza sullaforma della Funzione obiettivo può accadere che i risultati a cui si giungerebbe dastrade differenti si rivelino poi essere tra loro indistinguibili, per via di un fenomenofisico non noto deterministicamente1. Dall’intersezione delle EZ si è infine definitala Robust Zone del problema multiobiettivo, ossia il luogo delle condizioni operati-ve ottimali indipendentemente dal modello impiegato per giudicarle. Quest’ultimopassaggio, privo di precedenti nella letteratura raccolta, riveste un’importanza cri-tica in quanto rende il ricercatore pienamente consapevole delle incertezze residue,della qualità dei modelli a disposizione e della soluzione trovata, anche in terminidi scostamenti ammissibili nella regolazione dei livelli dei fattori.

6. Data l’eterogeneità delle fonti di riferimento, la quantità di approcci proposti, mo-delli e termini utilizzati nell’ottimizzazione multiobiettivo si è ritenuto opportunosviluppare il glossario incluso in appendice. Esso risponde all’esigenza, più volteriscontrata, di disporre di un rapido e sintetico riferimento per alcuni dei concettiintrodotti in questa disciplina. Pur essendo ancora migliorabile sotto diversi puntidi vista, il glossario si rivela anche uno strumento efficace per riflettere su terminiper i quali è difficile trovare definizioni ed interpretazioni univoche e per crearecollegamenti quando i diversi autori ricorrono a specifici vocabolari facendo impli-cite assunzioni sul bagaglio culturale del proprio pubblico di lettori. Concetti citatinel corso del lavoro, ma che non si è potuto o non si è ritenuto opportuno svilup-

1Nel caso più generale occorre comprendere se ed in che misura questo fatto è dovuto al modello peril dato fenomeno fisico o se invece dipende soprattutto dalla non chiara rappresentazione degli obiettivi equali rapporti sussistano tra le due incertezze.

5.1. Discussione sui risultati raggiunti

5. Conclusioni 134

pare onde evitare divagazioni, trovano infine in questa appendice alcuni spunti diapprofondimento.

Il successo e l’attenzione dedicata ai problemi multiobiettivo è dovuta anche al fattoche essi vengono affrontati e risolti quotidianamente dagli individui in una molteplicitàdi situazioni, ogni qualvolta occorra operare una scelta tra alternative valutate in base adiverse caratteristiche. Si è però qui mostrato come gli stessi eurismi siano inadeguati neiproblemi di design, ovvero quando gli impatti della decisione sono più rilevanti ed occor-re avere un modello della realtà poiché la soluzione ottimale viene individuata attraversoi livelli dei fattori.

In questi casi concentrarsi sull’incertezza che caratterizza MDS e MDO sembra unapproccio promettente, in grado cioè di conciliare la necessità di un’analisi oggettiva erazionale al fatto che nei problemi multiobiettivo l’ottimalità di una decisione deve es-sere intesa in senso relativo, ovvero rispetto all’informazione disponibile, alle capacitàelaborative, all’approccio utilizzato ed anche alla soggettività di chi ha il compito di spe-cificare obiettivi e preferenze. Si è concluso che occorrerebbe superare la convinzioneche un approccio alla costruzione del MDO possa eliminare totalmente le incertezze e sidia piuttosto un maggior risalto a strategie in grado di quantificarle e comprenderne leripercussioni sui risultati finali.

Si giudica ad esempio negativamente un MDS che viola le ipotesi di applicabilitàdegli strumenti di analisi, che si fonda su dati di scarsa qualità, che contiene errori pro-cedurali (tutti aspetti che lo portano a offrire una cattiva spiegazione della realtà) oppureche non contiene i fattori effettivamente responsabili della variabilità delle osservazioni(e pertanto non ne cattura una quota sufficiente). Un MDO inadeguato è più difficile dariconoscere poiché presuppone un’interpretazione della realtà, sulla base dell’esperienzaindividuale, dello studio approfondito di un sistema complesso, di un ragionamento lo-gico ed eventualmente di un modello etico. Ciò significa che un approccio può risultareinefficace se cela l’incertezza del decisore ed ha il solo scopo di formalizzare le preferenzein linguaggio matematico, tendendo ad accomodare piuttosto che a correggere eventualicontraddizioni ed errori logici, senza stimolare delle risposte alle domande più critiche.

Queste considerazioni, applicate all’esperienza empirica nel campo della verniciaturaindustriale, hanno consentito di non limitarsi ad osservare la convergenza tra le soluzioniproposte da vari approcci, ma di giungere a definire una zona circoscritta di incertezzacon al suo interno soluzioni robuste, ossia ottimali indipendentemente dal modello uti-lizzato tra quelli presi in considerazione. Si è riusciti a rilevare come in questo caso l’in-certezza che il ricercatore nutre sul MDS sia maggiore di quella sul MDO (la cui stimapuò essere migliorata come discusso nel paragrafo successivo), a selezionare condizio-ni operative che ottimizzano il sistema ed a porre basi interessati per delle successivericerche.

5.1. Discussione sui risultati raggiunti

5. Conclusioni 135

5.2 Indagini future

Il confronto tra approcci ha evidenziato come nessuno di quelli esaminati sia già in gra-do di includere espressamente ed in modo semplice l’incertezza come dimensione dianalisi nei problemi multiobiettivo. Le future indagini si muoveranno quindi guidatedalla necessità migliorare tale situazione, validando l’efficacia delle proposte attraversoapplicazioni in problemi reali. In particolare sono state individuate le seguenti aree:

1. Ricercare un punto di snodo tra il contributo prescrittivo di una metodologia ela possibilità di quantificare l’incertezza residua, o ineliminabile, della Funzioneobiettivo. Si desidera infatti ridurre l’imprecisione per quanto possibile, ma an-ziché ritenerla poi eliminata per trattare un MDO perfettamente noto, la si pos-sa considerare un’informazione nel processo risolutivo. A questo proposito, comeevidenziato, una strategia promettente sembra quella di porre un certo numero didomande ridondanti e mostrare lo stesso problema da più prospettive.

2. Si è qui ipotizzato che le incertezze sul MDS e sul MDO siano indipendenti traloro, ma sembra evidente che la non piena conoscenza dei legami tra fattori e ca-ratteristiche di interesse e la difficoltà nel prevederle con precisione, si rifletta poiin maggiore incertezza quando si attribuisce loro un peso. Lo studio di questa re-lazione può ad esempio aiutare a comprendere se e quanto la migliore conoscenzadel MDS aiuti ad accrescere quella sul MDO .

3. Non è stata approfondita la presentazione delle caratteristiche dell’attore decisio-nale poiché si è considerato sempre improprio un MDO completamente noto. Lafigura di un esperto del settore o di un designer che specificando gli obiettivi allineail modello d’uso di un prodotto da parte dei clienti a quello soggetto ad ottimizza-zione, presuppone a sua volta un modello parzialmente soggettivo per interpretarei bisogni del mercato. Anche rivolgendo quesiti direttamente a campioni di utiliz-zatori finali vi è il rischio di misurare al più una “soggettività condivisa”. I clientinon sono infatti necessariamente competenti circa i principi di funzionamento delprodotto e non sono al corrente di attributi di tipo exciting. Affidare infine lo svilup-po del MDO ad un gruppo di esperti apporta alcuni vantaggi, senza però offriregaranzie di valutazioni oggettive. Esiste una ricca letteratura che tratta questo argo-mento ed ulteriori approfondimenti aiuterebbero forse ad individuare l’approcciomaggiormente appropriato per ciascuna classe di attori.

4. La mancanza di supporti software diffusi e progettati per considerare l’incertezzanelle ottimizzazioni multiobiettivo costituisce anche un ostacolo alla raccolta diesperienze ed osservazioni al di fuori degli ambiti accademici (dove le tecnicheche trattano quella sul MDS hanno raggiunto certa maturità). Sarebbe pertantoutile proporre uno strumento in grado di assistere il ricercatore in tutte le fasi di unprogetto di ottimizzazione in condizioni di incertezza.

5. Gli algoritmi qui implementati per individuare e visualizzare l’incertezza intornoalle condizioni operative ottimali hanno verosimilmente ampi margini di miglio-ramento. Si pone in particolare un problema di scalabilità poiché rapidamente la

5.2. Indagini future

5. Conclusioni 136

dimensione di γ ed χ rende critico il trade off tra accuratezza e tempo necessarioper produrre risultati informativi. Occorrerebbe quindi individuare ove possibileapprossimazioni analitiche per rendere le procedure più rapide.

6. Ha recentemente acquistato particolare rilevanza la frontiera tra gli approcci in-gegneristici all’ottimizzazione del design dei prodotti e le evidenze delle ricerchepsicologiche. Si sono rilevate due distinte modalità di affrontare i problemi mul-tiobiettivo: nel primo caso, nei problemi più comuni, si adottano procedure velo-ci, intuitive ed emotive (di tipo “fast and frugal”), mentre nel secondo, relativo adesempio al design di un prodotto, il sistema tende ad essere più lento, analitico eragionato, aperto alla discussione ed al confronto, logico e razionale. Sarebbe in-teressante comprendere più a fondo quali, tra gli errori di giudizio (cognitive bias)comunemente commessi nella prima modalità, si riscontrano anche nella secondae se le proposte esistenti sono efficaci nel rimuoverli o comunque nel limitarne glieffetti2.

7. In ambito empirico si sta sviluppando la tendenza a sostituire la discussione sesia meglio l’approccio Bayesiano o frequentista in termini assoluti, con una visionepiù pragmatica per selezionare quello più idoneo a seconda del problema affron-tato. Avendo concentrato qui l’attenzione sull’approccio frequentista sarebbe dun-que interessante approfondire anche l’uso di tecniche Bayesiane, per comprenderequando esse possono apportare i benefici maggiori.

8. Avendo caratterizzato l’incertezza attorno alle condizioni operative ottimali, un im-portante passo successivo da compiere consiste nello stabilire, se necessario, doveconcentrare le risorse e gli sforzi futuri per tentare di ridurla. L’estensione della Zo-na Robusta dipende infatti dalla precisione con cui sono stimati il MDS ed il MDO ;ciò suggerisce la progettazione di un metodo atto a comprendere se e quanto risultipiù conveniente condurre ulteriori ricerche per approfondire la conoscenza di unodei due modelli. Ciò permetterebbe anche di rispondere in parte alle critiche cherilevano come abbia poco senso sviluppare approcci multiobiettivo sofisticati sumodelli imprecisi: un rapporto di feedback come quello descritto mostrerebbe infattiverosimilmente che all’aumentare della precisione di uno dei modelli, aumenta diconseguenza la rilevanza e la criticità dell’altro.

2[v. Glossario: Prospect Theory]

5.2. Indagini future

Bibliografia

[AA02] R. Al-Aomar, A robust simulation-based multicriteria optimization methodology,Simulation Conference, 2002. Proceedings of the Winter, vol. 2, 2002.

[AA09a] VV AA, ASME Y14.5-2009: Dimensioning and Tolerancing, 2009.

[AA09b] , MATLAB Fuzzy Logic Toolbox User’s Guide, 2009.

[AA09c] , MATLAB Statistics Toolbox User’s Guide, 2009.

[AA.09d] VV. AA., NIST/SEMATECH e-Handbook of Statistical Methods, 2009.

[ADS07] C. Alamprese, L. Datei, and Q. Semeraro, Optimization of processing parameters of a ballmill refiner for chocolate, Journal of Food Engineering 83 (2007), no. 4, 629–636.

[Aka04] Y. Akao, Quality function deployment: integrating customer requirements into productdesign, Productivity Press, 2004.

[Alc53] A.A. Alchian, The meaning of utility measurement, The American Economic Review 43(1953), no. 1, 26–50.

[AMJ03] J. Aguarón and J.M. Moreno-Jiménez, The geometric consistency index: Approximatedthresholds, European Journal of Operational Research 147 (2003), no. 1, 137–145.

[And00] J. Andersson, A survey of multiobjective optimization in engineering design, Tech. re-port, Technical Rep. LiTH-IKP-R-1097, Department of Mechanical Engineering,Linköping University, 2000.

[And01] , Multiobjective Optimization in Engineering Design–Application to Fluid Po-wer Systems, Ph.D. thesis, Division of Fluid and Mechanical Engineering Systems,Department of Mechanical Engineering, Linköpings universitet, 2001.

[AO95] Erik K. Antonsson and Kevin N. Otto, Imprecision in engineering design, Special Com-bined Issue of the Transactions of the ASME commemorating the 50 th anniversaryof the Design Engineering Division of the ASME 117 (1995), 25–32.

[AO96] P. Ambrosi and P. Offredi, Il manuale del verniciatore – Guida alla verniciaturaprofessionale del legno, HB PI.ERRE Editrice, 1996.

[AÖ06] Z. Ayag and R.G. Özdemir, A fuzzy AHP approach to evaluating machine toolalternatives, Journal of Intelligent Manufacturing 17 (2006), no. 2, 179–190.

[Aud99] R. Audi, The Cambridge dictionary of philosophy, Cambridge University Press, 1999.

[Azz06] G. Azzone, Sistemi di controllo di gestione: metodi, strumenti e applicazioni, ETAS, 2006.

[Bad94] A. Baddeley, The magical number seven: still magic after all these years?, PsychologicalReview 101 (1994), no. 2, 353–356.

[Ban00] O. Bandte, A probabilistic multi-criteria decision making technique for conceptual andpreliminary aerospace systems design, Ph.D. thesis, Georgia Institute of Technology,2000.

[Bar01] J. Barzilai, Notes on the analytic hierarchy process, Proceedings of the NSF Design andManufacturing Research Conference, 2001, p. 1.

[Bau58] W.J. Baumol, The cardinal utility which is ordinal, The Economic Journal 68 (1958),no. 272, 665–672.

137

BIBLIOGRAFIA 138

[BCS10] M. Bernasconi, C. Choirat, and R. Seri, The analytic hierarchy process and the theory ofmeasurement, Management Science 56 (2010), no. 4, 699–711.

[BG94] J. Barzilai and B. Golany, AHP rank reversal, normalization and aggregation rules, Infor-Information Systems and Operational Research 32 (1994), no. 2, 57–64.

[BH03] M. Berthold and D.J. Hand, Intelligent data analysis, Springer Verlag, 2003.

[BM05] J.P. Brans and B. Mareschal, PROMETHEE methods, Multiple Criteria DecisionAnalysis 78 (2005), 163–186.

[BRT88] D.E. Bell, H. Raiffa, and A. Tversky, Decision making: Descriptive, normative, andprescriptive interactions, Cambridge University Press, 1988.

[BSV02] E. Bartezzaghi, G. Spina, and R. Verganti, Organizzare le PMI per la crescita, vol. 24, IlSole 24 Ore Media & Impresa, 2002.

[Buc85] J.J. Buckley, Fuzzy hierarchical analysis, Fuzzy sets and systems 17 (1985), no. 3, 233–247.

[BZ70] RE Bellman and LA Zadeh, Decision-making in a fuzzy environment, Managementscience 17 (1970), no. 4, 141–164.

[BZ06] M. Basseur and E. Zitzler, Handling uncertainty in indicator-based multiobjective optimi-zation, International Journal of Computational Intelligence Research 2 (2006), no. 3,255–272.

[Cah02] S. Cahya, Sampling properties of optimal operating conditions of single and multipleresponse surface systems, Pennsylvania State University, 2002.

[CC08] Y.G. Cho and K.T. Cho, A loss function approach to group preference aggregation in theAHP, Computers & Operations Research 35 (2008), no. 3, 884–892.

[CF96] C. Carlsson and R. Fullér, Fuzzy multiple criteria decision making: Recent developments,Fuzzy sets and Systems 78 (1996), no. 2, 139–153.

[CH01] C.H. Chiao and M. Hamada, Analyzing experiments with correlated multiple responses,Journal of Quality Technology 33 (2001), no. 4, 451–465.

[Cho03] K.T. Cho, Multicriteria decision methods: an attempt to evaluate and unify, Mathematicaland computer modelling 37 (2003), no. 9-10, 1099–1119.

[CKPS08] R. Chumpitaz, K. Kerstens, N. Paparoidamis, and M. Staat, Hedonic price functionestimation in economics and marketing: revisiting Lancaster’s issue of “noncombinable”goods, Annals of Operations Research (2008), 1–17.

[CMO72] M.D. Cohen, J.G. March, and J.P. Olsen, A garbage can model of organizational choice,Administrative science quarterly 17 (1972), 1–25.

[CN96] KAF Copeland and PR Nelson, Dual response optimization via direct functionminimization, Journal of Quality Technology 28 (1996), no. 3, 331–336.

[CST06] W.W. Cooper, L.M. Seiford, and K. Tone, Data envelopment analysis: a comprehensivetext with models, applications, references and DEA-solver software, Springer Verlag, 2006.

[Cve00] D. Cvetkovic, Evolutionary Multi–Objective Decision Support Systems for ConceptualDesign, Ph.D. thesis, PhD Thesis, School of Computing, Faculty of Technology,University of Plymouth, 2000.

BIBLIOGRAFIA

BIBLIOGRAFIA 139

[CW85] G. Crawford and C. Williams, A note on the analysis of subjective judgment matrices,Journal of Mathematical Psychology 29 (1985), no. 4, 387–405.

[CYZH04] J. Cao, F. Ye, G. Zhou, and H. Huang, A new method for VE partner selection and eva-luation based on AHP and fuzzy theory, Computer Supported Cooperative Work inDesign, 2004. Proceedings. The 8th International Conference on, vol. 2, IEEE, 2004,pp. 563–566.

[DC96] E. Del Castillo, Multiresponse process optimization via constrained confidence regions,Journal of Quality Technology 28 (1996), no. 1, 61–70.

[DC07] , Process optimization: a statistical approach, Springer, 2007.

[DCM93] E. Del Castillo and DC Montgomery, A nonlinear programming solution to the dualresponse problem, Journal of Quality Technology 25 (1993), no. 3, 199–204.

[DCMM96] E. Del Castillo, D.C. Montgomery, and D.R. McCarville, Modified desirability functionsfor multiple response optimization, Journal of Quality Technology 28 (1996), no. 3, 337–337.

[DD98] I. Das and JE Dennis, Normal-boundary intersection: A new method for generatingthe Pareto surface in nonlinear multicriteria optimization problems, SIAM Journal onOptimization 8 (1998), 631.

[DD06] R. Davidson and J.Y. Duclos, Testing for Restricted Stochastic Dominance, Tech. report,CIRPEE - Cahiers de recherche, 2006.

[DDC96] I. Das, J. Dennis, and Langley Research Center, Normal-Boundary Intersection: AnAlternate Method for Generating Pareto Optimal Points in Multicriteria OptimizationProblems, 1996.

[Der94] G.C. Derringer, A balancing act: optimizing a product’s properties, Quality Progress 27(1994), no. 6, 51–60.

[DF66] B. De Finetti, Paradossi sulle medie, Periodico di Matematiche 44 (1966), no. 2, 138–150.

[DFS+92] J.S. Dyer, P.C. Fishburn, R.E. Steuer, J. Wallenius, and S. Zionts, Multiple criteria de-cision making, multiattribute utility theory: the next ten years, Management Science 38(1992), no. 5, 645–654.

[DG05] K. Deb and H. Gupta, Searching for robust Pareto-optimal solutions in multi-objectiveoptimization, Proceedings of the Third Evolutionary Multi-Criteria Optimization(EMO-05) Conference (Also Lecture Notes on Computer Science 3410), Springer,2005, pp. 150–164.

[DLP05] R. Ding, D.K.J. Lin, and J.J. Peterson, A Large-sample Confidence Band for a Multi-response Ridge Path, Quality and Reliability Engineering International 21 (2005), no. 7,669–675.

[DNA10] J.J. Durillo, A.J. Nebro, and E. Alba, The jmetal framework for multi-objectiveoptimization: Design and architecture, CEC 2010, July 2010, pp. 4138–4325.

[DS80] G. Derringer and R. Suich, Simultaneous optimization of several response variables,Journal of quality technology 12 (1980), no. 4, 214–219.

[dTG05] C.L.B. de Tilleghem and B. Govaerts, Uncertainty Propagation in Multiresponse Optimi-zation using a Desirability Index, Tech. report, Tech. Rep. 0532, Université catholiquede Louvain, Louvain-la-Neuve, 2005, 2005.

BIBLIOGRAFIA

BIBLIOGRAFIA 140

[DW90] J.S. Dyer and RE Wendell, Remarks on the AHP, Management Science 36 (1990), no. 3,249–258.

[FA02] M. Farina and P. Amato, On the optimal solution definition for many-criteria optimizationproblems, Proceedings of the NAFIPS-FLINT international conference, Citeseer, 2002,pp. 233–238.

[FE05] J.E. Fieldsend and R.M. Everson, Multi-objective optimisation in the presence of un-certainty, The 2005 IEEE Congress on Evolutionary Computation, 2005, 2005,pp. 243–250.

[FGE05] J. Figueira, S. Greco, and M. Ehrgott, Multiple criteria decision analysis: state of the artsurveys, Springer, 2005.

[FPL05] P.J. Fleming, R.C. Purshouse, and R.J. Lygoe, Many-objective optimization: Anengineering design perspective, Proc. of EMO, vol. 3410, Springer, 2005, pp. 14–32.

[Fra98] R.H. Frank, Microeconomia, McGraw-Hill Italia, 1998.

[FS98] D. Fuller and W. Scherer, The desirability function: underlying assumptions and applica-tion implications, IEEE International Conference on Systems, Man, and Cybernetics 4(1998), 4016–4021.

[FS01] E.H. Forman and M.A. Selly, Decision by objectives: how to convince others that you areright, World Scientific Pub Co Inc, 2001.

[Fül04] J. Fülöp, Introduction to decision making methods, Paper developed for the BDEI-3Workshop, The Evergreen State College, Citeseer, 2004.

[GCM01] RD Gibb, WH Carter, and RH Myers, Incorporating experimental variability in thedetermination of desirable factor levels, Unpublished Manuscript, 2001.

[GdT05] B. Govaerts and C.L.B. de Tilleghem, Distribution of Desirability Index in Multicrite-ria Optimization using Desirability Functions based on the Cumulative Distribution Func-tion of the Standard Normal, Tech. report, Discussion Paper, Institut de Statistique,Univeriste catholique de Louvain, Louvain-la-Neuve, Belgium, 2005.

[Giu04] G. Giudici, Finanziare le risorse dell’impresa, CLUP, 2004.

[GK93] B. Golany and M. Kress, A multicriteria evaluation of methods for obtaining weights fromratio-scale matrices, European Journal of Operational Research 69 (1993), no. 2, 210–220.

[Goo62] L.A. Goodman, The variance of the product of K random variables, Journal of theAmerican Statistical Association 57 (1962), no. 297, 54–60.

[GR94] C. Genest and L.P. Rivest, A statistical look at Saaty’s method of estimating pairwise pre-ferences expressed on a ratio scale, Journal of Mathematical Psychology 38 (1994), no. 4,477–496.

[Gre03] W.H. Greene, Econometric analysis, Prentice Hall Upper Saddle River, NJ, 2003.

[GZC09] S. Gao, Z. Zhang, and C. Cao, New Methods of Estimating Weights in AHP, Procee-dings of the Second International Symposium on Information Processing (ISIP 2009,China), 2009, pp. 89–92.

[H+01] E.J. Hughes et al., Evolutionary multi-objective ranking with uncertainty and noise,Lecture Notes in Computer Science 1993 (2001), 329–343.

BIBLIOGRAFIA

BIBLIOGRAFIA 141

[Hah03] E.D. Hahn, Decision making with uncertain judgments: A stochastic formulation of theAnalytic Hierarchy Process, Decision Sciences 34 (2003), no. 3, 443–466.

[Har65] E.C. Harrington, The desirability function, Industrial Quality Control 21 (1965), no. 10,494–498.

[Hey01] D.D. Heyer, Stochastic dominance: a tool for evaluating reinsurance alternatives, CasualtyActuarial Society Forum, 2001, pp. 95–117.

[HV87] P.T. Harker and L.G. Vargas, The theory of ratio scale estimation: Saaty’s analytichierarchy process, Management Science 33 (1987), no. 11, 1383–1403.

[IL06] A. Ishizaka and M. Lusti, How to derive priorities in AHP: a comparative study, CentralEuropean Journal of Operations Research 14 (2006), no. 4, 387–400.

[IL09] A. Ishizaka and A. Labib, Analytic Hierarchy Process and Expert Choice: Benefits andlimitations, OR Insight 22 (2009), no. 4, 201–220.

[JIN10] A. Jahan, M.Y. Ismail, and R. Noorossana, Multi response optimization in design of ex-periments considering capability index in bounded objectives method, Journal of Scientific& Industrial Research 69 (2010), 11–16.

[JK08] IJ Jeong and KJ Kim, Interactive desirability function approach to multi-response surfaceoptimization, International Journal of Reliability, Quality and Safety Engineering 10(2008), no. 2, 205–217.

[JW05] J. Jessenberger and C. Weihs, Desirability to characterize process capability, Tech. report,Universität Dortmund, 2005.

[KB02] CK Kwong and H. Bai, A fuzzy AHP approach to the determination of importanceweights of customer requirements in quality function deployment, Journal of intelligentmanufacturing 13 (2002), no. 5, 367–377.

[KBAN08] R.B. Kazemzadeh, M. Bashiri, A.C. Atkinson, and R. Noorossana, A general frameworkfor multiresponse optimization problems based on goal programming, European Journal ofOperational Research 189 (2008), no. 2, 421–429.

[KC04] J. Knowles and D. Corne, Memetic algorithms for multiobjective optimization: issues,methods and prospects, Studies in Fuzziness and Soft Computing 166 (2004), 313–354.

[KKJ05] Y.H. Ko, K.J. Kim, and C.H. Jun, A new loss function-based method for multiresponseoptimization, Journal of Quality Technology 37 (2005), no. 1, 50–59.

[KL98] K.J. Kim and D.K.J. Lin, Dual response surface optimization: a fuzzy modeling approach,Journal of Quality Technology 30 (1998), no. 1, 1–10.

[KL00] , Simultaneous optimization of mechanical properties of steel by maximizing expo-nential desirability functions, Journal of the Royal Statistical Society: Series C (AppliedStatistics) 49 (2000), no. 3, 311–325.

[KLG09] Zein Kallas, F Lambarraa, and J.M. Gil, Analytic hierarchy process versus the choiceexperiments: a stated preference analysis, Proceedings of the 10th International Sympo-sium on the Analytic Hierarchy/Network Process (ISAHP 2009, Pittsburgh), 2009,pp. 1556–8296.

[KN96] R.S. Kaplan and D.P. Norton, Using the balanced scorecard as a strategic managementsystem, Harvard business review 74 (1996), 75–87.

BIBLIOGRAFIA

BIBLIOGRAFIA 142

[Kor08] M. Kordi, Comparison of fuzzy and crisp analytic hierarchy process (AHP) methods forspatial multicriteria decision analysis in GIS, Master’s thesis, University of Gävle, 2008.

[KSTT84] N. Kano, N. Seraku, F. Takahashi, and S. Tsuji, Attractive quality and must-be quality,The Journal of the Japanese Society for Quality Control 14 (1984), no. 2, 39–48.

[KT79] D. Kahneman and A. Tversky, Prospect theory: An analysis of decision under risk,Econometrica: Journal of the Econometric Society (1979), 263–291.

[KTK00] T. Kiyota, Y. Tsuji, and E. Kondo, New multiobjective fuzzy optimization method and itsapplication, American Control Conference, 2000. Proceedings of the 2000, vol. 6, IEEE,2000, pp. 4224–4228.

[Kur05] M.H. Kurdi, Robust multicriteria optimization of surface location error andmaterial removalrate in high-speed milling under uncertainty, Ph.D. thesis, University of Florida, 2005.

[KVGN05] M. Koppen, R. Vicente-Garcia, and B. Nickolay, Fuzzy-pareto-dominance and its ap-plication in evolutionary multi-objective optimization, Proceedings of The 3rd Interna-tional Conference on Evolutionary Multi-criterion Optimization, Lecture notes incomputer science, vol. 3410, Springer, 2005, pp. 399–412.

[KY97] P. Korhonen and G.Y. Yu, Quadratic pareto race, Working Papers ir97058, InternationalInstitute for Applied Systems Analysis, 1997.

[KY07] M. Koppen and K. Yoshida, Visualization of Pareto-Sets in Evolutionary Multi-ObjectiveOptimization, Proceedings of the 7th International Conference on Hybrid IntelligentSystems, IEEE Computer Society, 2007, pp. 156–161.

[LA04] G. León Adams, Análisis y propuestas sobre algunos aspectos de la aplicación del diseño deexperimentos en la industria, Ph.D. thesis, Universitat Politècnica de Catalunya, 2004.

[Lan66] K.J. Lancaster, A new approach to consumer theory, The Journal of Political Economy 74(1966), no. 2, 132–157.

[Lau03] M. Laumanns, Analysis and applications of evolutionary multiobjective optimizationalgorithms, Ph.D. thesis, Swiss Federal Institute Of Technology Zurich, 2003.

[LGMF04] F. Levi, M. Gobbi, G. Mastinu, and M. Farina, Multi-objective design and selection of onesingle optimal solution, Submitted to Workshop on ASME IMECE 2004 CP, Citeseer,2004, pp. 233–238.

[LH03] P. Laininen and R.P. Hämäläinen, Analyzing AHP-matrices by regression, EuropeanJournal of Operational Research 148 (2003), no. 3, 514–524.

[Lip09] S. Lipovetsky, Comparison of a dozen AHP techniques for global vectors in multipersondecision making and complex hierarchy, Proceedings of the 10th International Sympo-sium on the Analytic Hierarchy/Network Process (ISAHP 2009, Pittsburgh), 2009,pp. 89–92.

[LK07] M. Lee and K. Kim, Expected Desirability Function: Consideration of Both Loca-tion and Dispersion Effects in Desirability Function Approach, Quality Technology &Quantitative Management 4 (2007), 365–277.

[LT95] D.K.J. Lin and W. Tu, Dual response surface optimization, Journal of Quality Technology27 (1995), no. 1, 34–39.

BIBLIOGRAFIA

BIBLIOGRAFIA 143

[Luo01] Xudong Luo, The construction of compensation aggregation operators, Proceedings ofthe 2nd International Conference in Fuzzy Logic and Technology, EUSFLAT Conf.,vol. 1, De Montfort University, Leicester, UK, De Montfort University, Leicester, UK,2001, pp. 135–140.

[LvW94] R.D. Luce and D. von Winterfeldt, What common ground exists for descriptive,prescriptive, and normative utility theories?, Management Science 40 (1994), 263–279.

[MA04] RT Marler and JS Arora, Survey of multi-objective optimization methods for engineering,Structural and Multidisciplinary Optimization 26 (2004), no. 6, 369–395.

[Mac87] M.J. Machina, Choice under uncertainty: Problems solved and unsolved, The Journal ofEconomic Perspectives 1 (1987), no. 1, 121–154.

[Mar91] J.G. March, How decisions happen in organizations, Human-Computer Interaction 6(1991), no. 2, 95–117.

[MB01] O.F. Morera and D.V. Budescu, Random error reduction in analytic hierarchies: A com-parison of holistic and decompositional decision strategies, Journal of Behavioral DecisionMaking 14 (2001), no. 3, 223–242.

[MCJ89] R.H. Myers and W.H. Carter Jr, Response surface methodology: 1966-1988,Technometrics 31 (1989), no. 2, 137–157.

[Mes95] S. Messick, Validity of psychological assessment: Validation of inferences from persons’ re-sponses and performances as scientific inquiry into score meaning, American Psychologist50 (1995), 741–741.

[MF07] Y. Mansourian and N. Ford, Search persistence and failure on the web: a boundedrationality and satisficing analysis, Journal of Documentation 63 (2007), no. 5, 680–701.

[MFH99] J. Ma, Z.P. Fan, and L.H. Huang, A subjective and objective integrated approach to de-termine attribute weights, European Journal of Operational Research 112 (1999), no. 2,397–404.

[Mik03] L. Mikhailov, Deriving priorities from fuzzy pairwise comparison judgements, Fuzzy Setsand Systems 134 (2003), no. 3, 365–385.

[MJ04] P. Maupin and A.L. Jousselme, Vagueness, a multifacet concept-a case study on Ambro-sia artemisiifolia predictive cartography, Geoscience and Remote Sensing Symposium,2004. IGARSS’04. Proceedings. 2004 IEEE International, vol. 1, IEEE, 2004.

[MJART05] J.M. Moreno-Jiménez, J. Aguarón, A. Raluy, and A. Turón, A spreadsheet modulefor consistent consensus building in AHP-group decision making, Group Decision andNegotiation 14 (2005), no. 2, 89–108.

[MK02] A.K. Mason and S. Korkmaz, Obtaining fuzzy membership functions and rule sets infuzzy expert systems with AHP, Systems, Man, and Cybernetics, 1998. 1998 IEEEInternational Conference on, vol. 3, IEEE, 2002, pp. 2315–2319.

[Mon06] D.C. Montgomery, Design and analysis of experiments, John Wiley & Sons, 2006.

[Mon07] , Introduction to statistical quality control, Wiley India Pvt. Ltd., 2007.

[MT06] J. Mehnen and H. Trautmann, Integration of expert’s preferences in pareto optimizationby desirability function techniques, parameters 500 (2006), 1.

[Mul98] R. Mulye, An empirical comparison of three variants of the AHP and two variants ofconjoint analysis, Journal of Behavioral Decision Making 11 (1998), no. 4, 263–280.

BIBLIOGRAFIA

BIBLIOGRAFIA 144

[MVGS01] Ana María Nieto Morote, Francisco Ruz Vila, and Eliseo Gómez-Senent, A new me-thod for weighting criteria determination with fuzzy pairwise comparison, Proceedings ofthe 2nd International Conference in Fuzzy Logic and Technology, Leicester, UnitedKingdom, EUSFLAT, 2001 (2001), 30–33.

[NdMM05] N. Nedjah and L. de Macedo Mourelle, Real-world multi-objective system engineering,Nova Science Pub Inc, 2005.

[OA93] K.N. Otto and E.K. Antonsson, The method of imprecision compared to utility theory fordesign selection problems, Design Theory and Methodology–DTM’93 13 (1993), 167–173.

[Olg06] E. Olgiati, Metodo per la determinazione dei parametri ottimi di taglio in condizioni diincertezza, Politecnico di Milano, Tesi di Laurea, 2006.

[ÖÖ07] A. Özdagoglu and G. Özdagoglu, Comparison of AHP and fuzzy AHP for themulti-criteria decision making processes with linguistic evaluations, Istanbul TicaretÜniversitesi Fen Bilimleri Dergisi 6 (2007), no. 11, 65–85.

[OSPHL04] F. Ortiz, J.R. Simpson, J.J. Pignatiello, and A. Heredia-Langner, A genetic algorithmapproach to multiple-response optimization, Journal of Quality Technology 36 (2004),no. 4, 432–450.

[Ott92] K.N. Otto, A formal representational theory for engineering design, Ph.D. thesis,California Institute of Technology, 1992.

[Pas04] I. Pastorelli, Verniciatura e controllo qualità. Proprietà, tecniche di lavorazione e controllodelle superfici verniciate, Hoepli, 2004.

[PBSG03] V. Poladian, S. Butler, M. Shaw, and D. Garlan, Time is not money: The case formulti-dimensional accounting in value-based software engineering, Fifth Workshop onEconomics-Driven Software Engineering Research (EDSER-5), 2003.

[Pol67] R.A. Pollak, Additive von Neumann-Morgenstern utility functions, Econometrica,Journal of the Econometric Society 35 (1967), 485–494.

[RA03] C. Ribardo and T.T. Allen, An alternative desirability function for achieving “six sigma”quality, Quality and Reliability Engineering International 19 (2003), no. 3, 227–240.

[Ram01] R. Ramanathan, A note on the use of the analytic hierarchy process for environmentalimpact assessment, Journal of Environmental Management 63 (2001), no. 1, 27–35.

[RFC01] J.L.D. Ribeiro, F.S. Fogliatto, and C.S. Caten, Minimizing manufacturing and qualitycosts in multiresponse optimization, Quality Engineering 13 (2001), no. 4, 559–569.

[RHWD04] A.M. Ross, D.E. Hastings, J.M. Warmkessel, and N.P. Diller, Multi-attribute tradespa-ce exploration as front end for effective space system design, Journal of Spacecraft andRockets 41 (2004), no. 1, 20–28.

[RoTD06] A.M. Ross, Massachusetts Institute of Technology, and Engineering Systems Di-vision, Managing unarticulated value: Changeability in multi-attribute tradespace ex-ploration, Massachusetts Institute of Technology, Engineering Systems Division,2006.

[RTL98] V.M. Rao Tummala and H. Ling, A note on the computation of the mean random con-sistency index of the analytic hierarchy process (AHP), Theory and decision 44 (1998),no. 3, 221–230.

BIBLIOGRAFIA

BIBLIOGRAFIA 145

[Rub98] A. Rubinstein, Modeling bounded rationality, MIT press, 1998.

[SA98] M.J. Scott and E.K. Antonsson, Aggregation functions for engineering design trade-offs,Fuzzy Sets and Systems 99 (1998), no. 3, 253–264.

[Saa90] T.L. Saaty, How to make a decision: the analytic hierarchy process, European journal ofoperational research 48 (1990), no. 1, 9–26.

[Saa03] , Decision-making with the AHP: Why is the principal eigenvector necessary,European Journal of Operational Research 145 (2003), no. 1, 85–91.

[Saa04a] R.W. Saaty, Validation examples for the Analytic Hierarchy Process and the AnalyticNetwork Process, Proceedings (CD-ROM) of the 17th International Conference onMultiple Criteria Decision Making, 2004, pp. 6–11.

[Saa04b] T.L. Saaty, Decision making – the analytic hierarchy and network processes (AHP/ANP),Journal of systems science and systems engineering 13 (2004), no. 1, 1–35.

[Saa05] R.W. Saaty, Decision making in complex environments, SuperDecisions manual, 2005.

[Saa08a] T.L. Saaty, Decision making with the analytic hierarchy process, International Journal ofServices Sciences 1 (2008), no. 1, 83–98.

[Saa08b] , Materiale elettronico sui metodi AHP ed ANP, 2008.

[Saa08c] , Relative measurement and its generalization in decision making why pairwise com-parisons are central in mathematics for the measurement of intangible factors the analytichierarchy/network process, Revista de la Real Academia de Ciencias Exactas, Fisicas yNaturales. Serie A. Matematicas 102 (2008), no. 2, 251–318.

[SBD01] Kamal Smimou, Suresh Bhatt, and Darren W. Dahl, Fuzzy analytical hierarchy pro-cess in new product screening, EUSFLAT Conf. – Proceedings of the 2nd Internatio-nal Conference in Fuzzy Logic and Technology, Leicester, United Kingdom, 2001,pp. 89–92.

[Sch05] B. Schwartz, The paradox of choice: Why more is less, Harper Perennial, 2005.

[Sen99] A. Sen, The possibility of social choice, The American Economic Review 89 (1999), no. 3,349–378.

[SH97] A.A. Salo and R.P. Hämäläinen, On the measurement of preferences in the analytichierarchy process, Journal of multi-criteria decision analysis 6 (1997), no. 6, 309–319.

[Sim96] H.A. Simon, The sciences of the artificial, MIT press, 1996.

[SO03a] T.L. Saaty and M. Ozdemir, Negative priorities in the analytic hierarchy process,Mathematical and Computer Modelling 37 (2003), no. 9-10, 1063–1075.

[SO03b] T.L. Saaty and M.S. Ozdemir, Why the magic number seven plus or minus two,Mathematical and Computer Modelling 38 (2003), no. 3-4, 233–244.

[SS97] A. Stam and A. Silva, Stochastic judgments in the AHP: The measurement of rank reversalprobabilities, Decision Sciences 28 (1997), no. 3, 655–688.

[ST07] T.L. Saaty and L.T. Tran, On the invalidity of fuzzifying numerical judgments in the Ana-lytic Hierarchy Process, Mathematical and Computer Modelling 46 (2007), no. 7-8,962–975.

[Ste99] D. Steuer, Multi-criteria-optimisation and desirability indices, Tech. report, UniversitätDortmund, 1999.

BIBLIOGRAFIA

BIBLIOGRAFIA 146

[Ste04a] , About the distribution of Derringer-Suich type desirabilities, 2004.

[Ste04b] , An improved optimisation procedure for Desirability Indices, Tech. report,Universität Dortmund, 2004.

[Ste04c] , Multi-criteria-optimisation and desirability indices, Tech. report, UniversitätDortmund, 2004.

[Str53] R.H. Strotz, Cardinal utility, The American Economic Review 43 (1953), no. 2, 384–397.

[SV87] T.L. Saaty and L.G. Vargas, Uncertainty and rank order in the analytic hierarchy process,European Journal of Operational Research 32 (1987), no. 1, 107–117.

[SY99] K. Sekitani and N. Yamaki, A logical interpretation for the eigenvalue method in AHP,Journal of the Operations Research Society of Japan-Keiei Kagaku 42 (1999), no. 2,219–232.

[Tha90] R.H. Thaler, Anomalies: Saving, fungibility, and mental accounts, The Journal ofEconomic Perspectives 4 (1990), no. 1, 193–205.

[TK92] A. Tversky and D. Kahneman, Advances in prospect theory: Cumulative representationof uncertainty, Journal of Risk and uncertainty 5 (1992), no. 4, 297–323.

[TL96] E. Triantaphyllou and C.T. Lin, Development and evaluation of five fuzzy multiattributedecision-making methods, International Journal of Approximate Reasoning 14 (1996),no. 4, 281–310.

[TS00] KC Tan and XX Shen, Integrating Kano’s model in the planning matrix of quality functiondeployment, Total Quality Management & Business Excellence 11 (2000), no. 8, 1141–1151.

[TS06] S. Tesfamariam and R. Sadiq, Risk-based environmental decision-making using fuz-zy analytic hierarchy process (F-AHP), Stochastic Environmental Research and RiskAssessment 21 (2006), no. 1, 35–50.

[Tsa08] E.P.K. Tsang, Computational intelligence determines effective rationality, InternationalJournal of Automation and Computing 5 (2008), no. 1, 63–66.

[TW04] H. Trautmann and C. Weihs, Pareto-Optimality and Desirability Indices, Tech. report,Universität Dortmund, 2004.

[TW06] , On the distribution of the desirability index using Harrington’s desirabilityfunction, Metrika 63 (2006), no. 2, 207–213.

[TYAT99] C. Temponi, J. Yen, and W. Amos Tiao, House of quality: A fuzzy logic-based re-quirements analysis, European Journal of Operational Research 117 (1999), no. 2,340–354.

[UE+95] K.T. Ulrich, S.D. Eppinger, et al., Product design and development, McGraw-Hill NewYork, 1995.

[VBS+08] K.D. Vohs, R.F. Baumeister, B.J. Schmeichel, J.M. Twenge, N.M. Nelson, and D.M.Tice, Making choices impairs subsequent self-control: A limited-resource account of de-cision making, self-regulation, and active initiative, Journal of Personality and SocialPsychology 94 (2008), no. 5, 883.

[VM90] G. VINING and R. MYERS, Combining Taguchi and response surface philosophies - Adual response approach, Journal of Quality Technology 22 (1990), 38–45.

BIBLIOGRAFIA

BIBLIOGRAFIA 147

[War04] L. Warren, Uncertainties in the Analytic Hierarchy Process, 2004.

[WC09] L.T. Wu and X. Cui, Evaluative Criteria for Aggregation Rules in AHP, Proceedingsof the 10th International Symposium on the Analytic Hierarchy/Network Process(ISAHP 2009, Pittsburgh), 2009.

[WDF+08] J. Wallenius, J.S. Dyer, P.C. Fishburn, R.E. Steuer, S. Zionts, and K. Deb, Multiple Cri-teria Decision Making, Multiattribute Utility Theory: Recent Accomplishments and WhatLies Ahead, Management Science 54 (2008), no. 7, 1336.

[WMCSJ97] DH Wolpert, WG Macready, I.B.M.A.R. Center, and CA San Jose, No free lunch theo-rems for optimization, IEEE Transactions on Evolutionary Computation 1 (1997), no. 1,67–82.

[WS01] Jon Williams and Nigel Steele, Imprecision of the elements of fuzzy eigenvectors of pairwi-se comparison matrices in fuzzy AHP, Proceedings of the 2nd International Conferen-ce in Fuzzy Logic and Technology,EUSFLAT Conf., vol. 1, De Montfort University,Leicester, UK, De Montfort University, Leicester, UK, 2001, pp. 131–134.

[WY98] M. Wang and J. Yang, A multi-criterion experimental comparison of three multi-attributeweight measurement methods, Journal of Multi-Criteria Decision Analysis 7 (1998),no. 6, 340–350.

[XLTX04] K. Xu, D.K.J. Lin, L.C. Tang, and M. Xie, Multiresponse systems optimization using agoal attainment approach, IIE transactions 36 (2004), no. 5, 433–445.

[Xul97] HAN Xuli, The Eigenvalue Method on Weight Matrix in AHP, Journal of SystemsScience and Systems Engineering 6 (1997), no. 3, 2932296.

[Yue09] K.K.F. Yuen, On Limitations of the Prioritization Methods in Analytic Hierarchy Process:A Study of Transportation Selection Problems, 2009.

[Zad65] L.A. Zadeh, Fuzzy sets, Information and control 8 (1965), no. 3, 338–353.

[Zad72] LA Zadeh, A fuzzy-set-theoretic interpretation of linguistic hedges, Cybernetics andSystems 2 (1972), no. 3, 4–34.

[Zit02] E. Zitzler, Evolutionary Algorithms for Multiobjective Optimization, Evolutionary Me-thods for Design, Optimisation, and Control (EUROGEN 2001), CIMNE, 2002,pp. 19–26.

BIBLIOGRAFIA

AAppendice: Glossario

Conjoint Analysis

Nel ventennio trascorso dalla sua prima formulazione la Conjoint Analysis, un metodo per costrui-re una Funzioni di utilità, ha sviluppato una notevole diffusione in particolar modo in ricerche diMarketing dove ne esiste una molteplicità di versioni con spesso poche caratteristiche in comune.L’approccio tradizionale (Traditional Conjoint Analysis) può essere concepito come un’applicazionedi Regressione multipla sui dati forniti dal decisore (un soggetto che risponde ad un questionario)che è visto come una black box e che, in corrispondenza di livelli dei fattori (combinazioni dei livel-li delle caratteristiche di interesse in un prodotto, spesso qui chiamate stimoli o concepts), fornisceun valore di utilità o di preferenza. Le misurazioni effettuate su ogni concept (tipicamente espressecon un numero da 0 a 10) vengono acquisite come variabile di risposta, i livelli delle caratteristi-che dei prodotti definiscono i regressori, le stime dei coefficienti nel modello sono interpretatecome utilità marginali o pesi (o part-worth utilities o preference scores) e l’indicatore R2 stabilisce laconsistenza interna del decisore. Nonostante l’impiego di strumenti di DOE per proporre pianisperimentali ottimali (spesso si utilizzano piani frazionati), alcune caratteristiche differenziano laTraditional Conjoint Analysis da un’analisi statistica rigorosa ed in particolare:

• tutti i fattori sono di natura categorica cosicché ad ogni livello è assegnata una colonna nellamatrice dell’esperimento. I suoi elementi saranno 1 o 0 a seconda che il livello sia attivo omeno in un dato concept

• la forma funzionale (tipicamente additiva) è supposta nota e conserva tutti i termini comesignificativi

Tra le modifiche più salienti al metodo tradizionale vi sono

• un’analisi statistica più completa: la forma funzionale è libera e si seleziona quella piùidonea (in modo piuttosto sorprendente studi empirici sembrano non giustificare questosviluppo ed i modelli non presentano vantaggi in termini di capacità previsiva delle sceltedei consumatori rispetto all’approccio tradizionale)

• la stima dei coefficienti con elementi di statistica bayesiana• Adaptive Conjoint Analysis (ACA): il termine Adaptive indica come l’intervista, amministrata

da un software, si evolva in modo differente a seconda delle risposte dell’intervistato. I datiraccolti sono analizzati a processo in corso per porre interrogativi mirati a rivelare in minortempo il più possibile del sistema di valori del soggetto

• una scomposizione del problema: anziché richiedere giudizi su concept per cui ogni pro-prietà è fissata ad un determinato livello, si formano gruppi di alternative che differisconosolo per un sottoinsieme di caratteristiche. Per ogni gruppo è predisposto un modello diregressione e le informazioni raccolte vengono integrate in una fase successiva (tipicamentesi considerano 2 caratteristiche alla volta inserendo le risposte in una matrice)

• l’impiego di differenti scale numeriche per i giudizi ed equivalenze linguistiche. Si può

148

A. Appendice: Glossario 149

anche richiedere che ciascun valore della scala sia assegnato una sola volta (ciò comportaun ordinamento completo tra le alternative rispetto ad una data caratteristica)

• si abolisce il significato che la Traditional Conjoint Analysis attribuisce all’indicatore R2 inquanto troppo viziato dalle procedure di acquisizione dei dati

• quando vi sono più intervistati, in modo analogo a ciò che avviene nei Choice Experiments,la forma funzionale può considerare un set di regressori associati al decisore. Il modellodiventa dunque Uin = Vin(Zi, Sn) + ε in , dove Uin è l’utilità che il prodotto i-esimo offreal soggetto n-esimo, Vin il modello da stimare, Zi il vettore delle qualità del prodotto, Snil vettore delle caratteristiche socio-economiche dell’intervistato e εin il termine d’errore.Nella Conjoint Analysis l’utilità è supposta osservabile, a differenza dei Choice Experimentsdove essa ricopre il ruolo di variabile latente [KLG09].

Per quanto sia un metodo ampiamente applicato a problemi di design multiobiettivo per carat-terizzare la Funzione di utilità e trovi implementazione in numerosi software, la Conjoint Analysissta recentemente perdendo consensi a favore dell’AHP. Si riconoscono infatti a quest’ultimo unmaggior contributo analitico e “maieutico” ed evidenze empiriche supportano sempre più la suaefficacia [Mul98] (Tabella A.1 riporta il confronto tra due varianti di questi metodi).

La Regressione edonica nutre alcune affinità con la Conjoint Analysis e si propone di risaliread una relazione che leghi alcune variabili esplicative ad un indicatore della soddisfazione asso-ciata ad un prodotto (tipicamente il suo prezzo). Entrambi i metodi suppongono che la bontà diun prodotto dipenda dalla sua capacità di soddisfare le esigenze di un cliente ed essa si rifletta asua volta in una variabile osservabile, costruita in base a delle preferenze attribuite da un pool diintervistati (progettando un esperimento per estrarre i dati dai questionari). E’ chiaro che l’appro-priatezza di questi strumenti dipende in ultima analisi dalle ipotesi su chi sia l’attore decisionalee su come avvenga il processo di specifica delle preferenze.

Consistente

In Logica una teoria è consistente se non contiene contraddizioni. Questo termine è adoperatonell’approccio AHP per descrivere un sistema di valutazioni e confronti che gode della proprietàtransitiva tra le preferenze. A differenza dell’accezione matematica (di tipo booleano) a questaproprietà viene associato un indice, misurato in modo continuo in un intervallo, acquistando cosìnatura cardinale (e lineare).

Data Envelopment Analysis

Il metodo Data Envelopment Analysis (DEA) consente di confrontare le misure di efficienza relativatra unità operative omogenee (che consumano cioè all’incirca le medesime risorse per otteneresimili risultati anche se in proporzioni differenti). Le idee chiave del metodo sono:

1. una misura dell’efficienza relativa di un’unità operativa è data dal rapporto tra la sommapesata di p output (Y) e quella k input (X)

Effj (Efficiency of point j) =∑

pi=1 wY j,i Yj,i

∑ki=1 wX j,i Xj,i

2. ogni unità può attribuire un differente valore ad input ed output (in accordo ai propri obietti-vi) e dovrebbe poter scegliere l’insieme di pesi che le risulta più favorevole. Queste quantitàsono considerate un’incognita del problema, ma si suppone che corrispondano alla combi-nazione che massimizza l’efficienza dell’unità operativa. I pesi più favorevoli all’unità j

A. Appendice: Glossario 150

AHP Traditional conjoint

Filosofia Approccio costruttivo/prescrittivo. Aiutaa migliorare i giudizi

Approccio analitico/descrittivo. Imita igiudizi dei consumatori

Misurazione Confronti a coppie di attributi ed alterna-tive

Valutazioni olistiche dei profili dei prodot-ti

Misura degli input Scala razionale (1/9 - 9) con interpretazio-ni semantiche

Scala ordinale e per intervalli

Misura degli output Scala razionale Scala per intervalli

Struttura Gerarchica A matrice

Sintesi Aggregazione delle priorità locali Regressione

Procedura di stima Metodo dell’autovalore OLS/MONONOVA/LINMAP

Interpretazione dell’im-portanza degli attributi

Importanza relativa del raggiungimentodi un obiettivo

Part-worth range del livello di un attributo

Feedback nel corso dellavalutazione

Controllo della consistenza ed analisi disensibilità

Nessuno

Stress cognitivo Basso Alto. Aumenta con il numeo degli attributi

Grado di realismo esemplicità

Meno realistico, ma compito più semplice Realistico ma può diventare pesante

Modalità di sommini-strazione

Intervista assistita al computer Interviste personali, mail o telefono

Flessibilità Bassa. Natura strettamente additiva Alta. pò rappresentare diverse valuefunction

Attuale applicazionecommerciale

Relativamente bassa nel Marketing Alta

Tabella A.1: Confronto tra l’AHP e la Conjoint Analysis (da [Mul98]).

sono ricavati dal seguente modello di programmazione:

maxwY j,i wX j,i

Effj =∑

pi=1 wY j,i Yj,i

∑ki=1 wX j,i Xj,i

s.v.∑

pi=1 wY l,i Yl,i

∑ki=1 wX l,i Xl,i

≤ 1 ∀unità l

wY l,i , wX l,i ≥ ε

I vincoli specificano che le misure di efficienza appartengono all’intervallo [0; 1] (l’efficienzamassima è del 100%) e che i pesi devono superare la piccola quantità ε onde evitare di ignorarerisorse o risultati. Se Effj = 1 allora l’unità è efficiente in rapporto alle altre, viceversa valoriinferiori implicano la presenza di altre unità più efficienti, nonostante i pesi siano stati scelti permassimizzare quella di j.

Il problema di massimizzazione ora definito può essere linearizzato per facilitarne la solu-zione ed alcune rappresentazioni grafiche (tipicamente frontiere efficienti sul piano cartesiano)completano l’analisi ed aiutano a formulare target per le unità non efficienti. E’ anche possibileestrarre utili informazioni dal problema duale e nel corso del tempo sono state proposte modi-fiche al metodo originale (tra tutte si ricorda la distinzione tra output oriented ed input oriented).Soffermandosi sulla ratio che supporta questo metodo si può osservare come esso non sia di per sévincolato a rapporti di efficienza, ma possa essere esteso a qualsivoglia funzione di aggregazioneche faccia ricorso a pesi. In linea di principio il metodo DEA, pur non essendo esente da critiche

A. Appendice: Glossario 151

e debolezze, può fornire ispirazione in tutte le situazioni ove si riscontra un’elevata incertezza odisaccordo sul valore dei pesi da associare alle proprietà che caratterizzano un prodotto.

Approfondimenti: [CST06], http://www.deazone.com

Design for Six Sigma

Design for Six Sigma (DFSS) è un principio di gestione aziendale fortemente collegato alle ideeespresse nella filosofia Six Sigma. La differenza più sostanziale tra i due metodi consiste nel fat-to che, mentre il Six Sigma applica strumenti di controllo statistico alla gestione della qualità infase di produzione all’interno di contesti di miglioramento continuo, il DFSS mira ad ampliarneil campo d’azione fino a raggiungere le prime fasi di concepimento e di design di un prodotto (èpertanto un’espressione di Probabilistic Design). Un approccio multiobiettivo che riflette in modochiaro questa finalità è proposto in [RA03] dove le funzioni di desiderabilità sono opportuna-mente modificate per poter essere interpretate come la stima conservativa di lungo periodo dellafrazione di unità conformi, ovvero

di(Yμ i,, Yσ i, τi) =min

[

Φ

(USL− (Yμ i + τiYσ i)

Yσ i

)

−Φ

(LSL− (Yμ i + τiYσ i)

Yσ i

)

;

Φ

(USL− (Yμ i − τiYσ i)

Yσ i

)

−Φ

(LSL− (Yμ i − τiYσ i)

Yσ i

)]

dove USL ed LSL sono rispettivamente i limiti di specifica superiori ed inferiori, Yμ i e Yσ i i livellidel valore atteso e della deviazione standard previsti per la risposta i–esima in corrispondenzadi ciascuna condizione operativa e τi è uno shift della media verso uno dei limiti (solitamente sipone τi = 1, 5). Nel caso non vi siano limiti di specifica superiori le cumulate che contengono iltermine USL sono sostituite dal valore 1, mentre se non vi sono limiti inferiori quelle che dipen-dono da LSL assumeranno valore 0. Sempre in [RA03] si suggeriscono interpretazioni standardper l’Indice di desiderabilità (ottenuto dal prodotto dei di). Un simile approccio viene espostoanche in [LK07] dove l’obiettivo è quello di massimizzare la probabilità che tutte le risposte di unprodotto soddisfino simultaneamente i requisiti.

Queste strategie di design si collocano tra le attività del principio generale di DFSS che vengo-no racchiuse nella sigla DMADV, ovvero Define–Measure–Analyze–Design–Verify.

Dominanza

I concetti di dominanza ed efficienza consentono, pur non potendo disporre di un ordinamentocompleto in Rp≥1, di discriminare tra alternative “migliori” e “peggiori” senza richiedere con-fronti diretti tra le caratteristiche di interesse (e quindi senza necessità per il decisore di esprimerepreferenze al riguardo). Introdotti da Pareto (1906) questi termini sono stati estesi e generalizzatiin molti modi; qui si riporta la formulazione classica nell’ipotesi di dover minimizzare p proprie-tà. Tra due punti yA ed yB (individuati da due vettori nello spazio p-dimensionale γ) si affermache il primo domina (in senso stretto) il secondo se:

∀ i ∈ {1, 2, . . . , p} yA i ≤ yB i e (A.1)

∃ i | yA i < yB i (A.2)

Qualora sussista questa relazione il rapporto tra i due elementi si indica con yA ≺ yB e nel casonon sia soddisfatta la seconda condizione (A.2), ci si riconduce al concetto di “dominanza debole”(weakly dominance) che viene indicata con yA � yB. Un punto yA è definito inoltre “efficiente” senon risulta dominato ovvero @ y | y � yA, bensì alternative in cui una caratteristica migliora(yi < yA i) sono peggiori rispetto ad una o più altre (ad esempio yj > yA j con j, i ∈ {1 . . . p}

A. Appendice: Glossario 152

e j , i). Le soluzioni efficienti sono anche chiamate “non inferiori”, “ammissibili” o “Paretoottime”. Un insieme di vettori P ⊂ γ è definito “insieme non dominato” o “insieme efficiente” senessun membro ne domina altri, ovvero:

∀ yA, yB ∈ P @ yB| yA � yB ( ∧yA , yB ) (A.3)

Nei problemi di ottimizzazione multiobiettivo l’insieme P prende anche il nome di “frontieraparetiana”, “frontiera efficiente” (“frontiera” in quanto i suoi membri si collocano sui bordi dieventuali rappresentazioni grafiche del problema) o “soluzione completa”.

In problemi di design la terminologia varia leggermente poiché, introducendo dei modelli deltipo Yi = fi(X), gli elementi y ∈ γ sono chiamati risposte mentre x ∈ χ soluzioni: le proprietàdi efficienza e dominanza individuate tra punti in γ si riflettono pertanto nello spazio delle solu-zioni (xA ≺ xB se e solo se yA ≺ yB ed in modo analogo xA è efficiente se e solo se lo è yA). Sedifferenti combinazioni dei livelli dei fattori xA, xB, . . . producono il medesimo vettore di proprie-tà yA, siccome per la definizione in Eq. A.3 una soluzione efficiente è anche unica, alcuni deglialgoritmi implementati per enumerarle e riconoscerle tra una moltitudine di vettori potenziali,li scarterebbero. Per l’attività di design è tuttavia evidente che queste soluzioni sono egualmentedesiderabili o contemplabili come decisioni finali e per esser certi di fare riferimento alla formadebole di dominanza, occorre verificare il criterio impiegato dagli algoritmi messi all’opera.

Approfondimenti: [Ste04c], [MA04], [KC04]

Equivalence zone

L’Equivalence Zone (EZ) nei problemi con modelli non deterministici consiste in un insieme di pun-ti (in χ ) a cui corrispondono prestazioni del sistema statisticamente indistinguibili da quelle cheesso fornisce in particolari condizioni operative. Quando esse sono riferite all’ottimo, si utilizzaanche il termine Optimum Equivalence Zone.

Tale insieme può essere definito in almeno due modi alternativi: nel primo caso, esso indivi-dua soluzioni che corrispondono ai punti stazionari di modelli che, data la natura rumorosa delsistema, si candidano tutti a descriverlo efficacemente (ipotizzando che avrebbero potuto essere ilrisultato dell’analisi di una diversa sessione sperimentale). Nel secondo invece, dato un particola-re modello (stimato dai dati raccolti) all’interno dell’EZ si collocano i punti che offrono prestazioni(valutate attraverso la Funzione obiettivo) non statisticamente differenti da quelle ottenute nellecondizioni operative di riferimento. Dati i discussi vantaggi di questa seconda interpretazione,essa è quella approfondita ed utilizzata nel presente elaborato.

GAIA

GAIA è il modulo grafico (ed interattivo) sviluppato nell’approccio PROMETHEE e consiste inun piano di proiezione per ridurre la dimensione del problema di ottimizzazione multiobiettivo.Ogni alternativa è situata in un punto di Rp e GAIA è il piano in R2 che prova a conservare lamaggior informazione possibile a seguito dell’operazione di proiezione (la ricerca di tale piano ècomunemente effettuata con la Principal Components Analysis).

Il piano GAIA, esemplificato in Figura A.1, gode delle seguenti proprietà:

• maggiore è la lunghezza dell’asse associato ad un criterio o ad una caratteristica (C1, . . . , Cp),maggiore è il suo potere discriminante

• assi di criteri in armonia tra loro sono orientati all’incirca nella medesima direzione• criteri in conflitto si riflettono in assi orientati in direzione opposta• assi di criteri tra i quali non sussiste un particolare rapporto sono all’incirca perpendicolari• punti vicini nello spazio corrispondono ad alternative simili

A. Appendice: Glossario 153

Figura A.1: Il piano GAIA è un meta-modello (è il modello di un modello) e fornisce una rappresentazionegrafica del problema multiobiettivo.

• alternative con prestazioni elevate rispetto a un determinato criterio sono rappresentate dapunti situati nella direzione dell’asse corrispondente

Questa rappresentazione ha lo scopo di chiarire il potere discriminante dei criteri di valutazione,visualizzare i trade off e le prestazioni di ciascun alternativa rispetto alle caratteristiche di inte-resse. Il vettore dei pesi (anch’esso p-dimensionale) è proiettato nell’asse ω (decision axis): se ilsuo segmento è lungo, esso ha un’influenza notevole ed è consigliato scegliere le alternative ilpiù possibile lungo la sua direzione, viceversa un asse ω più corto indica un supporto decisionalemodesto, ovvero i criteri pesati sono in forte conflitto e la selezione di un buon compromesso èparticolarmente difficile. L’asse ω gioca un ruolo chiave anche nell’analisi di sensibilità sul setdi pesi scelti: in un’analisi resa interattiva dalle implementazioni software, per differenti combi-nazioni esso si muove nel piano GAIA individuando una zona di incertezza che rappresenta laproiezione di un cono in Rp. Se l’origine degli assi ricade in tale zona la direzione di ω può subiresostanziali modifiche anche per piccole variazioni del vettore di pesi.

Approfondimenti: [FGE05, BM05]

House of Quality

La House of Quality (HOQ) è uno strumento grafico che assiste la fase di design definendo le re-lazioni tra di desideri del cliente e le caratteristiche di un prodotto (o le capacità di un’impresa).Si colloca nell’approccio Quality Function Deployment (QFD, [v. Glossario: Quality Function De-ployment] ) e consiste in una matrice per pianificare in modo strutturato la relazione tra ciò che ilcliente vuole (Whats) e le modalità in cui un’impresa può realizzare prodotti che soddisfino taliesigenze (Hows).

Percepire i bisogni del mercato, ordinarli ed attribuire ad essi una priorità (con tecniche qualil’AHP) sono le prime fasi del QFD e vengono implementati nella HOQ. La struttura di base diquesto strumento è una tabella in cui le gli elementi Whats nelle righe incrociano quelli Hows nellecolonne per giungere a definre nuovi target:

• House of Quality : Customer requirements × Technical requirements→ Product targets

Gli elementi che compongono la HOQ sono riportati in Figura A.2 dove vengono anchenumerati secondo l’ordine di immissione:

1. Customer requirements (o Voice of Customes). L’input della HOQ deriva dalla raccolta (tra-mite interviste o altri strumenti), dall’identificazione (spesso mediante requirements cards) edall’approfondimento (raggruppando in cluster tramite affinity diagrams e proponendo unagerarchia con strutture ad albero) delle necessità e delle preferenze della clientela

A. Appendice: Glossario 154

Figura A.2: La raffigurazione schematica dello strumento di progettazione House of Quality.

2. Planning matrix. Si esplicitano le priorità delle caratteristiche identificate al punto (1) attri-buendo dei pesi (Importance weighting), confrontandole con quelle di altri prodotti e con laconcorrenza (Existing products), cercando di prevedere il miglioramento atteso (Planned ra-ting e Improvement factor) ed ipotizzando le leve impiegabili dal Marketing (Sales point) finoa giungere ad un giudizio complessivo (Overall weighting)

3. Technical requirements (o Voice of Company). Si identificano le qualità tecniche e misurabili cheil prodotto deve avere per rispondere ai Customer requirements; lo sviluppo e la costruzioneè simile al procedimento adottato nel punto (1) e si dispone una nova riga per segnalare ladirezione del miglioramento necessario di ciascuna prestazione

4. Interrelationships. Il corpo della HOQ ha il compito di tradurre i requisiti del punto (1) inquelli del 3 tramite incrociando gli elementi raccolti; in questa fase, che spesso richiede losforzo maggiore, per ogni combinazione tra requisiti tecnici e del mercato si valuta la forzadel rapporto che li lega

5. Roof. I trade off che sussistono tra i requisiti tecnici identificati in (3) sono quantificati nellaparte più alta della HOQ

6. (Product) Targets. La parte bassa dello schema si compone di diverse righe: Technical prio-rities ovvero il prodotto tra le relazioni (individuate nel punto (4) ) e l’Ovearall priority (dalpunto (2) ), Competitive benchmarks dove per ogni Technical requirement si valuta la propriasoluzione rispetto a quella dei concorrenti ed infine Targets (l’output della HOQ) che sin-tetizza tutte le operazioni svolte, in priorità da attribuire agli elementi ritrovati al punto(3)

La HOQ può essere impiegata in modo iterativo per definire tutti i valori chiave del processodalle fasi di design ed ingegnerizzazione sino a quelle di produzione ed in particolare:

• PART DEPLOYMENT : Product targets × Part characteristics→ Part targets• PROCESS PLANNING : Part targets × Key process operations→ Process targets• PRODUCTION PLANNING : Process targets × Machine settins etc. → Target production set-

tings

Questo processo, in cui l’output di una HOQ costituisce l’input di quella impiegata nella fasesuccessiva, è chiamato Clausing Four-Phase Model.

A. Appendice: Glossario 155

Lexicographic ordering

L’ordinamento Lessicografico è un metodo per ordinare completamente sottoinsiemi di Rp≥1

nonché il criterio più comunemente applicato su misure nominali (l’ordine alfabetico che sta-bilisce la successione dei vocaboli in un dizionario1 è ad esempio di tipo Lessicografico) e nonprevede l’ausilio di funzioni scalari per aggregare gli obiettivi. Si dice che tra due punti yA =(yA 1, yA 2, ..., yA p) e yB = (yB 1, yB 2, ..., yB p), il primo è minore secondo del secondo e si indicayA ≤L yB se

• yA 1 < yB 1 oppure• yA 1 = yB 1 e yA 2 < yB 2 oppure• . . . oppure• yA i = yB i ∀ i = 1, . . . , (p− 1) e yA p < yB p

Ovviamente a meno che non vi sia un’unica soluzione dominante, sia l’elemento minore chel’intera successione sono determinati dall’ordine in cui compaiono le caratteristiche nei vettoriy e non necessariamente tutti gli obiettivi verranno considerati nell’analisi. In problemi di otti-mizzazione su insiemi continui si presuppone dunque l’esistenza di una gerarchia o di priori-tà tra tali obiettivi e trovare la soluzione migliore significa ottimizzare iterativamente ciascunacaratteristica:

• y∗ 1 = max Y1

• y∗ 2 = max Y2 s.v. Y1 = y∗ 1

• ...• y∗ p = max Yp s.v. Yi = y∗ i per i = 1, . . . , (p− 1)

La soluzione yA = (y∗ 1, y∗ 2, . . . , y∗ p) è pareto efficiente, ma difficilmente rappresenterà undesign di compensazione in quanto non esistono considerazioni in merito ai trade off tra le prefe-renze, né si suppone la ricerca di un compromesso.

Approfondimenti: [Cve00]

MATE

Il Multi-Attribute Tradespace Exploration (MATE) più che essere un approccio all’ottimizzazionemultiobiettivo costituisce un esempio di framework per gestire l’intero processo a partire dall’in-dentificazione delle richieste degli stakeholders fino alla selezione ed alla realizzazione del designdei prodotti con l’ausilio di strumenti di Project Management. Sviluppato presso il MIT il metodoMATE copre le prime fasi di sviluppo di un prodotto (concept development e system-level design)con l’obiettivo di catturare le preferenze del/dei decisori ed impiegarle per generare e valuta-re una moltitudine di design alternativi sviluppando una metrica che possa essere comunicataattraverso l’impresa al fine di supportare miglioramenti sia tecnici che non (questo frameworkfunge al contempo da “generatore di soluzioni” e da strumento di supporto alle decisioni). Nel-l’implementazione del metodo si fa riferimento ad alcuni termini di cui si fornisce una sinteticadefinizione:

• Architettura (System architecture): è il livello di dettaglio dell’analisi che specifica le formee le funzioni del progetto (prodotto o design). Il termine è anche impiegato per riferirsi allealternative, identificate da un vettore di caratteristiche di interesse (Design vector)

• Tradespace: è lo spazio delle soluzioni potenziali, popolato da tutte le alternative riconosciu-te come realizzabili ed enumerate. Si distingue tra lo spazio {Design × Attributes}, denomi-nato Solution space e quello {Utility× Cost}, il Tradespace rappresentabile sul piano cartesiano[RHWD04]

1Le parole sono misure nominali formate dal concatenamento di misure ordinali (le lettere dell’alfabeto).

A. Appendice: Glossario 156

• Esplorazione: è l’attività di ricerca, guidata da un criterio di utilità, di soluzioni miglio-ri all’interno del Tradespace; essa non equivale ad una tecnica di ottimizzazione, quantopiuttosto ad un metodo per valutare un insieme di opzioni raccogliendo informazioni checostituiranno la base del processo decisionale

Figura A.3: Struttura degli elementi e delle attività presenti nel framework MATE.

La struttura e le attività che consentono di implementare il metodo sono rappresentate inFigura A.3. Da questa rappresentazione e da informazioni sulle preferenze sia a priori che aposteriori, si sviluppano quelle che a livello più aggregato costituiscono le 5 fasi dell’approccioMATE:

1. Need identification: fase che motiva l’intero progetto, si specificano i bisogni da soddisfare,la mission e l’obiettivo del progetto

2. Architecture solution exploration: si identificano le Design variables e le relazioni che le leganoalle caratteristiche di interesse ad esempio con strumenti DOE e la QFD

3. Architecture evaluation: si generano possibili soluzioni in numero elevato e si valutano intermini di Utility e di Cost restringendo le regioni di interesse intorno alle soluzioni migliori.Seguono fasi di simulazione e di analisi di sensibilità.

4. Design solution exploration: nelle ultime due fasi l’analisi si sposta dal livello di architetturaa quello di Design e viene svolta dai Concurrent design teams che hanno il compito di selezio-nare le architetture che presentano maggiore affidabilità in un contesto più approfondito ereale

5. Design evaluation: in modo parallelo a quanto avvenuto nella fase (3), i Design vengonovalutati in termini di Utilità e di Costo alla ricerca della soluzione definitiva

Nel corso di questo processo, anziché ottimizzare o ricercare la frontiera efficiente, l’esplorazionedel Tradespace mira ad individuare pattern e strutture che emergono nelle sue varie regioni nel-l’intento di accumulare informazione. La costruzione delle Funzioni di utilità avviene secondol’approccio MAUT (in particolare si fa riferimento al lottery equivalent probability method [v. Glos-sario: MAUT] ) poiché esso è considerato un sistema per uniformare i guidizi di persone condiverse competenze all’interno dell’impresa, ma in grado ognuna di comprendere il significato diquesta misura di Utilità.

La più nota variante del metodo originale è il MATE-CON (dove l’appendice CON indica uncontesto di CONcurrent design e dove le tecnologie ICT supportano l’integrazione e lo scambio diinformazioni tra specialisti, coadiuvando al contempo processi di negoziazione in presenza di piùdecisori). Può essere prevista un’applicazine di tipo dinamico dove Utilità e Costo sono valutatiin funzione del tempo.

Approfondimenti: [RHWD04], [RoTD06]

A. Appendice: Glossario 157

Matrix plot

Nei grafici disposti a matrice la scelta del tipo di rappresentazione da inserire in ciascuna cellagode di una certa discrezionalità, benché fuori dalla diagonale essa ricade comunemente su degliscatterplot: nell’esempio si è optato per la distribuzione congiunta e marginale delle risposte (ri-spettivamente negli Scatterplot di nord-est e negli Istogrammi disposti sulla diagonale) e per alcunilag indicatori di correlazione (a sud-ovest).

0 0.5 10

5

0 0.5 10

0.5

1

0 0.5 10

0.5

1

0 0.5 10

0.5

1

1 2 3 4-1

0

1

0 0.5 10

5

10

0 0.5 10

0.5

1

0 0.5 10

0.5

1

1 2 3 4-1

0

1

1 2 3 4-1

0

1

0 0.5 10

5

10

0 0.5 10

0.5

1

1 2 3 4-1

0

1

1 2 3 4-1

0

1

1 2 3 4-1

0

1

0 0.5 10

5

Figura A.4: Una matrice di grafici condensa più informazioni in modo strutturato. Gli Scatterplot ri-cadono nella seconda tra le casistiche riportate a pag. 45; negli Istogrammi a sud–ovest ilrettangolo più a sinistra misura l’indice di correlazione lineare, il successivo quello quadraticoe così via (si può intuire un legame tra questi grafici e gli Scatterplot simmetrici rispetto alladiagonale)

Come i grafici precedenti anche quelli di Figura A.4 si rivelano utili sia per studiare le di-stribuzioni e le relazioni tra gli output del processo o del fenomeno fisico che per analizzare piùapprofonditamente gli obiettivi. In questo caso è conveniente trasformare prima le osservazionifacendo in modo che abbiano tra loro obiettivi concordi (ad esempio siano tutte da minimizza-re) onde rendere più chiari i trade off. Anche prevedendo il ricorso successivo ad un approccioanalitico, visualizzare le distribuzioni congiunte ed i gradi di correlazione può fornire un’idea diquanto sia difficile la ricerca di un compromesso tra le caratteristiche nel problema specifico2.

Ciò può aiutare anche a comprendere quanto sia difficile la ricerca di un compromesso, comedicusso in Appendice B.2 (pag. 175).

MAUT

La Multi-Attribute Utility Theory (MAUT) è un approccio sviluppato da Keeney e Raiffa (1976)che si può utilizzare per riflettere le preferenze del decisore sia in ambito mono-obiettivo chemultiobiettivo. La rappresentazione tipica (anche se non l’unica3) è quella di un’Utilità come

2Alcune considerazioni al riguardo sono proposte in Appendice B.2 (pag. 175).3Volendo inserire nel modello un termine di interazione, nel caso di due obiettivi si ha ad esempio:

U(X1, X2) = w1u1(Y1) + w2u2(Y2) + Kw1w2u1(Y1)u2(Y1)

dove K assume il ruolo di un termine di normalizzazione pari a (1−w1−w2)w1w2

.

A. Appendice: Glossario 158

somma pesata:

U =p

∑i=1

wiui(Yi) (A.4)

Le utilità mono-obiettivo (ui(Yi) ) hanno il compito di uniformare le scale di misura e rifletterele preferenze del decisore circa i livelli di Yi. Rispetto ad altri approcci l’elemento più distintivoè la valenza di “utilità attesa” associata ad U ed il modo in cui si interpretano le funzioni diconversione tra i criteri. Una volta delineato il problema, identificati i range di ciascun attributoed associati dei valori numerici agli estremi, la procedura di confronto avviene infatti secondoil metodo detto “a lotteria” (lottery4). Per un dato criterio (sia Yi) si selezionano due livelli (unoalto ed uno basso, si supponga yi h e yi l) e si domanda al decisore quale valore (yi c) lo renderebbeindifferente tra le alternative5

• ottenere yi c con probabilità 1 oppure• ottenere yi h con probabilità p e yi l con probabilità (1− p).

Una volta individuato yi c (anche detto l’equivalente certo) gli si assegna un’utilità pari6 a p esi ripete il procedimento ottenendo punti a sufficienza7 per ricavare i parametri della funzione ui.A differenza dell’utilità impiegata nelle Teorie del consumatore (ordinale), ui ha natura cardinale[Mac87]. L’assegnazione dei pesi wi nell’Equazione A.4 può avvenire attraverso ulteriori lotterie,avvalendosi di strumenti differenti (ad esempio l’AHP) o attingendo tra le proposte della Multi–Attribute Value Theory (MAVT), un’evoluzione della MAUT specificatamente rivolta ai problemidi aggregazione ed ai confronti tra gli attributi.

Approfondimenti: [Cho03]

MinMax

Viene fatto uso di questo termini in diversi ambiti attribuendogli interpretazioni distinte. In unaprima accezione ci si riferisce ad una sorta di worst case analysis e si ritrova comunemente nellaTeoria delle decisioni (in condizioni di incertezza) ed in quella dei giochi (si supponga che ilricercatore partecipi ad un gioco dove la Natura muove per prima) per un modello il cui obiettivoè di individuare l’azione che minimizza la massima perdita possibile.

In un secondo caso invece non vi sono specifici riferimenti all’incertezza e l’approccio all’ot-timizzazione multiobiettivo si basa sulla misura della distanza delle soluzioni da un punto diottimo ideale. Si suppone anche che nella formulazione classica non sia necessario che il deci-sore articoli le sue preferenze. Disponendo di p caratteristiche di qualità ed altrettanti modelliYi = fi(X) che le legano ai fattori, il problema viene in questo caso risolto come

minχ

[p

∑i=1

(Yi − y∗ i

y∗ i

)q] 1

q

(A.5)

A seconda del valore di q si ottengono differenti misure di distanza: 1 corrisponde a quella as-soluta, 2 a quella euclidea ed ∞ alla norma di Tchebycheff. E’ possibile anche assegnare diversiesponenti e pesi a ciascun termine nella somma (A.5): essi possono ricoprire il ruolo di variabili

4Ovvero una distribuzione di probabilità su di un insieme finito di esiti o premi. Questa procedura,introdotta da von Neumann e Morgenstern dimostra tra l’altro che ogni relazione di preferenza, intesanell’accezione deterministica, può essere scritta ed interpretata come un’utilità attesa.

5La domanda potrebbe anche essere riformulata per individuare p noto il valore yi c.6Si suppone che il decisore valuti l’equazione (1− p)ui(yi l)+ pui(yi h) = (1)ui(yi c) e fissando ui(yi l) = 0

ed ui(yi h) = 1 risulta perciò ui(yi c) = p7Solitamente sono richiesti 3 parametri poiché si suppone che per un decisore avverso al rischio la funzio-

ne abbia forma ui(Yi) = a+ b ln(Yi + c) nel caso l’utilità sia monotona crescente o ui(Yi) = a+ b ln(c− Yi)per un’utilità decrescente.

A. Appendice: Glossario 159

da ricavare nell’ottimizzazione [MFH99] o più comunemente di coefficienti stabiliti dal decisorein modo che, a seconda dei valori assegnati, si individuino differenti soluzioni efficienti.

E’ importante sottolineare come sia nel caso dell’approccio MinMax, che in quello in cui siintenda invece massimizzare la minore tra le qualità di un prodotto (a volte per questo dettoMaximin [Fül04]), le caratteristiche necessitano di poter essere comparate tra loro ed in assenzadi un’operazione di normalizzazione, la soluzione finale dipenderà inevitabilmente dalle scale dimisura. Delle soluzioni individuate dall’approccio Maximin occorerà inoltre verificare l’efficienza.

Multi–*

I problemi che comportano l’ottimizzazione di più caratteristiche ricevono differenti denomi-nazioni sia per ragioni storiche che per via dell’ambito disciplinare in cui si sono radicati edapprofonditi. Si ricorda ad esempio

• Multi–Objective–Optimization (MOO)• Multi–Objective–Decision–Making (MOO)• Multi–Criteria–Optimization (MCO)• Multi–Criteria–Decision–Analysis (MCDA)• Multi–Criteria–Decision–Making (MCDM)• Multi–Attribute–Decision–Making (MADM)

Senza addentrarsi in un’analisi etimologica si osserva comunque che nei casi di MCDA, MCDM,MADM il problema è spesso inteso come una scelta da compiere tra un numero finito di alterna-tive ed i relativi modelli hanno radici in larga misura nella Teoria delle Decisioni (Rational choicetheory) e nella Teoria dei giochi (in particolare per quanto riguarda MCDA). Anche il termine Cri-teria (da cui Multiple criteria discrete alternative/choice problems) fa comunemente riferimento ad unasoluzione ricercata in un dominio di proprietà discrete (γ), mentre quelli Objective ed Optimization(da cui Multiple objectives optimization problems) ad una all’interno di un dominio continuo di fatto-ri (χ). Secondo [DFS+92] se esiste una funzione esplicita per rappresentare l’utilità i metodi sonoricondotti alla categoria MAUT; in caso contrario se essa è implicita o si ritiene al limite non esi-sta, vengono classificati come MCDM. In [Ban00] invece, con MADM ci si riferisce al problema discelta tra prodotti alternativi (product selection), con MODM a quello di ottimizzazione e MCDMnasce dall’insieme delle due attività. Secondo alcuni autori [CKPS08] caratteristiche e criteri sonoda intendersi come quantità oggettive in contrasto con il termine attributo che viene più spessoutilizzato in ricerche psicologiche e di Marketing (riferendosi ad attributi sensoriali), mentre peraltri [Fül04] è vero l’esatto opposto e cioè che se una proprietà è chiaramente misurabile alloraè un attributo. Dal punto di vista operativo in pochi casi si assiste ad una modifica evidente esostanziale del significato dei termini (come quando con MADM si indica il problema di ottimiz-zare una sola caratteristica che dipende da più fattori) e le innegabili comunanze di problematichefanno sì che interpretarli all’incirca come sinonimi non conduce a gravi errori [FS01]. L’obietti-vo di questi metodi è infatti tipicamente lo stesso: aiutare i decisori a risolvere alcuni problemicomplessi in modo sistematico, consistente e produttivo.

In questa sede si considera multiobiettivo un problema dove si vogliono ottimizzare diffe-renti proprietà in conflitto tra loro e tale per cui, nell’ipotesi di costruire una funzione Rp → R

che restituisca un valore scalare i corrispondenza di combinazioni di livelli degli obiettivi, questisarebbe privo di unità di misura (se non il concetto di l’utilità o affini): in tutti gli altri casi lacaratteristica da ottimizzare è considerata unica (da cui Single-Objective/Criteria).

A. Appendice: Glossario 160

relazione binaria proprietà

P (preferenza stretta) asimmetrica/non riflessivaI (indifferenza) simmetrica/riflessivaQ (debole preferenza) asimmetrica/non riflessivaJ (incomparabilità) simmetrica/non riflessiva

tipo di ordine proprietà

preordine completo o ordine debole completezza e transitivapreordine parziale o quasi-ordine transitiva e riflessivaordine parziale transitiva, anti-simmetrica e riflessivaordine parziale stretto transitiva asimmetrica e non riflessivaequivalenza transitiva, simmetrica e riflessivaordine completo o ordine totale transitiva, anti-simmetrica e completaordine debole stretto transitiva, asimmetrica e completasemi-ordine semi-transitiva, Ferrers e completaordine per intervalli Ferrers e completa

Tabella A.2: Tipologie di relazioni binarie usate nel rappresentare le preferenze e tipi di ordinamento suun insieme.

tipo di scala operatori ammissibili caratteristiche

Nominale = , “etichetta” gli elementi di un insieme (es. nomi)Ordinale = , > < ordina gli elementi, differenze non note né misurabili (es.

piccolo, medio, grande...)per Intervalli = , > < +− limiti arbitrari (es. °C)Razionale = , > < + − ∗ / limiti non arbitrari

Tabella A.3: Tipologie di scala di misura.

Preferenza

Con Preferenza si intende un criterio che guida gli individui nell’azione della scelta di un ele-mento rispetto ad un altro e che specifica relazioni di precedenza tra gli elementi di un insieme,ma al tempo stesso si può interpretare come un’espressione del valore o dell’Utilità assegnata adetti elementi. Dal punto di vista logico la Preferenza è rappresentata da una relazione binaria(indicata yARyB): nella prima parte di Tabella A.2 sono elencate quattro tipologie di preferenza(ovverosia preferenza stretta, indifferenza, debole preferenza ed impossibilità di confronto) e leproprietà di cui esse godono. Una struttura di preferenze (un sottoinsieme di {P, I, Q, J} applicatoad un insieme e tale per cui tra ogni coppia di elementi una ed una sola relazione risulti verifi-cata) può instaurare diverse tipologie di ordinamento, così come elencato nella seconda parte diTabella A.2, dove si riportano inoltre le proprietà possedute da ciascun ordine.

Tali proprietà (approfondite ad esempio in [NdMM05] e [Cho03]) si ritrovano nelle appli-cazioni pratiche convenendo che la transitività è una condizione necessaria per le relazioni dipreferenza razionali e stabilendo la scala di misurazione8 e con essa le operazioni ammissibili nel

8Secondo la teoria dei Tipi di scala di misurazione (S. Stevens) vige la seguente classificazione (ripresa eleggermente modificata da [Saa08a]):

• scale nominali: invarianti rispetto alla corrispondenza biunivoca. Usata per denominare econtraddistinguere gli oggetti, a volte chiamata “scala verbale”.

• scale ordinali: invarianti rispetto a trasformazioni monotone. Non sono ammesse somme omoltiplicazioni anche tra numeri appartenenti alla stessa scala.

• (scale cardinali): a) scale per intervalli: invarianti rispetto a trasformazioni lineari; b) scale razio-nali: invarianti rispetto a trasformazioni affini; c) scale assolute: invarianti rispetto a trasformazioniidentità. Numeri nella stessa scala assoluta possono essere sommati e moltiplicati tra loro.

A. Appendice: Glossario 161

corso dell’analisi.In Metrologia si considerano comunemente le quattro tipologie di scala riportate in Tabella

A.3 , a cui sono affiancate le operazioni che si è legittimati compiere tra variabili appartenenti aduna medesima classe. Alcune trasformazioni preservano i legami di successione tra gli elemen-ti e le operazioni ammissibili: la scala ordinale è ad esempio invariate rispetto a trasformazionimonotone, quella per intervalli rispetto a trasformazioni affini e quella razionale rispetto a tra-sformazioni lineari9. Esiste infine una scala detta assoluta, in quanto priva di unità di misura, chesi può ottenere dal rapporto tra valori espressi in scala razionale: in essa valgono tutte le opera-zioni elencate in Tabella A.3, ma è invariante solo rispetto alla trasformazione identità [Saa08b].La scala di misura acquista un ruolo particolarmente critico poiché le ipotesi degli approcci e lamodalità di confronto tra preferenze stabiliscono di fatto come avviene la compensazione tra ca-ratteristiche; in taluni casi si possono anche individuare relazioni tra approcci che suppongono ilricorso a scale di misura differenti [Cho03].

Secondo la corrente classificazione l’impiego di determinate regole per modellare le prefe-renze delle persone consente il raggruppamento degli approcci multiobiettivo all’interno dellaScuola Americana, basata sulla teoria dell’Utilità ed in cui sono impiegate le relazioni {P, I}) odella Scuola Francese i cui metodi si basano sul criterio di outranking e supportano, almeno alivello teorico, tutte le relazioni {P, I, Q, J}.

Alcuni approcci all’ottimizzazione multiobiettivo possono infine essere raggruppati a secon-da della fase in cui viene richiesto al decisore di comunicare alcune informazioni circa le suepreferenze10, come illustrato in Tabella A.4 e presentano tra i loro punti di forza e di debolezzaquelli elencati in Tabella A.5.

PROMETHEE

Il PROMETHEE (Preference Ranking Organization METHod for Enrichment Evaluation) è un metododi ottimizzazione multiobiettivo (e di supporto alle decisioni) basato sul criterio di outranking edè probabilmente tra i più noti ed utilizzati insieme ai metodi ELECTRE e TOPSIS11. Fu presen-tato nella forma originaria nei primi anni ottanta ed ha sviluppato nel tempo numerose variantiche più che costituirne delle alternative sono state introdotte come “moduli” per rispondere aspecifiche esigenze: PROMETHEE I (partial ranking), PROMETHEE II (complete ranking), PROME-THEE III (ranking based on intervals), PROMETHEE IV (continuous case), PROMETHEE V (MCDAincluding segmentation constraints), PROMETHEE VI (representation of the human brain) ed infine ilmodulo grafico/interattivo GAIA. L’approccio gode di notevole diffusione anche grazie a softwareche ne forniscono un’implementazione (come ad esempio Decision Lab®).

9Rispetto alla variabile Y, una trasformazione affine è del tipo aY + b, mentre una lineare è aY con a >0, b , 0.

10Una delle finalità dell’ottimizzazione multiobiettivo è quella di rivelare e rendere visibili i trade off tra lerisposte Yi [And00]. In quest’ottica i metodi a priori chiamano in causa alternative ipotetiche (in contrasto congli stimoli concreti delle altre due modalità [SH97]) ed, a parte i dati raccolti nelle sessioni sperimentali, essenon vengono esplicitamente identificate ed enumerate, ma restano insite nelle relazioni che costituiscono ilMDS. Secondo [KC04] gli approcci iterativi, a volte anche detti interattivi, che riducono via via lo spazio diindagine secondo direzioni indicate dal decisore, potrebbero essere intesi come caso particolare di approccia posteriori eseguiti su partizioni di γ. Un ruolo chiave è in questo caso ricoperto dal supporto software cheha il compito di interagire con il decisore e presentargli i risultati (in forma grafica e non) in modo prope-deutico all’acquisizione di nuove informazioni [KY97]. Vengono esclusi dalla presente casistica i metodi cheapparentemente non richiedono l’espressione di preferenze da parte del decisore e per questo noti come nopreference articulation methods [And00] (v. Glossario: MinMax, Lexicographic ordering).

11Il metodo ELECTRE (ELimination Et Choix Traduisant la REalité) si basa su indici di concordanza e di-scordanza tra le prestazioni delle alternative [Cho03], mentre nel TOPSIS (Technique for Order Preference bySimilarity to Ideal Solution) giocano un ruolo chiave le distanze euclidee delle soluzioni dal punto di ottimoideale e da quello raffigurante la peggior soluzione ideale (negative-ideal solution) [TL96].

A. Appendice: Glossario 162

preference articulation metodi

nessuna* •Min-max

a priori • Somma pesata• Funzione non lineare• Logica fuzzy• Teoria dell’Utilità• Acceptability functions• Goal programming• Ordini lessicografici

. . .

a posteriori • Eurismi (Multiple run)• Somma pesata• e-constraint• NBI• Algoritmi evolutivi multiobiettivo (genetici, simulated annealing, particle

swarm, ant colony, . . . )• Non Pareto based• Pareto based

. . .

iterativi (progressive) • STEM• Steuer• Algoritmi genetici multiobiettivo iterativi

. . .

Tabella A.4: Classificazione di alcuni approcci all’ottimizzazione multiobiettivo (adattato da [And00]).

Il metodo PROMETHEE si sviluppa a partire da 3 prerequisiti:

1. una tabella (evaluation table) che nelle righe raccoglie il numero (finito) di alternative e nellecolonne riporta le caratteristiche di interesse: l’elemento nella cella ij sarà pertanto il livellodella proprietà j nell’alternativa i.

2. l’informazione tra i criteri (o caratteristiche di interesse): un set di pesi wj=1..p viene specifi-cato in modo da riflettere l’importanza relativa dei criteri

3. l’informazione nei criteri: si costruiscono i cosiddetti generalised criteria ovvero delle fun-zioni Pj(δ) ∈ [0; 1] da associare a ciascuna caratteristica di interesse e simili a quelle didesiderabilità o di appartenenza fuzzy. Al contrario di queste però le ascisse misurano quianziché il valore assoluto dei livelli, una distanza δ cosicché sulle ordinate appare l’indi-catore della preferenza che si potrebbe avere tra due prodotti ove la differenza tra i livellidella caratteristica j è pari a δ. Una seconda peculiarità di questi grafici è spesso la presenzadi un valore soglia (threshold of indifference) al di sotto della quale non vi è preferenza.

L’applicazione della procedura PROMETHEE consiste a questo punto nel calcolo per ognicoppia di alternative (a, b) delle quantità

π(a, b) =p

∑j=1

Pj(a, b)wj e π(b, a) =p

∑j=1

Pj(b, a)wj (A.6)

che rappresentano rispettivamente quanto l’alternativa a è preferita a b e viceversa. Da questeinformazioni si costruisce un grafo ove ciascuna alternativa in un nodo (ad esempio a) è collegataad ogni altra da due rami pesati ( π(a, x) e π(x, a)). Si calcolano così le quantità

A. Appendice: Glossario 163

metodo punti di forza punti di debolezza

a priori • lo sforzo del decisore è concentrato e localizzatoa monte nel processo

• si necessita una funzione matematica che ri-specchi fedelmente le preferenze del decisore nellospazio degli obiettivi γ

• facile adattamento del metodo a problemi siadiscreti che continui

• l’espressione del preferenze è fatta senza laconcreta conoscenza delle alternative disponibili

• il decisore è incentivato a raggiungere unmaggior grado di consapevolezza, fornendo unaespressione delle preferenze globali (su tutto γ)

• l’intero processo deve essere ripetuto se varianopesi o preferenze

• minori costi computazionali e più facile imple-mentazione

• esistono maggiori rischi che il decisore noncondivida la soluzione alfine trovata• non tutte le alternative potrebbero essere rag-

giungibili dalla Funzione obiettivo (cfr. problemadella frontiera non-convessa)

a posteriori • conoscenza completa e “visualizzazione” dellealternative efficienti (e dei range di Yi=1...p)

• il decisore può trovarsi con un numero eccessivodi alternative da confrontare

• la bontà di una soluzione può essere giudicatadal decisore confrontandola con le altre alternative

• maggiore consapevolezza delle soluzioni poten-ziali, ma spesso a scapito di una minore su “forma”delle preferenze ed obiettivi globali

• se cambiano le preferenze o il decisore non oc-corre ripetere l’intero processo (l’insieme efficienteè già disponibile)

• per problemi continui occorre fissare (arbitraria-mente) un criterio per ottenere soluzioni in numerofinito

• le scelte sono esplicite e possibilmente condottein presenza di maggiore informazione

• costo computazionale generalmente elevato

• il problema di ottimizzazione è trasformato inuno di “ricerca” ed è più probabile che il decisoreaccetti la soluzione trovata

iterativi • non occorrono molte informazioni a priori,viziate da maggiore incertezza

• la stabilità della soluzione dipende dalla capa-cità del decisore di articolare progressivamente lepreferenze

• sono necessarie informazioni solo sulle preferen-ze “locali” (le alternative da confrontare ad ognipasso sono in numero ridotto)

• è necessario uno sforzo continuo da parte deldecisore per l’intero processo di ricerca

• si accresce la comprensione del problema inmodo graduale

• se cambiano le preferenze o il decisore occorreripetere il processo

• il decisore ha parte attiva nella ricerca ed èprobabile che accetti la soluzione finale

• elevati costi computazionali o necessita disoftware dedicati

Tabella A.5: Punti di forza e di debolezza caratteristici degli approcci a priori, a posteriori ed iterativi.

positive outranking flow φ+(a) =1

n− 1 ∑x∈A

π(a, x)

negative outranking flow φ−(a) =1

n− 1 ∑x∈A

π(x, a)

Dai confronti tra φ+(a), φ−(a), φ+(b) e φ−(b) si stabilisce se l’alternativa a è preferita a b (ais outranking b), b è preferita ad a (a is outranked by b) o non sono comparabili (esito ammesso nelPROMETHEE I) pervenendo ad un grafo come quello riportato in Figura A.5 a). Prendendo inconsiderazione il flusso netto (φ+(a) − φ−(a)) si può invece ricavare un ordinamento completocome quello in Figura A.5 b) (PROMETHEE II).

Un’ulteriore rappresentazione grafica del problema ed delle alternative avviene nel moduloGAIA a cui si riserva una voce a parte [v. Glossario: GAIA] . Ogni alternativa viene mostrataanche mediante un profilo, ovvero un grafico a tornado che ne riproduce le prestazioni rispettoalle p caratteristiche. Nel caso occorra infine gestire situazioni in cui le decisioni vengono preseda più individui la procedura presentata in letteratura prende il nome di PROMETHEE GDSS

A. Appendice: Glossario 164

Figura A.5: Due esempi di grafi di outranking tra le alternative nel metodo PROMETHEE corrispondentiad un ordine parziale e completo.

(Group Decision Support System).Approfondimenti: [FGE05, BM05]

Prospect theory

La Prospect theory è una teoria descrittiva basata sullo studio e l’interpretazione dei risultati di unaserie di esperimenti che dimostrano come le scienze psicologiche possano contribuire a raggiun-gere un elevato grado di comprensione e capacità di previsione dei processi decisionali umani.Osservando e provando ad interpretare come le persone valutano in realtà gli scenari e ed i payoffassociati alle loro decisioni (prospettive), Tversky e Kahneman [KT79] [TK92] hanno evidenzia-to e formalizzato alcuni concetti chiave permettendo di sviluppare questo relativamente nuovocampo di indagine.

A differenza di quanto fondamentalmente accettato nella teoria classica dell’utilità, si è di-mostrato come la maggioranza delle persone è affetta da una serie di illusioni cognitive chene rendono i comportamenti ed il giudizio a volte irrazionali, pur mantenendo un certo gra-do di prevedibilità. Ci si riferisce in particolare ad alcuni effetti (generalmente tra loro nonindipendenti):

• anchoring effect: la tendenza ad effettuare valutazioni sempre rispetto ad un certo livello,tipicamente un numero (qualsivoglia) che una volta entrato nella descrizione del problemafunge da valore soglia e da punto di riferimento Solitamente nelle valutazioni i soggetti simuovono nella giusta direzione rispetto a qualunque numero inizialmente presentato loro,pur rimanendovi “ancorati”;

• availability error: la manifesta inclinazione ad interpretare un fatto o la descrizione del pro-blema attraverso la lente di un evento anche solo superficialmente simile, ma facilmentedisponibile dal punto di vista psicologico (recentemente discusso, avvenuto o un ricordosignificativo)

• confirmation bias: la verifica di un’ipotesi che avviene osservando e ricercando fatti chetendono a confermarla ed ignorando quelli che la contraddirebbero

• status quo bias: la tendenza a prediligere scelte che non alterino le caratteristiche iniziali delsistema su cui si dovrebbe intervenire con le proprie decisioni

• endowment effect: l’attribuzione ad un qualcosa di proprio più valore di quanto non ne abbiain realtà, per il semplice fatto di possederlo

Questi elementi rientrano nel problema più generale di come la rappresentazione e l’interpreta-zione soggettiva del problema sia influenzata da fattori sia esterni che a livello inconscio (FramingEffect), che determinano l’esito delle decisioni. Secondo la Prospect Theory i payoff attribuiti allealternative in condizioni di incertezza non vengono interpretati in termini di utilità o benesseretotale ed atteso, bensì sono codificati in guadagni o perdite rispetto ad un punto di riferimentocome mostrato dal grafico in Figura A.6 a). Durante la fase iniziale del processo decisionale (notacome Editing Phase) cambiare il punto di riferimento presentando un prospetto come una perdita

A. Appendice: Glossario 165

rispetto che come un guadagno, modifica la decisione per via della forma di questa funzione (Va-lue function) che mostra un’avversione al rischio dei soggetti quando essi confrontino guadagnied una propensione al rischio nel dominio delle perdite.

Figura A.6: a) Funzione impiegata per trasformare i valori oggettivi in payoff soggettivi (Value function);b) Funzione per tradurre le probabilità di accadimento degli eventi in pesi.

Anche le probabilità associate all’accadimento degli eventi incerti, che nella teoria classicagiocano un ruolo lineare, sono in realtà secondo la Prospect theory trasformate in pesi medianteuna funzione come quella rappresentata in Figura A.6 b) che dimostra un’andamento non-lineareed un premio assegnato agli avvenimenti certi.

Il valore atteso di un prospetto con due scenari possibili viene quindi dato da

V(X, p; Y, q) = v(X)π(p) + v(Y)π(q) o più in generale V(Xi, pi) =∑ v(Xi)π(pi) (A.7)

dove la Value function v(x) può essere ad esempio espressa come v(x) = xα per x ≥ 0 e v(x) =(−x)β per x < 0 (con α = β = 0.88; λ = 2.25)

E’ indubbio come anche gli approcci normativi possano trarre benefici dalla Prospect Theory,facilitando il decisore nel riconoscere e gestire le “trappole di razionalità” in cui può incorreredurante la risoluzione del problema. E’ importante tuttavia sottolineare come la Prospect theorysi presenti anzitutto come teoria descrittiva ed in particolare sono rari guidizi espliciti in meritoad una eventuale subottimalità delle decisioni prese o il consiglio di impiegare una particolareValue function; si mettendo piuttosto in risalto le interpretazioni teoriche che sono in grado dispiegare il comportamento manifestato dai decisori. Gli esperimenti più ricorrenti in letteratu-ra prevedono ad esempio la somministrazione di casi da esaminare e scelte da compiere ad uncampione di individui di varia estrazione, ipotizzando che essi decidano in base ad un processodi tipo olistico (ed interiorizzato); in diverse occasioni ciò ha permesso di comprendere i motiviche spingono le persone a prediligere una particolare alternativa, anche qualora poste innanzi ascelte che razionalmente (o con un profilo di neutralità rispetto al rischio) si dovrebbero riteneretra loro equivalenti. Gli esempi di Tabella A.6 possono aiutare a meglio comprendere la relazio-ne che può sussistere tra la Prospect theory e l’eventuale applicazione di un approccio normativo:riportando tre problemi particolarmente noti12, si osserva come adottando un approccio analiticoe formale si possa in alcuni casi riconoscere facilmente un giudizio potenzialmente irrazionale.Altri invece sembrano indicare come le evidenze raccolte dalla Prospect theory possano aiutare a

12cfr. [Tha90] [KT79]. Tra parentesi quadre sono inoltre indicate le percentuali dei soggetti favorevoli aduna data alternativa.

A. Appendice: Glossario 166

Descrizione del problema Prospect Theory Approccio Normativo (es. AHP)

Si desidera acquistare una giacca ($125) ed unacalcolatrice ($15).

Scenario A) Il venditore ci informa che lacalcolatrice si trova scontata ($10) in un negozioa 20 minuti di distanza in auto1: ci si reca nel nuovo negozio [69%]2: si procede con l’acquisto [51%]

Scenario A’) l venditore ci informa che lagiacca si trova scontata ($120) in un negozio a 20minuti di distanza in auto1: ci si reca nel nuovo negozio [29%]2: si procede con l’acquisto [71%]

In entrambi i casi si confronta:

vgain(gain) + v$(−price)vsvgain(gain) + v$(−price +saving) + vt(−time)

ma la variabile “saving”viene valutata in mododifferente.

Le alternative risultano indiffe-renti per qualsiasi peso assegna-to.

Scenario B) Lungo la strada per giungere ad unconcerto viene perso il biglietto di ingresso ($10)1: si acquisa un nuovo biglietto [46%]2: si rinuncia al concerto [54%]

Scenario B’) Lungo la srada per giungere ad unconcerto viene persa una banconota ($10)1: si acquista comunque il biglietto [88%]2: si rinuncia al concerto [12%]

(Mental accounts)

B) vgain(play− 20) vs v$(−20)

B’) vgain(play− 10) + v$(−10)vs v$(−10)

Negli approcci normativi i co-sti affondati non dovrebbero co-munque influire sull’esito delladecisione.

Un’autorità deve stabilire la strategia da adot-tare per combattere gli effetti di un’influenzaritenuta fatale per 600 persone.

Scenario C) La scelta deve avvenire tra1: un piano per cui sicuramente 200 persone sisalveranno [72%]2: un piano per cui tutti si salveranno (p = 1/3)oppure tutti soccomberanno (p = 2/3) [28%]

Scenario C’) La scelta deve avvenire tra1: un piano per cui sicuramente 400 persone mo-riranno [22%]2: un piano per cui nessuno morirà (p = 1/3)oppure tutti moriranno (p = 2/3) [78%]

A seconda dello scenario siconfronta:

C) v(200) vs v(600)π(1/3) +v(0)π(2/3)

C’) v(−400) vs v(0)π(1/3) +v(−600)π(2/3)

C)

C’)

Anche gli approcci normativinon sono immuni da FramingEffect, ma la via analitica puòaiutare a riconoscerli e tenerneconto.

Tabella A.6: Esempi per il confronto tra la Prospect theory ed un approccio prescrittivo.

migliorare l’applicazione degli approcci prescrittivi, un ambito ed una relazione questa ancorapoco sviluppata in letteratura.

A. Appendice: Glossario 167

Quality Function Deployment

Con il termine Quality function deployment (QFD) si fa riferimento ad una filosofia di business cheracchiude un insieme di metodi mirati a trasformare le preferenze ed i requisiti della domandadi mercato in caratteristiche di qualità nel design di prodotti, “dispiegando in modo sistematicole funzioni aziendali che possono concorrere al miglioramento delle prestazioni e predisponendotecniche e politiche di gestione necessarie ad ottenere tale qualità a partire dai sottosistemi e dallesingole parti, fino a giungere ad aspetti specifici del processo di produzione” [Aka04]. Il QDFnasce per aiutare a trasferire i bisogni del cliente (Voice Of Customer, VOC) nelle caratteristicheingegnerizzabili di un prodotto o servizio assegnando una priorità ad ognuna di esse e fissandoal contempo target specifici per tutte le fasi di sviluppo e di produzione. Sebbene la metodologiaQDF sia spesso identificata con la House Of Quality, quest’ultima non costituisce che uno strumen-to (con un ruolo indubbiamente centrale) a disposizione in un approccio che prevede una visioneancora più organica e sistematica [v. Glossario: House Of Quality] .

Quality loss function

Le Quality loss function sono Funzioni obiettivo che trovano largo impiego in ambito industriale emirano a valutare il costo implicito di prodotti con prestazioni diverse da quelle ottimali. La formapiù comune consiste in una somma di scarti quadratici ed in particolare QLF(X) = ∑ ci(Yi(X)−Y∗i )

2 o in notazione matriciale e più generale

QLF(X) = (Y(X)− Y∗)′C(Y(X)− Y∗)

I vettori Y(X) e Y∗, di dimensione p × 1, sono rispettivamente i livelli delle risposte ed i valoritarget associati a ciascuna di esse e C(p×p) è una matrice definita positiva di costi o pesi. Vale lapena soffermarsi un attimo su tali approcci poiché, nati in ambiti vicini a problemi di statisticaindustriale, tengono normalmente conto della presenza di una componente aleatoria nelle rispo-ste stimate dal MDS . Se infatti la Funzione obiettivo che occorre minimizzare equivale al valoreatteso della QLF risulta essere [VM90]

E[QLF(X)] = [(Y(X)− Y∗)′C(Y(X)− Y∗)] + tr[C ∙V[Y(X)]] (A.8)

Dei due addendi in questa equazione (eventualmente pesati in modo differente) il primo rap-presenta la penalità per lo scostamento dai valori target mentre il secondo quella relativa alla qua-lità delle previsioni. Un particolare vantaggio di tale modello consta nel fatto che si consideranocontemporaneamente le correlazioni tra le risposte e l’economicità del processo; il metodo poggiasu basi statistiche piuttosto solide, ma appunto per questo occorre formulare alcune ipotesi, inparticolare sulla matrice di varianza-covarianza V[Y(X)] delle previsioni.

Sono state presentate diverse varianti rispetto alla definizione data nell’Equazione A.8: adesempio ai due termini presenti se ne può aggiungere un terzo che consideri la robustezza del pro-cesso [KKJ05] o ci si può mostrare interessati alla pendenza della Funzione obiettivo nell’intornodell’ottimo [RFC01], pervenendo alla nuova Funzione obiettivo

ˆQLFQ(X) =p

∑i=1

wi

[

(Yi(X)−Y∗i )2 + V[Yi] +

k

∑j=1

V[Yi]

(∂Yi(X)

∂Xk

)2]

(A.9)

Ogni risposta contribuisce qui alla qualità riducendo la distanza dal target (anche detta bias), con-tenendo la sua varianza e mostrando poca sensibilità a piccole fluttuazioni nei livelli dei fattori.Tale contributo viene pesato dai coefficienti wi = RIi/ΔE2

i dove con ΔEi è indicata la metà del-l’ampiezza dell’intervallo tra i limiti di specifica (amalgamando così in parte le scale di misura) e

A. Appendice: Glossario 168

con RIi l’importanza relativa dell’i-esima caratteristica13. A differenza dell’Equazione A.8, l’Eq.A.9 è priva di unità di misura e si converte in termini monetari la perdita di qualità per mezzodi una costante di proporzionalità14. Si propone di calcolare tale fattore a partire dal valore dimercato attribuito a prodotti in condizioni estreme, ossia

p =pdt. con qualità alta $− pdt. con qualità bassa $

ˆQLFQ(pdt. di qualità alta)− ˆQLFQ(pdt. di qualità bassa)

La Funzione obiettivo definitiva viene espressa come la somma tra la perdita monetaria dovu-ta alla bassa qualità ed un termine che tiene conto dei costi di produzione connessi ai possibiliprodotti realizzati:

ˆQLFT(X) = ˆQLFQ(X) ∙ p+ CM(X) (A.10)

Anche il secondo addendo (somma di costi che comprendono materiali, lavoro, energia, . . . ) èespresso in funzione dei fattori ed i coefficienti del suo modello possono essere deterministici opiù comunemente stimati mediante una regressione. Se il numero di fattori lo consente si pos-sono anche individuare in un contour plot delle zone in χ tali da produrre un costo complessivomisurato con l’Equazione A.10 inferiore ad una soglia ritenuta accettabile. Data la numerositàdelle forme alternative di Loss function proposte in una letteratura ormai matura non mancanoinfine tentativi mirati ad unificare vari approcci (ad esempio in [KBAN08] con un modello di goalprogramming) o, riconoscendo che in molte applicazioni i valori di prezzi, tassi di conversione ecosti non sono noti con precisione, con l’intento di gestire l’incertezza che accompagna tali valori,sia essa di natura probabilistica o fuzzy.

SMART

La Simple Multi Attribute Rating Technique (SMART) è un metodo per ricavare una Funzione diutilità che si articola in quattro passaggi sequenziali:

1. screening phase: viene individuato l’obiettivo generale, i criteri da considerare ed un set dialternative

2. per ogni criterio si identificano un valore massimo ed uno minimo. Alcuni autori sosten-gono che queste quantità debbano coincidere con gli estremi del range che la caratteristicadi interesse acquista tra le alternative valutate, altri che sia compito del decisore specificaretali valori. Una volta identificato l’intervallo esistono due modi di procedere per definirel’utilità rispetto ad ogni criterio (si tratta qui il caso di minimizzazione). Il primo consi-ste nell’assegnare utilità 10 al valore massimo, attriburne una maggiore in proporzione aldecrescere del livello del criterio sino ad arrivare al valore minimo ed infine normalizzaretra 0 e 1 la scala prodotta. Il secondo è di attribuire utilità 1 al valore minimo, 0 al mas-simo e disegnare una funzione che colleghi gli estremi specificando così l’utilità dei livelliintermedi (in un processo analogo all’approccio con le desiderabilità); tipicamente si impie-ga una funzione lineare cosicché ui(Yi) = (yi,max − Yi)/(yi,max − yi,min) oppure una scalageometrica in accordo con le ricerche psicologiche su stimoli e sensazioni

3. il processo di scelta dei pesi per ciascun criterio si svolge in modo analogo a quello dellafase precedente: si seleziona quello meno importante, gli si attribuisce un valore base esi procede crescendo fino al più importante. Segue anche in questo caso l’operazione dinormalizzazione

4. le informazioni prodotte sono raccolte all’interno di una funzione (solitamente additiva)

13Questo valore viene ricavato applicando strumenti della QFD, in particolare la House of quality e/o ilmetodo AHP.

14Un simile approccio era già stato suggerito da Taguchi, assegnando ad un esperto del settore il compitodi stabilire un tasso di conversione tra dollari ed unità di loss.

A. Appendice: Glossario 169

che esprime l’utilità complessiva:

U =p

∑i=1

wiui(Yi) (A.11)

Formulazioni successive (ad esempio SMARTER) mirano a risolvere dei problemi riscontratinel metodo o ad aumentarne la flessibilità: alcune considerazioni riguardano in particolare ladefinizione e l’uso dei range e la possibilità di concentrarsi su valori e risultati su scala ordinale (irank).

Approfondimenti: [NdMM05]

Solidità

In Logica un argomento è solido se e solo se 1) l’argomento è valido e 2) tutte le premesse sonovere.

Un sistema logico ha la proprietà di essere solido se e solo se le sue leggi di inferenza provanosolo formule che sono valide rispetto alla propria semantica. Il termine figura anche tra le qualitàche si vorrebbero attribuire ad un approccio multiobiettivo. Il significato è probabilmente qui daintendere nel senso che i procedimenti condotti sono in accordo alla teoria ed i dati raccolti ed uti-lizzati consentono di modellare la realtà in modo semplificato, ma veritiero. Un approccio solidopuò anche essere una proposta che si è dimostrata “robusta” fornendo soluzioni soddisfacenti inun certo numero di casi documentati.

Validabile

Nel corso dell’esposizione si presuppone che un approccio sia validabile se è possible stabilirnela validità (o meno) in base a criteri razionali ed oggettivi.

Per quanto riguarda il processo di validazione di un prodotto, questi è inteso come la ricercadi un riscontro che provi con sicurezza che esso soddisfa i requisiti ed i bisogni in base a cui è statoprogettato. E’ questo in fondo un processo di verifica per comprendere in che misura il prodottoabbia mantenuto gli obiettivi imposti all’inizio della fase di sviluppo.

Validità

In Logica un argomento è valido se e solo se dalla verità delle premesse deriva la verità delleconclusioni. In modo analogo un argomento è definito “formalmente valido” se possiede unaforma tale che per qualsiasi interpretazione sotto cui tutte le premesse sono vere, la conclusioneè vera anch’essa. Esistono numerose accezioni del significato di validità a seconda dell’ambitoapplicativo in cui il termine è utilizzato, in particolar modo in Statistica e nella teoria psicologicadei test. Queste definizioni presentano anche alcune sovrapposizioni, ma le forme di validitàpiù comuni riferite ad un modello esaminano la sua capacità di prevedere la risposta futura di unsistema o la possibilità di estenderne l’utilizzo in contesti più generali (su sistemi supposti similia quello in base a cui il modello è stato costruito). A volte viene intesa la validazione come iltentativo di rispondere alla domanda se si stia costruendo la cosa giusta, mentre la verifica nelcaso l’interrogativo sia se la si stia costruendo nel modo giusto. Nel primo caso vi è un esplicitoriferimento al controllo della congruenza tra necessità o bisogni ed obiettivi, mentre nel secondosi vuole garantire una corretta implementazione di requisiti e specifiche all’interno di un sistema.Ovviamente nel caso degli approcci multiobiettivo entrambi gli aspetti rivestono interesse.

Approfondimenti: [Mes95], www.socialresearchmethods.net/kb/measval.php

A. Appendice: Glossario 170

Razionalità

La razionalità definisce la qualità di una decisione o di un ragionamento di essere in accordocon (o basato su) principi della ragione (o principi logici). In ambito decisionale agire in modorazionale è comunemente sinonimo di agire secondo il miglior interesse. In funzione dell’accce-zione utilizzata, gli attori possono essere descritti come razionali se impiegano modelli e strategiemirate a conseguire il maggior valore possible data la piena informazione su tutte le proprietàrilevanti del sistema in cui agiscono oppure data la loro migliore comprensione del contesto. Inentrambi i casi si presuppone l’impiego delle risorse in modo economico, la risoluzione di tradeoff tra obiettivi internamente consistenti affinché conducano al miglior risultato possibile.

A volte viene fatto esplicito riferimento ad un’analisi razionale costi/benefici nel chiaro in-tento di minimizzare i primi e massimizzare i secondi. I giudizi espressi da un attore razionalederivano da relazioni di preferenza razionali, ovvero un sistema di preferenze che soddisfi le con-dizioni di transitività e completezza [v. Glossario: Preferenza] , mentre un argomento può esseredescritto come razionale se è logicamente valido [v. Glossario: Validità] . Nei problemi di meto-do, spesso al termine vengono associate le qualità di: oggettivo, scientifico, controllabile, ottimalee verificabile mentre può essere utilizzato come contrario di emotivo, soggettivo, non verificabi-le. Per alcuni studiosi il comportamento razionale è inoltre determinato dall’intelligenza o dallacapacità computazionale degli agenti [Tsa08]. A parità di altre condizioni, l’agente che disponedi migliori algoritmi ed eurismi può compiere decisioni più razionali (o più ottimali) rispetto adaltri agenti. La razionalità di un’azione dipende anche dal contesto, nella misura in cui essa puòdiminuire all’aumentare della complessità dei problemi e delle relative necessità di descrizione emodellazione.

Utilità

Del termine Utilità, per quanto sia un concetto intuitivamente semplice da comprendere, non sidispone di una descrizione esaustiva e pienamente condivisa. Anche il suo fondamento filosoficocome “mezzo” per raggiungere la felicità non sfugge alle difficoltà di definizione15, mentre dalpunto di vista economico se ne offrono almeno due possibili interpretazioni. Da un lato l’utilitàviene vista come una misura del grado di soddisfazione o del desiderio relativi all’uso di un pro-dotto e dall’altro come misura correlata al suo “valore” in qualità di merce di scambio (nel primocaso vi è un riferimento esplicito ai benefici dell’utilizzatore mentre nel secondo ad una conno-tazione maggiormente intrinseca e riferita ad un mercato). In ogni caso l’Utilità è una quantità(cardinale o ordinale) che si associa agli elementi di un insieme (finito o infinito) e costituisce una“misura di merito”. Vi si accompagnano sempre delle relazioni di preferenza (o precedenza) trai membri di tale insieme e si proietta su di essi un ordinamento [v. Glossario: Preferenze] . Inqualità di misura, essa appare in parte convenzionale (poiché fondata su un’analisi il più possibilerazionale e su una sensibilità che può essere condivisa da più persone) ed in parte arbitraria (pervia di una componente soggettiva ineludibile).

La mancanza di un’interpretazione univoca è certamente tra le cause della varietà di terminiche nel tempo sono stati impiegati per indicare un simile concetto e per questa ragione in Tabel-la A.7 sono raccolti alcuni esempi di denominazioni o misure chiaramente collegate all’Utilità,tratte da diversi ambiti disciplinari ed approcci multiobiettivo tra cui vi si ritrova anche l’idea diValore [v. Glossario: Valore (ed Utilità)] .

15Il principio di utilità, introdotto da J. S. Mill, è anche noto come “greatest happiness principle” [Aud99]. Sel’unica ipotesi è però che dalla massimizzazione dell’Utilità consegue la felicità, questa misura soffrirà glieffetti della definizione tautologica di felicità (“Cosa cerca l’uomo? La felicità” , “Cosa è la felicità? Ciò che l’uomocerca”).

A. Appendice: Glossario 171

misura contesto

Utilità termine generale16 (con una definizione più rigorosa in MAUT)Desiderabilità metodo di Harrington, Derringer e SuichPriorità (global priority) metodo AHP di SaatyUnsatisfaction/satisfaction approccio fuzzy di [KTK00]Undesirability metodo dell’Inverted Utility FunctionFuzzy-membership * grado di appartenenza fuzzy della soluzione all’insieme “ottimo”,

“soddisfacente” o similiFitness (function) * all’interno di approcci di Evolutionary Multiobjective OptimizationQuality loss (function) metodo di Robust Design di TaguchiS/N ratio metodo di Robust Design di TaguchiWeighted distance approcci MinMax e basati sulla distanza da un’ottimo idealeRanking (flow) approcci di outrakning (es. PROMETHEE)Efficacia MATE (NASA)Benefici (o Valore) approcci con misure economiche e monetarieSoddisfazione studi psicologici

(* in particolare alcune interpretazioni)

Tabella A.7: Denominazione e misure di Utilità o concetti ad essa riconducibili in diversi ambiti.

Valore (ed Utilità)

Le moderne scuole di pensiero economico accettate in letteratura assumono che la creazione divalore economico sia da considerare Funzione obiettivo ultima di un’impresa e si possa esprimereattraverso l’attualizzazione dei flussi finanziari [Azz06]:

V =+∞

∑t=0

FFt − It

(1+ k)t(A.12)

dove V è il valore prodotto (per gli stakeholders, nella cui definizione allargata vi si include anchel’ambiete e la società) ed i termini della sommatoria equivalgono al netto tra flussi finanziari en-tranti (FFt) e quelli uscenti (It) per ogni periodo di tempo t e scontati del termine (1+ k)t per tenerein considerazione della distribuzione temporale, dei rischi e delle incertezze. Per ogni decisionepresa all’interno di un’impresa, le Utilità di progetti alternativi dovrebbero essere proporzionalia quanto ciascuno può concorrere all’obiettivo globale V. Se da un processo di ottimizzazionedel design viene sviluppato un prodotto a cui si riconosce Utilità massima esso si suppone possacontribuire più di ogni altro alla creazione di valore per l’impresa e se gli obiettivi sono allineati,un utilizzatore vi troverà delle qualità e prestazioni massimamente gradite17. Da questo punto divista l’importanza del concetto di Utilità non è tanto in qualità di sinonimo di Valore, bensì comestrumento per disaccoppiare il problema e superare l’impossibilità di ottenere una stima certa edaccurata del Valore. Per stabilire con precisione la quantità V occorrerebbe monetizzare ogni fe-nomeno e non si giungerebbe comunque ad un risultato deterministico data la scarsa attendibilitàdelle proiezioni di eventi molto distanti nel tempo. Inoltre, non essendo semplice comprenderecome e quanto i singoli progetti in atto nell’impresa concorrano pro quota all’obiettivo comples-sivo si può fare affidamento su dei giudizi e delle preferenze supposte allineate alla Funzioneobiettivo V.

Negli approcci basati su criteri economici il termine Valore viene a volte usato per indicare ibenefici quantificabili che un cliente riconosce ad un dato prodotto, mentre in altre ci si riferisceal Valore (netto) come risultato della differenza tra benefici e costi18 (entrambi già quantificati).

17Qualora si tratti dell’utilizzatore finale esso sarà principalmente value in use, viceversa value in exchangesecondo la distinzione proposta da A. Smith.

18La formula ( Valore = Benefici− Costi ) si può mettere in relazione con altri modelli come ad esempio( Soddisfazione = Risultato/Aspettative ), offrendo così interessanti spunti di riflessione e rafforzando ildubbio che davvero si tratti, infondo, di differenti punti di vista sul medesimo argomento (cfr. Tabella A.7).

BAppendice: Approfondimenti

B.1 Individuare la frontiera efficiente

Pervenire ad una adeguata approssimazione della frontiera efficiente in un problemamultiobiettivo non è solitamente un’operazione banale, soprattutto in applicazioni conun numero sufficiente di obiettivi e fattori da rendere l’approccio grafico inefficace. Ascopo illustrativo e per comprendere quali siano le necessità da soddisfare e le difficoltàche si possono incontrare, si propongono i due esempi seguenti.

Figura B.1: Rappresentazione grafica del problema di minimizzazione di due obiettivi y1, y2 in funzionedi due fattori x1, x2 e relativa frontiera efficiente convessa (y1 = x2

1 + x22 in rosso ed y2 =

(x1 − 2)2 + x22 in blu).

Figura B.1 a) rappresenta la proiezione nel piano X1 ×Y1, Y2 di due superfici ottenutedalla rotazione di parabole intorno al proprio asse di simmetria e dove ciascun puntoè ottenuto valutando le funzioni in una griglia uniforme in χ, in questo caso X1 × X2.Supponendo di voler minimizzare simultaneamente Y1 ed Y2 , alcuni elementi del domi-

172

B. Appendice: Approfondimenti 173

nio delle soluzioni possibili (ovvero γ : Y1 × Y2) sono illustrati in Figura B.1 b). Da quisi osserva come il problema presenti una frontiera convessa e come un campionamentouniforme in χ non si rifletta in uno equamente distribuito in γ , due fenomeni spessoverificati. Per quanto riguarda in particolare il secondo, la densità della nube di puntiè maggiore in prossimità della frontiera, lasciando supporre (sotto opportune ipotesi dicontinuità) che gli intorni delle soluzioni efficienti mostrino minor sensibilità rispetto aquella dei punti appartenenti ad altre regioni di χ. Se in questo caso le conclusioni sonorese immediate dal grafico, può non essere così per il ricercatore impegnato in problemipiù complessi. In Figura B.1 c) e d) due differenti algoritmi vengono messi all’opera perapprossimare la frontiera efficiente (per la precisione in entrambi i casi si ottengono 25punti contraddistinti da altrettante croci rosse). Il primo di essi è qui denominato “clas-sico” e consiste nel minimizzare combinazioni convesse dei due obiettivi, ad esempiominx1,x2 [w1y1 + w2y2] per differenti valori w1 e w2 ; si osserva così come un campiona-mento regolare nell’insieme W1×W2 si traduca in una densità eterogenea dei punti sullafrontiera. L’algoritmo Normal-Boundary Intersection (NBI) è stato sviluppato [DD98] conl’intento di superare questo limite e, come mostrato in Figura B.1 d), può fornire una di-stribuzione all’incirca omogenea tra le soluzioni approssimanti. Non sempre però taleefficacia è garantita, così come dimostra l’esempio successivo.

Figura B.2: Rappresentazione grafica del problema di minimizzazione di due obiettivi Y1, Y2 in funzionedi due fattori X1, X2 e relativa frontiera efficiente non convessa (y1 = x2 + 2x2

1 − 4x22 in blu

ed y2 = x1 − 2x2 − x21 + 3x1x2 in rosso).

Si consideri il nuovo problema sempre con due obiettivi da minimizzare, mostratonella prospettiva delle superfici in Figura B.2 a). Si ipotizzi inoltre che la regione di spe-rimentazione χ sia limitata, ovvero x1, x2 ∈ [−1, 1]× [−1, 1]. Le funzioni non presentano

B.1. Individuare la frontiera efficiente

B. Appendice: Approfondimenti 174

algoritmo vantaggi svantaggi

metodo grafico chiara interpretazione e semplice imple-mentazione, problemi sia concavi checonvessi

si rivela inefficace per p, k > 2, la rap-presentazione per punti richiede una scel-ta arbitraria del passo di campionamentoin χ

enumerazione problemi sia concavi che convessi, se l’in-sieme delle soluzioni potenziali è suffi-cientemente denso si perviene ad unabuona approssimazione della frontiera

elevate risorse computazionali, insiemedelle soluzioni potenziali necessariamentefinito (possibile discrezionalità)

combinazione convessa semplice implementazione, esigue risorsecomputazionali, possibilità di concentrarsisu piccole porzioni di frontiera

solo problemi convessi, i punti dell’insie-me approssimante non sono omogenea-mente distribuiti, necessita un adeguatoalgoritmo di ottimizzazione scalare

NBI individua una approssimazione regolaredella frontiera

solo problemi convessi, necessita un ade-guato algoritmo di ottimizzazione sca-lare, implementazione più complessa emeno efficiente se non è già disponibileun’applicazione software

algoritmi evolutivi problemi sia concavi che convessi, algorit-mi derivate-free, relativamente efficienti edefficaci

difficoltà di implementazione (es. occor-re dichiarare molteplici parametri), pocheinformazioni a priori circa la distribuzionespaziale delle soluzioni, numero di valuta-zioni della Funzione obiettivo solitamenteelevato

Tabella B.1: Alcuni approcci ed algoritmi impiegabili per approssimare la Frontiera efficiente.

minimi all’interno di χ ed al contrario, i punti stazionari (che corrispondono a punti disella) danno origine ad un problema dalla frontiera non convessa (o folded) come mostra-to in Figura B.2 b). Anche in questo caso ad un uniforme campionamento nello spaziodei fattori corrisponde una nube di punti eterogenea nello spazio delle soluzioni, purnon essendo più caratterizzata da una maggiore densità nelle regioni prossime alla fron-tiera. I due algoritmi applicati precedentemente si dimostrano inefficaci nell’individuarepunti sull’intera frontiera: il metodo delle combinazioni lineari tra obiettivi, in FiguraB.2 c) manca di rappresentanti nella zona non convessa, mentre l’algoritmo NBI, in Fi-gura B.2 d), segue la frontiera per un certo tratto, ma individua erroneamente anche unaserie di punti non efficienti tralasciando al contempo un’importante porzione della verafrontiera.

Tabella B.1 riassume cinque degli approcci più comuni atti ad individuare la Frontie-ra efficiente ed i relativi punti di forza e di debolezza. Occorre infine considerare che inpratica un sottoinsieme finito di soluzioni può essere sufficiente per prendere decisioni.Condizione necessaria è però che l’approssimzione si dimostri adeguata, un giudizio chepuò ad esempio avvenire in base alle prestazioni con cui si stabilisce solitamente la bontàdi un metodo metaeuristico. Nella fattispecie i punti devono essere il più vicino pos-sibile alla frontiera reale affinché siano considerati ottimali (convergenza) e dovrebberoessere uniformemente distribuiti in ogni zona di γ (varietà) [DNA10]. Infine, qualorail ricercatore desideri conoscere unicamente una porzione della frontiera e non ricono-sca benefici nell’esplorare i trade off altrove, l’algoritmo utilizzato dovrebbe concentrarsinell’approssimare solo tale regione di interesse (pertinenza) [FPL05].

B.1. Individuare la frontiera efficiente

B. Appendice: Approfondimenti 175

B.2 Correlazione, ricerca del compromesso ed efficienza

Pur non avendo una misura assoluta per confrontare le soluzioni di differenti approccimultiobiettivo, se ne può ipotizzare una per valutare la “difficoltà” del problema, ovveroquella che si sperimenta quando occorre conciliare tra loro le caratteristiche e che dipen-de sempre sia dalle risposte che fornisce il sistema che dagli obiettivi prefissati. Dato unproblema in Rp si può affermare che l’impegno necessario per individuare un compro-messo è in qualche misura legato all’estensione della frontiera efficiente: se in alcuni casiil fatto che essa sia vasta può sembrare un vantaggio in quanto significa che molte solu-zioni si presentano come ottimali, è anche più complesso sceglierne una sola, laddove inuna frontiera dalle dimensioni modeste semplificherebbe tale compito.

L’estensione della frontiera efficiente dipende a sua volta anche dal grado di correla-zione tra le risposte ed è in genere tanto più vasta quanto più queste sono tra loro discor-di, concentrandosi all’opposto in un unico punto qualora siano perfettamente correlate,ovvero quando di fatto vi è una sola caratteristica da ottimizzare. Considerando per det-te ragioni semplificativa l’ipotesi fatta in Figura 3.3 (pag. 42) di caratteristiche tra loroscorrelate, si è voluto indagare più a fondo come vari la porzione di soluzioni efficienti aseconda del grado di correlazione tra le caratteristiche di qualità.

Si ipotizza anzitutto che esse siano già misurate in modo tale da avere la medesima ti-pologia di obiettivo (da minimizzare) e che possano esprimersi come un vettore aleatorioY con legge normale multivariata Np(μ, Σ). Per semplicità la media è posta μp×1 = 0 e lamatrice di varianza-covarianza uguale a quella di correlazione: essa ha dunque diagona-le principale composta da 1, mentre al di fuori si indicherà con $ij = $ji il coefficiente dicorrelazione tra l’i-esima e la j-esima risposta (in [−1; 1]) ossia

Σp×p =

1 $12 ∙ ∙ ∙ $1p

$21 1 $2p...

. . ....

$p1 $p2 ∙ ∙ ∙ 1

Si è iniziato col supporre una correlazione costante fra tutte le risposte e pari ad un valoremedio $ij = $. Posto un numero di obiettivi nel problema pari a p, per diversi valoridi $ sono state prodotte n = 1000 realizzazioni del vettore aleatorio ed ispezionandoquante di queste fossero Pareto efficienti, si è potuto pervenire alle curve di Figura B.3.Ciascuna di esse mostra che per $→ 1 la percentuale di soluzioni efficienti tende ad 1/n,ossia quando tutte le risposte sono perfettamente correlate esiste nell’insieme un unicoelemento dominante. Viceversa, ci sono $ per cui tutte le osservazioni si dispongonosulla frontiera efficiente ed in particolare tali valori sembrano esser pari a $min =

−1p−1 : è

interessante notare come essi costituiscano anche il limite al di sotto del quale la matrice Σ

perde la proprietà di essere semidefinita positiva e non è più utilizzabile come varianza-covarianza di una normale multivariata.

Quanto mostrato in Figura B.3 si presta a due interpretazioni: se si considera Y comeil vettore delle risposte fornite dal sistema indipendentemente dal livello dei fattori, si

B.2. Correlazione, ricerca del compromesso ed efficienza

B. Appendice: Approfondimenti 176

Figura B.3: Percentuale di soluzioni efficienti in funzione del grado medio di correlazione tra le risposte.

conclude che quando $ = 1 la scelta ricade immediatamente sull’unica soluzione domi-nate. Se viceversa la correlazione media è bassa ci si trova innanzi ad una moltitudinedi soluzioni progettuali dal profilo dissimile per le quali il criterio di efficienza non èdiscriminante. Pur potendo costruire un MDO per trovare un design di compromesso,è forse questo un caso in cui riflettere se non convenga realizzare più versioni del pro-dotto, soprattutto se il mercato comprende nicchie più sensibili ad un sottoinsieme dicaratteristiche. Man mano che ci si sposta tra i due estremi si entra nel dominio ove gliapprocci che mirano a definire il miglior compromesso offrono il massimo contributo. Inquesta zona, la più comunemente incontrata in pratica, un buon MDO aiuta a scartare lesoluzioni dominate ed individuare tra quelle restanti una in grado di conciliare le variedimensioni di qualità.

La seconda interpretazione di Figura B.3 riguarda invece l’ipotesi sinora accettata chegli errori tra i modelli del MDS siano tra loro indipendenti così come lo siano le rispostecondizionate, ossia Yi(x) ⊥⊥ Yj(x). Se tale supposizione non è però valida, si renderebbenecessario modificare l’analisi statistica, ma dal punto di vista qualitativo Figura B.3 offregià alcune indicazioni: in particolare valgono le osservazioni precedenti, interpretandoperò questa volta Y come il vettore di risposte fornite dal sistema condizionatamente ailivelli x di una particolare condizione operativa. Tra il caso di una forte correlazione posi-tiva tra le previsioni e quello in cui essa è negativa si assiste all’aumento della percentualedi realizzazioni efficienti.

I risultati sono più difficili da visualizzare se si rilassa il vincolo che tutti i coefficientidi correlazione nella matrice Σ siano tra loro uguali: vi sarebbero infatti molteplici Σ

caratterizzate da un coefficiente medio di correlazione pari a $ e si è osservato come dianoluogo a campioni dove la percentuale di soluzioni efficienti è generalmente superiorerispetto a quella prevista nel caso di $ costante. Si è notato comunque che per i valori di ppresi in considerazione la disposizione di queste nuvole di punti è molto simile a quelladelle curve tracciate in Figura B.3.

Ancor prima di formalizzare un MDO è dunque possibile farsi un’idea del tipo di

B.2. Correlazione, ricerca del compromesso ed efficienza

B. Appendice: Approfondimenti 177

problema che si sta affrontando dal calcolo della correlazione media tra le risposte. Setale misura è ricavata dai dati raccolti nei piani DOE durante la costruzione del MDSoccorrerà che vi sia un numero sufficiente di osservazioni per stimare in modo corretto econgiunto i valori racchiusi nelle celle di Σ.

B.3 Aggregazione degli obiettivi in fase sperimentale

Il modello schematizzato in Figura B.4 costituisce una proposta per applicare il metododella Superficie di risposta direttamente alla Funzione obiettivo, e cioè aggregando i datiraccolti in un unica misura di merito (in modo simile a quanto descritto in [Cah02] ).

Figura B.4: Metodo a due fasi per aggregare gli obiettivi nelle sessioni sperimentali.

Rispetto al caso classico in cui esplorazione del sistema ed aggregazione degli obiet-tivi sono sequenziali e distinte, ciò produrrebbe i seguenti vantaggi:

• minore complessità della successiva analisi statistica. Nel caso classico spesso lanonlinearità delle funzioni di aggregazione richiede calcoli più articolati per quan-tificare la propagazione degli errori empirici. Raccogliere come output direttamentei valori assunti dalla Funzione di utilità consente viceversa un procedimento deltutto analogo a quello delle ottimizzazioni mono-obiettivo

B.3. Aggregazione degli obiettivi in fase sperimentale

B. Appendice: Approfondimenti 178

• più chiara individuazione della direzione e del passo del gradiente nell’esplorazio-ne della superficie. Studiando con l’RSM un’unica superficie è più semplice identi-ficare le condizioni operative in cui svolgere gli esperimenti a ciascuna iterazione.

Vi sono viceversa anche alcuni svantaggi legati a questo tipo di approccio ed in partico-lare:

• mancano evidenze teoriche che un’eventuale Funzione di utilità goda di sufficientirequisiti di continuità e derivabilità da rendere opportuna l’approssimazione conmodelli del secondo ordine, anche solo in ridotte regioni di sperimentazione. Alcontrario, in funzione dei fattori, presenta spesso forme complesse e fortementenonlineari [OSPHL04]

• come conseguenza del punto precedente nascono problemi di normalità sui residuidella regressione e si rileva uno scarso fit dei modelli polinomiali ipotizzati

• la perdita del legame con gli output “fisici” del sistema rende l’interpretazione deirisultati più difficile

• l’incertezza esistente sulla funzione di aggregazione non viene considerata (di fattocaso MDS – MDO ) ed il problema di validazione della Funzione di utilità rimanein gran parte irrisolto1.

Si può ipotizzare che questo modo di procedere consegua il miglior bilancio tra vantaggie svantaggi in corrispondenza di problemi semplici, con poche caratteristiche coinvolte eove vi sia uno stabile consenso sulla forma della funzione di aggregazione.

B.4 Aritmetica con numeri fuzzy

Un numero fuzzy permette di modellare una misura effettuata in modo impreciso, espri-mibile ad esempio dalla locuzione “all’incirca a” dove a ∈ R. Ciò avviene solitamenteattraverso una funzione di appartenenza triangolare definita da una terna di numeri realia = (a1, a2, a3) e tale per cui a2 = a, a1 ≤ a2 ≤ a3, μ(a1) = μ(a3) = 0 e μ(a2) = 1.

Il criterio generale per pervenire al risultato, un insieme fuzzy, di una qualsivogliafunzione applicata ad uno o più numeri fuzzy è il cosiddetto extension principle ovvero

μ f (a)(x) = maxx1∈R(μa(x1)|x = f (x1)) e

μ f (a)(x) = maxx1,...,xn∈R

(min(μa1(x1), . . . , μan(xn))|x = f (x1, . . . , xn))

rispettivamente nei casi in cui essa sia univariata o multivariata.Le definizioni di somme e prodotti tra numeri fuzzy sono di conseguenza

μa+b(x) = maxx1,x2∈R

(min(μa(x1), μb(x2))|x = x1 + x2) e

μa∙b(x) = maxx1,x2∈R

(min(μa(x1), μb(x2))|x = x1 ∙ x2)

1Una possibilità è quella di trattare l’imperfetta misura della variabile osservata “utilità” comeun’incertezza sulle misurazioni.

B.4. Aritmetica con numeri fuzzy

B. Appendice: Approfondimenti 179

Aritmetica con i numeri fuzzy

dati a = (a1, a2, a3) , b = (b1, b2, b3) e c ∈ R+

−a = (−a3,−a2,−a1)c ∙ a = (c ∙ a1, c ∙ a2, c ∙ a3)−c ∙ a = c ∙ −aac = (ac

1, ac2, ac

3)a−1 = (1/a3, 1/a2, 1/a1)a+ b = (a1 + b1, a2 + b2, a3 + b3)a− b = (a1 − b3, a2 − b2, a3 − b1)a ∙ b = (a1 ∙ b1, a2 ∙ b2, a3 ∙ b3)a/b = a ∙ b−1 = (a1/b3, a2/b2, a3/b1)

Tabella B.2: Regole per svolgere le operazioni aritmetiche più comuni con numeri fuzzy (da [WS01]).

ma di esse solo la funzione di appartenenza all’insieme somma ha ancora forma trian-golare, mentre nel caso del prodotto i tratti che congiungono gli estremi al vertice nonsono più lineari. Occorrono spesso risorse computazionali non indifferenti per mettere inpratica l’extension principle e si propende solitamente per approssimazioni che avvengo-no tramite una serie di α-cut oppure dando una rappresentazione polinomiale ai lati deinumeri fuzzy o ancora per mezzo di semplici regole, come quelle riportate in Tabella B.2,in base a cui ricavare i vertici del risultato delle operazioni più comuni. La funzione diappartenenza viene poi supposta lineare tra gli estremi.

E’ stato osservato come le versioni “fuzzificate” di alcuni approcci multiobiettivo con-ducano eventualmente a risultati tra loro più discordi di quanto non lo siano quelli dellerispettive versioni standard [TL96]. Tuttavia il problema maggiore del ricorso ai numerifuzzy, al di là del loro grado intrinseco di soggettività, consiste nel fatto che l’analisi è si-gnificativa a condizione che si mantenga contenuto il numero di operazioni che li vedonocoinvolti; in caso contrario, poiché l’estensione della funzione di appartenenza del risul-tato supera spesso quella degli operandi, al termine dei calcoli vi è un sensibile rischio dinon riuscire a trarre conclusioni produttive, ottenendo perlopiù incertezza [BH03].

E’ questo però un aspetto a volte comune anche all’uso degli elementi probabilistici:così come la completa mancanza di informazione non può fare da supporto ad alcunadecisione indipendentemente dalla logica impiegata [CF96], maggiore è l’incertezza checaratterizza gli input, maggiore quella sui risultati finali.

B.5 Richiami del processo di verniciatura

B.5.1 I prodotti vernicianti

Si definisce prodotto verniciante la miscela di prodotti chimici che, applicata sul sup-porto, è in grado di formare una pellicola solida, dotata di resistenza meccanica e chi-mica e di caratteristiche tali, per quanto riguarda il colore, l’aspetto ed il tatto, da potereventualmente mutare le caratteristiche estetiche del manufatto2.

2Per semplicità non si effettueranno distinzioni e ci si riferisce in seguito con il termine vernice a qualsiasiprodotto verniciante.

B.5. Richiami del processo di verniciatura

B. Appendice: Approfondimenti 180

I prodotti vernicianti si presentano generalmente allo stato liquido come miscelazionidi varie componenti raggruppabili nelle seguenti classi [AO96]:

• i leganti: tipicamente polimeri o resine che in qualità di agenti filmogeni determina-no le principali proprietà dei prodotti vernicianti. Dai leganti dipendono il poterefilmogeno della vernice ed altre caratteristiche sostanziali quali la brillantezza e ladurezza della superficie, la resistenza al graffio ed all’abrasione, la resistenza chi-mica, la re-insolubilità, l’aderenza, la trasparenza o viceversa il potere coprente, laflessibilità, la resistenza ai cicli termici, . . .

• i pigmenti: particelle solide colorate ed insolubili presenti in fase dispersa nei pro-dotti vernicianti. Oltre a coprire e colorare, influenzano le caratteristiche fisico-meccaniche del legante, in funzione soprattutto della loro concentrazione o presen-za percentuale nel film secco. In particolare in corrispondenza di una soglia notacome Critical Pigment Volume Concentration le caratteristiche del prodotto varianodrasticamente (ad esempio la sua resistenza ai cicli di abrasione, la formazione dibolle, la brillantezza, . . . ). Le cariche sono sostanze assimilabili ai pigmenti, mahanno un’inferiore capacità colorante e vengono comunemente utilizzate nei fondi.

• i solventi ed i diluenti: i primi sono liquidi aromatici impiegati per sciogliere leresine o i leganti senza alterarne la natura chimica, mentre i secondi sono miscele disolventi e non solventi aggiunte per facilitare l’applicazione delle vernici Solventi ediluenti sono tradizionalmente le componenti considerate più nocive per la salute,da cui il tentativo di sostituirli almeno in parte con la diffusione delle cosiddettevernici all’acqua.

• gli additivi: piccole quantità (≤ 1%) di sostanze aggiunte al fine di migliorare leprestazioni e l’applicazione del prodotto. Gli additivi riescono infatti a modificar-ne profondamente alcune caratteristiche fisico-chimiche, fungendo ad esempio dacorrettori d’opacità, anti-bolla, antischiuma, acceleranti, ritardanti, anti-ingiallentie plastificanti (ovvero agenti che modificano l’elasticità e la flessibilità del film senzamodificarne la durezza).

Viene infine definita “ricetta” la composizione di più prodotti vernicianti per realizzareuna specifica tonalità di colore, mentre con residuo secco (o solido) si intende la per-centuale di vernice che rimane dopo l’evaporazione delle componenti volatili in essacontenute.

B.5.2 Controlli strumentali per la qualità in verniciatura

Esistono numerose misure strumentali che, pur non ritrovandole nelle realtà che si haavuto modo di incontrare, servono a definire quantitativamente le proprietà e le qualitàdel risultato di un processo di verniciatura. La raccolta di dati oggettivi ed un control-lo sistematico offrono infatti sia vantaggi in termini di tempo necessario per risalire allacausa di uno specifico difetto, che la possibilità di comunicare a terzi in modo efficace everitiero le prestazioni che si è in grado di garantire (diversi organismi riconosciuti si oc-cupano di formalizzare e promuovere le normative atte a standardizzare le procedure di

B.5. Richiami del processo di verniciatura

B. Appendice: Approfondimenti 181

misurazione tra i quali CEN, UNI, Unichim, ISO, . . . ). Una ricca e dettagliata esposizionedei metodi più diffusi si può trovare in [Pas04] e qui ci si limiterà a menzionarne solo al-cuni con l’intento di dimostrare la pluralità di tecniche di misurazione a disposizione delricercatore interessato e quella degli obiettivi che governano i processi di verniciatura.

Una prima tipologia di prove riguarda il controllo superficiale sul film di vernice,dove si distinguono

• controlli in fase di preparazione

– misura della temperatura e dell’umidità dell’aria al momento dell’applicazio-ne ( termoigrometro)

– temperatura del supporto e della vernice ( pirometro)

– spessore a umido del prodotto depositato ( spessimetro manuale, misura-zione in micron)

– viscosità della vernice ( viscosimetro, anche noto come coppa ad effluvio ocoppa Ford)

• controlli finali su caratteristiche meccaniche, da eseguire non prima di 24 - 48h dal-l’uscita del pezzo dal forno di cottura e comunque a reticolazione (anche processodi coalescenza o più semplicemente asciugatura) avvenuta

– aderenza al supporto ( prove di distacco, incisione ad X o quadrettatura ocross-cut tester e prova con nastro adesivo, prova pencil o DUR-O-Test o ScratchTest per resistenza al graffio)

– spessore ( misura con PIG Universal, con spessimetri ad ultrasuoni o inci-sione e misura con microscopio)

– resistenza all’impatto ( impact o cupping test)

– prove di trazione e curvatura ( utilizzo di mandrini per prove di torsione,piegamento, stiratura ed allungabilità)

– abrasione ( caduta di sabbia, piatto girevole per metodo Taber, prove adumido per lavabilità e sfregamento, rilevazioni tramite la resistenza dielettricadel rivestimento)

• prove specifiche di durezza e durabilità (controlli finali)

– misura di impronte lasciate con impressori Barcol o da una mezzaluna Buchhilz

– misura delle oscillazioni di un pendolo che sfrega sulla superficie (durezzaPersoz e durezza König)

– resistenza agli agenti esterni ( Xeno test per invecchiamento accelerato allaluce solare, weatherometer per resistenza a perturbazioni atmosferiche ed agentiinquinanti, prove di resistenza ai raggi UV, resistenza chimica con MEC, raf-freddamenti ed escursioni termiche in freezer, prove di corrosione, ossidazione,resistenza all’immersione, . . . )

Merita un discorso a parte la rilevazione delle qualità estetiche, ovvero di quelle pro-prietà per lo più di natura ottica, che determinano l’apparenza e la gradevolezza delmanufatto verniciato

B.5. Richiami del processo di verniciatura

B. Appendice: Approfondimenti 182

• la brillantezza: misurata in gloss units (gu) dal Glossmetro, strumento che raccogliela luce riflessa dalla superficie ad un’angolazione definita (tipicamente 60°)

• la velatura o haze: misura la luce diffusa dagli strati inferiori di vernice, può essereanch’essa rilevata dal Glossmetro (tipicamente ad un angolo di 20°)

• il profilo ottico della superficie: misura effettuata con il wave-scan, strumento ingrado di rilevare con circa 1200 acquisizioni ogni 10 cm, i picchi e le valli sullo stra-to più esterno di vernice; filtri matematici hanno poi il compito di scomporre larilevazione in base alla lunghezza d’onda (i periodi maggiori sono ad esempio ca-ratteristici di difetti come la “buccia d’arancia”, mentre quelli minori di nuvolaturee puntinature)

• il controllo del colore3: la misura è effettuata con lo Spettrofotometro, uno stru-mento cromometrico il quale, una volta definita la fonte luminosa e l’angolo dirilevazione, è in grado di misurare anche altre qualità quali il gloss

Senza scendere in ulteriori dettagli è già chiaro dalle liste precedenti che questi con-trolli sono tra loro piuttosto eterogenei e vanno da verifiche semplici e veloci a procedurelunghe, complesse e che si avvalgono di macchinari generalmente costosi. Il numero ela tipologia di parametri da tenere sotto controllo dipende evidentemente dalle esigenzedella clientela a cui è rivolto il prodotto e dal tipo di utilizzo che ne viene fatto, ma unefficace controllo della qualità ha tipicamente ripercussioni positive anche sui tempi e suicosti di produzione. Inoltre occorre considerare che diverse misure di qualità sulla ver-niciatura sono tra loro correlate: ad esempio ad una diminuzione del gloss è solitamenteassociato un aumento dell’haze ed a parità di trattamento, superfici particolarmente liscesono generalmente più resistenti agli attacchi esterni. Allo stesso modo molti dei difettilocalizzati che si possono incontrare nel film di vernice (di cui si omette la discussione,rimandando eventualmente all’allegato elettronico C.3.2 a pag. 189 per approfondimen-ti) hanno ripercussioni su diverse caratteristiche meccaniche od ottiche. Ad esempio lapresenza di un materiale estraneo nello strato ricoprente, come aria o particelle di sporco,ne facilita il distacco, oltre evidentemente a comprometterne l’estetica; il fenomeno dellabuccia d’arancia può influenzare invece il gloss e l’haze (effetto valutabile in termini diDistinctness Of Image o DOI).

Nel corso dell’esperienza empirica svolta, pur non avendo riscontrato misurazionianaloghe, si è avanzata l’ipotesi di sintetizzare alcune delle qualità estetiche del film apartire dagli istogrammi di tonalità comunemente utilizzati nell’analisi delle immaginifotografiche digitali (l’altezza del grafico in ciascun punto corrisponde al numero di pixelche hanno un certo grado di saturazione). Senza scendere neppure qui in dettaglio, datala generale uniformità delle aree ispezionate ed il costo estremamente ridotto dell’ac-quisizione digitale di immagini della superficie (con le dovute cautele il requisito dellareplicabilità delle condizioni non è d’ostacolo), parametri di centralità di dette curve (co-

3Anche se il fornitore di prodotti vernicianti garantisce la ripetitività del colore individuandone le coor-dinate spettrofotometriche, altri fattori possono influenzarne la tonalità (la polimerizzazione che avvienenei forni, la mano sottostante, . . . ). Il fenomeno del metamerismo consiste inoltre in una diversa riflessionedella luce su film dello stesso colore a causa di componenti della vernice che non mostrano effetti se non inparticolari condizioni di illuminazione.

B.5. Richiami del processo di verniciatura

B. Appendice: Approfondimenti 183

me la media o la moda) inquadrano le coordinate spettrofotometriche del colore, mentrea seconda della procedura di misurazione, indicatori di forma e dispersione ne riflettonol’omogeneità, la brillantezza o avvertono della presenza di particolari difetti ottici.

B.5. Richiami del processo di verniciatura

CAppendice: Software ed allegati elettronici

C.1 Procedure relative al problema multiobiettivo affrontato

percorso: matlab/

Le seguenti procedure in linguaggio MATLAB® permettono di ripercorrere l’analisi delproblema multiobiettivo condotta nel Paragrafo 4.3 ed approfondirne alcuni aspetti.

file: test_intro.m Analisi preliminari, ispezioni visive ed individuazione dellafrontiera efficiente.

(1) ispezione visiva delle risposte;

(2) ottimizzazioni disgiunte;

(3) frontiera efficiente (approssimazioni NBI, algoritmi evolutivi, grid).

file: test_desid.m Ottimizzazione con l’approccio classico delle desiderabilità.

(1) definizione funzioni di desiderabilità ed ottimizzazione dell’Indice (classico)

(2) analisi di sensibilità (rispetto a fattori e parametri, osservando il valore dell’Indice ed xopt)

file: test_delta.m Ottimizzazione dell’Indice corretto come esposto nel Paragra-fo 3.5.2 e relativa analisi dei risultati.

(1) condizioni ottime con Indice classico e corretto

(2) intervallo di confidenza sul valore della Funzione obiettivo (Indice corretto)

(3) Equivalence Zone (esempi)

(4) approssimazione di tutta l’EZ (metodo analitico)

(5) Funzione obiettivo con calcolo integrali (da Eq. 3.14)

file: test_sim.m Approccio con simulazioni all’analisi dell’Incertezza sul MDS ,con alcuni strumenti indicati nel Paragrafo 3.5.2.

(1) ottimizzazione con metodo desiderabilità (classico e corretto)

(2) intervallo di previsione sull’Indice (corretto)

(3) intervallo di confidenza sull’Indice (corretto)

(4) Equivalence Zone (esempi)

184

C. Appendice: Software ed allegati elettronici 185

(5) approssimazione dell’Equivalence Zone in X1 × X3 con X2 fissato (simulazione)

(6) approssimazione dell’Equivalence Zone in X1 × X3 indipendentemente da X2 (simulazio-

ne)

file: test_fuzzy.m Sviluppo di sistemi di inferenza fuzzy per rappresentare ilMDO .

(0) ottimizzazione classica

(1) sistema di inferenza semplice (specifica ed ottimizzazione)

(2) sistema di inferenza ricco (specifica ed ottimizzazione)

file: test_ahp.m Analisi di modelli sviluppati con il metodo AHP.

(1) ottimizzazione con metodo desiderabilità (classico e corretto)

(2) calcolo delle priorità (da matrice di confronti a coppie)

(3) ottimizzazione modello I (normalizzazione con df )

(4) ottimizzazione modello II (Loss function)

(5) intervallo di previsione (modII)

(6) intervallo di confidenza (modII)

(7) Equivalence Zone (modII, esempi)

(8) approssimazione dell’Equivalence Zone in X1 × X3 con X2 fissato (modII, simulazione)

(9) approssimazione dell’Equivalence Zone in X1 × X3 indipendentemente da X2 (modII, si-

mulazione)

file: test_costo.m Ricerca di condizioni operative ottimali considerando anche unobiettivo di consumo energetico. Esplorazione di metodi per quantificare ed analizzarel’incertezza sul MDO .

(1) nuove condizioni ottime (desiderabilità classico e corretto con obiettivo Ng)

(2) intervallo di confidenza sul valore dell’Indice (corretto)

(3) approssimazione dell’Equivalence Zone (metodo analitico)

(4) approssimazione dell’Equivalence Zone (simulazione)

(5) intervallo di confidenza sull’Indice (incertezza anche sui pesi del MdO)

(6) approssimazione dell’Equivalence Zone (simulazione, anche con incertezza sul MdO)

(7) ottimizzazione di Funzione obiettivo stocastica (simulazione, incertezze su MdS ed MdO)

C.1. Procedure relative al problema multiobiettivo affrontato

C. Appendice: Software ed allegati elettronici 186

C.2 Applicazioni Software

C.2.1 Script per il calcolo delle priorità

percorso: script/La leggera applicazione presentata in Figura C.1, facilita l’immissione dei dati ed il

calcolo delle priorità a partire da una matrice di confronti a coppie nel metodo AHP.Per consentire un uso agevole e versatile sono supportate diverse procedure di calcolo,vi sono opzioni per semplificare l’inserimento dei giudizi ed è corredata da spiegazionicirca l’approccio generale ed i metodi implementati. Essendo sviluppata in linguaggioJavaScript non necessita di particolari procedure di installazione e può essere utilizzatain un comune browser.

C.2.2 Interfaccia per il metodo delle desiderabilità

percorso: matlab/interfaccia/Le interfacce riportate in Figura C.2 si riferiscono ad un software sviluppato in linguag-

gio MATLAB® con l’intento di assistere in modo integrato le fasi di risoluzione dei pro-blemi multiobiettivo. Da una finestra che raccoglie le attività principali si può procederecon la definizione di fattori controllabili e variabili di risposta, specificando al contempodove sono conservati i dati raccolti con le prove sperimentali (1) e (2). Successivamentesi è chiamati a definire la forma funzionale dei modelli di regressione per consentire lastima automatica dei coefficienti con il metodo OLS (3). La procedura prosegue con l’in-serimento dei parametri delle funzioni di desiderabilità associate a ciascuna caratteristicadi interesse (4) potendo scegliere tra tre diverse forme presentate in letteratura. La secon-da attività volta a costruire il MDO consiste nel definire la forma di aggregazione cheavviene nell’Indice e specificare eventuali vincoli per garantire ad esempio che l’ottimoindividuato si collochi all’interno della regione sperimentale (5). Le informazioni inseritefino a questo punto sono sufficienti per avviare l’algoritmo di ottimizzazione che prov-vederà, massimizzando la Funzione obiettivo, a comunicare quali condizioni operativerisultano le migliori (6). Questa implementazione del metodo classico con le desidera-bilità è corredata da una simulazione come quella definita in (sim-4) e dove, prendendoin considerazione la variabilità delle relazioni del MDS si prova ad individuare altrecondizioni che sarebbero risultate ottime se il sistema avesse fornito risposte leggermen-te diverse nel corso delle prove empiriche. Il risultato di questa simulazione è infinepresentato per via grafica in proiezioni di due fattori per volta (6).

C.2. Applicazioni Software

C. Appendice: Software ed allegati elettronici 187

Figura C.1: Script per il calcolo delle priorità.

C.2. Applicazioni Software

C. Appendice: Software ed allegati elettronici 188

Figura C.2: Prototipo software per la gestione integrata di un problema multiobiettivo.

C.2. Applicazioni Software

C. Appendice: Software ed allegati elettronici 189

C.3 Allegati elettronici

C.3.1 Documenti pertinenti tratti dall’esperienza empirica

percorso: esperienza empirica/

Collezione di file con ricerche preliminari, rapporti ed analisi di prove sperimentalivolte a caratterizzare il funzionamento e migliorare le prestazioni dell’apparecchiatura.

C.3.2 Opuscolo sui difetti in verniciatura

percorso: esperienza empirica/opuscolo/

Opuscolo informativo ideato prevalentemente a fini commerciali in cui si elencano ledefinizioni e le cause dei più comuni difetti localizzati che possono incontrare nei processidi verniciatura. La sua redazione si colloca tra le proposte avanzate durante il rapportodi collaborazione con l’impresa per riuscire a comunicare in modo efficace ai clienti unset di parametri estetici da monitorare con l’introduzione del sistema per il trattamentodell’aria di alimentazione, diffondendo al contempo una cultura più attenta alla qualità.

C.3.3 Analisi statistica dei dati di Tabella D.1

percorso: esperienza empirica/MdS/

Rapporto MINITAB® e traccia dell’analisi statistica dei dati di Tabella D.1 da cui sonostati ricavati i modelli empirici delle caratteristiche di qualità poi ottimizzate nel corso diParagrafo 4.3.

C.3.4 Confronti e simulazioni sul calcolo delle priorità

percorso: confrontiAHP/Simulazioni condotte allo scopo di quantificare la differenza tra le priorità a cui si

perviene con differenti procedure di calcolo e l’inconsistenza introdotta approssimando igiudizi con i valori della scala fondamentale.

C.3.5 Documentazione funzioni relative al metodo AHP

percorso: matlab/AHPfun/Toolbox con funzioni implementate in codice MATLAB® allo scopo di semplificare lo

studio di problemi con l’approccio AHP, impiegato a supporto di verifiche e simulazioninel Paragrafo 3.7.1 (ed in particolare nell’allegato elettronico C.3.4).

C.3. Allegati elettronici

DAppendice: Dati

D.1 Dati relativi alle indagini empiriche

Inseriti tra gli allegati elettronici elencati nel Paragrafo C.3.

D.2 Dati in base a cui si è ricavato il MDS

T P D De Gl ET Ng

-1 -1 -1 9 74,5 69 21491 -1 -1 17 74,5 74 2362-1 1 -1 14 74 69,5 18631 1 -1 7 71 76 2713-1 -1 1 3 74 69,5 22611 -1 1 9 69 70,5 2222-1 1 1 24 77,5 63 18251 1 1 23 71 70 2641

-1,68179 0 0 11 81 67 18381,68179 0 0 12 75 77 2751

0 -1,68179 0 12 73,5 71 21580 1,68179 0 22 73 69 22570 0 -1,68179 14 71 73,5 22290 0 1,68179 15 69,5 66 23170 0 0 7 75 75 22010 0 0 6 75 74 23390 0 0 3 75 75 23890 0 0 7 75,5 73,5 21880 0 0 4 76 75,5 22120 0 0 9 74 76,5 2210

Tabella D.1: Piano sperimentale e risposte in base a cui sono state ricavate le leggi empiriche del MDSutilizzato nel Paragrafo 4.3.

190