michel salomon techniques doptimisation les métaheuristiques i.u.t. belfort-montbéliard...

105
Michel Salomon Techniques d’optimisation Les métaheuristiques I.U.T. Belfort-Montbéliard [email protected]

Upload: claudia-goujon

Post on 03-Apr-2015

112 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

Michel Salomon

Techniques d’optimisation

Les métaheuristiques

I.U.T. Belfort-Montbé[email protected]

Page 2: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

2

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Plan du cours

Introduction

Optimisation combinatoire

Généralités sur les métaheuristiques

Recuit simulé et méthodes liées

Algorithmes évolutionnaires

Étude de cas

Page 3: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

3

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Introduction

• Importance croissante des problèmes d’optimisation– De nombreux secteurs y sont confrontés

• Conception de systèmes mécaniques• Traitement d’images

– Recalage d’images;

– etc.

• Électronique– Placement et routage des composants;

– etc.

• Conception de réseaux mobiles UMTS• Problèmes de tournées de véhicules• etc.

développement de nombreuses méthodes de résolution

Page 4: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

4

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Introduction

• Exemples Problème du voyageur de commerce

Circuit reliant 15112 villes en Allemagne

Applegate & al. 2001 (Princeton University)

Page 5: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

5

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Introduction

• Exemples (suite) Imagerie médicale - Recalage d’images monomodales 3D

• D’une dizaine à plusieurs millions de variables à optimiser

– Recalage rigide

Rotation (3 paramètres)

Translation (3 paramètres)

– Recalage déformable

• « Paysage » complexe des fonctions de coût à minimiser

• Volume de données important

– IRM 1283 ou 2563 voxels ( voire plus)

• Utilisation possible en routine clinique

– Contrainte sur les temps de calculs

Page 6: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

6

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Introduction

• Exemples (suite) Recalage rigide d’IRM 1283 voxels

Image de référence Image source

Rot.Trans.

3,11,11,17,7,15Θ

3,11,11,17,7,15

Décalage synthétique

Recalage

• Temps de calculs (proc. R12000) :

– 1 processeur = 700,80 secondes;

– 16 processeurs = 52,16 secondes

Page 7: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

7

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Introduction

• Exemples (suite) Recalage déformable d’IRM 2563 voxels

Image source Image de référenceRésultat

• Temps de calculs (proc. R12000) :

– 1 processeur = 13897,44 secondes (un peu moins de 4 heures);

– 16 processeurs = 2293,80 secondes (moins de 40 minutes)

Page 8: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

8

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Introduction

• Formulation - Terminologie– Description générale d’un problème d’optimisation

• Étant donné un ensemble de configurations du problème

à résoudre et une fonction de coût , trouver la configuration

qui soit de coût minimal (on parle de minimisation). Soit :

• n’est pas obligatoirement unique;

• la fonction de coût est également appelée la fonction objectif;

• est également appelé l’espace de recherche

x

C

x'

x'

C min C xxx'

Page 9: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

9

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Introduction

• Formulation - Terminologie– Passer de la minimisation à la maximisation

C- min C max xxxx

V x'xxx'

xx'x'x C C aon )(V

– Minimum local• Configuration vérifiant : x'

• Voisinage de taille ε

– Minimum global• C’est un minimum local de coût minimum

Page 10: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

10

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Introduction

• Classification des algorithmes d’optimisation

– Variable suivant le point de vue considéré

• Algorithmes déterministes / algorithmes stochastiques

• Algorithmes de recherche locale / algo. de recherche globale

• Algorithmes d ’optimisation locale / algo. d’optimisation globale

– Algorithmes d’optimisation locale

Tout algorithme piégé par le premier optimum rencontré;

ne permettant pas d’obtenir une solution proche de l’optimum global en

raison de la trop grande cardinalité de l’espace de recherche

– Algorithmes d ’optimisation globale

Tout algorithme qui n’est pas sensible aux minima locaux;

algorithme permettant d ’obtenir une solution proche de l’optimum global

Page 11: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

11

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Introduction

• Classification des algorithmes d’optimisation– Classification générale des méthodes

Page 12: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

12

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Introduction

• Algorithmes d’optimisation qui seront étudiés (a priori)

– Métaheuristiques– Programmation linéaire

• Une des branches de la recherche opérationnelle– Origine : Angleterre / États-Unis (1940) - Recherche militaire

– Objectifs : pendant la guerre utiliser au mieux les moyens militaires (avions, DCA, etc.);

après la guerre utilisé dans le monde des affaires (production, stocks, etc.)

• Formulation

avec vérifiant :

n

1j

min jjxc

nxxx ,, 1

n,1, 0,

,1, , 1

jx

nibxa

j

n

j

ijij

Page 13: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

13

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Introduction

– Programmation linéaire (suite)

• Objectif

Minimiser (ou maximiser) une fonction linéaire de n variables réelles non

négatives (les coefficients sont notés cj) sur un ensemble de m inégalités

linéaires (définition des contraintes du problème)

• Résolution

– Algorithme du simplexe (méthode classique)

Développé dans les années 1940 - 1950;

G.B. Dantzig

Page 14: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

14

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Introduction

– Programmation linéaire (suite)

• Exemple - Le restaurateur

Un restaurateur constate que sa clientèle préfère les assortiments de

coquillages et qu’il peut offrir indifféremment :

des assiettes à 8 €, contenant 5 oursins, 2 bulots et 1 huître;

des assiettes à 6 €, contenant 3 oursins, 3 bulots et 3 huîtres.

Il dispose de 30 oursins, 24 bulots et 18 huîtres.

Question :

comment disposer les assiettes pour réaliser la recette maximale ?

Page 15: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

15

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Introduction

– Programmation linéaire (suite)• Exemple - Le restaurateur

– Formulation mathématique Variables de décision

x1 : quantité d’assiettes à 8 €

x2 : quantité d’assiettes à 6 €

Objectif à atteindre

Mise en équation des contraintes

Contrainte C1 (Nbre d’oursins)

Contrainte C2 (Nbre de bulots)

Contrainte C3 (Nbre d’huîtres)

Contraintes de non-négativité

21 6 8 max xx Z

0 , 183 1243 2303 5

21

21

21

21

xxxxxxxx

Page 16: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

16

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Introduction

– Programmation linéaire (suite)• Exemple - Le restaurateur

– Modèle complet

0 0, 183 1243 2303 5

sous

6 8 max

décision de Variables

21

21

21

21

21

euros 6 à assiettesd' nombre euros 8 à assiettesd' nombre 1

xxxxxxxx

xxZ

xx

2

Page 17: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

17

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Plan du cours

Introduction

Optimisation combinatoire

Généralités sur les métaheuristiques

Recuit simulé et méthodes liées

Algorithmes évolutionnaires

Étude de cas

Page 18: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

18

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Optimisation combinatoire

• Définition d’un problème d’optimisation combinatoire

– Fonction de coût à minimiser ou maximiser

– Espace de recherchefini ou dénombrable, mais

non énumérable en un temps « raisonnable »

• Difficulté d’un problème d’optimisation combinatoire

– Taille de l’espace de recherche

– « Paysage » de la fonction de coût

Page 19: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

19

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Optimisation combinatoire

• Multitude d’algorithmes d’optimisation combinatoire

– Méthodes exactes

• programmation dynamique

• recherche arborescente

• ...

– Méthodes approchées - heuristiques / métaheuristiques

• recuit simulé et variantes

• algorithmes évolutionnaires

• algorithmes de colonies de fourmis

• …

Page 20: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

20

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Optimisation combinatoireFaculté d’une colonie de fourmis de retrouver le plus court chemin

Les fourmis suivent un chemin entre le nid et la nourriture

Obstacle les fourmis prennent avec des probabilités égales un des

deux chemins; la phéromone est déposée plus vite sur le chemin le plus court

Toutes les fourmis choisissent le chemin le plus court

Page 21: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

21

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Optimisation combinatoire

• Exemple - Le voyageur de commerce

Circuit reliant 15112 villes en Allemagne

Applegate & al. 2001 (Princeton University)

Parallélisation : des mois de calculs

Temps de calcul cumulé et ajusté sur

1 proc. Alpha EV6 (500MHz) 22,6 années

possibles circuits2

!1- villes NN Explosion combinatoire :

Type Nombre

Compaq XP1000 Alpha 21264 500MHz 5

Compaq DS20 Alpha 21264 500MHz 6

Compaq ES40 Alpha 21264-6 500MHz 32

Compaq ES40Alpha 21264-67

500MHz12

Cluster FreeBSD Athlon 800MHz 24

Cluster LinuxPentium III variés : de

450 à 1000 MHz19

Systèmes utilisésProcesseurs

Page 22: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

22

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Plan du cours

Introduction

Optimisation combinatoire

Généralités sur les métaheuristiques

Recuit simulé et méthodes liées

Algorithmes évolutionnaires

Étude de cas

Page 23: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

23

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Généralités sur les métaheuristiques

Algorithmes d’optimisation retenus

• Algorithmes du type recuit simulé– Recuit simulé « classique »

– Équation de la diffusion

– Recuit adaptatif

• Algorithmes évolutionnaires– Algorithmes génétiques

– Stratégies d’évolution

– Évolution différentielle

• Hybridation parallèle

Recherche monopoint

Preuve de convergence

Recherche multipoint

Preuve de convergence

Page 24: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

24

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Généralités sur les métaheuristiques

• Capacité à s’échapper d’un minimum local

– Piégeage d’un algorithme itératif « classique »

• Algorithme autorisant un changement de configuration qui

induit uniquement une diminution de la fonction de coût

Page 25: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

25

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Généralités sur les métaheuristiques

• Capacité à s’échapper d’un minimum local (suite)– Stratégies adoptées par les métaheuristiques

• Métaheuristiques dites de voisinage– Algorithmes d’optimisation reposant sur la notion de voisinage

Exemple : recuit simulé et méthodes liées

– Principe : autoriser, de temps en temps, une dégradation temporaire lors du changement

la configuration courante; un mécanisme de contrôle de la dégradation est prévue éviter la divergence

• Métaheuristiques « distribuées »– Algorithmes d’optimisation dits « distribués »

Exemple : algorithmes évolutionnaires

– Principe : le contrôle d’une population de solutions potentielles permet de lutter contre les minima locaux; intégration d’un mécanisme permettant à une solution de sortir d’un puit local

Page 26: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

26

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Généralités sur les métaheuristiques

• Extensions des métaheuristiques

– Adaptation aux problèmes à variables continues

• Définition d’une stratégie de discrétisation des variables

• Idéalement le pas (de disc.) devrait s’adapter au cours de l’opt.

• ( Problème discret résolu avec une méthode « continue » )

– Optimisation multiobjectif

• Problèmes nécessitant la considération de plusieurs objectifs

contradictoires pas d’optimum unique

• Surface de compromis arbitrage final de l’utilisateur

Page 27: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

27

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Généralités sur les métaheuristiques

• Extensions des métaheuristiques (suite)

– Méthodes hybrides

• Combiner des métaheuristiques complémentaires

– Optimisation multimodale

• Détermination d’un jeu de solutions optimales

– Parallélisation

• Traitement de problèmes de grande taille

• Réduction des temps de calcul

Page 28: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

28

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Généralités sur les métaheuristiques

• Choix d’une métaheuristique

– Étant donné un problème d’optimisation, comment

choisir une méthode efficace ?

• Capable de produire une solution « optimale » ou acceptable;

• avec un temps de calcul raisonnable

– Sujet ouvert

• Pas de « recette miracle » : pas règles

– pour le choix d’une métaheuristique;

– ni pour le réglage optimal des paramètres d’une métaheuristique

• Résultats théoriques inexistants ou inapplicables (hypothèses)

Page 29: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

29

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Généralités sur les métaheuristiques

• Choix d’une métaheuristique (suite)

– Un algorithme d’optimisation meilleur que tous les autres ?

• Comparaison de leur comportement sur des fonctions de coût

« synthétiques », i.e. ne modélisant pas de problème réel

– Variété de fonctions

Suite de fonctions introduite par De Jong;

Fonction d’Ackley, de Griewank, etc.

– Le choix d’une (ou plusieurs fonction(s) n’est pas aisé

éviter d’avantager d’un algorithme par rapport à un autre

– Approche intéressante uniquement (et encore) si la fonction de coût

« approche » convenablement celle du problème considéré

résultats non pertinents

Page 30: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

30

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Généralités sur les métaheuristiques

• Choix d’une métaheuristique (suite)

– Un algorithme d’optimisation meilleur que tous les autres ?

• Fonctions synthétiques (exemples 2D)

– Fonction de Rosenbrock

– Fonction d’Ackley

– Fonction de Rana

1,1 ; - 1 - 100 ,2F *2

122

1221 xxxxxx

0,0 ; e 20 2 cos 2 cos exp 2.0 exp 20- ,11F *21212

2212

121 xxxxxxx

1sin -1 cos 1 1- cos -1sin ,102F 211222112121 xxxxxxxxxxxx

Page 31: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

31

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Généralités sur les métaheuristiques

F2 - Fonction de Rosenbrock

• Choix d’une métaheuristique (suite)

Page 32: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

32

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Généralités sur les métaheuristiques

F11 - Fonction d’Ackley F102 - Fonction de Rana

• Choix d’une métaheuristique (suite)

Page 33: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

33

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Généralités sur les métaheuristiques

• Choix d’une métaheuristique (suite)• No Free Lunch Theorem (Wolpert & Mac Ready - 1997)

En « moyenne », sur toutes les fonctions de coût possibles,

tous les algorithmes d’optimisation (sans exceptions) ont

des performances équivalentes

Soit :

– pas de meilleur algorithme d’optimisation quelque soit

le problème considéré;

– en revanche, pour un problème donné il existe bien un meilleur algorithme

• Optimisation efficace algorithme :

– appréhendant les caractéristiques de l’espace de recherche;

– de la fonction de coût à optimiser

Page 34: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

34

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Généralités sur les métaheuristiques

• Choix d’une métaheuristique (suite et fin!!)

– Conclusion

• Pas de règle établie

• Appel au savoir-faire et à l’ « expérience » de l’utilisateur

• Essayer plusieurs algorithmes est souvent nécessaires

avant de trouver le bon

– Comparaison implicite d’algorithmes sur le problème considéré

– Futur (approche la plus prometteuse)

• Guider le choix par  l’analyse du « paysage » de la fonction

de coût (recherches en cours)

Page 35: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

35

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Plan du cours

Introduction

Optimisation combinatoire

Généralités sur les métaheuristiques

Recuit simulé et méthodes liées

Algorithmes évolutionnaires

Étude de cas

Page 36: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

36

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Origine du recuit simulé (Simulated Annealing)– Obtenu par analogie avec :

• le phénomène thermodynamique de recuit des métaux;

• le processus de refroidissement pour cristalliser un liquide

– Principe• Initialement le métal est porté à haute température;

• ensuite on le refroidi progressivement :– à haute température les atomes sont agités config. atomique équiprobables;

– à basse température les atomes s’organisent structure atomique parfaite,proche de l’état d’énergie minimale

• Contrainte– refroidissement lent pour ne pas rester bloqué dans un minimum local;

– refroidissement trop rapide abouti à une configuration sous-optimale

Page 37: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

37

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Origine du recuit simulé (Simulated Annealing)– Illustration

État « visqueux »Configurations désordonnées;

Énergie élevée

État solide cristallinminimum global de l’énergie

État solide amorpheminimum local de l’énergie

Technique du recuit

Technique de la trempe

Page 38: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

38

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Simulation du phénomène de recuit– Distribution de Gibbs-Boltzmann (mécanique statistique)

TKX

ZX

BT

Eexp1P

• X (X est une configuration du système physique);• E est une fonction d’énergie définie sur ;• T est la température;

– Algorithme de Metropolis (1953 - simulation à T constante)

• Suite de configurations obtenues par réarrangement

élémentaire

• Procédure de transition

TXYXY E E exp , 1min P

Page 39: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

39

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liée

• Analogie problème d’optimisation / système physique

Problème Système

d'optimisation physique

fonction de coût / objectif C(x )

énergie libre E(X )

variables du problème "coordonnées" des atomes

trouver une "bonne" config.trouver un état de basse

énergie

algorithme du recuit simulé (Kirkpatrick & al. - 1983)

Page 40: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

40

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Algorithme du recuit simulé

– Basé sur deux procédures

Procédure d’échantillonnage de la distribution de Gibbs / Boltz.

Phase d’exploration - Notion de voisinage

Phase d’acceptation - Utilisation de l’algorithme de Metropolis

Procédure de refroidissement

– Schéma de décroissance de la température

– Capacité à éviter les minima locaux

• Acceptation probabiliste de configurations d’énergie plus élevée

• Probabilité d’autant plus élevée que la température T est grande

Page 41: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

41

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Algorithme du recuit simulé (suite)– Description algorithmique (version Metropolis)

T T0 | - Température initiale X X0 | - Configuration initiale Répéter Répéter

Tirer aléatoirement X’ V(X) Si E (=E(X’) –E(X)) < 0

ou 0;1 , exp T

E tiré selon une loi uniforme

alors X X’ Jusqu’à fin de palier T g(T) | - g est strictement décroissante

Jusqu’à critère d’arrêt vérifié

Page 42: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

42

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Algorithme du recuit simulé (suite)– Description algorithmique (version échantillonneur de Gibbs)

• Configurations = champs (ou vecteurs) de variables aléatoires

nNnsnnnNnsnnnn xxxxxXXXXX ,,,,, ,,,,, ,,2,,1,,2,,1 – n désigne la n-ième configuration construite par l’algorithme;

– N + est le nombre de variables d’une configuration ;

– xn désigne le vecteur valeur de la configuration Xn;

– s est l’index des variables, ont dit aussi que s est un site;

– l’espace de recherche est de la forme :

permet de choisir comme nouvelle configuration Xn+1, la configuration Yn qui ne diffère de Xn qu’en un seul site s

sn,sN x où 1

Page 43: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

43

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Algorithme du recuit simulé (suite)– Description algorithmique (version échantillonneur de Gibbs)

T T0 | - Température initiale X X0 | - Configuration initiale Répéter Répéter

Nt sss ,,,,1 Ordre de parcours des sites tiré aléatoirement Pour t de 1 à N faire

o Construire un ensemble de configurations XXX V ' ts

o Calculer les probabilités trisi srxx'p t ; P pour tout

i possible

o X X’ | jstx ' , avec j le plus petit nombre vérifiant

j

1i

ip ,

avec 0;1 tiré selon une loi uniforme Fin pour

Jusqu’à fin de palier T g(T) | - g est strictement décroissante

Jusqu’à critère d’arrêt vérifié

Page 44: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

44

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Algorithme du recuit simulé (suite)– Choix des paramètres (convergence en un temps fini)

• T0 doit être choisie de sorte que pratiquement toutes

les configurations proposées soient acceptées

• Les paliers de température doivent être suffisamment long

pour permettre d’atteindre la distribution stationnaire;

Rappel : il s’agit d’atteindre la distribution de Gibbs / Boltzmann

• Loi de décroissance de la température : la baisse de

température entre deux paliers ne doit pas être trop importante

atteinte rapide de la distribution stationnaire

Page 45: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

45

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Algorithme du recuit simulé (suite)– Choix des paramètres (en pratique)

• T0 est choisie à l issue d ’expérimentations / tests;

• La longueur d’un palier est également fixée empiriquement;

• Schéma de température exponentiel

• Critère d’arrêt possible :

– le pourcentage de configurations acceptées passe sous un seuil fixé;

– la variance de l’énergie est faible;

– choix d’une température minimale;

– d’autres critères possibles, ...

1 0et avec , 0 nTT nn

Page 46: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

46

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Algorithme du recuit simulé (suite)– Modélisation et propriétés asymptotiques

• Version de Metropolis (pas de palier de température)

Chaîne de Markov inhomogène dont la matrice de transition

2 , , yxyxpP nn TT où xXyXp nnTn P 1

vérifie :

si - 1

,0sup ),V( si)E()E( exp ,

V si 0

,

, ,

xyp

ddxyT

xyyxq

xy

yxp

xzzzxT

nT

n

n

Page 47: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

47

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Algorithme du recuit simulé (suite)– Modélisation et propriétés asymptotiques

• Version de Metropolis avec palier de température

Suite de chaînes de Markov homogènes

• Convergence (Schéma de température logarithmique)

– Objectif :

– Condition :

• Propriétés asymptotiques

– Condition suffisante de convergence

– Vitesse de convergence

minimale d'énergie config. des ens. min min

1, P lim

nn

X

)E( min )E(max , lim ln xxxxRT n

Rnn

Page 48: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

48

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Algorithme du recuit simulé (suite)

– Accélération de l’algorithme (raffinements)

• Schéma de décroissance exponentiel

• Modification du voisinage

– À haute température voisinage relativement étendu

– À basse température voisinage restreint

• Accélération par distorsion de la fonction de coût

• Accélération par recuits multiples indépendants

Remplacer un seul recuit par plusieurs recuits plus courts

(on garde la meilleure solution)

Page 49: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

49

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Algorithmes de type recuit simulé– Optimisation combinatoire et continue (discrétisation)

• Recuit simulé « classique » (Kirkpatrick & al. - 1983)

– Optimisation continue• Classical Simulated Annealing et Fast Simulated Annealing

– dérivés directement du recuit simulé « classique »;

– adaptation de la phase d’exploration du voisinage;

– schéma de décroissance de la température plus rapide

• Stochastic Approximation with Smoothing

– fonction de coût modifiée convolution avec une densité de probabilité

• Équation de la diffusion / Diffusion simulée

• Recuit simulé adaptatif (Adaptative Simulated Annealing)

Page 50: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

50

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Équation de la diffusion– Définition (Aluffi & al. - 1985 / Geman & al. - 1986)

• Équation différentielle stochastique– Configuration du type N

tttt dwTdtxdx 2E

,,, ,2,,1 Ntttt xxxx

– La fonction d’énergie doit vérifiée :

– Tt est la température à l’instant t + ;

– wt est un mouvement brownien dans N (“marche au hasard”)

• Échantillonnage de la distribution de Gibbs / Boltzmann

tB

t

Tt

TKx

Zx

t Eexp1P

E lim

xx

Page 51: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

51

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Équation de la diffusion (suite)– Principe (on décompose l’équation en deux termes)

• Terme 1 descente du gradient

• Terme 2 perturbation aléatoire amplitude de la perturbation modulée par la température

– À haute température possibilité de sortir d’un minimum local

– À basse température perturbation négligeable descente du gradient

– Contrainte

• Le gradient de la fonction de coût doit être défini

2

E- 2

1

tt

t

dwTtdtxt

Page 52: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

52

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Équation de la diffusion (suite)– Principe (on décompose l’équation en deux termes)

Page 53: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

53

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Équation de la diffusion (suite)– Algorithme d’optimisation basé sur étapes

Résolution itérative de l’équation

– Discrétisation de l’équation par la méthode d’Euler-Cauchy

Étape de refroidissement

– Conditions de convergence

• Conditions sur la fonction d’énergie E

• Condition sur la température Tt

• Condition sur le pas de temps dt

– dt doit être suffisamment « petit » et tendre vers zéro

grand"nt suffisamme" ; lim 2ln cT t

ctt

Page 54: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

54

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Équation de la diffusion (suite)– Description algorithmique

t = 0 | - Initialisation du temps T T0 | - Température initiale Pt

P0 | - Pas de temps initial Xt X0 | - Configuration de départ Répéter

wt,i N(0,Pt) | - Mouvement brownien

NiwTPxxxx t,ii

tt,iiPtt ,1, ; 2 E - tt,

Tt+Pt g(Tt) | - g et h sont strictement décroissantes Pt+Pt h(Pt) t t + Pt

Jusqu’à critère d’arrêt vérifié

Page 55: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

55

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Équation de la diffusion (suite et fin)

– Choix des paramètres

• Paramètres commun avec le recuit « classique »

– Même approche que pour le recuit simulé

• Paramètre spécifique à cette méthode : le pas de temps

– Schéma de décroissance exponentiel (comme pour la température)

1 01 0

PT

tPT

oùoù

PPTT

t

t

PttPt

Page 56: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

56

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Recuit simulé adaptatif (Adaptive Simulated Annealing)– Définition (Ingber - 1989)

adaptation de l’algorithme du recuit simulé « classique »

• Association à la température existante d’un temps de recuit

– Tt désigne la température au temps de recuit t ;

– Tt est toujours utilisé dans la phase d’acceptation

• Association à chaque variable à optimiser d’un temps de recuit

et d’un schéma de température

st,sts txT s recuit de au temps variablela à associée re températula désigne ,

Page 57: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

57

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Recuit simulé adaptatif (suite)– Définition

• Remarques :

– les temps de recuit son utilisés pour abaisser les températures;

– la température propre à une variable est utilisée dans la phase d’exploration utilisée pour perturber la variable;

elle évolue de sorte que si la variable influe fortement sur la fonction E

la perturbation soit plus réduite

• Procédure supplémentaire : phase de reannealing

– Rééchelonnement de toutes les températures à intervalle régulier des remontées de températures sont possibles

– Modification des temps de recuit

– Remarque : on peut se passer de cette phase si on le désire

Page 58: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

58

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Recuit simulé adaptatif (suite)– Schéma de l’algorithme

Initialisation Exploration Acceptation

ReannealingRefroidissement

Fin

Oui

Non

NonOui

Oui

Non

1 2

3

1. Ngen config. générées ?

2. Nacc config. acceptées ?

3. Critère d’arrêt vérifié ?

Page 59: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

59

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Recuit simulé adaptatif (suite)– Description des différentes phases de l’algorithme

Phase d’exploration– Construction d’une nouvelle configuration Yt

– Chaque variable ys,t de la configuration est obtenue comme suit :

NtNttt yyyY ,, 1,,1

ssst,sssst,st,s y λ x y sup ; inf , inf - sup

vérifiantaléatoire variableuneest qui 1;1- et ,1, avec sNs

aléatoire variableuneest 0;1 où 1 - 1 1 - sgn s

1 - 2

,21

s

s

s

tss,tss

TT

Page 60: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

60

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Recuit simulé adaptatif (suite)– Description des différentes phases de l’algorithme

Phase d’acceptation– La nouvelle configuration Yt est acceptée avec la probabilité

t

1)E( - )E( exp 1

1 , 1min ,, P

TXY

XXYXtt

t0tt

Page 61: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

61

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Recuit simulé adaptatif (suite)– Description des différentes phases de l’algorithme

Phase de reannealing

Calcul des dérivés partielles de E au point Xmin qui a la plus petite

énergie jusqu’à présent

minminmin E - 1 E E xxxxd s

ss

1 à égaleposition ième la à sauf zéros des que comportant ne dimensions N à un vecteurest 1

et

zéro de procheest

i

Page 62: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

62

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Recuit simulé adaptatif (suite)– Description des différentes phases de l’algorithme

Phase de reannealing

Rééchelonnement des températures et temps de recuit

N

s

tsss,t

s

Nts

TT

ctT

dddT s

ss

0,

,1, ln 1 et ,,max

,ln 1 - t

t

t

0 c

TT

cT

T N

0

est réinitialisée

est réinitialiséeet N

Page 63: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

63

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Recuit simulé adaptatif (suite)– Description des différentes phases de l’algorithme

Phase de refroidissement

– Mise à jour des temps de recuit

– Schéma de décroissance des températures

1

1

tt

tt ss

N

1

1

-exp

-exp

0

s,0,

tcTT

tcTT

t

sts Ns

Page 64: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

64

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Recuit simulé adaptatif (suite et fin)– Choix des paramètres

• Valeur fixe

– Température initiale :

– Initialisation des températures propres aux variables :

– Tous les temps de recuit ont pour valeur initiale zéro

• À spécifier par l’utilisateur– Nombre de configurations acceptées avant déclenchement du reannealing

– Nombre de configurations générées avant déclenchement du refroidissement

– Le facteur c Problèmes de traitement du signal c [1;10]

Calcul possible à partir de T0 et du temps de recuit maximum

– Critère d’arrêt - même choix que pour le recuit « classique »

choix non critique (a priori) grâce à l’auto-adaptation de l’algorithme

entaléatoirem généréeétant ' , 'E 0 XXT

1,0 0, sT

genN

accN

Page 65: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

65

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Parallélisations– Recuits multiples parallèles

• Indépendants

– La solution finale est la configuration qui est d’énergie minimale, parmi

toutes les configurations obtenues par les différents processeurs

– Accélération restant limitée

• Avec interaction périodique

P0

P1

Pp-1

P2

La solution finaleest la configuration

retenue par Pp-1

Page 66: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

66

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Parallélisations (suite)– Recuits multiples parallèles

• Multi-températures

faire évoluer en parallèle des recuits simulés à

une température différente pour chaque processeur

– Interaction périodique des processeurs propagation des configurations

– Deux modes de propagation :

déterministe (Graffigne - 1992) - propagation d’une températures vers

une température plus basse;

probabiliste (Aarts & van Laarhoven - 1986)

Page 67: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

67

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Parallélisations (suite)– Recuits multiples parallèles

• Multi-températures

déterministe

P0

P1

Pp-1

T0

T1

Tp-1

l 2l 3l 4l (L-1) l L itérations

– Chaque processeur d’indice différent de zéro choisit la meilleure configuration entre celle qu’il a reçu et sa configuration courante

– Schéma de communication des processeurs pas de synchronisation globale utilisation de communications non-bloquantes

Page 68: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

68

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Parallélisations (suite)– Recuits multiples parallèles

• Multi-températures

probabiliste (également dit « systolique »)

P0

P1

Pp-1

T0

T1

Tp-1

L/p (2L)/p (3L)/p ... ... ... itérations

– Chaque processeur engendre p sous-chaînes de configuration de longueur (L/p)

– Le processeur Pj, j > 0, ne démarre sa sous-chaîne à température T que lorsque Pj-

1 a fini de générer la sienne à la même température

Page 69: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

69

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Parallélisations (suite)– Recuits multiples parallèles

• Multi-températures

probabiliste (également dit « systolique »)

– Le choix des configurations se fait de façon probabiliste :

– Adapté à un réseau de processeurs ayant comme topologie un anneau

nn-

nj,n-

nn-

nnj

j

njnj

njj,n

pppX

pppX

P

TPXTPX

1

11

1,1

1-1,

1-1-

P ; P

:suit comme ionsconfigurat des unechoisit

re températula à par obtenue config. laest re températula à par obtenue config. laest

1-

1-1

1,-

E -exp

E -exp 1 E -exp Z1

1

x

T

n

j,n

Tn

n

nj

Tn

TXZ

TX

Zp

TXp

nn

Page 70: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

70

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Parallélisations (suite)– Essais multiples

P0

P1

Pp-1

T0 T1

– Granularité - nombre de processeurs fixe, longueur des sous-chaînes variable Synchronisation à la première configuration acceptée

Synchronisation au bout de plusieurs configurations acceptées

idéalement, la longueur doit croître tandis que la température décroît

– Granularité - nombre de processeurs évoluant dynamiquement

Page 71: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

71

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Parallélisations (suite)– Ferme de processeurs

• Principe

– Processeur maître soumet des configurations aux « esclaves »

– Processeurs esclaves évalue et teste l’acceptation d’une configuration

Dès qu’une configuration est acceptée le maître est avertit

Le maître synchronise alors tous les esclaves

• Remarques

– Chaîne de configurations identique à celle qu’on obtiendrait en séquentiel

– Stratégie pas très efficace à haute température intérêt limité

Page 72: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

72

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Parallélisations (suite)– Calculs spéculatifs (White & al. - 1991)

• Principe

– Calcul de manière anticipée de la configuration suivante sans

savoir si la configuration courante sera acceptée ou refusée

– Pendant qu’un processeur évalue la configuration courante,

deux autres processeurs évaluent chacun une configuration qui

potentiellement la suivrait

construction d’un arbre binaire

d’acceptation ou de refus des configurations

Page 73: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

73

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Parallélisations (suite)– Calculs spéculatifs

• Arbre binaire d’acceptation ou de refus

– Quand la suite de décision aboutit à une feuille, la feuille devient la racine

• Remarques– Arbre binaire équilibré de p processeurs accélération = log2(p+1)

– Type d’arbre non adapté au recuit simulé Taux d ’acceptation variable avec T déséquilibrage de l’arbre suivant T

15 processeurs

Page 74: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

74

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Parallélisations (suite)– Parallélisme massif

• Recuit simulé discret– Utilisable sur des problèmes particuliers, par exemple en analyse d’images;

– dans ce cas l ’image est vue comme un champs de variables aléatoires

chaque variable correspond à un pixel, avec pour valeur un niveau de gris

nNnsnnnNnsnnnn xxxxxXXXXX ,,,,, ,,,,, ,,2,,1,,2,,1

• Zone rouge = « voisinage » du pixel gris

• Mise à jour du pixel gris calculs sur son « voisinage »

• Calculs propres à un pixel gris calculs sur un seul processeur

• Fonction d ’énergie = somme de fonctions d’interactions locales (une par pixel gris)

Page 75: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

75

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Recuit simulé et méthodes liées

• Parallélisations (suite)– Parallélisme massif

• Équation de la diffusion– Principe

Optimisation de chaque variable à optimiser sur un processeur Remise à jour en parallèle de toutes les variables

t = 0 | - Initialisation du temps T T0 | - Température initiale Pt

P0 | - Pas de temps initial Xt X0 | - Configuration de départ Répéter Pour chaque processeur Pi, i {1,…,N}

wt,i N(0,Pt) | - Mouvement brownien

NiwTPxxxx t,ii

tt,iiPtt ,1, ; 2 E - tt,

Fin pour Tt+Pt g(Tt) | - g et h sont strictement décroissantes Pt+Pt h(Pt) t t + Pt

Jusqu’à critère d’arrêt vérifié

• Parallélisations (suite)– Parallélisme massif

• Équation de la diffusion– Algorithme parallèle

Page 76: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

76

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Plan du cours

Introduction

Optimisation combinatoire

Généralités sur les métaheuristiques

Recuit simulé et méthodes liées

Algorithmes évolutionnaires

Étude de cas

Page 77: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

77

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Origine des algorithmes évolutionnaires

– Obtenus par analogie avec :

• le processus de l’évolution et de la sélection naturelle

(basé sur le néodarwinisme - Charles Darwin - 19ième siècle)

– Sous l ’influence des conditions extérieures, les caractéristiques des êtres

vivants se modifient progressivement lors de la phase de reproduction

– Générations d’individus mieux adaptés aux conditions complexes de

leur environnement, maximisant donc leur probabilité de survie

– Émergence des espèces qui ont survécu en transmettant leur patrimoine

génétique aux générations futures.

Page 78: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

78

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Origine des algorithmes évolutionnaires (suite)

– Principe

Faire évoluer les individus d’une population au moyen

d’opérateurs stochastiques afin de favoriser l’émergence

d’individus dont l’évaluation / l’adaptation est meilleure

Page 79: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

79

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Origine des algorithmes évolutionnaires (suite)

– Principe

• Population initiale d’individus

• Génération successive de nouvelles populations

– Succession d’itérations dénommées générations

– À chaque génération, application de plusieurs opérateurs :

croisement (mélange du matériel génétique)

mutation (perturbation du matériel génétique)

sélection (basé sur l’évaluation des individus - fonction d’évaluation)

(les individus en utilisés par un opérateur sont appelées les parents;

ceux obtenus en sortie les descendants /enfants)

Page 80: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

80

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Glossaire

– Individu

• une instance du problème à traité

– Population

• ensemble d’individus évoluant simultanément

– Génération

• itération de la boucle de base de l’algorithme évolutionnaire

– Fonction d ’évaluation / adaptation (fitness function)

• fonction permettant d’évaluer l’adaptation d’un individu

Page 81: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

81

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Glossaire (suite)

– Génotype (ou chromosome)• représentation sous forme de code / suite de gènes

(à l ’aide d’un alphabet) d’un individu

– Phénotype• représentation réelle d’un individu (instance du problème d’opt.)

Illustration des notions de génotype / phénotype• Le phénotype est obtenu par « décodage » du génotype

010111001101110110193,171,9 ;13,,0200,,0,1000, ,,

321

xxx

Phénotype Génotype (binaire classique)

Page 82: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

82

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Glossaire (suite)– Gène

• un élément d’un génotype, i.e. un des symboles

– Allèle• variante d’un gène , i.e. la valeur d’un symbole

– Croisement / recombinaison (crossover)• combinaison de deux individus pour engendrer un ou deux

nouveaux individus

– Mutation• modification aléatoire d’un individu

– Sélection• choix des individus formant la nouvelle population

Page 83: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

83

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Analogie problème d’optimisation / algo. évolutionnaire

Problème Théorie

d'optimisation de l'évolution

fonction de coût / objectif C(x )

fonction de fitness définie à partir de C(X )

variables du problème "caractéristiques" d'un individu

trouver une "bonne" config.trouver l'individu le mieux

adapté

algorithme évolutionnaires

Page 84: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

84

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Algorithmes retenus (rappel)

– opérant au niveau génotypique

• Algorithmes génétiques

– opérant au niveau phénotypique

• Stratégies d ’évolution

• Évolution différentielle

Page 85: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

85

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Schéma

Population

courante

Population de

descendants

Population de

descendants mutés

Population

évaluée

Croisement

Évaluation

Sélection Mutation

Page 86: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

86

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Description algorithmiquet = 0 | - Compteur des générations Initialisation(P(t)) | - tatatP ,, 1

Évaluation(P(t)) | - tata ,,1 Tant que critère d’arrêt non vérifié faire t = t + 1 P’(t) = Croisement(P(t-1)) (ou Recombinaison) Mutation(P’(t)) Évaluation(P’(t)) P(t) = Sélection( tQtP ' ), 1-, tPtQ Fin tant que

Population comportant individus (les aj)

dénote la fonction de fitness

Page 87: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

87

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Remarques– Croisement et mutation sont chargés de la reproduction

• calqués sur leur pendant biologique;

– Le croisement assure l’échange d’informations entre individus

– La mutation doit introduire de nouvelles informations

• assurent l’exploration de l’espace de recherche

– La sélection guide la recherche• en favorisant la reproduction des meilleurs individus

de la population courante;

• opérateur assurant la convergence (non divergence génétique)

de l’algorithme évolutionnaire

– L’élitisme (garder le meilleur individu trouvé) assure la convergence

Page 88: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

88

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

Algorithmes génétiques

Stratégies d’évolution

Évolution différentielle

Représentation Binaire ; réelle ;

spécifique Réelle Réelle

Auto-adaptation Aucune Ecarts types ;

angles de rotation Aucune

Croisement (recombinaison)

Multipoint ; Uniforme ; Arithmétique

Discrète ; Intermédiaire (Multipartenaire, gén.)

Mutation Inversion de bits, … Gaussienne

Individus intermédiaires ; Croisement circulaire à

deux points

Sélection Déterministe et

probabiliste Déterministe :

Déterministe :

Tournoi binaire

Étude théorique Théorie des schémas Modèle markovien Convergence (élitiste)

Convergence : Vitesse ; Preuve (certains cas)

Aucune

SE ; ,SE

Page 89: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

89

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Algorithmes génétiques (Holland / De Jong - 1975)

– Travail au niveau génotypique (en principe)• Codage binaire

– Binaire classique Inconvénient : petite modif. sur le génotype grande différence phénotypique

– Code de gray Gomme partiellement l ’inconvénient du code binaire classique

(utilisables pour résoudre un problème discret discrétisation)

• Codage spécifique au problème considéré

– Voyageur de commerce (5 villes) On désigne les villes par des lettres de l’alphabet;

ou par des entiers consécutifs;

etc.

01011010 a

E D C BA 1 aD EA B C 2 a

5 4 3 2 1 '1 a

Page 90: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

90

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Algorithmes génétiques (suite)

• Mutation (probabilité de mutation pm fixée par l’utilisateur - faible)

– Opérateurs de croisement et de mutation - Illustration• Représentation binaire

• Croisement multipoint (probabilité de croisement pc - proche de 1)

Page 91: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

91

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Algorithmes génétiques(suite)– Opérateur de sélection

• Sélection proportionnelle non préservative

• Sélection sur le rang

• Sélection par tournois– Tournoi entre deux individus tournoi binaire

– Tournoi au sein d’une sous-population créée aléatoirement

• Remarques– Sélection probabiliste un individu peut être choisi plusieurs fois

– Un individu nettement meilleur peut devenir dominant super-individu

,1, problème,du epotentiellsolution ,codant individu l'est jxa jj

j'j'j xtPaxa j C - 1- Cmax

1-,1,

tPk

k

jjs

aaap

Page 92: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

92

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Problème considéré

Recalage d’image médicales monomodales

(IRM / IRM) par fonction de similarité

– Vecteur de paramètres• Translation 3D

• Rotation 3D

– Fonction de coût à minimiser - Similarité quadratique• I : image de réf.

• J : image source

RotationnTranslatio

,,,,, zθyθxθztytxtΘ

s

Θ ss 2TJI.TJ,.IC

Page 93: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

93

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Stratégies d’évolution (Schwefel - 1981 / 1995)– Représentation et fonction d’évaluation

• Population (travail au niveau phénotypique)

et spécifient une distribution multinormale de moyenne nulle

• Fonction d’évaluation (de fitness)

,1, , ; - ,, n j xa jjjj N n+

,N1, n

2/120, nnNn

C jj xa N

.TJ,.IC et , : Recalage jjjjj aa

Page 94: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

94

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Stratégies d’évolution (suite)– Recombinaison

,11, ,, jσ'x'a' jjj

Nix'x' ijj ,1, , ,

/2 /2

ou ou

'

,,

,,

,,

,,

,

,

,

iS,iTiS

iST,iiS

iS,iTiS

iST,iiS

,iTiS

T,iiS

ij

xxxxxx

xxxxxxxxxx

x

i

i

i

Discrète

Multi-partenaire discrète

Intermédiaire

Multi-partenaire intermédiaire

Généralisée intermédiaire

Multi-partenaire généralisée interm.

interm. gén. part.-multi ; interm. : Recalage j j

Page 95: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

95

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Stratégies d’évolution (suite)– Mutation

1,0N

1,0N 1,0Nexp ,

,

ijj,ij,ij,i

ijjj,ij,i

jjτ,τ'jτ,τ'

σ'x'x'ττ'σ'σ'

,σσx'ma'm

Page 96: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

96

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Stratégies d’évolution (suite)Mutation simple

n = 1Mutation simple

n = 2Mutation corrélée

n = 2, n = 1

Hyperellipsoïdes de mutation (Recalage : mutation simple n = 6)

– Sélection• Stratégie d ’évolution ( , ); (soit parents, descendants)• Stratégie d ’évolution ( + ) ; (+ = élitisme)

Page 97: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

97

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Stratégies d’évolution (suite et fin)

– Choix des paramètres• Initialisation de la population de départ (paramètres à optimiser)

– Échantillonnage aléatoire de l’espace de recherche;

– génération de -1 individus en perturbant un individu tiré aléatoirement;

– plus est petit plus la recherche est guidée

• Paramètres de la mutation

• Critère d’arrêt

– Un nombre maximum de générations engendrées (tmax)

n21 ,

21 '

τn

τ

Page 98: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

98

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Évolution différentielle (Price & Storn - 1995)– Représentation et fonction d’évaluation

• Population (travail au niveau phénotypique)

• Fonction d’évaluation (de fitness)

– Idée à la base de la phase de reproduction

• Utiliser la différence entre deux individus choisis aléatoirement

dans la population pour en perturber un troisième

,1, , j xa jj N

C jj xa N

.TJ,.IC et : Recalage jjjj aa

Page 99: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

99

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Évolution différentielle (suite)– Comment engendrer une nouvelle population

• Croisement circulaire à deux points (Étape 2)

• Sélection par tournoi binaire

Page 100: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

100

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Évolution différentielle (suite)

,2,1, forme la de supposéssont individus Les jjjj xxxa

Page 101: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

101

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Évolution différentielle (suite et fin)– Choix des paramètres

• Initialisation de la population de départ

– Les individus doivent être bien dispersés dans l’espace de recherche;

– mêmes remarques que pour les stratégies d’évolution

• Paramètre pour engendrer l’individu intermédiaire (Étape 1)

• Paramètre pour le croisement (Étape 2)

• Critère d’arrêt

– Le même que dans les stratégies d’évolution

1 ; avec 21 FF

0,30 cp

Page 102: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

102

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Parallélisations

– au niveau population

Division de la population en sous-populations (« îlots »)

• Gros grain

• Avec ou sans migration d’individus

– au niveau individus

Distribution de la population : un individu par processeur

• Grain plus fin (data-parallélisme)

• Importance de la topologie du réseau de communications

Page 103: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

103

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Algorithmes évolutionnaires

• Parallélisations (suite et fin)– au niveau population - à gros grain

– au niveau individus - à grain fin

Population

SP1

Division

SP2

SP4 SP3

Sous-Populations

Individus

A B C D E FDistribution

A B C

D E F

Processeurs

Page 104: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

104

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Hybride parallèle

• Combiner des algorithmes complémentaires

Hybride recuit simulé/algorithme génétique

• Principe

– Algorithme génétique data-parallèle

– Sélection probabiliste locale avec schéma de température

• Schéma commun à tous les processeurs

• Schéma propre à chaque processeur

Page 105: Michel Salomon Techniques doptimisation Les métaheuristiques I.U.T. Belfort-Montbéliard salomon@iut-bm.univ-fcomte.fr

105

© M

ichel S

alomon

2004-2005

Techniques d’optimisationMaster 2 - I.P.S.M.

Plan du cours

Introduction

Optimisation combinatoire

Généralités sur les métaheuristiques

Recuit simulé et méthodes liées

Algorithmes évolutionnaires

Étude de cas