i incertitudes et ambiguite dans la modelisation

197
i INSTITUT NATIONAL POLYTECHNIQUE DE GRENOBLE N˚attribué par la bibliothèque ---------- THESE pour obtenir le titre de DOCTEUR DE L’INPG Spécialité : Mécanique des Milieux Géophysiques et Environnement préparée au Laboratoire d’étude des Transferts en Hydrologie et Environnement (LTHE, UMR 5564, CNRS-INPG-IRD-UJF) dans le cadre de l’Ecole Doctorale Terre, Univers et Environnement présentée et soutenue publiquement par Isabella ZIN le 21 juin 2002 INCERTITUDES ET AMBIGUITE DANS LA MODELISATION HYDROLOGIQUE Discussion, développements méthodologiques et application à l’hydrologie de crue en Ardèche JURY M. Baldassare BACCHI Professeur, Université de Brescia (I) Président M. Keith BEVEN Professeur, Université de Lancaster (UK) Rapporteur M. Eric SERVAT DR IRD, Hydrosciences Montpellier Rapporteur M. Bruno AMBROISE DR CNRS, IMFS Strasbourg Examinateur M. Charles OBLED Professeur, INP Grenoble Directeur de thèse M. Georges-Marie SAULNIER CR CNRS, LTHE Grenoble Co-encadrant

Upload: truongminh

Post on 05-Jan-2017

254 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

i

INSTITUT NATIONAL POLYTECHNIQUE DE GRENOBLE

N˚attribué par la bibliothèque

- - - - - - - - - -

THESE

pour obtenir le titre de

DOCTEUR DE L’INPGSpécialité : Mécanique des Milieux Géophysiques et Environnement

préparée auLaboratoire d’étude des Transferts en Hydrologie et Environnement

(LTHE, UMR 5564, CNRS-INPG-IRD-UJF)

dans le cadre del’Ecole Doctorale Terre, Univers et Environnement

présentée et soutenue publiquement par

Isabella ZINle 21 juin 2002

INCERTITUDES ET AMBIGUITEDANS LA MODELISATION HYDROLOGIQUE

Discussion, développements méthodologiqueset application à l’hydrologie de crue en Ardèche

JURY

M. Baldassare BACCHI Professeur, Université de Brescia (I) PrésidentM. Keith BEVEN Professeur, Université de Lancaster (UK) RapporteurM. Eric SERVAT DR IRD, Hydrosciences Montpellier RapporteurM. Bruno AMBROISE DR CNRS, IMFS Strasbourg ExaminateurM. Charles OBLED Professeur, INP Grenoble Directeur de thèseM. Georges-Marie SAULNIER CR CNRS, LTHE Grenoble Co-encadrant

Page 2: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

ii

Page 3: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

Résumé - Abstract

Du fait de leur complexité et variabilité, les systèmes naturels ne peuvent être décrits et étudiés dans leurglobalité ; on a alors recours à la modélisation pour analyser et prévoir leur dynamique. Dans le domaine deshydrosystèmes, les théories actuellement disponibles ne peuvent tenir compte de tous les processus en jeu et deleurs interactions, notamment à cause de la grande hétérogéneité spatio-temporelle qui existe et de la difficultéà instrumenter l’ensemble des échelles hydrologiques. Tout ceci se traduit par de nombreuses incertitudes : surles données qui alimentent les modèles, d’abord, sur leur structure et les valeurs des paramètres, ensuite. Celanous questionne sur la fiabilité et la crédibilité de nos simulations. Ainsi, l’objectif principal de cette thèse étaitde comprendre si, et de quelle manière, nous pouvons quantifier globalement et rationnellement les différentesincertitudes qui affectent une modélisation, afin de les traduire en incertitudes sur les résultats attendus. Aprèsun diagnostic des méthodes existantes pour la prise en compte des différentes sources d’incertitude (notamment,la méthode GLUE), nous avons proposé une démarche nous permettant (i) d’identifier toutes les combinaisonsde paramètres ambiguës à une combinaison de référence (i.e. ayant toutes une probabilité d’être représentativesdu système réel en étude) ; (ii) de proposer des intervalles prédictifs sur les variables de sortie du modèle ; (iii)d’évaluer le gain informatif apporté par de données supplémentaires et/ou une modification de la structure dumodèle utilisé. L’application a été menée sur le bassin versant de Vogüé (Ardèche), représenté grâce à une versionsimplifiée du modèle pluie-débit TOPMODEL. Une analyse de sensibilité des simulations aux différentes sourcesd’incertitude a été effectuée, puis une comparaison entre les intervalles prédictifs proposés par notre nouvelleméthodologie d’évaluation de l’ambiguïté et la méthodologie GLUE a été proposée.

Due to their complexity and large variability, natural systems cannot be globally described and studied ; onemust rely on modelling to analyse and predict their dynamics. In the water resources framework, the instrumenta-tion and the theories which are currently available cannot account for all the processes and their interactions. Thisis primarily due to the existing spatial and temporal heterogeneity. Indeed, many uncertainties can be identified :first, on input data and also on the model structure and its parameter values. Those uncertainties affect the reliabi-lity and credibility of the simulations and thus our capacity to forecast and manage water resources. The aim of thisthesis is to understand if, and the manner in which, we can globally and rationally quantify the different sourcesof uncertainty affecting a simulation, in order to translate them into confidence intervals on the output variables.After a diagnosis of the existing methods for taking into account the different sources of uncertainty (notably, theGLUE methodology), a new approach has been suggested, allowing (i) to identify all sets of parameter values thatare ambiguous with respect to a given reference (i.e. all having a chance to be representative of the real systemin study) ; (ii) to propose a prediction interval on the output variables ; (iii) to evaluate the gain of informationprovided by additional data and/or a modification of the model structure. This new approach was applied to theVogüé catchment (Ardèche), using a simplified version of the rainfall-runoff TOPMODEL. A sensitivity analysisof the simulations to different sources of uncertainty was performed, a comparison was then made between thepredicted intervals on the outputs proposed by our new approach and those obtained by the GLUE methodology.

iii

Page 4: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

iv Résumé - Abstract

Page 5: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

Avant-propos

Les pages de ce mémoire reflètent sans doute l’écho des nombreuses rencontres que j’ai eula chance d’avoir pendant ces années de thèse. Je tiens à remercier ici toutes les personnes,qui, de près ou de loin, ont suivi mes évolutions.

En particulier, je remercie Michel Vauclin, Directeur du Laboratoire d’étude des Transfertsen Hydrologie et Environnement (LTHE), pour m’avoir accueillie au sein de son laboratoire,pour la confiance qu’il a toujours montré à mon égard et pour tout ce qu’il a pu me transmettrependant les moments “perdus” en salle café.

Georges-Marie Saulnier, Chargé de Recherche au LTHE, m’a proposé d’orienter mes tra-vaux sur les incertitudes de modélisation, puis a insisté pour que je les poursuive quand latentation de rebrousser chemin et de passer à autre chose était devenue très forte. Ainsi, c’estgrâce à lui que certains des résultats présentés dans ce mémoire ont vu le jour : je lui en suisreconnaissante.

Toute ma profonde gratitude va à Charles Obled, Professeur à l’Ecole Nationale Supérieured’Hydraulique et Mécanique de Grenoble (ENSHMG), qui, par ses idées, ses explications etses conseils, a fortement influencé ma “vision” de l’hydrologie. Je le remercie pour le soutien,aussi discret que constant, qu’il a apporté à cette thèse, pour les opportunités d’enseignementet d’encadrement qu’il m’a offertes et pour l’enthousiasme dont il a toujours fait preuve, no-tamment lors des visites de terrain en Ardèche et en Haute-Loire.

Baldassare Bacchi, Professeur à l’Université de Brescia, a bien voulu assurer la Présidencedu Jury, en y apportant, outre son expérience, une touche d’“italianité” . Je l’en remercie vive-ment.

Les travaux de Keith Beven, Professeur à l’Université de Lancaster, ont beaucoup inspirénos recherches. Il m’a donc fait un grand honneur en acceptant d’être Rapporteur de ce mé-moire. Je n’ai pas oublié les discussions passionnantes que nous avons eues à propos de l’équi-finalité/ambiguïté et j’espère que nous aurons encore d’autres occasions pour poursuivre ledébat (et résoudre le paradoxe ...).

v

Page 6: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

vi Avant-propos

Eric Servat, Directeur de Recherche de l’Institut de Recherche pour le Développement (IRD)à Montpellier a également accepté d’être Rapporteur de mes travaux. Je le remercie chalereu-sement pour le temps précieux qu’il a consacré à cette tâche, malgré son agenda chargé, etpour ses remarques, qui m’ont permis, je l’espère, d’améliorer la forme définitive du rapport.

J’adresse mes plus vifs remerciements à Bruno Ambroise, Directeur de Recherche à l’Insti-tut de Mécanique des Fluides et des Solides (IMFS) de Strasbourg, pour ses questions de fond,pertinentes et aiguës, au cours de la soutenance. J’admire beaucoup son esprit critique et ri-goureux et j’espère pouvoir mériter par la suite ses encouragements.

Je remercie sincèrement Jean-Michel Grésillon, Directeur de l’ENSHMG, pour m’avoir ac-cueillie en tant qu’Attaché Temporaire de l’Enseignement de la Recherche au sein de son Ecole,ainsi que pour m’avoir confié une partie de ses enseignements. Guy Delrieu, Philippe Belleudy,Eric Barthélémy et Benjamin Loret ont montré la même confiance à mon égard : qu’ils en soientremerciés. Et bonne chance à Marie Paule Bonnet qui prend la suite !

Que cela soit à Grenoble, à Zürich, à Leuven, à Amsterdam ou ailleurs, plusieurs personnesse sont intéressées à mes travaux, me donnant l’élan pour continuer. Je remercie en particulierDaniel Duband, Pierre Goovaerts, Gerard Heuvelink, Rémy Garçon, Paolo Burlando, CharlesPerrin, Nicolas Hoepffner, Catherine Ottlé, Marc Erlich, Eric Gaume, Lisbeth Lewan, RogerMoussa, Alessandro Brivio et Vincent Roche pour les remarques, les critiques et/ou les encou-ragements dont ils m’ont fait partie. C’est d’ailleurs en pensant à l’esprit rigoureux de Giovan-maria Lechi, Professeur au Politecnico de Milano, et à ses travaux de recherches concernantles aspects quantitatifs des mesures par télédétection (“nel tentativo di ridurre l’opinabile” ,comme il aime répéter), que j’ai écrit la première partie de ce mémoire.

Merci à tous les membres du LTHE que j’ai côtoyé pendant ces années, pour la chaleur deleur accueil et les discussions toujours enrichissantes, que cela soit autour d’un pot, d’un caféou dans les couloirs. Je me permets de distinguer Arona Diedhiou et Bruno Galabertier pourles soirées musique, les midis au RU, et tout, et tout ; Luc Descroix, pour sa bonne humeurpermanente et pour l’aide qu’il ne m’a jamais refusée ; Sandrine Anquetin, Thierry Lebel etSylvie Galle pour les nombreux conseils ; Jean-Pierre Vandervaere et Randel Haverkamp pourla confiance ; Michel Ricard pour ses accueils à St Pierre de Chartreuse ; Hervé Denis pourles dépannages, et notamment l’alim changée la veille de l’impression de cette thèse ; SylvianeFabry, Odette Nave, Hélène Rivaux et Agnès Agarla, lumières dans le brouillard de l’adminis-tration.

Helena Ramos, Hubert Onibon et José Soria ont partagé avec moi, durant deux bonnes an-nées, un bureau international, où nous avons mélangé les recits, les traditions, les images etles gâteaux de 4 continents. Je ne peux que souhaiter nos retrouvailles, un jour ou l’autre,

Page 7: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

Avant-propos vii

quelque part sur la planète ; alors : adeus, au revoir, adiós ! J’en profite pour remercier Phi-lippe Bois, qui a essayé de nous transmettre une partie de sa grande expérience d’hydrologueavec d’innombrables anecdotes (pendant les nombreuses pauses du bureau). Et pour souhaiterla bienvenue à Maud Balme et à Abdou Ali : à vous de continuer les traditions, maintenant !

Un grand merci à tous les autres thésards et post-doc du LTHE, avec qui j’ai passé desmoments bien agréables, et notamment à Alexis Berne, Gaël Derive, Guillaume Bontron, Sté-phanie Roulier, Céline Pallud, Wilfran Moufouma-Okia, Gilles Guillot, Thierry Pellarin, Em-manuelle Sauboua, Anne-Julie Schipman, Catherine Allain-Jégou, Tao Chen, Babacar N’Diaye,Duc Trihn Ahn, Noémie Varado, Soumia Serrar, Béatrice Normand, Christian Zammit, KatiaDurot, Romain Ramel, David Gélard, Guillaume Fourquet, Luis Mora et Alfonso Gutierrez.Bonne chance à ceux qui démarrent et bon courage à ceux qui voient la fin !

Une pensée particulière pour Fabien Miniscloux, compagnon de galère, et une autre pourLatif Djerboua, pour son amitié et tout ce qu’il m’a appris sur sa culture (et aussi pour le vindu pot ...).

Un clin d’oeil aux thésards du labo d’“à côté” (le LEGI) et en particulier à Paulo (& Isa-belle) da Costa, Philippe Marmottant, Mathieu Callenaere, Alexandre Beer, Gaëlle Huerre, Be-noît Camenen, Jérôme Soto et Pedro Olivas. Sans oublier ceux du Madylam : Karim Messadeket Valéry (& Ester) Botton.

C’est grâce à Rachel Datin que j’ai découvert la modélisation hydrologique “en pratique”. Du stage effectué au LTHE sous sa direction, il y a désormais six ans, j’ai gardé la passionpour la recherche et une amitié que j’espère durera encore longtemps. Merci pour avoir été là,le jour de la soutenance, comme pendant toutes les années de thèse !

Florentina Moatar a également fait le voyage de Tours, ce qui m’a beaucoup touchée. Jen’oublie pas la période où l’on était voisines de palier et où j’ai vu grandir Maxime et je nepeux souhaiter une autre rencontre très bientôt !

J’ai eu la chance d’encadrer au cours de cette thèse un certain nombre de stagiaires. Mêmesi la plupart des travaux que nous avons effectués n’apparaît pas dans ces pages, j’espère quetous auront apprécié autant que moi les moments passés ensemble. Merci donc à Lewis Tibe-rini, Jean-François Marquot, Eric Fontmorin, Aurélie André, Saadia Bellahmer et au “trio” desAI : Camille Daubord, Clothilde Godinot et Emilie Vaury.

Enfin, merci, en vrac, à tous ceux qui m’ont permis, à un moment ou à un autre, de relativiserles succès et les difficulités. En particulier à : Umberto, Maria et Andrea, Enrico, Laura et Luisa,Gigi, Giovanni et Chiara, Beppa et Alessandro, Marco, Emanuele ; Frédéric (bon courage !), Jef

Page 8: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

viii Avant-propos

et John ; Bruno, le Coach, ainsi que les membres de son équipe (et ce qui sont partis) ; Antoine,Armelle, Lionel, Nico et les autres, qui doivent encore se demander pourquoi je mets 6 mois àrépondre à leur mails, Arnaud et Sophie (merci pour la surprise !) ; Seba, Karim, Guido, Emi-liano, Raffaella, et Massimo.

Merci à la famille Tomasino pour le soutien dont elle m’a si souvent fait preuve.

Merci à mes parents, pour la curiosité qu’ils m’ont transmise, pour m’avoir ouvert les portesde l’Europe et pour toutes les chances qu’ils m’ont offertes. Merci à Chiara et à Alessandro pourleurs encouragements (c’est à vous maintenant !).

Et merci à Thierry. Pour tout.

Page 9: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

Table des matières

Résumé - Abstract iii

Avant-propos v

Introduction 1

I Incertitudes et ambiguïté : généralités 5

1 Généralités et rappels sur la modélisation hydrologique 7

1.1 Les modèles mathématiques : définitions et propriétés . . . . . . . . . . . . . . 8

1.2 Le problème de l’identification du modèle . . . . . . . . . . . . . . . . . . . . 10

1.3 L’estimation des paramètres et les problématiques associées . . . . . . . . . . 13

1.4 Sources d’erreur, d’imprécision et d’incertitude en modélisation hydrologique . 16

1.4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

1.4.2 Choix de la structure du modèle . . . . . . . . . . . . . . . . . . . . . 21

1.4.2.1 Limites théoriques . . . . . . . . . . . . . . . . . . . . . . . 21

1.4.2.2 Hypothèses de travail classiques . . . . . . . . . . . . . . . 22

1.4.2.3 Approximations numériques . . . . . . . . . . . . . . . . . 22

1.4.3 Quantité et qualité des données disponibles pour la modélisation . . . . 23

1.4.3.1 Imprécision de mesure . . . . . . . . . . . . . . . . . . . . . 24

1.4.3.2 Manque d’information . . . . . . . . . . . . . . . . . . . . . 24

1.4.3.3 Traitement des données . . . . . . . . . . . . . . . . . . . . 25

1.4.4 Spécification des paramètres . . . . . . . . . . . . . . . . . . . . . . . 26

1.4.4.1 Définition de paramètre équivalent ou effectif . . . . . . . . 26

1.4.4.2 Choix du critère de performance d’une modélisation . . . . . 28

ix

Page 10: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

x TABLE DES MATIÈRES

1.4.4.3 Dépendance du calage vis-à-vis de la série de données dispo-nibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

1.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2 Aperçu des principales techniques d’estimation des incertitudes 31

2.1 Quelques outils d’expression mathématique des incertitudes . . . . . . . . . . 33

2.1.1 Evaluation des incertitudes expérimentales . . . . . . . . . . . . . . . 33

2.1.2 Scénarii d’erreur et scénarii futurs . . . . . . . . . . . . . . . . . . . . 35

2.1.3 Techniques d’échantillonnage . . . . . . . . . . . . . . . . . . . . . . 36

2.1.4 Intervalles de dispersion . . . . . . . . . . . . . . . . . . . . . . . . . 41

2.1.5 Les ensembles flous . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

2.2 Approches locales pour l’évaluation des incertitudes de modélisation . . . . . . 44

2.3 Approches globales pour l’évaluation des incertitudes de modélisation . . . . . 50

2.3.1 La méthode Metropolis Monte Carlo . . . . . . . . . . . . . . . . . . . 51

2.3.2 L’analyse de sensibilité régionalisée (RSA) . . . . . . . . . . . . . . . 55

2.3.3 Le concept d’équifinalité et la Generalized Likelihood Uncertainty Es-timation (GLUE) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

3 Développements méthodologiques pour l’évaluation de l’ambiguïté d’une modéli-sation 63

3.1 Définition de l’ambiguïté . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

3.2 Implémentation d’une procédure pour l’évaluation de l’ambiguïté d’une modé-lisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

3.3 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

II Incertitudes et ambiguïté : application à la modélisation hydrolo-gique du bassin versant de Vogüé par TOPSIMPL 75

4 Contexte de l’étude 77

4.1 Description générale du bassin . . . . . . . . . . . . . . . . . . . . . . . . . . 78

4.2 Description des données disponibles . . . . . . . . . . . . . . . . . . . . . . . 82

4.3 Démarche de modélisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

4.3.1 Les indices pédo-topographiques dans TOPMODEL . . . . . . . . . . 84

4.3.2 TOPSIMPL : une version simplifiée de TOPMODEL . . . . . . . . . . 86

Page 11: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

TABLE DES MATIÈRES xi

4.3.3 Prise en compte de la variabilité spatiale des précipitations dans TOPO-DYN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

4.4 Reconstitution des épisodes pluie-débits observés . . . . . . . . . . . . . . . . 88

4.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

5 Sensibilité de la modélisation aux incertitudes sur les données 93

5.1 Propagation de l’incertitude sur les pluies moyennes krigées . . . . . . . . . . 94

5.1.1 Cas d’une erreur aléatoire indépendante d’un pas de temps à l’autre . . 96

5.1.2 Cas d’une erreur aléatoire corrélée d’un pas de temps à l’autre . . . . . 97

5.1.3 Sensibilité des simulations de débits aux incertitudes sur les pluies moyenneskrigées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

5.2 Prise en compte des incertitudes sur les débits observés . . . . . . . . . . . . . 103

5.2.1 Simulation des erreurs de mesure des hauteurs . . . . . . . . . . . . . 104

5.2.2 Analyse de l’incertitude liée au choix de la courbe de tarage . . . . . . 106

5.3 Considération simultanée des incertitudes sur les pluies et sur les débits . . . . 110

5.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

6 Analyse de l’incertitude de spécification des valeurs des paramètres 113

6.1 Sensibilité de la spécification des paramètres au choix de la fonction objectif . . 114

6.2 Dépendance du calage de la série de données disponibles . . . . . . . . . . . . 122

6.2.1 Analyse de sensibilité à la longueur de la série données . . . . . . . . . 123

6.2.2 Analyse de sensibilité au type de données disponibles . . . . . . . . . . 127

6.3 Prise en compte des incertitudes sur les données lors de la spécification . . . . 131

6.4 Conclusions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

7 Evaluation de l’ambiguïté des simulations des débits à Vogüé par TOPSIMPL 143

7.1 Recherche des combinaisons de valeurs des paramètres équifinales . . . . . . . 144

7.1.1 Implémentation de la méthode GLUE . . . . . . . . . . . . . . . . . . 144

7.1.2 Analyse de sensibilité de la distribution des valeurs des paramètres auxchoix du critère de séparation entre combinaisons acceptables et com-binaisons non acceptables . . . . . . . . . . . . . . . . . . . . . . . . 145

7.1.3 Contribution de l’analyse d’incertitude sur la spécification des valeursdes paramètres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152

7.2 Evaluation de l’ambiguïté des simulations des débits à l’exutoire de Vogüé . . . 159

Page 12: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

xii TABLE DES MATIÈRES

7.2.1 Implémentation de la méthode . . . . . . . . . . . . . . . . . . . . . . 159

7.2.2 Analyse de sensibilité au choix de la combinaison de valeurs des para-mètres de référence . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161

7.2.2.1 Ambiguïté par rapport à la combinaison optimisée sur l’en-semble des épisodes . . . . . . . . . . . . . . . . . . . . . . 162

7.2.2.2 Ambiguïté par rapport à la combinaison optimisée sur chacundes épisodes disponibles . . . . . . . . . . . . . . . . . . . . 163

7.2.3 Analyse des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . 165

7.3 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169

Conclusion générale 171

Page 13: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

Liste des tableaux

2.1 Deux exemples d’appariements possibles lorsqu’on échantillonne un vecteur bidimen-sionnel X = [U, V ] selon l’algorithme des hypercubes latins, avec nLHS = 5 . . . . . 41

6.1 Propriétés des fonctions objectifs utilisées pour le calage de TOPSIMPL . . . . . . . 115

6.2 Délimitation de l’espace des valeurs des paramètres explorées . . . . . . . . . . . . 116

6.3 Paramètres optimaux pour l’ensemble des épisodes disponibles sur le bassin de Vogüé . 116

6.4 Identification de 6 différents groupes de 4 épisodes pluie-débit . . . . . . . . . . . . 128

6.5 Tableau recapitulatif des numéros de figures représentant la sensibilité du calage desvaleurs des paramètres de TOPSIMPL aux incertitudes sur les chronologies de pluie(variable de forçage) et de débit (variable de vérification) observés . . . . . . . . . . 132

xiii

Page 14: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

xiv LISTE DES TABLEAUX

Page 15: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

Table des figures

1.1 Schématisation du processus d’identification d’un modèle (d’après Gupta et Soroo-shian, 1985 et Rosen, 1991) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.2 Comparaison entre complexité du problème posé, complexité du modèle et contenuinformatif des mesures pour trois modèles différents A, B, C . . . . . . . . . . . . . 11

1.3 Introduction des incertitudes dans les différents étapes d’identification du modèle . . . 17

1.4 Définition des incertitudes selon la norme ISO 5168 . . . . . . . . . . . . . . . . . 19

1.5 Définition de paramètre effectif . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

1.6 Définition de la porosité macroscopique en un point d’un milieu poreux selon unemoyenne volumétrique (dans Blöschl (1996), d’après Hubbert, 1956) . . . . . . . . . 28

2.1 Exemple d’échantillonnage aléatoire (reproduit de Saltelli et al., 2000) . . . . . . . . 37

2.2 Exemples d’échantillonnages stratifiés (reproduit de Saltelli et al., 2000) . . . . . . . 38

2.3 Exemple d’échantillonnage selon les hypercubes latins (reproduit de Saltelli et al., 2000) 39

2.4 Caractéristiques principales des ensembles flous . . . . . . . . . . . . . . . . . . . 43

2.5 Linéarisation d’un modèle à un seul paramètre autour d’une valeur nominale (d’aprèsKuczera, 1988) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

2.6 Cristallisation par recuit d’une assemblée de grains pentagonaux. A température nulleet à très forte concentration, les grains se réorganisent selon une disposition dite “pé-riodique - à miroir” . Cliché GMCM Rennes 1 . . . . . . . . . . . . . . . . . . . . 52

2.7 Probabilité d’échapper à un minimum local, à une pseudo-température T fixée, selonl’algorithme de Metropolis et al. (1953) . . . . . . . . . . . . . . . . . . . . . . . 53

2.8 Recherche d’un minimum local : (a) si on laisse tomber une bille dans un bol, elle vaosciller sur le fond avant de se stabiliser dans le point le plus bas. (b) Si on fait tomberla même bille sur une pente avec une remontée, elle peut s’y arrêter et tomber dans unminimum local. (c) Toutefois, si on lance la bille de plus haut ou avec plus d’énergie,celle-ci peut éviter le minimum local pour aller se nicher dans le minimum global . . . 54

xv

Page 16: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

xvi TABLE DES FIGURES

2.9 En haut : approche “classique” pour l’estimation des valeurs des paramètres : (a) re-cherche de la meilleure reproduction des données observées par optimisation (b) d’unefonction objectif. Ici, le point O correspond aux valeurs optimales des paramètres α∗

1 etα∗

2. En bas : implémentation de l’analyse de sensibilité régionalisée. Spécification descontraintes sur les réponses acceptables du modèle (c) et classification des valeurs desparamètres - points : valeurs acceptables, croix : valeurs non acceptables (d). D’aprèsBeck (1987) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

2.10 Séparation entre les fonctions de répartition cumulées des valeurs acceptables (traitcontinu) et des valeurs non acceptables (trait discontinu) des paramètres du modèle :cas d’un paramètre sensible aux observations (a) et d’un paramètre insensible (b). Dansles deux figures, la droite à 45˚représente la distribution de valeurs a priori (uniforme) . 58

2.11 Diagrammes de dispersion de valeurs de l’efficience obtenue en simulant des chronolo-gies de débit avec TOPMODEL. Chaque chronologie a été obtenue avec une différentecombinaison de valeurs des 6 paramètres du modèle générée par une méthode de MonteCarlo (reproduit de Freer et al., 1996) . . . . . . . . . . . . . . . . . . . . . . . . 60

2.12 Intervalles prédictifs sur les débits correspondant aux diagrammes de dispersion pré-sentés à la figure 2.11 (reproduit de Freer et al., 1996) . . . . . . . . . . . . . . . . 62

3.1 Deux possibles délimitations de l’espace des valeurs des paramètres à explorer dans lecas simple d’un modèle à deux paramètres α1 et α2. (a) Choix de valeurs minimaleset maximales pour chaque paramètre. (b) Introduction d’une connaissance a priori quel’on veut forcer (ici, la valeur du paramètre α2 doit toujours être supérieure à celle duparamètre α1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

3.2 Echantillonnage des combinaisons de valeurs des paramètres (a) en considérant desdistributions de probabilité indépendantes pour chaque paramètre ou (b) en considérantune distribution de probabilité conjointe . . . . . . . . . . . . . . . . . . . . . . . 67

3.3 Formalisation de l’incertitude sur les entrées : après avoir fait des hypothèses sur cetteincertitude, des scénarii de valeurs compatibles avec les observations sont générés . . . 68

3.4 NxK simulations de débits obtenues à partir de K différentes combinaisons échan-tillonnées de valeurs des paramètres (ici, nous avons considéré deux paramètres α1 etα2), chacune conditionnée aux incertitudes sur les entrées (N scénarii de pluies) . . . 69

3.5 A chaque pas de temps, chaque combinaison de valeurs des paramètres échantillonnéefournit un nombre de simulations de la variable de sortie égal au nombre de scéna-rii générés pour formaliser les incertitudes sur les entrée : ces différentes simulationsconstituent une distribution de valeurs possibles de la variable pronostique. On peutalors comparer, pas de temps par pas de temps, la distribution de valeurs obtenue avecune combinaison de valeurs des paramètres avec celle fournie par une combinaison deréférence. Plusieurs mesures de similitude entre les deux distributions sont possibles :ici, un test du χ2 est proposé . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

Page 17: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

TABLE DES FIGURES xvii

3.6 Evaluation et cartographie de l’ambiguïté interne du modèle (i.e. identification des com-binaisons de valeurs des paramètres qui donnent des simulations non significativementdifférentes). (a) En rouge, les combinaisons de valeurs des paramètres ambiguës à lacombinaison représentée par une croix, prise comme référence. Comme ces combinai-sons de valeurs sont dans des régions de l’espace bien distinctes, elle peuvent expliciterune compensation du modèle dans la simulation de processus couplés. (b) En bleu,les combinaisons de valeurs des paramètres ambiguës à la référence (croix bleue). Descombinaisons de paramètres ambiguës couvrant une région de l’espace orientée selonune certaine directrice montrent une corrélation entre les paramètres ; (c) La cartogra-phie complète, dans l’espace des valeur possibles des paramètres, des combinaisonsambiguës entre elles peut donner des informations sur les propriétés de la structure dumodèle : l’idéal serait de ne trouver aucune région de l’espace des valeurs ambiguë àune autre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

3.7 Inter-comparaison des modèles par observation de la cartographie des combinaisons devaleurs des paramètres ambiguës . . . . . . . . . . . . . . . . . . . . . . . . . . 74

4.1 Panoramas ardéchois. Du haut vers le bas et de la gauche vers la droite : un versantdans le massif de la Croix de Bauzon ; des roches basaltiques à Mirabel ; l’Ardèche àAubenas ; l’Ardèche à Vogüé ; le bassin à Villeneuve de Berg ; les gorges de l’Ardèche 79

4.2 Bassin versant de Vogüé : topographie et réseau hydrographique (pas du M.N.T. : 75 m) 80

4.3 Stations de mesure en Ardèche. Le bassin de Vogüé est en jaune . . . . . . . . . . . 81

4.4 Courbes de tarage à Vogüé entre 1984 et 1999 . . . . . . . . . . . . . . . . . . . . 82

4.5 Champs de pluies krigés de l’épisode du 22 septembre 1993 sur le bassin de Vogüe(640km2). Le pixel de pluie a une surface de 1km × 1km. Les intensités pluvieusesdessinées sont les valeurs moyennées sur une heure . . . . . . . . . . . . . . . . . 88

4.6 Débits mesurés et calculés à Vogüé avec TOPSIMPL et TOPODYN. Episode du 22septembre 1993 (reproduit de Datin, 1998) . . . . . . . . . . . . . . . . . . . . . . 89

4.7 Sensibilité à la résolution spatiale du champ de pluie krigé du calcul par TOPODYN dupic de débit de la crue du 22 septembre 1993 sur le bassin de Vogüe . . . . . . . . . 91

5.1 Scénarii de pluies probables générés pour l’épisode du 2 novembre 1994 sur le bassinde Vogüé sous l’hypothèse d’erreurs indépendantes. Ligne épaisse : moyennes ; lignescontinues plus fines : intervalle inter-quantile 10%-90% ; traits discontinus : enveloppes 97

5.2 Scénarii de pluies probables générés pour l’épisode du 2 novembre 1994 sur le bassinde Vogüé sous l’hypothèse d’erreurs auto-corrélées. Ligne épaisse : moyennes ; lignescontinues plus fines : intervalle inter-quantile 10%-90% ; traits discontinus : enveloppes 98

Page 18: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

xviii TABLE DES FIGURES

5.3 Intervalles inter-quantiles 10%-90% moyens (en haut à gauche), moyens sans tenircompte des intervalles nuls (en haut à droite), minimaux sans tenir compte des inter-valles nuls (en bas à gauche) et maximaux (en bas à droite) correspondant aux différentsscénarii de pluies plausibles pour la totalité des épisodes, sous l’hypothèse d’erreurs in-dépendantes (en abscisses) et auto-corrélées (en ordonnées) . . . . . . . . . . . . . 99

5.4 Scénarii de débits correspondant aux différents scénarii de pluies probables pour l’épi-sode du 2 novembre 1994 sur le bassin de Vogüé : en haut, sous l’hypothèse d’erreursindépendantes ; en bas, sous l’hypothèse d’erreurs auto-corrélées . . . . . . . . . . . 100

5.5 Intervalles inter-quantiles 10%-90% moyens (en haut à gauche), moyens sans tenircompte des intervalles nuls (en haut à droite), minimaux sans tenir compte des inter-valles nuls (en bas à gauche) et maximaux (en bas à droite) des simulations de débits ob-tenues avec les différents scénarii de pluies, sous l’hypothèse d’erreurs indépendantes(en abscisses) et auto-corrélées (en ordonnées), pour la totalité des épisodes . . . . . . 101

5.6 Sensibilité de la valeur de l’efficience aux incertitudes d’estimation de la pluie moyennesur le bassin (en haut, sous l’hypothèse d’erreurs indépendantes d’un pas de tempsà l’autre ; en bas, sous l’hypothèse d’erreurs auto-corrélées) pour l’épisode du 2 no-vembre 1994 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

5.7 Sensibilité de la valeur de l’efficience aux incertitudes d’estimation de la pluie moyennepour 17 épisodes pluie-débits observés : médianes (ligne épaisse), intervalles inter-quantiles 10-90% (lignes fines) et plages min-max (+). A gauche, sous l’hypothèsed’erreurs non corrélées ; à droite, sous l’hypothèse d’erreurs auto-corrélées . . . . . . 103

5.8 En haut : hauteurs (ligne fine) et débits observés (ligne épaisse). En bas : largeur desintervalles inter-quantiles 10-90% des scénarii bruitées de hauteur (ligne fine) et desdébits (ligne épaisse) correspondants. Episode du 2 novembre 1994 . . . . . . . . . . 105

5.9 Episode du 2 novembre 1994 : débits simulés correspondant à différentes initialisationsdu modèle resultantes d’une incertitude de 3% sur la mesure de hauteur à l’exutoire deVogüé. Les 300 simulations sont confondues . . . . . . . . . . . . . . . . . . . . . 105

5.10 Sensibilité de la valeur de l’efficience aux incertitudes d’estimation des hauteurs pour17 épisodes pluie-débits observés : médianes (ligne épaisse), intervalles inter-quantiles10-90% (lignes fines) et plages min-max (+) . . . . . . . . . . . . . . . . . . . . . 106

5.11 Scénarii de débits simulés par TOPSIMPL en initialisant le modèle avec les débitsobtenus à partir des 6 différentes courbes de tarage pour l’épisode du 2 novembre 1994(à gauche) et impact sur la valeur de l’efficience (à droite). Episode du 2 novembre 1994 107

5.12 Episode du 2 novembre 1994 : scénarii de débits obtenus en considérant une erreurde 3% sur la mesure des hauteurs et une indétermination sur les six courbes de taragedisponibles à Vogüé pour la période 1984-1999 (ligne épaisse : moyenne ; lignes fines :intervalle inter-quantiles 10-90% ; lignes pointillées : enveloppe min-max) . . . . . . 108

Page 19: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

TABLE DES FIGURES xix

5.13 Episode du 2 novembre 1994 : distribution des efficiences obtenues en comparant lachronologie de débit simulée par TOPSIMPL aux différents scénarii de débits tenantcompte des erreurs de mesure des hauteurs et de l’indétermination de la courbe de tarage 109

5.14 Sensibilité de la valeur de l’efficience aux incertitudes de mesure des hauteurs et à l’in-détermination de la courbe de tarage pour 17 épisodes pluie-débit observés : médianes(ligne épaisse), intervalle inter-quantile 10-90% (lignes fines) et plage min-max (+) . . 109

5.15 Impact sur la valeur de l’efficience des incertitudes sur les pluies et les débits observés- Episode du 2 novembre 1994 . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

5.16 Sensibilité de l’efficience aux incertitudes sur les pluies et sur les débits observés pour17 épisodes pluie-débits observés : médianes (ligne épaisse), intervalles inter-quantiles10-90% (ligne fines) et plages min-max (+) . . . . . . . . . . . . . . . . . . . . . 111

6.1 Dispersion des valeurs de l’efficience de Nash résultant du calage de TOPSIMPL surles 35 épisodes pluie-débits disponibles . . . . . . . . . . . . . . . . . . . . . . . 117

6.2 Dispersion des valeurs du coefficient de détermination résultant du calage de TOP-SIMPL sur les 35 épisodes pluie-débits disponibles . . . . . . . . . . . . . . . . . 118

6.3 Projections de la surface de réponse de TOPSIMPL autour de la combinaison de pa-ramètres optimale dans le cas d’utilisation de l’efficience de Nash comme fonctionobjectif : les plans horizontaux représentent, du haut vers le bas et de la gauche vers ladroite, les plans K0 −M , K0 −SRMax, K0 − Inter, M − Inter, SRMax− Inter

et M − SRMax. Les intervalles de variations des paramètres sont ceux du tableau 6.2 119

6.4 Projections de la surface de réponse de TOPSIMPL autour de la combinaison de para-mètres optimale dans le cas d’utilisation du coefficient de détermination comme fonc-tion objectif : les plans horizontaux représentent, du haut vers le bas et de la gauche versla droite, les plans K0−M , K0−SRMax, K0−Inter, M −Inter, SRMax−Inter

et M − SRMax. Les intervalles de variations des paramètres sont ceux du tableau 6.2 120

6.5 Dispersion des efficiences et des coefficients de détermination obtenus en simulant lesdébits de chaque épisode avec la combinaison de paramètres qui optimise l’efficiencesur l’ensemble des 35 épisodes disponibles (à gauche) ou le coefficient de détermination(à droite) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

6.6 Valeurs optimales de chaque paramètre, en fonction de l’épisode considéré, selon l’ef-ficience (asterisques) ou le coefficient de détermination (losanges) . . . . . . . . . . 122

6.7 Analyse de sensibilité de la valeur de l’efficience (à gauche) et du coefficient de déter-mination (à droite) au nombre d’épisodes considérés pour le calage (épisodes en ordrechronologique) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124

6.8 Analyse de sensibilité de la valeur de l’efficience (à gauche) et du coefficient de déter-mination (à droite) au nombre d’épisodes considérés pour le calage (épisodes en ordrechronologique inverse) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124

Page 20: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

xx TABLE DES FIGURES

6.9 Analyse de sensibilité des valeurs des paramètres optimisées selon le critère de l’effi-cience (asterisques) ou du coefficient de détermination (losanges) au nombre d’épisodesconsidérés pour le calage (épisodes en ordre chronologique) . . . . . . . . . . . . . 125

6.10 Analyse de sensibilité des valeurs des paramètres optimisées selon le critère de l’effi-cience (asterisques) ou du coefficient de détermination (losanges) au nombre d’épisodesconsidérés pour le calage (épisodes en ordre chronologique inverse) . . . . . . . . . 126

6.11 Analyse de sensibilité de la valeur optimale de l’efficience (à gauche) et du coefficientde détermination (à droite) selon le groupe d’épisodes pluie-débits considéré. Les lignesdroites horizontales representent les performances obtenues avec le calage global surl’ensemble des 35 épisodes disponibles . . . . . . . . . . . . . . . . . . . . . . . 129

6.12 Analyse de sensibilité des valeurs des paramètres optimisées selon le coefficient dedétermination au groupe d’épisodes considérés pour le calage . . . . . . . . . . . . 130

6.13 Incertitude sur la valeur optimale de l’efficience due à l’incertitude sur les pluies obser-vées pour l’épisode du 2 novembre 1994 (hypothèse d’erreurs indépendantes d’un pasde temps à l’autre) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

6.14 Incertitude sur les jeux optimaux de paramètres due à l’incertitude sur les pluies obser-vées pour l’épisode du 2 novembre 1994 (hypothèse d’erreurs indépendantes d’un pasde temps à l’autre) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

6.15 Incertitude sur la valeur optimale de l’efficience due à l’incertitude sur les pluies obser-vées pour l’épisode du 2 novembre 1994 (hypothèse d’erreurs auto-corrélées) . . . . . 134

6.16 Incertitude sur les jeux optimaux des paramètres due à l’incertitude sur les pluies ob-servées pour l’épisode du 2 novembre 1994 (hypothèse d’erreurs auto-corrélées) . . . 134

6.17 Incertitude sur la valeur optimale de l’efficience résultant de l’incertitude des pluiesobservées pour l’ensemble des 17 épisodes considérés. A gauche : hypothèse d’erreursindépendantes ; à droite, hypothèse d’erreurs auto-corrélées . . . . . . . . . . . . . . 135

6.18 Incertitude sur les jeux de paramètres optimaux résultant de l’incertitude des pluies ob-servées pour l’ensemble des 17 épisodes considérés (hypothèse d’erreurs indépendantes) 136

6.19 Incertitude sur les jeux de paramètres optimaux résultant de l’incertitude des pluiesobservées pour l’ensemble des 17 épisodes considérés (hypothèse d’erreurs auto-corrélée)137

6.20 Incertitude sur la valeur optimale de l’efficience résultant de l’incertitude des débitsobservés pour l’épisode du 2 novembre 1994 . . . . . . . . . . . . . . . . . . . . . 138

6.21 Incertitude sur les jeux de paramètres optimaux résultant de l’incertitude des débitsobservés pour l’épisode du 2 novembre 1994 . . . . . . . . . . . . . . . . . . . . . 138

6.22 Incertitude sur la valeur optimale de l’efficience résultant de l’incertitude des débitsobservés pour l’ensemble des 17 épisodes considérés . . . . . . . . . . . . . . . . . 139

6.23 Incertitude sur les jeux de paramètres optimaux résultant de l’incertitude des débitsobservés pour l’ensemble des 17 épisodes considérés . . . . . . . . . . . . . . . . . 140

Page 21: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

TABLE DES FIGURES xxi

6.24 Incertitude sur la valeur optimale de l’efficience résultant de l’incertitude des pluies (hy-pothèse d’erreurs auto-corrélées) et des débits observés pour l’épisode du 2 novembre1994 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141

6.25 Incertitude sur les jeux de paramètres optimaux résultant de l’incertitude des pluies (hy-pothèse d’erreurs auto-corrélées) et des débits observés pour l’épisode du 2 novembre1994 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141

7.1 Nombre de combinaisons de valeurs retenues comme représentatives du bassin étudiésen fonction du seuil sur l’efficience sur un ensemble de 17 épisodes (à gauche) et surl’épisode du 2 novembre 1994 (à droite) . . . . . . . . . . . . . . . . . . . . . . . 146

7.2 Du haut vers le bas et de la gauche vers la droite : projections selon les plans K0 − M ,K0 − SRMax, K0 − Inter, M − SRMax, M − Inter et SRMax − Inter des ré-gions de l’espace auxquelles appartiennent les combinaisons de valeurs des paramètresretenues comme acceptables avec un seuil de 0.7 sur l’efficience (17 épisodes considérés)147

7.3 Du haut vers le bas et de la gauche vers la droite : projections selon les plans K0 − M ,K0 − SRMax, K0 − Inter, M − SRMax, M − Inter et SRMax − Inter des ré-gions de l’espace auxquelles appartiennent les combinaisons de valeurs des paramètresretenues comme acceptables avec un seuil de 0.8 sur l’efficience (17 épisodes considérés)148

7.4 Du haut vers le bas et de la gauche vers la droite : projections selon les plans K0 − M ,K0−SRMax, K0−Inter, M−SRMax, M−Inter et SRMax−Inter des régionsde l’espace auxquelles appartiennent les combinaisons de valeurs des paramètres rete-nues comme acceptables avec un seuil de 0.7 sur l’efficience (épisode du 2 novembre1994) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149

7.5 Du haut vers le bas et de la gauche vers la droite : projections selon les plans K0 − M ,K0−SRMax, K0−Inter, M−SRMax, M−Inter et SRMax−Inter des régionsde l’espace auxquelles appartiennent les combinaisons de valeurs des paramètres rete-nues comme acceptables avec un seuil de 0.9 sur l’efficience (épisode du 2 novembre1994) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150

7.6 Distribution a posteriori des valeurs du paramètre Ko en fonction du seuil sur l’effi-cience : du haut vers le bas et de la gauche vers la droite, nous avons choisi un seuilégal à 0.4, 0.5, 0.6, 0.7, 0.75 et 0.8. 17 épisodes confondus . . . . . . . . . . . . . . 151

7.7 Distribution a posteriori des valeurs du paramètre M en fonction du seuil sur l’effi-cience : du haut vers le bas et de la gauche vers la droite, nous avons choisi un seuilégal à 0.4, 0.5, 0.6, 0.7, 0.75 et 0.8. 17 épisodes confondus . . . . . . . . . . . . . . 152

7.8 Distribution a posteriori des valeurs du paramètre SRMAx en fonction du seuil surl’efficience : du haut vers le bas et de la gauche vers la droite, nous avons choisi unseuil égal à 0.4, 0.5, 0.6, 0.7, 0.75 et 0.8. 17 épisodes confondus . . . . . . . . . . . 153

7.9 Distribution a posteriori des valeurs du paramètre Inter en fonction du seuil sur l’effi-cience : du haut vers le bas et de la gauche vers la droite, nous avons choisi un seuilégal à 0.4, 0.5, 0.6, 0.7, 0.75 et 0.8. 17 épisodes confondus . . . . . . . . . . . . . . 154

Page 22: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

xxii TABLE DES FIGURES

7.10 Distribution a posteriori des valeurs du paramètre K0 en fonction du seuil sur l’effi-cience : du haut vers le bas et de la gauche vers la droite, nous avons choisi un seuilégal à 0.4, 0.5, 0.6, 0.7, 0.8 et 0.9. Episode du 2 novembre 1994 . . . . . . . . . . . 155

7.11 Distribution a posteriori des valeurs du paramètre M en fonction du seuil sur l’effi-cience : du haut vers le bas et de la gauche vers la droite, nous avons choisi un seuilégal à 0.4, 0.5, 0.6, 0.7, 0.8 et 0.9. Episode du 2 novembre 1994 . . . . . . . . . . . 156

7.12 Distribution a posteriori des valeurs du paramètre SRMax en fonction du seuil surl’efficience : du haut vers le bas et de la gauche vers la droite, nous avons choisi unseuil égal à 0.4, 0.5, 0.6, 0.7, 0.8 et 0.9. Episode du 2 novembre 1994 . . . . . . . . . 157

7.13 Distribution a posteriori des valeurs du paramètre Inter en fonction du seuil sur l’effi-cience : du haut vers le bas et de la gauche vers la droite, nous avons choisi un seuilégal à 0.4, 0.5, 0.6, 0.7, 0.8 et 0.9. Episode du 2 novembre 1994 . . . . . . . . . . . 158

7.14 Distribution a posteriori des valeurs des paramètres K0, M , Inter et SRMax dans lecas de l’épisode du 2 novembre 1994, avec un seuil sur l’efficience de 0.87 . . . . . . 159

7.15 Nombre de combinaisons de valeurs des paramètres ambigües à la combinaison deréférence (optimisée globalement sur les 17 épisodes) pour la simulation de l’épisodedu 2 novembre 1994 par TOPSIMPL (nombre maximal possible : 80000 combinaisonstestées) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162

7.16 Nombre de pas de temps où une combinaison est ambigüe à la combinaison optimaleselon l’efficience sur 17 épisodes pluie-débit observés (nombre maximal possible : 168

pas de temps) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163

7.17 Nombre de combinaisons de valeurs des paramètres ambigües à la combinaison deréférence (optimisée sur l’épisode) pour la simulation de l’épisode du 2 novembre 1994par TOPSIMPL (nombre maximal possible : 80000 combinaisons testées) . . . . . . 164

7.18 Nombre de pas de temps où une combinaison est ambigüe à la combinaison optimaleselon l’efficience sur l’épisode considéré. Episode du 2 novembre 1994 (nombre maxi-mal possible : 168 pas de temps) . . . . . . . . . . . . . . . . . . . . . . . . . . . 164

7.19 Nombre de combinaisons de valeurs des paramètres ambigües à la combinaison globaleselon l’efficience pour la simulation de l’ensemble des épisodes par TOPSIMPL etdébits simulés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166

7.20 Nombre de combinaisons de valeurs des paramètres ambigües à la combinaison par-ticulière selon l’efficience pour la simulation de l’épisode du 2 novembre 1994 parTOPSIMPL et débits simulés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166

7.21 Episode du 2 novembre 1994 : régions de l’espace auxquelles appartiennent les combi-naisons de valeurs des paramètres ambigües à la combinaison globale . . . . . . . . . 167

7.22 Episode du 2 novembre 1994 : régions de l’espace auxquelles appartiennent les combi-naisons de valeurs des paramètres ambigües à la combinaison particulière . . . . . . . 168

Page 23: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

TABLE DES FIGURES xxiii

Page 24: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

Introduction

Du fait de leur complexité et grande variabilité, les systèmes naturels ne peuvent être décritset étudiés dans leur globalité ; on a alors recours à la modélisation pour prévoir et analyser leurdynamique. En particulier, le contexte des hydro-systèmes est difficile à appréhender, car demultiples processus interviennent à différentes échelles spatiales (locale, régionale, globale) ettemporelles (heure, jour, mois, année). Or, d’une part, l’instrumentation disponible ne permetpas encore un suivi régulier de tous les mécanismes en jeu ; d’autre part, à l’heure actuelle nousn’avons pas de théorie adéquate pour la description de certains de ces mécanismes, ainsi que deleurs interactions, à cause notamment de leur grande hétérogénéité spatio-temporelle.

Tout ceci se traduit par de nombreuses incertitudes : sur les données qui alimentent les mo-dèles, d’abord, sur leur structure et la valeur des paramètres, ensuite. Cela pose un problèmede fond, concernant la fiabilité et la crédibilité des simulations pour la prévision et la gestion,à moyen et long terme, des ressources en eau, devant une demande sociétale de plus en plusurgente.

Ainsi, l’objectif principal de cette thèse est de comprendre si, et de quelle manière, nouspouvons quantifier globalement de manière rationale les incertitudes qui affectent unemodélisation, afin de les traduire en incertitudes sur les résultats attendus, par exemple, maisaussi pour critiquer nos progrès réels en modélisation.

Pour cela, nous avons d’abord réalisé une analyse et un diagnostic des différentes sourcesd’incertitude et des méthodes actuellement existantes pour leur prise en compte, afin d’en dé-tecter points forts et faiblesses. Dans un deuxième temps, nous avons proposé une démarcheaussi rigoureuse que possible, nous permettant

1. d’identifier des combinaisons de paramètres ambigües, i.e. ayant toutes une probabilitéd’être représentatives du système réel en étude ;

2. de proposer des intervalles prédictifs sur les variables pronostiques du modèle ;

3. d’évaluer le gain informatif apporté par des données supplémentaires et/ou une modifica-tion de la structure du modèle utilisé.

L’originalité de cette méthode est d’avoir synthétisé en un seul concept et considéré explici-tement et globalement toutes les sources d’incertitudes traitées par la littérature ; son principal

1

Page 25: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

2 Introduction

atout est de permettre d’aborder de manière efficace trois questions fondamentales en hydrolo-gie : le problème de l’interaction entre les paramètres du modèle, le problème de la complexitéadmissible et la question de l’inter-comparaison entre modèles.

Le domaine particulier qui a fait l’objet de l’application de cette nouvelle méthodologie dequantification des incertitudes est celui de la modélisation hydrologique des crues rapidesà but prédictif. En effet, cette thèse s’inscrit en partie dans le cadre du “Projet Ardèche” ,consistant à tester la faisabilité d’un outil opérationnel de prévision hydro-météorologique decrues subites. D’autre part, la mise en place actuelle de l’Observatoire Hydro-Météorologiquede la région Cévennes-Vivarais laisse beaucoup à espérer quant à ses perspectives d’application.Notre “terrain de jeu” est le bassin versant de l’Ardèche à Vogüé : sa représentation est effec-tuée selon la philosophie de TOPMODEL (Beven et Kirkby, 1979 ; Beven et al., 1995), dans saversion simplifiée TOPSIMPL (Saulnier, 1996 ; Datin, 1998).

Organisation du mémoire

Ce mémoire s’articule en sept chapitres.

Dans le premier chapitre nous présentons les principaux enjeux liés à la modélisation dessystèmes hydrologiques et nous rappelons les différentes étapes de construction d’un modèle.En particulier, nous observons que durant chaque étape sont introduites des incertitudes quel’on peut classifier en trois catégories : les incertitudes de structure, les incertitudes sur les don-nées et les incertitudes de spécification des valeurs des paramètres. Un inventaire en est proposé.

Dans le deuxième chapitre sont introduites les techniques d’estimation des incertitudes lesplus utilisées en hydrologie. Si les effets de la propagation des incertitudes sur les donnéespeuvent être quantifiés avec des techniques dites locales, i.e. prenant en compte une faible dis-persion de valeurs autour d’une valeur nominale de référence, l’évaluation des incertitudes surles valeurs des paramètres du modèle nécessite des techniques dites globales, qui explorentune grande portion de l’espace des valeurs possibles. Dans le premier cas, la méthode la plusconnue est celle de la propagation de la variance ; dans le deuxième cas, les trois approches lesplus suivies sont : l’algorithme du recuit simulé (Metropolis et al., 1953), l’analyse de sensibilitégénéralisée (Young, 1978 ; Hornberger et Spear, 1981) et la Generalized Likelihood UncertaintyEstimation - GLUE (Beven et Binley, 1992). Nous explicitons ces méthodes.

Le troisième chapitre propose une méthodologie pour évaluer l’ambiguïté d’une modéli-sation, i.e. la possibilité d’obtenir avec plusieurs combinaisons de valeurs des paramètres (ouplusieurs structures de modèle) des simulations qui (i) ne sont pas significativement différentes,notamment au vu des incertitudes sur les observations et/ou (ii) sont différentes, mais aussiproches (ou distantes) des observations des variables pronostiques.

Page 26: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

Introduction 3

Les quatre derniers chapitres sont dédiés à une application des concepts résumés dans lapremière partie du mémoire à la modélisation hydrologique du bassin de Vogüé, en Ardèche.

Au quatrième chapitre nous présentons une description succincte du bassin versant, ainsique les données disponibles et l’approche suivie pour la modélisation pluie-débit (modèle TOP-SIMPL).

Au chapitre 5, nous analysons quel est l’effet, sur la modélisation, des incertitudes sur leslames d’eau moyennes et sur les débits observés à l’exutoire du bassin versant en étude. Enparticulier, nous estimons l’incertitude engendrée sur le critère généralement utilisé pour éva-luer la performance de la modélisation et nous proposons des intervalles prédictifs sur les débitssimulés.

Au chapitre 6, c’est la pertinence de l’étalonnage des valeurs des paramètres de TOPSIMPLqui est analysée, à travers une analyse de sensibilité du calage à différentes sources d’incerti-tudes (propagation d’erreurs sur les données, choix de la série de données utilisée pour le calageet du critère de performance de la modélisation).

Enfin, au chapitre 7 nous comparons les intervalles prédictifs obtenus avec notre méthoded’évaluation de l’ambiguïté et la méthode GLUE. Nous montrons, notamment, que les simu-lations des débits à l’exutoire de Vogüé effectuées avec TOPSIMPL sont incertaines, mais pasambigües. Des perspectives, concernant la comparaison des débits simulés à l’exutoire du bassinavec TOPSIMPL et TOPODYN (une version de TOPMODEL qui prend en compte la variabilitéspatiale des précipitations ; cf. Datin, 1998), ainsi que la quantification de l’apport de mesuresde débits intermédiaires seront proposées.

Page 27: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

4 Introduction

Page 28: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

Première partie

Incertitudes et ambiguïté : généralités

5

Page 29: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION
Page 30: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

Chapitre 1

Généralités et rappels sur la modélisationhydrologique

That is what we meant by science. That both question and answer are tied up with un-certainty, and that they are painful. But there is no way around them. And that you hidenothing ; instead, everything is brought into the open.

Peter Høeg (1995)

L’objectif de ce chapitre est de rappeler quelques concepts fondamentaux sur la modélisationdes systèmes hydrologiques. En premier lieu seront définies et décrites les principales compo-santes d’un modèle et les étapes qui conduisent à son implémentation. Les aspects théoriqueset mathématiques liés au problème du paramétrage seront traités avec une attention particu-lière. Enfin, les principales sources d’erreur, d’imprécision et d’incertitude seront recensées etanalysées.

7

Page 31: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

8 1.1. Les modèles mathématiques : définitions et propriétés

1.1 Les modèles mathématiques : définitions et propriétés

Plusieurs définitions de modèle ont été proposées dans la littérature. Nous retiendrons lasuivante :

Définition Un modèle est un schéma permettant de représenter de manière simplifiée le com-portement d’un système réel plus ou moins complexe, pour servir de support à un objectif donné.

FIG. 1.1 – Schématisation du processus d’identification d’un modèle (d’après Gupta et Sorooshian,1985 et Rosen, 1991)

La recherche d’un modèle représentant le fonctionnement d’un système (e.g. un bassin ver-sant) est généralement connue sous la définition de problème d’identification (e.g. Bellmannet Alström, 1970 ; Krenkel et Novotny, 1979 ; Godfrey et al., 1982 ; Sorooshian et Gupta, 1983 ;Richalet, 1991 Gupta et al., 1998 et Uhlenbrook et al., 1999).

Résoudre le problème d’identification signifie trouver un algorithme (une structure for-melle) permettant de décrire les lois de comportement supposées régir le fonctionnement dusystème (figure 1.1). On appelle cette phase codage (Rosen, 1991 ; Banks, 1998). Il s’agit desimuler l’évolution spatio-temporelle de certaines variables pronostiques ou de sortie (e.g. leruissellement) en réponse à l’évolution spatio-temporelle de certaines variables de forçage oud’entrée (e.g. les précipitations), en tenant compte, éventuellement, de l’évolution d’un certainnombre de variables d’état ou variables internes (e.g. l’état d’humidité du bassin).

Des valeurs considérées comme caractéristiques du système étudié (donc, invariantes au

Page 32: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

1.1. Les modèles mathématiques : définitions et propriétés 9

cours de la modélisation) contiennent l’information sur la particularité du système étudié. Cer-taines de ces caractéristiques peuvent être mesurées, avec une imprécision plus ou moins grande :ce sont des caractéristiques que l’on peut qualifier d’objectives et que l’on appelle informationssur le système. Un exemple en est donné par la topographie du bassin.

D’autres caractéristiques, toujours théoriquement invariantes, ont une nature plus subjective,car elles résultent de la description formelle que l’on fait du système étudié et sont donc uneprojection mathématique de notre connaissance. Ce sont les paramètres du modèle (e.g. laconductivité hydraulique à saturation), qui peuvent être distribués dans l’espace ou avoir unevaleur représentative de l’ensemble du système.

L’ensemble des variables de forçage et des informations est usuellement appelé l’ensembledes facteurs d’entrée.

Si l’on reprend la définition de modèle proposée auparavant, on observe qu’un modèle esthabituellement construit pour répondre à un objectif précis dans un cadre déterminé. Il pourraêtre utilisé par la suite dans d’autres applications, seulement à condition de rester pertinent,c’est-à-dire adapté au contexte d’application et fournissant de “bons” résultats en termes deprécision attendue et reproductibilité du système étudié (e.g. Perrin, 2000). On analysera dansla section 1.3 les méthodes et les critères généralement utilisés en hydrologie pour définir un“bon” résultat.

Deux autres propriétés requises par les modèles sont la robustesse et la sensibilité. On sou-haite en effet que le modèle ne diverge pas lorsqu’on modifie légèrement la valeur de ses fac-teurs d’entrée, e.g. à cause d’erreurs sur les entrées (robustesse), mais qu’il soit sensible auxvariations significatives des facteurs dont on cherche à simuler les effets, e.g. un changementd’occupation des sols (sensibilité).

De même, le principe de parcimonie doit être respecté : parmi les différents modèles pou-vant répondre à certains objectifs et hypothèses de travail, il est généralement conseillé de choi-sir le modèle le plus simple (mais pas un modèle simpliste 1). Cela revient à choisir le modèlecomportant le plus petit nombre possible de paramètres (et de relations non linéaires), car ils’agit de quantités non mesurables, comme nous l’avons déjà signalé.

Andersson (1992), ainsi qu’Ambroise (1999), rappellent que la complexité d’un système demodélisation ne doit pas être confondue avec la précision de ses résultats 2. Il s’agit d’un para-

1“Everything must be made as simple as possible, but not simpler !”. Albert Einstein2“Ce qui est précis n’est pas nécessairement juste”. Victor Hugo

Page 33: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

10 1.2. Le problème de l’identification du modèle

doxe bien connu par les hydrologues : si l’on veut représenter plus finement le fonctionnementd’un système, il est nécessaire d’augmenter l’information qu’il faut fournir au modèle, notam-ment pour la spécification des valeurs de ses paramètres (cf. section 1.3). Etant donné que lesobservations sont généralement limitées, quand on augmente la complexité du modèle, on aug-mente aussi ses degrés de liberté, diminuant ainsi sa robustesse et sa performance (Jakeman etHornberger, 1993).

Enfin, le modèle doit avoir le plus grand pouvoir de prévision possible dans son domained’application, qui souvent comprend des situations inconnues (c’est-à-dire non contenues dansles séries d’observations disponibles).

1.2 Le problème de l’identification du modèle

Bien que différentes taxonomies aient été proposées (e.g. James, 1972b ; Krenkel et No-votny, 1979 ; Gupta et Sorooshian, 1985 ; Banks, 1998 ; Uhlenbrook et al., 1999), on distinguegénéralement cinq étapes (qu’il faut souvent itérer) conduisant à l’identification d’un modèle :

1. définition du problème et du domaine d’application du modèle ;

2. sélection et analyse des données nécessaires ;

3. choix d’une structure appropriée ;

4. spécification des paramétrisations, puis des valeurs des paramètres ;

5. vérification.

Comme nous verrons plus tard (section 1.4), durant chaque étape sont introduites des incerti-tudes qui affectent les résultats de simulation : une analyse supplémentaire sera donc nécessairepour les estimer. Les principales techniques utilisées en hydrologie pour l’évaluation des incer-titudes de modélisation seront résumées au chapitre 2.

En premier lieu, la définition du problème et du domaine d’application permet de résu-mer les objectifs que l’on cherche à atteindre (étude du système, test d’hypothèses de fonc-tionnement, prédiction d’évènements futurs ...). Cette étape consiste donc à traduire en termesphysiques le problème pratique posé : on choisit les variables à étudier, les étendues spatio-temporelles des simulations, etc. De ces choix dérive une vision “thématique” (donc partielle)de la réalité : le niveau de complexité minimal du modèle est contraint par le problème posé,car sans présumer des capacités à pouvoir concrètement l’appliquer, le modèle doit être aumoins aussi complexe que la question posée, qui justifie ou nécessite son élaboration/utilisation.Dans la figure 1.2 de la page suivante, la ligne supérieure représente le niveau de complexitéposé par le problème en étude.

Deuxièmement, l’inventaire des données nécessaires et disponibles constitue une étapeégalement contrainte. Effectivement, en général rien ne permet de s’assurer que la quantité et la

Page 34: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

1.2. Le problème de l’identification du modèle 11

FIG. 1.2 – Comparaison entre complexité du problème posé, complexité du modèle et contenu informa-tif des mesures pour trois modèles différents A, B, C

qualité des mesures répertoriées soient au moins égales à la quantité et à la qualité de mesuresqui seraient théoriquement nécessaires pour répondre au problème posé.

D’une part, il est impossible de définir théoriquement ces quantités et qualités idéales. D’autrepart, la très grande majorité des cas concrets conclue à une insuffisance des données disponiblespour une description parfaite du système étudié. Dans la démarche de modélisation, un secondniveau de complexité est ainsi fixé (cf. droite inférieure dans la figure 1.2) : celui de la quan-tité d’information contenue dans les mesures disponibles (cf. le concept de contenu informatifd’une donnée/d’un algorithme dans Delahaye, 1994). Ce deuxième niveau de complexité estgénéralement inférieur à celui de la complexité de la question posée (cf. paragraphe précédentet droite supérieure dans la figure 1.2). En effet, nous l’avons déjà souligné, la situation la pluscourante est celle où les mesures disponibles sur l’objet d’étude sont insuffisantes pour fournirla réponse au problème posé. C’est justement le rôle du modèle que de compenser ce manqueen ajoutant aux informations contenues dans les données disponibles la connaissance a prioridu modélisateur.

Ensuite, la structure du modèle doit être identifiée. Il s’agit de choisir d’abord les processusque l’on veut représenter (les “processus actifs” ) et leur chaînage, puis les lois de comporte-ment que l’on considère les plus adaptées pour décrire les relations existantes entre variables deforçage, variables d’état et variables pronostiques. On fait alors un ensemble d’hypothèses surle fonctionnement du système, que l’on formalise mathématiquement selon un système d’équa-tions dont l’algorithme numérique que constitue le modèle propose une solution. Le choix dela structure du modèle numérique revient donc à fixer (i) le type de formalisme mathématique

Page 35: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

12 1.2. Le problème de l’identification du modèle

que l’on considère le plus approprié et (ii) son algorithme de résolution. Un troisième niveaude complexité est donc fixé par le choix de la structure du modèle.

Une fois la structure du modèle choisie, il faut repérer, dans l’ensemble de modèles possiblesappartenant à ce type de structure, celui qui, d’un certain point de vue, reproduit au mieux lecomportement réel du système particulier étudié. Cela revient à fixer (spécifier) les valeursnumériques des paramètres du modèle. En effet, les paramètres sont le résultat d’une visionsubjective des lois de comportement du système et ne peuvent donc pas toujours être mesurés.De plus, c’est la valeur des paramètres au sens de l’algorithme qui doit être spécifiée, ce quipeut comporter l’étude de la relation existante entre la valeur numérique des paramètres (celleà utiliser dans le modèle) et la valeur physique (imposée par les observations). Par exemple,Saulnier et al., 1997 ont établi, pour TOPMODEL, la relation analytique entre la valeur numé-rique de la conductivité à saturation, sa valeur physique et le pas de discrétisation de l’espace(le pas du modèle numérique de terrain) 3.

Ainsi, parmi les valeurs “acceptables” des paramètres, généralement on choisit celle quis’adapte au mieux à la structure fixée : on se réfère à cette étape en parlant d’estimation des pa-ramètres ou d’étalonnage du modèle ou, encore, de spécification des valeurs des paramètres(cf. section 1.3).

Tout comme l’étalonnage, la dernière étape d’identification d’un modèle est parmi les tâchesles plus complexes et probablement la plus controversée. En effet, on considère généralementqu’un modèle est vérifié ou validé (sans distinction) s’il fournit des simulations des variablespronostiques qui sont “proches” (selon un certain critère) des observations. On juge donc dela pertinence et de la validité d’un modèle en termes de reproduction de séries historiques(“history-matching” , Beck et al., 1997). Oreskes et al. (1994) départagent les deux termesen affirmant que la vérification sous-entend l’établissement d’une vérité objective de référence(ce qui est n’est probablement pas possible en hydrologie 4), tandis que la validation a pour ob-jectif d’établir une certaine légitimité du modèle. Ils proposent alors une démarche alternative àla vérification, celle, d’origine popperienne, de la corroboration (Popper, 1959) : un modèle estcorroboré par des observations (ou l’expertise du modélisateur) si ces dernières ne contredisentpas ses résultats.

Quel que soit le terme employé (vérification, validation ou corroboration d’un modèle), iln’est possible de définir que le cas où le modèle est en défaut et/ou le cas où le modèle estutilisable avec plus ou moins d’incertitude. Enfin, nous soulignons que parmi les propriétés

3Une étude exhaustive des relations (empiriques ou analytiques) entre valeurs numériques et valeurs physiquesdes paramètres est rarement effectuée lors de la construction d’un modèle. Cette question est pourtant fondamentaledès lors, par exemple, que l’on adopte une démarche de mesure des valeurs des paramètres sur le terrain et qu’onutilise ces mesures telles quelles dans le modèle, ce qui questionne également la validité du concept de valeurs“physiquement admissibles” des paramètres.

4“Ground-water models cannot be validated.” Konikow et Bredehoeft, 1992

Page 36: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

1.3. L’estimation des paramètres et les problématiques associées 13

des modèles énoncées à la section 1.1, celles de pertinence, robustesse et sensibilité interrogentsurtout la connaissance et l’expérience du modélisateur. Le principe de parcimonie et le po-tentiel prédictif sont plutôt dépendants de la complexité du problème posé et des quantité etqualité des données disponibles. De ce point de vue, et sans qu’il soit facile de le prédire, lacomparaison entre la complexité (i) du problème posé, (ii) du contenu informatif des mesuresdisponibles et (iii) de la structure du modèle conduit à des situations très différentes. Trois cassont fréquemment rencontrés (cf. figure 1.2) :

– Le modèle est plus complexe que le problème posé (cas du modèle A dans la figure 1.2).Potentiellement, il peut répondre à la question posée, mais le contenu informatif des me-sures disponibles est relativement faible : la démarche de modélisation n’est pas suffisam-ment contrainte et la spécification des paramètres ne fournira pas de solution unique. Lessimulations seront très incertaines. Ce modèle a un grand potentiel de prévision, mais nerespecte pas le principe de parcimonie.

– Dans le cas du modèle B de la figure 1, la spécification des paramètres sera plus aisée,mieux contrainte par les mesures et donc moins incertaine. Le modèle ne répondra quepartiellement au problème posé, car il n’est pas suffisamment complexe. Ce modèle n’estsatisfaisant ni vis-à-vis des réponses attendues, ni vis-à-vis d’une spécification correc-tement contrainte des paramètres. Il est un compromis (pas nécessairement bon) entreprincipe de parcimonie et potentiel prédictif.

– Le modèle est parfaitement contraint (cas du modèle C dans la figure 1.2), c’est-à-direqu’il est le modèle le plus complexe que l’on puisse se permettre de construire comptetenu des données disponibles. Il respecte le principe de parcimonie, mais il ne permet pasde répondre totalement à la question posée. Son pouvoir de prévision est donc faible.

1.3 L’estimation des paramètres et les problématiques asso-ciées

L’attribution d’une valeur numérique pertinente aux paramètres du modèle, objectif principalde l’étape de spécification, se fait en géophysique grâce à la théorie des problèmes inverses(cf. Menke, 1985 et Tarantola, 1987) : les équations du modèle sont inversées pour calculer lavaleur des paramètres à partir d’une série d’observations des variables).

Ainsi, si le lien entre les paramètres du modèle et une série d’observations des variables deforçage, d’état et pronostiques peut s’exprimer au travers d’un système d’équations implicitesde type

f (Θ, obs) = 0 (1.1)

Page 37: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

14 1.3. L’estimation des paramètres et les problématiques associées

f est l’ensemble des équations constituant la structure du modèle ;Θ est le vecteur des paramètres (inconnus) ;obs est le vecteur des observations (données)

alors pour déterminer la valeur des paramètres il est nécessaire de résoudre ces équations enΘj, c’est-à-dire les “inverser” .

En hydrologie, le vecteur des observations peut par exemple être constitué d’une série d’épi-sodes de crue pour lesquels on a des données de pluie et de débit. De même, les paramètres àestimer peuvent être la conductivité à saturation du sol, un coefficient d’évapo-transpiration oubien encore l’épaisseur efficace du sol, etc.

On observe que, pour les modèles et les données actuellement disponibles, la solution exactedu problème inverse n’existe pas (nous reviendrons plus en détail sur la question dans la section1.4.4). Ainsi, résoudre le système d’équations que constitue le modèle inverse équivaut à cher-cher l’estimation des valeurs des paramètres qui offre le meilleur compromis entre l’informa-tion que l’on souhaiterait extraire du modèle (la reproduction des variables de sortie observées)et celle qu’il est réellement possible d’extraire. Ceci implique la définition d’une mesure dedistance entre les observations et les simulations des variables pronostiques, distance que l’oncherche à minimiser. On retrouve dans la littérature trois approches pour définir cette mesure.

Premièrement, si nous considérons le problème d’un point de vue déterministe, nous cher-chons une valeur bien précise pour chaque paramètre. Le choix, parmi les différentes valeurspossibles, est fait via l’utilisation d’une fonction de coût ou d’une fonction objectif, mesurantles écarts entre simulations et observations de la variable pronostique (ou de plusieurs variablespronostiques dans le cas de la calibration multiple), que l’on cherche, respectivement, à mini-miser ou à maximiser.

Dans la suite, on rappelle la définition de deux fonctions de coût et deux fonctions ob-jectifs parmi celles présentées en littérature (Dawdy et O’Donnell, 1965 ; Clabour et Moore,1970 ; Nash et Sutcliffe, 1970 ; Diskin et Simon, 1977 ; Manley, 1978 ; Sefe et Boughton, 1982 ;Houghton-Carr, 1999). Ces fonctions ont été utilisées pour une analyse de sensibilité de l’éta-lonnage des paramètres de TOPSIMPL dans le contexte de la modélisation hydrologique desbassins versants de l’Ardèche (cf. section 6.1). La nomenclature est commune à toutes les for-mules : nous avons indiqué avec qi,obs le débit observé au pas de temps i, qobs le débit moyenobservé, qi,calc le débit simulé au pas de temps i, qcalc le débit moyen calculé et n le nombre depas de temps considérés. Naturellement, toutes les fonctions peuvent être appliquées à d’autresvariables, il suffira de remplacer les débits par la (les) variable(s) d’étalonnage choisie(s).

En premier lieu, on considérera comme fonction de coût à minimiser les moindres carrés :

Page 38: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

1.3. L’estimation des paramètres et les problématiques associées 15

FC1 =n

i=1

(qi,calc − qi,obs)2 (1.2)

Très connue dans le domaine des statistiques, cette fonction a été introduite en hydrologiepar Dawdy et O’Donnell (1965). Elle implique que les résidus soient mutuellement non corré-lés et distribués selon une loi Normale avec moyenne nulle et variance constante. Il s’agit d’unefonction appropriée à l’estimation des valeurs des paramètres dans le contexte de l’hydrologiede crue, car elle donne beaucoup de poids aux grands écarts entre débits observés et simulés.

Une deuxième fonction de coût a été utilisée pour la première fois par Clabour et Moore en1970. C’est une fonction adimensionnelle, donc aussi bien adaptée pour l’estimation des petitset grands débits, car elle donne le même poids à tous les résidus :

FC2 =

∑n

i=1|qi,obs − qi,calc|

∑n

i=1qi,obs

(1.3)

En ce qui concerne les fonctions objectifs, que l’on cherchera a maximiser, la première quel’on considère est le coefficient de détermination :

FO1 =[∑n

i=1(qi,obs − qobs) (qi,calc − qcalc)]

2

∑n

i=1(qi,obs − qobs)

2 ∑

i = 1n(qi,calc − qcalc)2

(1.4)

Introduite par Nash et Sutcliffe (1970), la deuxième fonction objectif est couramment connuesous le nom d’efficience. Elle a les mêmes propriétés que les moindres carrés (i.e. l’hypothèsesous-jacente est que les résidus soient distribués selon une loi Gaussienne) et comme le coeffi-cient de détermination, elle est maximisée à 1. De plus, elle est adimensionnelle :

FO2 = 1 −∑n

i=1(qi,obs − qi,calc)

2

i = 1n(qi,obs − qobs)2

(1.5)

Si l’on veut avoir, de plus, une idée sur la qualité de l’estimation des paramètres par inver-sion, une deuxième démarche est conseillée : il s’agit de la démarche probabiliste. Considérantque les observations de la réalité sont bruitées par des erreurs, les données et les paramètres dumodèle sont traités dans ce cas comme des variables aléatoires. Les valeurs des paramètresdéterminés par inversion via les mêmes fonctions de coût ou objectifs précédemment définiesseront alors acceptés comme représentatives du système étudié si et seulement si elles sont com-prises dans des intervalles de tolérance fournis ou si elles dépassent une certaine probabilitéseuil. Ces intervalles peuvent être absolus (minimum-maximum) ou probabilistes (intervalles

Page 39: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

16 1.4. Sources d’erreur, d’imprécision et d’incertitude en modélisation hydrologique

inter-quantiles). Dans les deux cas, leur définition correspond à une contrainte supplémentairedans le système d’équations 1.1, ce qui équivaut à rajouter une information a priori sur la valeurattendue des paramètres.

Enfin, cette même information peut être considérée du point de vue probabiliste bayesien.Selon cette approche, une probabilité ne concerne pas l’éventualité qu’un événement donné seproduise, mais le degré de croyance que l’on peut avoir en la vérité d’une proposition.5 Oncherchera alors une distribution a posteriori p (Θ/obsj) des valeurs des paramètres sur la basede leur vraisemblance L (Θ|obsj) vis-à-vis de la j-ème composante des observations obs et deleur distribution a priori p(Θ) :

p (Θ|obsj) n L (Θ|obsj) p (Θ) j = 1, 2, ..., n (1.6)

Dans les trois cas de figure, pour une structure de modèle donnée, l’estimation des valeursdes paramètres que l’on obtient est fortement conditionnée par (i) les observations disponibleset (ii) la fonction de coût ou la fonction de vraisemblance choisie pour leur estimation. Onreviendra sur ce point dans la section 1.4.4. Ce qu’il est important de retenir ici est que lavraie différence entre les trois démarches présentées réside dans l’accent donné aux valeurs desparamètres : dans le premier cas, on suit une démarche déterministe, que l’on désire plutôt liéeà la physique du problème, donc avec une solution précise des équations ; dans les autres cas,on travaille d’un point de vue plus mathématique (probabiliste), ce qui mène à la recherche desvaleurs attendues (mais incertaines) des paramètres.

1.4 Sources d’erreur, d’imprécision et d’incertitude en mo-délisation hydrologique

Comme dans toute autre science physique, il est souhaitable, en hydrologie, d’aborder leproblème d’identification du modèle en gardant à l’esprit que plusieurs sources d’erreur, d’im-précision et d’incertitude peuvent affecter les résultats d’une simulation (cf. figure 1.3). En effet,on observe généralement qu’on est “à la fois conscient de ses besoins en information et du dé-ficit en information” (Lovell, 1995) : la réalité ne peut pas être appréhendée complètement àpartir de lois connues, exactes et universelles.

Après avoir rappelé la définition des termes généralement employés dans le domaine del’estimation et du traitement des incertitudes, nous allons donc passer en revue les principales

5Le degré de croyance relatif à une proposition donnée détermine la disposition à accepter certains paris sur savérité. Par exemple, si j’estime qu’il pleuvra demain dans un cas sur trois, i.e. je crois qu’il pleuvra au degré 1/3,je serai disposé à parier à 2 contre 1 qu’il pleuvra demain, en refusant toute cote plus faible.

Page 40: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

1.4. Sources d’erreur, d’imprécision et d’incertitude en modélisation hydrologique 17

FIG. 1.3 – Introduction des incertitudes dans les différents étapes d’identification du modèle

sources d’incertitude dans la modélisation des systèmes environnementaux et, plus particuliè-rement, des bassins hydrologiques.

1.4.1 Définitions

Un vocabulaire international des termes fondamentaux utiles en métrologie a été proposédans le “Guide pour l’expression de l’incertitude de mesure” , édité par l’Organisation Interna-tionale de Normalisation (ISO, 1993), dont nous avons extrait les définitions présentées par lasuite. C’est à partir de cette terminologie qu’ont été définies les incertitudes de modélisation,car il n’existe pas à ce jour d’ouvrage officiel, homologue de ce guide, pour l’évaluation des

Page 41: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

18 1.4. Sources d’erreur, d’imprécision et d’incertitude en modélisation hydrologique

incertitudes sur les simulations numériques.

Une grandeur mesurable est un attribut d’un phénomène (e.g. la température), d’un corps(e.g. la masse) ou d’une substance (e.g. la concentration massique), qui est susceptible d’êtredistingué qualitativement et déterminé quantitativement. L’expression quantitative d’une gran-deur particulière, qui est généralement exprimée sous la forme d’une unité de mesure multipliéepar un nombre, est appelée la valeur de la grandeur.

Le mesurage est l’ensemble des opérations nécessaires pour déterminer la valeur d’unegrandeur (le mesurande), c’est-à-dire sa mesure 6. La vraie valeur d’une grandeur est la va-leur que l’on obtiendrait par un mesurage parfait. Nous remarquons ainsi qu’il s’agit d’unevaleur de nature indéterminée, même si parfois, elle est attribuée conventionnellement à unegrandeur particulière (e.g. le nombre d’Avogadro, NA = 6, 0221367 ∗ 1023mol−1). Comme unevaleur vraie n’est pas déterminée, les termes de valeur assignée, valeur convenue ou valeur deréférence sont synonymes de valeur vraie.

Deux propriétés principales caractérisent les mesures :

– la répétabilité, c’est-à-dire l’étroitesse de l’accord entre plusieurs mesures successives dela même grandeur, réalisées dans les mêmes conditions de mesure. Pour qu’une mesuresoit répétable, il faut que les conditions suivantes soient respectées : même mode opéra-toire ; même observateur ; même instrument de mesure utilisé dans les mêmes conditions ;même lieu de mesure ; répétition durant une courte période de temps. Il est inutile de pré-ciser que les mesures effectuées sur le terrain ne sont que très rarement répétables !

– la reproductibilité, c’est-à-dire l’étroitesse de l’accord entre les mesures d’une mêmegrandeur effectuées en faisant varier les conditions de mesure. Pour qu’une expression dela reproductibilité soit valable, il est nécessaire de spécifier les conditions que l’on faitvarier (e.g. le principe de mesure, la méthode de mesure, l’observateur, l’instrument, lelieu, les conditions d’utilisation).

Généralement, on suppose que le résultat d’un mesurage est la meilleure estimation de lavaleur du mesurande et on considère que la valeur vraie d’une grandeur est la moyenne arith-métique d’un grand nombre de mesures, lorsque celles-ci sont effectuées dans des conditionsde répétabilité et/ou de reproductibilité. L’incertitude de mesure est, de son côté, le paramètreassocié à un mesurage qui caractérise la dispersion de valeurs qui pourraient être raisonnable-ment attribués au mesurande, où par dispersion de valeurs on entend les différences constatéesd’une mesure à l’autre (cf. figure 1.4). Pour exprimer cette dispersion, on peut par exemple uti-liser l’écart-type des mesures (ou un multiple de celui-ci) ou la demi-largeur d’un intervalle de

6Dans cette thèse, le terme “mesure” est utilisé dans la double acception de mesurage et de valeur attribuée àune grandeur par mesurage

Page 42: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

1.4. Sources d’erreur, d’imprécision et d’incertitude en modélisation hydrologique 19

niveau de confiance déterminé. Nous reviendrons sur ce point dans le prochain chapitre, à lasection 2.1.

FIG. 1.4 – Définition des incertitudes selon la norme ISO 5168

Il est généralement entendu que le résultat du mesurage est la meilleure estimation de lavaleur du mesurande et que toutes les composantes de l’incertitude, y compris celles qui pro-viennent d’effets systématiques, telles que les composantes associées aux corrections et auxétalons de référence, contribuent à la dispersion. Ainsi, par erreur de mesure (ou erreur ab-solue ou écart), on entend la différence entre le résultat d’un mesurage et une valeur vraie dumesurande (cf. figure 1.4). L’erreur relative est le rapport entre l’erreur de mesure et une valeurvraie du mesurande.

L’erreur aléatoire est la différence entre le résultat d’un mesurage et la moyenne d’unnombre infini de mesurages du même mesurande, effectués dans les conditions de répétabi-lité. L’erreur systématique est la moyenne qui résulterait d’un nombre infini de mesuragesdu même mesurande, effectués dans les conditions de répétabilité, moins une valeur vraie dumesurande 7. L’erreur de mesure est donc égale à la somme de l’erreur aléatoire et de l’erreur

7Pour un instrument de mesure, l’erreur systématique d’indication est appelée justesse

Page 43: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

20 1.4. Sources d’erreur, d’imprécision et d’incertitude en modélisation hydrologique

systématique (cf. figure 1.4).

Heuvelink (1998) étend la définition d’erreur de mesure aux résultats de simulations : ildéfinit erreur de modélisation la différence entre la simulation d’une variable pronostique etsa valeur observée, considérée comme étant la valeur vraie. Ainsi, on peut de la même manièreélargir à la modélisation les définitions d’erreur systématique, d’erreur aléatoire et d’incertitude.

Selon la classification usuellement utilisée en hydrologie, les incertitudes de modélisationpeuvent être regroupées en trois catégories : les erreurs d’adéquation du modèle à la réalité,les erreurs numériques et les imprécisions et incertitudes sur les variables d’entrée et lesparamètres du modèle (cf. James, 1972a ; Gupta et Sorooshian, 1985 ; Beck, 1987 ; Hooper etal., 1988 ; Beven, 1989 ; Konikow et Bredehoeft, 1992 ; Uhlenbrook et al., 1999).

Yen et al. (1971) simplifient cette classification en distinguant les incertitudes objectives,associées à des processus aléatoires et donc pouvant être analysées par des techniques statis-tiques (e.g. la précision d’un pluviographe ou les erreurs d’interpolation d’un champ de pluiepar krigeage) et les incertitudes subjectives, pour lesquelles il n’existe pas d’information quan-titative pour l’analyse (e.g. les défauts d’exhaustivité dans la série de données historiques dis-ponibles) 8.

Dans la suite du mémoire, cette classification sera quelque peu modifiée.

Premièrement, nous considérons que les approximations numériques font partie, comme leslimites et les hypothèses de travail, des sources d’incertitudes liées à la structure du modèle.En effet, ce n’est pas le système théorique d’équations choisi que l’on critique habituellement,mais l’algorithme logique qui permet la résolution numérique des équations.

Ensuite, nous estimons que toutes les observations sont susceptibles de contenir des erreurs.Il est rare de trouver en littérature des travaux prenant en compte les erreurs sur les observationsdes variables de sortie du modèle (e.g. les chronologies de débit ; Clarke, 1999). Or, ces impré-cisions peuvent non seulement affecter le jugement que l’on fait sur une simulation, mais aussiinfluencer la spécification des valeurs des paramètres.

Finalement, les incertitudes liées à la valeur des paramètres et celles liées aux variables d’en-trée seront traitées séparément. Ce choix a été suggéré par le fait que les valeurs des paramètresdes modèles hydrologiques ne sont quasiment jamais issus d’observations, comme nous l’avons

8La norme ISO 5168 (ISO, 1993) reprend d’ailleurs cette distinction, en classifiant les incertitudes en “incerti-tudes de type A” (qui peuvent être évaluées à partir de la distribution statistique de plusieurs séries de mesures etqui sont donc caractérisées par des écarts-types expérimentaux) et “incertitudes de type B” (qui sont caractériséespar des écart-types estimés en admettant des distributions de probabilité possibles d’après l’expérience acquise oud’après d’autres informations)

Page 44: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

1.4. Sources d’erreur, d’imprécision et d’incertitude en modélisation hydrologique 21

déjà remarqué à la section 1.1. Ainsi, l’incertitude de spécification des paramètres a intrinsè-quement une nature différente de l’imprécision de mesure : elle est liée à la définition mêmedes paramètres et à l’algorithme utilisée pour les estimer, plutôt qu’au choix d’un appareillageet/ou d’une méthode de traitement des données.

La suite de cette partie propose un inventaire partiel des principales sources d’incertitudedans une démarche de modélisation.

1.4.2 Choix de la structure du modèle

1.4.2.1 Limites théoriques

En premier lieu, on observe un manque de théories adéquates pour la description de cer-tains processus. C’est le cas, par exemple, des écoulements préférentiels dans les macropores(e.g. Beven et Germann, 1982 ; Germann et Di Pietro, 1996 ; Flühler et al., 2001) ou des in-stabilités dans les fronts d’infiltration (Hillel, 1987), pour lesquels les efforts d’instrumentationn’ont pas encore permis d’établir des loi de comportement. Connaissant mal le fonctionnementde ces processus, il est impossible de les représenter correctement dans un modèle, ce qui peutentraîner des erreurs importantes dans les cas où ces processus sont dominants dans le systèmephysique étudié.

Deuxièmement, les lois utilisées pour simuler un ou plusieurs processus ont été établies danscertaines conditions et ne sont souvent valables que dans ces conditions précises. La principaleproblématique liée à cette remarque est celle du transfert d’échelles, qui a été qualifiée commel’un “des défis majeurs des géosciences de l’environnement à l’aube du troisième millénaire”(e.g. Beven, 1995 ; Sivapalan et Kalma, 1995 ; Blöschl, 1996 ; Entekhabi et al., 1999). En effet,les efforts d’instrumentation ont imposé une échelle de mesure qui n’est pas forcément compa-tible avec l’échelle requise par la modélisation.

Ambroise (1999) souligne que la solution des équations de transport est valable seulementdans le cadre de l’échelle spatio-temporelle de l’instrumentation choisie a priori pour une expé-rience. Pour les flux hydrologiques (ruissellement, évapo-transpiration ou transfert en milieuxporeux), cette échelle est fine : il n’est pas démontré que les théories développées à l’échellelocale puissent être appliquées à l’échelle régionale et continentale, qui est l’échelle la plusadaptée, par exemple, pour les problèmes de gestion des ressources en eau. Cushman (1986)en déduit que l’idéal serait de choisir d’abord l’échelle de modélisation et de planifier ensuiteles instrumentations nécessaires à la mesure des déplacements, pour pouvoir en déduire les loisd’écoulement à l’échelle de travail. Démarche qui n’est malheureusement pas tout le temps pos-sible.

De même, c’est à l’échelle de mesure que l’on définit la continuité et/ou l’homogénéité d’un

Page 45: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

22 1.4. Sources d’erreur, d’imprécision et d’incertitude en modélisation hydrologique

milieu. Encore une fois, dans le cas des flux cette échelle est très fine, tandis qu’à l’échelle dubassin le milieu naturel peut apparaître comme très hétérogène.

Enfin, des variables différentes peuvent être mesurées avec différents types d’instrumenta-tions qui “observent” les processus à des échelles différentes. Cela peut entraîner manifestementun problème de définition du domaine de validité de la modélisation, notamment dans le cas ducouplage de plusieurs mesures pour formaliser l’interaction entre plusieurs processus.

1.4.2.2 Hypothèses de travail classiques

La première hypothèse sous-jacente à une modélisation à base physique concerne la recon-naissance des processus et facteurs prépondérants dans un système physique. En effet, mêmesi les théories pour formaliser tous les processus d’un système prétendent être disponibles, ellessont souvent trop complexes pour que le système d’équations permettant leur formulation puissefacilement être résolu. Ainsi, on néglige des processus ou une partie des processus en simpli-fiant certains termes des équations (par exemple, on peut négliger les termes de diffusion danscertains types d’écoulement ou considérer une succession d’états stationnaires, négligeant lestermes de variation de stock, dans d’autres).

Il s’agit également de choisir les échelles d’espace et de temps les plus adaptées à la modé-lisation, car c’est à une échelle donnée qu’un facteur peut se révéler important ou, au contraire,négligeable. Ce choix équivaut à rechercher, en premier lieu, un support géométrique adéquatpour la modélisation et, deuxièmement, à fixer le pas de temps des simulations. Encore unefois, les échelles de mesure des variables ne sont pas forcément compatibles avec la résolutionspatio-temporelle des équations, ce qui entraîne une incertitude liée aux techniques d’agréga-tion et désagrégation nécessaires pour fournir au modèle de l’information à l’échelle requise.On reviendra sur ce point dans la section 1.4.3.

Enfin , on souligne que tout choix d’hypothèse reste assez subjectif, lié à l’expérience du mo-délisateur et à sa connaissance du bassin, ce qui peut entraîner des simplifications trop grandesou inversement pas assez nettes vis-à-vis des observations disponibles. Ainsi, il y a une incerti-tude de structure intrinsèque à toute modélisation (Uhlenbrook et al., 1999).

1.4.2.3 Approximations numériques

Remarque

Si des choix judicieux ont été effectués, les approximations numériques ne constituent pasune source d’incertitude significative. Toutefois, elles peuvent conduire à des résultats erronés,notamment à cause de la non-linéarité des modèles hydrologiques. C’est pourquoi elles sontmentionnées ici.

Page 46: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

1.4. Sources d’erreur, d’imprécision et d’incertitude en modélisation hydrologique 23

Les approximations numériques s’ajoutent aux simplifications théoriques, car les équationsreprésentant les processus, même simplifiées, peuvent être encore trop complexes pour qu’onpuisse les résoudre (habituellement, il s’agit d’équations différentielles non linéaires). On re-court alors à des algorithmes numériques, qui découpent le temps et l’espace d’intégration enintervalles aussi petits que l’on veut et permettent ainsi d’approcher les trajectoires solutionspar des lignes brisées. Cette démarche implique obligatoirement toute une série d’erreurs, dontil faut tenir compte.

Si les erreurs de troncature sont généralement négligeables, des erreurs de méthode, liéesau degré d’approximation du schéma numérique choisi, peuvent invalider les simulations. Ainsi,que l’on choisisse une intégration par différences finies, par éléments finis ou par une autre mé-thode, il se peut qu’on linéarise des équations sans tenir compte d’importants écarts entre lasolution réelle et la solution approximée. Or, la discrétisation numérique dans l’espace et letemps n’est pas toujours facilement adaptable aux processus en jeu, car il s’agit de trouver cellequi est la plus compatible avec les longueurs et les temps de tous les processus.

1.4.3 Quantité et qualité des données disponibles pour la modélisation

De nombreux travaux se réfèrent aux incertitudes sur les données utilisées en modélisation(Davis et al., 1979 ; Dawdy, 1979 ; Bras, 1979 ; Kuczera et Williams, 1992 ; Dawdy et Berg-mann, 1969 ; Chaubey et al., 1999 ; Singh, 1977 ; Høybye et Rosbjerg, 1999 ; Sorooshian etal., 1983 ; Krajewski et al., 1991 ; Michaud et Sorooshian, 1994b ; Clarke, 1999 ; Clarke et al.,2000). De ces travaux, il ressort cinq attributs essentiels liés aux données : l’exactitude, lacomplétude, la cohérence, l’opportunité et l’intelligibilité (Lovell, 1995 ; Guptill et Morri-son, 1995 et Redman, 1996). On en rappellera la définition tout au long de cette section, endistinguant plus simplément entre précision de mesure et contenu informatif des données,cette deuxième caractéristique comprenant la complétude, la cohérence, l’opportunité et l’intel-ligibilité.

De même, seront rappelés les problèmes métrologiques et méthodologiques liés à la dis-ponibilité de données pour la modélisation hydrologique (Ambroise, 1999). On observe en ef-fet qu’en choisissant une structure bien définie, le modélisateur impose un certain niveau decomplexité à son modèle. Or, si les données disponibles pour la modélisation sont en nombreinsuffisant et/ou trop imprécises pour apporter de l’information au modèle, le résultat des simu-lations pourrait ne pas être des meilleurs, même si la structure du modèle a été bien établie. Lessources principales d’erreur (que l’on cherchera a corriger, cf. section 1.4.3.3) et d’imprécisionet incertitude (dont il faudra essayer de tenir compte, cf. chapitres 2 et 3) seront donc examinées.

Page 47: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

24 1.4. Sources d’erreur, d’imprécision et d’incertitude en modélisation hydrologique

1.4.3.1 Imprécision de mesure

En se basant sur les textes de l’Organisation Internationale de Normalisation (ISO, 1993),Redman (1996) définit l’exactitude d’une donnée comme “la proximité de sa valeur à unecertaine valeur considérée comme la valeur correcte” . On observe donc que cette qualité a uncaractère relatif, puisqu’elle est définie par rapport à un référentiel jugé fiable, mais indéterminé.

Comme nous l’avons déjà souligne, il est inévitable que toute mesure des variables d’entréeet de sortie du modèle, ainsi que des variables internes, peut comporter une erreur, aussi pe-tite que l’on veut, dépendante de l’instrumentation choisie, de l’observateur et de l’observablemême. Ainsi, il y a une certaine imprécision et un caractère plutôt vague et flou dans toute me-sure, qui concerne une possible non conformité de l’information à la réalité (Dubois et Pradé,1988).

Si l’on considère, par exemple, une estimation des précipitations par pluviomètres ou plu-viographes, on observe qu’aux différentes caractéristiques techniques de chaque appareil seraassocié un pouvoir différent de captation, avec une imprécision conséquente. Les conditionsmétéorologiques influenceront aussi les mesures : généralement, on observe des déficits de cap-tation en cas de vent, en milieu forestier (à cause de l’interception de pluie par la végétation) ou,encore, en zone montagneuse, où la pluie reçue par le sol peut être différente de celle mesuréepar un pluviomètre, à cause de la pente du versant, etc.

Lorsqu’on utilise des méthodes indirectes pour mesurer une variable, des limites théoriquespeuvent également réduire la précision et la fiabilité des estimations.

C’est le cas, par exemple, de l’estimation des précipitations par radar : on mesure une réflec-tivité que l’on transforme en intensité de pluie à partir de la relation Z-R de Marshall-Palmer(1948). Or, non seulement le radar présente des imprécisions de mesure de la réflectivité, duesà des phénomènes d’atténuation et d’interception du signal par le relief, mais en plus la relationZ-R dépend de deux paramètres que l’on n’arrive pas à déterminer univoquement sur un sitedonné.

En conclusion, si l’on peut corriger les erreurs grossières et les problèmes d’étalonnage desinstruments par des techniques de traitement de données, des mesures répétées sur des “cibles”connues ou par inter-comparaison de mesures provenant de différents capteurs, il restera tou-jours une incertitude inhérente à toute mesure.

1.4.3.2 Manque d’information

Selon Guptill et Morrison (1995) “le degré de complétude décrit dans quelle proportionles objets à l’intérieur d’un ensemble de données représentent toutes les entités d’un univers”.

Page 48: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

1.4. Sources d’erreur, d’imprécision et d’incertitude en modélisation hydrologique 25

De même, la cohérence “décrit la compatibilité d’une donnée avec les autres données dans unensemble de données”. Ainsi, des observations peuvent être plus ou moins informatives, selonleur précision (comme l’on a vu au paragraphe précédent), leur résolution spatio-temporelle etleur cohérence entre elles.

En hydrologie notamment, on se pose souvent la question de savoir si la résolution spatialeet temporelle des observations est compatible et adaptée à celle de la modélisation et à cellereprésentative des processus. En effet, toutes les méthodes de mesure fournissent des donnéesintégrées sur un certain domaine spatio-temporel qui définit leur échelle de mesure caracté-ristique. Or, cette échelle n’est pas forcément compatible avec l’échelle des processus et/oul’échelle de modélisation.

De même, une incohérence entre les données de pluies et débits pour un épisode à reconsti-tuer peut générer des schémas contradictoires de représentation de la réalité, donc diminuer lafiabilité et la cohérence du modèle et, de ce fait, augmenter l’incertitude sur les résultats.

Enfin, nous rappelons l’importance d’avoir des données disponibles au bon moment (attributque l’on qualifie d’opportunité) et dans un format lisible et compréhensible par l’utilisateur(i.e. intelligible).

1.4.3.3 Traitement des données

Pour extraire le maximum d’information possible des données disponibles, plusieurs mé-thodes de traitement des données ont été développées. Ayant toutes une certaine part de subjec-tivité dans leurs hypothèses de travail, ces méthodes sont à leur tour sources d’incertitude.

En premier lieu, les méthodes d’interpolation spatiale et temporelle peuvent ne pas tenircompte d’éventuelles hétérogénéités, discontinuités ou inter-corrélations dans les champs desvariables à reconstruire si ces dernières ne sont pas présentes dans les données disponibles.La définition d’un plan d’échantillonnage de données (nombre des sites, leur localisation, fré-quence et possibilité de répétition des mesures) joue ainsi un rôle primordial (Ambroise, 1999).

On citera comme exemple de ces méthodes la géostatistique, désormais très utilisée pourcartographier les champs de pluie (e.g. Delhomme, 1978 ; Bras, 1979 ; Creutin et al., 1980 ;Guillot et al., 1999) ou les propriétés physiques et hydriques des sols (e.g. Philip, 1980 ; Wa-ckernagel et al., 1988 ; Voltz et al., 1997), et les splines, qui ont trouvé une application dansla description de la topographie du bassin versant (e.g. Deprataere, 1991 ; Moore et al., 1991 ;Walker et Willgoose, 1999).

Page 49: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

26 1.4. Sources d’erreur, d’imprécision et d’incertitude en modélisation hydrologique

Deuxièmement, on remarque qu’aucune théorie mathématique satisfaisante n’existe pourl’agrégation et désagrégation des données. En hydrologie, on utilise généralement des mé-thodes analytiques (e.g. Gutjahr et al., 1978a et b), des mesures comparées d’une variable àdifférentes échelles (Wu et al., 1982) ou des simulations Monte Carlo (Binley et al., 1991) pourdéterminer des règles d’agrégation. De même, on essaye couramment de désagréger des champsde variables avec des méthodes statistiques (e.g. Delhomme, 1978 ; Onibon, 2001) ou paramé-trisées (Wooldridge et al., 2001).

Dans ce cas, il s’agit de recréer, à la maille spatiale et au pas de temps du modèle, deschamps qui respectent les propriétés statistiques de texture spatiale et d’organisation temporelle,connues par ailleurs, tout en ayant une valeur intégrée égale à la mesure (elle même intégrée surune période de temps et/ou un domaine spatial plus grand).

Enfin, la gestion des données recueillies pose un certain nombre d’interrogations quant à leurcritique, leur archivage, leur mise à jour et leur accessibilité (consultation et extraction d’unepartie du contenu informatif). On observe ainsi une rapide évolution des Systèmes d’Informa-tion Géographique (SIG ; Nyerges, 1991 ; Pullar, 1997), d’Information à Référence Spatiale(SIRS ; Roche et Batton-Hubert, 1998) et de Gestion de Bases de Données (SDBD ; Salgé,1997).

1.4.4 Spécification des paramètres

Une fois la paramétrisation du modèle choisie, l’attribution d’une valeur numérique perti-nente aux paramètres du modèle et la critique de ces valeurs sont parmi les tâches les pluscomplexes, notamment dans le cadre d’une modélisation à base physique. Dans ce contexte, onsouhaite en effet trouver une correspondance directe entre la valeur des paramètres du modèleet la physique du système. Or, il arrive que certains paramètres servent “aussi” à compenser uneerreur de paramétrisation ou une mauvaise valeur de paramètre dans une autre partie du modèle.C’est un sujet que l’on examine dans la suite.

1.4.4.1 Définition de paramètre équivalent ou effectif

Le premier problème réside dans le définition même des paramètres du modèle. En effet,comme nous l’avons vu dans la section 1.4.2, tout paramètre devrait être invariant dans letemps, car considéré comme caractéristique du système physique étudié. Or, on peut choisirun seul paramètre pour exprimer une certaine propriété ou avoir plusieurs valeurs distribuéesdans l’espace (e.g. on peut considérer une seule valeur de conductivité à saturation sur un bas-sin versant ou avoir une distribution de valeurs dépendante de l’échantillonnage spatial du codenumérique). Dans les deux cas, il faut trouver une valeur équivalente qui soit représentatived’une certaine portion d’espace, plus ou moins étendue (le bassin versant en entier ou la maillede calcul). On parle alors de paramètre effectif et on suppose que l’unité d’espace élémentaire

Page 50: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

1.4. Sources d’erreur, d’imprécision et d’incertitude en modélisation hydrologique 27

choisie est homogène vis-à-vis de ce paramètre (figure 1.5).

FIG. 1.5 – Définition de paramètre effectif

Pourtant, on ne peut pas définir univoquement des paramètres effectifs (Smith et Freeze,1975 ; Gupta et al., 1986 ; Blöschl et al., 1995 ; Beven, 1995 ; Bathurst et Cooley, 1996).

D’une part, la question se pose de la définition de l’échelle la plus appropriée pour décrireun ou plusieurs processus. L’existence de cette échelle n’a pas encore été démontrée (cf. travauxde Goodrich, 1990 et Song et James, 1992, par exemple). Ce que l’on cherche généralement,c’est le volume (Representative Elementary Volume - REV ; e.g. Hubbert, 1956 ; Bear, 1972 ;Wheatcraft and Cushman, 1991) ou la surface (Representative Elementary Area - REA ; Woodet al., 1988 ; Fan et Bras, 1995 ; Famiglietti et Wood, 1995 ; Blöschl, 1996) à partir desquels lavaleur moyenne d’une variable ne change pas beaucoup avec la taille de l’élément. Cela permeten effet de travailler “théoriquement” avec une approche continue, sans changement d’échelle(cf. figure 1.6).

D’autre part, comme nous l’avons vu dans la section 1.4.3.3, il n’existe pas de méthode fiablepour agréger ou désagréger des données à l’échelle d’intérêt.

Enfin, l’une des conséquences des incertitudes de structure est que l’on peut être amené àassigner aux paramètres des valeurs calculées par inversion qui (i) ne sont pas a priori accep-

Page 51: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

28 1.4. Sources d’erreur, d’imprécision et d’incertitude en modélisation hydrologique

FIG. 1.6 – Définition de la porosité macroscopique en un point d’un milieu poreux selon une moyennevolumétrique (dans Blöschl (1996), d’après Hubbert, 1956)

tables du point de vue physique et (ii) ne sont pas univoques. On reviendra sur ce point dans lesdeux prochaines sections.

1.4.4.2 Choix du critère de performance d’une modélisation

Lorsqu’on établit la valeur des paramètres par inversion, on cherche à minimiser les écartsentre les simulations et les observations des variables correspondantes. Pour cela, on choisit unemesure “globale” des ces écarts, que l’on appelle fonction de coût, ou une fonction complémen-taire, la fonction objectif (cf. Nash et Sutcliffe, 1970 ; Diskin et Simon, 1977 ; Sefe et Boughton,1982 ; Gan et al., 1997 ; Houghton-Carr, 1999).

On observe qu’avec les fonctions de coût et objectifs usuellement utilisées, les erreurs desurestimation peuvent compenser les erreurs de sous-estimation, donnant une fausse impres-sion sur l’entité réelle des erreurs. De même, il n’est pas possible de départager deux simula-tions qui sont différentes, mais qui ont la même valeur de la fonction de coût. Pour cette raison,la solution au problème d’identification des paramètres n’aura souvent pas une solution unique.A l’inverse, le choix d’une fonction objectif peut mener artificiellement à une estimation pré-cise de la valeur des paramètres, donnant l’impression que la solution du problème inverse estunique, même dans le cas où elle ne l’est pas (par exemple, dans le cas où il y a redondance

Page 52: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

1.4. Sources d’erreur, d’imprécision et d’incertitude en modélisation hydrologique 29

analytique entre paramètres).

De plus, comme le soulignent Diskin et Simon (1977), puis Sefe et Boughton (1982) etHoughton-Carr (1999), une combinaison de paramètres considérée comme optimale avec unefonction objectif donnée l’est souvent seulement pour cette fonction objectif et pour la séquencemodélisée. Les valeurs des paramètres inversés à partir d’une fonction objectif sont donc fonc-tionnelles à un but bien précis (e.g. la prévision de crue ou la gestion des étiages).

Le choix d’une fonction objectif implique aussi le choix d’une ou plusieurs variables cibles(on parle dans ce cas de calibration multiple) dont on tiendra compte. Si une seule variableest retenue, la combinaison de paramètres inversée sera la “meilleure” seulement pour cettevariable. C’est le cas, par exemple, dans la modélisation pluie-débit lorsqu’on compare lesobservations et les simulations des débits à l’exutoire d’un bassin : souvent, les valeurs desparamètres qui reconstituent au mieux la série des débits observés ne permettent pas d’avoirune aussi bonne estimation de l’état d’humidité des sols ou des débits intermédiaires le long duréseau.

Inversement, si plusieurs variables sont retenues pour la spécification, elles imposeront descontraintes supplémentaires : le compromis entre l’information que l’on souhaite extraire dumodèle et celle que le modèle peut effectivement fournir sera encore plus marqué. Ainsi, onaura des chances d’avoir de bons résultats pour les situations “courantes” , mais moins bonspour les situations extrêmes.

1.4.4.3 Dépendance du calage vis-à-vis de la série de données disponibles

Lorsqu’on identifie la valeur des paramètres par inversion, il est souhaitable que la série dedonnées que l’on utilisera puisse permettre de reproduire les spécificités dominantes du bassin.Ainsi, l’information quantitative et qualitative contenue dans ces données doit être le plus utilepossible dans le contexte d’application choisi (Gupta et Sorooshian, 1985).

Cependant, comme nous l’avons observé dans la section 1.4.3, plusieurs incertitudes peuventaffecter les données : des imprécisions de mesure, une insuffisance d’information, des incohé-rences entre les données, etc. Deux propriétés de la série de données d’étalonnage semblent êtreimportantes : la longueur de la série et le type/la variabilité des données.

Il est en effet intuitif que plus la longueur d’une série sera importante (e.g. plus on aura d’ob-servations des précipitations et de débits écoulés au cours d’un certain nombre d’épisodes decrue), plus l’inversion des valeurs des paramètres sera robuste, car une erreur éventuelle dansles données aura moins de poids. De même, des données couvrant le spectre le plus large pos-sible des situations rencontrées (étiages sévères, crues exceptionnelles), seront à l’origine d’unebonne estimation de la valeur des paramètres : c’est l’avantage de la géo-hydro-diversité !

Page 53: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

30 1.5. Conclusion

Enfin, nous soulignons qu’il est également important d’avoir des données informatives pourl’application spécifique que l’on veut faire. Un modèle pluie-débit dont les paramètres ont étéétalonnés à partir de données d’épisodes d’étiages aura peu de chances de bien se comporter enprévision de crue, à cause notamment des incertitudes liés à la détermination de sa structure.

1.5 Conclusion

Plusieurs incertitudes, liées au choix du modèle et aux données disponibles, peuvent affecterles résultats de simulation. En particulier, tout biais dans les données ou la modélisation choisiesse retrouve, souvent amplifié, dans la valeur des paramètres inversés. Cependant, si plusieurstravaux dans la littérature proposent des méthodes pour la reconnaissance et la réduction desincertitudes de modélisation (e.g. James, 1972a ; Clarke, 1973 ; Troutman, 1983 ; Sorooshian etGupta, 1983 ; Hooper et al., 1988 ; Krajewski et al., 1991 ; Clarke, 1999), très peu d’auteurs ontcherché à les prendre en compte pour estimer explicitement le degré d’imprécision des sortiesdes modèles (Young, 1978 ; Hornberger et Spear, 1981 ; Kuczera, 1983a ; Gupta et Sorooshian,1985 ; Beven et Binley, 1992).

Dans le chapitre suivant, on résume les travaux existants dans la littérature en matière detraitement des incertitudes en modélisation hydrologique. Les travaux concernant la prise encompte des incertitudes lors de l’estimation des paramètres par inversion seront ensuite résu-més en une méthodologie novatrice de reconnaissance de l’ambiguïté du modèle, que l’on aurapréalablement définie (chapitre 3).

Page 54: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

Chapitre 2

Aperçu des principales techniquesd’estimation des incertitudes

Would you go to an orthopaedist who didn’t use X-ray ?

Jean Marie Fürbringer (1996)

Plusieurs techniques ont été développées pour quantifier les incertitudes de modélisation etjuger la fiabilité des simulations, notamment à partir des années 1970. Ces techniques sontgénéralement classifiées selon leur objectif : nous parlons alors

– d’analyse de sensibilité, lorsque nous cherchons à évaluer quelle est la sensibilité de laréponse du modèle à une variation de la valeur des facteurs en entrée (variables de forçage,informations) et/ou des ses paramètres ;

– d’analyse d’incertitude, si nous visons à estimer quel est l’impact sur les simulations desdifférentes incertitudes de modélisation (incertitudes sur les données, sur la structure dumodèle, etc.).

Une deuxième classification permet de distinguer les techniques dites “locales” (qui explorentune région limitée de l’espace des valeurs possibles autour d’une valeur de référence) des “glo-bales” (ou généralisées, qui étudient une région de l’espace plus grande, en incluant éventuel-lement des valeurs a priori non admissibles) : c’est selon ce groupement que seront discutées,dans ce chapitre, les principales démarches suivies en hydrologie.

31

Page 55: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

32 Les techniques d’estimation des incertitudes

Les premières études concernant les incertitudes ont été menées pour répondre à un besoinessentiel : quantifier la fiabilité des observations qui alimentent les modèles ou que l’on désirereproduire via les simulations (e.g. Kline et McClintock, 1953). Ainsi, il s’agissait, au départ,de détecter, puis de trouver une expression mathématique pour les incertitudes expérimen-tales : c’est à partir de ces premières définitions que les incertitudes de modélisation ont étéformalisées par la suite.

En effet, si les valeurs des différents facteurs et paramètres d’un modèle étaient connues sansincertitude, alors les valeurs des variables pronostiques seraient univoquement déterminées etpourraient être présentées comme la seule sortie possible du modèle. En réalité l’incertitude surles facteurs et les paramètres induit une incertitude sur la sortie du modèle, dont il est nécessaired’identifier les principales propriétés. On se demande alors :

1. Quelle est l’incertitude sur la (les) sortie(s) du modèle, une fois établie l’incertitudesur les facteurs et les paramètres ?

2. Quel est l’importance de chaque facteur et paramètre sur l’incertitude globale de la(des) sortie(s) ?

Pour répondre à ces deux questions, deux grandes familles d’analyses ont été développées :

1. l’analyse d’incertitude, ayant pour objectif la quantification et l’étude des propriétésstatistiques de la dispersion de valeurs des sorties du modèle ;

2. l’analyse de sensibilité, permettant de quantifier les effets relatifs des différentes sourcesd’incertitude sur le résultat final (ce qui conduit à l’identification des facteurs et des para-mètres dont l’influence est prépondérante sur les sorties du modèle).

Les deux types d’analyses sont très proches d’un point de vue conceptuel, ce qui permet deles étudier selon une classification qui tient compte de l’approche suivie pour leur implémenta-tion : “locale” ou “globale” , comme nous l’avons fait par la suite (sections 2.2 et 2.3).

Remarque

Contrairement à d’autres disciplines, dans lesquelles les techniques d’analyse d’incertitudesont considérées comme dérivées des techniques d’analyse de sensibilité (e.g. Helton, 1993 ;Hamby, 1994 ; Saltelli et al., 2000), la littérature hydrologique a tendance à considérer cesdernières comme un sous-ensemble des premières (e.g. Spear et Hornberger, 1980 ; Troutman,1985a ; Beck, 1987 ; Chang et al., 1993 ; Omlin et Reichert, 1999). En effet, l’analyse de sen-sibilité est généralement utilisée comme un outil permettant une étude préliminaire du com-portement du modèle et susceptible de fournir des informations précieuses avant le démarragede l’analyse d’incertitude. A noter que l’analyse de sensibilité dépend aussi de la séquence desimulation retenue.

Page 56: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

2.1. Quelques outils d’expression mathématique des incertitudes 33

2.1 Quelques outils d’expression mathématique des incerti-tudes

Comme nous l’avons déjà souligné (section 1.4.1), afin d’étudier les incertitudes de mo-délisation et d’évaluer la confiance que l’on peut accorder aux résultats d’une simulation, lesvariables de forçage, les informations et/ou les paramètres du modèle sont considérés, de ma-nière générale, comme des variables aléatoires, dont nous connaissons expérimentalement ounous fixons par hypothèse (a priori ) :

1. les moments statistiques ;

2. un intervalle de dispersion ;

3. la fonction de densité de probabilité (ou la fonction de répartition cumulée).

Les variables pronostiques sont à leur tour considérées comme des variables aléatoires (mêmesi le modèle a été développé selon une approche déterministe), dont la dispersion dépend de lastructure du modèle choisie et des incertitudes sur les facteurs et les paramètres. Nous verronsaux sections 2.1.1 à 2.1.4 comment la théorie des probabilités peut être exploitée pour exprimerles incertitudes.

Une approche alternative, moins répandue en hydrologie, consiste à utiliser la théorie desensembles flous (e.g. Zadeh, 1965 ; Bardossy et Duckstein, 1995 ; Freissinet, 1997) : nous endonnons un aperçu à la section 2.1.5.

2.1.1 Evaluation des incertitudes expérimentales

Les normes en vigueur relatives aux résultats issus de campagnes expérimentales stipulentque ceux-ci doivent être systématiquement associés à une indication sur leur incertitude, dontles moyens d’évaluation sont recensés, au niveau international, dans le “Guide pour l’expres-sion des incertitudes expérimentales” (ISO, 1993). En France et aux Etats-Unis ces normes ontété reprises dans deux notes techniques, respectivement par l’Association Française de Norma-lisation (AFNOR, 1996) et le National Institute of Standards and Technology (Taylor et Kuyatt,1994).

De manière générale, on suppose que les erreurs systématiques et les erreurs grossièrespeuvent être corrigées. Seules les erreurs aléatoires sont prises en compte. On distingue alorsdeux cas de figure.

Incertitudes de type A

Si l’on considère une grandeur X dont on a procédé au mesurage n fois de suite dans des

Page 57: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

34 2.1. Quelques outils d’expression mathématique des incertitudes

conditions de répétabilité (cf. section 1.4.1) et on note avec xi, i = 1, 2, ...n les différentes me-sures obtenues, on peut considérer que

– l’espérance mathématique de ces mesurages

E(X) = x =1

n

n∑

i=1

xi (2.1)

est la mesure de X ;

– la variance qui décrit la dispersion des mesures

var(X) = S(X)2 =1

n − 1

n∑

i=1

(xi − x)2 (2.2)

en exprime l’incertitude.

On observe que la variance de la moyenne

var(x) =S(X)2

n(2.3)

diminue avec le nombre n des mesurages.

Incertitudes de type B

Si l’on ne peut pas répéter la mesure plusieurs fois (ce qui est le cas les plus souvent rencon-tré en hydrologie), on étudie préalablement au mesurage le système de mesure et la variabilitépossible due aux différentes sources d’incertitude (e.g. en faisant des essais de laboratoire),puis, faisant également appel à l’expérience de l’opérateur, on choisit une loi représentative del’incertitude sur la valeur mesurée x. Les lois les plus fréquemment utilisées sont

– une loi Normale, dont la moyenne vaut la seule mesure disponible x et l’écart-type estchoisi sur la base de la précision de l’instrument et des conditions de mesure ;

– une loi uniforme, supposant que la valeur vraie de X se situe dans une intervalle centrésur x de demi-largeur a : [x − a, x + a] et que toute valeur au sein de cet intervalle estéquiprobable. L’écart-type sera alors donné par s(X) = a/

√3 ;

– une loi triangulaire, faisant l’hypothèse que la valeur vraie de la grandeur X se situedans l’intervalle [x − a, x + a], dont x constitue la valeur la plus probable. On a alorss(X) = a/

√6.

Page 58: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

2.1. Quelques outils d’expression mathématique des incertitudes 35

2.1.2 Scénarii d’erreur et scénarii futurs

Un histogramme des valeurs de la grandeur X , plutôt que les moments statistiques, peutapporter une information utile, e.g. au cours d’études préliminaires pour déterminer la loi dedistribution la plus intéressante à utiliser dans le cadre de la méthode de type B. De même, onpeut être intéressé à tester la sensibilité de la modélisation des variables prédictives à différentsordres de grandeur des valeurs des facteurs et/ou des paramètres (e.g. dans les études sur l’im-pact de la variation de l’occupation des sols sur le bilan hydrique d’un bassin). Enfin, si l’ontravaille avec des variables, des paramètres et/ou des informations qui ne sont pas mesurablesou dont on ne possède pas de mesure (par exemple, lorsqu’on modélise des bassins partielle-ment ou pas jaugés, ou lorsqu’on utilise des variables de forçage issues de prévisions), on nepeut que faire des hypothèses sur la fonction de distribution de probabilité qui leur est associée.

Des méthodes numériques de type Monte Carlo (Metropolis et Ulam, 1949) sont générale-ment utilisées dans ces cas : on reconstitue la fonction de densité de probabilité des facteurset des paramètres à partir d’un échantillonnage “vraisemblablement correct” des valeurs qu’ilssont susceptibles de prendre.

Chaque réalisation de valeurs, appelée scénario, peut être utilisée pour forcer et/ou contraindrele modèle. Ainsi, à chaque scénario associé à un ou plusieurs facteurs et/ou paramètres corres-pond un scénario de variables pronostiques. L’ensemble de ces scénarii simulés constitue ainsiun échantillonnage de la fonction de densité de probabilité de la réponse du modèle.

Plusieurs auteurs ont souligné que les fonctions de densité de probabilité choisies doiventexprimer le degré de croyance (subjectif) que l’on associe aux valeurs prises par les différentesvariables/informations/paramètres et non pas caractériser une variabilité spatiale ou temporelle(e.g. Kuczera, 1983b ; Berger, 1985 ; Meyer et Booker, 1991 ; Gaume et al., 1998). En effet,les valeurs des variables de forçage, des informations et des paramètres sont agrégées sur undomaine spatial et un intervalle temporel fixés. Ce sont donc des quantités constantes sur le do-maine (e.g. maille, bassin) et le pas de temps (pour les variables) ou la période (pour les infor-mations) considérés. Ainsi, la densité de probabilité qui leur est associée doit caractériser l’in-certitude sur ces valeurs moyennes, plutôt que leur variabilité sous-maille ou intra-temporelle.

Pour résumer, après avoir associé une distribution Dj à chaque élément Θj du vecteur desfacteurs et/ou des paramètres Θ (de dimension nΘ), on extrait un échantillon de valeurs pos-sibles de ce vecteur Θ (avec ne nombre de scénarii, appelé aussi taille de l’échantillon) :

Θk = [Θk1, Θk2, ..., ΘknΘ] k = 1, 2, ..., ne (2.4)

et on calcule les nY sorties du modèle Y(Θk) qui leur correspondent :

Page 59: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

36 2.1. Quelques outils d’expression mathématique des incertitudes

Y(Θk) = [Y1(Θk), Y2(Θk), ..., YnY(Θk)] k = 1, 2, ..., ne (2.5)

Les couples [Θk,Y(Θk)] permettent ainsi d’étudier quel est l’impact des incertitudes desvariables de forçage, des informations et/ou des paramètres sur l’incertitude des variables pro-nostiques.

2.1.3 Techniques d’échantillonnage

Plusieurs techniques d’échantillonnage ont été proposées dans la littérature (e.g. McKay etal., 1979 ; Stein, 1987 ; Press et al., 1992 ; Barry, 1996 ; Fishman, 1996 ; Banks, 1998 ; Saltelliet al., 2000) : les plus diffusées sont celles de l’échantillonnage aléatoire, de l’échantillonnagestratifié et de l’échantillonnage selon les hypercubes latins.

L’échantillonnage aléatoire permet de générer des scénarii de valeurs de Θ à partir de leurdistribution de probabilité conjointe (ou des probabilités marginales, si les éléments sont indé-pendants). A titre d’exemple, dans la figure 2.1 nous considérons un vecteur X constitué pardeux éléments U et V , distribués, respectivement, selon une loi Normale de moyenne 0 et in-tervalle inter-quantile q1% − q99% = [−1, 1], et une loi triangulaire de mode 1 sur l’intervalle[0, 4]. Pour générer cinq scénarii Xk = [U(k), V (k)], on échantillonne aléatoirement cinq va-leurs RU(1), RU(2), ..., RU(5) et 5 valeurs RV (1), RV (2), ..., RV (5) à partir de deux distribu-tions uniformes sur l’intervalle [0, 1]. A ces valeurs correspondent, via les répartitions cumuléesdes deux lois Normale et triangulaire, cinq valeurs U(1), U(2), ..., U(5) et V (1), V (2), ..., V (5)(cf. figure 2.1 en haut). En appariant les U(k) et les V (k) (dans l’ordre), on obtient les cinqcouples Xk = [U(k), V (k)] (cf. figure 2.1 en bas).

On observe que chaque scénario est généré indépendamment des autres scénarii. De plus, lavaleur associée à chaque élément de Θ se retrouve dans l’ensemble des scénarii avec une fré-quence directement proportionnelle à la probabilité d’occurrence de la région de l’espace desvaleurs possibles dont elle provient. Ainsi, avec un échantillonnage aléatoire, l’espace des va-leurs possibles SΘ peut ne pas être complètement exploré, tout comme il est possible d’obtenirplusieurs valeurs échantillonnées très proches l’une de l’autre (on parle alors d’échantillonnagenon efficient).

Ces problèmes peuvent être résolus soit en augmentant la taille de l’échantillonnage (mé-thode coûteuse en temps de calcul), soit en faisant appel à un échantillonnage stratifié (impor-tance sampling). Dans ce dernier cas, l’espace des valeurs possibles des éléments de Θ est diviséen un certain nombre de régions distinctes Si, appelées strata ou couches. On échantillonne

Page 60: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

2.1. Quelques outils d’expression mathématique des incertitudes 37

FIG. 2.1 – Exemple d’échantillonnage aléatoire (reproduit de Saltelli et al., 2000)

alors chaque couche de manière aléatoire, l’une indépendamment de l’autre, afin d’obtenir unou plusieurs scénarii pour chacune d’entre elles :

Θk = [Θk1, Θk2, ..., ΘknΘ] k = 1, 2, ...,

ns∑

i=1

nSi(2.6)

avec ns le nombre de régions de l’espace des valeurs et nSile nombre de scénarii générés dans

chaque couche Si.

Page 61: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

38 2.1. Quelques outils d’expression mathématique des incertitudes

FIG. 2.2 – Exemples d’échantillonnages stratifiés (reproduit de Saltelli et al., 2000)

Quatre exemples d’échantillonnage stratifié sont données à la figure 2.2. Dix combinaisonsdifférentes de valeurs de X = [U, V ] sont échantillonnées en divisant en dix couches (ns = 10)l’espace à deux dimensions des valeurs possibles de U et V . Dans chaque couche un seul scé-nario est généré (nSi

= 1). Deux types de distributions sont considérées pour U et V à la figure2.2 : uniformes sur [0, 1] (colonne de gauche) et, respectivement, Normale sur [−1, 1] et trian-gulaire sur [0, 4] (i.e. les mêmes distributions considérées dans la figure 2.1, colonne de droite).Dans les deux graphes en haut de la figure 2.2, des couches équiprobables ont été identifiées(i.e. p(Si) = 0.1) ; dans ceux d’en bas, des couches ayant chacune une probabilité différente(i.e. p(Si) = 0.1 ou 0.2 ou 0.6 selon les cas) ont été choisies. Si l’on suppose que U et V sont

Page 62: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

2.1. Quelques outils d’expression mathématique des incertitudes 39

distribués selon des lois uniformes, les 10 couches équiprobables ont toutes la même surface (enhaut à gauche), tandis que dans le cas où des distributions des valeurs de U et V non uniformessont admises, les couches ont des surfaces différentes, même dans le cas où elles ont la mêmeprobabilité (en haut à droite). Au contraire, dans le cas où les couches ne sont pas équiprobables,l’extension de leur surface est le résultat de l’interaction entre leur probabilité et la probabilitéde chaque valeur de U et V dans cette couche (en bas).

FIG. 2.3 – Exemple d’échantillonnage selon les hypercubes latins (reproduit de Saltelli et al., 2000)

Dans le cas d’un échantillonnage stratifié, on vise donc à assurer au mieux la couverture

Page 63: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

40 2.1. Quelques outils d’expression mathématique des incertitudes

de l’espace des combinaisons de valeurs des éléments de Θ. A son tour, l’échantillonnageselon les hypercubes latins (LHS - Latin Hypercube Sampling) a pour objectif la couverturede l’intervalle entier des valeurs de chaque élément Θi. Ainsi, chacun de ces intervalles estdivisé en nLHS sous-intervalles équiprobables. Une valeur de l’élément Θi qui y correspondest ensuite échantillonnée aléatoirement sur ce sous-intervalle. Les nLHS valeurs obtenues sontalors appariées aléatoirement et sans remplacement aux nLHS valeurs d’un autre élément Θj. Aleur tour, ces nLHS couples de valeurs sont combinées aléatoirement, sans remplacement, avecles nLHS valeurs d’un troisième élément Θh et ainsi de suite, jusqu’à former une nombre nLHS

de nΘ-plés de la forme :

Θk = [Θk1, Θk2, ..., ΘknΘ] k = 1, 2, ..., nLHS (2.7)

Un exemple de génération de 5 scénarii de valeurs d’un vecteur bidimensionnel X = [U, V ]selon les hypercubes latins avec nLHS = 5 est présenté à la figure 2.3.

Encore une fois, on suppose que les valeurs des deux éléments U et V de X sont distribuésindépendamment et, respectivement, selon une distribution Normale de moyenne 0 et d’inter-valle inter-quantile q1% − q99% = [−1, 1] et une distribution triangulaire de mode 1 sur [0, 4].En premier lieu, les intervalles de variation de U et V sont divisés en cinq sous-intervalles équi-probables. Pour délimiter ces intervalles, on cherche les valeurs de U et V qui sont associés, viales deux fonctions de répartition cumulées, aux valeurs 0.2, 0.4, 0.6 et 0.8 d’une distributionuniforme sur [0, 1] (segments horizontaux et verticaux continus dans les diagrammes en haut dela figure 2.3). Ensuite, des valeurs U(1), U(2), ..., U(5) et V (1), V (2), ..., V (5) sont échantillon-nées aléatoirement dans chaque intervalle ainsi créé, via les distributions de probabilités cumu-lées, respectivement à partir de 5 valeurs RU(1), RU(2), ..., RU(5) et RV (1), RV (2), ..., RV (5)échantillonnées aléatoirement sur une distribution uniforme dans [0, 1] (segments horizontauxet verticaux discontinus dans les diagrammes en haut de la figure 2.3). On combine alors aléa-toirement et sans remplacement ces valeurs pour obtenir 5 couples Xk = [Ui, Vj]. Dans le basde la figure 2.3, deux différents scénarii possibles à partir des valeurs échantillonnées sont pro-posés (cf. aussi tableau 2.1).

Remarques

1. Les procédures d’échantillonnages présentées précédemment ne sont valables que dans lecas où les éléments Θi de Θ peuvent être échantillonnés de manière indépendante. Uneméthode pour générer des scénarii dans le cas où les facteurs et/ou les paramètres du mo-dèle sont corrélés a été développée par Iman et Conover (1982).

2. L’échantillonnage aléatoire est à préférer si un nombre important de scénarii peut êtregénéré (indicativement, ne > 500), puisqu’il s’agit d’un échantillonnage facile à im-plémenter, fournissant des estimations non biaisées des moyennes, des variances et des

Page 64: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

2.1. Quelques outils d’expression mathématique des incertitudes 41

1er ensemble de pairs 2eme ensemble de pairsX1 U(1), V (5) U(1), V (3)X2 U(2), V (1) U(2), V (2)X3 U(3), V (2) U(3), V (4)X4 U(4), V (3) U(4), V (5)X5 U(5), V (4) U(5), V (1)

TAB. 2.1 – Deux exemples d’appariements possibles lorsqu’on échantillonne un vecteur bidimensionnelX = [U, V ] selon l’algorithme des hypercubes latins, avec nLHS = 5

quantiles des fonctions de densités de probabilité que l’on cherche à reproduire. Cepen-dant, cette technique est “gourmande” en termes calculatoires.

3. Ainsi, lorsqu’un échantillonnage aléatoire n’est pas réalisable, notamment lorsque lestemps de calcul sont élevés, l’utilisation d’un échantillonnage stratifié constitue une al-ternative valide. L’inconvénient principal réside dans la difficulté à définir le nombre etla délimitation des couches, ainsi que leur probabilité relative. Si l’on n’a pas une idée apriori de la distribution de probabilité que l’on veut échantillonner, la méthode nécessiteun découpage de l’espace des valeurs en couches plus fines que ce qu’il serait théorique-ment nécessaire, ce qui parfois conduit à un nombre de calculs extrêmement élevé.

4. L’échantillonnage selon les hypercubes latins représente une bonne solution lorsqu’on nepeut pas générer un grand nombre de scénarii et que l’on n’est pas intéressé par l’es-timation de quantiles très élevés (i.e. on cherche au maximum une probabilité au nondépassement de 0.90 ou de 0.95). Comme l’échantillonnage aléatoire, cette techniquefournit des estimations non biaisées des moments des fonctions de densité de probabilitéque l’on cherche à échantillonner ; il a été observé, de plus, qu’une nombre assez réduitde scénarii (nLHS = 50 ÷ 200) suffit pour obtenir des estimations assez robustes (e.g.Iman et Helton, 1982 ; Helton et al., 1995).

2.1.4 Intervalles de dispersion

Lorsqu’on ne veut pas reconstituer la fonction de probabilité entière des observations et/oudes simulations, on peut estimer des intervalles permettant de quantifier la dispersion autourde la valeur attendue d’une variable et/ou d’un paramètre. Trois sortes d’intervalles sont gé-néralement utilisées (e.g. Seber et Wild, 1989 ; Haan et Meker, 1991 ; Helsel et Hirsch, 1992 ;Christensen et Cooley, 1999 ; Beven, 2000).

Premièrement, un intervalle de confiance est censé contenir l’estimation de la valeur “vraie”, mais inconnue, d’une quantité mesurable (une variable de forçage, une variable pronostique,

Page 65: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

42 2.1. Quelques outils d’expression mathématique des incertitudes

une information ou, plus rarement, un paramètre) : comme nous ne connaissons pas cette valeur,nous ne pouvons qu’estimer un intervalle à l’intérieur duquel nous espérons retrouver la valeur“vraie” de cette quantité avec une certaine probabilité p. Ainsi, on dit avoir confiance à C% quela valeur ’vraie’ d’une quantité X soit comprise entre µ−UX et µ+UX , où µ est généralement lamoyenne des mesures disponibles (ou la mesure, s’il y en a qu’une seule) et UX est l’incertitudesur X qui correspond à l’estimation à C% de confiance. Par exemple, lorsqu’on donne commelimites de l’intervalle les quantiles 10% et 90% des observations (respectivement, les valeursde la variable X pour lesquelles on a 90% et 10% de probabilité de dépassement), on s’attend àce que la valeur ’vraie’ cherchée ait 80% de probabilité de se situer dans cette intervalle : nousavons donc donnée l’intervalle de confiance à 80% pour X .

Par ailleurs, les limites d’un intervalle de tolérance sont définies de manière à ce que l’inter-valle contienne une proportion T% des valeurs observées d’une ou plusieurs variables prédic-tives. Ainsi, on considère que toutes les simulations de ces variables qui respectent l’intervallede tolérance fourni reproduisent la dispersion de valeurs résultant de l’incertitude des valeursobservées (e.g. en phase de réglage ou de validation du modèle).

Enfin, comme son nom l’indique, un intervalle prédictif contient une proportion P% desprévisions d’un modèle pour un évènement futur.

2.1.5 Les ensembles flous

Une dernière méthode, qui commence à se répandre en hydrologie depuis une dizaine d’an-nées environ (e.g. Bardossy et Duckstein, 1995 ; Freissinet, 1997 ; Franks et al., 1998 ; Aronicaet al., 1998) permet d’exprimer les incertitudes d’un facteur ou d’un paramètre : il s’agit de lathéorie des ensembles flous (Zadeh, 1965 ; Dubois et Pradé, 1988).

Comme son nom l’indique, un ensemble flou se caractérise par des limites qui ne sont pasclairement définies, ce qui permet de caractériser l’incertitude sur une variable et/ou un pa-ramètres grâce à la définition une fonction d’appartenance ou distribution de possibilité (cf.figure 2.4). Ainsi, contrairement à ce qui se passe dans un ensemble classique, dans la théoriedes ensembles flous un élément peut n’appartenir qu’en partie à un ensemble donné.

Soit E un ensemble. A est appelé sous-ensemble flou de E si :

A = {(x, fa(x)); x ∈ E, fa(x) ∈ [0, 1]} (2.8)

où fa(x) est le degré d’appartenance de x dans A.

Cinq caractéristiques principales permettent de décrire une distribution d’appartenance (cf.figure 2.4) :

Page 66: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

2.1. Quelques outils d’expression mathématique des incertitudes 43

FIG. 2.4 – Caractéristiques principales des ensembles flous

– le support désigne toutes les valeurs pour lesquelles un élément appartient même en partieà l’ensemble :

supp(A) = {x ∈ E; fa(x) 6= 0} (2.9)

– la hauteur est la plus grande valeur prise par la distribution de possibilité de l’ensembleflou :

h(A) = supx∈Efa(x) (2.10)

Un ensemble flou est dit normalisé si sa hauteur est égale à 1.

– le noyau désigne les éléments qui appartiennent complètement à l’ensemble :

noy(A) = {x ∈ E; fa(x) = 1} (2.11)

– la cardinalité permet d’estimer, dans le cas des ensembles finis, le degré avec lequel leséléments de E appartiennent à A :

|A| =∑

x∈E

fa(x) (2.12)

– enfin, une coupe de niveau α permet de définir un seuil à partir duquel l’appartenance àun ensemble donné est jugée satisfaisante :

A(α) = {x, fa(x) ≥ α} (2.13)

Page 67: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

44 2.2. Approches locales pour l’évaluation des incertitudes de modélisation

Après avoir modélisé chaque variable et/ou paramètre du modèle par des courbes donnantle degré d’appartenance à différents états identifiés (étape de fuzzyfication), des règles logiquesdoivent être établies pour pouvoir lier les différents ensembles. Il s’agit de trouver des opéra-tions (addition, multiplication, inverse, puissance, etc.) et des compositions d’opérations (union,intersection, etc.) similaires à celles de l’arithmétique classique, permettant d’obtenir des inter-valles de confiance semblables à des résultats statistiques. Ainsi, on définit, par exemple :

– la moyenne floue

m(A) =

+∞

−∞fa(x)xdx

∫ +∞

−∞fa(x)dx

(2.14)

– la divergence gauche et droite

δg(A) =

∫ m

−∞

fa(x)dx et δd(A) =

∫ +∞

m

fa(x)dx (2.15)

– un intervalle de confiance (MIC - Mean Interval of Confidence)

MIC = [m − δg(A); m + δd(A)] (2.16)

On voit donc que l’implémentation de cette méthodologie nécessite un investissement initialnon indifférent pour n’obtenir, finalement, qu’une estimation qualitative (probablement suffi-samment informative, mais sans doute très subjective) des incertitudes de modélisation. C’estprobablement pour cela qu’elle n’a pas connu le succès immédiat des méthodes Monte Carlo,par exemple, plus simples à appréhender.

2.2 Approches locales pour l’évaluation des incertitudes demodélisation

Les premières techniques développées pour analyser les incertitudes de modélisation ontconcerné l’étude de sensibilité de la réponse du modèle à la variation d’un seul facteur (entréeou paramètre), les autres étant fixés et maintenus constants. La région de l’espace explorée étantlimitée autour d’un point prédéfini (la valeur nominale du facteur que l’on faisait varier), cesessais ont été qualifiés de locaux. Par la suite, des analyses faisant varier plusieurs entrées et/ouparamètres à la fois autour de valeurs centrales, toujours en privilégiant l’impact local de cesvariations, ont été effectuées : on regroupe actuellement toutes ces approches dans la même

Page 68: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

2.2. Approches locales pour l’évaluation des incertitudes de modélisation 45

famille des analyses locales (e.g. Benjamin et Cornell, 1972 ; Saltelli et al., 2000).

La stratégie utilisée est la suivante : après avoir fixé la valeur nominale et l’intervalle de va-riation des facteurs, un développement en séries de Taylor est utilisé pour approximer le modèleen étude autour de la valeur nominale. On substitue alors au modèle initial les premiers termesde ce développement pour effectuer les analyses de sensibilité et d’incertitude. Ainsi, il est né-cessaire que le modèle soit localement continu et dérivable (au moins jusqu’au premier ordre)dans le domaine de variation des facteurs.

Considérons, par exemple, le système d’équations différentielles suivant :

{

dY

dt= f(Y,Θ)

Y(t = 0) = Y0

(2.17)

avecY vecteur des N variables pronostiques ;Θ vecteur composé par les M variables de forçage X, les J informations I et les K paramètresdu modèle α ;Y0 vecteur des valeurs initiales.

Soit Ys la solution de ce système pour un vecteur Θ donné ; le développement en séries deTaylor autour de Ys s’écrit :

Ys(t,Θ + ∆Θ) = Ys(t,Θ) +M+J+K

j=1

∂Yi

∂Θj

∆Θj +1

2

M+J+K∑

l=1

M+J+K∑

j=1

∂2Yi

∂Θl∂Θj

∆Θl∆Θj + ...

(2.18)

Les dérivées partielles ∂Yi/∂Θj permettent d’estimer quel est la variation résultante sur lavariable Yi d’une variation unitaire sur le facteur ou le paramètre Θj : elles sont appelées coeffi-cients de sensibilité ou sensibilités locales du premier ordre et forment la matrice de sensibilitéS = [sij] = [∂Yi/∂Θj].

De même, les dérivées partielles ∂2Yi/∂Θj∂Θk sont appelées sensibilités locales du secondordre, et ainsi de suite pour les ordres supérieurs.

Les coefficients de sensibilité peuvent être calculés numériquement

Page 69: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

46 2.2. Approches locales pour l’évaluation des incertitudes de modélisation

1. par la méthode des différences finies (ou méthode indirecte) :

∂Y

∂Θj

≈ Y(Θj + ∆Θj) − Y(Θj)

∆Θj

, j = 1, ..., m (2.19)

avecY(Θj) vecteur des variables pronostiques obtenu avec la valeur nominale du facteur oule paramètre Θj ;Y(Θj + ∆Θj) vecteur des variables pronostiques obtenu après avoir perturbé la valeurnominale du facteur ou du paramètre Θj d’une quantité ∆Θj.

2. par une méthode directe, basée sur la résolution de l’équation aux dérivées partiellesordinaires suivante :

d

dt

∂Y

∂Θj

= J∂Y

∂Θj

+∂f(Y,Θ)

∂Θj

(2.20)

ou, en forme matricielle,

S = JS + F (2.21)

avec

J =∂fi

∂yl

matrice jacobienne ;

F =∂fi

∂Θj

jacobien paramétrique.

La valeur des coefficients de sensibilité dépend des unités de mesure des facteurs et desparamètres. Ainsi, dans le cas où ces unités varient selon les facteurs et/ou les paramètres (cequi est le cas courant), il est préférable d’utiliser une matrice de sensibilité normalisée, afinde pouvoir comparer entre eux les différents coefficients. Nous obtenons grâce à cette matriceune estimation linéaire du taux de variation (en pourcentage) sur la variable yi résultant d’unevariation de 1% sur le paramètre ou le facteur Θj :

S =

[

kj

yi

∂yi

∂kj

]

(2.22)

Page 70: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

2.2. Approches locales pour l’évaluation des incertitudes de modélisation 47

Les méthodes numériques de propagation de la variance (e.g. Benjamin et Cornell, 1972 ;Mein et Brown, 1978 ; Troutman, 1985a ; Kuczera, 1988 ; Melching, 1992), connues en an-glais sous le nome de FOVE (First Order Variance Estimation) ou FOSM (First Order SecondMoment ), sont un exemple d’application de ce genre de développement. Comme leur nom l’in-dique, elles permettent de déterminer quelle est la variance globale de la réponse d’un système(et, par extension, des variables pronostiques d’un modèle) qui correspond aux variances (me-surées ou admises) des facteurs et des paramètres.

Ainsi, si l’on considère que le vecteur Ys(t,Θ) représente l’espérance mathématique desvariables pronostiques :

E [Ys(t)] = Ys(t,Θ) (2.23)

on démontre 1 qu’une estimation linéaire de la variance de chaque variable pronostique Yi

est donnée par :

V ar [Yi] =∑

j

σ2j (Yi) =

j

(

∂Yi

∂Θj

)2

σ2(Θj) (2.24)

L’équation précédente a été obtenue en négligeant les termes d’ordre supérieur à 1 dans ledéveloppement en série donné par l’équation 2.18 : on observe que, dans ce cas, les variancesσ2(Yi) sont égales à la somme des contributions des variances de chaque facteur Θj à la variableYi. Les variances partielles s%ij permettent d’estimer quelle est la contribution, en pourcentage,des variances de chaque facteur à la variance totale de Yi :

1Une fois définies l’espérance mathématique et la variance d’une variable comme suit :

E [X ] =

+∞∫

−∞

xf(x)dx et V ar [X ] = E[

(X − X)2]

=

+∞∫

−∞

(x − x)2f(x)dx

la démonstration se base sur deux règles statistiques élémentaires :– l’espérance mathématique d’une somme de plusieurs variables aléatoires est égale à la somme des espérances

individuelles :

E

[

N∑

i=1

aiXi

]

=

N∑

i=1

aiE [Xi]

– la variance d’une somme de variables aléatoires est donnée par :

V ar

[

N∑

i=1

aiXi

]

=

N∑

i=1

a2i σ

2i + 2

N−1∑

i=1

N∑

j=i+1

aiajCov [Xi, Xj ]

Page 71: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

48 2.2. Approches locales pour l’évaluation des incertitudes de modélisation

s%ij = 100σ2

j (Yi)

σ2(Yi)(2.25)

A titre d’exemple, nous allons d’abord considérer, parmi tous les systèmes représentés parles équations (2.17), les systèmes linéaires à une seule variable pronostique. Pour ce type desystème, la série de Taylor s’arrête au second ordre et il n’y a pas de résidu. L’équation depropagation de la variance (2.24) s’écrit, en termes matriciels, comme suit :

V ar [Ys] = STC(Θ)S (2.26)

avecS vecteur des coefficients de sensibilité évalué autour du point Θ ;C(Θ) matrice de covariance des facteurs Θ.

Si les K paramètres, les M variables de forçage du modèle et les I informations sont indé-pendants, la variance de la réponse du modèle est donnée par

V ar [Ys] = STDiagS =

M+J+K∑

i=1

s2i σ

2i (2.27)

où Diag = diag(σ21, σ

22, ..., σ

2M+K) est une matrice diagonale composée par les variances des

facteurs et des paramètres.

On voit donc qu’il est assez aisé de calculer la variance de la (ou des) variable(s) pronos-tique(s), ainsi que la contribution individuelle de chaque facteur à l’incertitude totale, à partirdes seules variances des facteurs. C’est pourquoi les méthodes de type FOVE restent parmi lesplus diffusées pour l’estimation des incertitudes, même en hydrologie, où les modèles sont ty-piquement non linéaires.

Deux problèmes se posent notamment :

1. en premier lieu, comme nous l’avons déjà souligné, l’application des méthodes de propa-gation de la variance nécessite de tronquer le développement en série de Taylor (équation2.18) au deuxième terme, ce qui implique une erreur de troncature plus ou moins grandeselon le degré de non-linéarité du modèle (cf. figure 2.5) ;

Page 72: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

2.2. Approches locales pour l’évaluation des incertitudes de modélisation 49

FIG. 2.5 – Linéarisation d’un modèle à un seul paramètre autour d’une valeur nominale (d’après Kuc-zera, 1988)

2. deuxièmement, la valeur des éléments de la matrice de sensibilité peut dépendre forte-ment du choix des valeurs nominales des facteurs, toujours à cause des non-linéarités, eninvalidant l’estimation des incertitudes.

Ainsi, afin de minimiser les différences entre le modèle de départ et le modèle localementlinéarisé, Benjamin et Cornell (1972) suggèrent de limiter les coefficients de variation des fac-teurs (CVi = σ2

i /Θi) à la valeur 0,20 ; Garen et Burges (1981) conseillent de ne pas excéderla valeur 0,25 ; Turanyi et Rabitz (2000) proposent de se limiter à une variation des facteurs oudes paramètres (∆Θi/Θi) de 5% autour de la valeur nominale, tout en conseillant de travailleravec des perturbations de l’ordre de 1%. Kuczera (1988 et 1990) propose d’utiliser la mesurede Beale (1960), qui considère les différences entre les surfaces de réponse du modèle et uneapproximation de premier ordre de ce modèle dans le voisinage d’un point d’analyse (cf. figure2.5) pour estimer le degré de non linéarité du modèle et décider de l’applicabilité des méthodesFOVE.

La littérature hydrologique foisonne d’applications des méthodes FOVE. En particulier, les

Page 73: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

50 2.3. Approches globales pour l’évaluation des incertitudes de modélisation

principaux travaux dans ce domaine concernent l’analyse de sensibilité des sorties des modèlesaux imprécisions et à la variabilité spatiale des précipitations (e.g. Singh, 1977 ; Kuczera etWilliams, 1992 ; Michaud et Sorooshian, 1994).

Plus récemment, des études visant à estimer l’impact des imprécisions des Modèles Numé-riques de Terrain (M.N.T.) ont été effectuées. Certaines concernent une analyse de sensibilitédu réseau de drainage extrait automatiquement du M.N.T. (Gyasi-Agyei et al., 1995 ; Walkeret Willgoose, 1999). D’autres montrent que les processus hydrologiques sont décrits de ma-nière significativement différente à différentes résolutions du M.N.T., ce qui peut mener à deshydrogrammes différents (Wolock et Price, 1994) ou à des compensations dans la valeur desparamètres du modèle (Saulnier et al., 1997).

Certains auteurs présentent des comparaison entre la propagation d’erreurs purement analy-tique (i.e. évaluée via le calcul analytique des dérivées partielles autour de la valeur nominale) etla propagation d’incertitudes par génération de scénarii d’erreurs. A titre d’exemple, nous rap-pellons ici les travaux de Scavia et al. (1981) ; Beck (1987) ; O’Connell, (1995) ; Yu et Tseng(1996).

Enfin, notons que bien qu’il s’agit de méthodes bien adaptées à la propagation d’incer-titudes sur les données des variables de forçage, d’état ou de validation, pour lesquelles onpeut raisonnablement estimer une valeur nominale, nombreuses sont les études applicant lesméthodes locales à l’évaluation de l’incertitude associée aux valeurs des paramètres du modèleoptimisées par calage. Nous citerons, par exemple, les travaux de Mein et Brown (1978), Trout-man (1985a et 1985b), Kuczera (1988), Melching (1992), Vertessy et Elesenbeer (1999).

Le lecteur intéressé à d’autres applications en hydrologie pourra se référer à Singh (1977) ;Kohberger et al. (1978) ; Sorooshian et Dracup, 1980 ; Kuczera (1983a) ; Troutman (1983) ; Ro-gers et al. (1985) ; Townley et Wilson (1985) ; Hromadka et McCuen, 1989 ; Melching et al.(1990) ; Kuczera et Williams (1992) ; Michaud et Sorooshian (1994) ; Wang et Paegle (1996) ;van der Perk et Bierkens, 1997 ; Winchell et al. (1998) ; Kuczera et Mroczkowski (1998) ; Kup-fersberger et Deutch (1999) ; Høybye et Rosbjerg (1999) ; Chaubey et al. (1999) ; Clarke (1999) ;Christensen et Cooley (1999) ; Clarke et al. (2000).

2.3 Approches globales pour l’évaluation des incertitudes demodélisation

La variation de la réponse du modèle aux variations de ses facteurs et paramètres peut êtreétudiée de manière plus générale, en explorant une grande région de l’espace et en faisant variertous les facteurs et/ou les paramètres au même temps : c’est ce que l’on appelle une analyse glo-

Page 74: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

2.3. Approches globales pour l’évaluation des incertitudes de modélisation 51

bale. L’idée sous-jacente à cette deuxième approche est que les interactions entre les variableset les paramètres peuvent jouer un rôle important sur l’incertitude des variables pronostiques,notamment à cause des non-linéarités présentes dans les modèles.

C’est pourquoi les analyses globales sont généralement utilisées dans le cadre de l’es-timation des incertitudes de spécification des valeurs des paramètres, pour lesquels sou-vent nous ne possédons aucune information a priori : après avoir effectué un tirage aléatoiredans l’espace des valeurs possibles des paramètres, on cherche à identifier l’optimum, les zonesd’optima globaux, voire toute la distribution de la fonction objectif (de coût) que l’on cherche àmaximiser (minimiser). Grâce à l’échantillon de valeurs traitées, il est ainsi possible d’affecterà la combinaison de valeurs retenue comme “meilleure” une probabilité ou une vraisemblanceà être la combinaison représentative du système en étude. L’algorithme de Monte Carlo Metro-polis constitue un exemple de ces approches (e.g. Metropolis et al., 1953 ; Kirkpatrick et al.,1983 ; Kuczera et Parent, 1998) : nous le présentons à la section 2.3.1.

Cependant, du point de vue hydrologique, les travaux les plus importants dans le domaine destechniques globales sont probablement ceux de Young (1978) et Spear et Hornberger (1980),concernant l’analyse de sensibilité des sorties du modèle à une variation significative des va-leurs des paramètres du modèle (cf. section 2.3.2). En effet, leurs travaux on conduit une partiede la communauté à refuser la recherche d’une seule combinaison optimale de valeurs des pa-ramètres, en faveur d’un ensemble de valeurs acceptables. En particulier, la Generalized Likeli-hood Uncertainty Estimation - GLUE (Beven et Binley, 1992 ; Beven et Freer, 2001) se proposede reconnaître des combinaisons de valeurs des paramètres équifinales (cf. section 2.3.3) et per-met d’associer aux variables pronostiques un intervalle de confiance, comme nous le verrons parla suite.

2.3.1 La méthode Metropolis Monte Carlo

Dérivé des concepts de la physique statistique, l’algorithme de Metropolis (Metropolis etal., 1953 ; Kirkpatrick et al., 1983) est basé sur une analogie des processus d’optimisation desparamètres avec un procédé de la métallurgie, selon lequel les métaux, en se refroidissant, setransforment en recuit (cf. figure 2.6). C’est pourquoi cet algorithme est également connu sousle nom de méthode du recuit simulé (simulated annealing ; Robert 1996).

A haute température, les molécules d’un métal liquidifié se déplacent librement entre elles ;au fur et à mesure que le liquide refroidit, la mobilité des molécules diminue. Si le refroidis-sement est réalisé lentement, les atomes s’organisent dans toutes les directions en formant uncristal pur, qui représente l’état d’énergie minimum du système. Au contraire, si le refroidis-sement est trop rapide, on atteint un stade polycristallin, moins robuste, car ayant un niveaud’énergie supérieur au cas précédent.

Page 75: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

52 2.3. Approches globales pour l’évaluation des incertitudes de modélisation

FIG. 2.6 – Cristallisation par recuit d’une assemblée de grains pentagonaux. A température nulle et àtrès forte concentration, les grains se réorganisent selon une disposition dite “périodique - à miroir” .Cliché GMCM Rennes 1

Le procédé du recuit peut être décrit de la manière suivante. Un système en équilibre ther-modynamique à une température T est caractérisé par une configuration atomique donnée et unétat d’énergie E, dont la probabilité est fournie par la loi de Boltzmann (cf. aussi figure 2.7) :

p(E) ∼ exp(− E

kT) (2.28)

où k est la constante de Boltzmann (k = 1.3806503 · 10−23J/K).

Une modification de la position de ses atomes modifie son état interne et,donc, sa probabilitéd’existence. Lorsque la température diminue, la distribution de Bolztmann privilégie les états demoindre énergie. A proximité du zéro degré absolu, seuls les états de faibles énergies vont avoirune probabilité d’existence non nulle. Mais, surtout, on observe que même à faible température,il reste une chance, aussi petite qu’elle soit, que le système se trouve à un niveau d’énergie éloi-gné du minimum. Il reste donc encore une possibilité que le système quitte le minimum locald’énergie auquel il se trouve, à la recherche du minimum global.

L’algorithme de Metropolis considère ainsi une série de configurations atomiques aléatoires,chacune desquelles est obtenue d’une précédente par perturbation de la structure atomique dusystème. Si l’énergie interne de la nouvelle configuration est inférieure à la précédente, le nouvelétat est plus stable et la simulation continue à partir de cet état. Dans le cas contraire, la nouvelle

Page 76: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

2.3. Approches globales pour l’évaluation des incertitudes de modélisation 53

configuration est acceptée avec une probabilité de transition p dérivée de la loi de Boltzmann :

P (E1 → E2) =

exp

[

−(E2 − E1)

kT

]

∆E > 0

1 ∆E ≤ 0(2.29)

avec∆E = E2 − E1 ;E1 ancien état d’énergie ;E2 nouvel état d’énergie.

FIG. 2.7 – Probabilité d’échapper à un minimum local, à une pseudo-température T fixée, selon l’algo-rithme de Metropolis et al. (1953)

On observe que plus la probabilité de transition est élevée, plus nous aurons tendance à ac-cepter le déplacement. Ainsi, lorsque les valeurs de ∆E augmentent, l’acceptation d’un chan-gement de configuration diminue ; lorsque ∆E positif tend vers zéro, la probabilité de transitionest proche de 1. De même, pour une valeur d’énergie E donnée, le système a tendance à accepterles déplacements proposés pour des valeurs élevées de T , tandis que la probabilité d’acceptationsera plus faible à des faibles valeurs de T .

Le processus se poursuit par une décroissance régulière de la température jusqu’à l’obten-tion de la configuration de la particule la plus stable. L’art de la méthode consiste à choisir unevitesse de décroissance de la température optimale : si cette dernière diminue trop rapidement,l’état d’équilibre thermique sera rejoint à un état d’énergie supérieur à celui recherché ; unediminution trop lente de la température fera perdre du temps inutilement.

Si l’on compare l’énergie du système thermodynamique à une fonction de coût, sa configura-tion atomique à l’état des variables d’optimisation et l’état de plus faible énergie à un minimum

Page 77: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

54 2.3. Approches globales pour l’évaluation des incertitudes de modélisation

global, on reconnaît une analogie entre le procédé du recuit et les méthodes classiques d’optimi-sation. Or, ces algorithmes ont tendance à suivre les forts gradients, toujours dans la directiond’une amélioration du critère d’optimisation, ce qui fait que le processus peut s’arrêter à desminima locaux sans parvenir au minimum absolu. Au contraire, la méthode de Metropolis seprésente comme particulièrement adaptée à la résolution du problème de l’optimisation dans lecas où la fonction à optimiser présente des extrêma globaux (minima, maxima) mélangés à desextrêma locaux, car une nouvelle configuration est acceptée (avec une faible probabilité) mêmesi l’on dégrade le critère d’optimisation, permettant ainsi à l’algorithme d’échapper à ces pièges(cf. figure 2.8). Kirkpatrick et al. (1983) ont démontré que la convergence vers l’optimum globalest garantie pour un nombre infini d’itérations.

FIG. 2.8 – Recherche d’un minimum local : (a) si on laisse tomber une bille dans un bol, elle va oscillersur le fond avant de se stabiliser dans le point le plus bas. (b) Si on fait tomber la même bille sur unepente avec une remontée, elle peut s’y arrêter et tomber dans un minimum local. (c) Toutefois, si on lancela bille de plus haut ou avec plus d’énergie, celle-ci peut éviter le minimum local pour aller se nicherdans le minimum global

La transposition de l’algorithme à des systèmes non thermodynamiques se fait de la manièresuivante :

1. on choisit d’abord la fonction de coût à minimiser ε.

2. Ensuite, on fixe le critère d’acceptation du mouvement d’une valeur ε1 à une valeur ε2 dela fonction de coût. Ce critère est basé sur la loi de probabilité de transition définie parl’équation 2.29 et nécessite l’initialisation d’un paramètre de “pseudo-température” Trs0

.

3. Il faut aussi choisir un schéma de décroissance de la “pseudo-température” (par paliers) :Trsi+1

= Trsi− ∆T . Au fur et à mesure de l’avancement du processus d’optimisation,

en effet, la diminution de la pseudo-température Trs a pour conséquence de diminuerle nombre de mouvements pouvant dégrader le critère d’optimisation, ce qui assure laconvergence de la méthode.

Page 78: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

2.3. Approches globales pour l’évaluation des incertitudes de modélisation 55

4. Le nombre d’itérations Ni doit également être fixé a priori.

5. Le départ se fait en estimant une valeur initiale α1 du vecteur des valeurs des paramètresdu modèle.

6. Ensuite, on génère aléatoirement des nouvelles valeurs α2 = α1 + ∆α.

7. On peut ainsi déterminer le gradient d’énergie (différence entre la valeur de la fonctionde coût correspondant à la nouvelle combinaison de valeurs des paramètres et la valeurinitiale) : ∆ε = ε2 − ε1.

8. La combinaison α2 est acceptée ou rejetée suivant le critère d’acceptation de la transitionε1 → ε2 défini au point 2.

9. On réduit alors la pseudo-température en accord avec le schéma spécifié au point 3 et onitère le schéma en revenant au point 6.

10. La configuration finale, après Ni itérations, constitue la solution optimale.

La méthode du recuit simulé est encore peu utilisée en hydrologie. Nous citerons à titred’exemple les travaux de Gaume et al. (1998), Kuczera et Parent (1998), Overnay (1998) etBertoni (2001).

2.3.2 L’analyse de sensibilité régionalisée (RSA)

Les approches “classiques” de spécification des valeurs des paramètres reposent sur l’hy-pothèse, forte, que la solution du problème inverse en hydrologie (i) existe et (ii) est unique.Comme nous l’avons déjà souligné au chapitre 1, cette hypothèse permet d’aborder le pro-blème de l’estimation en termes de “meilleure reproduction possible” d’une série de donnéeshistoriques : il existe, par hypothèse, une interpolation optimale des observations, pouvant êtreobtenue (toujours par hypothèse) grâce à une (et une seule) combinaison de valeurs des para-mètres (figure 2.9a et b).

Cependant, la plupart des auteurs qui se sont penchés sur le sujet ont été obligés d’admettrequ’en hydrologie le problème de l’inversion des paramètres est mal posé : les données que l’onutilise pour la spécification sont incertaines et les structures des modèles le sont à leur tour (e.g.Johnston et Pilgrim, 1976 ; Hornberger et al., 1985 ; Duan et al., 1992 ; Beven, 1993 ; Kuczera,1997 ; Gupta et al., 1999). Ainsi, la recherche de règles d’optimisation de plus en plus perfor-mantes (algorithmes, critères) est considérée par certains chercheurs comme une quête vaine

Page 79: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

56 2.3. Approches globales pour l’évaluation des incertitudes de modélisation

FIG. 2.9 – En haut : approche “classique” pour l’estimation des valeurs des paramètres : (a) recherchede la meilleure reproduction des données observées par optimisation (b) d’une fonction objectif. Ici, lepoint O correspond aux valeurs optimales des paramètres α∗

1 et α∗

2. En bas : implémentation de l’analysede sensibilité régionalisée. Spécification des contraintes sur les réponses acceptables du modèle (c) etclassification des valeurs des paramètres - points : valeurs acceptables, croix : valeurs non acceptables(d). D’après Beck (1987)

(Mroczkowski et al., 1997).

Parmi ces auteurs, Young, Hornberger et Spear se sont distingués en hydrologie pour avoir,les premiers, proposé de garder plusieurs combinaisons de valeurs des paramètres pour repré-senter le système étudié. En effet, plutôt que chercher une combinaison de valeurs des para-mètres optimale, ils proposent une classification binaire des différentes combinaisons testées,en distinguant entre combinaisons “acceptables” et combinaisons “non acceptables” sur la based’un critère d’acceptation/rejet (Young, 1978 ; Spear et Hornberger, 1980 ; Hornberger et Spear,1981). C’est ce que l’on appelle l’analyse de sensibilité régionalisée (RSA, pour RegionalizedSensitivity Analysis)2.

2La méthode est connue également sous le nom d’algorithme HSY, d’après les initiales des auteurs (e.g. Becket al., 1997)

Page 80: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

2.3. Approches globales pour l’évaluation des incertitudes de modélisation 57

Pour parvenir à la classification des combinaisons de valeurs des paramètres, deux étapessont nécessaires ; une troisième étape permet de mesurer la “significativité” de cette classifica-tion.

En premier lieu, les observations disponibles pour la spécification des valeurs des paramètresdu modèle et la validation sont remplacées par des intervalles de valeurs plus souples, qui four-nissent une description qualitative (bien sûr, subjective) des comportements du système quel’on a observé par le passé (cf. figure 2.9c). L’idée principale est que ces intervalles ne sontpas moins informatifs pour le modèle que la chronologie des données observées, à cause desdifférentes sources d’incertitudes qui les affectent.

Ensuite, plusieurs combinaisons de valeurs des paramètres αi sont tirées aléatoirement àpartir des distributions des valeurs possibles fixées a priori, puis insérées dans le modèle afind’obtenir des réalisations possibles des chronologies d’une ou plusieurs variables pronostiques.Les intervalles de valeurs “observées” établis précédemment constituent pour les chronologiessimulées des contraintes qui doivent être respectées : parmi toutes les combinaisons de va-leurs des paramètres testées, seules les combinaisons menant à des chronologies simulées quirespectent les contraintes seront considérées comme représentatives du système étudié (figure2.9c). L’exploration d’une grande portion de l’espace de valeurs des paramètres, avec un échan-tillonnage des αi de taille assez élevée, permet ainsi de dériver une ensemble B de vecteursde valeurs des paramètres que l’on peut accepter comme descripteurs du système réel et unensemble complémentaire B, formé par les valeurs des paramètres non représentatives (figure2.9d).

Notons qu’à ce stade chaque vecteur de valeurs des paramètres αi retenu comme acceptableest considéré avoir la même aptitude (ou la même probabilité, ou, encore, la même vraisem-blance) que les autres à être un bon reproducteur du comportement du système étudié. Aucunedistinction n’est faite entre les différentes combinaisons. Des modifications à ce sujet ont étéproposées par la suite par d’autres auteurs (e.g. Keesman et Van Straten, 1990 ; Beven et Binley,1992 ; Klepper et Hendrix, 1994). En particulier, nous analyserons en détail à la section 2.3.3le classement proposé dans le cadre de la méthode GLUE (Generalized Likelihood UncertaintyEstimation ; Beven et Binley, 1992 ; Beven et Freer, 2001), qui connaît un certain succès enhydrologie.

La dernière étape de la RSA permet d’identifier quels sont les paramètres qui expliquentau mieux le comportement du système, ou, en d’autres termes, quelles sont les hypothèses deparamétrisation les plus significatives pour la reconstitution des observations. En effet, la classi-fication entre valeurs “acceptables” et valeurs “non acceptables” permet d’obtenir, pour chaqueparamètre, deux fonctions de répartition cumulées des valeurs des paramètres a posteriori αi(B)et αi(B) (cf. figure 2.10).

Page 81: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

58 2.3. Approches globales pour l’évaluation des incertitudes de modélisation

FIG. 2.10 – Séparation entre les fonctions de répartition cumulées des valeurs acceptables (trait continu)et des valeurs non acceptables (trait discontinu) des paramètres du modèle : cas d’un paramètre sensibleaux observations (a) et d’un paramètre insensible (b). Dans les deux figures, la droite à 45˚représente ladistribution de valeurs a priori (uniforme)

Si ces distributions sont significativement séparées (cas (a) dans la figure 2.10), le paramètreauquel elles sont associées peut être considéré comme significatif pour les simulations. En effet,nous aurons tendance à accepter ou à refuser une simulation en fonction de la valeur que prendrace paramètre. Au contraire, l’obtention de deux distributions de valeurs similaires montre queles simulations des variables pronostiques ne sont pas sensibles aux valeurs qu’assume le para-mètre en question (pour une valeur de paramètre donnée, on a plus ou moins la même chanced’accepter ou refuser la simulation). Le paramètre est donc redondant et n’a pas de poids dansl’évaluation de la performance du modèle (cas (b) dans la figure 2.10).

A titre d’exemple, dans le cas d’étude proposé par Hornberger et Spear (1980), c’est ladistance de Kolmogorov-Smirnov (Kendall et Stuart, 1979) qui a été choisie pour mesurer laséparation maximale entre les deux fonctions de répartition cumulées et déterminer si cetteséparation est significative ou pas :

Dmax = supαi|F (αi|B) − F (αi|B)| (2.30)

avecF (αi|B) la fonction de répartition des valeurs des paramètres acceptables ;F (αi|B) la fonction de répartition des valeurs des paramètres non acceptables ;Dmax la distance maximale entre les deux fonctions de répartition cumulées.

Généralement, un seuil sur cette distance maximale est fixé, au délà duquel le paramètre estjugé sensible.

Page 82: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

2.3. Approches globales pour l’évaluation des incertitudes de modélisation 59

Parmi les applications hydrologiques de l’analyse de sensibilité régionalisée, nous citerons,outre aux travaux pionniers de Young (1978), Spear et Hornberger (1980), ceux de Gardner etal. (1980) ; Fedra et al. (1981) ; Hornberger et al. (1985) ; Harlin et Kung (1992) ; Spear et al.(1994) ; Gaume et al. 1998 ; Bastidas et al. (1999). Soutter et Musy (1999) ont proposé unecomparaison entre la RSA et les méthodes FOVE.

2.3.3 Le concept d’équifinalité et la Generalized Likelihood UncertaintyEstimation (GLUE)

Beven (1989) refuse à son tour le concept de modèle optimal, en faveur de l’idée que plu-sieurs simulations acceptables des variables pronostiques peuvent être obtenues à partir de dif-férentes combinaisons de paramètres et/ou structures de modèle : il parle alors d’équifinalité(Beven, 1993) et illustre le concept avec des diagrammes de dispersion (“dotty plots” ) du typede ceux qui sont présentés dans la figure 2.11. Ces diagrammes sont obtenus en générant plu-sieurs scénarii de combinaisons de valeurs de paramètres Θi à partir de leurs distributions deprobabilité conjointes ou marginales fixées a priori, puis en comparant, sur une certaine périodede temps, les valeurs des variables pronostiques simulées avec chaque scénario avec les mesuresdisponibles. On obtient alors, pour chaque combinaison de valeurs de paramètres, une mesurede la performance de la simulation qui lui est associée.

On constate sur la figure 2.11 qu’on ne peut pas clairement identifier une seule combinaisonoptimale (il n’y a pas un optimum qui ressort significativement du nuage de points), mais queplusieurs combinaisons de valeurs de paramètres fournissent des valeurs semblables du critèrede performance (ici, l’efficience). Cela, comme nous l’avons déjà souligné, à cause des diffé-rentes sources d’incertitude qui affectent la modélisation.

Le même discours s’applique lorsque différentes structures de modèle sont testées ; pourcela, nous allons nommer Mi(Θ) l’ensemble d’une structure et d’une combinaisons de valeursde paramètres données, que nous définissons avec le terme générique de modélisation.

Dans le cadre de la Generalized Likelihood Uncertainty Estimation - GLUE (Beven et Bin-ley, 1992 ; Beven et Freer, 2001), la distribution de probabilité a priori d’une modélisationM(Θ) à bien simuler le système en étude est considérée être sa vraisemblance (i.e. une me-sure de son aptitude) a priori L0 [M(Θ)]. De même, la mesure de la performance de cettemodélisation sur une période τ donne une indication sur la vraisemblance Lτ [M(Θ)|Qτ ,Xτ ]de M(Θ) à bien reproduire les débits observés Qτ à partir des mesures des variables de for-çage Xτ . Plusieurs expressions ont été proposées pour la vraisemblance (e.g. Freer et al., 1996 ;Beven et Freer, 2001) ; dans le chapitre 7 nous utiliserons l’efficience de Nash (équation 1.5)comme mesure de cette vraisemblance.

Page 83: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

60 2.3. Approches globales pour l’évaluation des incertitudes de modélisation

FIG. 2.11 – Diagrammes de dispersion de valeurs de l’efficience obtenue en simulant des chronologiesde débit avec TOPMODEL. Chaque chronologie a été obtenue avec une différente combinaison de va-leurs des 6 paramètres du modèle générée par une méthode de Monte Carlo (reproduit de Freer et al.,1996)

Si l’on ne peut pas identifier la modélisation optimale, il est cependant possible de classerdifférentes structures et/ou combinaisons de valeurs des paramètres selon leur vraisemblance aposteriori à être représentatives du système. Pour cela, comme dans le cas de l’analyse de sensi-bilité régionalisée, la méthode GLUE rejette tout d’abord les modélisations qui sont considéréescomme non représentatives du système en étude. Ce rejet se fait généralement sur la base duchoix d’un seuil sur la vraisemblance Lτ [M(Θ)|Qτ ,Xτ ] (par exemple, Lτ = l’efficience deNash entre les débits observés Qobs sur la période τ (i.e. Qτ ) et Qcalc calculés à partir des pluiesobservées (Xτ ) : toutes les modélisations qui ne dépassent pas ce seuil doivent être refusées, lesautres pourront être acceptées. Cependant, contrairement à ce qui arrive dans la RSA, dans l’ap-proche GLUE on ne considère plus comme équiprobables toutes les combinaisons acceptables(i.e. qui dépassent le seuil fixé a priori ), mais ces dernières se voient affecter une vraisemblance

Page 84: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

2.3. Approches globales pour l’évaluation des incertitudes de modélisation 61

a posterirori proportionnelle au produit de la vraisemblance qui a été calculée dans la périodede calage et de la vraisemblance a priori. Cela se fait grâce à la formule de Bayes :

L [Mi(Θ)] = L0 [Mi(Θ)] Lτ [Mi(Θ)|Qτ ,Xτ ] (2.31)

avec i = 1, 2, ..., nacc (nombre de modélisations acceptables).

Enfin, pour respecter la condition∑

i L [Mi(Θ)] = 1 (c’est-à-dire pour pouvoir considérerles mesures de vraisemblance comme des probabilités), ces vraisemblances sont renormalisées,ce qui nous mène à écrire :

L [Mi(Θ)] =L0 [Mi(Θ)] Lτ [Mi(Θ)|Qτ ,Xτ ]

C(2.32)

avec C constante d’échelle.

Remarque

La formule de Bayes (equation 2.31) permet de mettre à jour la vraisemblance de chaquecombinaison de valeurs des paramètres lorsque de nouvelles données sont disponibles pour lamodélisation. Dans ce cas, la vraisemblance a posteriori calculée avec la première série de don-nées devient une vraisemblance a priori pour la deuxième série et une nouvelle vraisemblancea posteriori est calculée pour toutes les combinaisons de paramètres acceptables.

Les vraisemblances calculées avec l’équation 2.32 permettent d’estimer la densité de proba-bilité des prédictions du modèle, à partir de laquelle nous pouvons calculer un intervalle pré-dictif sur les variables pronostiques. En effet, sachant que les vraisemblances sont normalisées,nous pouvons écrire, à chaque pas de temps et pour une valeur de débit q :

p(Qsimt < q) =

nacc∑

i=1

L[

Mi(Θi)|Qsimt,i < q

]

(2.33)

Des intervalles inter-quantiles du type de ceux représentés dans la figure 2.12 peuvent alorsêtre calculés.

Pour résumer, l’implémentation de la méthodologie GLUE nécessite de préciser :

1. un intervalle d’échantillonnage des valeurs que l’on veut tester pour chaque paramètre(en fonction d’une argumentation physique ou d’une croyance a priori ).

2. la méthodologie suivie pour échantillonner l’espace des valeurs possibles des para-mètres. Généralement, une méthode de type Monte Carlo avec un échantillonnage uni-forme de l’espace est suivie ;

Page 85: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

62 2.3. Approches globales pour l’évaluation des incertitudes de modélisation

FIG. 2.12 – Intervalles prédictifs sur les débits correspondant aux diagrammes de dispersion présentésà la figure 2.11 (reproduit de Freer et al., 1996)

3. la définition de la mesure de vraisemblance à utiliser. Comme tout choix de critèrede performance, il s’agit d’un choix subjectif dont les résultats de modélisation sont trèsdépendants (cf. e.g. Freer et al., 1996 ; Beven et Freer, 2001) ;

4. la définition d’un critère de séparation entre les valeurs qu’on peut considérer commeacceptables et les valeurs qu’il faut refuser. Là aussi, il s’agit d’un choix subjectif, auquelles simulations sont très sensibles.

Beven et Freer (2001) proposent une liste exhaustive des applications de la méthode GLUEdans différents domaines. Nous citerons ici les travaux de Beven et Binley (1992) ; Romanowiczet al. (1994) ; Freer et al. (1996) ; Binley et al. (1997) ; Franks et Beven (1997) ; Franks et al.(1998) ; Aronica et al. (1998).

Page 86: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

Chapitre 3

Développements méthodologiques pourl’évaluation de l’ambiguïté d’unemodélisation

This discussion would be purely academic were it not for the fact that we, as hydrologists,are dealing with problems of great public importance, with high public visibility.

J.D. Bredehoeft & L.F. Konikow (1992)

Les trois concepts d’incertitude de structure, de propagation d’incertitudes et d’équifinalitédes paramètres sont ré-analysés dans ce chapitre afin de mieux considérer leurs interactions :après avoir défini l’ambiguïté d’une modélisation, nous proposons un protocole pour son es-timation. Des implications sur la spécification des paramètres du modèle, la vérification et laprédiction des variables pronostiques sont présentées. Enfin, des perspectives concernant l’inter-comparaison de plusieurs modélisations et l’évaluation de l’apport informatif lié à une série dedonnées sont avancées.

63

Page 87: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

64 3.1. Définition de l’ambiguïté

3.1 Définition de l’ambiguïté

Trois problématiques principales ressortent de l’analyse présentée aux chapitres précédents :

1. Un modèle est une description approchée, imparfaite et non unique du système réel étudié.Ainsi, tout modélisateur est en présence d’une incertitude de structure.

2. Les simulations des variables pronostiques sont affectées par la propagation d’incerti-tudes, d’imprécisions et d’erreurs sur les différents facteurs et paramètres du modèle.

3. En particulier, la valeur de ces derniers est généralement établie par étalonnage à partird’un certain nombre d’observations des variables de forçage et des variables pronostiques.Idéalement, la combinaison de valeurs étalonnée devrait être unique et indépendante duchoix des données utilisées pour le calage et de la manière dont on l’a effectué. En réalité,on s’aperçoit que la solution n’est pas univoquement déterminée, notamment à cause del’incertitude de structure, des imprécisions et des erreurs sur les données et du choixdu critère de performance de la modélisation (ou de la fonction de vraisemblance dansle cas d’une estimation probabiliste). On dit que le problème de l’étalonnage est malposé : Beven (1993) a utilisé le terme équifinalité pour exprimer la possibilité d’obtenirplusieurs simulations reproduisant de manière acceptable (au vu d’un certain critère) lecomportement du système réel étudié.

L’incertitude globale sur les simulations résulte donc de l’effet conjoint d’une carence ob-jective en information (l’absence de lois exactes et universelles connues ; l’imprécision et l’in-complétude des données collectées) et du caractère subjectif des choix du modélisateur qui endécoulent (la quantité et le type d’observations utilisées ; les lois choisies pour décrire le com-portement du système ; l’algorithme de résolution ; les objectifs visés). Ainsi, il nous sembleque l’équifinalité n’exprime pas seulement un décalage entre l’information disponible et cellequi serait nécessaire pour l’identification unique des paramètres, mais surtout la difficulté derendre objectifs (et donc univoquement déterminés) certains choix de modélisation. Nous avonsainsi une perception “kaléidoscopique” de la réalité, qui, elle, demeure unique.

C’est pourquoi nous préférons parler d’ambiguïté, suivant une définition proposée par March(1988) dans le domaine de l’aide à la décision : l’ambiguïté se produit “lorsqu’une organisa-tion est confrontée à une opportunité de choix donnés, où chaque option possède un degré delégitimité valable”. Une modélisation est alors ambiguë si plusieurs combinaisons de valeursdes paramètres donnent des simulations qui (i) ne sont pas significativement différentes, notam-ment au vu des incertitudes sur les observations des variables de forçage et des informations(ambiguïté interne), et/ou (ii) sont différentes, mais globalement aussi proches (ou distantes)des observations des variables pronostiques sur la période simulée (ambiguïté externe ou ap-parente). De même, deux modèles sont ambigus s’ils fournissent des résultats de simulationéquivalents, toujours en tenant compte des incertitudes sur les observations.

Page 88: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

3.2. Implémentation d’une procédure pour l’évaluation de l’ambiguïté d’une modélisation 65

A notre connaissance, il n’existe actuellement aucun travail qui (i) considère globalement etde manière explicite l’effet de toutes les sources d’incertitude recensées et (ii) étudie séparémentles deux aspects de l’ambiguïté. Or, il nous a semblé important de distinguer ces deux points devue, car la réponse à un certain nombre de questions relève tantôt de l’ambiguïté interne, tantôtde l’ambiguïté externe. On reviendra sur ce point dans la section 3.3.

3.2 Implémentation d’une procédure pour l’évaluation de l’am-biguïté d’une modélisation

La méthodologie que l’on propose dans la suite pour évaluer l’ambiguïté d’une modélisationest constituée de neuf étapes. Au bout de six étapes, l’ambiguïté interne du modèle peut êtreévaluée, trois étapes supplémentaires étant nécessaires pour évaluer l’ambiguïté externe.

Etape 1

En premier lieu, les limites d’exploration de l’espace des paramètres doivent être définies.On délimite alors un hypercube de dimension égale au nombre de paramètres du modèle. Si l’onfait des hypothèses sur la valeur attendue des paramètres, par exemple à partir de considérationsphysiques, l’espace délimité par l’hypercube sera petit ; autrement, on couvrira une partie del’espace qui sera d’autant plus grande que l’information sur la valeur cherchée des paramètresest réduite. Les limites pourront être définies de manière indépendante pour chaque paramètre(figure 3.1a) ou bien expliciter des contraintes existant entre eux (figure 3.1b).

Comme l’on a vu dans la section 1.4.4, il est souvent très difficile d’avoir une idée a priorisur la valeur des paramètres, car même dans les modèles les plus complexes on n’arrive pas àdéfinir des paramètres effectifs ayant une réelle signification physique. De plus, on a observéque c’est la combinaison des valeurs des paramètres qui est importante vis-à-vis de la repro-duction des observations, plutôt que chaque valeur prise indépendamment des autres (section2.3.3). Ainsi, il sera souvent indiqué d’explorer une portion de l’espace des paramètres aussigrande que possible.

Etape 2

Deuxièmement, la méthode d’échantillonnage des combinaisons de paramètres doit êtrefixée. On peut considérer des valeurs uniformément distribuées dans l’espace ou affecter àchaque paramètre une fonction de densité de probabilité définie a priori (cf. figure 3.2a) ouencore considérer une distribution de probabilité conjointe pour chaque combinaison de para-mètres (figure 3.2b). L’échantillon de combinaisons de valeurs des paramètres devra être re-présentatif de ces fonctions de densité de probabilité (e.g. dans la figure 3.2, les valeurs échan-

Page 89: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

66 3.2. Implémentation d’une procédure pour l’évaluation de l’ambiguïté d’une modélisation

FIG. 3.1 – Deux possibles délimitations de l’espace des valeurs des paramètres à explorer dans le cassimple d’un modèle à deux paramètres α1 et α2. (a) Choix de valeurs minimales et maximales pourchaque paramètre. (b) Introduction d’une connaissance a priori que l’on veut forcer (ici, la valeur duparamètre α2 doit toujours être supérieure à celle du paramètre α1)

tillonnées, décrites avec des X, varient selon la distribution de probabilité considérée). Plusieursméthodes de type Monte Carlo peuvent être employées, chacune suivant des algorithmes plusou moins performants en termes de robustesse ou de temps de calcul (cf. section 2.3).

Etape 3

La troisième étape a pour objet la formalisation de l’incertitude sur les données d’entrée(variables de forçage et informations), dont dépendent directement les simulations. Cette forma-lisation dépendra toujours d’une ou plusieurs hypothèses sur les erreurs, comportant inévitable-ment des choix subjectifs dont il faudra donc tenir compte lors de l’évaluation de l’ambiguïté.La génération de scénarii d’entrée compatibles avec les données disponibles semble être unbon moyen pour exprimer les imprécisions de mesure et le manque d’information sur ces don-nées. Dans la figure 3.3, l’erreur sur la pluie moyenne, différent d’un pas de temps à l’autre, estsupposé être distribuée normalement. A chaque pas de temps nous pouvons échantillonner unepluie compatible avec les observations (valeurs 1, 2, 3 dans chaque distribution) et générer ainsides scénarii de pluies probables.

Page 90: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

3.2. Implémentation d’une procédure pour l’évaluation de l’ambiguïté d’une modélisation 67

FIG. 3.2 – Echantillonnage des combinaisons de valeurs des paramètres (a) en considérant des distri-butions de probabilité indépendantes pour chaque paramètre ou (b) en considérant une distribution deprobabilité conjointe

Etape 4

On peut ainsi procéder aux simulations avec les différentes combinaisons de paramètres,tenant compte explicitement des incertitudes sur les entrées définies au point précédent. Cela seresoud en un certain nombre de simulations, chacune correspondant à une hypothèse d’erreursur les variables de forçage et à une combinaison de valeurs des paramètres. Par exemple, dansle cas des scénarii probables d’entrée (figure 3.3), si N est le nombre de scénarii d’entrée et Kest le nombre de combinaisons de paramètres, il y faudra effectuer N × K simulations (figure3.4). Chaque simulation donnera lieu à des sorties spécifiques, par exemple différentes chrono-logies de débits (à droite de la figure 3.4) ; à ces sorties on affectera une probabilité conditionnéeà la probabilité du scénario et à la probabilité de la combinaison de paramètres qui auront per-mis sa réalisation. On pourra alors résumer les différentes sorties sous forme d’intervalles deconfiance, de quantiles ou de lois de distributions.

Page 91: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

68 3.2. Implémentation d’une procédure pour l’évaluation de l’ambiguïté d’une modélisation

FIG. 3.3 – Formalisation de l’incertitude sur les entrées : après avoir fait des hypothèses sur cetteincertitude, des scénarii de valeurs compatibles avec les observations sont générés

Etape 5

La cinquième étape consiste en la définition d’une mesure de similitude entre deux si-mulations. Ce point aura inévitablement un caractère plus ou moins subjectif. En effet, on adéjà observé qu’il est possible de définir plusieurs sortes de mesures de distance entre deuxcourbes ou deux distributions. Nous soulignons qu’il est préférable d’évaluer l’écart entre deuxsimulations pas de temps par pas de temps, plutôt que de choisir une mesure ’globale’ pourun épisode ou une série d’épisodes donnés (comme d’habitude on le fait en utilisant une desfonctions objectifs présentées à la page 15). On évitera ainsi une source d’ambiguïté “artificiel-le” , liée à la réduction en une seule valeur d’une fonction multivariée. A titre d’exemple, à lafigure 3.5 on propose l’utilisation du test du χ2 pour départager les combinaisons de paramètresambiguës de celles qui ne le sont pas : à chaque pas de temps, nous avons N simulations dedébits (car N scénarii de pluies) avec chacune des K combinaison de paramètres, formant doncune distribution de valeurs. Si les distributions des N valeurs de débits obtenues avec deux com-binaisons de valeurs de paramètres différentes ne peuvent pas être départagées par le test du χ2,les deux combinaisons de valeurs de paramètres sont considérées comme ambiguës. Rappelonsque le χ2 permet de calculer la probabilité pour que deux échantillons empiriques proviennent

Page 92: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

3.2. Implémentation d’une procédure pour l’évaluation de l’ambiguïté d’une modélisation 69

FIG. 3.4 – NxK simulations de débits obtenues à partir de K différentes combinaisons échantillonnéesde valeurs des paramètres (ici, nous avons considéré deux paramètres α1 et α2), chacune conditionnéeaux incertitudes sur les entrées (N scénarii de pluies)

d’une même distribution théorique.

Etape 6

Lors de la sixième étape, on reconnaîtra les combinaisons de valeurs des paramètres am-biguës, en comparant systématiquement deux à deux les distributions de chronologies de débitscorrespondant aux différents scénarii et aux différentes combinaisons de paramètres. On pourraainsi cartographier dans l’hypercube qui délimite l’espace exploré des valeurs des paramètres(étape 1) les combinaisons donnant des simulations non significativement différentes au ni-veau de significativité choisi (figure 3.6c) : ces combinaisons de valeurs sont à l’origine del’ambiguïté interne du modèle.

Page 93: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

70 3.2. Implémentation d’une procédure pour l’évaluation de l’ambiguïté d’une modélisation

FIG. 3.5 – A chaque pas de temps, chaque combinaison de valeurs des paramètres échantillonnée fournitun nombre de simulations de la variable de sortie égal au nombre de scénarii générés pour formaliser lesincertitudes sur les entrée : ces différentes simulations constituent une distribution de valeurs possiblesde la variable pronostique. On peut alors comparer, pas de temps par pas de temps, la distribution devaleurs obtenue avec une combinaison de valeurs des paramètres avec celle fournie par une combinaisonde référence. Plusieurs mesures de similitude entre les deux distributions sont possibles : ici, un test duχ2 est proposé

Etape 7

La septième étape nécessite la formalisation de l’incertitude sur les observations des va-riables pronostiques. Encore une fois, cette formalisation sera peu généralisable d’une étude àl’autre et déterminante sur les résultats d’analyse de l’ambiguïté. Les mêmes techniques choisiespour la formalisation de l’incertitude sur les données d’entrée (étape 3) pourront être utilisées.

Etape 8

De même, la définition d’une mesure de similitude entre les observations d’une ou plu-sieurs variables pronostiques et les simulations correspondantes, constituant la huitième

Page 94: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

3.2. Implémentation d’une procédure pour l’évaluation de l’ambiguïté d’une modélisation 71

FIG. 3.6 – Evaluation et cartographie de l’ambiguïté interne du modèle (i.e. identification des combi-naisons de valeurs des paramètres qui donnent des simulations non significativement différentes). (a) Enrouge, les combinaisons de valeurs des paramètres ambiguës à la combinaison représentée par une croix,prise comme référence. Comme ces combinaisons de valeurs sont dans des régions de l’espace bien dis-tinctes, elle peuvent expliciter une compensation du modèle dans la simulation de processus couplés. (b)En bleu, les combinaisons de valeurs des paramètres ambiguës à la référence (croix bleue). Des combi-naisons de paramètres ambiguës couvrant une région de l’espace orientée selon une certaine directricemontrent une corrélation entre les paramètres ; (c) La cartographie complète, dans l’espace des valeurpossibles des paramètres, des combinaisons ambiguës entre elles peut donner des informations sur lespropriétés de la structure du modèle : l’idéal serait de ne trouver aucune région de l’espace des valeursambiguë à une autre

étape, pourra se faire comme pour la comparaison de deux simulations entre elles (étape 5), parexemple avec un test du χ2.

Etape 9

Finalement, la neuvième et dernière étape sera vouée à la comparaison systématique desdistributions des observations des variables pronostiques avec les distributions des mêmes

Page 95: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

72 3.3. Discussion

variables simulées à partir des différentes combinaisons de paramètres considérées.

De manière générale, on s’attend à obtenir des simulations significativement différentes desobservations, à cause des incertitudes de structure du modèle. Dans le cas du choix du test duχ2 comme mesure de distance, en particulier, tous les modèles risquent d’être rejetés à causede la sévérité du test. Ainsi, ne pouvant pas obtenir une distance nulle, on cherchera, commedans le cas de l’étalonnage des paramètres par calage, la (ou les) combinaison(s) des paramètrespermettant de se rapprocher le plus des observations. On pourra donc classer les combinaisonsde paramètres en fonction de la distance des observations que leurs simulations correspondantespermettent d’obtenir : si de ce classement ressort une seule combinaison donnant des résultatsde modélisation significativement meilleurs que les autres, notamment au vu des incertitudessur les observations, il n’y aura pas d’ambiguïté externe. Au contraire, des combinaisons deparamètres donnant des résultats équivalents selon la mesure de distance choisie seront caused’ambiguïté.

On observe, par ailleurs, que plus les observations des variables pronostiques seront incer-taines, plus il y aura de chances d’avoir de l’ambiguïté apparente, même si le modèle est biencontraint, à cause du caractère “flou” des variables cibles.

3.3 Discussion

Plusieurs informations concernant la pertinence et la fiabilité de la modélisation dans le cadred’application peuvent être obtenues en évaluant l’ambiguïté du modèle. Nous donnons ici desconsidérations d’ordre général, puis un exemple d’application de la procédure que l’on vientd’exposer, concernant la modélisation hydrologique du bassin versant de Vogüé (Ardèche) parTOPSIMPL, sera présenté au chapitre 7.

En premier lieu, on observe que l’idéal, pour une modélisation, est l’absence d’ambi-guïté. Dans ce cas, en effet, on obtient des simulations qui sont significativement différentespour chacune des combinaison de valeurs des paramètres considérées, ce qui prouve la sensi-bilité (et donc l’identifiabilité) de ces valeurs et une bonne robustesse du modèle vis-à-vis desincertitudes sur les variables de forçage, les informations et sa propre structure. Cela signifieaussi que la quantité et qualité des données disponibles permettent de contraindre entièrementle modèle. Dans ce cas, les intervalles prédictifs sur les variables pronostiques resultent de laseule propagation d’incertitude sur les variables de forçage et les informations.

Au contraire, l’utilisation d’une seule combinaison de valeurs de paramètres n’a plus dejustification dans le cas d’une modélisation ambiguë. Par définition, en effet, toutes les com-binaisons jugées comme étant ambiguës ne peuvent être objectivement discriminées en l’état.Cela implique qu’elles soient toutes utilisées lors des simulations. Or, rien ne prouve que des

Page 96: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

3.3. Discussion 73

combinaisons de valeurs des paramètres ambiguës sur une certaine période le soient sur uneautre, notamment dans le futur : les résultats de modélisation seront alors donnés en termesd’enveloppes ou d’intervalles de confiances sur des simulations resultant des différentes com-binaisons de paramètres retenues, en plus de la propagation d’incertitude sur les variables deforçage et les informations.

Nous attirons l’attention sur le fait qu’une modélisation est jugée ambiguë sur un jeu dedonnées, une période de simulation et une question fixés. Ainsi, par exemple, un modèlepeut être jugé non ambigü sur la simulation d’un débit à l’exutoire, mais ambigü sur la simula-tion du débit d’exfiltration ou l’humidité du bassin, un autre débit amont, etc. ; ou bien être biencontraint sur une période et moins sur une autre, en fonction des données disponibles pour laspécification des valeurs des paramètres (la série peut être trop courte, trop peu riche en événe-ments, trop entachée d’incertitude, etc.).

Par ailleurs, la distinction entre ambiguïté interne et ambiguïté externe permet d’aborder demanière rigoureuse trois problématiques fondamentales en hydrologie : le problème des intérac-tions entre les paramètres-processus du modèle, la question de la complexité admissible pour unmodèle et le problème de l’inter-comparaison entre différentes modélisations. Nous en donnonsun aperçu ci de suite.

On observe en premier lieu que les propriétés de la structure du modèle peuvent être analy-sées à partir de la cartographie des combinaisons de paramètres ambiguës. Ainsi, une éventuelleredondance analytique peut être détectée en recherchant des faisceaux de valeurs ambiguësdisposées selon une certaine ligne directrice (figure 3.6b). De même, une compensation dansla simulation de différents processus pourrait être à l’origine de plusieurs nuages de valeursambiguës distribués en différentes parties de l’espace des paramètres (figure 3.6a). L’utilitéd’une modification dans la structure du modèle (e.g. la modification d’une équation ou d’unalgorithme de résolution, une relaxation d’hypothèse, etc.) pourra ainsi être jugée en termesd’accroissement (effet négatif) ou diminution (effet positif) de l’ambiguïté interne, à quantitéet qualité de données fournies au modèle constante.

Deuxièmement, l’analyse de la cartographie des combinaisons de paramètres ambiguës per-met de vérifier s’il y a une adéquation entre la complexité du modèle et la disponibi-lité/précision des données. En effet, on s’attend à avoir un nombre de combinaisons de pa-ramètres ambiguës d’autant plus important que le modèle est sur-paramétré par rapport auxdonnées disponibles et que ces dernières sont imprécises, indépendamment de la capacité dumodèle à bien reproduire les observations des variables pronostiques1. Ainsi, la quantificationde l’apport de mesures supplémentaires s’évaluera encore une fois en termes d’accroissementou diminution de l’ambiguïté interne, à structure de modèle fixée.

1Attention ! Pas d’ambiguïté ne veut pas dire modèle adapté au problème !

Page 97: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

74 3.3. Discussion

FIG. 3.7 – Inter-comparaison des modèles par observation de la cartographie des combinaisons devaleurs des paramètres ambiguës

Enfin, le problème de l’adéquation entre la modélisation et ses objectifs et donc, in fine,le choix de la modélisation la plus adaptée à une question donnée, pourra être étudié enquantifiant l’ambiguïté externe. En effet, comme l’équifinalité, l’ambiguïté externe exprimeune difficulté de prise de position, qui ne peut que se résoudre par une hiérarchisation plus oumoins formalisée (donc plus ou moins certaine) des simulations. Si de cette hierarchisation nousne gardons que la “meilleure” simulation selon un certain critère (ce qui se fait généralementlorsqu’on cale les paramètres), nous ne pouvons plus évaluer objectivement la performance dumodèle (et donc comparer deux modélisations différentes), car nous n’avons pas d’informationsur une éventuelle compensation des erreurs de modélisation par les valeurs des paramètres.

Au contraire, si l’on considère, pour chaque modélisation, toutes les combinaisons de valeursde paramètres ambiguës, nous pouvons mieux les comparer entre elles : un modèle plus ambigüsera en effet jugé moins apte à modéliser un système donné qu’un modèle moins ambigü, plusinformatif pour l’utilisateur, car fournissant une fourchette de valeurs possibles des variablespronostiques plus serrée (cf. figure 3.7).

Page 98: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

Deuxième partie

Incertitudes et ambiguïté : application à lamodélisation hydrologique du bassin

versant de Vogüé par TOPSIMPL

75

Page 99: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION
Page 100: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

Chapitre 4

Contexte de l’étude

Il y a des régions plus majestueuses dans notre France ;il n’y en a pas, à ma connaissance, de plus originale et surtout de plus contrastée,

où l’on puisse comme ici,passer en quelques heures de la nature alpestre à la nature italienne ;

il n’y en a pas où l’histoire de la terre et des hommessoit écrite sur le sol en caractères aussi clairs, aussi vivants.

Eugène Melchior de Vogüé, Académicien de France

L’étude de cas qui fait l’objet de la deuxième partie de ce mémoire concerne l’analyse desincertitudes et l’estimation de l’ambiguïté de la modélisation hydrologique du bassin versant deVogüe, en Ardèche. Nous présentons dans ce chapitre une description des caractéristiques prin-cipales du bassin, ainsi qu’une une description succinte des données disponibles et de l’approchede modélisation suivie. Pour terminer, sont résumés les objectifs de l’étude et les motivationsqui nous ont incité à les poursuivre.

77

Page 101: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

78 4.1. Description générale du bassin

Avant propos

Cette thèse s’inscrit à la suite de nombreux travaux effectués au LTHE sur la modélisationhydrologique des bassins versants du pourtour méditerranéen (e.g. Nalbantis, 1987 ; SempereTorres, 1990 ; Wendling, 1992 ; Lardet, 1992 ; Saulnier, 1996 ; Datin, 1998). En particulier, R.Datin a mis en oeuvre la modélisation hydrologique du bassin de Vogüé selon deux approchesfaisant partie de la famille des TOPMODELs (Beven et Kirkby, 1979 ; Beven et al., 1995) :TOPSIMPL (Saulnier, 1996) et TOPODYN (Datin, 1998).

Le “Projet Ardèche” , né en 1995 d’un parténariat entre le L.T.H.E., la DTG-EDF de Gre-noble et Météo France, puis l’Observatoire Hydrométéorologique Méditerranéen de la régionCévennes-Vivarais (OHM-CV), en cours de mise en place, en ont constitué le cadre. Quant auxfinancements, nous avons bénéficié de l’aide d’un Contrat de Plan Etat-Région Rhône-Alpes, duProgramme National Risques Naturels et du Programme National de Recherche en Hydrologie.

Dans ce chapitre, nous reprenons certains des résultats de R. Datin (notamment à la section4.4) afin de mieux exposer les motivations qui nous ont mené à effectuer une analyse approfon-die des incertitudes de modélisation dans le contexte ardéchois. Le lecteur interessé au détailde ses travaux (notamment, à l’algorithme de TOPODYN) pourra se référer à son mémoire dethèse (Datin, 1998). De même, nous n’insisterons pas sur la description de TOPSIMPL, qui afait l’objet de la thèse de G.M. Saulnier (1996).

4.1 Description générale du bassin

Le bassin versant de l’Ardèche s’étend sur environ 2240km2, essentiellement dans le dépar-tement homonyme (une petite fraction appartient à la Lozère), situé au sud-est de la France.

Du Col de la Chavade, dans le massif de Mazan, où elle prend sa source à 1467m d’altitude,jusqu’à la vallée du Rhône, dans lequel elle se jette quelques km au nord de Pont Saint-Esprit,l’Ardèche parcourt près de 120km et façonne une vallée qui réunit à elle seule tous les contrastesdu Vivarais (cf. figure 4.1). A sa naissance, elle est un torrent qui dévale de fortes pentes ravi-nées près de villages perchés. A Thueyts, elle passe au milieu des vergers sur d’épaisses couléesbasaltiques descendues de la Gravenne de Montpezat. A Aubenas, la végétation et la lumièrepréfigurent le Midi. Vogüé surplombe des falaises sculptées par la rivière. Un peu plus au sud,à travers les rocailles, les buis et les chênes verts qui recouvrent les plateaux du Bas-Vivarais,l’Ardèche taille dans le calcaire des gorges somptueuses et des sites exceptionnels, comme l’im-posante arche naturelle de Vallon Pont d’Arc, qui marque l’entrée des gorges qui serpentent sur30km jusqu’à Saint Martin d’Ardèche.

Page 102: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

4.1. Description générale du bassin 79

FIG. 4.1 – Panoramas ardéchois. Du haut vers le bas et de la gauche vers la droite : un versant dansle massif de la Croix de Bauzon ; des roches basaltiques à Mirabel ; l’Ardèche à Aubenas ; l’Ardèche àVogüé ; le bassin à Villeneuve de Berg ; les gorges de l’Ardèche

Page 103: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

80 4.1. Description générale du bassin

Nous nous sommes concentrés, dans cette étude, sur la première partie de ce parcours longet varié, depuis la source jusqu’à Vogüé, exutoire d’un bassin versant de 635km2. Il s’agit d’unbassin en forme d’éventail, où la rivière prend d’abord une direction ouest-est. Aux alentoursd’Aubenas, l’Ardèche bute contre le pied de la haute cuesta calcaire des Grads, en contrebas dusite de Jastres, qui lui impose une boucle : la rivière prend alors son cours du nord au sud, paral-lèlement au cours du Rhône. Le principal affluent de l’Ardèche jusqu’à Vogüé est la Volanne,qui l’enrichit à la hauteur de Vals les Bains.

FIG. 4.2 – Bassin versant de Vogüé : topographie et réseau hydrographique (pas du M.N.T. : 75 m)

Le bassin est assez contrasté, avec des altitudes qui varient entre 160m à l’exutoire et 1539mau sommet de la Serre de la Croix de Bauzon, avec une altitude moyenne de 719m environ (cf.figure 4.2). Au nord, dans la Cévenne ardechoise, plusieurs vallées convergent vers l’Ardèche. Al’ouest, des “serres” étroits bordent les “chams” , maigres étendues planes servant aux cultures,ou les “faïsses” , pentes en gradins crées et entretenus par l’homme. Plus au sud, une moyennevallée, puis la plaine dominent.

Au nord et à l’ouest du bassin, le sol est composé de grès, de schistes ou de roches volca-niques qui se sont répandues là au moment où se manifesta la mise en place du Massif Central,à la fin de l’ère primaire (il y a environ 200 millions d’années, cf. Léost et al., 1999). Si ausommet de la Sierre de Bauzon on ne retrouve que des prairies et des landes, pour le reste le sol

Page 104: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

4.1. Description générale du bassin 81

est principalement recouvert de bois de pins ou de châtaigners.

Au sud, comme dans tout le Bas Vivarais, les calcaires dominent et on retrouve à Vogüé lesparticularités des zones karstiques : falaises abruptes, enfouissement des eaux et circulation sou-terraine, réseau complexe de grottes et galeries. Une végétation de type méditerranéen (chêne,genévirers, genêts) s’épanouit dans cette zone, bien qu’on retrouve par-ci par-là une végétationde sols acides et siliceux, comme le châtaigner calcifuge, signe de la présence de dépots d’allu-vions granitiques transportées par les crues.

FIG. 4.3 – Stations de mesure en Ardèche. Le bassin de Vogüé est en jaune

En effet, l’Ardèche est une rivière au régime torrentiel, très irrégulier et à forte pente (pou-vant aller jusqu’à plusieurs mètres par kilomètre). Ses crues peuvent être soudaines et redou-tables, à cause de facteurs climatiques défavorables (épisodes cévénols d’automne particulière-ment intenses, avec de forts gradients pluviomètriques entre l’ouest et l’est du bassin ; cf. Bois etal., 1997) et d’une configuration morphologique aggravante (vallées encaissées, fortes pentes).Ainsi, le débit à Vogüé peut varier de quelques m3/s à plus de 2000, avec des vitesses de pro-pagation élevées (jusqu’à 15km/h selon Pardé, 1933). Au cours de l’épisode du 22 septembre1992, par exemple, le débit mesuré a atteint 2360m3/s à Vogüé et 1900m3/s à Pont de La-beaume (cf. carte 4.3), alors que la station pluviométrique de Loubaresse enregistrait un cumulde 78mm en une heure et 319mm en trois heures.

Page 105: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

82 4.2. Description des données disponibles

FIG. 4.4 – Courbes de tarage à Vogüé entre 1984 et 1999

4.2 Description des données disponibles

Nous disposions pour la description du bassin d’un modèle numérique de terrain (M.N.T.) à75m de résolution (cf. figure 4.2). Le réseau hydrographique a été extrait du M.N.T. selon l’al-gorithme présenté dans Saulnier (1996), de manière à reproduire le réseau perenne qui apparaîtsur les cartes I.G.N. au 250000.

De même, nous disposions sur la période 1984-1995 des données de 37 pluviomètres au pasde temps horaire sur l’ensemble de la région Ardèche qui nous ont servi à calculer les lamesd’eau moyennes krigées sur le bassin de Vogüé (cf. figure 4.3). Le détail du calcul, ainsi quele variogramme choisi pour le krigeage (Lebel et al., 1987) sont présentés dans la thèse de R.Datin (1998).

Les débits à l’exutoire de Vogüé étaient également disponibles au pas de temps horaire, ainsique les 6 courbes de tarage (courbes analytiques, sans les points expérimentaux ; cf. figure 4.4)à partir desquelles ils ont été calculés.

L’ensemble de ces données nous a permis d’identifier 35 épisodes pluie-débit significatifspour ce bassin (cf. thèse de R. Datin, 1998).

Page 106: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

4.3. Démarche de modélisation 83

4.3 Démarche de modélisation

Plusieurs travaux de terrain menés sur un ensemble de bassins du pourtour méditerranéenlaissent supposer qu’un ensemble de processus participe à la formation des crues rapides dansces régions (e.g. Cosandey, 1990 ; Taha, 1995 ; Le Meillour, 1996). En particulier, le ruissel-lement sur surfaces saturées (Cappus, 1960 ; Dunne et Black, 1970) semble y contribuer demanière très significative : certains endroits du bassin versant ne possèdent pas de compor-tement hydrodynamique (transmissivité hydraulique, gradient hydraulique, etc.) suffisammenttransmetteur pour “évacuer” la quantité d’eau qui leur parvient de l’amont. Le profil superficieldu sol en ces points se sature alors en eau et toute la pluie tombant à la surface de ces endroits,ne pouvant pas s’infiltrer, ruisselle dans une très forte proportion vers le réseau hydrographique.

Dunne (1978), puis Cosandey (1990) soulignent que lorsque la crue est générée principale-ment par ruissellement sur surfaces saturées la couverture du sol ne joue pas un rôle déterminantsur le volume global de la crue, tout en ayant une influence sur le transfert des écoulements etdonc sur le temps de réponse du bassin versant. Par contre, la lame d’eau globale précipitée aucours de l’épisode pluvieux et l’état de la réserve hydrique sont des facteurs déclenchants.

C’est sur la base de ces observations qu’une démarche de modélisation de type TOPMO-DEL (Beven and Kirkby, 1979 ; Beven et al., 1995) a été choisie. En effet, ce modèle a été l’undes premiers à représenter les écoulements latéraux de subsurface (contenus dans les premiersmètres du sol), que l’on sait être à l’origine du ruissellement sur surfaces saturées contribu-tives (e.g. Loague, 1992 ; Grayson et al., 1992 ; Ambroise, 1998). De plus, la philosophie demodélisation de TOPMODEL diffère sensiblement des démarches plus classiques où :

– les équations de conservation supposées décrire correctement la physique sont écrites pourun volume élémentaire de taille fixée (la maille/volume élémentaire),

– le bassin versant est conçu comme une juxtaposition de ces volumes élémentaires, aprèsavoir formalisé les relations existantes entre eux.

Dans ce cas, donc, le comportement à grande échelle est supposé être l’extrapolation descomportements aux échelles des volumes élémentaires. Or, cette idée est valable si la physiquedes volumes élémentaires est parfaitement décrite. En pratique, une hiérarchisation des proces-sus à petite échelle est toujours effectuée et seuls les processus prépondérants sont idéalementcorrectement représentés à l’échelle du volume élémentaire. Cette démarche réductionniste re-vient donc à supposer que le comportement à grande échelle est l’extrapolation des processusprépondérants à petite échelle, ce que l’observation dément formellement.

TOPMODEL a, de son côté, une approche originale, dont certains des avantages seront dé-taillés plus tard. Le constat initial est le suivant :

– lors de la mise en eau d’un bassin, certains endroits sont presque systématiquement plushumides que d’autres ;

Page 107: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

84 4.3. Démarche de modélisation

– inversement, lors de la récession d’un bassin, certains points du bassin se déssèchent sys-tématiquement plus rapidement que d’autres.

En d’autres termes, la dynamique temporelle de la répartition des humidités au sein d’unbassin versant présente des régularités. Ce terme de régularité traduit le fait, par exemple, qu’iln’est surprenant pour personne d’observer des zones saturées aux pieds des versants, mêmesans imaginer de fortes pentes, alors que les sommet sont encore secs, ce qui montre l’impactpotentiellement important des écoulements latéraux dans la rédistribution des humidités.

La question est alors de déterminer si par l’analyse des données disponibles il est possiblede prédéterminer ces régularités. Peut-on classer les points du bassin en fonction de leur po-tentiel à s’humidifier/déssecher plus ou moins rapidement ?

On introduit pour cela un concept (e.g. Beven et Kirkby, 1979 ; O’Loughlin, 1986 ; Moore etal., 1991 ; Barling et al., 1994 ; Ambroise et al., 1996 ; Grayson et al., 1992) :

l’indice de similarité hydrologique

et on considère que deux points ayant des indices semblables auront des contenus en eausemblables, quel que soit le pas de temps.

4.3.1 Les indices pédo-topographiques dans TOPMODEL

L’une des façons les plus intuives de choisir un indice de similarité hydrologique est deconsidérer les rétroactions existantes entre la topographie, la géomorphologie et l’hydrologied’un bassin : il a déjà été montré, en effet, que dans plusieurs cas la pédo-génèse du paysage eststrictement liée à la façon dont l’eau s’écoule à travers le relief (e.g. Hoosbeek et Bryant, 1992).

Beven et Kirkby (1979) introduisent alors les quatre hypothèses suivantes, dont certaines ontété relaxées par la suite (cf. Beven et al., 1995 ; Ambroise et al., 1996 ; Beven, 2000) :

1. les flux latéraux de subsurface sont proportionnels à la pente locale tanβi du terrain.Cela suppose qu’on traite ces flux selon l’approximation de l’onde cinématique, avec ungradient hydraulique parallèle à la surface du sol ;

2. la conductivité hydraulique décroît exponentiellement et le déficit à saturation est distri-bué linéairement avec la profondeur (la transmissivité hydraulique à donc aussi un profilexponentiel, dont le maximum est égal à T0) ;

3. la recharge de la nappe est uniforme ;

Page 108: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

4.3. Démarche de modélisation 85

4. on approche la dynamique du bassin par une succession d’états stationnaires.

Sous ces hypothèses, si l’on considère un tronçon de ligne de niveau en travers d’un versant,on peut considérer que :

– le flux arrivant de l’amont va essentiellement dépendre de la surface amont ai, dont l’eaucollectée va transiter à travers ce tronçon (capacité de drainage) ;

– ce même flux va transiter vers l’aval grâce à la transmissivité du sol et à son gradienthydraulique(capacité d’évacuation).

Cela nous donne le bilan suivant :

aiRt = T (di,t) tanβi (4.1)

avecai : aire drainée par le tronçon (pixel) i ;Rt : recherge de versant moyenne sur le bassin ;tan βi : pente locale du pixel i ;T (di,t) : transmissivité locale du pixel i, fonction du déficit en eau local ;

D’après les hypothèses enoncées, on a

T (di,t) = T0exp(−di,t

M) (4.2)

avecT0 transmissivité hydraulique à saturation ;M paramètre de décroissance de la transmissivité avec la profondeur du sol (cf. suite).

Le potentiel d’engorgement du tronçon de versant est donc localement donné par le rapport

λi = lnai

T0 tan βi

(4.3)

L’utilisation d’indices pédo-topographiques présente un certain nombre d’avantages :

1. Le changement d’échelle est explicite. Dans le formalisme de TOPMODEL, la relationentre le contenu en eau “global” (i.e. bassin versant) et le contenu en eau “local” (i.e. pixeldu M.N.T.) est une relation analytique :

Dt − di,t = −M(λ − λi) (4.4)

Page 109: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

86 4.3. Démarche de modélisation

où l’on a indiqué avec Dt le déficit moyen du bassin, di,t les déficits locaux ; avec λ l’in-dice pédo-topographique moyen sur le bassin et λi l’indice pédo-topographique local. Onvoit donc que la démarche de TOPMODEL constitue ainsi une méthodologie potentielle-ment intéressante de spatialisation des humidités (e.g. pour la désagrégation).

2. L’ajout d’informations n’augmente pas nécessairement la complexité du modèle.Souvent dans les modèles issus de la famille des TOPMODELs, il n’est pas nécessairede formuler des équations supplémentaires pour la prise en compte de données nouvelles.Si, par exemple, on souhaite tester l’influence de la variabilité des épaisseurs des sols ausein d’un bassin, aucune équation supplémentaire (et donc aucun paramètre supplémen-taire) n’est nécessaire (Saulnier, 1996). Il est donc possible de mesurer objectivementl’apport/l’impact d’une information dans le comportement hydrologique. Si la prise encompte d’une nouvelle donnée permet de mieux reconstituer les hydrogrammes de cruesd’un bassin, il est en effet très difficile de conclure définitivement si dans le même tempsle nombre de paramètres et de variables résolues dans le modèle a augmenté : la meilleurereconstitution des hydrogrammes est-elle à porter au bénéfice de la prise en compte d’unevariabilité hydrologiquement sensible ou au bénéfice de l’augmentation des paramètres(i.e. du nombre de degré de liberté) supplémentaire du modèle ?

3. Les temps de calculs sont optimaux. Cette préoccupation concrète peut être capitale.Dans le cas de calculs d’incertitudes (discutés dans la chapitres suivants) notamment, lescalculs très combinatoires ne peuvent être en pratique réalisés que si les temps de calculsdu modèle hydrologique sont réduits. Dans le cas de l’utilisation du concept d’indice desimilarité hydrologique, N points ayant une même valeurs d’indice sont par définitiondans le même état hydrique. Une seule résolution est donc faite, puis appliquée aux Npoints. Les temps de calculs sont ainsi considérablement divisés.

4.3.2 TOPSIMPL : une version simplifiée de TOPMODEL

Deux composantes principales constituent le débit calculé à l’exutoire d’un bassin versantpar la famille des TOPMODELs : le ruissellement superficiel, représentant la partie de la pluiequi participe rapidement à la génération d’une crue, et le débit d’exfiltration de la nappe,composante plus lente, qui transite par le sol tout en pouvant affleurer localement en surface.Il est important de remarquer que cette nappe modélisée par TOPMODEL est une nappe deversant, c’est-à-dire une nappe qui apparaît lors d’un épisode pluvieux et qui disparaît aprèsun arrêt prolongé des pluies. On ne considère donc pas la contribution à la formation du débità l’exutoire d’un nappe pérenne pouvant alimenter la rivière, notamment au cours des périodessèches.

Dans TOPSIMPL, quatre paramètres sont nécessaires pour déterminer le partage entre cesdeux débits.

Page 110: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

4.3. Démarche de modélisation 87

Le paramètre K0 (m/h) se veut lié à la conductivité à saturation à la surface du sol, dont ilreprésente une valeur effective sur la totalité du bassin versant.

Le paramètre M (m), paramètre de décroissance du profil exponentiel de la conductivité àsaturation, tient compte du changement structural du sol avec la profondeur.

La transmissivité hydraulique à saturation est donc égale à T0 = K0M (m2/h).

La valeur du paramètre SRMax (m) exprime la quantité d’eau nécessaire pour “mouiller”le bassin, i.e. la quantité d’eau qui n’arrivera pas à la nappe, mais restera piégée dans les racinesde la végétation et les dépressions de surface. On peut observer que SRMax représente plusun état initial qu’une caractéristique du bassin. Cela va nous poser quelques problèmes lors del’étalonnage du modèle, comme nous le verrons au chapitre 6.

Enfin, le paramètre Inter (m/h) englobe les pertes par interception et évapotranspirationdans un coefficient constant.

Ainsi, le ruissellement se produit sur les zones du bassin où le déficit est nul ; quant au débitd’exfiltration de la nappe, il est directement lié à l’état hydrique moyen du bassin :

Qb,t = AT0exp(−Dt

M)exp(−λ) (4.5)

avec A surface du bassin.

Le premier est transféré selon un hydrogramme unitaire, identifié dans notre cas par la mé-thode des Différences Premières de la Fonction de Transfert (Duband et al., 1994) ; le deuxièmeest supposé être délivré au voisinage immédiat de la rivière, puis transféré à l’exutoire selon desisochrones.

4.3.3 Prise en compte de la variabilité spatiale des précipitations dansTOPODYN

Dans le cadre de sa thèse, Datin (1998) a proposé une extension du domaine de validité deTOPSIMPL, afin de pouvoir prendre en compte la variabilité spatiale des précipitations. En ef-fet, l’hypothèse d’une pluie qui se répartit de manière uniforme à l’intérieur du bassin versantn’est plus justifiée dès que la taille du bassin est significativement plus grande que la taille dusystème précipitant.

Page 111: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

88 4.4. Reconstitution des épisodes pluie-débits observés

Cette relaxation de l’hypothèse de pluie uniforme conduit à une reformulation complètedes algorithmes de TOPSIMPL. En particulier, les aires drainées et les indices topographiquesdeviennent dynamiques et la recharge de versant n’est plus considérée comme étant uniforme.Le bilan de l’équation 4.1 d’écrit alors :

ai,tRi,t = T (di,t) tanβi (4.6)

et les indices pédo-topographiques sont maintenant variables d’un pas de temps à l’autre :

λi,t = lnai,t

T0 tanβi

(4.7)

4.4 Reconstitution des épisodes pluie-débits observés

La raison pour laquelle le développement de TOPODYN (prenant en compte la variabilitéspatiale des précipitations) est devenu nécessaire réside dans l’échec de TOPSIMPL (fonction-nant sous hypothèse de pluie uniforme) à reconstituer certains épisodes de crues. Sur le bassinversant de Vogüé, cela represente environ 15 à 20% des épisodes.

FIG. 4.5 – Champs de pluies krigés de l’épisode du 22 septembre 1993 sur le bassin de Vogüe (640km2).Le pixel de pluie a une surface de 1km × 1km. Les intensités pluvieuses dessinées sont les valeursmoyennées sur une heure

Page 112: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

4.4. Reconstitution des épisodes pluie-débits observés 89

La figure 4.5 suivante illustre la chronologie des champs de pluies calculés par krigeage(résolution 1 km x 1 km) traversant le bassin de Vogüe le 22 septembre 1993. Le système pré-cipitant a une largeur caractéristique d’environ 20 km et traverse le bassin de Vogüe d’Ouest enEst sur une durée d’environ 8 heures.

De son côté, la figure 4.6 à la page 89 présente :– la chronologie horaire du cumul de précipitations sur le bassin (histogramme),– la chronologie des débits mesurés (en noir),– la meilleure reconstitution obtenue avec TOPSIMPL, c’est à dire sous hypothèse de pluie

uniforme (en bleu),– la simulation obtenue avec TOPODYN (en rouge), qui prend explicitement la morpholo-

gie des champs de pluie présentés dans la figure 4.5.

FIG. 4.6 – Débits mesurés et calculés à Vogüé avec TOPSIMPL et TOPODYN. Episode du 22 septembre1993 (reproduit de Datin, 1998)

Dans ce cas, la simulation obtenue avec TOPSIMPL sous-estime considérablement le pre-mier pic de crue. La simulation par TOPODYN améliore sensiblement la reconstitution de lacrue(1er et 2eme pics), même si des problèmes demeurent, notamment lors des phases de réces-sions.

Page 113: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

90 4.5. Discussion

4.5 Discussion

Pour les deux simulations (TOPSIMPL et TOPODYN) de l’épisode du 22 septembre 1993,les cumuls horaires de précipitations sont identiques. TOPSIMPL et TOPODYN ont le mêmenombre de paramètres, dont les valeurs sont identiques dans les deux simulations. La seule dif-férence entre les deux simulations réside donc uniquement dans la prise en compte ou non dela variabilité spatiale des précipitations au sein du bassin versant. Ici, cette variabilité spatialedes précipitations semble influer de manière très significative sur la forme de l’hydrogrammede crue. Il semble donc bien y avoir une signature hydrologique de la variabilité spatiale desprécipitations. L’exercice de sensibilité que l’on présente par la suite va dans la même direction.

Pour obtenir la figure 4.7, les champs de pluies de la figure 4.5 ont été agrégés pour formerdes champs de pluies de résolutions de moins en moins précises (mais conservant le cumulde pluie sur le bassin) : les pixels de pluies ont ainsi des tailles variant de de 2 × 2km2 à40 × 40km2. Des simulations de TOPODYN forcé avec ces champs de pluies de résolutionsspatiales de moins en moins précises ont été effectuées. Ainsi, on a reporté en abscisse de lafigure 4.7 la largeur du pixel de pluie en ordonnée la valeur calculée du pic de crue. On a égale-ment indiqué la valeur mesurée du pic de crue (ligne horizontale noire supérieure) et la valeurdu pic de crue calculé avec TOPSIMPL (ligne horizontale noire inférieure). En abscisse deuxindications sont mentionnées : la largeur du bassin (≈ 40 km) et la largeur du nuage de pluie(≈ 20 km).

Il semble possible de “lire” trois niveaux dans l’évolution de la valeur calculée du pic decrue en fonction de la taille du pixel de pluie :

1. Pour des résolutions proches de la largeur du bassin, le pixel de pluie a une surface prochede celle de la surface du bassin. Le champ de pluie est donc quasiment uniforme sur lasurface du bassin. Il est donc normal que les simulations TOPODYN se rapprochent dessimulations TOPMODEL. Dans ce cas, TOPODYN ne dispose que d’informations surles volumes de pluies précipitées.

2. Lorsque la taille du pixel est significativement inférieure à la taille du bassin mais en-core supérieure à la taille du nuage, il est possible de distinguer les parties du bassin quirecoivent une pluie et celles où la pluie est (quasi) nulle. Puisque les caractéristiques to-pographiques, hydrodynamiques, etc. sont variables au sein du bassin, les réponses entermes de débits sont fonction de la partie du bassin qui recoit effectivement une précipi-tation. A ces résolutions du champ de pluie, le modèle hydrologique connaît les endroitsrecevant effectivement de la pluie et sa réponse en débits est donc modulée, ce qui diffèredu cas précédent. Dans ce cas, le modèle dispose d’une information spatiale de type“pluie/non pluie” mais il ne connait toujours pas la variabilité des intensités pluvieusesau sein du nuage de pluie. Cette information supplémentaire “pluie/non pluie” semble

Page 114: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

4.5. Discussion 91

FIG. 4.7 – Sensibilité à la résolution spatiale du champ de pluie krigé du calcul par TOPODYN du picde débit de la crue du 22 septembre 1993 sur le bassin de Vogüe

déjà améliorer la reconstitution de la crue (figure 4.7).

3. Lorsque la taille des pixels pluies est inférieure à la taille du nuage de pluie, la variabilitédes intensités pluvieuses au sein du nuage de pluie commence à être échantillonnée.Cela semble être une information intéressante si l’on en juge par la meilleure qualité dereconstitution du pic de crue sur la figure 4.7.

La position du champ de pluie à l’intérieur du bassin ainsi que la variabilité des intensitéspluvieuses au sein du nuage semble donc influencer directement la forme de l’hydrogrammede crue. Bien entendu, cet exercice de sensibilité devra être étendu à l’ensemble des épisodesdont nous possédons une mesure, notamment les épisodes convectifs, ainsi qu’à l’ensemble desbassins de tailles variées instrumentés sur la région d’étude de l’Observatoire Hydrométéorolo-gique Méditerranéen de la région Cévennes-Vivarais.

Ainsi, il faudra comparer ces études systématiques obtenues avec TOPODYN aux simula-tions obtenues avec le modèle “trivial” constitué de N TOPSIMPLs fonctionnant sur N sous-bassins (des études sont en cours au LTHE, e.g. André, 2001) ou bien N mailles d’un maillage

Page 115: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

92 4.5. Discussion

hydrologique de la région d’étude (i.e. le découpage de la région d’étude en un ensemble demailles de taille choisie, chacune étant constituée par les deux parties de versant qui contribuentau drainage de l’eau sur la section du réseau considérée ; cf. Miniscloux, 2001).

Motivation et objectifs

Cependant, avant d’aborder ces études phénoménologiques systématiques, deux questionssemblent devoir être préalablement posées :

1. Comment quantifier l’impact des incertitudes dans les modélisations proposées ?Seulement si nous prenons en compte explicitement les incertitudes de modélisation, nouspouvons comparer objectivement et rigoureusement les simulations obtenues avec TOP-SIMPL et TOPODYN et juger si les résultats sont significativement différents.

2. Est-ce que le problème de la spécification des valeurs des paramètres des modèlesa une solution unique ? Les valeurs des paramètres de TOPSIMPL et TOPODYN sontspécifiées par calage. Or, même si l’on n’a pas recours à un re-étalonnage en passantd’une version à l’autre du modèle, les résultats de simulation son conditionnés à cettespécification, ce qui peut poser des problèmes d’interprétation des résultats si elle n’estpas univoquement définie.

C’est pour répondre à ces deux questions qu’ont été menées les analyses que nous présentonspar la suite.

Page 116: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

Chapitre 5

Sensibilité de la modélisation auxincertitudes sur les données

If we know that our individual errors and fluctuations follow the magic bell-shaped curveexactly, then the resulting estimates are kown to have all the nice properties that peoplehave been able to thinck of.

J. W. Tukey (1965)

Dans ce chapitre, nous évaluons quel est l’impact, sur la modélisation pluie-débit, des incer-titudes sur les lames d’eau moyennes et sur les débits observés à l’exutoire du bassin. Pourcela, des scénarii de pluie et débits possibles, c’est-à-dire compatibles avec les observations,ont été générés. Les débits simulés sont ainsi donnés sous forme d’intervalles inter-quantiles ;cela permet d’ailleurs d’estimer l’incertitude sur le critère utilisé pour évaluer la performancede la modélisation.

93

Page 117: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

94 5.1. Propagation de l’incertitude sur les pluies moyennes krigées

5.1 Propagation de l’incertitude sur les pluies moyennes kri-gées

Deux sources d’incertitudes principales affectent les estimations de la lame d’eau tombée surun bassin versant au cours d’un épisode : les erreurs de mesure et l’incertitude liée à l’échan-tillonnage spatio-temporel de ces mesures (cf. section 1.4.3). Dans la suite, nous présentons uneanalyse de sensibilité des débits simulés par TOPSIMPL aux incertitudes dues au calcul parkrigeage de la lame d’eau moyenne sur le bassin de Vogüé à partir des mesures ponctuelles duréseau pluviométrique ardéchois (carte à la page 81).

La méthode du krigeage permet d’obtenir, avec l’estimation de la lame d’eau moyenne tom-bée sur le bassin versant, un écart-type d’estimation, d’autant plus grand que le réseau de plu-viomètres est lâche. Cet écart-type d’estimation fournit donc une indication de l’incertitudeassociée à un manque d’information : on ne connaît pas entièrement le champ de pluie, maisseulement certaines valeurs ponctuelles à travers lesquelles on essaie de le reconstituer.

On peut faire l’hypothèse que les erreurs sur les mesures ponctuelles auront un effet né-gligeable devant l’incertitude liée à l’interpolation du champ pluvieux. En effet, si l’on a deserreurs ponctuelles de 10 à 15% la valeur moyenne sur le bassin ne change pas et l’écart-typeaugmente à peine, comme nous le montrons par la suite.

Cas particulier (simple)

Si l’on considère n postes pluviométriques dont les mesures sont spatialement décorrélées :xi (i = 1, 2, ..., n),

la lame d’eau spatiale moyenne sera donnée par (cf. aussi page 34)

x =1

n

xi (5.1)

la variance des mesures par

s(x)2 =1

n − 1

n∑

i=1

(xi − x)2 (5.2)

et l’incertitude sur x par

s(x)2 =s(x)2

n(5.3)

Page 118: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

5.1. Propagation de l’incertitude sur les pluies moyennes krigées 95

On suppose maintenant que la mesure obtenue à chaque poste est affectée d’une erreur εi ;on mesure donc yi = xi + εi, i = 1, 2, ..., n. Dans ce cas, on aura :

y = x +1

n

εi avec1

n

εi → 0 (5.4)

s(y)2 = s(x)2 + s(ε)2 (5.5)

et

s(y)2 =s(x)2 + s(ε)2

n(5.6)

Pour des erreurs indépendantes de l’ordre de 15% sur chaque poste (i.e. s(ε) = 0.15s(x)), lesdeux dernières équations nous donnent

s(y)2 = s(x)2 + 0.0225s(x)2 = 1.0225s(x)2 ∼ s(x)2 (5.7)

et

s(y)2 ∼ s(x)21 + 0.0225

n∼ s(x)2 (5.8)

Nous pouvons alors considérer, par exemple, que l’incertitude sur la lame d’eau krigée estdistribuée selon une loi Normale de moyenne nulle et écart-type égal à l’écart-type d’estimationfourni par le krigeage. Ainsi, en générant un certain nombre de scénarii d’erreurs par une mé-thode de type Monte Carlo (Metropolis et Ulam, 1949 ; Fishman, 1996), nous pouvons bruiterles lames d’eau krigées et obtenir des séries de pluies possibles, compatibles avec les obser-vations : c’est ce qui a été fait dans le cadre de la thèse de R. Datin (Datin, 1998), dont nousreprenons les concepts principaux.

La forme générale de chaque scénario de pluie est la suivante :

P i,t = P t + ui,tσt ∀t (5.9)

où :P i,t est la lame d’eau moyenne générée pour le scénario i au pas de temps t ;P t est la lame d’eau moyenne calculée par le krigeage au pas de temps t ;ui,t est une variable aléatoire générée pour le scénario i et le pas de temps t ;σt est l’écart-type d’estimation associé à la lame d’eau moyenne krigée au pas de temps t.

Page 119: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

96 5.1. Propagation de l’incertitude sur les pluies moyennes krigées

Deux cas d’étude peuvent être envisagés, l’un avec erreurs indépendantes et l’autre avec er-reurs corrélées d’un pas de temps à l’autre.

On peut en effet imaginer qu’au cours d’un épisode une cellule pluvieuse particulièrementintense échappe au réseau de pluviomètres, en passant entre eux pendant un ou plusieurs pasde temps. La valeur moyenne de la pluie sera dans ce cas sous-estimée par le réseau de mesurependant un certain temps, qui dépend de la taille du bassin, de l’emplacement des pluviomètres,de la durée de vie de la cellule et de sa vitesse de déplacement. De même, il n’est pas impossiblequ’une cellule pluvieuse soit placée juste au dessus d’un ou plusieurs pluviomètres sans qu’il yait les mêmes précipitations ailleurs : dans ce cas, le champ moyen krigé sera surestimé pendantplusieurs pas de temps.

Dans certains cas, il sera alors plus correct de considérer des erreurs corrélées d’un pasde temps à l’autre, plutôt qu’indépendantes. Cependant, il n’est pas possible de déterminerle coefficient d’auto-corrélation à partir des seules mesures des stations pluviométriques : desdonnées supplémentaires telles que des images radar, par exemple, sont nécessaires. Ce typedonnées n’est pas toujours disponible : dans notre cas spécifique, nous possédions des donnéesradar pour seulement une partie des épisodes ayant eu lieu pendant la période 1993-1995. Ainsi,nous avons mené notre analyse en considérant d’abord des erreurs indépendantes (section 5.1.1),puis auto-corrélées (section 5.1.2), pour pouvoir évaluer le coût de ce manque d’information.

5.1.1 Cas d’une erreur aléatoire indépendante d’un pas de temps à l’autre

Dans le cas d’erreurs indépendantes d’un pas de temps à l’autre, la valeur de la variable ui,t

de l’équation 5.9 est tirée d’une loi Normale de moyenne 0 et écart-type 1, indépendamment dela valeur de la variable ui,t−1.

Pour déterminer le nombre minimum de scénarii nécessaires pour reconstituer la dispersionattendue autour de la moyenne krigée, une analyse de sensibilité a été effectuée. Nous avonsainsi mené une étude statistique en testant la stabilité des déciles en fonction du nombre de scé-narii générés et établi qu’il faut prendre en compte au moins 700 scénarii si l’on veut quantifierau mieux l’effet de l’incertitude associée à la pluie moyenne krigée.

Les 700 scénarii de pluies probables générés pour l’épisode du 2 novembre 1994 sont syn-thétisés dans la figure 5.1 : nous y avons représenté la moyenne (ligne noire épaisse), l’intervalleinter-quantiles 10-90% (ligne noire fine) et la plage minimum-maximum (en pointillé).

Page 120: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

5.1. Propagation de l’incertitude sur les pluies moyennes krigées 97

FIG. 5.1 – Scénarii de pluies probables générés pour l’épisode du 2 novembre 1994 sur le bassin deVogüé sous l’hypothèse d’erreurs indépendantes. Ligne épaisse : moyennes ; lignes continues plus fines :intervalle inter-quantile 10%-90% ; traits discontinus : enveloppes

5.1.2 Cas d’une erreur aléatoire corrélée d’un pas de temps à l’autre

Lorsqu’on considère des erreurs auto-corrélées, la valeur de la variable ui,t de l’équation 5.9dépend de la valeur de ui,t−1 :

ui,t = ρui,t−1 + εt (5.10)

avec :ρ coefficient d’auto-corrélation ;εt variable aléatoire indépendante, tirée d’une loi Normale de moyenne 0 et écart-type 1.

Une comparaison entre les pluies moyennes calculées à partir des mesures au sol et les pluiesmoyennes estimées grâce aux images radar nous a permis de déterminer un coefficient d’auto-corrélation ρ valable pour le bassin de Vogüé (Datin, 1998). En effet, si l’on fait l’hypothèse quele radar donne une bonne estimation de la distribution spatiale de la pluie sur le bassin, mêmes’il est mal étalonné en valeur absolue, on peut écrire la relation suivante :

P sol,t = αP radar,t + β + νt (5.11)

avec :

Page 121: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

98 5.1. Propagation de l’incertitude sur les pluies moyennes krigées

FIG. 5.2 – Scénarii de pluies probables générés pour l’épisode du 2 novembre 1994 sur le bassin deVogüé sous l’hypothèse d’erreurs auto-corrélées. Ligne épaisse : moyennes ; lignes continues plus fines :intervalle inter-quantile 10%-90% ; traits discontinus : enveloppes

P sol,t pluie moyenne estimée par krigeage à partir des données du réseau pluviométrique au solau pas de temps t ;P radar,t pluie moyenne calculée à partir de l’image radar au pas de temps t ;α et β coefficients à évaluer ;νt erreur d’estimation de P sol,t à partir de P radar,t.

En étudiant la relation entre νt et νt−1 pour plusieurs épisodes, on peut déterminer une esti-mation du coefficient d’auto-corrélation ρ valable du point de vue climatologique. Une valeurd’environ 0.7 a ainsi été retenue pour le bassin de Vogüé.

Comme dans le cas d’erreurs indépendantes d’un pas de temps à l’autre, nous avons pu dé-términer le nombre minimum de scénarii nécessaires pour reconstituer la dispersion attendueautour de la moyenne krigée. Encore une fois, nous avons décidé de retenir 700 scénarii depluie probables. La figure 5.2 montre, pour le même épisode du 2 novembre 1994, la moyenne,l’intervalle inter-quantiles 10 et 90% et la plage minimum-maximum associés à ces scénarii,calculés, on le rappelle, en considérant des erreurs corrélées avec un coefficient de corrélationρ = 0.7.

Par rapport au cas précédent (figure 5.1), on constate que les intervalles sont plus écartés.

Page 122: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

5.1. Propagation de l’incertitude sur les pluies moyennes krigées 99

FIG. 5.3 – Intervalles inter-quantiles 10%-90% moyens (en haut à gauche), moyens sans tenir comptedes intervalles nuls (en haut à droite), minimaux sans tenir compte des intervalles nuls (en bas à gauche)et maximaux (en bas à droite) correspondant aux différents scénarii de pluies plausibles pour la totalitédes épisodes, sous l’hypothèse d’erreurs indépendantes (en abscisses) et auto-corrélées (en ordonnées)

Il s’agit d’un résultat observé pour tous les épisodes analysés, comme on peut le remarquerdans la figure 5.3, où nous avons représenté, pour chaque épisode, les intervalles interquantiles10-90% moyen, moyen sans tenir compte des intervalles nuls, minimal sans tenir compte desintervalles nuls et maximal, calculés à partir des scénarii de pluies obtenus dans les deux casd’erreurs indépendantes et auto-corrélées. Cela nous montre que si nous faisons une hypothèsed’erreurs indépendantes, alors qu’elles se revèlent par la suite auto-corrélées, nous sous-estimons l’incertitude associée à la lame d’eau krigée.

Page 123: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

100 5.1. Propagation de l’incertitude sur les pluies moyennes krigées

5.1.3 Sensibilité des simulations de débits aux incertitudes sur les pluiesmoyennes krigées

Chaque scénario de pluies probables a été utilisé en forçage de TOPSIMPL pour obtenir lescénario de débit correspondant. L’ensemble de ces scenarii de débits nous a ainsi permis dequantifier l’impact de l’incertitude d’estimation de la lame d’eau moyenne sur la simula-tion des débits par le modèle.

FIG. 5.4 – Scénarii de débits correspondant aux différents scénarii de pluies probables pour l’épisodedu 2 novembre 1994 sur le bassin de Vogüé : en haut, sous l’hypothèse d’erreurs indépendantes ; en bas,sous l’hypothèse d’erreurs auto-corrélées

La figure 5.4 de la page précédente illustre, toujours pour l’épisode du 2 novembre 1994, lamoyenne, les quantiles 10 et 90% et les valeurs minimales et maximales des débits simulés parTOPSIMPL à partir de 700 scénarii de pluie sous l’hypothèse d’erreurs indépendantes (en haut)ou auto-corrélées (en bas) sur la moyenne krigée.

Nous constatons que la plage d’incertitude sur les débits est assez large, en particulier dans

Page 124: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

5.1. Propagation de l’incertitude sur les pluies moyennes krigées 101

FIG. 5.5 – Intervalles inter-quantiles 10%-90% moyens (en haut à gauche), moyens sans tenir comptedes intervalles nuls (en haut à droite), minimaux sans tenir compte des intervalles nuls (en bas à gauche)et maximaux (en bas à droite) des simulations de débits obtenues avec les différents scénarii de pluies,sous l’hypothèse d’erreurs indépendantes (en abscisses) et auto-corrélées (en ordonnées), pour la totalitédes épisodes

le cas des erreurs auto-corrélées. A nouveau, il s’agit d’un résultat assez général (cf. figure 5.5),bien qu’il y ait des cas pour lesquels un faible écart-type d’estimation du champ de pluie moyenconduit à un intervalle de confiance sur les débits simulés plus serré.

Toutes les 700 simulations de débits peuvent être comparées aux mesures disponibles àl’exutoire de Vogüé pour cet épisode : nous avons choisi l’efficience de Nash (définie par l’équa-

Page 125: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

102 5.1. Propagation de l’incertitude sur les pluies moyennes krigées

FIG. 5.6 – Sensibilité de la valeur de l’efficience aux incertitudes d’estimation de la pluie moyenne surle bassin (en haut, sous l’hypothèse d’erreurs indépendantes d’un pas de temps à l’autre ; en bas, sousl’hypothèse d’erreurs auto-corrélées) pour l’épisode du 2 novembre 1994

tion 1.5 à la page 15) comme mesure de la performance du modèle avec les différents forçages.

La figure 5.6 montre, toujours pour l’épisode du 2 novembre 1994, la variabilité de l’effi-cience en fonction du numéro du scénario de débit simulé (on rappelle que nous avons ici 700scénarii de pluies), dans les deux cas d’erreurs indépendantes (en haut) et auto-corrélées (en bas)sur les pluies moyennes krigées. La ligne droite représente, dans les deux graphiques de gauche,l’efficience calculée à partir de la chronologie des débits calculée avec la série non bruitée despluies moyennes krigées. Comme on peut le remarquer, dans le cas d’erreurs auto-corrélées la

Page 126: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

5.2. Prise en compte des incertitudes sur les débits observés 103

FIG. 5.7 – Sensibilité de la valeur de l’efficience aux incertitudes d’estimation de la pluie moyennepour 17 épisodes pluie-débits observés : médianes (ligne épaisse), intervalles inter-quantiles 10-90%(lignes fines) et plages min-max (+). A gauche, sous l’hypothèse d’erreurs non corrélées ; à droite, sousl’hypothèse d’erreurs auto-corrélées

dispersion de valeurs est encore une fois plus élevée (figure 5.6 en bas). Il s’agit encore une foisd’un résultat généralisable à tous les épisodes, comme on peut l’observer dans la figure 5.7.

En conclusion de cette section, on retiendra donc que les incertitudes sur les entrées sepropagent à travers le modèle, généralement en s’amplifiant. Cela se traduit bien sûr en uneincertitude sur les débits simulés et donc sur la valeur du critère choisi pour mesurer laperformance de la simulation, dans notre cas l’efficience de Nash.

Les simulations présentées ici permettent de se rendre compte de l’importance de ces incer-titudes et donc de notre incertitude dans l’évaluation de la “bonne” ou “mauvaise” qualité d’unesimulation. Bien sûr, cela questionne aussi les recherches d’optimum par calage automatiqueavec des calculs d’efficience à la troisième décimale près ... nous reviendrons sur ce sujet auchapitre 6.

5.2 Prise en compte des incertitudes sur les débits observés

Les débits à l’exutoire du bassin de Vogüé sont estimés à partir de mesures de hauteur parun limnigraphe, transformées en débits grâce à une courbe de tarage. Nous avons déjà souligné

Page 127: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

104 5.2. Prise en compte des incertitudes sur les débits observés

que les imprécisions sur les débits ainsi estimés peuvent être assez importantes (section 1.4.3).

Nous présentons ici les résultats d’une analyse de sensibilité de l’initialisation du modèle etde la valeur de l’efficience de Nash (notre mesure de performance de la modélisation) à deuxtypes d’erreurs sur les débits observés : l’erreur de mesure sur les hauteurs et l’incertitude liéeà la détermination de la courbe de tarage.

5.2.1 Simulation des erreurs de mesure des hauteurs

Avec la même méthode de type Monte Carlo utilisée pour analyser la sensibilité du modèleaux incertitudes sur les pluies, des scénarii de hauteurs possibles ont été générés en bruitant leshauteurs mesurées. La littérature présente comme vraisemblables et courantes en cas de cruedes erreurs relatives de lecture (∆h/h) d’environ 3% (Maidment, 1973 ; Bertrand-Krajewski etal., 2000) ; nous avons ainsi choisi de tester la sensibilité des simulations, ainsi que la sensibilitéde la valeur de la fonction objectif qui leur est attribuée, à des erreurs aléatoires de 3% autourde la hauteur observée :

hi,t = ht (1 + αui,t) (5.12)

où :hi,t est la hauteur au pas de temps t générée pour le scénario i ;ht est la hauteur mesurée au pas de temps t ;α est l’erreur de mesure (ici, α =0.03) ;ui,t variable aléatoire gaussienne de moyenne nulle et écart-type égal à 1.

A partir de ces hauteurs bruitées, des nouvelles chronologies de débits ont été calculées grâceaux six courbes de tarage disponibles pour la période 1984-1999 sur le bassin de Vogüé (figure4.4 à la page 82). Comme dans le cas des pluies, une analyse de sensibilité nous a permis dedéterminer le nombre minimum de scénarii nécessaires (300) pour reproduire correctement ladispersion de valeurs attendue autour de la moyenne observée.

A titre d’exemple, la figure 5.8 montre, toujours pour l’épisode du 2 novembre 1994, l’inter-valle inter-quantiles 10-90% des hauteurs bruitées et des débits correspondants.

Chacun des débits bruités pourrait être le “vrai” débit écoulé au cours de l’épisode. Or, l’in-tialisation de TOPSIMPL se fait en supposant que le débit observé au premier pas de temps neprovient que de l’exfiltration de la nappe, ce qui permet d’initialiser le modèle en fixant un état“moyen” d’humidité du bassin (cf. section 4.3.1). L’initialisation du modèle peut donc êtreaffectée par les incertitudes sur les débits observés. Mais dans quelle proportion ? La figure5.9 nous donne la réponse : l’initialisation n’est pas sensible aux incertitudes sur les débits ob-

Page 128: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

5.2. Prise en compte des incertitudes sur les débits observés 105

FIG. 5.8 – En haut : hauteurs (ligne fine) et débits observés (ligne épaisse). En bas : largeur des inter-valles inter-quantiles 10-90% des scénarii bruitées de hauteur (ligne fine) et des débits (ligne épaisse)correspondants. Episode du 2 novembre 1994

FIG. 5.9 – Episode du 2 novembre 1994 : débits simulés correspondant à différentes initialisations dumodèle resultantes d’une incertitude de 3% sur la mesure de hauteur à l’exutoire de Vogüé. Les 300simulations sont confondues

servés, si celles-ci se maintiennent dans la gamme de valeurs proposées.

Enfin, nous avons comparé les débits simulés par TOPSIMPL (sans bruiter les pluies en for-çage du modèle) aux différents scénarii de débit, en calculant pour chaque comparaison la valeur

Page 129: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

106 5.2. Prise en compte des incertitudes sur les débits observés

FIG. 5.10 – Sensibilité de la valeur de l’efficience aux incertitudes d’estimation des hauteurs pour17 épisodes pluie-débits observés : médianes (ligne épaisse), intervalles inter-quantiles 10-90% (lignesfines) et plages min-max (+)

de l’efficience de Nash. Les résultats obtenus pour l’ensemble des 17 épisodes sont présentésdans la figure 5.10. On observe que l’incertititude sur la valeur de l’efficience est réduite, notam-ment par rapport à celle due aux erreurs sur les pluies (figure 5.7) car l’incertitude sur les débitsest dans notre cas plus faible. Cependant, cette incertitude sur la valeur de l’efficience n’est pasnégligeable, notamment dans la phase d’optimisation des valeurs des paramètres, comme nousaurons l’occasion de l’observer au chapitre 6.

5.2.2 Analyse de l’incertitude liée au choix de la courbe de tarage

Les courbes de tarage à Vogüé ont été recalculées six fois au cours de la période 1984-1999à laquelle appartiennent les épisodes étudiés (cf. figure 4.4 à la page 82). Cette variabilité s’ex-plique par l’évolution des caractéristiques géométriques et physiques de la rivière.

En premier lieu, on observe que les variations d’une courbe à la suivante (chronologique-ment) ne sont pas systématiques et ne montrent pas de tendance, tout en restant assez contenues.Par contre, rien ne prouve qu’au cours d’une période pendant laquelle la courbe est considéréecomme invariante il n’y a pas eu de variation dans la section de contrôle de la rivière et, donc,de changement dans la relation hauteur-débit.

Page 130: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

5.2. Prise en compte des incertitudes sur les débits observés 107

Par ailleurs, l’unicité de relation hauteur-débit (et donc de la courbe de tarage) en cas de cruen’est valable qu’en première approximation, à cause d’un effet d’hystéresis qui apparaît en casd’écoulement en régime transitoire, départageant les phases de crue et décrue. De plus, nous neconnaissons pas les incertitudes sur les mesures qui ont permis l’établissement de ces courbes,ni celles qui sont associées à leur interpolation et à l’extrapolation pour des valeurs de débitsupérieures à celles qui ont été observées.

FIG. 5.11 – Scénarii de débits simulés par TOPSIMPL en initialisant le modèle avec les débits obtenusà partir des 6 différentes courbes de tarage pour l’épisode du 2 novembre 1994 (à gauche) et impact surla valeur de l’efficience (à droite). Episode du 2 novembre 1994

Faute de plus d’information, nous avons considéré les 6 courbes de tarage à Vogüé commeun échantillonnage réaliste des erreurs possibles sur les mesures de débits, pour une hauteurdonnée et pendant la période 1984-1999, dû aux incertitudes sur la modification du lit de larivière. Par contre, on sait bien qu’on sous-estime ainsi les incertitudes réelles !

Nous avons donc généré des scénarii de débits en utilisant aléatoirement l’une des six courbesde tarage à notre disposition pour transformer les mesures de hauteur en débits. La figure 5.11de la page précédente montre, toujours pour l’épisode du 2 novembre 1994, les débits simulésobtenus en initialisant le modèle avec 6 différents débits initiaux, chacun provenant d’une dif-férente courbe de tarage. En calculant l’efficience entre les débits simulés par le modèle et lesdébits de chaque scénario, on obtient une estimation de l’incertitude sur la valeur de l’efficiencecalculée par rapport aux débits observés (droite horizontale).

Il est d’ailleurs intéressant de remarquer que les fourchettes de débit sont plus grandes dansle cas de l’incertitude sur la courbe de tarage que dans le cas des erreurs de lecture des hauteurs,

Page 131: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

108 5.2. Prise en compte des incertitudes sur les débits observés

FIG. 5.12 – Episode du 2 novembre 1994 : scénarii de débits obtenus en considérant une erreur de 3%sur la mesure des hauteurs et une indétermination sur les six courbes de tarage disponibles à Vogüé pourla période 1984-1999 (ligne épaisse : moyenne ; lignes fines : intervalle inter-quantiles 10-90% ; lignespointillées : enveloppe min-max)

bien que l’on ait négligé ici les erreurs de mesure et d’interpolation/extrapolation ! On observe,en particulier, que l’initialisation du modèle en est affectée, contrairement au cas précédent.

Si l’on combine les deux sortes d’incertitudes (erreurs de mesure et indétermination de lacourbe de tarage), la fourchette des débits possibles s’élargit encore ; la dispersion des effi-ciences de Nash entre débits simulés et débits bruités correspondant à chaque scénario de débitaugmente à son tour, comme montré dans la figure 5.13. Les résultats obtenus sur l’ensemblede 17 épisodes considérés sont donnés dans la figure 5.14.

On en conclut donc que les incertitudes sur les débits observés se traduisent en incer-titude (i) sur les simulations (à cause de l’initialisation du modèle) et (ii) sur la valeur del’efficience (ou de tout autre critère de mesure de la performance de la modélisation qui se basesur la comparaison entre débits observés et débits simulés). Encore une fois, cela nous mène ànous questionner sur la validité d’un jugement d’une simulation effectué sur la simple base dela valeur d’un critère (global) comme l’efficience.

Page 132: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

5.2. Prise en compte des incertitudes sur les débits observés 109

FIG. 5.13 – Episode du 2 novembre 1994 : distribution des efficiences obtenues en comparant la chro-nologie de débit simulée par TOPSIMPL aux différents scénarii de débits tenant compte des erreurs demesure des hauteurs et de l’indétermination de la courbe de tarage

FIG. 5.14 – Sensibilité de la valeur de l’efficience aux incertitudes de mesure des hauteurs et à l’in-détermination de la courbe de tarage pour 17 épisodes pluie-débit observés : médianes (ligne épaisse),intervalle inter-quantile 10-90% (lignes fines) et plage min-max (+)

Page 133: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

110 5.3. Considération simultanée des incertitudes sur les pluies et sur les débits

5.3 Considération simultanée des incertitudes sur les pluieset sur les débits

En combinant les incertitudes sur l’estimation de la pluie moyenne (équation 5.9 - 700 scé-narii d’erreur générés) avec les erreurs de mesure des hauteurs (équation 5.12 - 300 scénariid’erreur) et les incertitudes liées à la courbe de tarage (figure 5.11 - 6 scénarii d’erreur), nouspouvons analyser leur impact conjoint sur nos simulations et sur la valeur de l’efficience deNash (donc sur notre évaluation de ces simulations).

FIG. 5.15 – Impact sur la valeur de l’efficience des incertitudes sur les pluies et les débits observés -Episode du 2 novembre 1994

Reprenons encore une fois l’exemple de la simulation des débits à l’exutoire de Vogüé lorsde l’épisode pluvieux du 2 novembre 1994. Les 700 scénarii de pluies possibles calculés pourcet épisode ont été utilisés en forçage du modèle, tout comme les 6 différents scénarii de débitsen ont permis l’intialisation. Nous avons donc calculé un ensemble de 6 x 700 = 4200 chronolo-gies de débits pouvant être comparées, une à une, aux différents scénarii de débits possibles auvu des incertitudes sur les observations. Une valeur de l’efficience de Nash a été calculée pourchaque comparaison : il a donc été possible de représenter la dispersion des valeurs autour del’efficience que l’on aurait eu sans tenir compte des incertitudes sur les données (ligne droitedans la figure 5.15).

L’incertitude sur la valeur de l’efficience augmente encore : si l’on observe les résultats

Page 134: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

5.4. Conclusion 111

FIG. 5.16 – Sensibilité de l’efficience aux incertitudes sur les pluies et sur les débits observés pour 17épisodes pluie-débits observés : médianes (ligne épaisse), intervalles inter-quantiles 10-90% (ligne fines)et plages min-max (+)

obtenus pour l’ensemble des épisodes (cf. figure 5.16), on s’aperçoit que pour certains d’entreeux les valeurs des efficiences obtenues avec certains scénarii sont négatives, montrant ainsi quela simple prédiction du volume moyen de la crue donne des résultats que l’on jugera meilleursselon ce critère (cf. équation 1.5 à la page 15) !

5.4 Conclusion

Bien qu’on ait ici sous-estimé les incertitudes sur les débits observés, nous avons pu vérifierdans ce chapitre que les incertitudes sur les observations affectent significativement la modéli-sation : nous avons suggéré tout au long de ce chapitre de les prendre en compte explicitementvia la génération de scénarii possibles de pluies et débits, afin d’exprimer les résultats demodélisation (la chronologie des débits simulés) sous une forme probabiliste.

De même, nous proposons de tenir compte de ces incertitudes lors de l’évaluation de laperformance du modèle, car la valeur de l’efficience de Nash (et de toute autre critère quel’on peut choisir à ce fin) en dépend fortement. En cosidérant des scénarii possibles de pluieset débits observés, ainsi que les scénarii des débits simulés correspondant, on peut par exemplefournir une valeur moyenne attendue de l’efficience et son écart-type.

Page 135: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

112 5.4. Conclusion

L’une des principales conséquences de cette démarche concerne l’optimisation des valeursdes paramètres de TOPSIMPL par étalonnage. En effet, nous avons considéré dans ce chapitredes simulations obtenues avec une combinaison de paramètres bien précise et identifiée au préa-lable en optimisant la valeur de l’efficience sur l’ensemble des épisodes pluie-débits observés,sans tenir compte des incertitudes. Au vu des analyses présentées dans ce chapitre, nous nousattendons à ce que les valeurs des paramètres estimées par calage soient à leur tour in-certaines, à cause des incertitudes sur la valeur de l’efficience. C’est ce que nous avons vouluvérifier dans le chapitre qui suit.

Page 136: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

Chapitre 6

Analyse de l’incertitude de spécificationdes valeurs des paramètres

The scientific method is the systematic attempt to construct theories that correlate widegroups of observed facts (...). Such theories are tested by controlled experimentation andare accepted only so long as they are consistent with all observed facts.

G. Shortley & D. Williams (1965)

L’évaluation de la performance d’une modélisation et l’estimation de son pouvoir prédictif né-cessitent de juger la pertinence de la spécification des valeurs des paramètres. Or, celle-ci estinfluencée par plusieurs incertitudes, notamment la propagation d’erreurs sur les données et,dans le cas où les paramètres sont étalonnés par calage, le choix de la série de données à re-constituer et de la fonction objectif (ou de coût) que l’on veut maximiser (minimiser). Nousanalysons dans ce chapitre la sensibilité du calage des paramètres de TOPSIMPL à ces diffé-rentes sources d’incertitudes.

113

Page 137: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

114 6.1. Sensibilité de la spécification des paramètres au choix de la fonction objectif

Pour effectuer l’analyse de sensibilité présentée au chapitre précedent, nous avons choisicomme représentative du bassin de Vogüé la combinaison de valeurs des paramètres qui maxi-mise la valeur de l’efficience de Nash (equation 1.5 à la page 15), calculée à partir des valeursdes débits à l’exutoire observés et simulés sur un ensemble de 35 épisodes observés au coursde la période 1984-1995. Ainsi, l’analyse de sensibilité des simulations aux incertitudes sur lesdonnées de pluie et débit observés est conditionnée par ce choix.

Plusieurs études ont montré que l’étalonnage des paramètres du modèle peut être très sen-sible au choix de la fonction objectif, d’une part, et à la série de données utilisées pour le calage,d’autre part (cf. section 1.4.4, pages 26 et suivantes). Au vu des résultats obtenus au chapitreprécédent, les incertitudes sur les observations sont à leur tour susceptibles d’influencer les ré-sultats du calage.

Pour mieux prendre conscience de l’importance de ces différentes sources d’incertitude surl’étalonnage des paramètres de TOPSIMPL, dans le contexte ardéchois et avec les données dis-ponibles pour la modélisation, nous en avons quntifié l’impact via les mêmes simulations detype Monte Carlo utilisées au chapitre précédent, principalement dans le but de vérifier l’uni-cité et la pertinence de la solution au problème de la spécification. C’est avec cet objec-tif qu’ont été menées les analyses essentiellement pédagogiques, donc descriptives, présentéesdans ce chapitre et dans le chapitre qui suivra.

6.1 Sensibilité de la spécification des paramètres au choix dela fonction objectif

Supposons d’avoir un modèle pluie-débit parfait, dont on connaît précisément les valeursdes paramètres et qui est alimenté avec des données exactes et parfaitement informatives pourle modèle : la chronologie de débits calculée par ce modèle coïnciderait avec la chronologie dedébits réellement écoulés à l’exutoire du bassin.

Imaginons maintenant de devoir estimer les valeurs des paramètres de ce modèle parfait paroptimisation de la valeur d’une fonction objectif quelconque, toujours à partir d’une série dedonnées de pluies et de débits idéalement parfaite. Nul ne doute qu’on pourrait retrouver lesvaleurs des paramètres permettant de reconstituer parfaitement la chronologie des débits obser-vés et que ces valeurs seraient toujours les mêmes, indépendamment du choix de la fonctionobjectif que l’on a cherché à maximiser. En effet, les valeurs des paramètres recherchées se-raient dans ce cas celles qui permettraient d’obtenir des simulations des variables pronostiques“collant” parfaitement aux observations, en annulant la valeur de l’erreur totale, quelle que soitsa définition.

Page 138: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

6.1. Sensibilité de la spécification des paramètres au choix de la fonction objectif 115

En réalité, sachant que notre modèle n’est qu’une approximation de la réalité et que lesdonnées disponibles pour l’étalonnage sont imparfaites, on s’attend à obtenir des résultats dif-férents, selon la fonction objectif que l’on a choisi. En effet, il y aura toujours un décalage entreles simulations et les observations des variables pronostiques, exprimé différemment selon ladéfinition d’erreur proposée par les différentes fonctions objectif. Ainsi, on s’attend à obtenirune combinaison de valeur des paramètres “optimale” qui varie selon la définition d’erreur dela simulation (et donc selon la fonction objectif choisie). La première question que nous avonsabordée est donc la suivante :

les valeurs des paramètres de TOPSIMPL optimisées par calage sont-elles sensibles auchoix de la fonction objectif (de coût) que l’on veut maximiser (minimiser) ?

Pour répondre à cette question, deux fonctions objectifs définies dans la section 1.3 ont étéutilisées à tour de rôle pour rechercher la combinaison de valeurs des paramètres qui “mieux”reproduit les débits observés sur l’ensemble des 35 épisodes à notre disposition : ce sont lecoefficient de détermination et l’efficience de Nash, dont on rappelle les principales propriétésdans le tableau 6.1. Ces deux fonctions sont très proches dans leur formulation, qui est baséesur une définition de l’erreur selon les moindres carrés. Pourtant, nous le verrons au cours duchapitre, elles fournissent des résultats assez différents.

Fonction Expression Valeur Valeurobjectif mathématique maxi mini

Coeff. détermination[

�(qi,obs−qobs)(qi,calc−qcalc)]

2

�(qi,obs−qobs)

2 �(qi,calc−qcalc)

2 1.0 0.0

Efficience 1 −�

(qi,obs−qi,calc)2

�(qi,obs−qobs)

2 1.0 −∞

TAB. 6.1 – Propriétés des fonctions objectifs utilisées pour le calage de TOPSIMPL

80000 différentes combinaisons de valeurs des paramètres ont été testées, en explorant sys-tématiquement l’espace des possibles réalisations à partir d’une valeur minimale et selon un pasincrémental propre à chaque paramètre, ce qui sous-entend une distribution de valeurs uniformepour chaque paramètre (tableau 6.2).

Chaque combinaison de paramètres permet de simuler d’une manière différente les 35 chro-nologies de débits observés ; à chacune de ces simulations est associée une valeur de la fonctionobjectif choisie pour l’évaluation du modèle : nous avons d’abord considéré comme représen-tative du bassin de Vogüé la combinaison de valeurs des paramètres maximisant l’une des deuxfonctions objectifs sur l’ensemble des 35 épisodes disponibles. Les résultats de cette optimisa-

Page 139: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

116 6.1. Sensibilité de la spécification des paramètres au choix de la fonction objectif

Paramètre Valeur Pas Nombre de Valeursminimale incrémental valeurs testées maximales

Ko (m/h) 1.0 5.0 20 96.0M (m) 0.001 0.004 20 0.077Inter (m/h) 0.000 0.001 10 0.01SRMax (m) 0.000 0.002 20 0.038

TAB. 6.2 – Délimitation de l’espace des valeurs des paramètres explorées

tion sont recueillis dans le tableau 6.3.

Fonction Paramètres optimaux Fonctionobjectif Valeur Ko M Inter SRMax objectif Valeur(calage) (m/h) (m) (m/h) (m) (validation)

Efficience 0.8419 21.0 0.033 0.000 0.016 Coeff. dét. 0.8456Coeff. dét. 0.8496 16.0 0.033 0.000 0.028 Efficience 0.8319

TAB. 6.3 – Paramètres optimaux pour l’ensemble des épisodes disponibles sur le bassin de Vogüé

On observe tout d’abord que la valeur optimale du critère de performance est dans les deuxcas très satisfaisante, ce qui laisse supposer une bonne capacité du modèle à répondre à la ques-tion qu’on lui pose : la simulation des débits à l’exutoire du bassin.

On remarque ensuite que les combinaisons de valeurs des paramètres retenues varient d’unefonction objectif à l’autre, bien que les valeurs identifiées des deux paramètres M et Intersoient les mêmes. Le paramètre pour lequel on observe plus de différence est SRMax, ce quipeut s’expliquer par une plus grande variabilité de ce paramètre d’un épisode à l’autre, variabi-lité qui est “régularisée” (moyennée) par chaque fonction objectif de manière différente à caused’une différente définition de l’erreur de simulation 1.

1Nous rappelons que malgré son appellatif, SRMax ne représente pas le volume d’eau maximum que l’onpeut stocker dans le “réservoir racinaire” (i.e. le réservoir supposé contenir l’eau interceptée par les planteset/ou évaporée), mais plutôt la quantité d’eau nécessaire pour la mise en eau du bassin (donc, la différence entrele volume du réservoir racinaire et le volume déjà rempli). Pour cela, même si nous le considérons comme unparamètre, il s’agit en fait d’un état initial du bassin. Il n’est donc pas étonnant que sa valeur soit très variabled’un épisode à l’autre !

Page 140: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

6.1. Sensibilité de la spécification des paramètres au choix de la fonction objectif 117

FIG. 6.1 – Dispersion des valeurs de l’efficience de Nash résultant du calage de TOPSIMPL sur les 35épisodes pluie-débits disponibles

Page 141: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

118 6.1. Sensibilité de la spécification des paramètres au choix de la fonction objectif

FIG. 6.2 – Dispersion des valeurs du coefficient de détermination résultant du calage de TOPSIMPL surles 35 épisodes pluie-débits disponibles

Page 142: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

6.1. Sensibilité de la spécification des paramètres au choix de la fonction objectif 119

FIG. 6.3 – Projections de la surface de réponse de TOPSIMPL autour de la combinaison de paramètresoptimale dans le cas d’utilisation de l’efficience de Nash comme fonction objectif : les plans horizontauxreprésentent, du haut vers le bas et de la gauche vers la droite, les plans K0 − M , K0 − SRMax,K0−Inter, M−Inter, SRMax−Inter et M−SRMax. Les intervalles de variations des paramètressont ceux du tableau 6.2

Page 143: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

120 6.1. Sensibilité de la spécification des paramètres au choix de la fonction objectif

FIG. 6.4 – Projections de la surface de réponse de TOPSIMPL autour de la combinaison de paramètresoptimale dans le cas d’utilisation du coefficient de détermination comme fonction objectif : les planshorizontaux représentent, du haut vers le bas et de la gauche vers la droite, les plans K0 − M , K0 −SRMax, K0 − Inter, M − Inter, SRMax − Inter et M − SRMax. Les intervalles de variationsdes paramètres sont ceux du tableau 6.2

Page 144: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

6.1. Sensibilité de la spécification des paramètres au choix de la fonction objectif 121

Les surfaces de réponse qui correspondent aux deux fonctions objectifs sont aussi diffé-rentes, comme on peut le deviner à partir des projections suivant les axes des 4 paramètresprésentées dans les figures 6.1 à la page 117 et 6.2 à la page 118 : cette différence de formesous-entend une différente sensibilité des valeurs des fonctions objectifs aux incertitudes sur lesdonnées et donc une différente sensibilité des valeurs des paramètres optimisées. On reconnaîtcependant une caractéristique commune : comme les deux surfaces de réponse sont assez apla-ties et présentent des crêtes (cf. figures 6.3 et 6.4 aux pages 119 et 120 respectivement), dansles deux cas l’estimation des combinaisons des valeurs des paramètres n’est pas robuste.Seul le paramètre M semble pouvoir être spécifié aisément (on reconnaît bien le maximumsur la projection de la surface de réponse selon son axe, cf. figures 6.1 et 6.2) et c’est d’ailleurssur ce paramètre que nous avons une concordance de resultats entre les deux fonctions objectifs.

FIG. 6.5 – Dispersion des efficiences et des coefficients de détermination obtenus en simulant les débitsde chaque épisode avec la combinaison de paramètres qui optimise l’efficience sur l’ensemble des 35épisodes disponibles (à gauche) ou le coefficient de détermination (à droite)

On observe à la figure 6.5, où nous avons résumé les performances des simulations de chaqueépisode avec la meilleure combinaison de valeurs selon l’efficience (à gauche) et le coefficientde détermination (à droite), que la qualité des simulations varie d’un épisode à l’autre. En effet,la combinaison de valeurs des paramètres retenue est, dans les deux cas, celle qui permet demieux reconstituer l’ensemble des débits observés selon la fonction objectif choisie. Il s’agitdonc d’une performance moyenne sur les 35 épisodes : les simulations de débits, prises indé-pendamment épisode par épisode, donnent des résultats plus ou moins bons, comme on peut levoir dans la figure 6.5.

Page 145: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

122 6.2. Dépendance du calage de la série de données disponibles

6.2 Dépendance du calage de la série de données disponibles

Ce qui est plus embêtant, cependant, est que lorsque nous calons le modèle épisode par épi-sode, non seulement nous ne reconstituons pas chacun de ces épisodes avec la même qualité(i.e. nous trouvons une différente valeur de la fonction objectif selon l’épisode considéré), maissurtout, nous n’obtenons pas les mêmes combinaisons de valeurs de paramètres optmales !

FIG. 6.6 – Valeurs optimales de chaque paramètre, en fonction de l’épisode considéré, selon l’efficience(asterisques) ou le coefficient de détermination (losanges)

C’est ce que nous montrons dans la figure 6.6 : si le paramètre Inter est assez bien contraint(la dispersion des valeurs est moindre, notamment dans le cas de l’optimisation selon l’ef-ficience), les trois autres paramètres assument à peu près tout la gamme de valeurs testées,surtout lorsqu’on utilise le coefficient de détermination comme critère d’optimisation. Seul leparamètre M semble pouvoir être contraint (faible dispersion de valeurs, se resserrant autour de

Page 146: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

6.2. Dépendance du calage de la série de données disponibles 123

l’intervalle 0.015 - 0.035 dans le cas de l’optimisation selon l’efficience).

Or, par définition, les paramètres du modèle décrivent des caractéristiques du bassin ver-sant qui devraient être invariantes dans le temps. Dans notre cas, au contraire, chaque épisodesemble amener une information différente, ou, en tout cas, une information qui est “interpretée”à chaque fois comme différente par le modèle. Après avoir exclu une possible non activation decertains paramètres, nous expliquons cette diversité par le fait que le modèle, imparfait et sim-plifiant le fonctionnement du bassin, cherche à s’ajuster au mieux aux observations (qui sontd’ailleurs imprécises). Ceci implique une compensation des erreurs (de mesure, physiques,etc.), via les valeurs des paramètres, qui varie d’un épisode à l’autre.

Pour approfondir la question, nous avons analysé quelle est l’influence sur l’étalonnage desparamètre de la longueur de la série et du type des données disponibles pour le calage.

6.2.1 Analyse de sensibilité à la longueur de la série données

La première question considérée est la suivante :

quelle est l’influence de la longueur de la série des données disponibles sur l’étalonnagedes paramètres ?

Afin d’y répondre, nous avons d’abord calé TOPSIMPL sur le premier des 35 épisodes dis-ponibles, ensuite sur les deux premiers, puis sur les trois premiers et ainsi de suite jusqu’àconsidérer l’ensemble des épisodes. Les résultats de cette analyse sont donnés dans la figure 6.7(ordre chronologique des épisodes) et 6.8 (ordre chronologique inverse des épisodes) à la pagesuivante.

Dans les deux cas, on observe qu’à partir de 17 épisodes le calage global commence à sestabiliser en performance (figures 6.7 et 6.8) et en valeurs des paramètres (figures 6.9 et 6.10,aux pages 125 et 126). C’est la raison pour laquelle dans la prochaine section, où nous étudionsl’impact des incertitudes des données sur le calage (section 6.3), et dans le chapitre suivant(chapitre 7), nous nous contenterons de travailler avec les 17 derniers épisodes sur les 35 dispo-nibles. Le temps de calcul sont en effet considérablement diminués.

Page 147: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

124 6.2. Dépendance du calage de la série de données disponibles

FIG. 6.7 – Analyse de sensibilité de la valeur de l’efficience (à gauche) et du coefficient de détermination(à droite) au nombre d’épisodes considérés pour le calage (épisodes en ordre chronologique)

FIG. 6.8 – Analyse de sensibilité de la valeur de l’efficience (à gauche) et du coefficient de détermination(à droite) au nombre d’épisodes considérés pour le calage (épisodes en ordre chronologique inverse)

Page 148: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

6.2. Dépendance du calage de la série de données disponibles 125

FIG. 6.9 – Analyse de sensibilité des valeurs des paramètres optimisées selon le critère de l’efficience(asterisques) ou du coefficient de détermination (losanges) au nombre d’épisodes considérés pour lecalage (épisodes en ordre chronologique)

Page 149: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

126 6.2. Dépendance du calage de la série de données disponibles

FIG. 6.10 – Analyse de sensibilité des valeurs des paramètres optimisées selon le critère de l’efficience(asterisques) ou du coefficient de détermination (losanges) au nombre d’épisodes considérés pour lecalage (épisodes en ordre chronologique inverse)

Page 150: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

6.2. Dépendance du calage de la série de données disponibles 127

6.2.2 Analyse de sensibilité au type de données disponibles

La diversité de performance des simulations obtenues d’un épisode à l’autre avec les jeuxoptimaux selon l’une des deux fonctions objectifs considérées à la section 6.1, ainsi que lesresultats du calage effectué épisode par épisode (figure 6.6), nous suggèrent que le type de don-nées disponibles peut influencer l’étalonnage des valeurs des paramètres.

Par type de données nous entendons (i) le choix de la variable (ou des variables) à optimi-ser (e.g. le débit à l’exutoire, les débits intermédiaires le long du réseau, les humidités dans lebassin) et (ii) les caractéristiques de leurs observations (e.g. dans le cas des débits, la propor-tion d’épisodes de crues extrêmes par rapport aux épisodes de crues plus courants dans la sériedisponible). Nous ne considérons pas, pour le moment, les incertitudes des observations (nousanalyserons ce problème par la suite, cf. section 6.3).

Dans notre cas spécifique, nous ne possédons que des chronologies de débits observés àVogüé (i.e. à l’exutoire du bassin). Faute de pouvoir tester la sensibilité du calage à d’autresvariables, nous allons donc nous concentrer sur la deuxième problématique :

l’étalonnage des paramètres de TOPSIMPL est-il fortement influencé par les caractéris-tiques des hyétogrammes disponibles pour le calage ?

Pour répondre à cette question, nous avons considéré 6 groupes de 4 épisodes dont les ca-ractéristiques sont regroupées dans le tableau 6.4 de la page suivante.

Page 151: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

128 6.2. Dépendance du calage de la série de données disponibles

Groupe Episodes Cumul Intensité max. Débitde pluie de pluie initial

(mm) (mm/h) (m3/s)1 8406 110.30 10.84 12.04

8408 139.99 11.52 19.099401 156.17 9.56 9.339404 159.31 14.27 11.53Moyenne 141.44 11.55 12.98Coeff. variation 0.16 0.17 0.33

2 8803 77.11 8.08 29.908901 88.22 8.68 17.699306 112.73 5.45 14.679403 77.19 8.07 12.26Moyenne 88.81 7.57 18.63Coeff. variation 0.19 0.23 0.15

3 8804 188.06 15.8 5.349303 193.28 29.86 4.209304 158.42 17.67 41.789503 107.13 11.84 136.37Moyenne 161.72 16.29 46.92Coeff. variation 0.24 0.16 1.45

4 8604 266.72 12.52 3.928703 182.83 18.15 4.58801 199.95 6.40 9.329502 146.64 8.39 6.94Moyenne 199.04 11.36 6.17Coeff. variation 0.25 0.15 0.39

5 8704 118.81 15.63 34.778705 124.30 12.99 49.269003 153.79 12.53 7.899305 107.13 11.84 136.37Moyenne 126.01 13.25 57.06Coeff. variation 0.16 0.04 1.15

6 8405 108.68 20.25 13.718903 108.4 8.92 11.259203 202.59 29.34 5.869302 69.56 6.34 11.68Moyenne 122.3 16.21 10.63Coeff. variation 0.46 0.78 0.31

TAB. 6.4 – Identification de 6 différents groupes de 4 épisodes pluie-débit

Page 152: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

6.2. Dépendance du calage de la série de données disponibles 129

FIG. 6.11 – Analyse de sensibilité de la valeur optimale de l’efficience (à gauche) et du coefficient dedétermination (à droite) selon le groupe d’épisodes pluie-débits considéré. Les lignes droites horizontalesrepresentent les performances obtenues avec le calage global sur l’ensemble des 35 épisodes disponibles

Les critères distinguant chacun des groupes sont les suivants :

Groupe 1Ensemble le plus homogène possible de quatre épisodes moyens en tout ;

Groupe 2Ensemble le plus homogène possible de quatre épisodes plutôt faibles en cumul de pluies etforts en débits initiaux ;

Groupe 3Ensemble le plus homogène possible de quatre épisodes plutôt forts en cumul de pluies et enintensité de pluie ;

Groupe 4Ensemble le plus homogène possible de quatre épisodes plutôt forts en cumul de pluies et faiblesen débits initiaux ;

Groupe 5Ensemble le plus homogène possible de quatre épisodes plutôt forts en débits initiaux ;

Groupe 6Ensemble hétérogène en cumuls et intensité de pluie et en débits initiaux.

Page 153: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

130 6.2. Dépendance du calage de la série de données disponibles

Nous avons optimisé les valeurs des paramètres pour chacun des 6 groupes. Les résultats surles performances du calage ainsi que sur les valeurs de paramètres optimisées sont rassembléesdans les figures 6.11 et 6.12.

FIG. 6.12 – Analyse de sensibilité des valeurs des paramètres optimisées selon le coefficient de déter-mination au groupe d’épisodes considérés pour le calage

Encore une fois, on observe une forte variabilité. De plus, on voit que les groupes homo-gènes ont les meilleurs performances en calibration (tant sur l’efficience que sur le coefficientde détermination), à l’inverse du groupe hétérogène (groupe six) qui a le plus de mal à trouverun compromis (mauvais) pour tenir compte des différences significatives entre les quatre épi-sodes qui le constituent. Bien entendu, la variabilité des caractéristiques hydro-météorologiquede chacun des groupes se traduit par une variabilité des valeurs optimisées des paramètres dumodèle, comme le montre la figure 6.12.

Page 154: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

6.3. Prise en compte des incertitudes sur les données lors de la spécification 131

6.3 Prise en compte des incertitudes sur les données lors dela spécification

Nous avons montré dans les deux sections précédentes que la spécification des valeurs desparamètres dépend non seulement de la longueur de la série considérée, mais aussi du type dedonnées disponibles. La précision de mesure des variables de forçage et de vérification ont bienentendu également un impact que nous cherchons à quantifier dans cette section.

Nous avons pris en compte plusieurs incertitudes :

– des erreurs non corrélées d’estimation de la pluie moyenne krigée. Ce sont les 700 scé-narii déjà présentés à la section 5.1.1 ;

– des erreurs auto-corrélées d’estimation de la pluie moyenne krigée. Ce sont les 700 scé-narii déjà présentés à la section 5.1.2 ;

– des erreurs d’estimation des débits observés (300 scénarii d’erreur sur les hauteurs me-surées x 6 courbes de tarage = 1800 scénarii d’erreur ; cf. section 5.2) ;

– l’effet combiné des 700 scénarii d’erreur auto-corrélées sur les pluies moyennes et des6 courbes de tarage = 4200 scénarii d’erreur. En effet, l’impact des incertitudes sur lesmesures de hauteur est négligeable, comme nous l’avons vu à la section 5.2.

Nous avons mesuré l’impact de chacun de ces quatre différents types d’erreur sur :

– la valeur de l’efficience “optimale” calculée pour l’épisode du 2 novembre 1994, que l’ona choisi comme exemple ;

– la valeur de l’efficience “optimale” calculée pour l’ensemble des 17 épisodes retenus.

De même, nous avons calculé les fréquences d’apparition des valeurs de chacun des quatreparamètres du modèle

– pour l’épisode du 2 novembre 1994 ;

– pour l’ensemble des 17 épisodes retenus.

Concrètement, pour chacun des quatre types d’erreur et pour chacun des scénarii d’erreur nousavons optimisé le modèle et retenu à chaque fois l’efficience optimale et la combinaison de va-leurs optimale des paramètres.

Page 155: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

132 6.3. Prise en compte des incertitudes sur les données lors de la spécification

Nous avons rassemblé dans le tableau 6.5 les numéros des figures synthétisant les résultatsobtenus (cela a représenté en total de 10600 optimisations).

Efficience Valeurs des paramètresEpisode du 2 novembre 1994Err. non corr. sur les pluies 6.13 6.14Err. auto-corr. sur les pluies 6.15 6.16Err. sur les débits(hauteur et courbe de tarage) 6.20 6.21Err. auto-corr. sur les pluiesET err. sur la courbe de tarage 6.24 6.25

Ensemble des 17 épisodesErr. non corr. sur les pluies 6.17 6.18Err. auto-corr. sur les pluies 6.17 6.19Err. sur les débits(hauteur et courbe de tarage) 6.22 6.23

TAB. 6.5 – Tableau recapitulatif des numéros de figures représentant la sensibilité du calage des valeursdes paramètres de TOPSIMPL aux incertitudes sur les chronologies de pluie (variable de forçage) et dedébit (variable de vérification) observés

De manière générale, nous observons qu’encore une fois, dans notre cas, ce sont les incer-titudes sur les pluies qui provoquent la plus grande dispersion autour de la valeur optimale del’efficience. Cela est sans doute dû à notre choix d’expression des incertitudes sur les données(les fourchettes sur les débits sont plus serrées que celles sur les pluies). Il s’agit là d’un pointauquel il faut prêter beaucoup d’attention.

On observe de plus que l’estimation de la valeur du paramètre Inter n’est en aucun castrès affectée par les incertitudes sur les données. Au contraire, les trois autres paramètres, et enparticulier SRMax, semblent être très sensibles à ces incertitudes, notamment dans le cas ducalage sur 17 épisodes.

Enfin, nous remarquons que la distribution de valeurs optimisées pour le paramètre M pré-sente un pic distinct, assez prononcé, autour de la valeur optimisée sans tenir compte des incer-titudes, bien que la dispersion autour de cette valeur soit assez importante lorsqu’on considèreles incertitudes sur les pluies. Encore une fois, donc M se présente comme le paramètre le plusfacilement identifiable.

Page 156: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

6.3. Prise en compte des incertitudes sur les données lors de la spécification 133

FIG. 6.13 – Incertitude sur la valeur optimale de l’efficience due à l’incertitude sur les pluies observéespour l’épisode du 2 novembre 1994 (hypothèse d’erreurs indépendantes d’un pas de temps à l’autre)

FIG. 6.14 – Incertitude sur les jeux optimaux de paramètres due à l’incertitude sur les pluies observéespour l’épisode du 2 novembre 1994 (hypothèse d’erreurs indépendantes d’un pas de temps à l’autre)

Page 157: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

134 6.3. Prise en compte des incertitudes sur les données lors de la spécification

FIG. 6.15 – Incertitude sur la valeur optimale de l’efficience due à l’incertitude sur les pluies observéespour l’épisode du 2 novembre 1994 (hypothèse d’erreurs auto-corrélées)

FIG. 6.16 – Incertitude sur les jeux optimaux des paramètres due à l’incertitude sur les pluies observéespour l’épisode du 2 novembre 1994 (hypothèse d’erreurs auto-corrélées)

Page 158: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

6.3. Prise en compte des incertitudes sur les données lors de la spécification 135

FIG. 6.17 – Incertitude sur la valeur optimale de l’efficience résultant de l’incertitude des pluies ob-servées pour l’ensemble des 17 épisodes considérés. A gauche : hypothèse d’erreurs indépendantes ; àdroite, hypothèse d’erreurs auto-corrélées

Page 159: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

136 6.3. Prise en compte des incertitudes sur les données lors de la spécification

FIG. 6.18 – Incertitude sur les jeux de paramètres optimaux résultant de l’incertitude des pluies obser-vées pour l’ensemble des 17 épisodes considérés (hypothèse d’erreurs indépendantes)

Page 160: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

6.3. Prise en compte des incertitudes sur les données lors de la spécification 137

FIG. 6.19 – Incertitude sur les jeux de paramètres optimaux résultant de l’incertitude des pluies obser-vées pour l’ensemble des 17 épisodes considérés (hypothèse d’erreurs auto-corrélée)

Page 161: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

138 6.3. Prise en compte des incertitudes sur les données lors de la spécification

FIG. 6.20 – Incertitude sur la valeur optimale de l’efficience résultant de l’incertitude des débits observéspour l’épisode du 2 novembre 1994

FIG. 6.21 – Incertitude sur les jeux de paramètres optimaux résultant de l’incertitude des débits observéspour l’épisode du 2 novembre 1994

Page 162: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

6.3. Prise en compte des incertitudes sur les données lors de la spécification 139

FIG. 6.22 – Incertitude sur la valeur optimale de l’efficience résultant de l’incertitude des débits observéspour l’ensemble des 17 épisodes considérés

Page 163: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

140 6.3. Prise en compte des incertitudes sur les données lors de la spécification

FIG. 6.23 – Incertitude sur les jeux de paramètres optimaux résultant de l’incertitude des débits observéspour l’ensemble des 17 épisodes considérés

Page 164: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

6.3. Prise en compte des incertitudes sur les données lors de la spécification 141

FIG. 6.24 – Incertitude sur la valeur optimale de l’efficience résultant de l’incertitude des pluies (hypo-thèse d’erreurs auto-corrélées) et des débits observés pour l’épisode du 2 novembre 1994

FIG. 6.25 – Incertitude sur les jeux de paramètres optimaux résultant de l’incertitude des pluies (hypo-thèse d’erreurs auto-corrélées) et des débits observés pour l’épisode du 2 novembre 1994

Page 165: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

142 6.4. Conclusions

6.4 Conclusions

Dans ce chapitre nous avons successivement testé l’impact sur la spécification (par calibra-tion) des valeurs des paramètres d’un modèle (ici, TOPSIMPL) sur une région d’étude (ici, lebassin versant de Vogüé) :

– du choix du critère de vraisemblance entre débits simulés et observés ;– de la longueur de la série de données disponibles ;– du type de données disponibles ;– des incertitudes sur les données de forçage (ici, la pluie moyenne) et/ou les données de

vérification (ici, les débits à l’exutoire du bassin)

L’ensemble de ces calculs de type combinatoire (plus d’un an de calculs en temps machine)ne fournit pas des résultats extrapolables à d’autres modèles ou d’autres appplications de TOP-SIMPL. Toutefois, même si la communauté est déjà sensibilisée à l’idée que les incertitudesbrouillent son jugement sur ses progrès méthodologiques en modélisation, autant que sur leursapplications, rares sont les travaux qui ont décrit l’impact réel de l’ensemble des sources d’in-certitudes citées. Et c’est à nos yeux l’intérêt pédagogique de ce chapitre.

Ces mêmes arguments sur l’impact des incertitudes justifient la nécessité de ne plus consi-dérer l’application d’un modèle hydrologique sur un bassin versant (et donc la spécification deses paramètres) comme un problème dont la solution est unique.

Nous avons nous mêmes proposé au chapitre 3 une méthodologie pour quantifier l’ambi-guïté d’une modélisation induite par ces incertitudes. Dans le chapitre suivant, nous allons doncutiliser nos résultats de quantification des incertitudes sur la variable de forçage (la pluie) etde vérification (le débit) pour quantifier l’ambiguïté des simulations des débits à l’exutoirede Vogüé par TOPSIMPL. A titre de comparaison, nous allons d’abord appliquer la méthodeGLUE, constituant la référence en matière de quantification des incertitudes de modélisation, àce même cas d’étude.

Page 166: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

Chapitre 7

Evaluation de l’ambiguïté des simulationsdes débits à Vogüé par TOPSIMPL

Felix qui potuit rerum cognoscere causas.(Heureux celui qui peut comprendre les causes des choses)

Virgile, Georgiennes, II, 490

Nous comparons dans ce chapitre les estimations des incertitudes liées à la modélisation hydro-logique par TOPSIMPL obtenues

– par génération de scénarii d’erreurs sur les données (cf. chapitre 6) ;– par une application de la méthodologie GLUE (cf. chapitre 2) ;– par la détermination de l’ambiguïté de la modélisation (cf. chapitre 3).

L’analyse des résultats obtenus avec cette dernière approche, en particulier, nous permet d’étu-dier les propriétés de la structure de TOPSIMPL.

143

Page 167: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

144 7.1. Recherche des combinaisons de valeurs des paramètres équifinales

7.1 Recherche des combinaisons de valeurs des paramètreséquifinales

7.1.1 Implémentation de la méthode GLUE

Comme nous l’avons souligné à la section 2.3.3, pour appliquer la méthodologie GLUE etreconnaître des combinaisons de paramètres équifinales, il faut d’abord fixer un intervalle devaleurs possibles pour chaque paramètre, ainsi que la procédure à suivre pour son échantillon-nage. Ensuite, une mesure de vraisemblance doit être choisie, pour pouvoir évaluer la capacitéde chaque combinaison de valeurs à bien reproduire le comportement du système. Enfin, uncritère de séparation doit être fixé pour distinguer les combinaisons de valeurs que l’on peutconsidérer comme acceptables (i.e. fournissant des simulations réalistes du fonctionnement dusystème étudié ; ici : les débits à l’exutoire du bassin versant de Vogüé) de celles que l’on refuse.

En ce qui nous concerne, pour échantillonner les valeurs des paramètres nous avons suiviexactement la même démarche présentée au chapitre 6 : ce sont donc les 80000 combinaisonsde valeurs déjà échantillonnées qui ont été retenues pour l’application (cf. tableau 6.2 à la page116). Etant donné que ces combinaisons de valeurs proviennent d’une distribution de probabilitéuniforme, chacune d’entre elles est a priori équiprobable. Cela signifie que la vraisemblance apriori de chaque combinaison de valeurs de Θ est égale à

L0 [Θi] = L0 [Mi, K0i, Interi, SRMaxi] =1

80000(7.1)

Comme mesure de la vraisemblance a posteriori, nous avons choisi l’efficience de Nash. Eneffet, chaque combinaison de valeurs des paramètres fournit une simulation de débits à l’exu-toire ; or, on peut mesurer l’éloignement entre les débits simulés et les débits observés sur unepériode τ via l’efficience : plus la valeur de l’efficience est élevée, plus la simulation de débitsse rapproche de la chronologie observée et plus la combinaison de valeurs a des chances d’êtrereprésentative du bassin versant. A l’inverse, une faible valeur de l’efficience indique une faibleaptitude à reconstituer les observations, donc une faible probabilité d’être une combinaison devaleurs correcte (i.e. peu vraisemblable pour ce bassin versant).

On aura donc, d’après les équations 1.5 (page 15) et 2.31 (page 61), en conservant les mêmesnotations :

Lτ [Θ|Mi(Qτ ,Xτ )] = 1 −∑

τ (Qi,obs − Qi,calc)2

τ

(

Qi,obs − Qobs

)2(7.2)

et

Page 168: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

7.1. Recherche des combinaisons de valeurs des paramètres équifinales 145

L [Mi(Θ)] = L0 [Mi(Θ)] Lτ [Mi(Θ)|Qτ ,Xτ ] =1

80000

[

1 −∑

τ (Qi,obs − Qi,calc)2

τ

(

Qi,obs − Qobs

)2

]

(7.3)

On voit donc que sur la période de calage τ les 80000 combinaisons de valeurs n’ont pastoutes la même aptitude à reproduire les débits observés. Cependant, nous ne pouvons pas justesélectionner comme “meilleure” la combinaison de valeurs qui maximise l’efficience, notam-ment à cause des interactions entre les incertitudes sur les données et les incertitudes sur lastructure du modèle, comme nous l’avons expliqué au chapitre 6. Par conséquence, il s’agitmaintenant de décider au-delà/en deçà de quelle valeur de l’efficience les combinaisons de va-leurs des paramètres doivent (ou peuvent) être considérées comme acceptables/irréalistes.

7.1.2 Analyse de sensibilité de la distribution des valeurs des paramètresaux choix du critère de séparation entre combinaisons acceptableset combinaisons non acceptables

La définition du seuil de séparation entre les combinaisons vraisemblablement correctes etles combinaisons à rejeter a une influence importante (i) sur le nombre de combinaisons rete-nues et (ii) sur leur distribution de probabilité a posteriori. C’est ce que nous montrons ci desuite.

Le graphe à gauche de la figure 7.1 a été obtenu en estimant les 80000 efficiences globalesdes simulations de débits de 17 épisodes de crue calculées avec les 80000 combinaisons de va-leurs des paramètres échantillonnées. Sur cet ensemble d’épisodes, la meilleure efficience estde 0.825, obtenue avec la combinaison de paramètres suivante : M = 0.033m, K0 = 16.0m/h,Inter = 0.00m/h et SRMax = 0.024m (cf. aussi chapitre 6). Plusieurs valeurs de seuil derejet/acceptation sur l’efficience ont été testées, à partir d’un minimum de 0.3 (e.g. nous avonsconsidéré que toute combinaison fournissant une simulation ayant une efficience inférieure à0.3 est à rejeter, car fournissant une simulation de débits trop discordants de la chronologie dedébits observés). En ordonnées, nous avons reporté le nombre de jeux retenus en fonction dechaque seuil : nous observons que ce nombre diminue de manière sensiblement linéaire avec lavaleur du seuil et qu’à partir d’un seuil égal à 0.80 le nombre de combinaisons retenues devientnégligeable dans le cas de l’efficience calculée globalement sur les 17 épisodes.

Comme nous l’avons démontré au chapitre 6, cette valeur d’efficience calculée sur l’en-semble des épisodes n’est pas représentative de la variabilité des performances que l’on peutobtenir d’un épisode sur l’autre. Ainsi, nous pouvons répéter l’exercice en ne considérant qu’unépisode à la fois : le graphe à droite de la figure 7.1 montre, à titre d’exemple, la sensibilitédu nombre de combinaisons équifinales au seuil choisi pour l’épisode du 2 novembre 1994. Onvoit que pour un seuil donné le nombre de combinaisons retenues :

Page 169: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

146 7.1. Recherche des combinaisons de valeurs des paramètres équifinales

FIG. 7.1 – Nombre de combinaisons de valeurs retenues comme représentatives du bassin étudiés enfonction du seuil sur l’efficience sur un ensemble de 17 épisodes (à gauche) et sur l’épisode du 2 no-vembre 1994 (à droite)

– est inférieur au nombre de combinaisons que l’on retient lorsqu’on considère tous les 17épisodes pour des seuils très faibles (jusqu’à des efficiences de 0.4 environ) ;

– est supérieur au nombre de combinaisons que l’on retient lorsqu’on considère tous les 17épisodes pour des seuils élevés et notamment à partir d’une valeur de 0.7 sur l’efficience.

La meilleure efficience calculée sur cet épisode du 2 novembre 1994 est de 0.95, supérieureà l’efficience globale sur les 17 épisodes considérés : cela signifie que nous espérons simuler lesdébits observés au cours de cet épisode particulier plus facilement qu’au cours de l’ensembledes 17 épisodes. Nous retrouvons d’ailleurs plus de combinaisons équifinales que sur la globa-lité des épisodes, signe que le comportement du bassin est facilement reproduit par les équationsde TOPSIMPL aux yeux de l’efficience (i.e. nous avons de la compensation), mais que les don-nées qui alimentent le modèle ne suffisent pas à le contraindre (i.e. le modèle peut reproduire lecomportement du bassin de plusieurs façons, mais nous n’avons pas assez d’information pourchoisir une simulation plutôt qu’une autre).

Au contraire, le modèle a plus de mal à reproduire la totalité des épisodes, car il est tropsimple pour prendre en compte les différents fonctionnements observés au cours de chacund’entre eux. Il est donc pénalisé en termes d’efficience dès qu’il rencontre des difficultés à si-muler l’un des 17 épisodes, ce qui implique une plus forte sélection au niveau des combinaisons

Page 170: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

7.1. Recherche des combinaisons de valeurs des paramètres équifinales 147

FIG. 7.2 – Du haut vers le bas et de la gauche vers la droite : projections selon les plans K0 − M ,K0 − SRMax, K0 − Inter, M − SRMax, M − Inter et SRMax − Inter des régions de l’espaceauxquelles appartiennent les combinaisons de valeurs des paramètres retenues comme acceptables avecun seuil de 0.7 sur l’efficience (17 épisodes considérés)

de paramètres acceptables. Ce compromis est donc plus difficile à atteindre pour les 17 épisodesque pour l’épisode facilement reproductible par TOPSIMPL.

Les combinaisons de paramètres retenues proviennent de différentes régions de l’espace desvaleurs possibles. A titre d’exemple, nous montrons dans les figures 7.2 et 7.3 les régions de pro-venance des combinaisons de paramètres équifinales sur l’ensemble des 17 épisodes lorsqu’onfixe un seuil sur l’efficience de 0.7 et 0.8 respectivement. De même, dans les figures 7.4 et 7.5nous avons représenté les régions de l’espace couvertes par les combinaisons de paramètreséquifinales dans le cas de l’épisode du 2 novembre 1994, en considérant, respectivement, unseuil de 0.7 et de 0.9 sur l’efficience.

On remarque dans les figures 7.2 à 7.5 que certaines combinaisons de paramètres sont inter-dépendantes. C’est le cas par exemple du couplet (K0, M) (les deux paramètres caractérisant lecomportement hydrodynamique du sol), alors qu’il n’y a aucune interdépendance dans le cou-plet (K0, Inter), par exemple. Le cas particulier du couplet (SRMax, Inter) s’explique par lefait que la composante Inter ’pompe’ dans le réservoir d’interception SRMax (cf. Saulnier,1996 ; Datin, 1998). Quand celui-ci a une capacité nulle, peu importe la valeur d’Inter, aucunpompage n’est autorisé et donc la valeur d’Inter n’a aucun effet. Inter n’est dans ce cas aucu-

Page 171: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

148 7.1. Recherche des combinaisons de valeurs des paramètres équifinales

FIG. 7.3 – Du haut vers le bas et de la gauche vers la droite : projections selon les plans K0 − M ,K0 − SRMax, K0 − Inter, M − SRMax, M − Inter et SRMax − Inter des régions de l’espaceauxquelles appartiennent les combinaisons de valeurs des paramètres retenues comme acceptables avecun seuil de 0.8 sur l’efficience (17 épisodes considérés)

nement contraint.

Nous l’avons déjà précisé, toutes les combinaisons de valeurs n’ont pas la même probabilitéd’être représentatives du bassin étudié : leur vraisemblance a posteriori est proportionnelle àl’efficience de leur simulation de débit (équation 7.2). Ainsi, pour chaque valeur du seuil deséparation, nous obtenons une distribution différente des valeurs des efficiences associées auxcombinaisons des valeurs des paramètres retenues. Cette distribution de valeurs est normaliséede manière à ce qu’elle représente une distribution de probabilité, permettant ainsi d’établirla distribution de probabilité des combinaisons de valeurs des paramètres retenues. Nous pou-vons alors tracer les distributions de probabilités marginales (i.e. les distributions des valeurs dechaque paramètre), comme nous l’avons fait dans les figures 7.6 à 7.9 pour l’ensemble des 17épisodes et dans les figures 7.10 à 7.13 pour l’épisode du 2 novembre 1994.

Distributions de probabilité associées aux 4 paramètres de TOPSIMPL lorsqu’on consi-dère l’ensemble des 17 épisodes retenus

On observe que la dispersion de valeurs est élevée dans le cas du paramètre K0 (qui semblegarder une distribution a posteriori plutôt uniforme), un peu moins prononcée dans le cas de Met très faible pour SRMax et Inter. Dans le cas du paramètre M , on voit bien qu’au fur et à

Page 172: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

7.1. Recherche des combinaisons de valeurs des paramètres équifinales 149

FIG. 7.4 – Du haut vers le bas et de la gauche vers la droite : projections selon les plans K0 − M ,K0 − SRMax, K0 − Inter, M − SRMax, M − Inter et SRMax − Inter des régions de l’espaceauxquelles appartiennent les combinaisons de valeurs des paramètres retenues comme acceptables avecun seuil de 0.7 sur l’efficience (épisode du 2 novembre 1994)

mesure que la valeur du seuil augmente, l’intervalle des valeurs acceptées se resserre et laisseapparaître une valeur centrale de mieux en mieux définie, égale à la valeur optimisée.

Remarquons qu’auparavant (cf. section 6.1) nous avions signalé que SRMax était très va-riable d’un épisode à l’autre. Dans le cas de la figure 7.8, SRMax est très contraint, montrantainsi qu’un paramètre bien contraint en apparence lors d’une calibration globale ne signifie pasque cette valeur est correcte épisode par épisode. Cela montre qu’une calibration peut rapide-ment converger vers un compromis global, mais peut-être mauvais. Il faut donc bien distinguerfacilité de contrainte d’un paramètre dans une calibration et représentativité de ce paramètre !

Distributions de probabilité associées aux 4 paramètres de TOPSIMPL lorsqu’on consi-dère l’épisode du 2 novembre 1994

Dans le cas de l’épisode du 2 novembre 1994, les efficiences sont logiquement meilleureset les incertitudes inférieures. Toutefois, nous retrouvons les mêmes tendances que celles déga-gées dans le cas précédent : au fur et à mesure que nous augmentons le seuil d’acceptabilité, ladistribution de valeurs a posteriori de chaque paramètre se retrecit autour d’une valeur centraleégale à la valeur optimisée par calage.

Page 173: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

150 7.1. Recherche des combinaisons de valeurs des paramètres équifinales

FIG. 7.5 – Du haut vers le bas et de la gauche vers la droite : projections selon les plans K0 − M ,K0 − SRMax, K0 − Inter, M − SRMax, M − Inter et SRMax − Inter des régions de l’espaceauxquelles appartiennent les combinaisons de valeurs des paramètres retenues comme acceptables avecun seuil de 0.9 sur l’efficience (épisode du 2 novembre 1994)

Conclusion

Cette analyse de sensibilité ’en aveugle’ donne des indications sur les propriétés du modèle(interdépendance des paramètres, facilité de contrainte de leurs valeurs, etc.). Malgré des va-riabilité de résultats selon les paramètres (i.e. structure du modèle) et le fait de considérer 17épisodes ou un seul (i.e. quantité de données disponibles) il demeure un nombre significatif dejeux équifinaux.

De plus, nous avons vu qu’il est difficile de choisir objectivement le seuil de séparation entrecombinaisons de valeurs des paramètres acceptables et non acceptables. Freer et al. (1996)remarquent d’ailleurs que si l’on fixe un seuil trop bas, on retient comme équifinales des com-binaisons qui, finalement, ne sont pas trop représentatives du bassin versant. Nous surestimonsainsi l’incertitude sur les sorties du modèle (ce qui correspond à une augmentation de la chanced’accepter le modèle comme simulateur vraisemblable du bassin versant, puisque les débit ob-servés ont plus de chance d’être contenus dans les fourchettes d’incertitude) et nous fournissonsun intervalle prédictif trop large pour pouvoir être informatif.

Au contraire, si le seuil fixé est trop haut, peu de combinaisons de valeurs des paramètresarrivent à le satisfaire : l’intervalle prédictif sur les sorties du modèle est dans ce cas restreint,

Page 174: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

7.1. Recherche des combinaisons de valeurs des paramètres équifinales 151

FIG. 7.6 – Distribution a posteriori des valeurs du paramètre Ko en fonction du seuil sur l’efficience :du haut vers le bas et de la gauche vers la droite, nous avons choisi un seuil égal à 0.4, 0.5, 0.6, 0.7, 0.75et 0.8. 17 épisodes confondus

mais sous-estime probablement l’incertitude. On prend en plus le risque de rejeter le modèlecomme simulateur vraisemblable du bassin, puisque les débits observés ont toutes les chancesd’être hors des fourchettes d’incertitude.

Page 175: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

152 7.1. Recherche des combinaisons de valeurs des paramètres équifinales

FIG. 7.7 – Distribution a posteriori des valeurs du paramètre M en fonction du seuil sur l’efficience : duhaut vers le bas et de la gauche vers la droite, nous avons choisi un seuil égal à 0.4, 0.5, 0.6, 0.7, 0.75 et0.8. 17 épisodes confondus

7.1.3 Contribution de l’analyse d’incertitude sur la spécification des va-leurs des paramètres

L’analyse de sensibilité du calage aux incertitudes sur les données présentée à la section 6.3peut nous fournir des indications intéressantes quant à la fixation de ce seuil. C’est ce que nous

Page 176: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

7.1. Recherche des combinaisons de valeurs des paramètres équifinales 153

FIG. 7.8 – Distribution a posteriori des valeurs du paramètre SRMAx en fonction du seuil sur l’effi-cience : du haut vers le bas et de la gauche vers la droite, nous avons choisi un seuil égal à 0.4, 0.5, 0.6,0.7, 0.75 et 0.8. 17 épisodes confondus

montrons par la suite.

Reprenons encore une fois les simulations des débits obtenues pour l’épisode du 2 novembre1994 avec les 80000 différentes combinaisons de valeurs de paramètres, en considérant 4200scénarii d’épisodes pluie-débit, chacun correspondant à une hypothèse d’erreurs auto-corrélées

Page 177: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

154 7.1. Recherche des combinaisons de valeurs des paramètres équifinales

FIG. 7.9 – Distribution a posteriori des valeurs du paramètre Inter en fonction du seuil sur l’efficience :du haut vers le bas et de la gauche vers la droite, nous avons choisi un seuil égal à 0.4, 0.5, 0.6, 0.7, 0.75et 0.8. 17 épisodes confondus

sur les 700 scénarii de pluies moyennes krigées et au choix des 6 courbes de tarage disponibles.On observe (figure 6.24) que l’efficience minimale obtenue en optimisant le modèle sur chaquescénario est de 0.87. Cette valeur nous donne donc une idée de la dispersion attendue sur l’ef-ficience à cause des incertitudes des données, conditionnée au modèle (ici, TOPMODEL) et aucritère de performance (l’efficience) choisis. Il s’agit donc d’une valeur que l’on peut prendrecomme seuil pour départager les combinaisons de valeurs vraisemblablement acceptables et

Page 178: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

7.1. Recherche des combinaisons de valeurs des paramètres équifinales 155

FIG. 7.10 – Distribution a posteriori des valeurs du paramètre K0 en fonction du seuil sur l’efficience :du haut vers le bas et de la gauche vers la droite, nous avons choisi un seuil égal à 0.4, 0.5, 0.6, 0.7, 0.8et 0.9. Episode du 2 novembre 1994

celles qui ne le sont pas. Les résultats de ce choix en termes de distributions de probabilité mar-ginales sur les valeurs des quatre paramètres sont donnés à la figure 7.14.

Nous pouvons comparer ces distributions aux distributions obtenues par génération de scé-narii d’erreur (figure 6.25 à la page 141). On rappelle qu’on a obtenu ces distributions en opti-

Page 179: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

156 7.1. Recherche des combinaisons de valeurs des paramètres équifinales

FIG. 7.11 – Distribution a posteriori des valeurs du paramètre M en fonction du seuil sur l’efficience :du haut vers le bas et de la gauche vers la droite, nous avons choisi un seuil égal à 0.4, 0.5, 0.6, 0.7, 0.8et 0.9. Episode du 2 novembre 1994

misant le modèle pour chacun des 700 scénarii d’erreur sur les pluies combinés avec chacunedes 6 courbes de tarage (4200 jeux optimisés). Pour les paramètres M (M est le paramètre lemieux contraint dans TOPSIMPL, comme nous l’avons déjà remarqué) et Inter les résultatssont semblables. Par contre, il y a divergence de résultat pour les paramètres K0 et SRMax, cequi implique une divergence sur les intervalles prédictifs qui peuvent être estimés par lesdeux méthodes.

Page 180: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

7.1. Recherche des combinaisons de valeurs des paramètres équifinales 157

FIG. 7.12 – Distribution a posteriori des valeurs du paramètre SRMax en fonction du seuil sur l’effi-cience : du haut vers le bas et de la gauche vers la droite, nous avons choisi un seuil égal à 0.4, 0.5, 0.6,0.7, 0.8 et 0.9. Episode du 2 novembre 1994

Or, les résultats sont difficilement comparables : GLUE ne travaille que sur une seule surfacede réponse (i.e. l’hypersurface donnant la valeur de l’efficience en fonction de n’importe quellecombinaison de valeurs de paramètres ; cf. figure 6.3 à la page 119), celle obtenue avec les ob-servations de pluie et débit observés, sans prise en compte de leurs incertitudes. En seuillant,

Page 181: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

158 7.1. Recherche des combinaisons de valeurs des paramètres équifinales

FIG. 7.13 – Distribution a posteriori des valeurs du paramètre Inter en fonction du seuil sur l’efficience :du haut vers le bas et de la gauche vers la droite, nous avons choisi un seuil égal à 0.4, 0.5, 0.6, 0.7, 0.8et 0.9. Episode du 2 novembre 1994

GLUE sélectionne donc toute une région de cette unique surface de réponse. A l’inverse, lesrésultats obtenus à la section 6.3 (figure 6.25 à la page 141) sélectionnent les valeurs des pa-ramètres correspondant à l’efficience maximale de chacune des 4200 surfaces de réponse dumodèle (700 scénarii fois 6 courbes de tarage). Sans qu’il soit réellement possible de choisirentre les deux approches, il faut y trouver là la raison des différences entre les figures 7.14 et6.25.

Page 182: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

7.2. Evaluation de l’ambiguïté des simulations des débits à l’exutoire de Vogüé 159

FIG. 7.14 – Distribution a posteriori des valeurs des paramètres K0, M , Inter et SRMax dans le casde l’épisode du 2 novembre 1994, avec un seuil sur l’efficience de 0.87

7.2 Evaluation de l’ambiguïté des simulations des débits àl’exutoire de Vogüé

Nous rappelons que l’on juge comme ambigües deux combinaisons de paramètres qui conduisentà des simulations ne pouvant pas être objectivement considérées comme différentes selon un cri-tère probabiliste prédéfini.

7.2.1 Implémentation de la méthode

La procédure d’évaluation de l’ambiguïté que l’on a détaillée au chapitre 3 nécessite, commepour la méthode GLUE, de choisir l’intervalle et la méthode d’échantillonnage des combi-naisons de valeurs des paramètres que l’on veut tester. Nous avons encore une fois considéréles 80000 combinaisons de valeurs des paramètres testées au chapitre précédent.

Page 183: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

160 7.2. Evaluation de l’ambiguïté des simulations des débits à l’exutoire de Vogüé

De plus, nous devions procéder à la formalisation des incertitudes sur les données de for-çage : les 700 scénarii de précipitations possibles et compatibles avec les observations définisau chapitre 5 ont été retenus. Nous avons travaillé sous l’hypothèse d’erreurs auto-corrélées,afin de considérer le cas où les incertitudes sur les entrées sont les plus importantes (analysedans le sens de la sécurité).

Chacune des 80000 combinaisons de valeurs des paramètres permet d’obtenir autant de si-mulations de débits qu’il y a de scénarii de précipitations en entrée du modèle, dans notre cas700. Ainsi, 700 chronologies de débits simulés ont été obtenues pour chaque combinaison devaleurs des paramètres. A chaque pas de temps d’un épisode, une combinaison de valeurs deparamètres produit donc 700 valeurs de débit : cet ensemble de débits constitue donc une dis-tribution de valeurs possibles que l’on associe à chaque pas de temps à chaque combinaison deparamètres.

Nous pouvons alors comparer entre elles, à chaque pas de temps, les différentes distributionsde 700 débits obtenues avec les 80000 combinaisons de valeurs des paramètres. En particulier,nous sommes intéressés à déterminer quelles sont les combinaisons de valeurs des paramètresambigües, parmi les 80000 combinaisons considérées au départ, à une particulière combinai-son de référence : la combinaison optimale selon l’efficience.

Nous avons choisi comme critère de partage le test statistique du χ2 calculé à chaque pasde temps des simulations (ici, horaire), dont on rappelle les principes au paragraphe suivant.

Rappels sur le test du χ2

Nous rappelons ici les principes généraux du test du χ2. Pour plus de détails, on pourra seréférer à Kendall et Stuart, 1979 ou Bois et Obled, 1998, par exemple.

Le test du χ2 est couramment utilisé pour détecter, à un certain niveau de significativitéα, si deux fonctions de répartition empiriques refusent l’hypothèse nulle suivante : il existeune fonction de répartition théorique commune dont les deux distributions sont des réa-lisations (e.g. Kendall et Stuart, 1979). Si l’hypothèse est refusée, on peut conclure que lesfonctions de répartition empiriques proviennent de deux fonctions de répârtition théoriques dif-férentes. Autrement, l’hypothèse nulle est consistante.

Nous avons donc deux échantillons de valeurs empiriques et nous voulons comparer leurshistogrammes : pour pouvoir appliquer le test, il nous faut d’abord regrouper en n classes (quipeuvent ou pas être équiprobables) les valeurs observées dans les deux échantillons. Si l’on noteavec Ri le nombre de valeurs de la première distribution appartenant à la classe i et avec Si le

Page 184: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

7.2. Evaluation de l’ambiguïté des simulations des débits à l’exutoire de Vogüé 161

nombre de valeurs de la deuxième distribution appartenant à cette même classe, on peut définirune mesure de distance entre les deux histogrammes. Elle sera donnée par :

D =∑ (Ri − Si)

2

Ri + Si

= χ2 avec i = 1, 2, ..., n (7.4)

On note que cette distance sera d’autant plus grande que l’écart est grand entre les deuxdistributions : si elle dépasse un certain seuil, il faudra rejeter l’hypothèse d’appartenance desdeux échantillons à la même loi.

On démontre que la distance fournie par l’équation 7.4 suit une loi de probabilité à un seulparamètre ν (le nombre de degrés de liberté de la loi), appelée la loi du χ2. Si le nombred’éléments de la première distribution est égal au nombre d’éléments de la deuxième (i.e.∑

Ri =∑

Si), ce qui est le cas le plus courant, on démontre que le nombre de degrés deliberté est égal au nombre de classes moins 1 : ν = n − 1. Autrement, ν = n.

Il est alors possible de lire dans une table du χ2 la probabilité de dépasser la valeur de Dsi l’hypothèse est valable : si cette probabilité au dépassement est faible, on peut être amené àrefuser l’hypothèse.

Application du test du χ2

Pour déterminer si deux combinaisons de paramètres sont ambigües, nous procédons doncde la sorte :

1. Pour chaque pas de temps, chacune des combinaisons de valeurs de paramètres fournit700 valeurs de débits simulés (puisqu’il y a 700 scénarii de pluies en forçage du modèle).Nous regroupons ces 700 valeurs en 20 classes (les bornes correspondant aux quantiles5%, 10%, 15% ...,95% de la distribution de référence), puis nous appliquons le test du χ2

pour déterminer la probabilité pour que ces deux distribution empiriques de 700 valeursproviennent d’une même distribution. Si le test du χ2 ne refuse pas cette hypothèse auniveau de significativité choisi (ici, α = 0.01), les deux combinaisons de valeurs deparamètres sont déclarées ambigües pour ce pas de temps.

2. Si les deux combinaisons de valeurs des paramètres sont déclarées ambigües pour tous lespas de temps de la simulation, alors les deux combinaisons sont jugée comme ambigües.

7.2.2 Analyse de sensibilité au choix de la combinaison de valeurs des pa-ramètres de référence

Comme nous l’avons déjà souligné, le calcul de l’ambiguïté s’effectue par rapport à une com-binaison de valeurs des paramètres de référence. Nous présentons les résultats de quantification

Page 185: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

162 7.2. Evaluation de l’ambiguïté des simulations des débits à l’exutoire de Vogüé

de l’ambiguïté pour différents choix de cette combinaison de référence.

7.2.2.1 Ambiguïté par rapport à la combinaison optimisée sur l’ensemble des épisodes

Premièrement, nous avons pris comme référence les distributions de débits obtenues avecles paramètres optimisés sur l’ensemble des épisodes selon le critère de l’efficience. Nous neprésentons que les résultats de l’épisode du 2 novembre 1994.

FIG. 7.15 – Nombre de combinaisons de valeurs des paramètres ambigües à la combinaison de référence(optimisée globalement sur les 17 épisodes) pour la simulation de l’épisode du 2 novembre 1994 parTOPSIMPL (nombre maximal possible : 80000 combinaisons testées)

La figure 7.15 montre pour chacun des 168 pas de temps (horaires) de la simulation de lacrue du 2 novembre 1994 le nombre de combinaisons ambiguës à la combinaison de référence.

On voit qu’à chacun des pas de temps un faible nombre de combinaisons sont jugées am-biguës à la combinaison de référence (au maximum (pas de temps 158) : ≈ 600 sur 80000combinaisons). On note toutefois que le nombre de combinaisons ambiguës est très variable aucours de l’épisode. Cela s’explique bien si l’on comprend qu’au cours de la crue, les processusprépondérants (et donc les paramètres importants) sont variables selon que l’on considère lesfacteurs expliquant la montée en débit du bassin, le réssuyage du ruissellement sur les versants,la vidange de l’eau des sols au cours de la récession, etc.

Une deuxième figure (figure 7.16) intéressante est celle montrant pour chacune des 80000combinaisons de valeurs testées (numéro porté en abscisse), le nombre de fois où chacune deces combinaisons est ambiguë à la combinaison de référence. Comme il y a 168 pas de temps aucours de cet épisode de crue particulier, la valeur maximale en ordonnée est égale à 168. Si unecombinaison de paramètre est ambiguë à la combinaison de référence 168 fois, cela signifie que

Page 186: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

7.2. Evaluation de l’ambiguïté des simulations des débits à l’exutoire de Vogüé 163

FIG. 7.16 – Nombre de pas de temps où une combinaison est ambigüe à la combinaison optimale selonl’efficience sur 17 épisodes pluie-débit observés (nombre maximal possible : 168 pas de temps)

cette combinaison est complètement ambiguë à la combinaison de référénce puisque sur aucunpas de temps il n’est possible de distinguer statistiquement les deux simulations. Inversement,s’il existe au moins un pas de temps où une combinaison produit un débit significativement dis-tinct du débit produit avec la combinaison de référence, les deux simulations ne sont pas jugéesambigües.

Dans le cas de la figure 7.16, on constate qu’aucune combinaison de référence n’est ambi-guë pendant la durée complète de l’épisode. Cela signifie qu’il y a toujours une phase de la crue(montée en débit, récession, etc.) où chacune des combinaisons testées produit une simulationobjectivement distincte de la simulation obtenue avec la combinaison de référence. Les simula-tions de débits à l’exutoire de Vogüé effectuées par TOPSIMPL ne sont donc pas ambigües : unépisode suffit à contraindre entièrement une combinaison de valeurs de paramètres.

7.2.2.2 Ambiguïté par rapport à la combinaison optimisée sur chacun des épisodes dis-ponibles

La combinaison de référence précedemment testée résulte de la calibration sur l’ensembledes épisodes. Elle représente donc le “meilleur” compromis global. Il peut sembler intéressantde quantifier l’ambiguïté par rapport aux combinaisons de référence obtenues par optimisationde chacun des épisodes disponibles.

Nous avons donc optimisé le modèle et obtenu 17 combinaisons de valeurs optimales pourchacun des 17 épisodes. Pour chacune de ces combinaisons de référence nous avons identifié

Page 187: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

164 7.2. Evaluation de l’ambiguïté des simulations des débits à l’exutoire de Vogüé

FIG. 7.17 – Nombre de combinaisons de valeurs des paramètres ambigües à la combinaison de référence(optimisée sur l’épisode) pour la simulation de l’épisode du 2 novembre 1994 par TOPSIMPL (nombremaximal possible : 80000 combinaisons testées)

FIG. 7.18 – Nombre de pas de temps où une combinaison est ambigüe à la combinaison optimale selonl’efficience sur l’épisode considéré. Episode du 2 novembre 1994 (nombre maximal possible : 168 pasde temps)

leurs combinaisons ambigües. Nous présentons les résultats de la recherche des combinaisonsambigües à la combinaison optimale pour l’épisode du 2 novembre 1994 dans les figures 7.17et 7.18.

On note qu’encore une fois aucune combinaison n’est jugée ambigüe à la combinaison deréférence sur l’ensemble de l’épisode, mais il démeure des différences par rapport au cas où la

Page 188: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

7.2. Evaluation de l’ambiguïté des simulations des débits à l’exutoire de Vogüé 165

référence était la combinaison de valeurs retenue “meilleure” selon l’efficience.

7.2.3 Analyse des résultats

RemarquePar la suite, nous allons appeler combinaison globale la combinaison de valeurs des paramètresoptimisée sur l’ensemble des épisodes disponibles et combinaison particulière la combinaisonde valeurs des paramètres optimisée sur l’épisode du 2 novembre 1994.

Il est intéressant de comparer les résultats obtenus sur l’épisode du 2 novembre 1994 parrapport à la combinaison globale (cf. section 7.2.2.1) avec ceux obtenus par rapport à la combi-naison particulière (cf. section 7.2.2.2). La comparaison des figure 7.16 et 7.18 indique que lescombinaisons les plus ambigües (i.e. les pics de fréquence sur les figures) le sont encore plus(i.e. fréquence d’apparition plus grande sur les graphes) dans le cas d’utilisation de la combi-naison globale.

Or, on sait que la combinaison globale est moins optimale que la combinaison particulièrepour l’épisode 1994. Les différents résultats s’interprètent donc en disant qu’il est plus “faci-le” pour les combinaisons ambigües à la combinaison globale de calculer longtemps des débits“aussi faux” que la combinaison globale. Par contre, la combinaison particulière est la plusoptimale (par définition) pour l’épisode du 2 novembre. Il est donc plus difficile pour les com-binaisons ambigües à la combinaison particulière de calculer longtemps des débits aussi prochesde la réalité.

Si maintenant on compare les figures 7.16 et 7.18, l’interprétation est plus difficile, même sil’on semble détecter une plus faible ambiguïté dans le cas de la combinaison particulière. Parcontre, il semble intéressant, compte tenu de la forte variabilité du nombre de combinaisons am-bigües au cours de l’épisode, de rechercher des explications hydrologiques. Nous superposonspour cela les débits observés à l’évolution du nombre de combinaisons ambigües à la combi-naison globale (figure 7.19) et à la combinaison particulière (figure 7.20) pour l’épisode du 2novembre 1994.

L’analyse de ces figures indique une tendance assez générale : l’ambiguïté augmente pen-dant les phases de montée au pic et de récession et s’écroule autour du pic de crue. Cela semblecohérent : en effet, sans présumer de la capacité de telle ou telle combinaison de paramètresà reconstituer correctement le pic de crue, un bon nombre de combinaisons de paramètres ontdes montées au pic semblables. Mais effectivement toutes n’arrivent pas à monter aussi haut etavec le bon phasage temporel pour reproduire correctement le pic de crue. De la même manière,

Page 189: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

166 7.2. Evaluation de l’ambiguïté des simulations des débits à l’exutoire de Vogüé

FIG. 7.19 – Nombre de combinaisons de valeurs des paramètres ambigües à la combinaison globaleselon l’efficience pour la simulation de l’ensemble des épisodes par TOPSIMPL et débits simulés

FIG. 7.20 – Nombre de combinaisons de valeurs des paramètres ambigües à la combinaison particulièreselon l’efficience pour la simulation de l’épisode du 2 novembre 1994 par TOPSIMPL et débits simulés

on observe souvent que des combinaisons ’ratant’ le pic de crue conservent des récessions cor-rectes.

Il faut aussi ajouter un probable effet de la sensibilité du test du χ2, puisque toute différencede simulation entre deux combinaisons de valeurs des paramètres est amplifiée au pic de crue etmaximise la probabilité que le χ2 considère significativement différentes les deux simulations.

Page 190: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

7.2. Evaluation de l’ambiguïté des simulations des débits à l’exutoire de Vogüé 167

FIG. 7.21 – Episode du 2 novembre 1994 : régions de l’espace auxquelles appartiennent les combinai-sons de valeurs des paramètres ambigües à la combinaison globale

Page 191: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

168 7.2. Evaluation de l’ambiguïté des simulations des débits à l’exutoire de Vogüé

FIG. 7.22 – Episode du 2 novembre 1994 : régions de l’espace auxquelles appartiennent les combinai-sons de valeurs des paramètres ambigües à la combinaison particulière

Ces considérations sont générales à la modélisation pluie-débit, mais on peut aussi interrogerles particularités de TOPSIMPL. Pour chacun des pas de temps, la procédure de quantificationde l’ambiguïté fournit les combinaisons ambigües à la combinaison de référence (globale ouparticulière). Nous pouvons donc pour chaque pas de temps reporter sur un graphe les valeursde chacun des paramètres (K0, M , SRMax, Inter) de chacune des combinaisons ambigües.C’est ce que proposent la figure 7.21 dans le cas de la combinaison globale et la figure 7.22dans le cas de la combinaison particulière.

Sur ces figures les pas de temps de la simulation de l’épisode du 2 novembre 1994 sont enabscisse. Pour chaque abscisse, les points noirs en ordonnée indiquent les valeurs de chacun desparamètres correspondant à une ou plusieurs combinaisons ambigües.

Page 192: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

7.3. Discussion 169

Par exemple, dans le cas de la figure 7.22, et pour le paramètre SRMax, on remarque queles valeurs de ce paramètre sont très contraintes dans les premiers pas de temps (de 1 à 30heures), puis de moins en moins au fur et à mesure de la simulation, jusqu’à n’être plus du toutcontraintes à partir du pas de temps 50. En effet, à partir de ce pas de temps, l’ensemble de laplage de variation de ce paramètre correspond à des combinaisons ambigües. Ceci est cohérentavec le fonctionnement de ce paramètre qui a le rôle effectif de pertes initiales et qui n’est doncsensible qu’au début de la crue.

En ce qui concerne le paramètre M , on observe sur la figure 7.22 que ses valeurs sont systé-matiquement contraintes lors des pas de temps de récession. Sur la figure on observe bien quela plage de valeurs ambigües du paramètre diminue fortement à chaque récession (pas de temps82 à 87 et 100 à 140). Il est tout à fait remarquable d’observer que la valeur centrale de la plagede valeurs ambigües de M quand celle-ci est la plus petite (pas de temps 110 à 140 sur la figure7.22) est proche de la valeur optimisée de M (M = 0.029m).

Ceci est encore plus vrai pour le paramètre K0 où sa plage minimale d’ambiguïté sur la fi-gure 7.22 correspond à des valeurs comprises entre 90.0 et 100.0 (pas de temps 135), alors quela valeur optimisée est 96.0.

Les mêmes conclusions sont applicables lorsqu’on utilise la combinaison globale commeréférence (cf. figure 7.21 et les valeurs optimisées au chapitre 6).

7.3 Discussion

Dans ce chapitre nous avons appliqué à la fois la recherche de paramètres équifinaux parla méthode GLUE et la recherche de combinaisons ambigües par la méthodologie que nousavons proposée au chapitre 3. On a aussi invoqué les résultats obtenus au chapitre 6 concer-nant l’analyse de sensibilité de l’optimisation aux incertitudes sur les variables de forçage (i.e.les précipitations) et de vérification (i.e. les débits). Or, bien que ces trois approches aient desobjectifs et des philosophies voisins (le renoncement à la recherche d’une solution unique à lamodélisation d’un bassin versant), les résultats divergent.

La méthode de Monte Carlo présente l’avantage de prendre explicitement en compte les in-certitudes de mesure sur les variables de forçage (i.e. les précipitations) et de vérification (i.e.les débits). Par contre, dans sa recherche d’une seule combinaison optimale pour chaque scéna-rio de pluies bruitées combiné à chacun des scénarii de débits bruités, cette approche exclut lapossibilité d’identifier une incertitude de structure due à une compensation entre les processuset/ou les paramètres du modèle.

Page 193: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

170 7.3. Discussion

C’est l’avantage de la méthode GLUE qui philosophiquement peut inclure également cettepossibilité. Par contre, dans l’application concrète de la méthode il démeure difficile de prendreen compte explicitement les incertitudes de mesure sur les variables de forçage et de vérifica-tion. En effet, la définition du seuil de vraisemblance nécessaire à l’application de la méthodereste difficile à fixer objectivement.

La méthodologie de quantification de l’ambiguïté proposée au chapitre 3 voudrait coupler laprise en compte explicite et objective des incertitudes expérimentales avec la quantification desincertitudes structurelles du modèle que propose de faire GLUE.

Les résultats sont par contre très différents : alors que GLUE reconnaît un nombre assez im-portant de combinaisons de valeurs des paramètres équifinales, nous concluons à la non ambi-guïté de la modélisation. Cela signifie que même compte tenu des incertitudes de mesure, il n’ya pas d’incertitude structurelle au modèle TOPSIMPL (i.e. pas de surparamétrisation, comptetenu de la quantité et qualité des données disponibles sur le bassin de Vogüé). Par contre, celane signifie pas que les simulations obtenues sont certaines : il démeure la propagation pure deserreurs sur l’estimation des pluies krigées sur les simulations des débits.

Nous rappelons, par ailleurs, que cette non ambiguïté est conditionnée à la question quel’on a posé au modèle (i.e. la simulation des chronologies des débits observés à l’exutoire dubassin) : nous n’avons pas vérifié qu’est-ce qu’il se passe pour d’autres variables (e.g. l’humiditédu bassin). Or, il est tout à fait possible qu’on n’arrive pas aux mêmes conclusions en analysantles résultats sur ces variables ! Cela nous permet de souligner que notre méthode d’évaluationde l’ambiguïté donne des résultats valables (pour un modèle donné) compte tenu du contenuinformatif des données disponibles (qualité/quantité) et de la complexité du problème posé(la question que l’on pose au modèle).

Page 194: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

Conclusion générale

Nous avons décrit dans un premier temps (chapitre I) le cadre général d’une démarche demodélisation en hydrologie. Cela nous a permis de souligner les différentes étapes où des incer-titudes peuvent influer et éventuellement brouiller notre jugement de développeur ou utilisateurd’un modèle hydrologique.

Ces incertitudes proviennent des protocoles expérimentaux de mesures (incertitudes sur lesestimations de pluie et de débit, par exemple), mais peuvent être également structurelles et plusintrinsèques à la modélisation (erreurs de méthode/numériques, incertitudes dans la spécifica-tion des valeurs des paramètres, incertitudes sur les résultats du modèle dues à son inévitablenon-adéquation parfaite avec le “vrai” fonctionnement du bassin versant, etc.).

Dans la synthèse bibliographique que nous avons effectuée au cours de cette thèse (et quenous espérons être la plus complète possible) nous n’avons résumé (chapitre II) que les princi-paux techniques/outils/concepts utilisés en hydrologie. De ce compte-rendu ressort le caractèreparticulier de chacun des travaux cités. Les travaux repertoriés portent essentiellement sur :

– le problème spécifique de la caractérisation (expression) de l’incertitude d’une valeurnumérique (mesure ou simulation) ;

– les analyses locales d’incertitude, typiquement la propagation d’erreurs sur les variablesde forçage de la modélisation (e.g. la pluie moyenne horaire) ou sur les valeurs des para-mètres du modèle ;

– le problème, de plus en plus étudié, de l’impact global des incertitudes davantage lié à lasurparamétrisation des modèles, qui peut générer une compensation d’erreurs entre la des-cription simplifiée et/ou erronée des processus en jeux et les valeurs optimisées/inverséesdes paramètres du modèle choisi. Cette surparamétrisation est provoquée par une tropgrande complexité du modèle ou une trop faible quantité et qualité de données de terraindisponibles pour contraindre entièrement l’étalonnage du modèle sur la région d’étude.

Rarement les travaux présents dans la bibliographie proposent d’aborder de manière glo-

171

Page 195: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

172 Conclusion générale

bale l’impact des différentes sources d’incertitude, même s’il est communément admis par laCommunauté scientifique que leurs intéractions peuvent avoir un effet significatif sur les simu-lations. C’est à cette tâche que nous avons consacré le reste de la thèse : comment considérerà la fois (i) les incertitudes de mesure des variables de forçages d’un modèle hydrologique(e.g. les pluies horaires précipitées sur le bassin versant) et des variables pronostiques (e.g. lesdébits horaires à l’exutoire du bassin versant) et (ii) les incertitudes structurelles liés à la sur-paramétrisation des modèles et/ou à l’étalonnage des valeurs de leurs paramètres, généralementsous-déterminé ? Nous avons proposé pour cela une démarche (chapitre III) basée sur la quan-tification de l’ambiguïté d’une modélisation :

Deux modèles (i.e. deux combinaisons de valeurs de paramètres du même systèmed’équations ou deux systèmes d’équations différents, utilisés pour décrire le

fonctionnement du système) sont considérés comme ambigus si les incertitudes sur lesvariables de forçage et/ou de vérification conduisent à des simulations incertaines, qui ne

peuvent pas être considérées comme significativement différentes du point de vuestatistique.

Nous nous sommes appuyés pour cela sur un concept et une méthode qui sans contexte ontréussi à sensibiliser la communauté hydrologique sur la nécessité d’oser aborder de front laquestion des incertitudes en modélisation : le concept d’équi-finalité et la méthode GLUE.Après les travaux de Young (1978), Hornberger et Spear (1981), Beven et Binley (1992) ontréussi à convaincre et à formaliser un problème que la communauté hydrologique soupçonnaitsans oser le quantifier : l’application d’un modèle hydrologique sur une région d’étude particu-lière constitue dans la majorité des cas un problème sous-déterminé, compte tenu de la quantitéinsuffisante de données disponibles (longueur de séries trop faibles ou peu informatives pour lemodèle), de la (souvent) mauvaise qualité de ces données (incertitudes de mesures, représen-tativité des mesures, etc.), et de la complexité des modèles eux-mêmes (qui sont ainsi surpa-ramétrisés). Concrètement, cet état de fait nous a conduit à devoir renoncer à chercher un seulcouplet modèle-combinaison de valeurs des paramètres, i.e. une seule modélisation du bassinversant, en nous forcçant à reconnaître que plusieurs modélisations (i.e. plusieurs combinaisonsde valeurs de paramètres et/ou plusieurs structures du modèle) peuvent être des simulateursvraisemblables du système étudié.

Dans ce travail de thèse, nous avons essayé de contribuer à ces développements philo-sophiques et méthodologiques en définissant un couplage (chapitre III) des formalisationsexplicites des incertitudes sur les variables de forçage des modèles (e.g. l’utilisation des tech-niques locales d’analyses d’incertitude présentées au chapitre II) avec les approches plus glo-bales de quantification de la sous-détermination des modèles, proposées, par par exemple, parBeven et Binley (1992 ; cf. chapitre II).

Page 196: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

Conclusion générale 173

Avant d’appliquer concrètement cette méthodologie d’évaluation de l’ambiguïté d’une mo-délisation dans le chapitre VII, nous avons procédé, dans les chapitres V et VI, à la quantifica-tion des sources d’incertitude les plus couramment citées par la bibliographie sur les simulationspar TOPMODEL (dans sa version simplifiée TOPSIMPL) des débits à l’exutoire du bassin deVogüé (635 km2, Ardèche), le “terrain de jeu” de cette thèse (cf. description dans le chapitreIV).

Outre les propogations “classiques” d’incertitude sur le forçage pluviométrique du bassin,nous avons remarqué que les incertitudes sur les mesures de la variable de vérification (dansnotre cas, le débit à l’exutoire) ou, plus généralement, des variables de vérification, ont égale-ment un impact très significatif sur notre jugement des résultats du modèle (e.g. sur la valeur ducritère de Nash, utilisé ici comme quantificateur de la qualité des simulations). C’est un résultatqui interpelle les procédures classiques de calibration des modèles hydrologiques sur les débitsmesurés, surtout si l’on considère que les incertitudes de mesures des débits à l’exutoire du bas-sin de Vogüe ont été sous-estimées, dans cette thèse, compte tenu de l’indisponibilité des pointsde mesures qui ont servi à la construction de la courbe de tarage (i.e. la loi hauteurs-débits).

Le chapitre VII tend à montrer que, même compte tenu de ces incertitudes sur la variablede vérification, TOPSIMPL n’est pas ambigü dans l’application qui en est faite (i.e. la modéli-sation hydrologique du bassin versant de Vogüé). En d’autres termes, un épisode de crue, mêmeavec des données incertaines, suffit à contraindre entièrement le modèle. C’est là une différenceimportante avec les résultats de la méthode GLUE que nous appliquons à titre de comparaisondans ce même chapitre. Pas d’ambiguïté ne signifie pas que les simulations par TOPSIMPL sontcertaines, il demeure la pure propagation des incertitudes de mesure des variables de forçage(ici la pluie moyenne sur le bassin). Mais la recherche d’ambiguïté tend à montrer que le modèlehydrologique testé n’est pas surparamétré dans l’application précise qui en est faite.

Probablement, des travaux complémentaires seront nécessaires sur le test nous permettantde juger si deux simulations sont significativement différentes ou pas : le test du χ2 utilisé iciest probablement un peu trop sensible. Inversement, l’efficience de Nash utilisée dans l’applica-tion qui est faite dans GLUE (critère global) conduit probablement à surestimer les incertitudesde structure du modèle hydrologique. Toutefois, nous espérons avoir rendu un peu plus objec-tive une démarche de quantification de l’incertitude de structure du modèle, compte tenu desfaiblesses dans la qualité et la quantité des données disponibles pour étalonner un modèle par-ticulier sur une région d’étude.

Mais d’ores et déjà nous pensons avoir démontré, encore une fois, que TOPSIMPL n’est pasambigü. Cela ouvre des perspectives quant aux procédures de son utilisation future. En effet,

Page 197: i INCERTITUDES ET AMBIGUITE DANS LA MODELISATION

174 Conclusion générale

si un épisode de crue suffit à contraindre le modèle, il devient légitime de se poser la ques-tion de l’inversion de ses paramètres épisode par épisode. Des travaux sont en cours au seinde notre équipe. L’intérêt de cette recherche épisode par épisode permettraît de quantifier uneincertitude évoquée, mais non résolue dans cette thèse : l’incertitude sur les simulations dueà l’inadéquation entre la physique du modèle et la physique réelle du bassin versant. En effet,le modèle parfait se caractériserait par une stabilité parfaite de ses valeurs de paramètres d’unépisode à l’autre. Un modèle réel, au contraire, observera une dispersion de ses valeurs de pa-ramètres inversées épisode après épisode. La comparaison entre cette dispersion d’un modèle àl’autre nous semble prometteuse pour intercomparer le plus objectivement possible les modèles,puisque l’on a vu dans ce travail que les procédures d’optimisation automatique avaient souventle loisir de compenser les erreurs de physique et de méthode des modèles hydrologiques.