V.1.8 - Dernière mise à jour : 11/10/2024
Objectifs : voir en quoi cela peut servir aux
géographes !
Qu'en dit Wikipédia : Aide à la décision multicritère ?
L'article semble avoir été rédigé par des proches du LAMSADE, seul laboratoire cité (: !
Quelques méthodes (mathématiques) d'analyses multicritères sont citées :
- ELECTRE : méthode non compensatoire, ELimination Et Choix Traduisant la REalité ;
- PROMETHEE : "Preference Ranking Organisation METHod for Enrichment Evaluations".
- Recherche par mots clefs : "Analyse multicritère"
Qu'en dit Wikipédia : Méthode mathématique d'analyse multicritère ?
- On est encore loin de la géographie, mais il y a des techniques que nous reverrons plus loin :
- Recherche par mots clefs : "Analyse multicritère géographie"
Qu'en dit Wikipédia : Rien ! Il n'y a pas d'entrées !
En revanche, Google indique des articles ou des ouvrages universitaires qui développent des exemples.
On peut citer : "Évolution et développement des méthodes d'Analyse spatiale multicritère pour des modèles d'aptitude : l'exemple des applications en Géosciences" qui cite ce cours (: !
Mais également : "Analyse multicritère pour l’implantation d’éoliennes aux îles de la Madeleine" ;
Ou encore "SIG et analyse multicritère pour l'aide à la décision en agriculture urbaine dans les pays en développement, cas de Ouagadougou au Burkina Faso" (: !
1. En guise d'introduction
- Si on veut se former, il existe un MOOC : FUN MOOC, mais la dernière session date de décembre 2018 !
- Qui dit en faire ?
- Et en géo ?
Des exemple pour les logiciels propriétaires de traitement des données :
XLSTAT utilise, entre autres comme méthodes :
Excel est utilisé par des développeurs mais on ne connaît pas la méthode a priori :
Mais ce n'est pas très spatiale...
- Quand a-t-on recours à l'AMC ?
Probablement quand on n'a pas d'échantillons de terrain pour modéliser l'aptitude
Sinon, on procéderait par régression ou
autre (à discuter !)
Sans paraphraser ce qui a très bien été énoncé par le Clark Labs dans son chapitre sur les MCE et qui est repris en français ici (mem01mas.htm), il convient d'insister sur les points suivants :
Décision = choix parmi plusieurs alternatives.
Critères (criteria) = éléments de base d'une décision. Peuvent être évalués ou mesurés. Il en existe 2 sortes :
- les facteurs = exprimés par une échelle de mesures continues (ex. plus la pente est faible, mieux c'est !) ;
- les contraintes = exprimés par une échelle de mesures discrètes (ex. apte sous 30°, inapte au-delà !)
Le facteur agit de façon progressive, la contrainte est un facteur limitant.
Le MCDA se subdivise en deux sous partie :
- l'analyse multicritère proprement dite (AMC ou MCE) => recherche d'un ou plusieurs sites aptes à l'installation d'un équipement (un seul objectif)
- l'analyse multiobjectif (AMO ou MODA) => recherche d'un ou plusieurs sites aptes à l'installation d'équipements antagonistes ou non comme la recherche de sites aptes à accueillir :
- une médiathèque ;
VS
- une salle multisport
Recherche d'un ou plusieurs sites aptes à l'installation d'équipements concurrents (Multi-Objective Land Allocation MOLA)
Sources : Eastman et al. 1995
3.0. Les étapes du MCE
Organisation librement inspirée de Ronald C. Estoque, 2011. “GIS-based Multi-Criteria Decision Analysis (in Natural Resource Management)”
1. Fixer l'objectif/définir le problème
2. Déterminer les critères (facteurs/contraintes)
3. Normaliser les scores des facteurs/critères
4. Déterminer le poids de chaque facteur
5. Agréger les critères
6. Valider/vérifier le résultat
L'origine de l'acronyme remonterait à 1981, depuis ont été ajoutés Ethical et Recorded pour faire SMARTER (: !
- A-t-on besoin de tout le réseau viaire d'une ville ou seulement des artères principales => quelle base de données les contient ?
- Les critères doivent être mesurables
S'ils ne le sont pas, il faut utiliser des proxies [variables substituées en raison d'un comportement similaire = forte corrélation, comme les eaux libres, les zones humides et les cours d'eau (comme substituts pour les eaux souterraines)]
- Auriez-vous un exemple ?
- Définir les valeurs d'aptitude des facteurs sur une échelle commune pour rendre les comparaisons possibles, comme par exemple, du moins apte au plus apte :
- 0 à 1 (échelle continue, décimale, utilisée dans ArcGIS Pro et TerrSet)
- 0 à 10 (échelle discrète utilisée dans ArcGIS Desktop)
- 0 à 100
- 0 à 255 (256 niveaux = un octet, ancienne échelle d'IDRISI)
- Pour comparer des valeurs de pentes (% ou °), d'altitudes (m ou feet) ou de distances (km ou statute mile / U.S. Survey mile) dont les unités diffèrent.
Sources : Estoque 2011
- Le principe, le plus simple ici, repose sur un étalement de la dynamique entre deux bornes communes à l'ensemble des critères.
où les paramètres de la fonction de transformation sont les suivants :
Xi = nouvelle valeur transformée ;
Ri = ancienne valeur dans l'unité d'origine ;
Rmin = ancien minimum dans l'unité d'origine ;
Rmax = ancien maximum dans l'unité d'origine ;
m = nouvelle étendue (1 ; 10 ; 100 ; 255...)
- Deux reclassifications différentes sont à envisager, selon que l'on traite une donnée :
- numérique (pentes, distances, profondeur, coûts...) ;
- catégorielle (occupation du sol, type de routes, zonage cadastral...).
Ces fonctions ont toutes plus ou moins le même nom, par exemple :
- Assign ou Reclass dans TerrSet ;
- Reclassify dans ArcGIS ou QGIS, etc.
tab. 1 - Exemple de reclassification sur les valeurs
VALUE New values Descriptions (for reference only) 1
1
Developed, High Intensity
2
1
Developed, Medium Intensity
3
2
Developed, Low Intensity
... ... ...
Sources : ESRI
- Par exemple, pour ArcGIS, il existe un descriptif de l'ensemble des méthodes de reclassement
Pour ArcGIS Pro => Vue d'ensemble du jeu d'outils Raster - Reclassement
Ce sont des classifications standards qui proposées dans ces pages d'ArcGIS Pro => Méthodes de classification des données
Comme la méthode dite des intervalles égaux utilisée dans le TP (mem21mas.htm)
- Dans le cas de ce TP (mem21mas.htm) diffusé entre 1995 et 2012 et destiné à prendre en main l'outil Spatial Analyst, la méthode de classification préconisé est la superposition pondérée (Weighted Overlay).
Elle consiste à convertir des jeux de données à virgule flottante, continus (distances en mètres, pentes en degrés ou en pourcentages...), en valeurs entières discrètes à affecter à des plages de valeurs (cf. Reclassification des jeux de données dans mem21mas.htm).
À titre d'exemple, si la limite
d'aptitude est de 21%, est-ce qu'un terrain doté d'une pente à 20.9% est
réellement plus apte qu'un terrain doté d'une pente à 21.1% ?
Les méthodes Weighted Overlay et Weighted Sum, par exemple, sont parfois qualifiées de rigides (crisp) car les limites sont trop strictes (sharp).
- Depuis les premières versions d'IDRISI, IDRISI32 au moins, une fonction relevant de la théorie des ensembles flous (fuzzy set theory) est disponible dans le module MCE.
La logique floue traite spécifiquement des situations où les frontières entre les classes ne sont pas claires (nettes/sharp).
La logique floue est basée sur la théorie des
ensembles.
En 1965, Lotfi Aliasker Zadeh présente sa théorie des ensembles flous et la logique floue.
En 1978, il en crée une extension, la théorie des possibilités (in Que-sais-je ? : Théorie des possibilités), c'est une alternative à la théorie des probabilité pour représenter l'incertitude (in Wikipedia : Théorie des possibilités).
Par conséquent, vous définissez des possibilités, pas des probabilités, quand vous faites de la "fuzzyfication" (!) en MCDA !
L'appartenance à la classe va osciller entre :
0 => la valeur ne fait pas partie de la classe ;
1 => la valeur fait partie de la classe.
Toutes les autres valeurs correspondent à un certain
niveau de possibilité, les valeurs les plus élevées indiquant une
plus grande possibilité d'appartenance.
Sources : ESRI 2014 - Applying fuzzy logic to overlay rasters
- Comment lire la figure n°3 ?
L'appartenance complète à chaque classe est la suivante :
Mais qu'en est-il des tailles comprises entre :
- 5 pieds (1,524 mètres) et 5' 1 3/4" (1,6193 mètres) => elles sont plus susceptibles d'être dans l'ensemble des petits ;
- 5' 1 3/4" (1,6193 mètre) et 5' 3 1/2"
(1,6129 mètre) => elles sont possiblement dans l'ensemble des
petits mais ont une plus grande possibilité de faire partie de
l'ensemble moyen, etc.
- Le processus de fuzzification caractérise l'imprécision des classes pour les phénomènes qui n'ont pas de frontières bien définies.
Sources : ESRI 2014 - Applying fuzzy logic to overlay rasters
- Comment lire la figure n°4 ? Comment appartenir à un groupe aux frontières floues ?
- Une valeur répondant exactement aux critères se voit attribuer la valeur 1 ;
- Celles qui sont complètement hors des critères se voient attribuer la valeur 0 ;
- Au fur et à mesure que les valeurs s'éloignent de
l'idéal (centre de l'ensemble), on leur attribue une valeur
décroissante sur une échelle continue de 1 à 0 (À mesure que les
valeurs attribuées diminuent, la valeur du phénomène d'origine a
moins de possibilité d'être membre de cet ensemble) ;
- La valeur de fuzzification de 0,5 est le point de croisement / bascule.
- De façon plus pragmatique, le graphique de la figure n°5 permet de comprendre la différence entre seuil flou (fuzzy) et un seuil strict ou net (crisp).
Sources : Eastman 2009 in IDRISI Taiga
- Les fonctions de fuzzification, comme ici dans IDRISI (cf. fig. 6abc), permettent d'adapter la classification aux phénomènes étudiés.
Sources : Eastman 2009 in IDRISI Taiga
- Si l'on reprend les exemples développés dans le tutoriel de prise en main de TerrSet 2020, la dernière version d'IDRISI, au chapitre 2.8 "MCE: Non-Boolean Standardization and Weighted Linear Combination" plusieurs standardisations sont proposées avec différentes fonctions de standardisation :
Dernier exemple,
- Auriez-vous quelques exemples à décortiquer ?
Si cette approche par fuzzification est ancienne dans IDRISI, il faut attendre le milieu des années 2010 pour qu'elle intègre les exemples de prise en main du module Spatial Analyst d'ESRI.
- Les nouvelles versions pour :
- ArcGIS Desktop => Suitability modeling workflow using ArcGIS Desktop—Lesson 2: Transforming data onto a common scale
- ArcGIS Pro => Suitability modeling workflow using ArcGIS Pro—Lesson 2: Transforming data onto a common scale
ont adopté une approche plus souple relevant de la logique floue (fuzzy).
Estoque (Estoque 2011) évoque plusieurs méthodes, dont certaines mériteraient que l'on recherche si elles sont encore en en usage ! Il s'agit du Ranking et du Rating.
Il les décrit comme suit :
Car la méthode la plus répandue relève de la comparaison par paire.
Développée par Thomas L. Saaty et publié en 1977 (Saaty 1977) dans le cadre d'une étude de processus de prises de décision connu sous le nom de processus de hiérarchie analytique (AHP).
En 4 étapes !
Pour ne pas alourdir cette fiche mémo, le développement pratique de l'AHP est renvoyé dans la fiche mémo mem13ma1.htm
L'évaluation multicritères (MCE) est le plus souvent obtenue à l'issue d'une des procédures suivantes, seule ou combinée à une autre :
C'est la superposition par contraintes : c'est oui ou c'est non ! Possible ou impossible (construire en zone inondable...)
Tous les critères, les couches rasters le plus souvent, sont réduits à des déclarations logiques d'adéquation ou d'aptitude (codées en 0 ou 1 => logique booléenne),
puis combinés au moyen d'un ou plusieurs opérateurs tels que l'intersection (AND) et l'union (OR)
Sources : David Harbor, Washington and Lee University
Selon l'opérateur booléen utilisé, les prises de décision sont antagonistes !
Comparons la combinaison des critères avec les opérateurs logiques AND (opérateur d'intersection) et OR (opérateur d'union)
- ET logique, un emplacement doit répondre positivement à tous les critères pour être inclus dans l'ensemble de décision :
- Si un seul critère n'est pas rempli, l'emplacement est exclu ;
- Il faut que toutes les couches valident le test (cf. A and B, fig. 7) ;
- Une telle procédure est dite "averse" au risque.
C'est la stratégie de la prudence.
- OU logique, un emplacement est inclus dans l'ensemble de décision :
- Si seulement un seul de ses critères réussit le test (cf. A or B, fig. 7) ;
- Il s'agit donc d'une stratégie avec une prise de risque importante.
Ici, les critères continus (facteurs) sont standardisés sur une plage numérique commune, puis combinés au moyen d'une moyenne pondérée.
La carte d'aptitude croissante qui en résulte peut ensuite être masquée par une ou plusieurs contraintes booléennes pour tenir compte des exclusions localisées.
Ensuite, si nécessaire, un seuillage est effectué pour identifier les zones les plus aptes.
Avec WLC, les critères sont évalués en fonction de leurs qualités. Une faible qualité pour un critère peut être compensée par d'autres plus élevées ailleurs. Cet opérateur n'est ni un AND ni un OU - il se trouve quelque part entre ces deux extrémités (cf. fig. 8). Ce n'est ni une stratégie de risque-tout ni de pusillanime.Sources : TerrSet Tutoriel2020
La position du point MCEWLC, issu d'un exercice de TerrSet (cf. 2-9 TerrSet Tutoriel2020), caractérise une position intermédiaire entre le comportement "risque averse" du AND et le comportement "risque tout" du OU.
La compensation est totale (full tradeoff) avec la procédure WLC.
Il est possible de faire varier cette compensation (entre les positions pas de compensation et compensation intégrale, no tradeoff et full tradeoff) avec la procédure OWA, une autre spécialité d'IDRISI.
Dans le cas du WLC, les critères sont combinés en appliquant un poids à chacun suivi d'une sommation des résultats pour produire la couche d'aptitude, comme suit :
Sources : Eastman et al. 1995
où :
S = aptitude (suitability) ;
Wi = le poids du facteur i (weight) ;
Xi = la valeur du critère i.
Si des contraintes booléennes s'appliquent également, la procédure est
modifiée en multipliant l'aptitude précédente par le produit des
contraintes, comme suit :
Sources : Eastman et al. 1995
où :S = aptitude (suitability) ;
Wi = le poids du facteur i (weight) ;
Xi = la valeur du critère i ;
Cj = valeur de la contrainte j ;
? = produit des contraintes (1 apte, 0 inapte)
Dans le cadre de la procédure d'évaluation multicritère MCE, utilisant la combinaison linéaire pondérée (WLC) décrite ci-dessus, il est nécessaire que la somme des pondérations soit égale à un.
Au-delà de la combinaison linéaire pondérée (WLC), la moyenne pondérée ordonnée (OWA) permet de contrôler la quantité de risques et de compromis que l'on souhaite inclure dans le résultat.
(fiche en travaux)
Comment évaluer le résultat (qui est une modélisation et pas la réalité !) :
Communiquez-moi par courrier électronique les réponses aux questions suivantes Question n°1.2.1.
Question n°1.2.2.
Question n°1.2.3.
|
NB : les mots suivis de "*" font partie du vocabulaire géographique, donc leur définition doit être connue. Faites-vous un glossaire.