1Les glissements de terrain sont considérés comme un risque majeur au Brésil, en raison des dégâts importants et des conséquences meurtrières que ce type d’aléa a engendrés par le passé, particulièrement au cours des dernières années. Les événements récents des 11 et 12 janvier 2011 dans l’État de Rio de Janeiro – qui ont vu le déclenchement de plus de 3500 glissements de terrain sur une bande de 20 x 80 km – ont causé la mort de 1500 personnes et provoqué des dégâts sévères aux infrastructures rurales et urbaines de plusieurs municipalités de l’arrière-pays montagneux de Rio [Avelar et al. 2011]. Il s’agit essentiellement de glissements superficiels (glissements translationnels en majorité), déclenchés à la suite d’un épisode pluviométrique de haute intensité ayant atteint 325 mm de précipitations en moins de 48 heures [Coelho Netto et al. 2011]. Considéré comme la pire catastrophe naturelle de l’histoire du Brésil, cet événement ne doit pas occulter la récurrence de tels phénomènes dans la région au cours des dernières décennies (1966, 1967, 1988, 1996, 2010) [Coelho Netto et al. 2010]. Ceci a valu au gouvernement brésilien d’essuyer de nombreuses critiques concernant le volet de la gestion du risque et de la crise, en l’absence de système d’alerte et de réelle planification urbaine et environnementale. Malgré la répétition de ce type d’événement catastrophique, on observe que la croissance des zones urbaines se fait souvent aux dépens d’espaces de plus en plus exposés aux aléas, en particulier sur les versants en pente forte affectées par les glissements où se concentrent en masse les populations pauvres des favelas. Depuis la catastrophe de 2011, le gouvernement brésilien s’est engagé à mettre en place un système d’alerte efficace et un plan de prévention des risques naturels à l’échelle du pays.
2L’évaluation du risque « glissement de terrain » implique d’évaluer le niveau d’aléa et les enjeux humains ainsi que la vulnérabilité des éléments exposés. L’évaluation de l’aléa nécessite au préalable d’apprécier la susceptibilité des terrains aux glissements, c’est-à-dire la possibilité qu’un glissement se produise sur un territoire donné pour différentes conditions environnementales locales [Thiery 2007]. La susceptibilité est donc définie comme la probabilité d’occurrence spatiale d’un glissement en fonction de facteurs de prédisposition connus (variables explicatives), sans tenir compte de leur occurrence temporelle. Les cartes de susceptibilité peuvent être obtenues soit par une approche qualitative ou heuristique (fondée sur une démarche experte), soit par une approche déterministe (fondée sur des modèles à bases physiques, reposant sur des mesures directes de différents paramètres : géotechniques, hydrologiques…) soit par une approche probabiliste (fondée sur des modèles statistiques d’analyse spatiale). Cette dernière est aujourd’hui de plus en plus utilisée en raison de son caractère généralisable et reproductible, et s’avère particulièrement adaptée aux échelles larges (du 1/100 000e au 1/25 000e) [Fell et al. 2008]. Cette étude propose de réaliser une cartographie préliminaire de la susceptibilité aux glissements dans la zone de Nova Friburgo – l’une des plus touchées par la catastrophe de janvier 2011 – en utilisant une approche probabiliste basée sur un modèle d’analyse bivariée (théorie de l’évidence). Cette méthode, considérée actuellement comme l’une des plus robustes statistiquement pour ce type d’étude [e.g., Van Westen 2004, Thiery et al. 2007, Regmi et al. 2010], a donné de très bons résultats aux échelles régionales et dans des contextes environnementaux variés, y compris en milieu de moyenne montagne tropicale [Pradhan et al. 2010, Vijitha et al. 2014]. A l’heure où se fait sentir au Brésil le besoin d’une cartographie généralisée des aléas et des risques naturels, l’un des objectifs est d’évaluer le potentiel de cette méthode pour une cartographie de la susceptibilité aux glissements à large échelle, en se basant uniquement sur des données d’entrée gratuites et facilement accessibles (Google Earth, Landsat, ASTER GDEM).
3La zone d’étude est localisée dans la municipalité de Nova Friburgo, au cœur de l’État de Rio de Janeiro, dans le Sud-Est du Brésil (Fig. 1). Située dans la Serra do Mar, à environ 100 km au nord-est de la ville de Rio, elle définit un rectangle de 141 km2 centré sur la ville de Nova Friburgo et regroupe ainsi une bonne partie des 182 000 habitants que compte la municipalité. Il s’agit par conséquent d’une région fortement anthropisée, malgré sa situation géographique enclavée dans l’arrière-pays de Rio. Les activités économiques principales sont l’industrie textile et métallurgique, l’agriculture (essentiellement du pâturage et quelques cultures commerciales entre les patchs de forêt atlantique secondaire) mais aussi le tourisme, puisque la zone est également connue pour ses paysages bucoliques, ses activités de plein air ainsi que pour son climat, plus frais que celui des plaines côtières, qui attire les populations aisées de l’aire urbaine de Rio de Janeiro durant les mois d’été (décembre à février). Ainsi caractérisée par un climat tropical d’altitude, l’aire d’étude s’étend sur une zone de moyenne montagne dont l’altitude varie de 638 à 1593 mètres au-dessus du niveau de la mer. Dans ce secteur, les pentes des versants sont assez prononcées, puisque seulement 12,4 % de la zone d’étude possèdent des pentes inférieures à 8°, alors que 25,4 % des pentes sont supérieures à 25°. Sur le plan géologique, la région est partagée entre divers types de granites plus ou moins altérables (granites pré‑, syn‑ et post-orogéniques) ; le quart sud-est de la zone d’étude se distingue des autres lithologies granitiques par la présence d’un massif de charnockites – un granite à orthopyroxène particulièrement résistant. Ces différents types de roches cristallines sont généralement recouverts sur les versants par d’épaisses formations superficielles (saprolites et colluvions) qui peuvent atteindre jusqu’à 10 mètres de profondeur. Toutes ces formations de nature argilo-sableuse, considérées comme instables d’un point de vue géotechnique, constituent un élément fondamental dans la prédisposition aux glissements superficiels, mais les paramètres géotechniques diffèrent ensuite selon la nature de la roche-mère [Avelar et al. 2011].
Figure 1 – Carte de localisation de la zone d’étude
Topographie dérivée du SRTM DEM v4.
4L’inventaire et la cartographie des glissements de terrain ont été effectués à partir de la photo-interprétation d’images gratuites à haute résolution du satellite GeoEye du 24/01/2011 (soit 13 jours après l’épisode catastrophique). Le lot d’images a pu être récupéré via l’application Great Maps For Windows Forms de Google Earth® au format .pngw, ce qui a permis de conserver les informations de géoréférencement des images. Ces dernières ont été directement chargées dans le module ArcMap® du logiciel ArcGIS® 10. Il s’est agi ensuite de digitaliser l’ensemble des glissements de terrain sous forme de polygones vectoriels.
Figure 2 – Relief ombré (dérivé du modèle numérique d’élévation ASTER GDEM v4) et localisation des glissements de terrain sur la zone d’étude
5Lors de cet inventaire uniquement basé sur la photo-interprétation, les glissements n’ont pas été différenciés selon leur type : il s’agit dans tous les cas de glissements superficiels (profondeur <5m), majoritairement de type translationnel (plus rarement rotationnel), parfois prolongés par de véritables coulées de débris [Avelar et al. 2011]. Un total de 742 glissements de terrain, allant de 232 m2 à 68 000 m2, a été inventorié et cartographié sur la zone d’étude qui a été retenue (Fig. 2).
6Pour chaque glissement, le centroïde et la zone de départ ont été identifiés. Il s’agit majoritairement de glissements de petite taille, puisque 68,7 % d’entre eux font moins de 5000 m2 alors que ceux de plus de 20 000 m2 ne représentent que 5,5 % de la surface totale occupée par les glissements. En vue de la modélisation de la susceptibilité, les 742 glissements ont été convertis en une grille de 11 212 points d’une résolution spatiale de 30 m, qui est la résolution choisie pour la cartographie finale de la susceptibilité.
7Le choix des données à utiliser comme variables explicatives (Ve) de la susceptibilité aux glissements a été dépendant à la fois des facteurs de prédisposition connus [Avelar et al. 2011, Coelho Netto et al. 2011], de l’accès aux couches d’information et/ou de la possibilité d’en générer de nouvelles. Ceci a permis de mettre en évidence un ensemble de six principaux facteurs de prédisposition dans l’occurrence spatiale des glissements de terrain : la pente, l’exposition, la courbure de versant, l’occupation du sol, la lithologie et la distance aux cours d’eau (Tabl. 1). C’est le modèle numérique d’élévation ASTER GDEM v2 (Advanced Spaceborne Thermal Emission and Reflection Radiometer, Global Digital Elevation Map, Version 2), d’une résolution spatiale de 30 x 30 m, qui a constitué la base de données topographiques de référence pour dériver les cartes des pentes, d’orientation, de courbure de versant longitudinale et de distance aux cours d’eau, calculée par la méthode « distance à la ligne ». Les données de lithologie, qui concernent uniquement le bedrock, ont été récupérées directement sous la forme d’une couche vectorielle extraite de l’atlas géologique numérique du Brésil à 1/1 000 000e [Bizzi et al. 2003]. Enfin, une cartographie de l’occupation du sol a été réalisée à partir du traitement par télédétection d’une image Landsat ETM+ du 25/04/2010, c’est-à-dire neuf mois avant la catastrophe de janvier 2011. Le traitement par télédétection procède d’une démarche experte reposant sur une classification supervisée corrigée manuellement à travers une série de seuillages (détails dans [Piel, 2013]).
Tableau 1 – Variables prédictives retenues pour l’analyse de la susceptibilité, résolution spatiale (ou échelle) et sources de l’information utilisée
Catégories
|
Variables prédictives
|
Résolution / échelle
|
Sources
|
Variable dépendante (Vd)
|
Glissements de terrain
|
30 m
|
Images à haute résolution du satellite GeoEye du 24/01/2011
|
|
Pente
|
|
|
|
Orientation
|
|
|
Variables explicatives (Ve)
|
Courbure de versant
|
30 m
|
Modèle numérique d’élévation ASTER GDEM v2
|
|
Distance aux cours d’eau
|
|
|
|
Lithologie
|
1/1 000 000e
|
Atlas géologique numérique du Brésil [Bizzi et al. 2003]
|
|
Occupation du sol
|
30 m
|
Image satellite Landsat ETM+ du 25/04/2010
|
8Afin de tester la validité des variables explicatives, des tests d’indépendance conditionnelle (test du khi2) ont été réalisés entre chaque variable retenue et l’occurrence (présence/absence) des glissements de terrain (Tabl. 2). Avec un khi2 calculé toujours supérieur à la distance critique (pour a = 0,001), ces tests ont permis de rejeter l’hypothèse d’une indépendance conditionnelle et de valider la pertinence des six variables explicatives présentées ci-dessus.
Tableau 2 – Résultats du khi2 pour l’ensemble des variables explicatives
|
Occupation du sol
|
Pente
|
Lithologie
|
Distance cours d’eau
|
Orientation
|
Courbure
|
khi2 calculé
|
1084,620
|
1033,107
|
2845,447
|
93,807
|
653,160
|
607,612
|
Degré de liberté
|
4
|
3
|
4
|
4
|
4
|
4
|
Le test porte sur l’indépendance entre l’occurrence de glissement et chacune de ces variables
9La susceptibilité aux glissements de terrain a été simulée par un modèle d’analyse spatiale bivariée (théorie de l’évidence), considérée comme l’une des approches probabilistes les plus robustes pour ce type d’étude [van Westen 2004, Thiery et al. 2007, Regmi et al. 2010], sous réserve de vérifier l’hypothèse d’indépendance conditionnelle des variables explicatives (ce qui a pu être réalisé dans le cas présent : voir supra). L’analyse bivariée consiste en une mise en relation entre les variables explicatives d’un phénomène (Ve) et l’occurrence de ce phénomène (la variable dépendante, Vd, ici les glissements de terrain). Pour pouvoir être appliquée, cette théorie repose sur trois hypothèses [Thiery 2007] : (1) les glissements potentiels se déclencheront selon les mêmes conditions que dans le passé ; (2) les facteurs de prédisposition sont connus a priori et introduits dans l’analyse ; (3) l’ensemble des glissements de terrain est inventorié sur la zone d’étude.
10Ce modèle se base sur une version log-linéaire du théorème général de Bayes, et a été appliqué à l’origine en médecine pour diagnostiquer certaines maladies. La théorie bayésienne de l’évidence utilise les notions de probabilité a priori et de probabilité a posteriori. La probabilité a priori est la probabilité qu’une unité de terrain (maille de calcul) possède la variable dépendante (Vd), calculée à partir de sa densité sur la zone d’étude. La probabilité a posteriori est estimée après le calcul des probabilités a priori selon la densité de Vd pour chaque variable explicative Ve, dans notre cas chaque facteur de prédisposition. Cette association entre les Vd et les Ve va ainsi permettre le calcul d’un poids positif W+ et d’un poids négatif W- pour chaque variable explicative, correspondant respectivement à une plus grande ou à une plus faible probabilité d’occurrence de Vd. L’ensemble des calculs a été effectué avec l’extension ArcSDM® [Sawatzky et al. 2004] du logiciel ArcGIS® 10.
11Quatre étapes ont été conduites lors de la procédure de calage/validation du modèle probabiliste. Chacune de ces étapes est détaillée dans Piel [2013].
12La première étape correspond au calage de la représentation de la variable dépendante, c’est‑à‑dire des glissements de terrain répertoriés. Une série de tests empiriques a montré que le modèle devait être étalonné sur l’ensemble des points de glissements et non pas sur le centroïde ou la zone de départ de chaque glissement.
13La deuxième étape correspond à la définition de la meilleure combinaison de variables explicatives (au sens statistique). Suivant le protocole défini par Thiery [2007], chaque variable prédictive est ajoutée une à une dans le modèle pour observer son influence sur les simulations. Les tests empiriques effectués pour le calage des variables explicatives Ve indiquent que la meilleure combinaison possible pour l’utilisation du modèle est celle qui regroupe les six variables retenues au départ avec, par ordre hiérarchique, la lithologie, l’occupation du sol, la pente, la courbure de versant, l’orientation et la distance aux cours d’eau. Il est intéressant de noter que l’amélioration du modèle par ajout progressif des variables est surtout sensible pour les classes de susceptibilité élevée, ce qui signifie que l’utilisation des variables de pente, de lithologie et d’occupation du sol suffit à identifier les espaces de susceptibilité faible, mais que l’identification précise des zones d’aléa fort demande un plus grand nombre de variables, et que les glissements sont donc prédisposés par un ensemble de facteurs finalement assez complexe.
14La troisième étape correspond à la validation statistique du modèle employé. Pour cette dernière étape, 70 % de la population totale des glissements de terrain sont introduits dans le modèle, à partir d’un tirage aléatoire, pour le calcul de la probabilité a priori et a posteriori ; les 30 % des points restants sont utilisés pour tester et valider les résultats. Les résultats des deux simulations (celle réalisée avec 70 % des points et celle réalisée avec l’ensemble des points) sont très proches, avec un écart moyen de 0.1 point par classe de susceptibilité pour une cartographie en cinq classes (détails dans [Piel 2013]). Ces résultats valident statistiquement la fiabilité du modèle choisi pour la cartographie de la susceptibilité.
15La quatrième étape consiste à interpréter les résultats du modèle sous forme de classes de susceptibilité. La susceptibilité modélisée pour chaque pixel de 30 m de côté par le modèle choisi est une variable continue et décimale. Le choix de la représentation cartographique finale de la susceptibilité modélisée passe donc par la définition de seuils permettant de séparer des classes de susceptibilité (forte, moyenne, faible…). Le choix des classes a été établi par une méthode de discrétisation manuelle, basée sur l’existence de seuils naturels visibles sur la courbe cumulative des valeurs de probabilité a posteriori.
16Une cartographie de la susceptibilité finale en cinq classes a finalement été retenue (Fig. 3), permettant en particulier de bien définir les classes extrêmes (susceptibilité très forte ou très faible). Dans ce cas, il est possible d’affirmer que la probabilité d’occurrence de glissements de terrain dans la zone de susceptibilité très faible est proche de zéro (cette classe regroupe seulement 3 % des glissements sur une surface correspondant à 23 % de la zone d’étude), alors que les espaces de susceptibilité très forte sont mieux ciblés avec un ratio glissement/surface très élevé (25 % des glissements sur 8 % seulement de la zone d’étude : Tabl. 3). On obtient également une meilleure précision et un bon équilibre entre les trois classes médianes, sans altération notable de la lisibilité.
Tableau 3 – Résultats de la modélisation de la susceptibilité pour les cinq classes retenues dans la cartographie finale
Classes de susceptibilité
|
Très faible
|
Faible
|
Moyenne
|
Forte
|
Très forte
|
Densité de glissements
|
0,55
|
2,71
|
4,50
|
7,43
|
12,42
|
% de glissements
|
3,02
|
17,65
|
22,02
|
32,36
|
24,95
|
% de la superficie
|
23,60
|
28,00
|
21,05
|
18,72
|
8,64
|
17Une analyse des valeurs de W+, de W- et du poids final attribués à chacune des classes des variables explicatives a permis d’évaluer et d’interpréter le rôle respectif des facteurs de prédisposition dans l’occurrence spatiale des glissements de terrain. Il apparaît que la lithologie et l’occupation du sol jouent un rôle majeur alors que les variables de distance aux cours d’eau et d’orientation sont relativement moins influentes. En effet, l’écart de poids maximum entre les cinq classes de la variable de distance aux cours d’eau est de seulement 0.3, alors qu’il est de 2.93 pour l’occupation du sol et de 3.51 pour la lithologie. Les variables de pentes et de courbure occupent une place intermédiaire avec un écart respectif de 1.27 et de 1.02. De toutes les variables prédictives, la lithologie est celle qui a le plus d’impact sur le modèle, notamment en raison de la faible susceptibilité des charnockites massives au déclenchement de glissements de terrain. Inversement, les granites post-orogéniques fortement altérés sont très sensibles aux instabilités gravitaires et aux glissements superficiels, en raison du comportement géotechnique de la saprolite souvent épaisse d’une dizaine de mètres sur ce type de substrat [Lacerda 2007, Avelar et al. 2011].
Figure 3 – Carte simulée de la susceptibilité finale aux glissements de terrain
18Un problème d’interprétation des variables explicatives provient parfois de la redondance partielle de l’information, laquelle peut provoquer une violation de l’indépendance conditionnelle [Thiery et al. 2007]. Dans notre cas, un autre problème a certainement conduit à sous-estimer le poids d’une variable explicative : en effet, on observe ici que la présence de bâti (classe issue de la couche « occupation du sol ») est considérée par le modèle comme une caractéristique limitant la probabilité d’occurrence de glissements, ce qui est conforme à la réalité du terrain puisque le nombre de glissements sur les surfaces de bâti est globalement peu important. Pourtant, la présence de surfaces bâties est considérée habituellement comme un facteur favorisant les glissements de terrain, notamment dans la région d’étude [Coelho Netto et al. 2007]. Ce problème s’explique par le recoupement de cette couche d’information avec la pente, puisque les zones de bâti sont majoritairement installées ici dans des zones de pentes faibles (notamment en fond de vallée : cas d’une bonne partie de la ville de Nova Friburgo). Il y a donc un risque que le modèle sous-estime la susceptibilité de glissement de terrain sur les zones de bâti en-dehors des zones de pente faible. D’autres améliorations du modèle sont évidemment possibles, concernant par exemple le nombre et la résolution spatiale des variables incorporées dans le modèle, ou encore en ne modélisant qu’un seul de type de glissement à la fois, après une étape indispensable de caractérisation des formes sur le terrain.
19Cette étude a permis de disposer rapidement d’une carte de susceptibilité, certes préliminaire, à l’échelle d’une municipalité brésilienne en prenant en compte les principaux facteurs de prédisposition connus et en évaluant leurs poids respectifs. L’intérêt de la méthode utilisée ici réside essentiellement dans l’utilisation de données d’entrée gratuites (Google Earth, Landsat, ASTER GDEM), ce qui la rend peu coûteuse et facilement applicable à de vastes territoires, à une période où se fait sentir au Brésil le besoin d’une cartographie généralisée des aléas et des risques naturels. L’utilisation de ce type de données d’entrée offre des perspectives de développement important, car l’accès aux données gratuites, à des résolutions toujours plus fines, devrait se multiplier dans les années à venir. Même si des améliorations sont encore possibles concernant les variables utilisées (notamment par l’utilisation de données d’entrée plus nombreuses et/ou plus précises), puis au moment de la validation du modèle par la mise en place d’autres procédures (tests statistiques), les résultats de cette étude apparaissent comme cohérents et la méthode semble donc reproductible à large échelle vers d’autres secteurs ou régions du Sud-Est du Brésil.
20Dans une perspective d’aide à la décision, la cartographie de la susceptibilité apparaît comme un préalable indispensable à l’évaluation du risque « glissement de terrain », pouvant participer à une meilleure gestion du risque et à l’élaboration des futurs plans de prévention. Des transferts bilatéraux de connaissances/compétences entre les équipes scientifiques françaises et brésiliennes travaillant sur la cartographie du risque « glissement de terrain » sont envisagés, dans le cadre d’échanges et programmes internationaux actuellement en projet. Une validation du modèle étalonnée sur une région plus étendue est également en cours.
Les auteurs remercient Ana Luiza Coelho Netto et André de Sousa Avelar (Universidade Federal do Rio de Janeiro, laborótorio Geoheco) pour les échanges constructifs occasionnés par leur venue à Paris lors de la 8e Conférence Internationale de Géomorphologie (IAG Paris 2013, 27‑31 août 2013), puis en tant que Professeure invitée (A.L. Coelho Netto) à l’Université Paris-Diderot en septembre 2013. Ces premiers échanges ont permis de comparer les intérêts et limites des différentes méthodologies utilisées pour la cartographie de la susceptibilité, et de discuter de l’influence des principaux facteurs de prédisposition et de déclenchement des glissements de terrain, notamment dans la région touchée par la catastrophe de 2011. Les auteurs remercient également Alexandre Poiraud ainsi qu’un relecteur anonyme pour leurs remarques constructives qui ont permis d’améliorer la qualité de l’article.