Banlieues régénérées : la conception algorithmique par données géospatiales comme démarche architecturale permettant de favoriser un développement écologique des zones suburbaines en Amérique du Nord

Auteur·e 
Gabriel PAYANT
Résumé 

Cet article décrit et évalue la pertinence d’une méthode de conception architecturale : la conception algorithmique par données géospatiales (CADG). Cette méthode est ici proposée comme réponse au problème d’étalement urbain corrélatif au développement immobilier en Amérique du Nord. Les caractéristiques qualitatives, temporelles et organisationnelles de ce développement, telles que décrites par Sanford Kwinter, Daniela Fabricius, Lars Lerup et Rem Koolhaas, permettent de mieux comprendre les causes de l’étalement urbain. L’identification de ces causes ne rend cependant pas plus aisée la mise en place d’interventions architecturales capables de réduire leurs effets. Afin de définir les conditions de telles interventions efficaces, différents outils de conception numérique inhérents à la CADG sont présentés. Deux cas d’étude servent à illustrer leur fonctionnement : Local Code: San Francisco Case Study de Nicholas de Monchaux et À louer : tous les centres commerciaux du boulevard Taschereau par l’auteur de cet article. L’objectif, à travers cette étude, est de faire valoir la pertinence de la CADG pour optimiser l’utilisation de l’espace urbanisé en tenant compte des phénomènes et dynamiques propres au développement de celui-ci.

 

PDF à télécharger 
Texte intégral 

Le dynamisme immobilier décentralisé du développement urbain nord-américain constitue un défi pour les planificateurs urbains soucieux de limiter son étalement et de préserver les espaces non urbanisés. En considérant ce développement comme étant essentiellement un phénomène d’émergence dont la réalisation est régie par l’interaction de plusieurs facteurs, il est possible d’envisager l’utilisation d’une méthode de conception élaborée à l’aide d’outils d’optimisation permettant la résolution de problèmes complexes : la conception algorithmique par données géospatiales (CADG). Cette méthode permet non seulement de contourner le processus habituel de conception, qui nécessite d’opérer des choix cruciaux en vue d’abstraire différents paramètres d’une problématique donnée pour la rendre manipulable par les concepteurs1, mais également d’explorer des solutions tenant compte d’un plus grand nombre de paramètres, qui autrement auraient été évacués.

La différence entre ces deux approches de conception est importante ; elles se distinguent par le degré d’abstraction et de complexité des modèles générés. Là où les méthodes habituelles impliquent un réductionnisme important dans la définition d’une forme ou d’une solution d’aménagement, la CADG permet d’intégrer une plus grande complexité paramétrique, car elle repose sur une logique itérative algorithmique. Cette souplesse supplémentaire facilite le travail exploratoire du designer. Bien entendu, la méthode itérative n’est pas novatrice en soi2 ; la CADG permet de générer un nombre indéfini d’occurrences à partir d’un modèle paramétrique donné (construit à partir d’un jeu de données défini) et d’y injecter des corrections (correction de l’algorithme) en fonction des résultats obtenus, mais elle implique surtout une directionnalité supplémentaire dans la recherche de solutions, directionnalité liée à la mobilisation de données géospatiales propres à la situation d’intervention architecturale et d’aménagement. Nicholas de Monchaux, qui a mis en œuvre une telle démarche dans le cadre de son projet Local Code: San Francisco Case Study, propose de concevoir celle-ci comme une manière d’« instrumentaliser le désordre plutôt que de chercher à consolider des systèmes d’ordre3 ». La mobilisation de données nourrissant des paramètres déterminés entrant dans la conceptualisation de la problématique sur laquelle le concepteur doit se pencher permet, selon de Monchaux, « d’éviter de travailler sur un monde que nous avons structuré conceptuellement, mais plutôt de travailler sur le monde tel qu’il est4 ».

Bien que cette affirmation doive être nuancée, puisque travailler avec un ensemble de données entraîne nécessairement la construction d’un modèle représentationnel diagrammatique, la CADG diffère sensiblement des efforts généralement menés dans le domaine de la modélisation du développement urbain. Il s’agit d’une méthode de conception transdisciplinaire qui détourne certains outils numériques actuellement utilisés en architecture et en génie structural pour traiter des problèmes d’aménagement urbain. Dans le domaine de la modélisation du développement urbain, l’une des méthodes de conception les plus connues est celle de l’automate cellulaire. Cette méthode génère des jeux de simulation renseignés par certains phénomènes urbains dans le but de les étudier ou d’en prévoir le développement5. La CADG n’ignore pas les avantages de cette méthode dans une démarche de recherche de solutions d’intervention répondant à des problématiques décelées par l’observation de phénomènes urbains, voire territoriaux. La CADG propose justement de tenter de répondre à de telles problématiques par des projets dont l’échelle d’intervention oscille entre l’aménagement et le bâtiment. En effet, ces deux niveaux peuvent être intégrés dans la définition des paramètres renseignant un algorithme capable de générer des formes adaptées.

Dans cet article, je souhaite mettre en évidence la valeur prospective de la conception algorithmique par données géospatiales (CADG) comme démarche permettant de prévoir des interventions d’aménagement territorial plus écologiques. Je tâcherai pour ce faire de démontrer que cette méthode est adaptée au caractère décentralisé, fluctuant et autogénératif6 du développement urbain en Amérique du Nord puisque son processus de mise en œuvre tient compte de ces traits particuliers. L’hypothèse mise de l’avant est qu’en utilisant une méthode de conception qui permet d’agir sur plusieurs sites à l’intérieur d’un territoire étudié, cernés pour leurs défaillances vis-à-vis de paramètres de performance environnementaux définis, le concepteur, à la fois, bénéficie d’une portée accrue dans son travail et est en mesure de proposer des aménagements améliorant la performance écologique des sites à même une zone déjà urbanisée.

Les deux premières sections de cet article sont consacrées à la description des principales caractéristiques de l’actuel tissu urbain nord-américain. Deux attributs principaux retiennent mon attention : 1) son mode de production, qui fait appel à un modèle suburbain d’occupation du territoire s’adaptant aux particularités locales et possédant un caractère autogénératif ; 2) sa temporalité, caractérisée par une période d’effervescence suivie d’une phase d’abandon.

Puisque le développement urbain considéré a lieu principalement en périphérie, où la densité du bâti est faible, sa grande consommation d’espace nuit à l’environnement. En raison de la transformation des terres vouées à l’agriculture en domaines résidentiels, de nouveaux champs doivent être créés en amputant des espaces naturels, ce qui entraîne la destruction d’écosystèmes. De plus, le mouvement vers l’extérieur de la construction se fait parallèlement à une désaffectation des zones déjà construites, ce qui implique un plus grand gaspillage de superficie. En outre, le développement actuel est généré de façon polycentrique et spontanée à grande échelle sous l’impulsion du marché immobilier (ce qui confère au développement nord-américain son caractère décentralisé, fluctuant et autogénératif). Compte tenu de ces circonstances identifiées, force est de reconnaître que ni des projets ponctuels d’intervention, trop épars, ni des structures réglementaires globales, trop rigides, ne semblent constituer des réponses adaptées à la situation.

Les sections suivantes présentent succinctement les tenants et aboutissants de la CADG. L’ambition de la méthode de conception ici présentée est double. D’une part, elle doit faciliter le repérage systématique d’espaces sous-utilisés dans un territoire déjà développé à l’aide d’outils d’analyse de données géospatiales, et, d’autre part, elle doit être en mesure de générer, pour chacun de ces espaces, des propositions d’aménagements qui répondent à des objectifs écologiques. Pour ce faire, des algorithmes d’optimisation sont utilisés dans le but d’arriver à une rénovation adaptée à la banlieue : une régénération.

Le développement du tissu urbain nord-américain entraîne à l’évidence des problèmes écologiques importants. Les travaux de Sanford Kwinter, Daniela Fabricius, Lars Lerup et Rem Koolhaas7 se penchent sur un certain nombre de phénomènes historiques, politiques et culturels qui l’ont façonné et qui continuent de le façonner. Leurs écrits permettent de se former une meilleure conception de la nature complexe et émergente du phénomène développemental nord-américain. C’est sur ce fondement théorique que s’appuie, dans un premier temps, ma démarche. Les travaux d’Axel Kilian sur les processus de design appliqués à des problématiques complexes8 me serviront de support dans la formulation d’une critique de la démarche usuelle de modélisation du concepteur, laquelle nécessite que d’importantes abstractions soit opérées au risque d’une déconnexion entre les modèles diagrammatiques produits et les réalités de la situation d’intervention architecturale ou d’aménagement considérée. Ces prémisses fournies, la CADG sera définie en déclinant les outils d’optimisation structurale qu’elle utilise – notamment ceux développés par l’architecte Frei Otto dans sa recherche de forme –, puis en montrant comment les variantes numériques de ces outils d’optimisation peuvent être détournées afin de les rendre compatibles avec l’usage de données géospatiales issues du domaine de la géographie urbaine.

À titre d’exemples, deux projets utilisant la CADG seront présentés : Local Code: San Francisco Case Study (2009-2011) de Nicholas de Monchaux et À louer : tous les centres commerciaux du boulevard Taschereau (2015) par l’auteur de ces lignes. Dans les deux cas, il s’agit de démarches entreprises du point de vue de la discipline architecturale. Le premier constitue le prototype d’une démarche visant à montrer les possibilités de transfert d’outils paramétriques architecturaux vers la mitigation de problèmes environnementaux urbains. Le second, réalisé sur une échelle plus petite, tient lieu de démonstration de faisabilité de l’utilisation de la même démarche pour atteindre des objectifs de performance écologiques mesurés selon des critères différents.

Pour conclure, le potentiel et les limites de la démarche seront discutés afin de clarifier sa pertinence à la fois dans une optique de développement écologique, mais aussi comme vecteur de recherche en aménagement.

Cet article est motivé par plusieurs objectifs. Dans un premier temps, il s’agit d’attirer l’attention sur une démarche novatrice capable de prendre en charge des problématiques complexes auxquelles les méthodes de conception actuelles peinent à répondre. Il s’agit ensuite de faire valoir la compétence de la conception algorithmique par données géospatiales à traiter des problématiques spécifiques liées à l’étalement suburbain et à la désaffectation des premières périphéries métropolitaines. Cette dynamique, qui résulte d’une fuite en avant perpétuelle grugeant toujours plus de territoire aux zones agricoles ou forestières non bâties, est délétère d’un point de vue écologique. Conséquemment, il est suggéré que la CADG constitue une méthode de conception architecturale écologique puisqu’elle permet de générer des propositions d’aménagement visant à enrayer la dynamique d’étalement. En effet, les deux cas d’étude présentés visent à démontrer que la CADG représente une démarche de conception apte à favoriser un développement écologique des zones suburbaines en Amérique du Nord.

 

Le développement urbain en Amérique du Nord

Afin de déterminer une approche d’intervention pertinente pour concevoir des aménagements plus écologiques (capables de freiner la dynamique d’étalement urbain), il est utile de comprendre certaines caractéristiques historiques, économiques et culturelles liées au développement du tissu urbain nord-américain.

Le défrichement dans le but de permettre la culture des terres a fait partie de la réalité des États-Unis, dès les débuts de la colonisation. Alors que croissaient les établissements coloniaux européens, la frontière entre la nature et la civilisation occidentale a été repoussée vers l’Ouest. La conquête des espaces sauvages de l’Amérique constitue l’un de ses mythes fondateurs, et, par-delà son aspect lyrique, cette idée d’un mouvement inexorable depuis la Côte atlantique se comprend à la fois par une impulsion liée à des nécessités pratiques et par une attitude impérialiste à l’égard des territoires et des populations qui s’y trouvaient. Devant ces étendues disponibles pour l’exploitation (en l’absence d’une frontière étatique reconnue comme telle à l’ouest), la pression démographique exercée par l’augmentation de la population s’est résolue par un accroissement des superficies habitées, plutôt que par la densification. En effet, les moyens techniques de l’époque demandaient que de vastes opérations agricoles soient mises en branle pour assurer l’autosuffisance alimentaire de la colonie en fonction du rendement qu’il était possible d’obtenir.

À la suite de la guerre d’indépendance des États-Unis, le gouvernement américain, dans le but d’amasser l’argent nécessaire pour faire face aux créances occasionnées par le conflit, entreprit de vendre les territoires non colonisés de l’Ouest. Leur distribution a nécessité un système de définition de lots de propriété afin de les répertorier et de les allouer. Le Public Land Survey System (PLSS), adopté par le biais du Land Ordinance de 1785, est un système de division du territoire qui utilise des coordonnées géographiques, ce qui le distingue du précédent système britannique, qui s’appuyait sur une description de repères délimitant les propriétés. Il s’agit d’un changement crucial dans l’organisation du territoire, car outre la rectilinéarité qu’il impose aux terrains, la caractéristique qui importe au regard de la problématique de cet article réside dans le fait que ce système permet de cadastrer un territoire entier à partir d’un modèle composé de règles simples. En évitant un ancrage aux particularités du paysage, il peut s’appliquer sur les étendues à définir sans qu’elles n’aient été parcourues au préalable.

Ce changement fait passer la planification du territoire d’un paradigme où le travail consiste à relever des éléments anecdotiques vers un autre où un modèle est constitué afin de s’incarner en occurrences adaptées à la réalité. Ainsi, les règles à appliquer pour délimiter les lots selon le PLSS se résument comme suit : 1) définir un parallèle et un méridien de référence ; 2) appliquer une grille de cantons de dimensions prédéfinies ; 3) subdiviser ces cantons de façon régulière jusqu’à l’obtention de parcelles individuelles.

Un autre aspect historique de l’aménagement moderne du territoire nord-américain est la subjugation des forces naturelles par des moyens techniques. Le progrès technologique est un élément important de l’identité nationale étatsunienne. Des travaux d’infrastructure majeurs ont permis d’occuper l’immensité du continent à une vitesse de colonisation sans précédent. La construction du chemin de fer transcontinental, l’endiguement du Mississippi, puis l’implantation de l’Interstate Highway System et l’afforestation du Middle West ont rendu les terres à la fois propices à l’occupation et connectées à un réseau national de transport efficace pour leur assurer un essor économique. Un territoire à la colonisation clairsemée fut donc encouragé par le succès technique d’importants ouvrages d’infrastructure à l’échelle nationale et la volonté politique de les mettre en œuvre.

Au sortir de la Deuxième Guerre mondiale, les soldats retournant en masse d’Europe firent face à une pénurie de logements disponibles9. Contrairement à la solution européenne qui consistait à construire densément des barres de logements sociaux, la réponse du gouvernement américain s’est manifestée par des mesures financières facilitant l’accès à la propriété. Ce contexte a favorisé la construction de propriétés abordables, puisque le succès de l’opération dépendait de la capacité des vétérans à acheter les maisons. Afin de maintenir le coût d’achat au minimum, la typologie retenue a été la maison individuelle et sa construction s’est faite sur des terrains à faible valeur foncière en périphérie des villes.

La communauté planifiée de Levittown, sur Long Island, en banlieue de New York, en est un des premiers exemples et fait figure de prototype en regard du développement suburbain qui allait suivre. Les maisons y étaient produites selon des modèles optimisés en fonction des capacités de préfabrication du promoteur. L’accent était mis sur la possibilité de construire les bâtiments le plus rapidement possible. Le principe de la ville planifiée n’est pas une idée nouvelle – la rigueur des tracés des villes coloniales romaines et les traités d’architecture de Vitruve en témoignent –, mais la constitution d’un modèle typologique selon des critères de performance liés à sa réalisation est un changement important en termes de méthode de conception. Levittown se distingue par ailleurs des villes industrielles planifiées qui apparurent au XIXe siècle en Amérique du Nord10, car elle fait appel à une méthode de construction systématique développée pour l’effort de guerre.

Cette façon de s’attaquer à la crise du logement de l’après-guerre a favorisé le développement à faible densité des banlieues que nous connaissons maintenant. L’ampleur de l’opération a changé le visage urbain nord-américain et le mode de vie qui y est associé fait désormais partie intégrante de l’American Way of Life.

 

Les problèmes du développement urbain et les difficultés d’y intervenir

La forme extensive que prend le développement urbain nord-américain est en continuité avec une conception culturelle, mais également économique, de l’occupation du territoire. En effet, ce développement est principalement mû vers l’extérieur par le déséquilibre entre le coût d’entretien et d’acquisition des propriétés à l’intérieur des villes et la valeur foncière des terrains non développés à la périphérie.

Comme le mettent en évidence Sanford Kwinter et Daniela Fabricius dans « The American City: An Archival Probe »11, dans la deuxième moitié du XXe siècle, des transformations profondes ont eu lieu dans l’organisation de la société nord-américaine. Ces transformations ont eu des répercussions sur la planification du territoire. L’accès à l’information grâce aux technologies de télécommunication a mené à l’élimination progressive d’agents intermédiaires administrant les documents législatifs encadrant les activités économiques. Avec leur disparition, la culture et le savoir entourant la gestion des règlements se sont graduellement perdus. Or, c’est à ce palier d’organisation que les planificateurs du territoire peuvent instaurer des mesures ayant un effet sur l’ensemble du développement. Toujours selon les auteurs, parallèlement au dépassement de cette institution, l’idéologie du libre-marché qui domine la scène politique a démonisé l’idée même de la réglementation en la présentant comme néfaste aux libertés individuelles et à la croissance économique. Soumis aux soi-disant « lois naturelles » du marché, le développement s’effectue de plus en plus de façon auto-organisée dans une optique d’efficacité commerciale. Bien que les décisions le concernant soient dans ce contexte laissées principalement aux promoteurs, donc décentralisées, cela a finalement pour effet d’homogénéiser le développement puisqu’il est principalement formé par une même notion de rendement. Pour Kwinter et Fabricius, la réalité physique et construite du développement, qui constitue une somme difficilement commensurable d’informations, est moins propice, en tant que sujet d’étude, à permettre une bonne compréhension du phénomène que ne l’est l’articulation de ses forces et de ses dynamiques12.

Décrit par Kwinter et Fabricius comme une prolifération de « boîtes sans qualité13 », le paysage urbain nord-américain se déploie extrêmement rapidement pour répondre à une demande immobilière. Ce déploiement rapide est attribuable à l’absence de viscosité qu’implique généralement un processus de planification et de design rigide. Basé sur la répétition en grande série de modèles typologiques, en l’espace de quelques mois, l’étalement englobe des superficies aussi grandes que des villes européennes traditionnelles : « À chaque heure, chaque jour, cinquante acres de terres agricoles de première qualité sont perdues au profit du développement. Entre 1970 et 1990, la population de la région métropolitaine de Chicago a cru de 4 %, tandis que les terres développées ont cru de 46 %14. »

La ville de Houston sert d’exemple paradigmatique aux auteurs dans leur enquête archivistique. Véritable utopie du libre-marché, la zone métropolitaine houstonienne est exempte à la fois de taxes municipales et d’État. De plus, l’administration du territoire se fait sans zonage : le développement n’est contraint par aucune réglementation quant aux types et aux dimensions des bâtiments pouvant être construits. Le marché immobilier s’y exprime pleinement et les différentes industries présentes définissent des zones de densité d’habitation en fonction de la proximité de l’activité économique. Ainsi, le centre-ville historique de la ville n’est plus que l’ombre de lui-même, alors que des centres secondaires se sont développés près des industries. Certaines de ces « villes dans la ville » ont été entièrement développées par les propriétaires des industries. Houston constitue l’une des villes les plus étalées des États-Unis avec une superficie de 1600 km2, soit suffisamment d’espace pour englober l’ensemble des villes de Chicago, Philadelphie, Baltimore et Détroit. Voici comment les auteurs résument la dynamique du développement dans la ville :

Houston propose autant d’espace locatif de bureau que Londres, or selon la logique financière très particulière de la ville, une bonne moitié de ces espaces demeure vide : tandis que de nouveaux bâtiments étincelants se construisent, les plus anciens sont abandonnés. Dans l’économie du développeur-cowboy, il est plus simple et moins onéreux de construire un nouveau bâtiment que d’en maintenir un plus ancien15.

Houston est aussi la ville à laquelle Lars Lerup choisit de s’attarder, dans After the City16, pour décrire le paysage urbain nord-américain et la temporalité particulière qui caractérise les villes qui s’y trouvent. À grande échelle, l’ensemble apparaît comme un immense plan géométrique dont les limites sont hors de portée, mais dont la surface est ponctuée de trous en friche. Il s’agit de futurs possibles non réalisés du développement, des limites internes où l’intensité de la stimulation immobilière n’est pas parvenue à combler tout l’espace disponible avant de s’éclipser vers un autre endroit totalement différent. À petite échelle, Lerup donne en exemple l’animation, ou encore le point de stimulation, qu’occasionne une soirée dans une galerie d’art, ou le rendez-vous hebdomadaire d’amateurs de sport. L’environnement bâti se dévoile comme un palimpseste témoignant des marées successives correspondant à des moments d’intensité. L’auteur développe une métaphore basée sur le procédé de la métallurgie pour imager la temporalité du développement17. Au moment de sa production, l’acier est rouge, brillant, plein d’énergie, il s’agit d’un moment d’intensité, de stimulation (stim). Au travers de ce procédé, des sous-produits se forment dans le mélange et surnagent dans la cuve ; ce sont les scories, des déchets inutilisables dans le produit final qui, dans le cas d’une ville, sont les zones n’ayant pas connu un succès durable mais qui font néanmoins partie de l’aménagement urbain.

Afin de décrire les caractéristiques de la ville suburbaine, Lerup prend le point de vue de l’usager type y évoluant, qu’il nomme le ryder. Il s’agit de la perception d’un individu en mouvement, se déplaçant rapidement sur les autoroutes, comprenant les distances en termes d’unités de temps de déplacement proportionnelles à la vitesse. Sans énoncer précisément les lacunes organisationnelles qui font que l’occupation du territoire échappe aux tentatives de planification, comme le font Kwinter et Fabricius, sa description d’une urbanité informe, éphémère et définie par des processus autogénératifs pointe clairement vers la nécessité d’adopter une démarche de conception ancrée dans le dynamisme et le mouvement.

Dans Junkspace et Generic City, le néerlandais Rem Koolhaas s’en prend à la situation paradoxale de l’état de l’architecture18. Alors que la production immobilière se fait à un rythme sans précédent, aucune construction notable et pérenne n’en émerge. Les nouveaux bâtiments bénéficient certes d’une accumulation de solutions techniques et de design gigantesque, mais cette accumulation ne sert qu’à fabriquer de l’espace générique et homogène en toutes circonstances. Selon le lieu, un style thématique est appliqué à la ville pour lui donner une identité commercialisable. Dans Generic City, Koolhaas propose une incursion dans le phénomène de génération du territoire suburbain en mettant en lumière ses rouages. Il propose donc une réponse au questionnement suivant : en l’absence d’un consensus ou d’une direction concertée, comment l’environnement bâti produit est-il si homogène? En suivant toujours la voie de moindre résistance, des milliers d’acteurs du développement urbain empruntent le même chemin, poursuivent la même démarche. Plusieurs éléments sont considérés, notamment : la formation des designers, les choix développementaux s’appuyant sur les méthodes de construction les plus efficaces du point de vue du rapport coûts-bénéfices, les promoteurs agissant selon un pur calcul économique. Compte tenu de ces circonstances, et en l’absence de leadership et de volonté d’innovation au sein du circuit du développement architectural, la problématique du développement se pose à chaque fois selon les mêmes termes et se résout à l’aide des mêmes éléments. En se positionnant à contre-courant, un agent doté d’une telle volonté ferait face à une immense force d’inertie provenant du marché immobilier.

L’interaction des causes ci-avant énumérées produit les ensembles suburbains tels qu’on les connaît aujourd’hui. La difficulté d’intervenir tient pour beaucoup à la nature émergente et autogénérative du développement actuel. En effet, les formes que prend le développement résultent d’interactions complexes entre des pratiques instituées et des règles normatives. Ces interactions peuvent être considérées comme fonctionnant de manière systémique. Tout système s’appuie à la fois sur des règles établies, qui régissent ses dynamiques, et présente la possibilité de produire de nouvelles règles qui se traduisent par l’observation de nouvelles occurrences échappant aux normes instituées. Cette compétence autogénérative du système implique donc la possibilité, pour celui-ci, de produire de nouvelles formes qui ne sont pas aisément prévisibles ; et ces formes, en retour, complexifient d’autant le système, qui d’autre part n’a pas de mal à s’auto-organiser. La difficulté se pose plutôt du côté de l’observateur-concepteur cherchant à intervenir efficacement dans ce système pour en orienter les dynamiques ou y instituer de nouveaux paradigmes19.

Selon Axel Kilian, la démarche typique d’un concepteur consiste à évaluer la nature et l’importance des contraintes inhérentes aux transpositions contextuelles nécessaires à la construction d’un modèle diagrammatique et leurs effets sur les relations d’interdépendance propres à une situation donnée, liée à une commande ou à une intervention projetée20. Au point de départ de cette démarche, le concepteur procède à une abstraction conceptuelle à partir d’un certain nombre de paramètres qui, réduits et agencés, déterminent une problématique. Cette problématique constitue une représentation simplifiée de la situation d’intervention, qui la rend manipulable. Dans la détermination de la problématique, les contraintes prédominantes inhérentes à la situation d’intervention agissent comme des pilotes de design (« design drivers »), qui dirigent l’exploration de la recherche ; leur influence est importante et difficilement évitable21. Or, dans les cas où la situation d’intervention est de nature essentiellement complexe, l’abstraction conceptuelle résultant d’un processus de réduction basé sur l’identification de pilotes peut s’avérer contre-productive. Comme la modification d’un détail dans ce type d’interrelation peut entraîner des répercussions majeures sur la manifestation d’ensemble, la réduction opérée pour rendre la problématique manipulable risque d’escamoter des particularités non négligeables pouvant rendre l’abstraction inadéquate, et tout modèle diagrammatique conçu en fonction de celle-ci inopérant22.

C’est de cette vision du concepteur simplifiant la réalité que de Monchaux tente de s’éloigner. En effet, ce dernier considère que l’élaboration de modèles synthétiques de la ville entraîne la mise en place de nouveaux systèmes abstraits d’organisation et de structuration. Contre cette manière de faire, de Monchaux suggère que la voie à suivre pour intervenir efficacement en regard d’une problématique urbaine déterminée est d’en accepter le caractère complexe et d’en instrumentaliser le désordre. De Monchaux défend l’idée selon laquelle les outils de modélisation numérique permettent la prise en compte d’un maximum de facteurs dans la résolution du problème, car ils offrent la possibilité de construire des modèles en fonction de problématiques moins abstraites, qui intègrent davantage de variables et qui correspondent donc plus précisément à la situation concrète par rapport à laquelle le concepteur se propose d’intervenir.

Dans le domaine de la conception architecturale, la complexité croissante des exigences entourant la conception des bâtiments a mené à l’élaboration d’outils numériques permettant de gérer l’interaction des différents systèmes qui composent le bâtiment, tels que l’enveloppe, les voies de ventilation et d’alimentation en eau et la structure. Ce sont ces outils que de Monchaux propose d’utiliser dans la résolution de problèmes d’aménagement urbain. La méthode de conception défendue dans cet article repose précisément sur ce transfert de compétence, depuis le domaine de la conception architecturale vers celui de l’aménagement urbain. L’adjonction de modules de prise en compte de données géospatiales aux outils de conception numérique développés dans un contexte de conception de bâtiment confèrent à ces outils une valeur supplémentaire pour l’abord de problématiques normalement prises en charge par le domaine de l’aménagement urbain. Ces problématiques sont en effet intrinsèquement liées à la forme d’un territoire donné et à tout une série de variables qui s’y rattachent, en plus des facteurs environnementaux qui lui sont afférents. La conception algorithmique par données géospatiales est donc toute désignée pour traiter ce genre de problématique.

 

La conception algorithmique par données géospatiales

La CADG est une démarche de conception qui fait appel à la représentation numérique des géométries qui constituent la forme des aménagements. Afin de mieux saisir la pertinence de la CADG pour résoudre la problématique du développement des zones suburbaines, je me propose d’effectuer, dans les paragraphes suivants, une brève présentation des outils et des notions de conception dont elle est composée, en insistant tout particulièrement sur leur potentiel de transfert afin d’en tirer profit dans la résolution de problèmes d’aménagement urbain.

Le modèle diagrammatique (ci-après appelé simplement « modèle ») est au cœur d’une méthode de travail selon laquelle l’objet de réflexion n’est pas le bâtiment lui-même, mais une abstraction de celui-ci en fonction d’un certain nombre de critères ou de paramètres prédéfinis. En recentrant la recherche sur le modèle, une plus grande liberté de conception peut être atteinte, puisqu’il n’est plus question d’un bâtiment, mais d’un objet architectural qui répond à des règles internes définies par le designer. Utilisé à la fois en pratique et en recherche, ce mode de travail ne sous-entend pas qu’un bâtiment doive être réalisé à la suite du processus de conception. Les travaux de Frei Otto, architecte du pavillon allemand de l’Exposition universelle de 1967 à Montréal et du stade olympique de Munich, sont le fruit d’une approche faisant appel à un modèle sans outils numériques afin de définir les formes des bâtiments. Ces bâtiments peuvent être décrits comme une application d’un système structural de toiles et de tendeurs. La forme finale qu’ils ont prise est le résultat d’un travail réalisé à l’aide d’une maquette sophistiquée. Dans celle-ci, les extrémités de la trame de câbles soutenant la toile étaient maintenues en tension par des potentiomètres ajustables. Comme l’ensemble des éléments de la structure était en relation d’interdépendance, un effet sur la forme globale pouvait être perçu à la suite d’une modification de tension dans un seul de ses ancrages. Le travail du modèle, incarné par la maquette et une documentation photographique de chacun des ajustements, a permis de le modifier jusqu’à l’obtention de la forme désirée23.

Ce même exemple permet aussi de comprendre une application particulière du modèle : la recherche de forme. Le système structural en trame de câbles introduit une certaine complexité, puisque la forme globale est le résultat d’un équilibre entre toutes ses parties. Cela force le concepteur à s’attarder aux éléments qui déterminent l’équilibre du bâtiment plutôt qu’à décider à l’avance de la forme que prendra celui-ci. On songe d’abord aux tendeurs et aux câbles qui font partie de la structure et qui constituent des éléments. À ceux-ci s’ajoutent un certain nombre de valeurs, comme la position des tendeurs ou le nombre de câbles. Le couple élément/valeur est ce qui constitue un paramètre. On peut dire que le modèle est composé, ou défini, par ses paramètres et l’ensemble des relations que ces paramètres entretiennent entre eux. La méthode de représentation d’un modèle paramétrique s’apparente alors plutôt à une simulation, c’est-à-dire qu’elle permet de visualiser le résultat d’un ensemble donné de valeurs en fonction de paramètres définis. Idéalement, la simulation laisse apprécier facilement l’effet de la variation des valeurs sur la forme. Dans le cas de la maquette de Frei Otto, la principale variation observable sur la forme globale est celle induite par des modifications successives de la tension dans les câbles.

La recherche de forme est donc caractérisée par l’élaboration de règles définissant les relations entre les paramètres, puis par une manipulation des valeurs de ceux-ci pour en connaître le résultat. On peut considérer qu’une distance d’auteur24 est présente dans le processus, puisque le travail se fait sur le modèle et non pas sur la forme elle-même, ce qui rend le résultat formel moins prévisible. La complexité de la définition est généralement proportionnelle à la distance d’auteur observée. Dans notre exemple, on pourrait allonger grandement la liste des paramètres pour y inclure tous les menus détails qui influencent ce type de structure, comme la rigidité des câbles, leur résistance maximale, etc. Ce sont des paramètres physiques auxquels le système structural est contraint, mais nous pouvons très bien imaginer un processus de recherche de forme où les paramètres du modèle sont arbitrairement choisis par le concepteur. Or, plus la quantité d’interactions entre les facteurs dans la simulation est grande, plus il est difficile de prédire le résultat d’une modification. C’est de ce phénomène que tire son nom la recherche de forme, puisque, devant l’imprévisibilité du modèle (en raison de la complexité de la problématique), il devient possible de faire une découverte inattendue. Le rôle du concepteur est double dans cette démarche : il consiste à la fois à établir les paramètres et leurs relations, et à juger de la validité des résultats obtenus par cette démarche combinatoire afin de sélectionner un résultat plutôt qu’un autre, ce qui fait appel à la fois à ses capacités à organiser des concepts et à sa sensibilité esthétique (fig. 1). Le choix posé à ce moment peut s’appuyer sur des considérations purement esthétiques, sociales, environnementales ; en somme, ce qui préoccupe le concepteur.

 

Figure 1. Schéma de la recherche de forme.

 

L’ordinateur s’avère un outil puissant pour assister le concepteur dans la recherche de forme. Comme il permet de produire des simulations numériques, sans qu’aucune maquette ne doive être construite, le nombre de résultats testés peut être beaucoup plus grand. Il devient aussi plus aisé non seulement de faire varier les valeurs des paramètres, mais également de changer leurs relations ou d’en ajouter, ce qui élargit le domaine des solutions envisageables. L’usage de l’ordinateur décuple ainsi les possibilités de la conception architecturale. Comme l’avait énoncé John Frazer, architecte britannique reconnu pour ses recherches sur l’application d’une méthode évolutionnaire à l’architecture, l’ordinateur facilite la résolution de problèmes qui, sans lui, nécessiteraient la répétition d’un très grand nombre de tâches simples25. Isoler les jeux de paramètres les plus intéressants requiert énormément de simulations, car le nombre de simulations requises augmente exponentiellement par rapport à l’ajout de paramètres.

Les simulations itératives assistées par ordinateur permettent d’approcher un projet architectural sous des milliers d’angles différents. Or, cette abondance peut rendre impossible le choix d’une solution jugée plus désirable ou adaptée. Une stratégie doit donc présider à la préparation d’un modèle sophistiqué. Cette stratégie doit permettre de filtrer les résultats et de juger adéquatement les particularités de chaque itération de sorte à orienter la sélection du résultat le plus approprié. Une de ces stratégies se nomme le design orienté sur la performance. Le travail du concepteur s’effectue dans ce cas à un autre niveau d’abstraction. Avant même d’établir les paramètres qui serviront à composer le modèle, le concepteur doit établir un test de performance qui permettra de classer les solutions obtenues par les simulations (fig. 2).

 

Figure 2. Schéma du design orienté sur la performance.

 

Le choix des critères de performance est une occasion de mesurer le rendement du projet par rapport à son environnement. Le modèle peut ainsi lier la forme à des données environnementales propres au site, par exemple : la course du Soleil au courant de l’année, la force et la direction des vents, l’achalandage, etc. Cette interaction avec le site du projet sous-entend que la définition du modèle inclut des notions minimales de positionnement et d’orientation afin d’effectuer les calculs de simulation. Si, par exemple, on souhaite construire un bâtiment avec une faible consommation en énergie, la position des fenêtres aura un effet considérable sur le bilan total. La démarche d’intégration du critère se fera en deux temps. Premièrement, un test de gain thermique par radiation solaire doit être prévu, puis dans l’élaboration des paramètres du modèle, la position et l’orientation des fenêtres doit faire partie des éléments pouvant varier. Il sera ensuite aisé de classer les solutions selon les résultats du test et de choisir la meilleure. De plus, il est possible d’insérer d’autres critères de performance en prenant soin de hiérarchiser leur importance dans le test. Cette stratégie ouvre la possibilité pour le concepteur d’arrimer directement la forme de son bâtiment aux considérations écologiques qu’il juge importantes.

Pour obtenir les informations environnementales propres à un site, il est nécessaire d’avoir accès à une base de données qui les répertorie. La cartographie numérique constitue un outil important de visualisation de ces données. Celles-ci doivent d’abord être relevées de façon systématique sur un territoire donné. On associe à chaque valeur recueillie sa position géographique. À ce point, un changement d’échelle entre l’optimisation d’un bâtiment et des considérations territoriales est susceptible d’être effectué. Plutôt que de tirer simplement les informations géospatiales propres au seul site considéré, il est possible de s’intéresser à l’ensemble des données d’un territoire déterminé. On peut ensuite procéder à sa visualisation en utilisant différentes formes de représentation cartographique, telles que des cartes de chaleur (fig. 3), ou, plus généralement, effectuer des opérations de filtre ou de classement liées à la position géographique associée aux données. Il est ainsi possible d’isoler des zones dont les conditions locales répondent à des critères de recherche particuliers. Selon les facteurs environnementaux qui préoccupent le concepteur, les endroits sensibles peuvent être identifiés en recoupant plusieurs couches d’information.

 

Figure 3. Exemple d’une carte de chaleur26.

 

La CADG tire profit de chacun de ces outils pour donner au concepteur la capacité d’assurer une intervention pertinente à l’échelle d’un territoire. Elle se distingue du design orienté sur la performance par son aspect algorithmique. Le modèle constitué ne doit pas seulement offrir plusieurs sorties sous la forme de solutions, mais être capable de gérer les entrées de données liées à plusieurs sites (fig. 4).

 

Figure 4. Schéma de la CADG.

 

L’algorithme va donc générer un ensemble de solutions pour chacun des ensembles d’entrées fournis. Les données géospatiales peuvent être lues par l’algorithme de façon à associer les données localement pertinentes à chacun des ensembles d’entrées définis. Les données géospatiales permettront notamment de définir un cadastre déterminant l’emplacement d’un bâtiment sur un site dont les limites sont légalement reconnues. L’algorithme devra aussi être en mesure de reconnaître des caractéristiques physiques du site afin d’en déterminer sa topographie et son rapport au voisinage, de même qu’au réseau d’accès routier. La recherche de forme s’effectue alors en s’assurant que les solutions proposées répondent aux critères de performance définis. Selon la quantité d’ensembles d’entrées traités, la revue des solutions s’effectue sur un échantillon sélectionné d’ensembles de sorties. Les cas demandant la plus grande sophistication de l’algorithme devraient faire partie de l’échantillon afin de vérifier que leur traitement ne génère pas d’aberrations. Lorsque les résultats vérifiés sont tous satisfaisants, l’algorithme peut être lancé sur la totalité du jeu d’entrées afin de générer une solution par ensembles d’entrées.

En somme, pour atteindre un objectif de développement écologique en utilisant la CADG, le designer doit tout d’abord isoler des sites dans un territoire dont les données environnementales montrent un potentiel d’amélioration. Puis, il établira un test afin d’ordonner les résultats qui seront plus tard générés par l’algorithme selon les critères de performance qui permettent d’atteindre l’objectif déterminé. Ensuite, le modèle est élaboré en établissant des paramètres susceptibles d’avoir un effet important sur les critères de performance. Ces paramètres confèrent au modèle sa compétence à générer une forme dont les variations, définies en fonction des données géospatiales pertinentes, sont adaptées aux conditions locales de chacun des cas inclus dans le territoire identifié. Lorsque la sophistication du modèle est suffisante pour produire une variation dans tous les cas, l’ensemble de solutions est généré avec l’assurance que celles-ci permettent de rencontrer l’objectif recherché.

Certains phénomènes, comme le développement urbain dont il est ici question, se manifestent à cette même échelle. Ainsi, la CADG paraît tout adaptée pour traiter de ce phénomène et lui insuffler une orientation écologique définie.

 

Local Code: San Francisco Case Study (2009-2011)

Pour Nicholas de Monchaux, professeur à l’Université de Californie à Berkeley et architecte de formation, la robustesse des systèmes d’infrastructure des villes est un facteur essentiel non seulement à leur maintien et à leur prospérité, mais aussi à leur réinvention27. Le choix de la notion de robustesse pour qualifier ces systèmes n’est pas anodin. De Monchaux fait ici appel à une définition issue de la biologie servant à décrire un système ayant la capacité de s’adapter à des circonstances imprévisibles. Cet emprunt lexical reflète le vocabulaire actuellement utilisé dans le domaine de l’architecture pour décrire des processus de design utilisant des outils numériques de modélisation. On trouve encore d’autres termes importés de l’étude des phénomènes naturels complexes, tels que : émergence, morphogenèse, phylogenèse et code génétique28.

L’hypothèse de travail de Monchaux est que la planification urbaine actuelle manque de flexibilité pour permettre aux villes nord-américaines de s’adapter correctement. Les systèmes d’infrastructure organisés et centralisés, bien qu’ils soient efficients, ne possèdent pas la souplesse requise pour faire face aux changements produits par le développement de la ville. L’auteur compare le rapport coût-bénéfice de son approche à celui d’une mise à niveau des égouts pluviaux de San Francisco, pour laquelle un budget de plusieurs milliards de dollars a été prévu. Il avance que pour la moitié de la somme budgétée, un nombre suffisant d’interventions ponctuelles sur les parcelles pourraient être effectuées dont la performance combinée permettrait de gérer la crue des eaux et d’éviter la mise à niveau prévue. De Monchaux propose donc de cesser d’imposer à l’environnement de la ville des niveaux de structure hiérarchisant et suggère plutôt d’observer les phénomènes auto-organisateurs qui y prennent place. Dans son projet Local Code: San Francisco Case Study29, il entreprend de repérer dans la ville des lots vacants pouvant remplir le rôle d’infrastructure dans le cadre d’interventions ponctuelles et décentralisées.

En s’inspirant de l’artiste Gordon Matta-Clark, et plus particulièrement de son œuvre Reality Properties: Fake Estates (1973-1974)30, de Monchaux porte son regard sur les servitudes présentes dans les municipalités. Ces lots cadastrés de dimensions variables sont des espaces réservés par les villes lors de la planification pour accueillir des services publics. Lors du développement, certaines servitudes ne sont finalement pas utilisées, mais la forme étrange du lot ou sa position vis-à-vis des voies d’accès ne permet pas qu’on y construise un bâtiment.

Sur les traces de Matta-Clark, de Monchaux a effectué une recherche similaire (2009-2011), cette fois-ci à l’aide d’un répertoire numérique des servitudes (fig. 5). En utilisant un plan du cadastre de la ville de San Francisco, il a cartographié la position de chacun de ces lots non développés pour ensuite y superposer des données environnementales géolocalisées. Son intention était de déceler des corrélations entre les trous urbains que représentent les servitudes et des problèmes environnementaux tels que la qualité du drainage des sols, la qualité de l’air, la pollution sonore ou encore le taux de criminalité.

L’exercice a permis d’établir qu’il existe effectivement une corrélation forte entre ces phénomènes d’ordres distincts. Bien que les lots en question ne permettent pas l’édification d’un bâtiment, de Monchaux, en tant que designer architectural, a orienté son travail de manière critique en suggérant que l’aménagement de ces espaces pourrait être l’occasion d’exercer une influence positive en regard des critères environnementaux étudiés.

Figure 5. Carte des servitudes de San Francisco31.

 

Comme la base de données sur laquelle s’est appuyé de Monchaux comptait plus de 1500 entrées correspondant à des servitudes municipales, elle lui a permis de formuler une proposition d’ensemble comportant des aménagements ponctuels disséminés dont la performance peut être évaluée en raison de sa pertinence dans la mitigation des problèmes environnementaux à l’échelle de la ville. La mise en place d’un modèle devait donc permettre de générer un aménagement capable d’améliorer les facteurs environnementaux globaux (identifiés en fonction de la somme des lots) dans chacun des cas (fig. 6). Des données hydrographiques et topographiques ont servi à façonner des aménagements servant à la gestion de l’écoulement des eaux, alors que des analyses de l’ensoleillement et des obstructions du ciel ont permis de déterminer l’emplacement de plantations capables tout à la fois d’améliorer la qualité de l’air, d’amoindrir le bruit ambiant et d’absorber une partie de l’eau de pluie. Afin de rendre les sites plus vivants et mieux intégrés à leur quartier, des pièces de mobilier urbain les sillonnent.

L’ensemble des solutions est toujours loin d’être réalisé, mais il sert maintenant de point de départ pour mener des discussions avec les autorités responsables des servitudes afin de les inciter à agir dans le but d’améliorer le bilan environnemental de la ville. En intégrant au modèle des notions de règlements et de budgets publics disponibles pour l’amélioration des infrastructures s’appliquant aux sites, chacun des aménagements proposés constitue un projet réalisable. Il s’agit, à partir de ce point, d’introduire l’aménagement dans un processus plus grand de mise en œuvre qui passe par des démarches reconnues en design urbain, notamment une intégration participative de la communauté concernée par le projet.

Par ailleurs, Local Code: San Francisco Case Study est un projet pionnier de la CADG. Pour arriver à ses fins, de Monchaux a utilisé différents outils numériques appartenant à des disciplines connexes à l’architecture, comme la cartographie. Il a aussi innové en créant les outils permettant de lier les informations géospatiales de plusieurs sites au modèle. En ajoutant cette capacité de récursivité, de Monchaux a ouvert un passage, depuis une démarche de design orienté sur la performance vers un véritable processus algorithmique apte à produire des aménagements en fonction d’objectifs écologiques définis.

 

Figure 6. Un échantillon des aménagements générés par l’algorithme32.

 

À louer : tous les centres commerciaux du boulevard Taschereau (2015)

Mon travail intitulé À louer : tous les centres commerciaux du boulevard Taschereau33 s’est amorcé par une réflexion sur la place de l’espace public34 dans les banlieues. Comme l’aménagement des banlieues favorise principalement un mode de vie individualiste, il est intéressant de comprendre quels lieux, dans ce contexte, sont voués aux interactions civiques. La place publique n’est pas une typologie usitée dans la planification suburbaine américaine. Les lieux de culte ont traditionnellement rempli un rôle de lieu de rassemblement, mais avec la désaffection religieuse de la deuxième moitié du XXe siècle en Amérique du Nord, leur influence s’est étiolée sans qu’aucun véritable palliatif ne soit mis de l’avant par les autorités publiques. En revanche, le secteur privé s’est immiscé dans l’équation en proposant un espace comprenant une certaine part d’espace à caractère public : le centre commercial. Conçu à dessein comme un émule de la cité médiévale avec ses rues commerçantes intérieures et ses placettes, il est un endroit de socialisation privilégié par les personnes adolescentes et âgées. Cependant, la majorité de ces ensembles commerciaux subit aujourd’hui une perte importante d’achalandage. Ces lieux sont victimes des effets des deux principaux phénomènes qui caractérisent le développement des banlieues, soit l’expansion vers l’extérieur et l’éphémérité de l’attrait des zones construites. Avec la construction de nouveaux centres commerciaux plus grands aux limites extérieures des banlieues, les marchands ont déménagé leurs commerces dans ces nouvelles enceintes plus attrayantes, laissant les anciens centres commerciaux avec de nombreux espaces à louer.

Le boulevard Taschereau, en banlieue de Montréal, est une artère où se succèdent des centres commerciaux de dimension modeste sur un tronçon de dix kilomètres, avec quelques exceptions de plus grande envergure. Depuis une dizaine d’années, ces centres commerciaux affichent pour la plupart plusieurs locaux vacants (fig. 7).

 

Figure 7. Carte des centres commerciaux visés par le projet35.

 

Afin de mettre en place une proposition de revitalisation qui puisse s’attaquer au problème à l’échelle de tout le boulevard, la CADG a été retenue comme démarche de projet. Entre la démarche entreprise par de Monchaux et celle-ci, la problématique écologique, les objectifs de performance et la source des données diffèrent. Le projet a été entrepris sur une échelle beaucoup plus restreinte, réduisant la difficulté de produire des algorithmes capables de gérer la variation de conditions propres à chacun des sites. Il a néanmoins permis de tester le potentiel de la démarche à être utilisée dans d’autres buts que ceux envisagés par de Monchaux.

Dans le cas de À louer : tous les centres commerciaux du boulevard Taschereau, les données utilisées ont été recueillies par un relevé sur le terrain de la volumétrie des bâtiments, de leur taux d’occupation et des superficies des lots et de leur stationnement. Un modèle a ensuite été constitué afin de considérer les espaces inutilisés de chacun des sites et d’y permettre une manipulation de la volumétrie des bâtiments afin de proposer une solution répondant à des critères de performance. Puisque le projet a été réalisé par étapes, qui ont été chacune l’occasion d’élaborer un modèle plus sophistiqué, les objectifs à atteindre à chacune des étapes ont été complexifiés. Successivement, les propositions ont pris en compte les 200 000 m2 disponibles sur le boulevard afin de connaître leur rendement en termes de capture de CO2 s’ils étaient convertis en boisés (128 tonnes par année, ou l’équivalent de l’émission de 30 voitures pendant un an) ; leur rendement en production alimentaire s’ils étaient convertis en jardins communautaires (3400 tonnes annuellement) ; et leur capacité en termes de personnes logées s’ils étaient convertis en habitations dont la densité moyenne serait égale à celle de la ville de Montréal (12 000 personnes).

L’ensemble de ces propositions a par la suite été combiné en une solution plus intégrée. En effet, le choix des critères de la dernière génération de propositions a été formulé à l’aide des exemples de réaménagement suburbain tiré de l’ouvrage Retrofitting Suburbia36. Dans cet ouvrage, une densification des résidences et une transformation du lot commercial en petit village sont promus. Ce faisant, les espaces désaffectés peuvent être transformés en logements et en commerces de proximité qui auront comme clientèle principale les habitants du complexe. De plus, certains aspects de l’aménagement de la banlieue ont été intégrés, comme l’accès véhiculaire à chacun des logements, une différentiation perceptible dans la forme des propriétés de chacune des adresses et la présence d’une pelouse individuelle. Afin de mettre en forme ce programme architectural37, l’hypothèse d’une typologie de colline a été utilisée (fig. 8). En répartissant des logements enchevêtrés sur la surface bombée, une plus grande densité d’occupation du sol est atteinte. Cette colline est métaphoriquement la surface plane de la banlieue qu’on aurait densifiée en la contractant.

Pour générer la forme de la proposition, le modèle tient compte de l’orientation des façades et de la position des bâtiments existants. Il cherche à créer des vis-à-vis dans l’implantation des parties rénovées sur les bâtiments pour favoriser l’expression d’un centre habité. Dans chaque cas, l’intervention doit couvrir une superficie correspondant à la surface inutilisée des bâtiments. Il s’agit alors pour l’algorithme de générer une occurrence du modèle de la colline qui s’adapte à la forme d’implantation et qui comprenne chacun des attributs souhaités : logements, circulation véhiculaire, circulation pour piétons, terrasses vertes et structure. La position de chacun de ces bâtiments projetés est le résultat d’une négociation entre des critères d’ensoleillement, de densité, de respect de l’implantation et d’intégrité de chacun des systèmes afin que la forme finale leur assure de pouvoir remplir leurs fonctions.

 

Figure 8. Vue explosée des systèmes composant l’aménagement38.

 

Par un procédé de recherche de forme sur un petit échantillon des sites, différentes découpes de la volumétrie ont été simulées afin de générer la circulation. Une fois que le modèle a atteint un niveau satisfaisant de sophistication, 24 sites du boulevard ont été traités par l’algorithme pour lui faire générer des volumétries de collines (fig. 9) répondant aux critères de densification, de viabilité commerciale et de mode de vie suburbain présélectionnés.

 

Figure 9. 24 volumétries de collines39.

 

Les limites de la conception algorithmique par données géospatiales

Malgré ses nombreuses qualités, la CADG présente quelques limites. Dans un premier temps, la sensibilité et les connaissances du concepteur constituent des éléments importants à considérer. Sa qualité de designer et son expérience influenceront les paramètres à prendre en compte et leur hiérarchisation. Le système déployé ne repose pas sur une intelligence artificielle : la traduction des données en forme reste entre les mains du designer. Les données choisies doivent donc être pertinentes.

À ce propos, Kilian insiste particulièrement sur l’importance de comprendre clairement les moments d’abstraction et de choix arbitraires qui s’insèrent dans une démarche. Là où de Monchaux compare sans ambiguïté l’utilisation de modèles numériques à un processus naturel qui agit sur la ville « telle qu’elle est », Kilian met en garde contre une panoplie de décisions préalables qui ont pour effet de contraindre fortement l’ensemble de solutions que le modèle numérique est en mesure de fournir40 Ces décisions peuvent s’effectuer au détriment de l’atteinte des objectifs définis par le concepteur. Il évoque notamment le choix du logiciel, le type d’algorithme d’optimisation retenu, de même que la définition du problème à résoudre. En effet, pour pouvoir projeter d’améliorer une condition, l’objectif doit en premier lieu être énoncé de façon conceptuelle, puis décrit et quantifié. Certains objectifs, comme une réduction du taux de criminalité ou une meilleure appréciation d’un lieu public par ses usagers sont difficilement paramétrables dans la démarche de recherche de forme. Il s’agit alors de fonctionner par hypothèse : il est nécessaire de supposer que certains paramètres quantifiables auront l’effet qualitatif souhaité. Cette hypothèse pourra être corrigée dans le cas où le projet est réalisé et que des études permettent une rétroaction pertinente. En outre, une partie de la définition de la forme échappe à son auteur, ce qui pourrait rendre la démarche difficile à promouvoir, puisqu’un contrôle direct jusqu’aux fins détails d’une construction est généralement attendu de la part d’un concepteur. L’accent doit être mis sur l’atteinte d’objectifs qui caractérise la CADG pour rassurer les différents interlocuteurs d’un projet immobilier.

Les résultats obtenus par la démarche de conception algorithmique par données géospatiales s’apprécient d’après une logique d’ensemble, mais la réalisation d’une commande type se borne généralement à un seul site. Le designer s’en remet ainsi au pouvoir du marché immobilier, aux juridictions ainsi qu’aux programmes politiques, ce qui, d’une part, peut lui assurer une place dans la réalité du développement urbain, mais qui, d’autre part, empêche son intervention de donner lieu à une amélioration à plus grande échelle. La CADG doit permettre l’implantation d’une intention précise, traduite sous la forme d’objectifs de performance, qui oriente une démarche d’ensemble agissant de manière décentralisée sur un phénomène lui-même décentralisé, à savoir le développement suburbain nord-américain.

 

Un redéveloppement sur mesure à grande échelle

Le développement urbain en Amérique du Nord s’effectue principalement par l’accroissement du bâti autour des centres de population secondaires du territoire au détriment des zones rurales et naturelles périphériques. Son activité est mue par une pression immobilière qui ne rencontre pas d’obstacle dans son inflation à faible densité. Le coût systémique de cet étalement est évacué du calcul de rentabilité par une politique d’investissement public massif dans les infrastructures de communication, qui est en continuité avec une tradition américaine de conquête des grands espaces naturels.

Évoluant selon les forces du marché, sans planification systématique, le développement actuel se réalise plutôt par l’application souple et décentralisée de modèles typologiques qui ne requièrent que très peu d’efforts pour les adapter aux particularités locales. Dans son grand mouvement vers l’extérieur, il laisse péricliter des zones internes dont le moment de gloire est passé et la rutilance éphémère, affadie. La désoccupation de ces grandes superficies s’ajoute au gaspillage d’espaces naturels et agricoles que l’étalement urbain suscite. Cette fluidité pose une difficulté pour les designers architecturaux puisque leur démarche de conception habituelle les amène à s’attaquer en profondeur à un site en particulier et non à un ensemble de sites ou à un territoire dans son ensemble. Devant les problèmes liés au développement urbain, l’effet de leurs efforts s’apparente à celui d’une goutte d’eau dans l’océan.

Dans la conjoncture actuelle de raréfaction des ressources, incluant les superficies disponibles, il est impératif de tenter d’utiliser les parties du territoire déjà urbanisées afin de minimiser l’étalement urbain. La conception algorithmique par données géospatiales offre une avenue permettant aux concepteurs d’agir à l’échelle d’un territoire pour y opérer une rénovation écologique des zones affichant un potentiel d’amélioration. En relevant ces zones à l’aide de la cartographie numérique, puis en établissant un modèle sophistiqué capable de générer une solution pour chacun des sites identifiés selon des critères de performance environnementale, la CADG fait preuve d’une souplesse qui élargit la portée de l’effet d’une intervention sur le tissu urbain. Les projets Local Code: San Francisco Case Study et À louer : tous les centres commerciaux du boulevard Taschereau en constituent de bons exemples. Il est à souhaiter que l’attention portée à la CADG croisse et que ses possibilités soient étudiées et exploitées dans un avenir proche.

 

  • 1. A. KILIAN, Design Exploration through Bidirectional Modeling of Constraints, thèse de doctorat, Philosophy in Architecture, Design and Computation, Cambridge, Massachusetts Institute of Technology, 2006, p. 22-24.
  • 2. Cf. SHoP Architects (dir.), Versioning: Evolutionary Techniques in Architecture, Londres/New York, Wiley, 2002.
  • 3. N. de MONCHAUX, Local Code: San Francisco Case Study, Berkeley, 2009-2011. En ligne : <http://www.demonchaux.com/Local-Code-San-Francisco>.
  • 4. Idem.
  • 5. N. NORTE PINTO & A. PAIS ANTUNES, « Cellular Automata and Urban Studies: A Literature Survey », Architecture, City, and Environment, vol. 1, no 3, 2007, p. 368-399.
  • 6. Cf. J. H. FRAZER, An Evolutionary Architecture, Londres, Architectural Association, 1995.
  • 7. S. KWINTER & D. FABRICIUS, « The American City: An Archival Probe », dans R. Koolhaas et al., Mutations, Barcelone/Bordeaux, ACTAR/Arc en rêve centre d’architecture, 2000, p. 484-649 ; L. LERUP, After the City, Cambridge (MA, É.-U.), MIT Press, 2000 ; R. KOOLHAAS, Generic City, Sassenheim, Sikkens Foundation, 1995 ; R. KOOLHAAS & H. FOSTER, Junkspace / Running room, Londres, Notting Hill Editions, 2013.
  • 8. A. KILIAN, Design Exploration through Bidirectional Modeling of Constraints, op. cit.
  • 9. L. E. WHEILDON, « National housing emergency, 1946-1947 », Washington (DC), Editorial research reports 1946, vol. 11, no 2, 1946.
  • 10. Cf. R. FORTIER, Villes industrielles planifiées, Montréal, Boréal, 1996.
  • 11. S. KWINTER & D. FABRICIUS, « The American City: An Archival Probe », loc. cit.
  • 12. Ibid., p. 495.
  • 13. Ibid., p. 528.
  • 14. Ibid., p. 502, la traduction est la mienne.
  • 15. Ibid., p. 552, la traduction est la mienne.
  • 16. L. LERUP, After the City, op. cit.
  • 17. Ibid., p. 47.
  • 18. R. KOOLHAAS, Generic City, op. cit. ; R. KOOLHAAS & H. FOSTER, Junkspace / Running room, op. cit.
  • 19. F. OTTO, Occupying and Connecting: Thoughts on Territories and Spheres of Influence with Particular Reference to Human Settlement, 2e édition, texte établi par B. Burkhardt, Stuttgart/Londres, Edition Axel Menges, 2011.
  • 20. Cf. A. KILIAN, Design Exploration through Bidirectional Modeling of Constraints, op. cit.
  • 21. Ibid., p. 61.
  • 22. Ibid., p. 59-78.
  • 23. Cf. F. OTTO & J. M. SONGEL, A Conversation with Frei Otto, New York, Princeton Architectural Press, 2010.
  • 24. La « distance d’auteur » caractérise le phénomène par lequel la méthode de conception est entreprise de manière à retirer au concepteur une partie du contrôle qu’il peut avoir sur le résultat de sa démarche par le biais de mécanismes qui introduisent un élément de hasard ou une complexité telle qu’il devient difficile, voire impossible, d’en prédire intuitivement le résultat, ce qui favorise une forme de sérendipité.
  • 25. J. H. FRAZER, An Evolutionary Architecture, op. cit., p. 18.
  • 26. Amsterdam Heatmap OSM, Wikimedia Commons, 29 septembre 2012. En ligne : <https://commons.wikimedia.org/wiki/File:Amsterdam_heat_map_OSM.png>.
  • 27. N. de MONCHAUX, « Local Code: Envisioning Socially Transformative Urban Water Infrastructure Using Digital Design Methods », conférence délivrée lors du Philomathia Symposium on Water, Climate, and Society, Berkeley Energy and Climate Institute, 2013. Disponible en ligne : <https://youtu.be/oUZ-LGPA_BA>.
  • 28. Cf. M. HENSEL, A. MENGES & M. WEINSTOCK (dir.), Emergence: Morphogenetic Design Strategies, Chichester, Wiley, 2004 ; M. HENSEL, A. MENGES & M. WEINSTOCK (dir.), Techniques and Technologies in Morphogenetic Design, Chichester, Wiley, 2006 ; M. WEINSTOCK, The Architecture of Emergence: The Evolution of Form in Nature and Civilisation, Chichester, Wiley, 2010.
  • 29. N. de MONCHAUX, « San Francisco Case Study », Local Code: 3659 Proposals about Data, Design, and the Nature of Cities, New York, Princeton Architectural Press, 2016, p. 15-86.
  • 30. L’œuvre de Matta-Clark relève principalement de la performance archivistique. Elle révèle la présence de ces lots invisibles qui jonchent le territoire urbain. En parcourant les registres fonciers de la ville, qui n’étaient pas encore accessibles sous forme numérique en 1973, Matta-Clark a constaté que plusieurs de ces lots étaient à vendre. Le montage de l’œuvre, qui ne fut complété que de façon posthume en 1992, consiste en un catalogue regroupant les titres de propriétés foncières acquises par l’artiste, associés à une carte du lot correspondant et à un photomontage des lieux. Cf. G. MATTA-CLARK et al., Odd Lots: Revisiting Gordon Matta-Clark’s Fake Estates, New York, Cabinet Books, 2005.
  • 31. Imagé tirée de N. de MONCHAUX, Local Code: San Francisco Case Study, op. cit. Avec la permission de l’auteur.
  • 32. Idem.
  • 33. G. PAYANT, À louer : tous les centres commerciaux du boulevard Taschereau, Montréal, Université de Montréal, Faculté de l’aménagement, 2015. En ligne : <https://issuu.com/gabriel-arch/docs/g_payant_portfolio_web>, p. 18-25.
  • 34. L’espace public est ici défini comme une entité géographique accessible par le public, en opposition à l’espace privé. En ville, l’espace public est généralement constitué des places et des rues, où une abondance de personnes peut circuler. En banlieue, l’absence de ces places et le peu d’égard aux piétons dans la conception des rues engendrent le déplacement des activités qui y ont normalement lieu vers des espaces privés, notamment les centres commerciaux.
  • 35. G. PAYANT, À louer : tous les centres commerciaux du boulevard Taschereau, op. cit.
  • 36. E. DUNHAM-JONES & J. WILLIAMSON, Retrofitting Suburbia, Updated Edition: Urban Design Solutions for Redesigned Suburbs, Hoboken (NJ, É.-U.), Wiley, 2011.
  • 37. Le programme architectural est constitué des usages et de la superficie allouée à chacun de ces usages inclus dans l’aménagement en cours de conception.
  • 38. G. PAYANT, À louer : tous les centres commerciaux du boulevard Taschereau, op. cit.
  • 39. Ibid.
  • 40. A. KILIAN, Design Exploration through Bidirectional Modeling of Constraints, op. cit., p. 23.
Bibliographie 

DUNHAM-JONES, Ellen & June WILLIAMSON, Retrofitting Suburbia, Updated Edition: Urban Design Solutions for Redesigned Suburbs, Hoboken (NJ, É.-U.), Wiley, 2011.

FRAZER, John H., An Evolutionary Architecture, Londres, Architectural Association, 1995.

HENSEL, Michael, Achim MENGES & Michael WEINSTOCK (dir.), Emergence: Morphogenetic Design Strategies, Chichester, Wiley, 2004.

—, Techniques and Technologies in Morphogenetic Design, Chichester, Wiley, 2006.

KILIAN, Axel, Design Exploration through Bidirectional Modeling of Constraints, thèse de doctorat, Philosophy in Architecture, Design and Computation, Cambridge, Massachusetts Institute of Technology, 2006.

KOOLHAAS, Rem, Generic City, Sassenheim, Sikkens Foundation, 1995.

KOOLHAAS, Rem et al., Mutations, Barcelone/Bordeaux, ACTAR/Arc en rêve centre d’architecture, 2000.

KOOLHAAS, Rem & Hal FOSTER, Junkspace / Running room, Londres, Notting Hill Editions, 2013.

KWINTER, Sanford & Daniela FABRICIUS, « The American City: An Archival Probe », dans R. Koolhaas et al., Mutations, Barcelone/Bordeaux, ACTAR/Arc en rêve centre d’architecture, 2000, p. 484-649.

LERUP, Lars, After the City, Cambridge (MA, É.-U.), MIT Press, 2000.

MATTA-CLARK, Gordon et al., Odd Lots: Revisiting Gordon Matta-Clark’s Fake Estates, New York, Cabinet Books, 2005.

MONCHAUX, Nicholas de, Local Code: San Francisco Case Study, Berkeley, 2009-2011. En ligne : <http://www.demonchaux.com/Local-Code-San-Francisco>.

—, « Local Code: Envisioning Socially Transformative Urban Water Infrastructure Using Digital Design Methods », conférence délivrée lors du Philomathia Symposium on Water, Climate, and Society, Berkeley Energy and Climate Institute, 2013. Disponible en ligne : <https://youtu.be/oUZ-LGPA_BA>.

—, « San Francisco Case Study », Local Code: 3659 Proposals about Data, Design, and the Nature of Cities, New York, Princeton Architectural Press, 2016, p. 15-86.

NORTE PINTO, Nuno & António PAIS ANTUNES, « Cellular Automata and Urban Studies: A Literature Survey », Architecture, City, and Environment, vol. 1, no 3, 2007, p. 368-399.

OTTO, Frei, Occupying and Connecting: Thoughts on Territories and Spheres of Influence with Particular Reference to Human Settlement, 2e édition, texte établi par B. Burkhardt, Stuttgart/Londres, Edition Axel Menges, 2011.

OTTO, Frei & Juan Maria SONGEL, A Conversation with Frei Otto, New York, Princeton Architectural Press, 2010.

PAYANT, Gabriel, À louer : tous les centres commerciaux du boulevard Taschereau, Montréal, Université de Montréal, Faculté de l’aménagement, 2015. En ligne : <https://issuu.com/gabriel-arch/docs/g_payant_portfolio_web>, p. 18-25.

SHoP Architects (dir.), Versioning: Evolutionary Techniques in Architecture, Londres/New York, Wiley, 2002.

WEINSTOCK, Michael, The Architecture of Emergence: The Evolution of Form in Nature and Civilisation, Chichester, Wiley, 2010.

WHEILDON, L. E., « National housing emergency, 1946-1947 », Washington (DC), Editorial research reports 1946, vol. 11, no 2, 1946.

Pour citer cet article 

PAYANT, Gabriel, « Banlieues régénérées : la conception algorithmique par données géospatiales comme démarche architecturale permettant de favoriser un développement écologique des zones suburbaines en Amérique du Nord », Cygne noir, no 5, 2017. En ligne : <http://revuecygnenoir.org/numero/article/payant-banlieues-regenerees-cadg>.

À propos de l'auteur·e 

Gabriel Payant est récipiendaire d'un diplôme de maîtrise en architecture de l'Université de Montréal. En savoir plus sur Gabriel Payant.