Aller au contenu

Crise des fondements

Un article de Wikipédia, l'encyclopédie libre.

La crise des fondements des mathématiques, qui a marqué la discipline au tournant du XXe siècle, est l'aboutissement des tentatives d'asseoir la théorie des ensembles, et par là, l'arithmétique et les mathématiques, sur des bases non contradictoires. Les solutions concurrentes proposées s'achèvent sur une impasse.

Contexte : L'analyse en difficulté

[modifier | modifier le code]
Lejeune-Dirichlet montre qu'une somme de fonctions continues et infiniment dérivables peut converger vers une fonction multiplement discontinue (1829).

Le début du XIXe siècle avait été marqué par la recherche d'une axiomatique réduite de la géométrie euclidienne : G. Saccheri puis A.-M. Legendre avaient tenté, en vain, de déduire le cinquième postulat (dit postulat des parallèles) des quatre autres postulats en raisonnant par l'absurde. Puis Gauss, Bolyai (1832) et Lobatchevski (1839), en adoptant un postulat différent, avaient formé un système d'énoncés géométriques non-contradictoires : les géométries non euclidiennes[1].

Toutefois, ces découvertes ne provoquèrent pas véritablement de remise en cause de la démarche hypothético-déductive en mathématiques, dans la mesure où, comme le montrèrent Gauss puis Riemann, la géométrie des surfaces à courbure constante formait un modèle de géométrie non euclidienne.

La courbe de Peano (1890) est une ligne continue qui recouvre un carré.

Mais au même moment, de nouvelles difficultés apparaissaient. Jusque-là, les courbes planes que l'on considérait en géométrie analytique étaient des courbes définies par une équation reliant les coordonnées de leurs points : F était une fonction supposée implicitement dérivable. Il était admis qu'une courbe était un lacet continu dépourvu de point anguleux : en chacun de leurs points, ces courbes n'avaient qu'une seule tangente[2]. Or, en cherchant à donner une définition logique de ce qu'est une fonction continue, Bolzano avait formé vers 1830 une courbe continue possédant une infinité de points anguleux[2] (donc une infinité de points où elle n'est pas dérivable).

D'autre part, dans la continuité des recherches de Fourier en analyse harmonique, Dirichlet et Riemann montrèrent qu'une somme infinie de sinusoïdes peut converger vers une fonction localement discontinue. Vingt ans plus tard, Weierstrass fit connaître une fonction continue et nulle part dérivable. À son tour, Peano donna la définition récursive d'une courbe continue passant par tous les points intérieurs d'un carré (remplissant le carré[3]).

Ces exemples montraient la distance entre l'intuition géométrique que l'on peut avoir de certaines figures, et les figures qu'autorisent des axiomes d'apparence évidente. L'adoption d'un axiome n'est donc pas nécessairement conditionnée par sa conformité avec notre intuition, mais d'abord par le fait qu'il n'est pas contradictoire avec d'autres axiomes.

Les fondements de l'arithmétique

[modifier | modifier le code]

Au début des années 1870, le mathématicien allemand Georg Cantor recherche les conditions sur les coefficients de Fourier et tels que la somme converge vers une fonction partout nulle : il trouve qu'il suffit que soit nulle sauf en certains points isolés, pour pouvoir conclure que tous les coefficients sont nuls. L'étude de la répartition de ces ensembles de point isolés de l'amène à comparer ces ensembles, qui peuvent compter une infinité de points[4].

Après sa rencontre avec Dedekind (1872), lui aussi préoccupé par la rigueur logique des principes de l'analyse mathématique, il montre par un argument célèbre qu'il y a « autant » de fractions rationnelles que d'entiers, c'est-à-dire que l'on peut numéroter toutes les fractions. Deux ans plus tard, il établit, par les raisonnements admis de l'analyse (en particulier le théorème des segments emboîtés), qu'il n'y a en revanche pas de bijection entre les fractions rationnelles et les nombres réels[5], c'est-à-dire que l'ensemble des rationnels est strictement inclus dans l'ensemble des nombres réels. Par là, il montrait la nécessité de distinguer dans les raisonnements plusieurs « infinis », irréductibles les uns aux autres ; autrement dit, que bon nombre de paradoxes mathématiques passés venaient d'une conception simpliste (moniste) de la notion d'infini.

Dedekind, de son côté, venait de publier une monographie où il s'attachait à définir les nombres irrationnels, sans toutefois ressentir la nécessité de définir axiomatiquement les nombres entiers. C'est en tâchant de fonder en logique le raisonnement par récurrence (qu'il utilise pour définir les quantités irrationnelles), qu'il en vient à donner une définition des ensembles infinis dont les éléments peuvent être numérotés un par un. Son mémoire, qui ne sera publié qu'en 1888, inspira l'année suivante à Peano sa définition axiomatique des nombres entiers[6].

En 1879, Frege énonce trois caractéristiques qu'une théorie mathématique devrait avoir :

  1. cohérence : impossibilité de démontrer une proposition et son contraire ;
  2. complétude : pour tout énoncé, ou bien il est démontrable, ou bien son opposé est démontrable à l'intérieur de la théorie ;
  3. décidabilité : il existe une procédure de décision permettant de tester tout énoncé de la théorie.

En 1893, dans un essai intitulé Lois fondamentales de l'arithmétique (Die Grundgesetze der Arithmetik), il tente de formaliser la définition des entiers naturels. Dans l’axiomatique qu'il propose apparaît notamment la définition des ensembles par abstraction :

  • Pour toute propriété, il existe un ensemble dont les éléments sont tous les éléments possédant cette propriété.

Or, quelques années plus tard (1900), un jeune étudiant anglais, Russell, signale que cet axiome autorise l'existence d'un ensemble paradoxal[7],[8] : « l'ensemble de tous les ensembles qui ne sont pas inclus dans eux-mêmes. »

Quelles opérations pour les ensembles infinis?

[modifier | modifier le code]

Dedekind et Peano n'avaient, eux, pas donné de définition très précise de la notion d'ensemble qu'ils utilisaient ; toutefois, à l'examen de leurs démonstrations, il est clair qu'ils ont utilisé implicitement les trois règles suivantes[7] :

  1. Axiome d'extensionalité. — Deux ensembles sont identiques s'ils ont exactement les mêmes éléments.
  2. Axiome d'abstraction. — Pour toute propriété, il existe un ensemble dont les éléments sont tous les éléments possédant cette propriété.
  3. Axiome du choix. — Étant données des suites d'éléments d'un ensemble, il est possible de sélectionner un élément de chacune de ces suites pour former une nouvelle suite.

Les difficultés de l'analyse paraissaient finalement venir de l'extension aux ensembles infinis des opérations (réunion, intersection, inclusion) et raisonnements courants avec les ensembles finis.

Jusque-là, la logique était depuis Aristote considérée comme une branche de la philosophie, avec ses sorites et syllogismes. L'enseignement de la logique reposait sur l'idée que toutes les propositions vraies découlaient de l'utilisation de règles précises à partir de prémisses vraies. Par une notation abstraite de ces règles, Boole (1847) avait jeté les bases d'une algèbre logique[9], et simultanément De Morgan avait publié ses lois[10] : la logique propositionnelle devenait une branche à part entière de l'algèbre.

Mais le paradoxe de Russell montrait qu'en admettant l'axiome naïf d'abstraction, on accordait trop ; si donc on voulait conserver les opérations de la logique, cet axiome devait être remplacé par quelque chose de plus subtil.

Une des premières solutions a été proposée par Ernst Zermelo : le schéma d'axiomes de compréhension (Aussonderung Axiom, 1908). Le principe est de n'autoriser la définition d'un « ensemble d'éléments ayant une propriété commune », que si ces éléments appartiennent eux-mêmes à un ensemble. Plus généralement, Zermelo pensait que pour fonder les raisonnements, il convenait de traiter les ensembles eux-mêmes comme des objets mathématiques[11]. L'axiomatique proposée par Zermelo, qui a notamment mis en relief l'axiome du choix, éliminait le paradoxe de Russell, tout en permettant de définir les nombres comme l'avait fait Peano. Il n'était toutefois pas clair que cette nouvelle axiomatique était en elle-même non-contradictoire, ou exempte de paradoxes à venir.

Logique mathématique et indécidabilité

[modifier | modifier le code]

David Hilbert se propose en 1898 de poursuivre le projet de Dedekind et Peano : fonder l'arithmétique et les nombres en logique par un système d'axiomes non-contradictoires. Il précise son projet en 1922 en posant l’Entscheidungsproblem (problème de la décidabilité). Il demande s'il existe une procédure (un algorithme) permettant de vérifier si une expression formelle peut se déduire d'un système d'axiomes donnés. Cela aboutit en 1928 à un programme de recherche qui s'articule autour des trois questions énoncées par G. Frege : les mathématiques sont-elles complètes, cohérentes, et décidables ?

Trois écoles se forment au début du XXe siècle pour tenter de formaliser la logique et la métamathématique :

Russell et Whitehead, s'appuyant sur la logique et plusieurs axiomes, tentent de construire de façon cohérente les mathématiques. Leur travail, complexe et incomplet, culmine avec Principia Mathematica (1910-1913).

Kurt Gödel avec ses théorèmes d'incomplétude (1931) a démontré que dès qu'une théorie est assez riche pour rendre compte de l'arithmétique, elle ne peut à la fois être complète, décidable et cohérente.

Son théorème d'incomplétude montre qu'il n'est pas possible, par les procédés de la logique mathématique, d'établir que les axiomes de Zermelo (qui permettent de fonder l'arithmétique de Peano) ne sont pas contradictoires. Cette situation d'incertitude a déclenché la crise des fondements des mathématiques. Crise qui atteint donc son paroxysme avec la sortie des théorèmes de Gödel.

Réactions à la crise des fondements

[modifier | modifier le code]

Cette situation compromettait la cohérence même des mathématiques et la laissait sous la menace du principe d'explosion. Les réactions des mathématiciens se rangent en trois courants de pensée[12] :

Notes et références

[modifier | modifier le code]
  1. A. Dahan-Dalmedico et J. Peiffer, Une histoire des mathématiques : Routes et dédales, [détail des éditions], chap. 4 « Figures, espaces et géométries », § 11
  2. a et b Jean Dieudonné, Pour l'honneur de l'esprit humain, Hachette, coll. « Pluriel », (réimpr. 1988) (ISBN 9782010140006), « VI. Problèmes et pseudo-problèmes des fondements,section 2. L'approfondissement de la notion de nombre ».
  3. B. Mandelbrot, Les objets fractals : Forme, hasard et dimension, Gallimard, coll. « Champs sciences », (réimpr. 1984,1989,1995) (ISBN 9782081246171), « 2.Combien mesure donc la côte de Bretagne? », p. 40-41
  4. A. Dahan-Dalmedico et J. Peiffer, Une histoire des mathématiques : Routes et dédales, [détail des éditions], chap. 6 « Le concept de fonction et le développement de l'analyse », § 18.
  5. « Sur une propriété du système de tous les nombres algébriques réels », Acta Math., vol. 2,‎ , p. 305-310 (lire en ligne)).
  6. Dieudonné 1987, Les paradoxes de la formalisation, p. 237.
  7. a et b P. Suppes, Axiomatic set theory, D. van Nostrand, (ISBN 0486616304), « Introduction »
  8. Dieudonné 1987.
  9. (en) G. Boole, The Mathematical Analysis of Logic : Being an Essay Towards a Calculus of Deductive Reasoning, (lire en ligne)
  10. (en) Victor J. Montemayor, « DeMorgan’s Theorems », sur Middle Tennessee State University.
  11. Dieudonné 1987, p. 236.
  12. Dieudonné 1987, Les réactions des mathématiciens, p. 244.

Bibliographie

[modifier | modifier le code]
  • Jean Ladrière, Les limitations internes des formalismes. Étude sur la signification du théorème de Gödel et des théorèmes apparentés dans la théorie des fondements des mathématiques, ed.Nauwelaerts-Gauthier-Villars, Leuven-Paris, 1957; réed. éd. J. Gabay, coll "les grands classiques", Paris 1992
  • François Rivenc et Philippe de Rouillan, Logique et fondements des mathématiques (1850-1914). Anthologie, Payot, 1992. Recueil de textes.

Articles connexes

[modifier | modifier le code]