Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

La philosophie des sciences

Arno Penzias et Robert Wilson devant l'antenne de Holmdel. Document Roger Ressmeyer/CORBIS.

Clivage entre théorie et pratique (II)

Penchons-nous sur ce qui incite certains auteurs à écrire que "l'expérimentateur prépare la tâche du théoricien ou l'ingénieur civil mâche le travail de l'ingénieur industriel". Ces affirmations sont fausses. Karl Popper[2] écrivait que "les résultats d'observations sont des interprétations faites à la lumière des théories. […] C'est le théoricien qui formule la question et qui montre de la façon la plus précise quelle voie doit suivre l'expérimentateur."

Et lorsque l'expérience devance la théorie me direz-vous, n'est-ce pas fournir au théoricien une nouvelle base inductive ? Pas nécessairement. Il y a deux cas de figures : soit l'expérience falsifie une théorie jusque là corroborée (par exemple l'expérience de Planck sur le rayonnement du corps noir); le test est prévu par la théorie, soit la découverte est fortuite et corrige de fait l'opinion scientifique.

Pour un partisan de la logique inductive cependant, il n'existe pas de liaison entre théorie et expérience. Il considère que les théories sont une suite de coïncidences, d'énoncés accidentels.

Mais il existe bel et bien une rupture entre praticiens et théoriciens. L'exemple de la découverte du rayonnement cosmologique à 2.7 K en 1965 est significatif. Les théoriciens estimaient la détection de ce rayonnement impossible, sur base d'articles mal interprétés ou d'essais préliminaires. Ils sous-estimaient en général les résultats mathématiques et abandonnèrent l'idée. Les praticiens n'ont pas tous eu connaissance des travaux théoriques. Les publications se comptent par milliers et quelques pages peuvent facilement être oubliées. La théorie devait également être prise au sérieux, tant du point de vue moral que de sa démonstration.

Pendant la première moitié du XXe siècle, on pouvait compter sur les doigts d'une main les physiciens qui croyaient l'univers né d'une explosion primordiale. Malgré des notions peu familières, hors de la physique ordinaire, les théoriciens devaient considérer leurs équations comme liées au monde réel. Pendant 20 ans, aucun programme expérimental ne fut axé sur la détection de ce rayonnement. Il fallut attendre le milieu des années 1960 pour que les ingénieurs A.Penzias et R.Wilson le découvrent fortuitement en recherchant des parasites radioélectriques !

Le clivage entre science expérimentale et théorique s'est fortement implanté en physique. Nombreux sont les physiciens passionnés par les arts (Herschel, Lord Rosse, Kelvin, Einstein étaient de grands musiciens) mais peu de praticiens sont passionnés par la musique. Nous y reviendrons lorsque nous discuterons de la relation qui existe entre la Science et les Arts.

L'historien des sciences Lewis Pyenson considère que cette distinction représente une réelle différence dans la façon dont chaque groupe de scientifiques conçoit les problèmes. Le théoricien considère son problème phénoménologique comme établi. Il analyse donc le phénomène par le biais de tout l'arsenal de règles mathématiques dont il dispose. En revanche, le praticien transforme son problème de façon à l'adapter à l'outil mathématique dont il dispose. Mais il sera toujours en retard sur le théoricien car ce n'est que très rarement qu'il peut inventer l'outil dont il rêve.

Petits et grands instruments de la science. A gauche, le prix Nobel de Physique 1992 Georges Charpak présentant la chambre proportionnelle à multifils qu'il inventa pour détecter certains types de particules. A droite, le détecteur de neutrinos Kamiokande en cours d'achèvement en 1983. Documents D.Parker/Science Photo Lab. et Université de Tokyo.

La vie des physiciens praticiens comme les célèbres Nobel Simon Van der Meert ou Georges Charpak du CERN est exemplaire à ce sujet. Leurs moyens d'investigation sont plus limités que ceux mis à la disposition du théoricien. Ils doivent en fait construire des instruments qui s'adaptent aux propriétés des particules existantes, qu'il s'agisse d'un accélérateur de particules ou d'une chambre à fils, sans se préoccuper des spéculations, affaires de théoriciens.

Le satellite COBE qui mesura les fluctuations du rayonnement fossile est un autre exemple. Les cosmologistes prédisaient l'existence de légères fluctuations dans le rayonnement du corps noir à 2.7 K, rides qui devaient expliquer les grandes structures extragalactiques. Vu son coût, COBE fut expédié dans l'espace parce qu'il avait de bonnes chances d'étayer les théories en cours. Il ne serait jamais venu à son commanditaire l'idée de l'envoyer pour cartographier une utopie, sauf peut-être si son collègue praticien lui présentait un détecteur chimérique ! la façon d'aborder un problème est le principal clivage entre ces deux groupes de chercheurs. Il persistera encore longtemps, tant qu'il évoquera des conditions psychologiques.

Francis Bacon

Cette dichotomie peut être mise en évidence dès l'Antiquité. Dans la Grèce Antique, Athènes était le siège de la science, de la réflexion, tandis que tout l'aspect technique représentait un fardeau hérité des dieux. A Rome, nous assistons à l'érection d'une cité technique, faisant peu de cas des innovations scientifiques. L'épanouissement des arts et des techniques s'étendit ensuite du Moyen-Age à la Renaissance jusqu'à ce que la révolution scientifique que l'on connut à la fin du XIXe siècle vienne stopper son élan. Comme le disaient les bâtisseurs de cathédrales , "l'art sans la science n'est rien".

Contrairement aux idées radicales enseignées par Francis Bacon[3], nous pouvons également expliquer cette différenciation sur base de contraintes socio-économiques qui ont empêché la fusion de la science et de la technique, la première relevant de la culture, la seconde des arts jusqu'aux alentours de 1840-1870, époque à laquelle on assista à l'épanouissement de la révolution scientifique en Occident.

Le point de vue unitaire de la science dépeint par Bacon et repris par ses successeurs est acceptable si on considère que l'étude de la thermodynamique, de la mécanique, de l'électricité ou de la chimie permit aux chercheurs de partager leurs connaissances, dressant des ponts entre spécialités jugées incompatibles. Mais les clivages ont subsisté.

Quelquefois les praticiens ont devancé le travail des théoriciens. Les problèmes qu'ils se posaient étaient déjà résolus par les ingénieurs avant qu'ils aient eu le temps d'en cerner l'étude ! Thomas Kuhn[4] cite le cas des viticulteurs par exemple qui inventèrent la barrique bien avant les travaux de Kepler ou des mécaniciens qui comprirent les propriétés du moteur à vapeur avant la diffusion de la théorie de Carnot.

Plus près de nous, l'intelligence artificielle n'a pas été épargnée non plus. Les programmeurs en IA des années '60 ont dû attendre plus de 10 ans pour enfin disposer de matériel adapté à leurs besoins. La capacité mémoire des ordinateurs, l'espace disque disponible et la vitesse de traitement sont aujourd'hui encore montrés du doigt dans certains domaines touchant à l'imagerie ou la modélisation. Une génération a presque été sacrifiée avant que les chercheurs en IA puissent s'attaquer à la problématique de la syntaxe des concepts et aux systèmes experts !

La chimie organique également a la fâcheuse réputation de suivre ce courant historique. Le caoutchouc par exemple, qui est utilisé dans l'industrie fut mis au point en 1849 par Charles Goodyear alors qu'il ne connaissait pas les propriétés des molécules à longues chaînes. Combien de processus les photographes n'ont-ils pas inventés pour améliorer la qualité et la sensibilité des émulsions : préflashage, hypersensibilisation, bain de développement spécifique, etc. Ce n'est que bien des années plus tard que les industriels mirent sur le marché des émulsions correspondant à leurs besoins et des révélateurs dopés.

Ailleurs le théoricien trouve son intuition dans la réalité. Ainsi, c'est l'étude des ondes de chaleur et de l'optique qui permit à Fourier de définir ses séries trigonométriques, l'étude des mouvements turbulents aboutit à la théorie du chaos et au concept d'attracteur étrange de Lorentz et c'est la mesure de la distribution de la matière dans les galaxies qui vit le développement des nouvelles théories cosmologiques.

Bien souvent la situation inverse se produit : la théorie devance la découverte. Nous pouvons citer les études du Grec Apollonius sur les coniques, la géométrie non euclidienne de Riemann, la théorie des groupes de Cartan et Lie, les variétés complexes du groupe de Bourbaki, autant de concepts purs parfois très anciens dont la formulation mathématique a permis de découvrir les principales théoriques de la physique contemporaine.

Citons également la théorie de l'électron qui fut inventée pour expliquer les propriétés électriques des gaz, le neutrino qui fut imaginé sur papier pour expliquer le bilan énergétique de certaines réactions nucléaires bien avant que les physiciens ne le découvre et les bosons de Higgs qui manquent encore à l'appel mais qui doivent exister pour valider les théories de symétries…

Les innovations technologiques ont un rôle socio-économique évident. La fabrication de nouveaux matériaux par exemple passe obligatoirement par la physique quantique. C'est ainsi que l'étude des propriétés des corps solides et des matériaux dopés a permis d'inventer le transistor, les puces électroniques et de développer l'informatique. Le produit fini, ces innovations se sont développées indépendamment de l'entreprise intellectuelle de la science.

Etudiants en Fac. Document FUNDP.

Aujourd'hui encore cette phase théorique durant laquelle les physiciens et les chimistes accumulent des heures de temps de processeurs[5] et des kilomètres de calcul reste insuffisante. L'inventeur, qu'il soit industriel ou enseignant ne peut pas réellement innover s'il ne conçoit la science qu'à travers ses règles et ses principes. Un théorème n'explique pas tous les phénomènes et écarte bien souvent l'élève comme le chercheur de la réalité.

Cela commence en effet sur les bancs d'école. Combien d'entre nous n'ont pas été rebuté par un cours de physique, de chimie ou de mécanique trop abstrait. Heureusement aujourd'hui le cursus académique n'est plus celui des années 1960 : les professeurs ont le soucis de redonner une dimension naturelle aux sciences, épaulant les cours théoriques par des travaux pratiques indispensables pour "sentir les choses" et équilibrer les cours.

Des travaux pratiques (TP), des simulations, des bancs d'essais, des modèles tridimensionnels, des dissections, des expériences sur le terrain, des stages professionnels ou simplement des exercices sont autant de manière de visualiser la théorie. A terme, cet équilibre est profitable. Les chercheurs seront plus impliqués dans la société, plus habiles de leurs mains, et capables de faire "vivre" des notions fondamentales que les jeunes ont parfois du mal à saisir. Ce défi est important car il ouvre l'esprit des jeunes aux sciences.

L'enseignement ne peut plus disqualifier les sciences "molles", les TP, aux profits des sciences "dures", mathématiques. Théories et pratiques, math et géo, chimie et bio doivent se concevoir sur un pied d'égalité.

Tempérons toutefois notre optimisme car l'histoire des sciences nous prouve que la dichotomie entre science et technique est bien incrustée dans nos mentalités. A ce jour, aucune société n'a pu faire progresser de concert les deux entreprises.

Prochain chapitre

Logique des pseudosciences

Page 1 - 2 - 3 - 4 -


[2] K.Popper, "La logique de la découverte scientifique", Payot, 1973, 30, p107.

[3] Avocat anglais (1561-1626), garde du Grand Sceau et écrivain, Lord Bacon publia en 1620 "Nova Organum", livre dans lequel figure les premières idées concernant l'épistémologie moderne. Il publia également "Sylva Sylvarum" en 1627. A ne pas confondre avec son homonyme Roger Bacon qui naquit au XIIIe siècle et inventeur du terme "scientia experimentalis" sur lequel nous reviendrons.

[4] T.Kuhn, "La tension essentielle, tradition et changement dans les sciences", NRF-Gallimard, 1990.

[5] L'utilisateur qui veut utiliser la puissance d'un super-ordinateur loue en général ces services informatiques à un centre de calcul public. Il payera uniquement les ressources du système mises à sa disposition, le temps de calcul des processeurs (calculés en nano ou microsecondes) et la mémoire de masse (l'espace occupé sur les disques durs) d'où l'usage de cette expression.


Back to:

HOME

Copyright & FAQ