extraits de la monographie

Introduction

 

 

 

Les deux problèmes fondamentaux

 

Les sciences de la vie sont aujourd’hui confrontées à deux problèmes fondamentaux. En biologie, il s’agit de celui de la définition de la vie, [1, 2, 3, 4, 5, 6, 7]Malgré un comportement manifestement différent de la matière vivante et la matière inanimée, cette différence est impossible à exprimer en termes scientifiques simples et non ambigus. En Médecine, il s’agit de celui de l’articulation corps-esprit [8, 9, 10]Malgré un pouvoir évident du sujet humain conscient sur son organisme et une intrication profonde des facteurs psychiques et somatiques dans la genèse et l’évolution des maladies, ce pouvoir et cette intrication restent scientifiquement incompréhensibles. Au cours de ma quête, il m’est apparu de plus en plus clairement que la cause de la persistance de ce double problème était d’ordre « méta-scientifique », c'est-à-dire épistémologique bien plus que strictement scientifique.

 

La Science est née et a acquis son autorité dans un monde de physiciens et de mathématiciens (Galilée, Newton, Descartes) confrontés à une matière dite inanimée. Les sciences de la matière vivante dite animée n’ont réussi à pénétrer dans le cercle des sciences dures que tardivement, en s’assujettissant aux principes de ces sciences de l’inanimé, c'est-à-dire en faisant de la biologie moléculaire leur discipline fondamentale. Elles espéraient ainsi, qu’en vertu du principe réductionniste (cfr infra A3), les interactions des biomolécules expliqueraient un jour le comportement des organismes biologiques, humains y compris. Mais aujourd’hui, malgré une connaissance exhaustive de la structure et du fonctionnement des biomolécules constitutives de la cellule procaryote (le microbe), l’unité élémentaire de matière vivante, nous restons incapables de comprendre la spécificité évidente de son comportement. Nous n’arrivons donc pas à « réduire » la complexité du comportement du tout (la cellule) à une somme ou une résultante des mouvements de ses parties (les biomolécules). Définir la vie est devenu pour de nombreux auteurs une « entreprise illusoire »  [7], une « quête impossible » [4].

 

Le terme utilisé aujourd’hui pour désigner le saut qualitatif du moléculaire au biologique ou du biologique (inconscient) à l’humain (conscient) est celui d’émergence. Ce concept doit son succès à son pouvoir métaphorique : l’image de l’eau qui sort des profondeurs de la terre ou celle de l’épave qui sort des flots quand la mer se retire. Ces images évoquent une réalité initialement invisible, non objective, qui soudain apparaît dans le champ du visible, devient objective. Le concept d’émergence  introduit donc subrepticement l’idée d’une réalité non-objective préexistant à sa matérialisation. Or cette idée est incompatible avec le principe d’objectivité et le principe réductionniste, deux des piliers du paradigme mécaniciste (cfr A3), le fondement philosophique de la démarche scientifique en biologie.

 

Le projet réductionniste me paraît en fait de plus en plus irréaliste. Les physiciens eux-mêmes n’arrivent pas à comprendre le passage du monde « étrange » des particules subatomiques au monde familier des atomes et des molécules [11]. Il faut donc se poser la question de la pertinence de leur outil – la « Science » - pour répondre aux deux problèmes qui nous occupent. N’utilisons-nous pas un télescope ou un microscope là il nous faudrait un objectif grand angle, un « macroscope » [12].

 

Les problèmes de la définition de la vie et de l’articulation psycho-somatique mettent en cause les fondements théoriques de la Science. Leur solution est dès lors effectivement « illusoire » dans le cadre strictement scientifique. Pour les résoudre, nous devons inventer un nouveau « cadre conceptuel » [6, 7, 2, 1, 13, 14] et définir très précisément les nouveaux concepts utilisés.

C’est à ce projet ambitieux de l’élaboration d’un nouveau cadre conceptuel qu’est dédié mon premier essai, « Le paradigme organiciste : esquisse d’une biologie non-réductionniste ». Ce livre-ci développe plus particulièrement les aspects épistémologiques dudit paradigme tandis que ses aspects plus scientifiques (biologie moléculaire et cellulaire) sont développés dans mon second essai, « Le mouvement de la Vie : une approche dynamique de la vie cellulaire ».

::::::::::::::::::::::::::::::::::::::::::::::::::::::

::::::::::::::::::::::::::::::::::::::::::::::::::::::::

Ch3

L’objet et le Sujet

 

 

3a : Le dualisme cartésien

Cette faillite du paradigme mécaniciste se comprend facilement en interrogeant ses origines. René Descartes, le père du Mécanicisme, rêvait de développer une philosophie de l’homme, en aucun cas de le réduire à une machine. Sa philosophie distinguait explicitement deux types de réalités, la réalité étendue (res extensa), inscrite dans les trois dimensions de l’espace et la réalité pensante (res cogitans). Mais il n’est pas arrivé à formaliser de façon convaincante l’articulation de ces deux réalités et sa postérité n’a retenu que la réalité étendue inscrite dans  des coordonnées et une logique « cartésiennes ». Le problème de cette articulation se trouve aujourd’hui réactivé dans le cadre de la philosophie de l’esprit et du problème corps-esprit [8] mais aussi dans plusieurs courants de pensée en biologie connus sous les noms de « seconde cybernétique » [24], de biosémiotique [25, 26], de cybersémiotique [27]) ou de théorie de l’autopoièse [13, 28].

 

Dès sa naissance donc, le paradigme mécaniciste s’est présenté comme l’outil de connaissance d’une seule des deux « facettes » de la réalité. La philosophie mécaniciste est une philosophie incomplète, une « philosophie de l’objet », ce qui  sous-entend dans l’esprit des philosophes, qu’elle a exclu de son champ d’intérêt la réalité du sujet, le complice philosophique traditionnel de l’objet (cfr 3a). Dans cette optique, la philosophie kantienne apparaît comme beaucoup plus profonde et éclairante que celle de Descartes [13, 29].

 

Le réductionnisme est alors non seulement une façon d’expliquer le tout par les propriétés des parties mais aussi une véritable amputation de la réalité liée à l’exclusion arbitraire d’une de ses facettes ou (cfr 4b) de ses dimensions. Le problème épistémologique à résoudre consiste alors à définir très précisément quelle facette ou dimension de la réalité a ainsi été exclue.

 

La force du paradigme mécaniciste réside dans la cohérence logique de tous ses principes, une cohérence fondée sur le cadre général, quadridimensionnel et objectif de la Science. Dans cette optique, la façon la plus radicale de changer de paradigme est de modifier son cadre conceptuel. Ce projet est exprimé très explicitement par de nombreux auteurs [2,7] mais peu de candidats s’y risquent. Ma situation de médecin clinicien, quotidiennement écartelé entre la très humaine matière première du corps vivant et une science biologique de plus en plus mécaniciste, m’a forcé à  entreprendre cette très présomptueuse aventure.

 

3b : Le cadre réductionniste

Le cadre du paradigme mécaniciste, aujourd’hui violé par la physique fondamentale mais toujours d’actualité dans les sciences biologiques reconnaît :

1- trois dimensions spatiales qui me semblent incontournables sous peine de tomber dans un solipsisme stérile.

2- une dimension temporelle qui me semble par contre très contestable. Le temps objectif de la physique newtonienne, correspond au « temps-durée (Td)». Ce temps n’est qu’une construction de l’esprit, un artifice créé par le sujet puisque le passé n’existe plus et le futur n’existe pas encore. Seul le temps présent (Tp) est réel. Cette construction est certes indispensable pour nous repérer dans notre vie quotidienne et nécessaire en Science pour rendre compte de façon objective du mouvement  des objets physiques mais fondamentalement, le temps-durée n’est pas réel, il ne « cadre » pas la réalité [30b]. La question de la réalité du temps a toujours été considérée comme mystérieuse [31, 24b]. Elle est aujourd’hui explicitement mise en question par un certain nombre de physiciens [32, 33, 34].

::::::::::::::::::::::::::::::::::::::::::::::::::::::::

::::::::::::::::::::::::::::::::::::::::::::::::::::::::::

8c : Les deux interprétations formelles

- En thermodynamique macroscopique, l’entropie absolue (S) d’un système n’est pas mesurable. Seule ses variations (dS) le sont, définies comme le rapport entre la variation de chaleur (dQ) échangée avec l’environnement et la température absolue (T) : dS = dQ/T.

Le paramètre entropie (S) est considéré comme objectif parce que la chaleur (Q) et la température absolue (T) sont deux paramètres mesurables, respectivement par un calorimètre et un thermomètre.

Mais si la température (T)  est bien un paramètre objectif décrivant l’état interne du système parce qu’il est identique à celui de son environnement où on la mesure, il n’en est pas de même du paramètre chaleur (Q) qui n’est en réalité que la partie d’énergie dite « échangée » avec l’environnement. Et cet échange modifie sa qualité (organisée / désorganisée). Ce qui est donc mesuré par le calorimètre (dQ) entourant le système n’est qu’une mesure indirecte de la transformation qui se passe à l’intérieur du système considéré. L’appareil est totalement incapable de saisir la variation de qualité (désorganisation ou l’auto-organisation) qui se fait à l’intérieur du système. Il ne peut mesurer que ses « déchets », qu’il nomme « échange » thermique. Mais si, quantitativement (énergétiquement) parlant il y a bien un échange équitable (en vertu du premier principe), il n’en est pas de même qualitativement parlant. Dans une réaction exothermique par exemple, de l’énergie de liaison chimique – forme en réalité organisée de l’énergie bien qu’elle ne soit pas considérée comme un travail (W) classique – est exportée du système sous forme de chaleur – forme désorganisée de l’énergie. Qualitativement parlant, le soi-disant échange n’est pas du tout équitable.

En fait, ce qui permet de conserver une apparence d’objectivité au concept d’entropie c’est qu’il repose exclusivement sur deux paramètres (Q et T) liés à la forme désorganisée de l’énergie. Par sa tendance à se disperser « en tous sens-D » la chaleur apparaît comme une énergie et un mouvement « dénués de tout sens-S ». L’aspect qualitatif de l’ « échange » est ainsi évacué du discours thermodynamique en utilisant deux paramètres (Q et T) dénués de toute qualité, sans aucune « dimension subjective ».

Le concept d’organisation (et donc la distinction « organisé-désorganisé ») est un concept référentiel (cfr 9b) dont le référent implicite en physique est le sujet humain. La question de la qualité, organisée ou désorganisée, de la transformation intérieure du système, c'est-à-dire ce que j’appelle la dimension subjective du mouvement de transformation,  ne concerne pas le thermodynamicien puisque pour lui, un système physique n’a pas d’intériorité*.

Ce caractère indirect de la mesure thermodynamique et ce caractère inéquitable de l’échange avec l’environnement apparaît encore plus clairement dans la reformulation que Prigogine [17] a donnée de la variation d’entropie d’un système qui s’auto-organise (dS = diS + deS). Ici, l’entropie globale du système diminue (dSsy >0) puisque le système s’auto-organise alors que le facteur diS, la « production » irrépressible d’entropie dans le système ne peut être que positive (diS>O). Le facteur « échangé » (deS) doit donc nécessairement être négatif (et supérieur au facteur diS). Mais que peut bien signifier un échange de « désorganisation (ou dispersion /délocalisation) négative » quand on sait qu’à l’intérieur cet « échange » correspond à une organisation (ou concentration/localisation) de l’énergie. En réalité, nul ne sait d’où provient cette « valeur » ajoutée au système. Evoquer l’émergence de l’ « ordre à partir du chaos » (le titre en anglais du best-seller de Prigogine) est certes poétiquement séduisant mais intellectuellement très peu satisfaisant.

 

Les deux paramètres qui définissent l’entropie (Q et T) sont bien objectifs et mesurables. Leur rapport (Q/T) est exprimé en joules / Kelvin mais en réalité comme il s’agit d’un rapport entre deux aspects différents du même phénomène énergétique (la chaleur et la température). « Il aurait été préférable d’exprimer l’entropie par un paramètre sans dimension” dit R. Balian [16]. Et c’est cette absence de dimension physique qui permet d’ignorer sa dimension subjective, et ainsi de rendre le paramètre scientifiquement acceptable.

 

Pour nous aider à saisir ce que signifie ce rapport entre quantité de chaleur « échangée » (dQ) et niveau de chaleur (T), nos manuels (et F Lambert lui-même [62]) utilisent généralement l’image du cri (dQ) poussé par un individu dans le silence (T basse) d’une bibliothèque. Le rapport dQ/T est alors comparé à la valeur de nuisance de ce cri du point de vue d’un lecteur assis dans la bibliothèque. Ce même cri (dQ), s’il était poussé dans le hall d’une gare à une heure d’affluence (T élevée) passerait inaperçu aux voyageurs, n’aurait aucune valeur de nuisance de leur point de vue. Donc, dans cette image, ce qui est mesuré, ou plus précisément évalué, n’est valide que du point de vue d’un sujet situé à l’intérieur de la bibliothèque ou du hall de gare[1], ce qui est un point de vue contraire au principe d’objectivité. Fr Lambert dit explicitement que « dS ne mesure pas seulement la dispersion de l’énergie, il nous montre l’importance que revêt pour un système cette dispersion de l’énergie à une température bien particulière » [62]. Cette problématique du point de vue (intérieur ou extérieur) dans l’interprétation du second Principe a d’ailleurs été soulignée par plusieurs auteurs [65, 66].

 

En thermodynamique microscopique, la chaleur (Q) est interprétée comme un état d’agitation thermique des molécules et l’entropie (S) comme une fonction directe de W, le nombre de micro-états équivalents accessibles au système : S = kB ln W.

 

Cette approche utilise le calcul statistique, d’où son nom de « thermodynamique statistique ». Or les propositions statistiques n’ont toutes qu’une objectivité faible (Bernard d’Espagnat [67]). Effectivement elles ne décrivent pas la réalité elle-même mais une interprétation réductrice de celle-ci. La statistique réduit la diversité et la complexité des micro-mouvements à une somme de micro-états équivalents et c’est cette équivalence qui permet de traiter mathématiquement le paramètre entropie. Or, le terme équivalence sous-entend une échelle de valeurs. C’est un « concept référentiel ». Il n’est en réalité valide que du point de vue du référent privilégié de la Science, le sujet humain, être macroscopique. Le point de vue qu’a un système microscopique, une micelle (cfr 9b) ou une cellule par exemple, sur l’agitation thermique environnante est tout à fait différent du nôtre. Pour eux, chacun des micromouvements moléculaires individuels a un sens-D précis qui peut prendre un sens-S précis dans le cadre de sa finalité homéostatique (cfr 9b) de système microscopique. Ces mouvements ne sont pas, du point de vue de ces systèmes microscopiques, « équivalents ». C’est toute la problématique soulevée par le Démon de Maxwell, cet être imaginaire qui parvient à inverser le sens spontané du processus entropique. Pour ce faire, il doit sélectionner certaines molécules de gaz en fonction de leur vitesse individuelle. Or le concept de sélection est un concept référentiel puisque tout travail de sélection implique nécessairement une échelle de valeur (ici la vitesse des molécules) qui est nécessairement relative à une certaine finalité (ici séparer les molécules rapides des molécules lentes). C’est donc parce que la chaleur (en thermodynamique macroscopique) est considérée comme une forme dégradée (insensée-S) de l’énergie et l’agitation thermique (en thermodynamique microscopique) comme un ensemble de micro-mouvements équivalents que l’entropie peut faire l’économie de sa (réelle) dimension subjective.

::::::::::::::::::::::::::::::::::::::::::::::::::::::

::::::::::::::::::::::::::::::::::::::::::::::::::::::

Ch 10 

L’information

 

 

Le troisième concept dont l’ambiguïté se trouve levée par l’introduction d’une dimension subjective est celui d’information. Ce concept omniprésent dans le discours scientifique est particulièrement indispensable dans la description des processus fondamentaux de la biologie cellulaire [85].

 

10a : Ambiguïté du concept

Dans le cadre mécaniciste, ce concept  résiste à toutes nos tentatives de le définir objectivement [18, 19, 85, 86]. Dans le paradigme organiciste, par contre, il trouve une place légitime en tant que concept référentiel. Il a une facette objective incontestable, un support physique, ce que je nommerai ici le « signal » de l’information. Mais il a aussi une inextricable facette subjective, sa signification (Sens-S), une qualité qui n’est valide que relativement à un référent. Un même signal objectif peut donc correspondre, d’un certain point de vue  à une information sensée et d’un autre point de vue à un signal aléatoire, c’est à dire dénué de tout sens-S.

 

10b : La théorie de l’information

Shannon a développé une théorie de la communication connue sous le nom de « théorie de l’information ». En fait cette théorie n’est qu’une théorie du signal parce qu’elle ne s’intéresse aucunement, de l’avis même de son auteur, à la signification des signaux transmis. Le contenu des messages véhiculés est objectif, mesuré très précisément en bits, l’unité élémentaire de l’information-signal. Les nombreuses tentatives faites pour mesurer le contenu significatif du message [18] ont jusqu’à présent toutes échoué pour des raisons qu’il est facile de comprendre dans le cadre du paradigme organiciste.

 

10c : Information et entropie

Le concept d’information est étroitement lié à celui d’entropie. Boltzmann, le père de la thermodynamique microscopique, notait déjà que l’entropie est une mesure de notre ignorance – c'est-à-dire de notre manque d’information - des détails microscopiques du système [18]. Shannon, en introduisant le même terme d’ « entropie (H) » dans sa théorie de l’information a créé plus de la confusion que de la compréhension concernant ce lien [18]. Par contre, l’interprétation que Brillouin a proposée du paradoxe du Démon de Maxwell [86] a permis de saisir plus précisément le « coût » physique de cette intervention imaginaire d’un Démon.

Mais c’est à mon sens la reconnaissance du caractère subjectif du processus entropique dans le paradigme organiciste qui permet le mieux de comprendre de façon simple sa relation étroite avec le concept d’information, par le biais de la reconnaissance de sa facette subjective. C’est toujours un référent subjectif qui « donne sens-S » à un signal et le transforme en une information sensée-S (pour lui). L’information n’est jamais « contenue dans » le signal physique qui lui sert de support. De même, la variation d’entropie (dS) n’est pas « contenue » dans le système qui se transforme. Elle n’est que l’expression du sens, de la valeur, que prend la variation de chaleur (dQ) dans un certain contexte d’agitation thermique ambiante (T) pour un « observateur » intérieur, c'est-à-dire pour un référent subjectif.

 



[1]  https://www.secondlaw.com/six.html