1Ce
travail vise à faire l’état de l’art des études sémiotiques sur un sujet
de recherches, l’image scientifique, qui a vu naître un intérêt
renouvelé dans le domaine de la sémiotique francophone grâce à un
programme de recherche de l’Agence Nationale de la Recherche française
(A.N.R.) intitulé « Images et dispositifs de visualisation
scientifique » (IDiViS) coordonné par Anne Beyaert-Geslin du Centre
des Recherches Sémiotiques (CeReS) de l’Université de Limoges. Ce
programme triennal (2008–2010) arrive à présent à son terme, mais les
enjeux des recherches menées dans ce cadre et concernant le
développement de la discipline dépassent le caractère limité dans le
temps de cet engagement institutionnel. Les études et les échanges entre
l’université de Limoges, les universités de Strasbourg, Liège et
Venise, co-coordinatrices du programme, ouvrent à notre sens des
nouvelles perspectives pour les études sémiotiques, ces recherches ayant
le mérite non seulement de revenir sur des sujets de discussion qui
sont fondamentaux pour toutes les approches sémiotiques (le rapport à la
référence et l’analyse de la genèse du plan de l’expression des textes,
par exemple) mais aussi de permettre des rencontres, plus ou moins
locales, entre des traditions sémiotiques différentes, comme celles de
Charles Sanders Peirce, de l’École de Paris et du Groupe µ. Nous
aimerions donc à cette occasion faire le point sur certaines questions
qui nous apparaissent comme décisives vis-à-vis du futur de la
discipline sémiotique. Elles sont quatre, et nous les exposerons en
quatre sections distinctes :
-
la relation entre l’image et ses
techniques de production, qui engendre une réflexion sur le statut de la
référence scientifique ;
-
le rapport entre l’image et la
mathématisation, qui nous permettra de traiter la question du diagramme
et du raisonnement diagrammatique ;
-
le rapport entre « l’image
en train de se faire » en laboratoire et l’image sélectionnée par
la littérature scientifique (« l’image faite »), qui engendre
une réflexion sur les genres discursifs de la littérature scientifique,
et notamment sur le rapport entre articles de recherche pour les revues
spécialisées et ouvrages de vulgarisation ;
-
enfin, la prise en compte des
différents genres discursifs de la production scientifique nous amènera à
quelques considérations sur le rapport entre vulgarisation et domaine
de l’art.
- 1 Voir à ce propos Groupe µ (1992).
- 2 Sur la théorie de l’énonciation dans la théorie greimassienne en tant que théorie de l’énonciation (...)
- 3 Il faut remarquer aussi que la réflexion de Fontanille sur la question d’un parcours génératif de l (...)
- 4 Pour plus de détails sur cette proposition voir Bordron (2006) où l’auteur rapproche le moment phén (...)
2La
première problématique qui nous semble pertinente pour aborder le
domaine de l’image scientifique est celle du rapport entre l’image et
ses pratiques de production. Comme il est couramment admis, la
sémiotique de Peirce et la sémiotique du Groupe µ ont toujours prêté une
attention considérable à l’acte de production des énoncés, et notamment
aux techniques d’instanciation : le Groupe µ l’a fait à
partir de la théorie de la transformation d’un côté et de la texture de
l’autre1 ;
la théorie peircienne est dans son ensemble, pourrions-nous dire, une
théorie de l’instanciation, notamment à travers les notions
d’indicialité et d’objet immédiat. Au contraire, la sémiotique de
l’École de Paris a laissé pour longtemps l’analyse de l’acte
d’énonciation de côté, en préférant l’analyse formelle des énoncés
eux-mêmes2,
surtout dans le cas de la peinture et des objets artistiques. Cela
s’explique par les choix faits par le chef de file de l’École de Paris,
A.J. Greimas qui, en théorisant le parcours génératif du sens, l’a
limité au contenu, ce qui a retardé pour longtemps la théorisation d’un
parcours génératif de l’expression. Une proposition systématique à ce
sujet n’a vu le jour qu’avec l’ouvrage Pratiques sémiotiques de Jacques Fontanille en 2008, qui recueille des réflexions qui datent déjà de 20043.
Les travaux de Jean-François Bordron présentent, depuis au moins une
quinzaine d’années, des propositions pour analyser le parcours génératif
de l’expression. Ces propositions sont à la fois fidèles aux fondements
hjelmsleviens de la transformation de la matière en la forme à travers
un parcours par la substanciation, et ancrées dans la phanéroscopie
peircienne4.
Cette théorisation ne peut donc être entièrement comprise comme un
développement « pur » de la théorie greimassienne mais ces
travaux, consacrés à une phénoménologie de l’instanciation du plan de
l’expression, nous donnent un aperçu important d’une orientation de
recherches visant à construire des commensurabilités entre la tradition
peircienne et les avancements de la sémiotique hjelmslevienne. Ces
travaux ainsi que ceux de Fontanille, consacrés aux techniques de
production dans le cadre de la visualisation scientifique, ont
visiblement ouvert un nouveau terrain de l’investigation sémiotique
européenne.
- 5 Nous faisons référence ici à l’analyse de Thürlemann (1982) sur Blumen-Mythos (1918) de Paul Klee q (...)
- 6 Nous nous permettons de rappeler que nous avons essayé d’apporter des compléments à la sémiotique g (...)
- 7 Voir à ce propos les propositions du Groupe µ en ce qui concerne la texture ainsi que Fontanille (2 (...)
3Il
faut également remarquer que le retard pris sur l’analyse des actes et
des techniques de production dans le cadre de la sémiotique
greimassienne s’explique par le fait que cette dernière ait pris en
examen de préférence les images artistiques. Cela ne veut évidemment pas
dire que, dans l’analyse de l’énonciation énoncée, cette approche n’ait
pas pris en compte les traces de la production, voire des traits
singuliers du faire de l’artiste, notamment à travers la théorisation de
la texture dans le cadre de la sémiotique plastique (voir
Beyaert-Geslin 2004, 2008 et Le Guern 2008)5.
Mais cette investigation a rarement porté l’attention sur la manière
dont les œuvres étaient produites et au moyen de quels instrument
technologiques6. À
quelques exceptions près, aucune analyse textuelle d’images artistiques
n’a donc porté sur la sensori-motricité du faire pictural, ni sur la
virtuosité, toutes questions qui mettent en jeu la signification d’une
image artistique en tant que produit de la rencontre entre les
corporéités du support-objet et du producteur7.
Cet oubli de la prise en compte des techniques d’instanciation est dû
aussi au fait que l’image artistique, qui a servi de modèle à la
théorisation des textes visuels, a toujours été considérée comme une
image séparée de la vie quotidienne et ainsi sacralisée : si dans
le cas de l’image scientifique les paramètres et les procédures de sa
production doivent toujours être affichés et répondent à la demande de
justesse et justifiabilité de l’image, dans le cas de l’image artistique
le corps producteur de l’artiste est sacralisé, la technique est
souvent considérée par la doxa comme mystérieuse ou secrète, quelque
fois même comme un produit du hasard. Cette doxa peut à notre avis aider
à comprendre les raisons non proprement disciplinaires de cet oubli.
4Cette indifférence à ce qu’on peut appeler aujourd’hui la syntaxe figurative des textes visuels (Fontanille 2004), à savoir la relation entre support, apport et techniques du modus operandi,
nous l’avons remarquée aussi dans l’étude de la photographie (voir
Basso Fossali & Dondero 2011 et Dondero 2008). Cette dernière a été
conçue à partir de ses formes de l’expression, et non pas de sa
substance de l’expression (contra Floch 1986) et par conséquent les analyses qui ont été consacrées aux photos ont laissé de côté la question médiatique.
- 8 Fontanille (2007) affirme à ce propos qu’avec l’image artistique le modus operandi de la production (...)
5Lors
des premières réflexions sur l’image scientifique — qui, contrairement à
l’image de statut artistique, ne peut être considérée ni comme
« séparée » ni comme un monde clôturé en lui-même à travers un
cadre l’offrant à la contemplation — il a été d’autant plus
nécessaire de rendre compte de la signification des techniques de
production, afin d’expliquer les efforts faits pour imager les
phénomènes qui ne sont pas saisissables dans le monde de la vie
quotidienne8, ainsi que les manipulations que l’image scientifique, en tant que lieu d’expérimentation, requiert.
- 9 À ce propos Fontanille précise : « L’exploration photonique n’est donc qu’un cas particulier d’exci (...)
6Sur
les techniques de production de l’imagerie contemporaine, Fontanille
(2007) a proposé une typologie qui se révèle fondamentale pour pouvoir
concevoir l’énonciation visuelle en tant qu’acte d’exploration (non
seulement photonique9,
comme dans le monde de la vie quotidienne) qui se précise en deux
mouvements spécifiant ceux du débrayage et de l’embrayage, à savoir
l’« excitation » d’une matière et la « récolte de la
réponse » qui subira ensuite une transduction visuelle. Fontanille
affirme à ce propos :
L’acte d’énonciation étant posé comme une exploration, l’instance ab quo
de l’énonciation doit être (provisoirement) redéfinie comme un principe
d’excitation : les formes, les matières et les surfaces sont
« explorées-excitées » par un type de particule, et c’est la
réponse à cette excitation qui peut être exploitée pour produire des
« images », elles-mêmes saisies par l’instance ad quem de l’énonciation, l’instance de réception visuelle (Fontanille 2007, p. 21).
- 10 Voir à ce sujet aussi Groupe µ (1996) et Klinkenberg (2010).
- 11 Voir à ce propos les recherches d’Allamel-Raffin (2004).
- 12 Voir à ce propos Dondero (2009b).
7Si
Fontanille se positionne à la source de la question de la production
technologique, voire de l’exploration-constitution d’un objet de
référence à travers des questionnements à la fois instrumentaux et
théoriques précis (la référence serait donc le résultat des
transductions visuelles des réponses à des multiples provocations, dans
un esprit tout à fait expérimental)10,
les recherches de Jean-François Bordron se positionnent un peu
différemment : non tant du côté des techniques productives d’images
mais du côté de la sémantisation de la phénoménologie de la production.
Le rapport entre le référent et l’image est donc abordé par Fontanille à
partir des techniques qui doivent imager une référence non saisissable à
travers les sens à cause de la petitesse du phénomène (voir Fontanille
2007), de la distance11, de l’éloignement temporel ou de la compacité des obstacles12,
etc. : il s’agit d’une recherche sur la récolte de réponses à
partir de “provocations” expérimentales. En revanche Bordron s’interroge
sur les référentiels qui permettent de cerner la formation
d’images à partir d’un théâtre de l’apparition qui a celle-ci pour
objectif : c’est le cas de l’image-horizon, qui fait littéralement exister l’objet de l’enquête scientifique, sur laquelle nous reviendrons toute à l’heure.
8Dans
ses travaux, Beyaert-Geslin (2009, 2011, 2012) prend en considération
une autre facette du rapport entre l’image et sa référence : cette
dernière est « déjà là », constituée en une totalité, mais
elle doit être étudiée, expérimentée, soumise à un diagnostic,
restaurée : en un mot elle doit être rendue utile à travers des
visualisations diverses (croquis, dessins, orthophotographies, photos
aériennes, cartes géographiques, plan des villes, radiographies des
dispositifs de sécurité, etc.). Beyaert-Geslin s’interroge sur les
stratégies d’investigation scientifique qui font subir à l’objet de
référence (une chaise, la terre ou une valise) un éclatement à travers
les différentes techniques qui sont censées le représenter et/ou
l’étudier.
9Si
l’on assiste alors, avec Fontanille et Bordron, à la tentative de
sélectionner des informations pour négocier la constitution d’une totalité
d’objet suffisamment crédible au sein de la communauté scientifique à
partir des phénomènes de types divers (signaux physiques, instruments,
théories), avec Beyaert-Geslin on assiste à la diffraction de la
référence — déjà attestée en tant qu’unité reconnue par la société —, à
travers des pratiques d’expertise diverses et notamment les stratégies
de la restauration qui défont l’objet pour le visualiser selon des
rapports diagrammatiques différents. Dans le cas de l’objet d’art à
restaurer (Beyaert-Geslin 2011), on assiste à l’éclatement de cet objet
d’art sous le regard scientifique qui en multiplie les facettes, le
virtualise en tant qu’objet unique pour l’actualiser en tant qu’ensemble
de versions ou d’esquisses, chacune destinée à répondre à des questionnements multiples et à des manipulations diverses.
10La
deuxième problématique concerne le rapport entre visualisation et
mathématiques. Dans cette partie il ne s’agira donc pas d’examiner les
images résultant d’un travail expérimental au sens classique, où les
outils de production sont des technologies tels les télescopes en
astrophysique, le radar en géophysique, le microscope en biologie, etc.,
mais les images qui sont produites par des théories, des modèles
mathématiques et donc par la traduction spatiale des équations et des
formules algébriques. Il s’agit ici d’une expérimentation différente de
la première car elle engendre de manière plus forte que la précédente un
travail sur la visualisation, qui devient elle-même le véritable
terrain de l’expérimentation du scientifique. Afin d’explorer les deux
mouvements qui vont, l’un, de la trace photographique à la production de
théories en passant par la schématisation, et l’autre, de la théorie
physique et des modèles mathématiques à la visualisation, il nous faudra
prendre en compte la notion de diagramme, notamment chez trois savants
qui en sont les principaux théoriciens, à savoir Peirce, Goodman et
Châtelet. La notion de diagramme permet effectivement d’expliquer
comment l’image et d’autres représentations visuelles telles que le
dessin ou bien la photographie composite, à l’instar des diagrammes
mathématiques, peuvent devenir un support de travail qui permet de faire
émerger de nouvelles formes et donc de nouvelles idées, nécessaires à
la poursuite de l’enquête. Ceci nous permettra aussi de préciser ce
qu’on peut entendre par « nécessité » de l’image scientifique
au sens d’une image qui déploie un parcours de démonstration en
elle-même.
- 13 La vulgarisation dont nous nous occuperons n’est pas la même que celle qui a fait l’objet des reche (...)
11La
troisième problématique concerne le rapport entre les images produites
et la littérature qui les sélectionne et les destine aux différents
publics visés. Dans les deux premières sections on traite l’image selon
l’approche latourienne de la « science en train de se faire ».
Nous devons pourtant préciser : notre enquête ne concernera pas un
travail ethnographique de laboratoire comme ceux de Latour ainsi que de
Catherine Allamel-Raffin - qui dans ses travaux couple toujours
les deux approches, à savoir la prise sur le vif de la science « en
train de se faire » et la recherche sur la « science
faite ». Dans les sections trois et quatre nous ne nous occuperons
que de l’image du point de vue de la « science faite ». Nous
visons notamment à étudier les rôles des images dans les différents
genres discursifs tels l’article de recherche et l’ouvrage de
vulgarisation. Ce qui nous semble en fait important est de pouvoir
tester comment un même objet de recherche peut être communiqué dans des
genres discursifs aussi différents que l’article pour les spécialistes
et l’ouvrage pour un public de collègues non spécialistes13.
Nous verrons comment les « vues d’artiste », images
fabriquées par des scientifiques et des graphistes, ont une fonction
importante dans la vulgarisation savante car elles permettent la
visualisation de ce qui n’est pas (encore) mesurable — et, souvent,
difficilement concevable — en jouant donc un rôle de préconisateurs des
recherches à accomplir.
12Nous
verrons aussi comment les images attestées comme artistiques sont des
outils de vulgarisation et comment elles peuvent non seulement faire
partager des recherches à un plus vaste nombre de personnes mais aussi
repositionner le cadre de la recherche dans une perspective
culturologique de la science. Mais le relation entre vulgarisation et
art ne concerne pas seulement l’insertion d’images artistiques dans les
ouvrages « grand public », mais aussi le fait que la
vulgarisation montre un objet de recherche qui ne l’est plus, au moins
qu’il ne l’est plus pour le moment… la vulgarisation montre en fait
l’objet une fois que les recherches sur cet objet ont été
suspendues : lorsque on l’appelle, paradoxalement, objet
scientifique, à savoir un objet stabilisé et accepté dans le cadre d’une
discipline donnée, il n’est plus un objet sur lequel on fait du travail
scientifique, mais seulement de la communication. On reviendra sur ce
paradoxe de la vulgarisation, seul genre qui présente des objets comme
scientifiques, alors que la revue spécialisée ne traite que des objets
en train de se constituer, des objets de la recherche et de
l’expérimentation.
13La
quatrième problématique découle de la troisième, elle peut en être
considérée comme un développement. Il s’agira de rebondir sur les liens
entre deux domaines qui peuvent apparaître aux antipodes dans notre
culture occidentale contemporaine, mais qui ne le sont pas tout à fait.
On prendra ainsi en considération le fait que, aussi bien les sciences
que les arts, sont les domaines caractérisés par la quête de la
connaissance, la découverte, le défi, la justesse fragile, tout en
l’étant de manière très différente. Nous suivrons la proposition,
prudente, de Bordron (2011), selon qui, il ne faudrait pas
« opposer l’art à la science dans un tableau de traits distinctifs,
ni non plus de les subsumer sous une notion qui les unifierait d’une
façon trop générale pour être utile, mais […] chercher quel espace de
transformations permet de passer de l’un à l’autre domaine ou
éventuellement quels obstacles doivent être contournés pour que ces
transformations soient possibles ».
14Les
quelques exemples que nous présenterons lors de cette quatrième et
dernière section ne concerneront pas seulement l’insertion de l’image
artistique dans la littérature de la vulgarisation scientifique mais la
question de l’image artistique en tant qu’héritière de théories
mathématiques et, vice-versa, de l’image artistique se situant à la
source des réflexions du scientifique.
15Dans un important article publié dans la revue Visible 5
qui recueille les actes des colloques sur la sémiotique de l’image
scientifique du programme ANR, Bordron (2009) décrit la production
d’images scientifiques en distinguant entre la photo d’enquête et la
photo scientifique et propose ensuite de généraliser les étapes d’un
processus de production des images constituant un objet scientifique.
16Bordron
identifie tout d’abord la différence entre l’image d’enquête entendue
comme « une somme d’indices pouvant nous conduire peu à peu à ce
dont ils sont l’indice » dont il donne comme exemple la
photographie au centre du film Blow up de M. Antonioni, et
la photographie en astrophysique. La démarche qui fait apparaître un
revolver dans la photographie au centre du film d’Antonioni est
cognitive mais elle ne pourrait pas se prêter à illustrer un usage
scientifique de l’image. Cette démarche cognitive, qu’il appelle une
« enquête au cours de laquelle, sur la base d’indices, se manifeste peu à peu la présence d’une chose ou d’un phénomène » (ibid., p. 115), n’illustre pourtant pas le fonctionnement scientifique de l’image. L’objet représenté dans la photo de Blow Up
(un revolver), faisant partie du monde commun de la perception, est
déjà identifié avant l’image tandis que l’image scientifique est censée
manifester ce qu’il est impensable de percevoir dans le monde de la vie
quotidienne, ce qu’on ne connait pas avant son façonnement en image.
Pour que quelque chose qu’on ne connait pas d’avance se manifeste dans
le cadre de l’expérience scientifique il faut « fixer d’abord un référentiel technique qui donne la possibilité de l’objet et le sens de ce que l’on verra » (ibid.,
p. 116). L’image sera l’outil qui permettra au phénomène d’être
objectivé, mais il faut tout d’abord un lieu et une manière où ce
phénomène puisse faire son apparition (« avant que l’image n’apparaisse, il faut avoir fixé l’économie de son apparition » (ibid.)), et d’une manière qui puisse être comprise ou au moins encadrée de la juste mesure : c’est le rôle du référentiel.
- 14 Bordron (2009) affirme à ce propos : « L’image n’est pas une image d’objet mais image de ce qui par (...)
17Bordron
décrit ainsi la quête cognitive dans le cas de l’image astronomique,
image qui permettra de transformer des indices (en tant que traces qui
demandent à être comprises et déployées) en des objets qu’on ne
connaissait pas d’avance : a- Constitution d’un référentiel (choix d’une longueur d’onde), b- Recherche d’indice, c- Iconisation (stabilisation progressive des formes), d- Identification (ou dirions-nous, constitution d’un objet en tant que totalité stabilisée et reconnue par une communauté)14.
18Dans
ce cas, la référence est littéralement construite grâce à un
référentiel technologique qui incarne et stratifie en lui-même un
ensemble de théories stabilisées, qui en ont justifié la création et
l’institutionnalisation d’une part, et d’hypothèses qui le rendront
opérationnel et lui permettront de relancer la recherche, d’autre part.
Ces hypothèses « guideront » l’exploration technologique et
permettront à des traces matérielles d’apparaître sous un statut
d’indices à développer.
19Il
nous semble que, à partir de ces prémisses, nous pouvons entendre
l’indicialité comme « la forme sensible de l’interrogation »,
l’iconicité comme la recherche d’une stabilisation des formes (Bordron
2000, 2004) — donc, d’une certaine manière, comme des tentatives de
donner une organisation la plus stable et profitable possible, aux
questionnements posés par l’indicialité — et la symbolicité comme la
garantie de positionnement de ces formes stabilisées dans un ensemble de
règles, conventions et communications institutionnalisées. Cette
conception, où toute image attestée peut être conçue comme une
stratification de ces trois dimensions, permet de nous libérer d’une
autre conception qui voit l’indice, l’icône et le symbole comme des
signes déjà constitués se rapportant à quelque chose d’autre,
d’extérieur. En fait, la perspective de Bordron développant la théorie
peircienne, envisage plutôt la description de l’instanciation du signe à
travers des étapes phénoménologiques : l’indicialité, l’iconicité
et la symbolicité sont à comprendre comme des types phénoménologiques.
Cette description a l’avantage d’envisager non seulement l’instanciation
en termes de production expérimentale — l’iconicité concerne
en fait la recherche d’une stabilisation des formes, ce qui institue
l’image en un support d’expérimentation — mais aussi en termes de
négociation de la justesse de l’image identifiant un phénomène et le
constituant en objet scientifique reconnu (symbolicité).
20En
reprenant ces suggestions toujours dans un cadre expérimental classique,
à savoir un cadre technologique (et non purement mathématique, comme on
le verra dans la section suivante), on peut affirmer que la référence
se constitue tout au long d’un processus qui conçoit l’image comme
pénétrée par trois dimensions : 1) la dimension indicielle qui
prend appui sur des hypothèses et plus généralement sur des
questionnements qui mènent à une inscription qu’on peut considérer comme
des indices à développer, 2) la dimension iconique qui concerne la
recherche d’une stabilisation des données à travers des configurations
méréologiques diverses sous forme d’image, ou de visualisation, et qui
pourront transformer les inscriptions du phénomène en un objet
scientifique nommable en tant qu’unité constituée, et 3) la dimension
symbolique qui permettrait à chaque image d’être considérée comme le
produit négocié d’une pratique productive collective — produit
justifiable et reproductible — et ensuite faire l’objet d’une
reconnaissance et d’une diffusion institutionnelles.
21La
dimension symbolique qui est présente à chaque moment de ce processus
(sous forme d’hypothèses dans le cadre de l’indicialité, sous forme de
règles représentationnelles ajustant les stabilisations des formes dans
le cadre de l’iconicité) implique qu’on ne puisse jamais étudier ni
comprendre l’image détachée d’un programme disciplinaire ou des acquis
d’un domaine spécifique.
- 15 Sur cette question voir les travaux fondamentaux en sociologie des sciences de Latour (1987, 1999) (...)
22La
symbolicité permet par conséquent de prendre en compte à la fin
(provisoire) du processus : a) comment une image répond aux
objectifs de sa production, en stricte relation avec
l’indicialité ; b) comment elle s’insère dans les pratiques
expérimentales d’une discipline, en stricte relation avec
l’iconicité ; c) comment ces pratiques disciplinaires se combinent
avec celles des autres équipes plus ou moins concurrentielles, avec les
institutions, le cadre politique, etc.15.
23Cela
nous permet enfin de remarquer que l’indicialité peut être considérée
comme quelque chose qui ne concerne pas seulement l’acte d’instanciation
des images, ce dernier étant entendu souvent en tant qu’acte
d’inscription d’un phénomène sur un support qui est censé en enregistrer
les traces. L’indicialité concerne les demandes d’une discipline et
donc les raisons d’être d’une image, le fait qu’une image soit
nécessaire pour démontrer quelque chose, ou pour l’invalider ; dans
ce sens l’indicialité est déjà imprégnée d’une symbolicité, à savoir
d’un savoir constitué qui demande à être développé dans d’autres cadres
ou domaines. C’est seulement dans la dimension de la symbolicité que
l’image peut être évaluée à partir de ses utilisations et à partir de la
place qu’elle peut assumer dans un système d’attentes et de résultats
comparables avec lesquels de nouveaux indices peuvent rentrer en
relation. Si donc l’indicialité concerne les traces de l’instanciation
ainsi que les raisons qui l’ont rendue nécessaire ou simplement
possible, et l’iconicité concerne la stabilisation de formes en des
images identifiant, par tentatives successives, des objets
(expérimentation par diagrammes), la symbolicité concerne la place que
ces formes stabilisées en images d’objet occupent dans un ensemble de
pratiques disciplinaires et de procédures institutionnalisées.
- 16 Sur la constitution de la chaîne tout au long de laquelle il y a « un transport de nécessité » voir (...)
24D’une certaine façon on pourrait dire que le parcours de l’objet recherché en tant que questionnement jusqu’à l’objet scientifique en tant que totalité acceptée
— au moins par une partie de la communauté scientifique — se déploie à
partir d’une indicialisation en se dirigeant vers une symbolisation. Ce
qui nous intéresse surtout de souligner est ce qui se passe entre les
deux, à savoir la constitution iconique ; comme nous venons de le dire, nous entendons par iconicité les moments multiples des tests
qui visent à négocier et stabiliser des formes visuelles plus ou moins
définitives d’un objet scientifique. Nous le répétons : nous
n’entendrons pas les images-tests en tant que signes iconiques au sens
de ressemblant à quelque chose d’extérieur, mais en tant que
compositions toujours partielles qui rendent compte de l’émergence de
morphologies différentes dans l’organisation des données tout au long
d’une chaîne16
qui peut s’orienter de la schématisation à la densité figurative lorsque
la visée de la recherche est particularisante (décrire un objet, un
symptôme, et pouvoir intervenir) ou bien s’orienter de la densité
figurative à la schématisation lorsque la visée est généralisante
(construction de régularités, prévision, modélisation, etc.). Le
processus d’iconisation peut donc être identifié avec deux processus
inverses : le processus d’iconisation peut concerner un parcours
allant de la schématisation à la densité figurative et vice-versa. Il
peut s’agir d’un processus de schématisation si on part d’une densité
figurative (par exemple une photo ou un dessin) en allant vers la
construction de patterns et de régularités qui permettront une
modélisation valorisant des parcours réguliers et des tendances qui
constitueront des théorisations à vérifier ultérieurement. Mais le
parcours d’iconisation peut être identifié aussi bien avec un processus
inverse qui va des modèles mathématiques vers la densification
figurative, comme par exemple dans le cas où les indicialisations sont
des modèles physiques qui peuvent ou pas s’accorder avec le phénomène
étudié et qui deviennent opératoires à travers la visualisation, par
exemple à travers la visualisation diagrammatique. Dans le cadre d’un
processus d’iconisation, les images qui testent un phénomène deviennent
un terrain de travail, voire un dispositif d’expérimentation. Ces tests
se configurent comme des nouvelles organisations et regroupements des
informations, des constructions de symétries, etc.
25Les
indicialisations de départ peuvent donc être des traces de phénomènes, à
savoir des données récoltées et qui demandent à être testées et
généralisées, aussi bien que des hypothèses et des théories qui doivent
être mises à l’épreuve et vérifiées par des cas concrets ou au moins visualisables comme des cas singuliers.
L’indicialisation est à concevoir comme quelque chose qui demande à
être déployé et cela ne s’explique pas seulement avec un
« questionnement de l’être » qui cherche à se manifester, mais
englobe aussi la matière théorique des résultats scientifiques obtenus
précédemment (ce qu’on a nommé la dimension de la stabilisation
institutionnelle, voire la symbolicité). La symbolisation qui en suivra
concernera le moment de l’acceptation, vérification et
institutionnalisation de ces hypothèses de départ, qui avaient
auparavant le statut d’indices et précédemment encore de théories
stabilisées.
26Dans
un article consacré à la constitution de méréologies changeantes à
partir du flux de l’expérience, Bordron (2012) spécifie ce qu’il entend
par image-événement dont il avait été question déjà dans son article de
2009 : il ne s’agit pas de la capture instantanée de quelque chose —
comme le terme événement pourrait le faire croire —, mais bien de
transformations de données tout au long du processus
d’iconisation : les images interviennent dans le flux de
l’expérience scientifique en tant qu’idées régulatrices ordonnant un nombre très grand de phénomènes.
Dans le flux de l’expérience, des totalités se constituent, pourtant
elles sont des totalités précaires, tentatives, qui se font et se
défont, mais n’en sont pas moins intelligibles comme un jeu entre des
parties, identifiables bien que changeantes. On peut donc entendre les
images comme des stabilisations précaires des relations entre parties
constituant le flux de la recherche expérimentale ; ce processus
est décrit par Bordron par la syntaxe suivante :
« Flux => Inflexion => Parties
saillantes => Identification et différentiation =>
Conjonction et disjonction => Composition et décomposition de
parties => Emergence et disparition des genres =>
Formation et déformation de séries ».
- 17 Fontanille aussi se pose la question de la réduction d’un flux en des « arrêts » qui puissent le re (...)
- 18 « Une image-arrêt est, par exemple, celle qui pose une question non pas parce qu’elle montre spécif (...)
27Cette
syntaxe vise à rendre compte de la façon dont, à partir des processus
des phénomènes physiques, le scientifique peut en arrêter des états pour
les représenter et les analyser17.
L’image est à concevoir comme une domestication du flux des phénomènes,
un arrêt qui en permet le contrôle et ensuite la manipulation pour
enfin essayer de les constituer en des objets. Si la notion de flux
virtualise toute existence d’objet, la première catégorie nécessaire à
expliquer le statut de l’image est celle d’arrêt d’un flux18 mais cet arrêt n’est qu’une étape qui fait suivre, selon Bordron, une relance ou une diffraction :
La relance crée une multiplicité
nouvelle que l’on peut considérer à la fois comme divergente par
rapport à l’arrêt et en même temps nécessairement complémentaire. Un
arrêt dans un flux a comme complémentaire un effet de relance, sinon il
ne s’agirait pas d’un flux. […] La troisième catégorie est celle de capture.
[…] La capture est complémentaire de l’arrêt et de la relance dans la
mesure où il est nécessaire que quelque chose du flux soit en quelque
façon concentré, constitué en unité (Bordron, 2012).
28Bordron
ajoute à ces trois fonctions, une quatrième, celle qu’on avait déjà
prise en considération pour l’image-horizon, c’est-à-dire le référentiel
ou le repérage, et propose le schéma suivant :
29Comme
nous l’avons déjà dit ailleurs (Dondero 2011b), l’image qui fige un
objet et qui a été obtenue après la phase d’iconisation, nie d’une
certaine façon l’esprit scientifique de la recherche : figée et
immobile, sans paramètres de contrôle visibles, cette image est destinée
à la vulgarisation. Ces images sont en principe non manipulables :
les tests ne sont plus affichés, ni opératifs. On pourrait dire qu’une
fois dans la phase de symbolisation l’objet, qui est représenté par une
image isolée dans laquelle convergent et s’institutionnalisent les
hypothèses et les résultats des tests, quitte le domaine de la science,
qui se caractérise par contre comme le domaine des constantes
interrogations et manipulations. C’est pour cela que, s’il s’agit de
symbolisation, dans le cadre de la science, il s’agit toujours de règles
qui seront ensuite remises en jeu en fonctionnant à nouveau
partiellement comme des questionnements, à savoir des indicialisations à
développer pour d’autres recherches. Dans le cadre de la vulgarisation,
le parcours allant de la symbolisation à l’indicialisation s’arrête, à
l’opposé de ce qui se passe dans la science en acte où, à partir des
objets constitués dans le cadre d’une symbolisation, on relance des
questionnements/indicialisations pour reprendre le chemin et
« étendre le référent », comme le dirait Latour.
30Comme
nous l’avons affirmé dans des travaux antérieurs (Dondero 2009d), les
images, après leur instanciation, et après avoir été choisies pour
constituer une unité d’objet, doivent redevenir utiles pour d’autres
recherches : d’une certaine manière elles doivent être à nouveau
décomposées, non pas pour redevenir flux, mais pour pouvoir revenir aux
étapes qui ont amené aux différentes méréologisations des données, aux
différentes relations entre parties constituant le tout ; les
données constituées en différentes méréologies doivent pouvoir redevenir
manipulables et réorganisables.
31Dans
Dondero (2009d) nous avions pris en considération le cas de
l’astrophysique qui exemplifie bien ce mouvement double ; en fait
la fabrication d’images en astrophysique nous montre bien le va-et-vient
entre la visée particularisante et la visée généralisante des
visualisations : d’une part, l’objectif de l’astrophysique est de
présenter en unité, voire de compacter, par le biais de l’image justement, des fonctionnements dispersés
dans le temps et dans l’espace ; d’autre part, cette unité est
composée de modules : chaque module est une réponse du phénomène,
par exemple, la supernova, à la longueur d’onde avec laquelle il a été
détecté. Les différents modules composent des images finales,
intégrées : voici l’image finale d’un amas de galaxies ainsi que
les modules dont elle se compose (Figure 1).
Fig.1. Galaxy Cluster MS 0735.6+7421. NASA, ESA, CXC/NRAO/STScl
http://imgsrc.hubblesite.org/hu/db/2006/51/images/a/formats/print.jpg
B. McNamara (University of Waterloo and Ohio University)
- 19 Cette image a en fait comme but de compacter les processus différents de l’univers en une cartograp (...)
32Les
images en astrophysique visent à sommer, superposer, intégrer —
phagocyter presque — les traces, bref à réduire l’hétérogénéité des
captations dans une seule image comme dans l’exemple ci-dessus, qui
montre la façon dont l’image finale intègre les images provenant des
différentes détections afin de stabiliser l’identité d’un objet. Tout se
passe comme si les images partielles visaient à compacter dans l’image
finale ce qui dans l’univers est dispersé — puisqu’il s’agit de
construire des simulacres de cohésion de ce qui en réalité est diffus
dans le temps et dans l’espace. L’image finale est toujours celle qui a
assimilé toutes les mesures : c’est dire que le point d’arrivée de
l’iconographie astronomique est l’homogénéisation des traces19.
33Pour
obtenir cette image qui nous donne l’iconographie finale d’un amas de
galaxies, il a fallu un travail orienté du simple au composé, mais
d’autre part, cette totalité intégrée qui est l’image finale doit pouvoir être littéralement redistribuée
via une autonomisation de ses modules pour qu’ils puissent être
utilisables pour la constitution d’iconographies autre que celle de cet
amas de galaxies. Il s’agit de réaménager les modules qui ont, de leur
côté, une certaine cohérence interne et une homogénéité de paramétrage (ici,
la même longueur d’onde) pour voir s’ils sont aptes à construire
d’autres iconographies, et ensuite, pourrait-on dire, à « faire
avancer le référent » (Latour 1999), à étendre sa chaîne de
transformations, et aussi à mettre à l’épreuve l’utilisation
transversale de chaque module. Pour ce faire il faut, d’une part, discipliner
les opérateurs de la chaîne des transformations et les aligner de façon
à ce qu’ils forment une unité, pour que la chaîne puisse se constituer
en une unité stable (iconicité) et produire un objet stable
(symbolicité), d’autre part il faut mesurer le pouvoir d’extension du
référent que la visualisation offre à la science, à savoir le fait que
cette unité d’objet stabilisée en image peut servir comme support
pour d’autres investigations. Or, il faut que cette unité puisse se
décomposer en des sous-unités ré-articulables, en des modules (ou
parties d’un tout, comme les appelle Bordron), et que ces modules
puissent devenir des éléments re-combinables : éprouver la solidité
d’un fait, c’est le mettre à l’épreuve et l’étendre plus loin par un
nouveau branchement de ces modules. Les possibles combinaisons
entre les modules et les règles qui les gèrent peuvent se constituer en
un système comparable à une grammaire. D’un côté, la bonne réussite de
la chaîne des transformations assure une garantie de contrôle réciproque
entre phases techniques, et donc la garantie d’une histoire de
production par contigüité (indicialité) et par commensurabilités
(iconicité), de l’autre, le résultat de cette chaîne des transformations
doit assurer des développements des recherches (symbolicité et
recommencement du parcours à travers l’indicialité).
34Dans l’image finale de l’amas de galaxie, les éléments sont intriqués et c’est justement la
modularité typique de l’astrophysique qui permet à l’unité de l’image
finale d’extraire ses modules et de les transporter au loin, vers
d’autres compositions, grâce aux règles grammaticales des
modules, ces derniers étant des entités recombinables à l’instar de
notes dans une partition de musique qui doivent servir comme des instructions pour l’exécution future, qu’elle soit visuelle ou sonore. Cela revient à dire que le travail scientifique consiste bien, dans un premier temps, en la recherche de la stabilisation en unité d’objet et, ensuite, dans un deuxième temps, en la manipulation de cette unité, voire en la recombinaison, ré-articulation
de ses modules, pour la faire « courir au loin » (Latour),
pour construire d’autres unités et d’autres référents. En astrophysique,
comme dans beaucoup d’autres disciplines, plus une référence va loin,
plus elle peut être déclarée comme « juste » : la
fiabilité de la référence est coextensive du réseau de diffusion, voire
de sa plasticité.
35La
nécessité d’une modularité s’explique aussi par le fait que la chaîne
des transformations, qui vise à une stabilisation, doit pouvoir être
réversible, les scientifiques doivent pouvoir revenir sur leurs
pas : c’est une communauté entière qui doit pouvoir manipuler la
chaîne dans toutes ses étapes. C’est pour cette raison qu’il faut
constituer une écriture, une sorte d’alphabet d’opérations paramétrées,
pour que ceux qui font partie de la communauté puissent poursuivre la
chaîne, la renverser, la refaire, la contrôler, la valider.
- 20 Sur la distinction entre opératif et opérationnel voir Basso Fossali (2006b).
36Pour
le dire autrement et avec les termes de Goodman, les images doivent
permettre premièrement d’identifier et de fixer des phénomènes
(autographie) et surtout de les définir en tant qu’objets dont on peut
discuter, et deuxièmement de travailler sur ces objets eux-mêmes, ces
derniers devant servir comme des expériences de pensée, voire comme des objets qui se prêtent à la manipulation
(allographie). Les images réussies deviennent ainsi des supports de
travail, dans le sens où elles sont non seulement des visualisations
d’opérations qui rendent possible la définition de phénomènes (valeurs opératives
d’une image), mais où elles fonctionnent aussi comme des visualisations
qui permettent d’être retravaillées et manipulées pour des fins
ultérieurs (valeurs opérationnelles d’une image)20. De l’image comme produit stabilisé des transformations on passe au potentiel transformationnel, c’est-à-dire de l’image comme zone de stockage on passe à une zone d’opérabilité et de manipulation.
37Il
faut en tout cas préciser encore quelque chose avant de passer à la
deuxième section qui prendra en considération la question de la
manipulation mathématique de l’image ainsi que la traduction spatiale
des formules algébriques. Il ne faudrait pas utiliser le même terme
d’image lorsqu’on se réfère à l’image constituant un objet (l’image qui
offre la sommation des résultats d’autres images) et l’image qui ne
constitue pas un objet mais qui est censée montrer le travail de
digitalisation d’un flux à travers des organisations méréologiques. En
ce qui concerne l’astrophysique nous les avons appelées respectivement
image-mosaïque et visualisation.
38En
fait, les images finales des astres peuvent être considérées comme des
images-mosaïques (Dondero 2009b et 2009g) car elles réunissent en une
image un assemblage de traces provenant de différentes sources et
stratégies de mesure qui sont rendues commensurables en des unités
d’objet qui en font la synthèse. Ces types d’images ont pour fonction de
rassembler les diverses captations obtenues et de s’offrir ainsi comme
des cartes d’identité des astres, des cartes qui ne sont pas des
photographies de ce que l’objet est au moment de la captation, mais de
son histoire car elle est une mosaïque construite par sommation intégrée
des processus de transformation de l’astre. Ces images sont composées
par des visualisations « partielles » des astres, images qui
dépendent d’un seul instrument de détection. L’image-mosaïque peut être
saisie comme la transduction de plusieurs scénarisations (les différentes détections selon des longueurs d’onde différentes). La clôture de cette image intégrée se présente comme la prestation fictive d’une observation potentiellement interminable qui permet une domestication de l’investigation et l’institutionnalisation d’un objet.
39Ces
images-mosaïques construisant une iconographie stabilisée d’un objet,
tendent vers le régime caractérisant les images artistiques où chaque
trait est figé à l’intérieur d’une totalité non décomposable. Si le rôle
de l’image dans l’article de recherche est de mettre en valeur
l’instrument (ou les valeurs mathématiques) qui l’ont produite, cette
image par contre ne montre plus la relation avec son acte de
production : en perdant sa justification énonciative, elle
se rapproche du rôle des images artistiques, qui ne sont pas censées
révéler leurs techniques d’instanciation. Elle devient une image
non-scientifique, car elle a figé quelque chose ne permettant plus des
manipulations et donc des avancements de l’investigation. On pourrait
par conséquent affirmer que l’image qui stabilise une iconographie est
publiée notamment dans les ouvrages de vulgarisation et fonctionne à
l’instar des images artistiques, qui sont non-manipulables.
40Le deuxième type de représentation visuelle relève des visualisations de données. Ces données sont des data set
disponibles par implémentation informatique utilisables dans un nombre
infini de textualisations selon différents points de vue et niveaux de
pertinence. Ces visualisations deviennent ainsi reconfigurables à partir
d’un changement contrôlé des paramètres de visualisation, changement de
perspective visant l’exploration. Il ne s’agit donc plus d’images, mais
d’environnements virtuels qui produisent à chaque fois des modes d’actualisation possibles de données.
41Ces
visualisations rendent en fait pertinents des regroupements de données
qui peuvent répondre à des questionnements différents. Chaque
visualisation de données répond à une série de questions ; les
visualisations peuvent être comprises comme des exécutions des relations entre données récoltées et paramétrages choisis. Les visualisations sont donc des exécutions d’instructions
de codages de données. Elles se présentent normalement sur un écran
d’ordinateur en un rapport paradigmatique les unes avec les autres et,
très rarement, elles sont enchainées comme développement l’une de
l’autre : elles construisent une parataxe. D’une certaine manière
elles ne font qu’actualiser des organisations méréologiques de données
qui restaient virtuelles dans le tableau de chiffres dont elles émanent.
C’est pourquoi nous devons distinguer ces visualisations qui
“arrangent” et filtrent des données de manière toujours différente selon
le besoin de l’investigation, des images qui par contre identifient un
objet et l’instituent en une unité où chaque partie a un lien figé avec
toutes les autres et avec la totalité constituée.
42C’est ce qu’on verra dans la deuxième section.
43Explorer
la relation entre les langages analogues, comme l’image, et les
langages digitaux, comme les mathématiques, s’est révélé vite d’une
extrême importance dès les premières réflexions sur l’image scientifique
faites dans le cadre de cette recherche collective en sémiotique. Si le
langage formel des mathématiques est le langage de la démonstration par
excellence, on a dû se demander si l’image par contre devait renoncer à
toute ambition démonstrative à cause de la difficulté de repérer en
elle des éléments minimaux, des traits disjoints, des règles syntaxiques
qui la rendent également puissante face à une manipulabilité de ses
signes comme cela est attendu surtout dans le cadre des sciences. Au
premier abord, ce qui manquerait à l’image serait un alphabet de signes,
à savoir des traits disjoints et recomposables qui peuvent être
composés à travers des règles grammaticales qui en définissent les
interdictions et les permissions. Comme on le verra dans les prochaines
pages, nous avons, dans plusieurs travaux précédents, essayé de rendre
compte de cette question à travers les notions d’autographie et
d’allographie, ainsi que de diagramme selon la conception du philosophe
Nelson Goodman, qui deviennent des concepts opérationnels et acquièrent
un pouvoir descriptif. Avant de revenir sur Goodman et sur nos travaux,
nous préférons esquisser l’approche de la notion de diagramme de
Ch.S. Peirce qui, à partir de ses bases mathématiques, devient un
concept totalisant, le diagramme étant pour lui l’instrument majeur de
toute pensée déductive et nécessaire. Nous voudrions ici esquisser la
façon dont le fonctionnement du diagramme mathématique peut devenir
exemplaire d’un dispositif nécessaire au déploiement de la pensée
déductive, et ensuite la façon dont une image peut être conçue comme le
support d’un raisonnement nécessaire. Nous pourrons ensuite expliquer
notre conviction : que les images en science peuvent et, dans
certains cas, doivent, fonctionner comme des diagrammes.
44Voyons ce que nous pouvons entendre par diagramme.
45Nous
aimerions toute de suite préciser qu’il ne faut pas entendre banalement
diagramme comme un synonyme de schéma ou de graphique, à savoir comme
un dispositif caractérisé par des flèches, des symboles, des chiffres,
des axes cartésiens, etc. Cette perspective très large — dans les
faits, inutile et trompeuse — engloberait toutes les visualisations
caractérisées par une certaine organisation topologique, mais sans
rendre compte des raisons profondes qui rendent nécessaire l’utilisation
de ce dispositif. De plus, cette conception qui ne prend en compte
qu’un type d’organisation topologique et se base donc sur une typologie
du plan de l’expression — et non pas sur la relation entre expression et
contenu, à savoir sur une médiation sémiotique —, exclurait les images
par exemple, ce qui va contre la notion peircienne de l’iconicité. Cette
définition ne prendrait pas en compte le fait que par exemple des
photographies peuvent, dans certains cas, fonctionner
diagrammatiquement : Peirce inclut dans la catégorie des icônes
aussi bien les formules algébriques que les photographies composites. On y reviendra.
46Donc,
plutôt que d’identifier le diagramme avec une certaine forme visuelle
il nous faut revenir à la tradition de la pensée sémiotique peircienne
concernant la notion d’icône abstraite qui recouvre des phénomènes très
divers sur le plan de l’expression mais liés, comme on l’a dit tout à
l’heure, par des fonctionnements apparentés. Pour ce faire il nous
semble utile de voir comment la notion de diagramme s’est constituée en
allant à ses sources.
- 21 Pour une discussion approfondie sur la relation de Peirce avec le schématisme kantien voir l’import (...)
47La
pensée diagrammatique vise d’une certaine manière à poursuivre la
question posée par le schématisme et le synthétique a priori kantiens.
Si, chez Kant21, le schématisme visait résoudre la dualité entre intuition (représentations singulières) et concept (représentations
générales), chez Peirce l’utilisation du diagramme, à partir donc d’un
point de vue sémiotique (au sens où l’on pense par des signes concrets)
et pragmaticiste, vise à résoudre la dualité singularité-généralité et celle observabilité-imagination
en les repensant non pas comme opposés mais comme une bipolarité qui
fait la caractéristique principale du diagramme. En ce qui concerne la
première polarité, Peirce affirme :
- 22 Stjernfelt (2007) nous rappelle qu’il faut garder la distinction entre les diagrammes proprement di (...)
Un diagramme, en mon sens, est en premier lieu un Token
ou un objet singulier utilisé comme signe ; car il est essentiel
qu’il puisse être perçu et observé. Il est néanmoins ce qu’on appelle un
signe général, c’est-à-dire qu’il dénote un Objet général. Il est en
fait construit dans cette intention22
et il représente ainsi un Objet dans cette intention. Or l’Objet d’une
intention, d’un but, d’un désir, est toujours général (Peirce, cité dans
Chauviré 2008, p. 51).
48D’une certaine manière le diagramme serait donc scindé en deux : un diagramme en tant que Token singulier, et un diagramme qui donne les règles de lecture pour comprendre ce Token comme un Type.
49En ce qui concerne la deuxième polarité, comme l’affirme Chauviré, pour Peirce :
- 23 Comme l’affirme Stjernfelt (2007), en suivant Peirce (1906) : « Les relations qui constituent le di (...)
toute déduction procède par
construction de diagrammes, c’est-à-dire de signes appartenant à la
classe des icônes, qui exhibent des relations existant entre les parties
d’un état de chose (state of thing) idéal et hypothétique, imaginé par le mathématicien et susceptible d’être observé (Chauviré 2008, p. 36, nous soulignons)23.
- 24 Il a été remarqué, en ce qui concerne la géométrie fondamentale, que le diagramme fonctionne de man (...)
50Le
diagramme aurait justement une double détermination : il serait
enraciné dans l’évidence perceptive et en même temps il serait
généralisable. Mais ce qu’il est important de remarquer est qu’à partir
de Peirce on développe l’idée que le diagramme ne concerne pas une
représentation visuelle en soi, à savoir quelque chose d’isolable et
d’objectivé, mais plutôt un type de procédure de raisonnement, et donc une manière spécifique de schématiser visuellement la perception et l’expérience pour les rendre transposables.
Ce processus diagrammatique permettrait de reconnaître, dans un
phénomène donné, des relations entre ses parties, qui peuvent être
observées et manipulées pour comprendre d’autres phénomènes. Le
diagramme est un monde clos mais permettant l’extensibilité de la preuve24.
51Nous
ne pourrons pas parcourir à nouveau dans son entier ce processus qui
porte de la notion de diagramme entendu comme représentation visuelle
objectivée et isolable jusqu’à la notion portant sur une conduite de la
pensée qui exploite le côté opérationnel de l’iconicité, mais
ce que nous voudrions retenir est que la notion de diagrammaticité rend
précisément compte de l’articulation entre la visualisation et la
transformation des relations entre les parties qui composent un objet
d’une part et les étapes d’un processus de la pensée visant à connaître
mieux l’objet visé — grâce à cette visualisation manipulable justement — de l’autre.
- 25 Dans l’interprétation de Stjernfelt, l’icône chez Peirce a une définition opérationnelle : l’icône (...)
- 26 Voir à ce propos Châtelet (1993). Selon lui, c’est la gestualité qui nous permet d’opérer, de manip (...)
52Pour être encore plus précis, on pourrait dire que la notion de diagramme permettrait de rendre compte du processus exploratoire de la pensée sur un objet qui est rendu saisissable à travers la construction, l’observation et la manipulation eidétique d’une visualisation25.
Le raisonnement diagrammatique pourrait se comprendre en somme comme
l’observation et la transformation des relations qui composent les
parties d’un objet d’investigation, la manipulation du visible
permettant ainsi un certain élargissement du concevable26.
53La diagrammaticité est définissable enfin comme une manière de bénéficier des
ressources cognitives de la plasticité spatiale, voire de la
manipulabilité et de la déformabilité rationnelle des visualisations.
Elle opère comme un « flat laboratory », comme le dirait
Latour (2008), où la réalité, et la réalité mathématique notamment, peut
être comprise et transformée.
54Pour
expliquer de manière plus précise le fonctionnement diagrammatique qui
peut concerner des photographies, des formules algébriques, des
diagrammes proprement géométriques, etc. nous avons besoin de revenir à
présent à l’origine mathématique du diagramme.
55L’expérimentation
offerte par le diagramme est, selon Peirce, ce qui distingue la
procédure déductive théorématique du raisonnement corollariel, ce
dernier ne concernant que des inférences purement analytiques, donc
appartenant à la logique et non pas à l’épistémique. Comme l’affirme
Chauviré (2008) en délinéant la différence entre théorématique et
corollariel :
deux cas peuvent se
présenter : soit la conclusion est directement lue dans le
diagramme initial par simple inspection, c’est-à-dire que les relations
qui rendent possibles la conclusion sont immédiatement perçues sans
qu’on doive retoucher le diagramme [corollariel] ; soit il est
nécessaire de le modifier par des constructions supplémentaires
[théorématique] […]. L’adjonction de telles constructions est dépeinte
comme une expérimentation effectuée sur le diagramme, analogue à celle pratiquée en physique et en chimie sur un échantillon (p. 36, nous soulignons).
56L’expérimentation
en mathématiques passe par la traduction spatiale des grandeurs
spatiales et non spatiales (relations logiques, etc.) et par
l’introduction de « lignes subsidiaires » aux lignes du dessin
qui suivent fidèlement les prémisses. Ces lignes subsidiaires
permettront d’introduire des idées nouvelles car elles rendent
saisissables des nouvelles formes qui n’étaient que latentes. Cette
adjonction est faite par des règles et permet de voir des formes ressortir de la constitution d’une totalité :
…Le Grundsatz de la Rhétorique formelle est qu’une idée doit se présenter sous une forme unitaire, totalisante et systématique.
C’est pourquoi maints diagrammes qu’une multitude de lignes rend
compliqués et inintelligibles deviennent instantanément clairs et
simples si on leur ajoute des lignes ; ces lignes supplémentaires
étant de nature à montrer que les premières qui étaient présentes
n’étaient que les parties d’un système unitaire (Peirce, 1931–1935, 2.55, nous soulignons).
- 27 « Il ne suffit pas d’énoncer les relations, il est nécessaire de les exhiber effectivement ou de le (...)
- 28 Voir à ce propos Peirce (1931–1935, 4.532).
57Comme
on le voit très clairement à partir de ces affirmations peirciennes, ce
ne sont pas les déductions de la logique ni les seuls concepts qui ont
le pouvoir de démontrer27 :
pour qu’il y ait démonstration, il faut que des formes émergent. Chez
Peirce, seules les icônes ont le pouvoir d’exhiber une nécessité, un
devoir être28 parce qu’elles seules peuvent montrer l’émergence des
formes à partir de lignes qui pourraient apparaître comme désordonnées
et insignifiantes. Selon la pensée peircienne, les icônes sont les seuls
signes capables d’exhiber une nécessité car ils rendent sensibles les
relations entre des lignes par des formes, à savoir par des traits et
des relations de traits qui se composent et qui apparaissent comme
constituant des unités.
58Ce
sont ces formes qui rendent perceptivement évidente la nécessité des
conclusions et c’est pour cela que Peirce a toujours rapproché la
contrainte exercée sur nous par une perception ordinaire et les
conclusions mathématiques qui s’imposent à nous comme nécessaires :
elles sont toutes les deux caractérisées par l’émergence de
configurations qui ne peuvent qu’être comme elles sont. Pour Peirce en fait la vérité perceptive est aussi irrésistible que la vérité mathématique :
Cette contrainte irrésistible du
jugement de perception est précisément ce qui constitue la force
contraignante de la démonstration mathématique. On peut s’étonner que je
range la démonstration mathématique parmi les choses qui relèvent d’une
contrainte non rationnelle. Mais la vérité est que le nœud de toute
preuve mathématique consiste précisément dans un jugement à tout égard
semblable au jugement de perception, à ceci près qu’au lieu de se
référer au percept que nous impose la perception, il se réfère à une
création de notre imagination (Peirce, 1931–1935, 7.659).
- 29 Cette constitution de formes qui font apparaitre une « solution » et une conclusion nécessaire ont (...)
59Comme
on l’a déjà esquissé toute à l’heure, les formules algébriques, bien
qu’elles soient constituées de symboles, c’est-à-dire de signes généraux
qui ne se rapportent à leur objet qu’en vertu de conventions
arbitraires, fonctionnent comme des icônes parce que c’est la
constitution de formes qui leur offre une structure unitaire et
perceptivement saisissable de la totalité des relations entre ces signes
généraux eux-mêmes29.
60Ce
que nous voulons suggérer par cet excursus dans la théorie du diagramme
est que tout support, dans notre cas visuel, qui devient un support de
travail et d’expérimentation de ce type devrait pouvoir être interprété
comme un dispositif qui fonctionne diagrammatiquement.
- 30 On rappelle que la catégorie des icônes comprend les images, les diagrammes et la métaphore : « On (...)
- 31 Il ne faut pas se faire surprendre par le fait que la formule algébrique est considérée comme une i (...)
61Ch.S.
Peirce identifie en fait des fonctionnements semblables entre des
objets visuellement très différents comme une formule algébrique et une
photographie (ou plus précisément, deux photographies). Peirce
englobait en fait dans la même catégorie d’icône — et, plus précisément,
des icônes les plus abstraites —, aussi bien les formules
algébriques que les photographies. Nous disons bien photographies au
pluriel et non pas photographie au singulier, cette dernière n’ayant pas
beaucoup d’intérêt pour Peirce ni d’un point de vue scientifique ni du
point de vue de l’exemplification de la catégorie de l’icône. C’est en
fait au moins deux photographies qui « servent à tracer une carte », ou bien une image moyenne (composite photograph)
produite par une composition méthodiquement organisée de plusieurs
images, qui peuvent être entendues selon la conception peircienne des
icônes30 les plus abstraites, les diagrammes, à savoir des représentations qui mettent en scène l’organisation parmi les parties de leur objet :
« Beaucoup de diagrammes ne ressemblent pas du tout à leurs
objets, à s’en tenir aux apparences : leur ressemblance consiste
seulement dans les relations de leurs parties » (Chauviré, 2008,
p. 44). Ce qui lie intimement les formules algébriques et la
composition de plusieurs photographies (les deux photos qui
« permettent de tracer une carte » et la photographie
composite) est que l’absence de « ressemblance sensible »,
externe, n’empêche pas d’exhiber des analogies entre la méréologie des
objets d’un côté et les formules algébriques et les compositions
photographiques elles-mêmes de l’autre. Plus précisément encore, les
formules algébriques et les compositions de photos peuvent incarner les
relations entre les parties dont sont construits les objets sans que la
ressemblance de leurs apparences sensibles intervienne. De plus, autant
dans les cas de l’observation des compositions photographiques que des
formules algébriques31,
« peuvent être découvertes concernant [leur] objet d’autres
vérités que celles qui suffisent à déterminer [leur] construction »
(Peirce cité dans Brunet 2000, p. 314). On veut dire par là que la
photographie composite n’est pas prise en compte comme représentant un
objet mais comme intermédiaire entre deux ou plusieurs phénomènes visant
à en faire ressortir des analogies ou des caractères commensurables qui
ne seraient pas prévisibles avant le montage photographique et son
déploiement (c’est-à-dire dans ses prémisses). Peirce parle en fait dans
ce cas non seulement de deux photographies mais « de deux
photographies qui servent à tracer une carte ». Cela revient à dire
que les relations entre ces deux photographies — par projection,
translation, miroitement etc. —, non seulement permettent de tracer des
relations entre parties du territoire à l’intérieur de la carte en
question, mais d’en révéler d’imprévues. Dans ce sens, elles peuvent
être comprises comme des intermédiaires entre le territoire et la carte à
tracer ainsi que comme des outils pour révéler des relations entre
parties du territoire à investiguer. Comme l’affirme Brunet
(2000) :
Peirce rejette du même mouvement
le critère de la « ressemblance sensible » et celui du degré
de conventionalité pour définir l’icône ; celle-ci est plutôt
caractérisée en termes logiques, par sa « capacité à révéler une
vérité inattendue » concernant son objet. L’exemple des deux
photographies servant à tracer une carte renvoie à la méthode
photogrammetrique certainement familière à Peirce par le biais de la
géodésie. Dans cette méthode, on peut construire une carte, sous
certaines conditions techniques, à partir de deux ou plusieurs
photographies d’un site donné prises de points de vue opposés, moyennant
des opérations de réduction analogue à celles du levé direct. La
photographie couplée a reçu beaucoup d’autres usages, notamment dans
divers types d’analyse du changement. Comme dans le cas de
l’enregistrement photographique des éclipses, ce qu’exploite la
méthode n’est pas la ressemblance de chaque photographie à des objets
particuliers, mais l’analogue idéal de la topographie que constitue la
collation géométriquement déterminée des deux photographies (pp. 314–315, nous soulignons).
62Ce n’est donc pas une ressemblance sensible (sensous resemblance) mais bien une similitude idéale (likeness)
qui est manifestée par le dispositif du diagramme. Pour pouvoir étudier
les fonctionnements qui sont transversaux (la similitude idéale) par
rapport aux apparences visuelles (ressemblance sensible) il faut partir
non pas de l’analyse des instruments imageants eux-mêmes mais bien des
problèmes d’une fois à l’autre différents à l’intérieur d’une recherche
scientifique qui engage des images et des dispositifs verbo-visuels.
Comme on l’a dit auparavant, il faut partir des raisons de la
fabrication d’images (leur pourquoi) et non pas simplement du plan de
l’expression des images elles-mêmes. Nous allons à présent parcourir à
nouveau certains travaux d’analyse, ici et dans la troisième section,
qui rendent compte de la façon dont une image ou plusieurs images
peuvent fonctionner diagrammatiquement.
63Essayons
maintenant de nous plonger plus en profondeur dans la relation qui peut
s’établir entre la trace de quelque chose et la nécessité de
généralisation.
64Nous
savons que les disciplines scientifiques contemporaines mettent en jeu
une tension entre la visée particularisante et la visée généralisante de
la recherche, à savoir entre l’investigation d’un objet ou d’un
parcours particulier et la tentative de modéliser et d’étendre des
avancées à un nombre d’objets et de processus les plus étendus possible.
À la lumière de la conception de la science contemporaine, la
photographie est, avec le dessin, le dispositif médiatique qui pourrait
apparaître comme dépourvu de cette double capacité parce qu’elle ne
permettrait l’investigation que sur le seul objet capté (visée
particularisante) — et non pas la généralisation sur d’autres objets
similaires (visée généralisante).
- 32 Une autre difficulté de la photographie à valoir comme instrument scientifique est le fait qu’il es (...)
65La
photographie a été considérée au début de son histoire comme un outil
important dans les disciplines scientifiques telles que la botanique,
l’astrophysique, la géographie, etc. — elle était en fait censée
fonctionner comme un miroir enregistreur de l’objet investigué —, mais
en maints cas considérée comme vide de pouvoir prévisionnel ou
généralisateur. D’une certaine manière la photographie ne pourrait pas
remplir la fonction si importante en science qui est celle de
« transporter au loin des éléments du contexte » (Latour,
1996, p. 155), comme si elle était destinée à rester enveloppée par
le localisme de sa prise de vue, par le contexte de la situation
d’enregistrement, bref comme si son mode de production lui imposait
inévitablement de rester soumise à l’analyse et à la connaissance
locales de ses produits32.
Cette idée relève à notre sens d’une perspective superficielle car la
photographie, sous certaines conditions, peut devenir un outil qui
permet la modélisation d’objets. Mais c’est vrai par ailleurs qu’une
photo en soi ne peut jamais être considérée comme scientifique. Selon
Latour, mais aussi selon Peirce, pour qu’il y ait scientificité il faut
qu’il y ait une mise en rapport, une médiation : une image isolée
n’est jamais scientifique. Comme nous venons de le dire avec la phrase
peircienne reportée toute à l’heure, « à partir de deux
photographies on peut tracer une carte », c’est en fait la
composition méthodiquement organisée de plusieurs images, à savoir
l’« image composite », qui constitue un instrument de
fiabilité scientifique en vue d’un objectif fixé.
66La question de l’image composite ou de l’image moyenne est traitée dans l’article de Giardino (2010) publié dans Visible
6, qui revient sur la célèbre méthode procédurale de l’anthropologiste
anglais Galton qui, au milieu du dix-neuvième siècle, s’est mis à la
recherche d’une méthode qui lui permettrait d’étudier scientifiquement
la physiognomonie à l’aide de l’application d’une procédure
d’abstraction mécanique à des photographies afin de comprendre les
comportements typiques de différents groupes de criminels. Les portraits
photographiques étaient d’abord disposés sur une feuille transparente,
et ensuite superposés l’un sur l’autre pour faire apparaître l’aspect
« standard » du visage d’un type de criminels. Les résultats
n’étant pas toujours satisfaisants à cause des lignes floues et des
apparences fantomatiques, Galton introduisit la considération de la
moyenne. Comme le rappelle Giardino, dans une note parue dans The Photographic News en 1888, Galton faisait allusion à ce problème en disant que dans un portrait composé il fallait montrer non seulement l’agrégat de ses composantes, qui possède une réalité physique, mais aussi leur moyenne,
qui correspond par contre à une fiction statistique. Il décidait de
mesurer les proportions entre les éléments des visages de chaque
individu du groupe et d’en faire la moyenne. Le but de ces calculs était
alors de rassembler des données permettant de décider de la bonne
inclinaison de l’appareil photo et de la distance opportune par rapport
au type de visage à représenter pour éviter l’émergence d’ombres et de
lignes floues.
67Ceci
est un des premiers exemples de l’application sur une série de photos
d’une méthode se basant sur des calculs statistiques et sur des règles
mathématiques. Mais il y a eu d’autres méthodes de compactage des
mesures dans une seule image pour faire apparaître justement sur une
même topologie mesurable les relations entre ces mesures mêmes. Comme
nous l’avons montré dans d’autres travaux (Dondero 2009a, 2009d), la
chronophotographie a été un des cas pionniers de
« compactification » dans une seule image de deux différents
types d’informations, à savoir la trace de l’empreinte d’une part et
l’analyse des intervalles temporels entre les espaces constituant la
topologie de cette empreinte à travers la méthode graphique — selon
l’appellation de E.-J. Marey —, de l’autre. La chronophotographie
témoigne en fait de la coexistence, en un seul support visuel, des
traces photographiques et de l’analyse graphique visant la mesurabilité
de ces traces, qui sont censées être utilisables pour des fins ultérieures,
non-locales. Ces chronophotographies visent à représenter la relation
entre des données locales enregistrables d’une part et des informations
mathématiquement manipulables de l’autre. Voici l’Étude de la marche d’un homme avec une baguette blanche fixée le long de la colonne vertébrale (Figure 2).
Fig.2. E.-J. Marey, Étude de la marche d’un homme avec une baguette blanche fixée le long de la colonne vertébrale, 1986.
Chronophotographie, Paris, Cinémathèque française, collections des appareils.
68La
chronophotographie a couplé la prise locale (c’est-à-dire la prise de
l’empreinte, ici le trajet en continu) avec la mesurabilité de cette
empreinte même (ici dans la trajectoire formée par la répétition de la
baguette en mouvement). Cette mesurabilité est déjà un instrument de
traductibilité, reproductibilité, transmissibilité : elle est une
photographie qui garde ensemble les détails locaux de l’empreinte et qui
en même temps construit des discontinuités au sein de cette empreinte.
Ce sont ces discontinuités qui permettent de construire une notation qui
amène chaque image chronophotographique à devenir le dépassement d’elle-même :
en passant par une notation garantie par sa partie graphique, à savoir
par la constitution de rapports spatio-temporels codés, elle peut
devenir un texte d’instructions pour l’investigation et la comparaison d’autres
phénomènes spatio-temporels que ceux concernant ce mouvement précis
photographié ici. On s’aperçoit déjà de la force d’abstraction de ce
type de photographie qui peut devenir un outil de comparaison avec
d’autres rapports spatio-temporels et ensuite un instrument utilisé en
vue d’une modélisation.
69Voici une autre chronophotographie de Marey : Étude du trot du cheval (cheval noir portant des signes blancs aux articulations) (Figure 3).
Fig.3. E.-J. Marey, Étude du trot du cheval (cheval noir portant des signes blancs aux articulations), 1886
Chronophotographie, Paris, Collège de France.
70Cette
chronophotographie est censée capter l’empreinte du mouvement
particulier de ce cheval précis (on voit le flou du mouvement), et la
partie graphique (visualisée en tant que réseaux de points blancs)
résultante de la mesure de la relation entre espace parcouru et durée de
ce parcours, permet un paramétrage du mouvement dans la durée qui
fonctionne comme une opération d’allographisation de ces mêmes données
spatio-temporelles particulières. La notation est la constitution d’un
alphabet de modules qui vise à offrir un plan de commensurabilité entre
particularités ; pas spécialement de généralisations, mais
justement des commensurabilités. Cela permet de caractériser une image
chronophotographique non seulement comme une image de quelque chose,
mais comme un lieu de commensurabilité et aussi comme un terrain qui rend possibles des manipulations qui peuvent se révéler utiles pour domestiquer le mouvement, l’étudier, l’expérimenter.
- 33 Sur la question des « images mixtes » voir Allamel-Raffin (2010) : « L’importance du caractère mixt (...)
71Ces
deux chronophotographies nous montrent que la configuration graphique
peut être littéralement « contenue » à l’intérieur de
l’empreinte photographique et que ces deux organisations différentes des
données liées au mouvement, à savoir la densité figurative de
l’empreinte et les rapports mesurables entre espace parcouru et
intervalle temporel, peuvent cohabiter et profiter l’une de l’autre33 afin de montrer un interstice de commensurabilité entre les données locales, d’une part, et les régularités se constituant en des patterns qui sont la source d’une grammaire de rapports entre espace parcouru et durée, d’autre part.
- 34 Dans le cas des arts allographiques, comme la musique ou l’architecture, la partition musicale ou l (...)
72Nous
utilisons ici le terme d’autographie selon la conception de Goodman
(1968) pour décrire le produit de l’empreinte photographique et le terme
d’allographie pour décrire la configuration graphique de la
chronophotographie. La tradition sémantique d’autographie, qui
remonte à la philosophie analytique anglo-saxonne, renvoie aux faits que
la saillance de l’image dépend de son histoire de production et que
tout trait est syntaxiquement et sémantiquement dense, à savoir insubstituable.
En ce qui concerne la configuration de l’image que Marey appelle
graphique, on peut par contre la décrire en utilisant le terme d’allographie parce que dans le sémantisme d’allographie34
est inscrit le sens de disjonction et de sélection des traits
pertinents, de stabilisation de règles syntaxiques et de transmission
d’instructions afin de multiplier les exécutions à l’intérieur d’une
classe de concordance : toutes opérations qui visent à expliquer le
fait qu’un énoncé puisse fonctionner comme producteur d’autres
énoncés à travers des règles notationnelles établies permettant la
codification d’instructions et leur lisibilité. L’énoncé en question
perd évidemment la relation privilégiée avec le support d’inscription,
unique et insubstituable qui caractérise par contre le régime de
l’autographie mais gagne en transmissibilité et manipulabilité.
L’allographisation d’une image permet de sélectionner des relations de
données, d’extraire des règles et de rendre enfin transposables
les résultats d’une investigation, de mathématiser et de fabriquer
d’autres images également. L’image photographique, en s’allographiant,
devient comparable avec d’autres images, à la fois attestées et possibles, manipulable et orientée vers le futur. En affichant des patterns et des régularités, d’empreinte elle peut se transformer ainsi en une image prédictive.
Il s’agit, dans le cas de la chronophotographie, de visualisations
qu’on pourrait qualifier de diagrammatiques, en empruntant cette fois à
Goodman le sens du terme diagramme. Le diagramme se constitue
en fait dans la commensurabilité pressentie entre dimension
autographique et dimension allographique des énoncés. À son sens, le
diagramme valorise en même temps le support des données (densité
figurative, voire autographie photographique) et la transformation des
rapports entre ces données en des véritables exemplifications de rapports utilisables pour d’autres pratiques d’investigation (allographie).
73Comme
nous l’avons esquissé auparavant, un module, à savoir un ensemble de
données homogénéisées et regroupées en fonction d’un paramètre choisi,
produit par une opération d’allographisation de l’image-empreinte,
possède la caractéristique d’être transférable et de devenir un élément
d’une notation — définissable aussi comme un environnement virtuel
qui contrôle les positionnements de ses éléments et leur syntaxe. Les
règles de cette notation déterminent les rapports syntagmatiques et
paradigmatiques permis et interdits entre modules.
- 35 Si la densité autographique du module reste forte, le module aura moins de chance de construire des (...)
- 36 Voir à ce sujet Latour (1999, § 1).
- 37 Comme le montre très bien le cas des mathématiciens grecs étudiés par Netz (2003), une des raisons (...)
74Des règles de combinaison entre les modules et leurs densités35
dépendent les réseaux plus ou moins longs et plus ou moins étendus du
référent scientifique. La possibilité d’étendre la référence par des
branchements de modules est un des buts principaux, sinon le but
principal, de la recherche scientifique36 :
l’allographisation des données visualisées rend possible
l’investigation future grâce à sa notation. La notation permet de
transformer une image unique et dont le rapport à son support est
insubstituable (forte densité des éléments pertinents à sa
signification) en une configuration de rapports réutilisable (raréfaction
des éléments pertinents à sa signification). Les modules doivent former
un vocabulaire limité de rapports, un système économique de rapports,
par exemple, dans le cas de nos chronophotographies, entre intervalle
temporel et mouvement dans l’espace37.
75On
s’aperçoit facilement du fait que des données et de leurs ancrages dans
une phénoménologie des expériences doivent être extraits des patterns qui
peuvent engendrer des nouveaux sous-systèmes de notation ou améliorer
ceux déjà existants dans un domaine disciplinaire donné. Mais ce qu’on
extrait des images autographiques ce ne sont pas des données, mais des
propriétés, des relations entre données, des équivalences, des moyennes,
bref des fondements pour l’établissement de comparabilités futures.
Et le diagramme se situe au milieu de ces deux stratégies de
représentation : entre la densité et la notation, entre une
opération de densification (image qui vise à expliquer ou résoudre des
cas précis) et une opération de grammaticalisation (image prédictive).
Le diagramme laisse ouvertes les deux portes : la porte de la
densité et du localisme, et la porte de la grammaticalisation : le
diagramme doit se manifester comme pattern reconnaissable en-deçà de l’hétérogénéité des expériences et permettre ainsi un regard anamorphique. Comme l’affirme Pierluigi Basso Fossali (2009), le diagramme est une forme abstraite de relation qui est exemplifiée dans une expérience mais transposable pour d’autres expériences.
76On
voit bien qu’à partir de la chronophotographie on ne peut plus penser
que l’image photographique nous offre une vision du particulier et le
graphique ou le schématique une vision du général. On peut garder
ensemble, dans une même image, une visualisation micro et une
visualisation macro, des particularités et des régularités, comme nous
l’ont appris les travaux de Tufte (2005). Et comme nous l’ont également
montré les études récentes de Jean-Marie Klinkenberg (2009) sur la
relation entre tabularité et linéarité dans les graphiques, un graphique peut fonctionner comme un diagramme
s’il construit une commensurabilité entre la visée locale et la visée
globale de l’exploration et de la recherche, entre données particulières
et règles transmissibles et généralisables.
77Ces
exemples nous aident à rebondir sur le fait que l’approche sémiotique
nous impose de nommer diagramme non seulement quelque chose qui a
l’apparence d’un graphique ou d’un schéma au sens banal du terme
(caractérisés par des flèches, des axes, etc.) mais ce qui fonctionne
comme un diagramme : mettre en coexistence des commensurabilités
entre des singularités et des patterns, des traces et des modèles.
- 38 On pourrait également affirmer que le processus d’iconisation qui amène, via la géométrisation stab (...)
78Une
des questions les plus pressantes dans ce genre de réflexion est la
suivante : comment construire un type, un modèle d’un objet
scientifique, à partir d’une trace photographique ? À ce sujet, un
des articles les plus importants qui ont été publiés dans les vingt
dernières années est sans aucun doute « The externalized
retina : Selection and Mathematization in the Visual documentation
of Objects in Life Sciences » (1990) du sociologue des sciences
Michael Lynch. Il identifie dans le domaine de la biologie deux méthodes
de construction de l’objet scientifique via la visualisation :
celui qui sélectionne (les données sont schématisées) et celui qui
mathématise (un ordre mathématique est attribué aux objets). Dans cet
article Lynch décrit les transformations des propriétés valorisées par
chaque type de représentation et montre comment les représentations
schématiques transforment les images photographiques au microscope en
identifiant quatre pratiques visant à construire un modèle de
ribosome : 1. le filtrage qui non seulement élimine du
bruit informationnel mais qui construit une gradation plus limitée des
qualités visibles, notamment par l’isolement des ribosomes (en tant que
figures) du fond ; 2. l’uniformisation des couleurs, des tailles et de la distribution des ribosomes ; 3. l’identification
des lisières, limites et bordures afin que les propriétés puissent
acquérir une identité d’entités. Cette identification est rendue
possible à travers différentes opérations de constitution méréologique
des données visant un processus de stabilisation des formes. C’est ici
que nous retrouvons les stratégies de l’iconisation dont nous avons
parlé dans la section précédente. Ces tests visuels peuvent se concevoir
en tant que compositions toujours partielles qui rendent compte de
l’émergence de morphologies différentes dans l’organisation des données
tout au long d’une chaîne de tentatives de stabilisation et organisation
de l’identité des objets de la recherche scientifique. En somme,
l’iconisation concerne la recherche d’une forme stable par rapport à la
confusion perceptive attribuée à la photographie microscopique : le
but est de transformer le phénomène d’un statut d’objet de recherche à
celui d’un objet acquérant une scientificité ;
4. l’identification des identités se fait aussi en corrélation avec
l’objectif du texte d’explication et d’argumentation qui
accompagne ces images. Dans le cas étudié par Lynch les ribosomes qu’on
choisit comme représentatifs sont noircis et ensuite numérotés en
suivant un parcours et un protocole de recherche qui est décrit dans le
texte. Ces entités finales appelées ribosomes sont manipulées en tenant
compte des caractéristiques du texte verbal de l’article : le
langage verbal ne peut nommer que les identités définies. C’est comme si
les formes dans l’image, considérées comme appartenant au langage
analogique, devaient de plus en plus se schématiser et identifier des
entités via la digitalisation visuelle pour suivre les règles
d’« objectification » prévues par le langage verbal. Avec la
production d’éléments bien distingués voire digitalisés dans
l’image on crée une correspondance entre les qualités extraites d’un
processus et son nom, qui lui donne une identité d’objet38.
D’une certaine manière et presque paradoxalement, la schématisation, en
rendant plus abstraites les données de la photographie, et en éliminant
tout ce qui aurait pu fonctionner comme bruit et comme artefact, permet
l’iconisation de l’objet. La schématisation supprime la variation de
nuance, de couleur, de texture et de positionnement, et tout en rendant
plus abstraite la relation entre figures et fond, elle construit des
entités enfin nommables par une sémiotique figurative. Il faut ici
préciser que par figurativisation on entend le résultat de
l’accumulation, densification et stratification de traits identitaires
qui permettent de caractériser les propriétés d’un objet. Ces parcours
d’accumulation et de stratification se font à travers une restriction
des possibles. On reconnaît donc dans la schématisation qui amène à une
abstraction des données sensibles, un parcours vers la
« figurativisation » identificatrice : l’abstraction au
niveau du plan de l’expression permet la figurativisation au niveau du
contenu.
79On peut enfin affirmer qu’à travers la schématisation on passe d’une image qui garde la trace de sa situation d’énonciation
à une image qui tend à la faire oublier, tout en valorisant non plus le
contexte de production, mais la visée identificatoire et explicative du
langage verbal à travers lequel l’image est encadrée et commentée et
ensuite en valorisant le contexte de réception, la lisibilité de l’image et la reconnaissabilité d’un objet. Ce qui, sur le plan d’expression visuel, se schématise et va vers l’abstraction, permet sur le plan du contenu de spécifier
les caractéristiques essentielles d’une entité, de créer une figure, de
figurativiser une recherche expérimentale et ensuite de construire un
objet scientifique. Lynch affirme à ce propos que la schématisation non
seulement sélectionne les données de la photographie, mais identifie
dans le spécimen des propriétés « universelles » ayant le
pouvoir de solidifier (ou bien selon notre terme, iconiser)
l’objet de référence par rapport au stade de la discipline — ce que la
quatrième action décrite par Lynch accomplit en choisissant des
ribosomes représentatifs d’un fonctionnement spécifique. Par rapport à
la photo, la schématisation n’est pas seulement une visualisation
simplifiée (il s’agit d’ailleurs aussi d’ajouter des traits et des
couleurs afin de manifester ce qui est latent dans la trace
photographique), mais également une visualisation modifiant la direction
de l’objet en fonction des soucis de théorisation et de pédagogie, et
synthétisant les démarches d’un champ de la discipline et de ses
objectifs. Ce faisant non seulement on constitue de l’ordre, mais on
fait en sorte que les données visuelles puissent s’assujettir à des
opérations mathématiques pour augmenter leur utilité.
80Ceci
dit, il faut se rappeler que la photographie est prise déjà en
concevant qu’il y aura des grilles et des dispositifs schématiques qui
l’analyseront ; ce qu’on appelle la « prise de vue » est
déjà dotée non seulement de paramètres instrumentaux adaptés à
l’objectif visé mais aussi aux méthodes d’analyse auxquelles elle sera
soumise. Lynch remarque à ce propos que, par exemple, les choix d’objets
ou processus à étudier en biologie sont faits déjà en s’appuyant sur
leurs caractéristiques protogéométriques. La visée
photographique est d’une certaine manière déjà sensibilisée par les
schématisations géométriques qui l’analyseront : on pourrait même
dire que la prise de vue a déjà incarné la transformation dans le sens
géométrique qui lui suivra. L’objet devient ainsi de plus en plus guidé
par des hypothèses, c’est-à-dire devient un objet théorique
« trans-situationnel » et ensuite utilisable didactiquement
avec une forme mathématique analysable — la construction de limites, de
lignes, de points et de symétries est un processus de géométrisation
préparant la mathématisation. En fait, la géométrisation qui prélude à
la mathématisation est déjà incarnée dans l’image schématisée :
construire un schéma d’un phénomène est selon Lynch déjà positionner un objet dans un environnement, ce qui le rend par la suite transférable et translocal. Une fois que l’objet a trouvé son positionnement à l’intérieur d’un environnement contrôlable, il peut se déplacer.
Cet environnement géométrique et ensuite mathématisable lui permet de
construire un paradigme de possibles fonctionnements comparables les uns
avec les autres.
81Nous
allons à ce propos étudier un corpus d’images du soleil valorisant les
coupures temporelles de l’observation. L’astronomie a toujours utilisé
de manière massive la photographie, car elle a permis la quantification
et la mesure des énergies lumineuses à travers le processus chimique, et
plus récemment, électronique, de l’inscription. La fréquence
établie pour les observations et pour la prise des photographies est un
exemple de coupure arbitraire d’une unité dans le continuum du
déroulement temporel : en astrophysique le changement d’échelle
fait que les instruments d’investigation changent ainsi que les
conventions représentatives.
- 39 Je remercie vivement François Wesemael pour les discussions sur ces images du soleil faites à l’Uni (...)
- 40 Voir à ce propos Bordron (2009).
82En ce qui concerne la trace du soleil39,
si on veut la mesurer à l’échelle d’un jour on obtient une image du
déplacement de l’astre qui établit une relation 1 à 1 avec le paysage
qui lui donne un référentiel40,
et grâce auquel on peut suivre entièrement le déplacement du soleil
(Figure 4). Nous sommes ici à l’échelle d’un jour (24 heures) et d’un
paysage à 360 degrés. La totalité temporelle « jour »
correspond à la totalité spatiale et paysagère « 360 degrés ».
Fig.4. Soleil de minuit.
La série de clichés
représente le parcours quotidien du soleil tel que photographié à une
latitude terrestre excédant celle du cercle polaire. Le soleil ne passe
pas sous l’horizon, ou ne se couche pas.
(Cliché Anda Bereczky)
83Dans
cette autre image (Figure 5) on voit une boucle en forme de 8 qu’on
obtient en notant la position du soleil à la même heure à divers moments
de l’année. Il s’agit du phénomène de l’analemne. Ici on est face à une
image qui est le résultat de l’exposition multiple — multiple car elle
enregistre la position du soleil à midi à divers moments de l’année —
fixée sur un seul négatif.
Fig.5. Analemme,
permettant de visualiser la position du soleil dans le ciel au même
moment de la journée tout au long d’une année
(Cliché Dennis di Cicco)
84Ici
on voit bien qu’il ne s’agit plus d’une échelle spatio-temporelle 1 à
1, ni d’une homogénéité de rapports entre le déplacement de l’objet
soleil et son référentiel dans l’étendue du paysage : un paysage
fixé à un moment donné devient le support d’inscription d’un cycle
complet du soleil tout au long des 365 jours. On a donc un paysage saisi
à un temps t donné sur lequel sont inscrits et distribués les
différents temps tn de captation et tous les déplacements du soleil qui
ont eu lieu : le paysage fonctionne comme le support fixe pour l’inscription d’un mouvement
dans le temps. Cette image permet de mettre en évidence les rythmes de
déplacement du soleil, ses parcours par rapport à un même référentiel
paysager. Ici on n’a plus la totalité d’un paysage à 360° en
correspondance avec la totalité temporelle du parcours du soleil (un
jour) : le déploiement du paysage n’est plus en correspondance avec
les changements temporels à travers une échelle 1 à 1 ; on a
réduit la grandeur spatiale pertinente pour mettre en évidence
l’ouverture de la grandeur temporelle pertinente, voire réduit l’espace
pour pouvoir schématiser la multiplication des changements de position
tout au long d’une grandeur temporelle plus vaste. Il s’agit en fait de
fixer un lieu pour voir comment s’y inscrivent les étapes du soleil
plutôt que de suivre le déploiement spatial en correspondance avec le voyage en continu du soleil.
85Lorsque
l’échelle d’un an sera dépassée, à savoir lorsque l’accumulation des
données à des temps différents ne pourra plus être
« contenue » dans le cadre d’une spatialité figurativement
homogène comme celle paysagère vue toute à l’heure dans la figure 5, —
car d’autres échelles seront devenues pertinentes (tant l’échelle des
secondes que l’échelle de millions et milliards d’années) — cette
spatialité figurativement homogène ne sera plus un support d’inscription
significatif. Par conséquent on perdra ce paysage en tant que support
d’inscription et en tant que référentiel de mesure. Le support pertinent
deviendra le papier millimétré d’un graphique qui n’établira plus
aucune correspondance entre un cycle d’événements temporels et une
spatialité paysagère, mais au contraire entre des régularités
d’événements et d’observation d’un côté et un espace topologique
mesurable de l’autre (Figure 6).
Fig.6. Courbes de lumière de quelques objets quasi-stellaires (QSO)
La brillance de l’objet est tracée en fonction du temps. L’échelle de temps ici est relativement longue, environ 75 ans
- 41 Ce schéma est extrait d’un article de R.J. Angione paru dans la revue The Astronomical Journal (no (...)
(Source The Astronomical Journal, no 78, pp. 353–368, 1973)41.
86Les
correspondances ne seront plus établies entre un support de régime
autographique et des événements qui s’y inscrivent, comme c’était le cas
des deux premières images, mais entre un support allographique et des
régularités, des patterns, des moyennes. L’unité spatiale du paysage
éclate vu que les opérations de comparaison et de mesure des proportions
changent : le référentiel n’est plus un paysage à 360°, ni un
paysage fixe et stable, mais un espace topologique, une feuille
millimétré, chiffrable.
- 42 En astronomie, la photométrie désigne l’étude de l’intensité lumineuse des étoiles, et de sa variat (...)
87Avec ces trois images on passe donc de la photographie à 360°, à travers la photographie à expositions multiples sur un même négatif, à la photométrie qui est une technique qui mesure la brillance des étoiles en fonction du temps42.
On s’aperçoit que la fréquence d’observation recherchée a des retombées
décisives sur ce qu’on peut connaître. Les échelles de temps
fonctionnent comme différents stades d’exploration de l’invisible et du
lointain. L’identité d’une étoile se construit donc par accumulation et
transposition d’échelle. Tout objet est concerné par toutes les échelles
de temps, mais son identité peut changer en rapport à la manière dont
les résultats de l’échelle sont composés et traduisibles entre eux.
88Nous
pourrions enfin affirmer que quand le temps de l’observation excède les
possibilités de vie de l’astrophysicien ou les rythmes de la vie
humaine on a besoin de recourir à des types de visualisations
schématiques qui sacrifient le rapport photographique à un
référentiel-objet déjà constitué et saisissable par des modèles
figuratifs qui peuvent être vérifiés au moins en partie par notre
expérience quotidienne. Nous voyons encore une fois que
l’allographisation de données est strictement nécessaire une fois que la
superposition des données dépasse le cadre de la totalité de
l’environnement choisi comme pertinent pour la récolte de ces données.
Une fois le cadre environnemental éclaté, il faut choisir de nouvelles
règles de représentation des données en les comprimant et en cherchant
d’autant plus les patterns qui en mettent en valeur les régularités.
89On s’occupera du mouvement inverse, des mathématiques à la visualisation, dans la prochaine section.
La vérité, comme l’intelligence,
est peut-être seulement ce que testent les tests ; et la meilleure
prise en compte de ce qu’est la vérité est peut-être
« opérationnelle », en termes de tests et des procédures pour
en juger (Goodman, 1978, p. 170).
- 43 Sur la distinction entre « science faite » et « science en train de se faire » voir Latour (1987).
- 44 Voir Goodwin (1994, 1995, 1996, 1997, 2000) et Mondada (2005). Je tiens ici à remercier Charles Goo (...)
- 45 Mais il s’agirait aussi de mettre en évidence comment les pratiques elles-mêmes produisent des text (...)
90Comme
nous l’avons déjà dit au début de notre travail, cette section peut
être considérée comme appartenant à la catégorie des études relatives à
la « science faite », voire aux analyses de la littérature
scientifique. Mais on voudrait néanmoins porter l’attention sur ce que
cette approche sémiotique de la « science faite » laisse de
côté. En fait, cette approche n’est pas sans risque car elle exclut un
travail ethnographique de recherche de terrain sur les pratiques et les
procédures d’émergence des connaissances en laboratoire (recherches
relatives à la « science en train de se faire »)43.
Cette dernière approche est partagée par un certain nombre de
chercheurs en sociologie et anthropologie des sciences, ainsi que par
des linguistes interactionnels44 qui étudient les interactions entre les chercheurs en laboratoire et les conduites des sciences contemporaines in vivo.
Ces études ne sont pas du tout de simples transcriptions et des
comptes-rendus des séances en laboratoire mais des analyses du
syncrétisme entre parole et geste dans un espace institutionnel. Cette
approche nous paraît intéressante non seulement parce qu’elle montre une
voie parcourable par les chercheurs en sciences du langage qui visent à
étudier les pratiques dans leur déploiement (énonciation en acte) mais elle offre aussi une voie pour comprendre comment les stratégies rhétoriques de la littérature scientifique (énonciation énoncée)
se basent sur une archéologie — au sens de Foucault — qui peut mettre
en valeur les négociations et les décisions prises lors des expériences.
Une recherche sur la science en train de se faire pourrait nous aider à
expliquer comment la chaîne productive des images au sein de
l’expérience scientifique (niveau des pratiques) détermine ou non le
positionnement stratégique de ces mêmes images, après sélection et tri,
au sein de la publication des résultats dans les différents genres
discursifs (niveau du texte). Il faudrait donc rapporter le premier
aspect au second : mettre en rapport le processus de visualisation
et de fabrication des images en laboratoire avec la disposition
rhétorique des représentations visuelles dans la littérature
scientifique45.
À l’exclusion du travail de thèse d’Allamel-Raffin (2004) aucun
sémioticien n’a encore pu se livrer à une étude de ce genre, c’est
pourquoi je me limiterai dans cette section à l’analyse des statuts que
les images assument dans la littérature scientifique en essayant de
problématiser aussi la question des genres discursifs.
91La
littérature scientifique épure souvent des textes, même des textes de
recherches, les discussions ayant lieu dans les lieux affectés à la
fabrication de la connaissance scientifique. Comme l’a montré Françoise
Bastide (2001), les controverses qui sont mises en scène par les
articles scientifiques sont des disputes « externes » qui se
jouent avec des laboratoires limitrophes et concurrents et qui ne
révèlent pas les aventures conflictuelles intervenues au sein du
laboratoire d’où ressortent les résultats de l’investigation dont il est
question dans les articles.
- 46 Pour un aperçu des conventions de transcription utilisées par les linguistes interactionnels voir M (...)
- 47 Dans les cas de la sociologie des sciences, ainsi que de la linguistique interactionnelle, les méth (...)
- 48 Voir Bourdieu (2001) pp. 55–66, en particulier p. 62, où Bourdieu parle de « ces fameux “actants” » (...)
92Au
contraire, les recherches des linguistes tels Charles Goodwin et
Lorenza Mondada visent à montrer la dynamique de l’émergence des savoirs
dans l’interaction entre scientifiques et objets d’enquête (rapports
entre les prises de parole, sélections d’intonations46, positionnements spatiaux des participants, gestes, outils techniques, etc.47).
Il s’agit de concevoir l’interaction comme une co-énonciation en acte,
où les voix énonciatives sont distribuées dans des réseaux
intersubjectifs et interobjectifs. Dans les travaux de Charles Goodwin
et de Bruno Latour, les scientifiques et les différents outils
techniques se diffractent et se compactent en des actants — notion
permettant de décrire avec une extrême finesse et transversalement
par rapport aux sujets et aux objets, les micro-actions qui constituent
une interaction. Chez Goodwin, c’est l’orientation globale de
l’interaction qui sert à démêler, sélectionner et ordonner les
micro-actions des scientifiques et de leurs dispositifs de médiation
(écrans d’ordinateur, crayon, microscope, appareils de mesure, etc.) —,
mais le corps du scientifique peut être lui-même étudié comme un
dispositif de médiation. Ces choix épistémologiques — concernant la
supériorité sémantique de la taille globale sur la taille locale — et
méthodologiques — concernant l’analyse actancielle —, qui peuvent se
dire comme redevables d’une tradition sémiotique poststructuraliste
pleinement assumée par les deux savants, ne visent pas à niveler
l’humain et le non-humain comme l’a affirmé Bourdieu (2001) lorsqu’il a
évalué le travail latourien48.
Au contraire, ils visent à réduire l’hétérogénéité du plan de
l’expression des interactions pour pouvoir cerner les parcours
d’iconisation de la connaissance expérimentale.
93Nous
allons ici poursuivre l’investigation sur le parcours d’un objet d’un
statut de recherche à un statut scientifique comme cela a été le cas des
ribosomes. Cette fois il s’agit pourtant du parcours d’iconisation
allant des mathématiques à leurs visualisations, en passant par les
formules algébriques et les diagrammes. Nous allons prendre en
considération la littérature de l’astrophysique et examiner les parcours
visuels que les hypothèses et les théories des trous noirs ont explorés
pour donner une forme à ces objets théoriques qui sont impossibles à
filmer ou à photographier. Les trous noirs sont non seulement théorisés
comme des manifestations invisibles (ils sont décrits comme une sorte de
gouffre qui attire la lumière — un rayon lumineux en est complètement
absorbé et tout ce qui l’approche y disparaît) mais, de surcroît, leur
existence n’est que le résultat d’un certain nombre d’hypothèses
formulées à partir d’autres phénomènes de la topologie cosmologique,
également difficiles à expliquer et auxquels il faut trouver une source
et/ou une explication. On les appelle justement « a theoretical
object » car leur configuration est expliquée principalement à
travers la théorie de la relativité générale et par d’autres hypothèses
que les équations traduisent et rendent opérationnelles.
94Nous
allons faire le parcours inverse que dans la section précédente où nous
avons présenté le dispositif diagrammatique en tant que résultat, plus
ou moins instable, d’une allographisation des traces autographiques.
Nous envisageons de décrire les différents parcours de figuration des
trous noirs dans l’article de recherche et dans l’ouvrage de
vulgarisation.
95Dans l’article de recherche ayant pour titre « Image of a Spherical Black Hole with Thin Accretion Disk » publié dans Astronomy and Astrophysics
en 1979, Jean‑Pierre Luminet, astrophysicien français de renommée, a
produit et publié une image des trous noirs (qu’il appelle photographie calculée) en en proposant ainsi une première iconographie (Figure 7).
Fig.7. Apparence lointaine d’un trou noir sphérique entouré d’un disque d’accrétion.
Photographie virtuelle d’un trou noir, calculée en 1978 sur ordinateur
Reprise dans Luminet, 2006, p. 284. Image reproduite avec l’autorisation de l’auteur.
96Cette
iconographie a été calculée à partir d’un certain nombre d’équations
dont les valeurs mathématiques ont été visualisées comme ici (Figure 8).
Fig.8. Courbes du disque d’accrétion selon différents points d’observation
Luminet, 1979, p. 234. Image reproduite avec l’autorisation de l’auteur.
97Les
séries d’équations et ces représentations que nous appelons, pour
l’heure, génériquement schématiques, ont en quelque sorte pour objectif
de sonder toutes les combinaisons des valeurs mathématiques et des paramètres pertinents qui ont été mis en jeu par les hypothèses (les paramètres de la distance fictive d’observation, de la luminosité, etc.). Dans
le cas de ces visualisations mathématiques il ne s’agit pas de la
représentation de quelque chose, mais de la visualisation de situations possibles de la matière, de comment quelque chose pourrait se configurer.
98On
s’aperçoit que les équations fonctionnent ici comme des instances
énonciatives dont les produits cherchent à trouver une médiation entre
les valeurs mathématiques et une phénoménologie perceptive du
raisonnement. Dans ces visualisations, chaque ligne correspond à une
règle de calcul : globalement, ce qui est représenté peut être
défini comme « un lieu de transition, qui assure le passage entre des effectuations différentes d’une même réalité mathématique, qui fait communiquer des séries divergentes »
(Batt, 2004, p. 22, nous soulignons). Il s’agit de tentatives
visuelles et de mises à l’épreuve de la façon dont la formation des
trous noirs pourrait être justifiable. Ces visualisations mathématiques
sont donc des iconisations des possibles, des icônes des relations qui peuvent s’engendrer.
99Comme
nous l’avons remarqué auparavant, l’icône des relations est la
définition que le philosophe et sémioticien américain Charles Sanders
Peirce donne de diagramme : le diagramme est une icône des
relations potentielles qui sont condensées dans une forme dessinée qui est à la fois saisissable (régime de la perceptibilité) et manipulable (régime
de la virtualité). C’est bien en raison de cette manipulation de
quelque chose de saisissable que nous dirions que le diagramme rend
possible une expérimentation.
100Comme
toute expérience en laboratoire l’image diagrammatique permet
d’« amplifier l’intuition » (voir Châtelet 1993), ce qui
valorise l’imagination en sciences mathématiques ; cette notion
d’amplification de l’intuition concerne un mouvement mental d’amplification qui se fait par condensation topologique.
L’amplification des relations possibles se fait notamment grâce à la
condensation en une visualisation synthétique qui permet de penser ensemble
et de rendre perceptibles les résultats des manipulations de ces
relations. Ces diagrammes permettent en fait de passer de plusieurs
longues équations à une seule condensation graphique des valeurs en jeu
qui est enfin capable de simuler des expériences de pensée sur des trous
noirs. Ces séries de manipulations visuelles d’équations paraissent
trouver enfin une condensation finale en une image différente des
diagrammes mathématiques, voire en une image colorée, qui d’une certaine
manière a rempli l’espace des possibles avec des
nuances chromatiques qui paraissent arrêter et stabiliser la
prolifération des manipulations et des expérimentations : c’est la
photographie calculée qui constitue une première iconographie des trous
noirs. Voyons comment.
101Il est évidemment très frappant que Luminet ait pu appeler photographie calculée cette
image des trous noirs (Figure 7), qui sont des phénomènes simplement
possibles, dont évidemment on ne peut capter aucune trace qui puisse les
identifier. Alors pourquoi appeler l’image des trous noirs, une
photo ? Pourquoi ne pas l’appeler simplement image ou visualisation
calculée ? Quel est l’effet de sens de ce produit qui se présente
comme le résultat du couplage d’empreintes et de calculs, de trace de
quelque chose et du calcul des possibles ?
102En
même temps que les possibles constitutions diagrammatiques se
pluralisent — on pourrait dire que le tracé diagrammatique fonctionne
comme une multiplication identitaire — apparaît la nécessité de les inscrire en une seule identité. Comme
on le sait grâce aux études sur la rhétorique de la science (Bastide
2001), à la fin d’un article, il faut stabiliser en une forme iconique
l’objet de la recherche. L’iconographie de la photographie calculée est
censée devenir le centre de gravitation identitaire de ces manipulations des possibles
qui puisse provisoirement figer en une identité unique la pluralité des
opérations mathématiques. Si le diagramme est une icône qui engendre un
mouvement dans son intérieur, puisqu’il est une image manipulable et opérationnelle, bref un lieu de travail, la conception doxastique qu’on a de la photo en tant qu’empreinte qui fige les possibles fuyants répond à l’exigence du scientifique de proposer une identité stable à ces manipulations de valeurs mathématiques.
- 49 Pour une étude plus approfondie de ces diagrammes mathématiques je me permets de renvoyer à Dondero (...)
103On
peut donc faire l’hypothèse que cette image est appelée photo pour
signaler qu’elle fonctionne comme l’empreinte stabilisant les multiples
visualisations diagrammatiques des différents paramètres qui nous font
connaître les fonctionnements de ces objets théoriques. En figeant les
séries d’opérations et de manipulations, la photo leur donne une
existence stable que les trous noirs ne pouvaient pas avoir lorsqu’ils
étaient encore « opératoires » — et, d’une certaine manière,
« fuyants ». L’image finale fonctionne rhétoriquement comme
figement des possibles, comme un arrêt sur les opérations qui
pourraient ultérieurement se développer, bref elle permet la
constitution d’un objet scientifique. Le remplissage de
l’espace « vide » des diagrammes, espace opératif, par des
nuances chromatiques, ne fait qu’ancrer ses opérations constitutives en
une icône qui puisse faire la moyenne des opérations accomplies et
visualiser une pluralité de trous noirs — cette pluralité de l’objet
représenté est d’ailleurs signifiée par le pointillé et le dégradé qui
« multiplient » les contours du gouffre49.
104Dans l’article de recherches en question, l’iconographie finale des trous noirs s’appelle enfin photo parce qu’elle fige cette pluralité possible en un objet, et calculée
parce qu’elle est justifiée et justifiable par des calculs
mathématiques. Elle est d’une certaine manière une empreinte
« nécessaire », qui ne pourrait être que ce qu’elle est. Nous
sommes revenus à la question de la démonstration visuelle obtenue par
diagrammatisation.
105On
pourrait avancer l’hypothèse que cette photographie fonctionne comme
une image autographique par rapport aux visualisations diagrammatiques
qui fonctionnent par contre comme des dispositifs plutôt allographiques.
- 50 Le tableau prend sa valeur de l’originalité et de l’unicité non répétable, d’ailleurs en peinture c (...)
106Comme
nous l’avons dit auparavant, une image est autographique si elle
témoigne d’une configuration originale, unique et non-répétable, comme
c’est le cas des tableaux où c’est l’unicité du parcours sensori-moteur
du producteur qui fait sens50.
L’image autographique est syntaxiquement et sémantiquement dense, à
savoir chaque trait est pertinent pour sa signification et son identité.
Cette idée, qui suit les suggestions de Goodman, recouvre ce que nous
appellerons une autographie inchoative, ou bien productive voire qui dépende de la pratique génétique de l’image elle-même.
- 51 Sur les différentes visualisations des mêmes données en astrophysique des hautes énergies voir l’ar (...)
107En ce qui concerne l’allographie, il s’agit par contre d’un régime d’images qui visent simplement la visualisation des données, elles sont donc des images manipulables
par d’autres chercheurs, reproductibles avec des variantes de
paramétrage ou bien des filtres et qui, par conséquent, ne constituent
pas des iconographies stables51.
C’est ce que nous avons discuté dans la première section avec l’exemple
des visualisations des astres. Elles peuvent être considérées comme des
images qui donnent des instructions pour des manipulations ou des
constructions ultérieures.
- 52 Sur l’autographisation de l’image médicale dans un cadre muséal voir Colas-Blaise (2011).
108Il
est évident que la photographie calculée des trous noirs ne peut être
considérée ni comme une image appartenant à l’autographie inchoative ni à
l’allographie des visualisations. Elle est simplement le figement en
une identité d’objet de tous les parcours de visualisation
pertinents et possibles et qui partagent un statut allographique. Il
s’agit donc d’une autographie que nous appellerions terminative,
voire une autographie non plus inchoative et productive, mais vouée à
la réception, à savoir à une fixation visuelle construite pour donner
une existence institutionnelle à un objet (ou à des objets) à
l’intérieur de la communauté scientifique. Cette autographie terminative
est produite par une procédure de figement des formes allographiques
qui deviennent stables et qui se présentent au public comme définitives,
denses, non-manipulables. En fait, il s’agit d’une autographie obtenue
par stabilisation et institutionnalisation des formes
diagrammatiques qui deviennent donc (provisoirement) uniques et non
manipulables. Le fait que la photographie calculée des trous noirs ne
permet plus de contrôler ses dispositifs énonciatifs montre bien qu’elle
est devenue une image presque auratique, à l’instar des tableaux
artistiques52.
109Si,
donc, l’autographie caractérise les productions visuelles de statut
artistique, par contre l’aller-retour entre autographie et allographie
est typique de l’image scientifique qui joue entre la manipulabilité
allographique et la stabilisation et institutionnalisation
autographiques des formes.
- 53 Pour l’objet artistique c’est le mot fin définitif, dans le cas de l’objet scientifique il ne s’agi (...)
110Les
images finales telle que cette photographie calculée excluent la
publicisation des échelles et des valeurs dont elles proviennent :
même si cette image est produite par le biais d’une composition de
visualisations partielles et allographiques (ce qu’on a appelé les
diagrammes mathématiques des trous noirs), elle tend à nous le faire
oublier : elle cache ses moyens de fabrication et se manifeste
comme une image finale et définitive chosifiant un objet de recherche —
et l’offrant ainsi à la vulgarisation. Sur cet objet elle veut offrir
le dernier mot, au-delà duquel on ne va pas : c’est pour cela
qu’elle supprime toute référence à des paramètres qui pourraient la
rendre encore manipulable et opérative. Cela arrive aussi avec les
tableaux et d’autres œuvres d’art : en art on signe la toile pour
affirmer que chaque trait est le bon, le définitif, et qu’on ne peut
plus rien modifier la signature est une manière de sacraliser le tableau
et par conséquent d’exclure toutes les esquisses faites et refusées en
tant qu’épreuves ainsi que les possibles contrefaçons futures. Dans le
cas de la photographie calculée on supprime les mesures et les échelles,
bref toutes les références à l’énonciation : cette suppression
permet de « muséifier » les résultats des investigations qui
les ont constituées — dans notre cas, les dispositifs diagrammatiques
qui peuvent être conçus comme des « esquisses ». Il y a
finalement un rapport étroit entre le régime de la
stabilisation/institutionnalisation d’un objet scientifique voire de la
vulgarisation scientifique et celui de l’œuvre d’art. Dans les deux cas,
l’image se manifeste comme quelque chose sur quoi on a mis le mot
« fin »53.
- 54 Voir à ce sujet Cheroux et alii (2005).
- 55 Discussion lors du colloque « La lettre et l’image. Enquêtes interculturelles sur les territoires d (...)
- 56 Voir à ce sujet Dondero (2005) et Dondero (2009e).
111Mais ce n’est pas tout. Si la muséification des formes en science concerne un devenir-objet des expériences, et plus précisément un devenir-autographique d’un objet de recherche — qu’on pourrait appeler le devenir autographique d’une recherche scientifique
—, nous voudrions à présent faire quelques petites remarques sur la
tradition iconographique de cette image calculée, tradition qui dérive
non seulement d’une « déformation » de l’iconographie
scientifique de Saturne (voir Luminet 2006 et Dondero 2007) mais aussi
d’une tradition qu’on peut considérer comme faisant partie du statut
artistique. En fait, les manifestations éidétiques et chromatiques de la
photographie calculée renvoient à la tradition de la soi-disant
photographie spirite et, plus précisément, à la photographie des fluides
énergétiques des vivants mais plus souvent des morts évoqués par des
médiums54. Comme l’a remarqué Carl Havelange lors d’une réunion scientifique à l’Université de Liège55, les pointillés, le flou et le dégradé sont des stratégies énonciatives utilisées par ce type de photographie pratiqué fin 19e, début 20e siècle
afin de témoigner d’une présence dont le statut est incertain. Il
s’agissait de présences phantasmatiques ou de présences auratiques qui
sont, selon le vocabulaire benjaminien, des présentifications de quelque
chose d’absent, de passé ou de lointain qui se manifestent à travers
des halos ou d’autres configurations évanescentes de la matière56.
Du côté de la photographie spirite l’opposition semi-symbolique entre
le halo auratique et la netteté est liée à une opposition sur le plan du
contenu entre une présence au statut incertain (trace du transcendant)
et la présence matérielle bien identifiable dans un ordre de réalité
tout à fait quotidien (immanence). Dans le cas de la photographie
calculée il s’agit plutôt d’une opposition sémantique entre ce qui est
seulement possible et ce qui est stabilisé dans la théorie, c’est-à-dire
confirmé par d’autres phénomènes mieux connus. Ou mieux, en
l’occurrence, entre ce qui est pluriel et encore opératif et ce qui est
davantage stabilisé en tant que noyau dur de tous les trous noirs. Mais
dans les deux cas il s’agit, avec le halo, de représenter une présence
possible ; dans un cas c’est la promesse d’une communication future
(c’est la personne morte qui revient, évoquée par des médiums), dans le
second cas il s’agit d’une opérativité expérimentale passée — les
pistes possibles sont à la base de cette image, tout en ayant perdu leur
capacité de proliférer.
112Nous
allons à présent vers la deuxième partie de cette section qui se
propose de prendre en compte l’image artistique comme ancêtre de
l’iconographie scientifique. Comme nous venons de le voir dans le cas de
l’article de recherche il s’agit seulement d’une parenté faible entre
pratiques artistiques et scientifiques. On a appelé la première parenté
le devenir autographique d’une recherche scientifique, on pourrait appeler la deuxième, que nous allons présenter, l’emprunt de solutions artistiques par l’iconographie scientifique.
Par contre, il s’agit cette fois d’un ouvrage de vulgarisation et d’une
parenté bien plus fondamentale, où l’image artistique peut servir à
concevoir l’objet de recherche scientifique.
Quand la vérité demande trop de
minutie, quand elle est trop inégale ou ne s’accorde pas facilement avec
d’autres principes, on peut choisir le mensonge le plus proche pourvu
qu’il soit raisonnable et éclairant (Goodman, 1978, p. 168).
113On
vient de voir que les images artistiques ont quelque chose en commun
avec les images qui, en sciences, stabilisent les résultats pour les
offrir comme résultat final, évidemment provisoire, d’une recherche qui
trouve un achèvement partiel. Ces images qui se présentent comme point
final sont aussi les images normalement retenues par les publications de
vulgarisation comme identifiant l’objet de référence.
114La
vulgarisation est le genre rhétorique par excellence car elle doit
savoir construire une plasticité cognitive des objets de la recherche
scientifique pour en faire des objets déformables dans des
représentations le plus possible concevables dans le monde de la vie
quotidienne. Les ouvrages de la vulgarisation savante sont les lieux des
arrangements cognitifs par excellence : ils sont lus par des
collègues de la même discipline qui ne sont pas de spécialistes de la
matière spécifique traitée, et ils doivent pouvoir être lus aussi par
des collègues des disciplines limitrophes.
115Venons-en
plus précisément aux ouvrages de vulgarisation qui traitent des trous
noirs. Dans les ouvrages de vulgarisation savante, les images des trous
noirs sont censées représenter la vision fictive qu’un
observateur en chair et os tombant dans un trou noir pourrait avoir. En
fait, dans les chapitres de l’ouvrage de Jean‑Pierre Luminet, Le destin de l’Univers. Trous noirs et énergie sombre
de 2006 (écrit donc bien 27 ans après l’article qu’on vient
d’examiner), on est face à un tout autre parcours d’argumentation et
d’explication de l’iconographie et du fonctionnement des trous noirs que
dans les articles de recherche.
116Les
deux différences les plus évidentes entre les deux textes concernent
premièrement le fait que dans la vulgarisation on essaie de rétablir un
rapport entre l’objet de recherche scientifique et l’échelle du corps
humain, voire la sensori-motricité liée à la vision, et deuxièmement le
fait que les équations ont totalement disparu : toutes les images
et les schémas rencontrés dans ces chapitres ont perdu toute référence
stricte à des procédés mathématiques d’instanciation. Ce sont des images
d’un tout autre genre qui se substituent aux équations mathématiques.
On trouve aussi des images artistiques à proprement parler ou des images
illustrant des ouvrages littéraires. Les images de ce genre, insérées
dans l’argumentation scientifique, sur lesquelles nous voudrions porter
l’attention, sont au nombre de deux.
117La
première reprend le système de représentation de l’artiste hollandais
Maurits Escher et est retravaillée par Luminet (Figure 9) qui, de
l’artiste, valorise l’espace construit sur des inconséquences
topologiques effrayantes et sur des architectures illogiques et non
praticables pour montrer que le trou noir est un espace vertigineux,
dévorant et duquel rien ne pourrait ressortir. Escher est d’ailleurs
l’artiste qui plus que tout autre a su décrire l’ouverture vers le vide,
la montée qui se transforme en une chute aspirée ; en un mot, il
est l’artiste du vertige, ce qui convient parfaitement à la mise en
scène des trous noirs.
Fig.9. Jean-Pierre Luminet, Le Trou noir
Lithographie et dessin, 66 x 91cm, 1992
Image reproduite avec l’autorisation de l’auteur.
118La deuxième est un dessin de A. Rackham extrait d’un conte de l’écrivain E.A. Poe contenu dans Tales of Mistery and Imagination (Figure 10) qui représente un vortex incessant qui dévore et nivelle tout.
Fig.10. Illustration de A. Rackham (parue dans E.A. Poe, 1935)
119Ces
images font partie de ce qu’on a appelé l’autographie productive :
elles ne sont pas des images reproductibles à travers de paramètres
expérimentaux, elles font par contre part de notre histoire artistique
et culturelle. Elles sont non manipulables et uniques, elles ont un
auteur.
120L’image
d’après Escher (Figure 9) nous modalise comme des spectateurs voyant un
gouffre s’ouvrir sous nos yeux, à nos pieds, prêts par conséquent à
plonger dans le vide.
121Les
dés qui tombent dans le gouffre mettent en scène la tentative
scientifique de brider le hasard en le rapportant à des résultats
contrôlables (la combinaison des six faces du cube). Le fait qu’il
s’agisse de dés n’est pas dû au hasard : ils représentent l’objet à
travers lequel on peut tenter de calculer ce qui est en train de se
passer et qui parait être complètement incompréhensible. Emportés par la
force attractive du trou noir, les dés entrent et tombent dans une
fissure tectonique ; les dés qui tombent représentent donc le
point-limite de la calculabilité scientifique car à l’intérieur de ce
gouffre il manquera un plan d’appui et ils ne pourront plus se
stabiliser en une position qui manifeste un résultat. Ces dés se
révèlent comme une métonymie de tous les éléments prothésiques de l’être
humain qui visent à brider l’indétermination. Mais les faces des dés
deviennent de plus en plus indiscernables et ils exemplifient
l’impossibilité de calcul et de prévision. À travers un raisonnement
figural, ces dés mettent en scène le trou noir en tant que mouvement
chaotique qui ne permet même pas une position d’observation statistique
de ses turbulences. Leur pluralisation met en valeur leur fonctionnement
en tant que matériaux pour édifier des architectures théoriques
possibles : leur chute est la débâcle de toute construction et tout
contrôle. D’une certaine manière, ces dès disparaissant dans le trou
montrent non seulement le fonctionnement de la force d’engloutissement
provoquée par le trou noir (énoncé scientifique), mais les difficultés
auxquelles doit faire face le scientifique pour concevoir un espace qui
refuse tout contrôle (énonciation scientifique).
122Dans
l’image de Rackham (Figure 10) on est déjà plongés dans un stade
ultérieur de la chute : la perspective est inclusive, nous, les
spectateurs, sommes au bord du gouffre qui va nous inclure : nous
allons être entraînés par le remous ; les objets qui sont déjà dans
le vortex ont perdu le sens du bas et du haut. Ici le tourbillon est
pour nous, les spectateurs, irrésistible. On pourrait affirmer que
l’image de Escher est « propédeutique » à l’image de Rackham,
qui l’accomplit, même à travers d’autres stratégies figuratives.
123Si
on suivait la doxa, on pourrait affirmer qu’à l’origine de toute
hypothèse scientifique, dans le cas des objets théoriques, il y a le
monde mathématique des équations, et qu’ensuite il y a la vulgarisation,
faite par des citations littéraires et d’images artistiques qui font
intervenir la fantaisie. Mais en lisant l’ouvrage de Luminet on
s’aperçoit que les images artistiques ne visent pas à simplifier les prises de positions théoriques. Elles visent au contraire à exemplifier
visuellement des conflits de forces qui sont au cœur de la théorisation
sur les trous noirs par le biais d’une transposition figurative et
plastique qui permet de rendre perceptibles les théories sur la
relativité étant à la source des hypothèses des trous noirs, à savoir
les tensions entre la perte d’orientation et la recherche de repères,
entre l’engloutissement et des stabilisations proprioceptives
provisoires. Ces images sont utilisées pour rendre analogiquement saisissables des perceptions possibles.
124Outre
ces images appartenant à un statut artistique ou à l’illustration
littéraire, cet ouvrage accueille aussi des textes littéraires sous
formes de citations comme dans le cas du poème d’E.A. Poe. En fait
tout au long de la description du voyage fictif près du centre du
tourbillon du trou noir, à savoir tout au long du texte principal de
l’explication, Luminet laisse la parole à des extraits des contes des Tales of Mistery and Imagination
d’E.A. Poe. Luminet attaque la description de la force
irrésistible du trou noir en affirmant : « Alors, à 20Km/h les
cercles des navigations plongent tellement dans la gueule du tourbillon
que, comme l’écrit E.A. Poe “si un navire entre dans la région de
son attraction, il est inévitablement absorbé et entrainé au fond et,
là, déchiré en morceaux” » (p. 270).
125Toute
la description de Luminet est accompagnée par des citations provenant
des plus célèbres poètes et romanciers de tous les temps. Je vous donne
quelques exemples. Dante : « Vous qui entrez ici, laissez
toute espérance » (p. 260) ; E.A. Poe :
« Je fus possédé de la plus ardente curiosité relativement au
tourbillon lui-même. Je sentis positivement le désir d’explorer ses
profondeurs, même au prix du sacrifice que j’allais faire ; mon
principal chagrin était de penser que je ne pourrais jamais raconter à
mes camarades les mystères que j’allais connaître » (p. 264) ;
autre citation toujours de E.A Poe : « Mais il me reste
peu de temps pour rêver à ma destinée ! Les cercles se rétrécissent
rapidement — nous plongeons follement dans l’étreinte du tourbillon —
et, à travers le mugissement, le beuglement et le détonement de l’Océan
et de la tempête, le navire tremble — oh ! Dieu ! — il se
dérobe, il sombre ! » (p. 268) ; Rimbaud :
« La plaque du foyer noir, de réels soleils de grèves :
ah ! puits de magies » (p. 277).
- 57 La photographie calculée qu’on a analysée réapparaît dans l’ouvrage de vulgarisation de Luminet de (...)
126Nous
voyons que, en progressant d’une citation littéraire à l’autre, ainsi
qu’en progressant d’une image artistique à l’autre, la description de la
chute se précise de plus en plus, ainsi que les effets sur notre
perception sensori-motrice. Il s’agit dans les deux cas d’un régime
perceptif extrême exprimant la peur de l’abyme sans fond, maintes fois
pensé, visualisé, disserté, mis en valeur par des modèles culturels —
provenant du monde des arts plastiques et de la littérature, mais aussi
de la psychologie et de l’anthropologie. Ce sont ces modèles culturels
qui deviennent la source de la pensée scientifique et qui permettent
d’envisager la concevabilité de la théorie qui seulement ensuite produit les hypothèses à vérifier et seulement ensuite produit la cascade d’équations qui, de leur côté, produiront l’iconographie de la photo calculée57.
127Il
nous semble que l’iconographie artistique vient en aide au parcours
strictement scientifique du premier article de 1979 parce qu’elle permet
de contribuer à l’exemplification figurale du fonctionnement
des trous noirs. L’exemplification figurale se fonde sur
l’exemplification métaphorique de Nelson Goodman qui a essayé de
substituer la centralité de la notion de dénotation en tant que renvoi du langage, visuel également, à un monde de référence avec le concept d’exemplification justement.
Comme l’affirme Pierluigi Basso Fossali (2008) le concept
d’exemplification nous permet de prendre en compte le médium
linguistique (au sens large, sémiotique) comme un passage essentiel pour
constituer des échantillons d’un monde auquel on ne peut attribuer une
signification qu’en le constituant — c’est le cas des nos images
artistiques, qui permettent de concevoir/constituer un monde auquel la
connaissance expérimentale n’a pas véritablement d’accès.
128Les
images artistiques doivent donc être conçues comme des objets culturels
fonctionnant comme des échantillons de mondes qui exemplifient des
propriétés d’un objet (la vitesse d’engloutissement, l’effet de
tourbillon, la non possibilité de retour, etc.). Bien sûr l’image
artistique ne possède pas les mêmes capacités de génération, manipulation, généralisation
qui caractérisent les équations ; mais d’un point de vue
rhétorique l’image artistique, qui est une image allotopique au sein du
discours scientifique, s’y projette en gardant en mémoire son
potentiel sémantique. D’ailleurs tout scénario de valeurs, associé à un
domaine social (scientifique, artistique, religieux, etc.), n’est pas
suffisant à lui-même et l’exemplification figurale est censée remplir les manques de bases et de fondements de chaque domaine.
129La
charge allotopique des iconographies artistiques au sein du discours
scientifique nous demande d’activer une tension entre scénarios
différents : c’est comme si un point de vue anamorphique permettait
de déplacer la non-congruence du paysage figuratif des images
artistiques dans un autre paysage qui l’englobe et l’intègre pour
rejoindre une nouvelle intelligibilité, un espace tiers qui n’est pas
intratextuel et tourné vers lui-même (comme dans le cas des diagrammes),
mais bien intertextuel et tourné vers la mise en relation de deux
domaines de valeurs.
130L’image
artistique se révèle dans ce cas comme une image mise en perspective en
offrant à la science des trous noirs une « experiencialité »
virtuelle. Si normalement, pour détecter des phénomènes qui pourraient
concourir à l’identification d’un phénomène comparable aux hypothèses
que l’on fait sur les trous noirs, on utilise les prothèses et les
instruments les plus éloignés et abstraits du corps humain (l’astronomie
gamma en l’occurrence), l’image artistique peut assurer, à travers une
anaphore fulgurante, un retour à l’incarnation. L’image artistique
incarne la perception-action de parvenir enfin à se rapprocher du trou
noir qui se charge ainsi de valeur relationnelle : sa valeur
devient celle de pouvoir le rejoindre.
131Nous
pourrions affirmer, enfin, que dans l’article de recherches que Luminet
avait publié en 1979, l’attention portée sur la relation entre
équations et visualisations se concentrait sur la recherche des liens et
des justifications entre étapes du processus de référentialisation.
Dans ce cas la référence en question était construite par la théorie de
la relativité générale, partagée par tous les collègues qui étaient
censés lire l’article, et il n’était pas nécessaire de la justifier en
tant que source de l’article sur les trous noirs. Dans l’ouvrage de
2006, au contraire, la communauté des possibles lecteurs s’élargit et
Luminet tend ici à construire une véritable archéologie de l’être
concevable même du trou noir : toutes les références à la
littérature et à l’histoire de la culture se justifient à travers cette
nécessité de remonter à l’origine de la référentialisation, une origine
partageable. On s’aperçoit ainsi que dans la vulgarisation il ne s’agit
plus de rendre explicite les connexions et les liens entre étapes du
parcours de référentialisation, mais bien au contraire de justifier en
amont l’origine d’une hypothèse et d’en trouver les traces dans notre
univers culturel. Paradoxalement, l’image artistique permet au lecteur
de l’ouvrage scientifique de faire un pas en arrière sur les
fondements de ces recherches scientifiques : si dans l’article de
recherche les fondements de la référentialisation ne concernent que la
théorie de la relativité générale et les équations qui en découlent,
dans l’ouvrage de vulgarisation les fondements de la référentialisation
vont plus loin et concernent des configurations sémiotiques fondées sur
des formes de vie de notre culture. Ces images artistiques, allotopiques
par rapport à la procédure strictement scientifique, montrent que
Luminet engendre une réflexion sur l’origine culturelle de l’image
fabriquée à la fin des années 70 et sur les savoirs stratifiés dans la
compétence du lecteur en tant que source de sa théorisation.
Non moins sérieusement que les
sciences, les arts doivent être considérés comme des modes de
découverte, de création et d’élargissement de la connaissance au sens
large d’avancement de la compréhension, et la philosophie de l’art
devrait alors être conçue comme partie intégrante de la métaphysique et
de l’épistémologie (Goodman, 1978, p. 146).
- 58 Voir à ce sujet l’importante contribution de Colas-Blaise (2011) qui affirme : « Dans une perspecti (...)
- 59 Sur les différents modes d’interprétation des œuvres d’art et des sciences de la nature voir Allame (...)
132Dans
cette quatrième et dernière section de notre travail nous allons nous
consacrer à l’exploration de la relation entre arts et sciences, en
partant de quelques réflexions générales58,
et ensuite en abordant quelques exemples. Nous visons surtout la
discussion des questions liées aux rapports de l’art avec les
mathématiques en abordant cette question : est-ce que les
mathématiques, étant les alliées des sciences, représentent les langages
les plus éloignés des arts ? Ces questions ont été abordées
notamment par Allamel-Raffin (2011)59, Bordron (2011) et Dondero (2011a).
133Dans
un article contenu dans un dossier intitulé « L’image entre arts
et sciences : une sémiotique de l’attirance », Bordron met en
comparaison deux représentations du cube : l’une nous montre le
dessin d’un cube utilisable dans une démonstration de géométrie et
l’autre le grand cube que Giacometti a sculpté en 1934. L’auteur montre
comment ces deux cubes, tout en semblant identiques car ils ont tous
deux à voir avec une figure géométrique dans l’espace (un polygone), se
révèlent dissemblables car leurs modes d’existence sont radicalement
distincts. En analysant leur rapport avec l’espace qui les entoure,
Bordron distingue le cube de Giacometti qui doit être exploré selon
différentes perspectives fonctionnant comme des esquisses perceptives
toujours partielles, et qui se stratifient l’une sur l’autre à travers
une mémoire perceptive, alors que le cube géométrique, vu en
transparence, offre la totalité de ses faces :
Le cube géométrique s’offre à
une visibilité extrême car il doit être connu sans restriction […] On
notera, comme conséquence du même dispositif, que le cube géométrique
n’a pas d’ombre portée, nulle lumière ne le donne à voir. Il est pour
ainsi dire visible de lui-même, dans toutes les directions. Il ignore
l’opacité de la matière et le jeu des ombres. Le point de vue d’où il
est vu ne semble devoir rien cacher.
134Les
traits distinctifs concernent deux différentes manières d’apparition et
de relation au corps. En ce qui concerne les manières d’apparition, si
le cube artistique implique « un jeu d’esquisses en quête
d’unité », les différentes perspectives dans lesquelles on pourrait
plonger le cube mathématique construiraient des nouvelles questions et
des nouvelles solutions, plus ou moins complexes, dont toutes auraient
un certain caractère d’évidence rationnelle : c’est la générativité
des mathématiques qui s’oppose à « l’efficacité multiple »
(Didi-Huberman) de l’œuvre d’art. Il ne faut donc pas confondre le
caractère inépuisable du cube matériel, inépuisable de par ses esquisses
possibles et par l’infinité de ses propriétés également possibles, et
l’infini des situations mathématiques envisageables (l’infinité des
possibles mathématiques).
135En
ce qui concerne la relation au corps, Bordron affirme que le cube de
Giacometti semble nécessiter la présence d’un sujet percevant et
agissant, tournant autour : « Le mode d’existence du cube de
Giacometti ne semble pas pouvoir être compris sans cet espace de
remémoration dans lequel il prend place du seul fait d’être
perçu ». Par contre, le cube géométrique ne doit pas forcément être
situé par rapport à un corps percevant : il n’a pas besoin d’une
« bonne distance » à partir de laquelle il faut l’observer
car :
L’intuition qui nous le donne
n’est pas, ou pas seulement, celle de notre sensibilité, il faut aussi
que soit donnée celle d’une idéalité. […] Le corps géométrique se trouve
concevable en l’absence même du corps charnel ce qui est au fond son
ultime spécificité. […] Même si l’on peut soutenir, avec de bons
arguments, que la géométrie s’enracine dans l’expérience perceptive, il
n’en reste pas moins qu’elle peut signifier l’espace des idéalités et
c’est là ce qui la caractérise essentiellement.
- 60 Bordron (2011) identifie deux autres types de mémoire outre celles caractérisant l’esthétique et le (...)
136Ces
deux cubes se différencient donc essentiellement par le registre de la
mémoire qu’ils mettent en œuvre. La mémoire liée au rapport esthétique
serait pour une bonne part involontaire, éprouvable à travers les
évocations qui la rendent très personnelle et incommunicable, tandis que
la mémoire présupposée par le cube mathématique est sensible (la
démonstration mathématique est également un fait de perception, de
l’évidence perceptive), mais ce qui la distingue de l’autre est le
vecteur d’une évidence toujours renouvelable et toujours communicable
dans le cadre de la démonstration60.
137On
pourrait croire, après ces réflexions, que l’image artistique n’a rien à
faire avec les mathématiques. Est-ce que ce sont les mathématiques,
appartenant exclusivement à la construction de l’image scientifique, qui
la distinguent de l’image artistique ? Nous allons voir quelques
exemples qui pourraient nous donner quelques ébauches de réponse
négative à cette question. Nous essaierons de comprendre comment la
topologie de l’image scientifique fonctionne par rapport à d’autres
topologies dont le statut n’est pas scientifique mais artistique :
ces exemples rendent difficile une tranche nette entre les types
d’espace spécifiques aux statuts artistique et scientifique des images.
- 61 Voir à ce propos Basso Fossali & Dondero (2011).
138Nous
savons bien que les images peuvent assumer, tout au long de leur
histoire, des statuts différents — par statut j’entends la stabilisation
institutionnelle des usages d’un texte qu’il soit visuel ou
verbal ; il est donc toujours embarrassant d’identifier une fois
pour toutes une image comme artistique ou scientifique, publicitaire ou
documentaire. L’étude de sa biographie nous montre souvent qu’elle peut
être assumée tout au long de son histoire sous différents cadres, à
l’intérieur de domaines différents et surtout par les différentes
traditions visuelles dans lesquelles elle s’inscrit61.
- 62 Bordron (2011) affirme que le détournement de l’art en connaissance est beaucoup plus difficile à c (...)
- 63 Sur le double processus de l’« artistisation » de la science et de la « scientifisation » de l’art (...)
139Comme plusieurs chercheurs l’ont remarqué (voir Bordron 2011)62,
il est plus fréquent qu’une image scientifique soit assumée comme œuvre
artistique que l’inverse, mais il faut nuancer cette évidence63.
Précisément en se demandant : est-ce que la signification de
l’organisation topologique de l’image dépend de cette question
statutaire, une même organisation de l’espace pouvant être assumée par
n’importe quel statut ? Est-ce que, vice-versa, le statut dépend de
l’organisation spatiale de l’image ?
140Dans le cas de l’image scientifique cette organisation en principe devrait être :
-
informative — à savoir
une organisation à partir de laquelle on peut obtenir des réponses par
rapport à une question ou à un problème donné ;
-
digitalisable — à savoir constituée par des éléments disjoints ;
-
modulable ;
-
sa genèse est censée être reproductible par une communauté de chercheurs.
141Toutes ces caractéristiques en principe ne devraient pas être partagées par l’image artistique.
142Nous
précisons que nous entendons par espace modulable un espace qui peut
donner existence à des modules qu’on peut imaginer comme des
sous-organisations et de regroupements divers et concurrentiels de
données. Il est donc différent de digitalisable, car la propriété d’être
digitalisable n’est qu’une qualité nécessaire de la propriété d’être
modulable, à savoir ré-organisable à travers plusieurs ordres et
faisceaux de critères.
- 64 Voir à ce propos Darras (2011) qui affirme que les scientifiques : « utilisent alors la mention “vu (...)
143Comme
nous l’avons déjà affirmé auparavant, la littérature scientifique
accueille en son sein des images qui ne sont proprement scientifiques
que si par image scientifique on entend qu’elle est caractérisée par les
quatre spécificités énumérées toute à l’heure, et notamment que le
parcours de la genèse de l’image peut être justifié et reproduit à
partir des paramètres expérimentaux ou des modèles mathématiques. Deux
autres types d’images sont utilisés dans la littérature
scientifique : la première est l’image de statut artistique, image
produite par un artiste, qui se situe dans une tradition artistique et
qui est utilisée par les scientifiques notamment dans le genre de la
vulgarisation savante. La deuxième est la vue d’artiste, produite par
des scientifiques, par exemple des astrophysiciens graphistes qui
travaillent pour la NASA64.
144En
général, l’image artistique peut être publiée dans la littérature
scientifique pour signifier le fait que les modèles d’espace
expérimentés par les scientifiques peuvent avoir eu comme source
d’inspiration une organisation spatiale déjà exploitée par des artistes.
Certains scientifiques déclarent cette source. Pensons banalement à la
Renaissance où Copernic avait été influencé par les artistes et savants
italiens sur la représentation de l’espace tridimensionnel, qu’il
incorporait dans son système astronomique en transformant la fenêtre de
Brunelleschi en une fenêtre mouvante (en concevant la terre en
mouvement). L’application de la perspective à la vue humaine du ciel lui
permit de déterminer la structure du cosmos et les relations parmi ses
constituants, ainsi que de calculer la distance entre les étoiles. La
perspective est d’ailleurs un système qui permet de construire une
commensurabilité entre des objets de taille et de distance divers.
- 65 Voir par exemple Luminet (2009).
145Mais
dans les sciences topologiques contemporaines il y a des cas encore
plus intéressants. Par exemple, la cosmologie relativiste moderne a
quitté l’idée que l’espace de l’univers est fait d’astres
compréhensibles à travers différents types plus ou moins réguliers de
polyèdres (prismes, rhomboïdes, etc.) (Figure 11) pour embrasser l’idée
que l’espace en lui-même est polyédrique et que le cosmos en tant que
totalité finie possède une structure cristallographique (Figure
12, Planche Ia). Ces deux images d’Escher sont utilisées par
l’astrophysicien Jean-Pierre Luminet dans plusieurs de ses écrits65.
Fig.11. M.C. Escher, Study of Stars
Wood engraving, 1948
Fig.12. M.C. Escher, Symmetry Watercolor 78
Watercolor/colored pencil, 7 7/8 x 7 7/8, 1950
146À
travers la production d’Escher, Luminet (2009, p. 11) montre deux
conceptions de l’espace de l’Univers : de l’image d’un espace
habité d’astres qui prennent les formes de dodécaèdres ou d’autres
polyèdres, aux images de l’espace dodécaédrique de Poincaré qui est
visualisable à travers des topologies construites par des pavages
périodiques, produites par des translations en plusieurs directions,
mais aussi des rotations, des symétries axiales, des symétries glissées66.
Ces deux images exemplifient le passage intervenu dans la théorisation
de la topologie cosmologique d’une organisation spatiale de l’espace de
l’univers à l’autre, à savoir de la représentation d’un espace rempli des dodécaèdres à la représentation de l’espace en dodécaèdre.
147Escher
est bien sûr considéré comme un artiste mais ces images résultent
d’expériences de la géométrie hyperbolique et sont devenues des images
qui ont posé des problèmes mathématiques et qui ont fait évoluer la
réflexion de la géométrie. Voyons comment.
148Les modèles d’univers qui sont incarnés par cette deuxième image d’Escher sont appelés wraparound models :
ces modèles utilisent des cubes ou des parallélépipèdes pour créer un
espace toroïdal, leur propriété principale étant de se fonder sur des symétries.
Ces symétries sont réalisées par des groupes d’holonomie selon lesquels
les points correspondant à chaque face sont liés entre eux d’une
manière telle que l’espace physique résulte d’un processus complexe de repliement sur
lui-même. Ces modèles mathématiques changent beaucoup de choses en
astronomie : il ne s’agit plus de penser qu’à chaque point de la
lumière observable correspond une étoile spécifique, mais de penser que
chaque corps céleste est représenté par un certain nombre d’images
fantômes ou mirages gravitationnels (ghost images), ce qui veut
dire que ce que nous voyons n’est pas le ciel comme il est, mais un
croisement et une multiplication d’images de l’univers, à plusieurs
distances et points de vue, superposées les unes sur les autres (Figure
13).
Fig.13. Jeff Weeks, Espace dodécaédrique de Poincaré
(Luminet, 2009, p. 12)
149Cette
image illustre l’espace dodécaédrique théorisé par Poincaré, composée
par un mathématicien collaborateur de Luminet, Jeff Weeks. Il s’agit
d’une vue simulée, depuis l’intérieur de l’espace dodécaédrique, dans
une direction arbitraire, calculée par le programme CurvedSpaces et
montrant des images multiples de la Terre obtenues par mirage
topologique. Nous voyons ici les simulacres de la terre, à des distances
différentes des angles des parallélépipèdes. L’effet est comparable
mais non identique à ce qu’on pourrait voir de l’intérieur d’un
parallélépipède dont les faces internes seraient recouvertes de miroirs,
où les reflets se croisent et se multiplient. Cette méthode
cristallographique a été développée pour visualiser la distribution en
3D de certaines sources de lumière : les corrélations visualisées
signalent des répétitions de patterns comme dans les cristaux. Imaginons
une source lumineuse à partir de notre position d’observation, immergée
dans cette structure : la lumière émise devant nous croise la face
du parallélépipède derrière nous et réapparait dans la face opposite
devant nous, et nous, en regardant devant nous, pouvons avoir une vision
de ce qui se situe derrière nous. Même chose pour la gauche et la
droite, pour le bas et le haut.
150Un
observateur qui vit dans l’espace dodécaédrique de Poincaré a
l’illusion de vivre dans un espace 120 fois plus vaste, fait de
dodécaèdres donnant un effet de carrelage. Cet espace tessellé à la
manière d’un mosaïque — le terme qui le décrit en anglais est tessellation —
résulte des transformations mathématiques qui ont été utilisées pour
coller les angles par translation et formant des groupes de symétries.
151Un
minéralogiste russe Fedorov en 1891 avait démontré que les groupes de
symétries qu’il fallait pour carreler régulièrement un plan étaient en
nombre de 17, et en 1922 un archéologue, Andreas Speiser, s’aperçut que
ces 17 groupes de symétries avaient été découverts empiriquement 4000 ans auparavant dans les arts décoratifs des mosaïques de l’Alhambra à Grenade (Figure 14, Planche Ib) :
Fig.14. Particulier des
mosaïques de l’Alhambra à Grenade : configuration à “pajarita”
(cocotte en papier) dans la partie basse des murs du patio de los
Arrayanes
152Les patterns
résultaient des combinaisons de symétries simples ou complexes et
toutes réductibles aux 17 groupes de symétries mathématiquement identifiés très longtemps après par le minéralogiste russe Fedorov, qui en a donné une description mathématique exhaustive.
153En
revenant maintenant à l’image d’Escher vue auparavant (Figure 12,
Planche Ia), nous pouvons affirmer que cette image de statut
artistique non seulement hérite son iconographie des groupes des
symétries institutionnalisés en mathématiques, qui ont à leur tour
recueilli l’héritage d’une expertise due aux arts décoratifs, mais que
cette série d’images de pavage d’Escher ouvre elle-même un nouveau champ
de la géométrie, appelé ensuite la théorie des groupes de symétries polychromes :
les couleurs des patterns n’avaient pas été prises en compte par la
théorie des groupes de symétries du minéralogiste russe Fedorov. Après
Escher et sa série d’images qui a pour titre The Circle Limit (1958), ces patterns colorés ont été étudiés par Donald Coxeter, un de plus important géomètre du xxe siècle.
154Par rapport au passage de statut de l’image artistique en image scientifique on
peut donc affirmer que ces images d’Escher ont posé des problèmes
mathématiques en faisant ainsi évoluer la réflexion de la
géométrie : c’est bien la relation entre les couleurs et les symétries qui a ouvert des nouvelles pistes de réflexions, et cela grâce aux expériences d’un artiste.
155Grâce à ces exemples on s’aperçoit qu’un
même type d’organisation spatiale peut être le résultat de la
visualisation de calculs ou bien le résultat d’une expertise artistique.
Ces brèves réflexions sur l’image scientifique et artistique n’ont en
fait comme autre but que de montrer que l’espace calculable, mesurable,
modulable, mathématisable ou mathématisée, n’identifie pas forcement la
spécificité de l’image scientifique - même si, bien sûr, la
mathématisation des données, par exemple des données photographiques,
peut souvent la caractériser.
- 67 D’ailleurs, on se rappellera de la conception de l’historien et théoricien de l’art Baxandall formu (...)
156Avec
Escher et l’Alhambra de Grenade on a été confronté à un espace
repliable sur lui-même, développable à travers des translations selon
des procédures figées qui sont génératrices de performances
diverses : cet espace peut être exploité tant par des images de
statut artistique que par des images de statut mathématique. Chaque
performance visuelle peut être utilisée à son tour comme texte
d’instruction pour générer d’autres performances caractérisées par le
même type de translations et rotations symétriques tant en art qu’en
science. On voit bien ici que même l’image artistique peut être produite
à travers des procédures d’instructions et devenir elle-même un texte
d’instruction. Il paraît que dans nos exemples l’image en tant que texte d’instruction et l’image en tant que performance
coïncident tant dans l’art d’Escher (qui d’ailleurs a fabriqué des
séries d’innombrables images en expérimentant les différents groupes de
symétries, comme dans le cas de la série The Circle Limit) que
dans les expérimentations mathématiques. Certes, celui-ci n’est qu’un
cas très particulier dans le domaine de l’art, voire un cas célèbre où
la solution spatiale d’une image artistique a été à la fois l’héritier et le précurseur empirique
d’études mathématiques, mais tout de même il montre la difficulté de
faire un partage entre des caractéristiques de l’organisation spatiale
pour identifier des fonctionnements spécifiques de l’art et de la
science67.
157En ce qui concerne notre enquête sur l’image diagrammatique en tant qu’image nécessaire,
on peut enfin affirmer que les images artistiques autant que les images
scientifiques manifestent une certaine nécessité ; dans le cas de
l’image artistique il s’agit d’une nécessité qui est interne à sa
configuration : il s’agit d’une nécessité qui sera figée — au sens
de sacralisée — par le monde de l’art qui en fera une œuvre. Cette
nécessité de l’image artistique dérive aussi d’une densité syntaxique et
sémantique de sa topologie (aucun trait ne peut être déplacé faute de
compromettre toute la signification de l’image et l’acte d’instanciation
de l’artiste) ; par contre l’image scientifique manifeste une
nécessité due non pas à elle-même mais à la contrôlabilité de ses
paramètres de production et aux règles de transformation et manipulation
qui ne lui sont pas internes mais dépendants d’une chaîne d’opérations
qui l’ont précédée. Dans le cas de l’image scientifique entendue en tant
que support d’expérimentation, elle attend d’être rendue opérationnelle
et ensuite transformée en d’autres images (elle est un “texte
d’instructions”). Sa caractéristique principale est donc d’être produite
par des paramètres contrôlés et de produire d’autres images qui peuvent
trouver en elle une (partielle) justification. Mais comme on vient de
le voir avec la théorie peircienne du diagramme, ce n’est pas la
créativité tout court qui distingue l’image scientifique de l’image
artistique : il faut également concevoir dans le cas du diagramme
mathématique l’élément créateur, même si réglé par des procédures et des
codes de transformation.