Hostname: page-component-cd9895bd7-jkksz Total loading time: 0 Render date: 2024-12-27T05:15:52.292Z Has data issue: false hasContentIssue false

La densité des images

Published online by Cambridge University Press:  19 June 2020

ALEXIS ANNE-BRAUN*
Affiliation:
Archives Poincaré, Université de Strasbourg, Université de Lorraine (CNRS)
Rights & Permissions [Opens in a new window]

Résumé

Cet article est une défense de la position exposée par Nelson Goodman dans Langages de l'art. Goodman affirme que les images fonctionnent dans des systèmes symboliques denses. La différence entre texte et image ne se situe pas là où nous l'aurions spontanément cherchée : dans l'expérience perceptuelle que nous avons des images. Une telle théorie de la dépiction peut sembler iconoclaste, voire complètement fausse, et ce, parce que nous y voyons à tort une explication de la représentation picturale. Elle offre cependant, rapportée à d'autres intuitions philosophiques qui essaiment ailleurs dans l’œuvre de Goodman, une meilleure compréhension du fonctionnement des images.

Abstract

ABSTRACT

In this paper, I draw unexpected conclusions from Nelson Goodman's views on depiction. Faithful to the symbolic turn of aesthetics in the twentieth century, Goodman argues that pictures are as conventional and natural as scripts. Unlike scripts, however, pictures work in dense symbolic systems. The difference between image and script cannot be found where we would have spontaneously looked: in our perceptual experience of pictures. Obviously, the structural approach which is at stake in Languages of Art is iconoclast; we often consider it surprising, or even absolutely misleading, perhaps because we do not connect the analyses Goodman conducts in his essay with the experience we ordinarily have of pictures. I argue that Goodman's position becomes clearer when it is reduced to a much more modest philosophical purpose: to offer a criterion for discrimination between scripts and pictures. Pictures, unlike scripts, are dense. Of course, that does not explain depiction. However, my account of Goodman's view, when connected to intuitions about cognitive processes that have spread elsewhere in his work, sheds light on the way pictures are connected with the objects they depict.

Type
Original Article/Article original
Copyright
Copyright © Canadian Philosophical Association/Association canadienne de philosophie 2020

Introduction

Dans cet article, je m'efforce de tirer des conséquences inattendues des analyses de la dépiction que propose Nelson Goodman. Fidèle au tournant symbolique d'une partie de la philosophie de l'art au vingtième siècle, Goodman affirme que les images sont aussi conventionnelles et aussi naturelles que les textes. Contrairement aux textes cependant, les images fonctionnent dans des systèmes symboliques denses. La différence entre texte et image ne se situe donc pas là où nous l'aurions spontanément cherchée, i.e. dans l'expérience perceptuelle que nous avons des images.

Il est clair que l'approche structurale adoptée par Goodman dans Langages de l'art (1968) est iconoclaste. Nous avons tendance à la juger aujourd'hui étonnante et, cependant, complètement fausse. Sans doute est-ce parce que nous ne parvenons pas à relier ces analyses à l'expérience que nous avons ordinairement des images. Or, je pense que la position de Goodman s’éclaircit lorsqu'elle est ramenée à un projet philosophique au départ plus modeste.

Que les images, contrairement aux textes, soient denses ne constitue certes pas une explication de l'imageFootnote 1 et de l'expérience que nous en avons. Pourtant, reliée à d'autres intuitions de Goodman, qui ont essaimé ailleurs dans son œuvre et qui se rapportent plus généralement à notre fonctionnement cognitif, cette observation permet de mieux comprendre quelles relations les images entretiennent avec ce qu'elles dépeignent.

1. Le format d'une question

Est-il possible d'identifier les images par leurs propriétés de structure et de syntaxe sans recourir à l'expérience d'un sujet qui les regarde? Nelson Goodman a essayé de fournir une réponse à cette question dans Langages de l'art. Elle est formulée au terme d'une longue enquête : les images, comme les textes, sont des éléments de systèmes représentationnels; contrairement aux textes, elles représentent leur denotata à partir d'une syntaxe dense de renvoi entre propriétés du symbole et propriétés de l'objet représenté. En bref, les images sont denses alors que les textes ne le sont pas. Une telle spécification de l'image se découvre à la toute fin de l'essai. Avant d'en arriver à cette conclusion, Goodman aura dû présenter la différence entre les machines analogiques et digitales, indiquer surtout ce qu'est un système notationnel et présenter quels en sont les réquisitsFootnote 2.

Cette caractérisation de l'image a profondément bouleversé le champ de l'esthétique analytique. On l'identifie aujourd'hui à une position structurale (Abell et Bantinaki, Reference Abbel and Bantinaki2010), position dont John Kulvicki se fait le défenseur depuis une dizaine d'années. Une explication structurale de l'image n'envisage pas l'image dans ce qui fait sa singularité de signe ou la singularité de l'expérience perceptuelle qui lui est adossée, mais comme élément au sein d'un système défini par sa syntaxe et sa sémantique. Autrement dit, dans une explication structurale, aucun symbole ne peut être par lui-même une image, car ce sont les systèmes (par exemple le système des images peintes selon les normes de représentation en perspective) qui fonctionnent (ou non) de manière analogique. Après tout, nous pouvons utiliser une image pour faire référence à un objet, sans nous appuyer sur ses caractères d'image, par exemple lorsque je prends des cartes de tarot pour recréer un match de football sur le tapis de mon salon. La reine de pique est une image, mais pas une image de Kylian Mbappé. Dans ce contexte très particulier, la carte peut néanmoins représenter Mbappé. En un sens minimal, un système de représentation met en relation un ensemble d'objets comptant comme symboles représentatifs et une certaine manière de les interpréter. La caractérisation de ce système passe nécessairement par une étude de la structure de renvoi entre symbole et objet signifié.

Adopter un point de vue structural sur les images consiste à examiner comment elles fonctionnent en tant que symboles au sein d'un système représentationnel. Un symbole se réfère à un objet dans le monde grâce à un système de renvoi biunivoque entre marque et caractère d'une part, caractère et objet d'autre part. Ces deux opérations constituent la part syntaxique et la part sémantique de n'importe quel symbole représentationnel. L'analyse de la syntaxe doit être faite à un niveau systématique. Goodman s'intéresse aux systèmes ou schémas symboliques dans lesquels sont insérés les images ou les textes. En effet, les différences significatives de structure résident dans la relation qu'un symbole entretient avec un autre au sein d'un système représentatif donné.

Près de cinquante ans après la publication de Langages de l'art, la position dite structurale continue de faire débat. Le malaise qu'elle a suscité est tout à fait compréhensible. Il semblerait qu'elle soit portée par une intuition qui a plus à voir avec le style philosophique de Goodman (économie de l'explication, hyper-extensionnalisme, anti-psychologisme) qu'avec la réalité de notre expérience perceptuelle. De fait, Goodman cherche un critère pour caractériser les images qui soit indépendant de l'expérience. N'est-ce pas cependant ce qu'il aurait fallu expliquer? Peut-on faire de l'esthétique sans sujet? En bref, on souligne que l'approche structurale engagée dans Langages de l'art n'est pas capable, par elle-même, de rendre compte de l'originalité de notre expérience vécue des images (phénomène de reconnaissance visuelle, explication de nos jugements de ressemblance et de notre compétence iconique, ressemblance expérimentée à partir de la forme du contour, irréductibilité de l'expérience même de regarder une image) (Schier, Reference Schier and Rehault2019 [1986]; Lopes, Reference Lopes and Blanc-Benon2014 [1996]; Hyman, Reference Hyman2006; Nanay, Reference Nanay2016).

Si ces questions sont pertinentes, elles ne disqualifient pas à mon sens l'approche proposée par GoodmanFootnote 3. Le mieux est encore de se rapporter à ce qu'il affirme dans un article plus tardif, paru en 1988 dans le recueil Reconceptions en philosophie. Goodman revient alors sur le problème de la dépiction ainsi qu'il s'est posé à lui dans Langages de l'art : il s'agissait de trouver une caractérisation de l'image plus adéquate que celle communément acceptée et qui en fait un symbole qui ressemble à ce qu'il représente (Goodman, Reference Goodman, Cometti and Pouivet1994 [1988], p. 129). Sa réticence à accepter cette dernière caractérisation est au fond sensiblement identique à son rejet du concept d’«espèce naturelle» pour justifier nos pratiques inductives. Il en va de ce que nous pouvons attendre d'une explication en philosophie. En l'occurrence, nous ne saurions nous en remettre à un concept mal défini de «ressemblance» pour expliquer la dépiction ou l'induction. Ce serait tout simplement un «non-sens» (ibid., p. 129). La conception qu'il se fait de la philosophie est parfois thérapeutique.

Il est vrai que la réponse que Goodman apporte au problème de la dépiction est inséparable de son style philosophique. Formellement, elle n'est pas différente de la solution qu'il a proposée vingt ans plus tôt à la nouvelle énigme de l'induction (Goodman, Reference Goodman and Jacob1985 [1954]). Dans les deux cas, il s'agit de fournir un critère de discrimination : entre les deux prédicats «vert» et «vleu» d'une part, entre la structure des images et celle des textes d'autre part. Le critère de discrimination alors recherché, quelque insatisfaisant qu'il puisse être, doit fournir la réponse à une question plus modestement formulée : entre les prédictions P1 : «Toutes les émeraudes sont vertes» et P2 : «Toutes les émeraudes sont vleues», laquelle est correcte? S'agit-il d'une image ou d'un texte?

Goodman procède souvent de la même façon : identifier un problème, éliminer la réponse la plus commune et la plus évidente, donner à ce problème le format d'une énigme, retraduire cette énigme en un exercice de discrimination entre deux classes (d’étiquettes, de prédictions, de symboles), puis repérer à même le fonctionnement du symbole ou de notre pratique une différence qui agit et qui fournit un critère efficace de discrimination entre les deux ensembles considérés. C'est de cette façon «extensionnaliste» qu'il comprend et l’énigme de l'induction dans ses coordonnées humiennes et la réponse apportée par Hume lui-même. Le fameux problème de la causalité est ainsi retraduit par Goodman comme un problème de classement. Quelles sont les prédictions valides? Quelles sont les prédictions non-valides? Le recours humien à la notion d'habitude est dès lors parfaitement justifié. Les prédictions valides sont celles qui sont habituellement projetéesFootnote 4.

S'agissant des images ou de la dépiction, il convient donc d'abord de circonscrire les données du problème : «l'embarras persistant que l'on rencontre lorsqu'il s'agit de répondre à une question nous invite à considérer de plus près la nature exacte de la question» (Goodman, Reference Goodman, Cometti and Pouivet1994 [1988], p. 138). Au risque de nous répéter, rappelons que la question a toujours été pour Goodman la suivante : reconnaître, à même leur fonctionnement de symbole, la différence qu'il y a entre les images d'un côté et les textes de l'autreFootnote 5. Quand bien même Goodman en déduirait, par la suite, une caractérisation essentielle des images, la bonne réponse à la question qu'il se pose est une réponse qui fournit un critère de discrimination entre deux classes de symboles dans le cadre d'une démarche structurale. Rien de plus. Comme il l'affirme dans Reconceptions,

Jusqu’à ce jour, dans mes écrits, je n'ai nulle part proposé une définition de la dépiction; je me suis contenté de suggérer que la classification quotidienne des symboles qui distingue les images des non-images est étroitement apparentée à la frontière qui sépare les symboles appartenant à un système dense ou «analogique» et ceux qui appartiennent à un système de différenciation finie ou «digital» (Goodman, Reference Goodman, Cometti and Pouivet1994 [1988], p. 131; je souligne).

C'est une version particulière de la théorie sémiotique déjà proposée par Gotthold Ephraim Lessing dans le Laocoon concernant la différence entre images et écritsFootnote 6. Bien sûr, si cette question trouve son origine dans les débats esthétiques du dix-huitième siècle, sa reprise par la philosophie analytique, qui est comprise et qui se pratique presque exclusivement comme une philosophie du langage, modifie profondément les termes de la question. Pour Goodman, un symbole est un véhicule de signification, quelque chose donc qui se réfère au monde, que cela soit verbal ou non verbal. Dès lors, l'image n'est pas moins un signe qu'un texte.

Quelle que soit l'originalité de notre expérience perceptuelle, les symboles que nous identifions à des images fonctionnent au sein de systèmes qui sont denses ou plutôt syntaxiquement denses et sémantiquement riches. C'est une différence suffisamment nette, affirme Goodman, pour opérer une discrimination parmi les symboles et systèmes symboliques. Comme réponse à un problème philosophique clairement délimité et circonscrit, la densité de l'image est ainsi comparable à la mauvaise implantation du vleu : le repérage d'un critère efficace de discriminationFootnote 7.

Il nous faut alors examiner plusieurs questions : 1) La réponse de Goodman est-elle suffisante en tant que critère de discrimination? Autrement dit, la densité joue-t-elle efficacement le rôle qu'on lui fait jouer dans la théorie des symboles? 2) En quoi cette analyse dite structurale éclaire-t-elle le fonctionnement particulier d'un symbole lorsqu'il est une image? La densité pourrait, en effet, ne pas fournir un critère seulement opérationnel de discrimination entre images et scripts. À vrai dire, il est plus que probable que ces propriétés syntaxiques étonnantes de l'image doivent aussi jouer un rôle dans l'expérience que nous en faisons. C'est la thèse que je défends dans la troisième et la quatrième partie de cet article.

2. Structure de l'image

Dans Langages de l'art, nous devons attendre le dernier chapitre pour trouver une caractérisation de l'image à partir de ses propriétés syntaxiques de symbole. Ces propriétés syntaxiques spécifiques ont été définies à l'occasion d'une présentation des systèmes notationnelsFootnote 8. Ils sont au nombre de trois :

  1. 1) Les images appartiennent à des systèmes symboliques syntaxiquement denses.

  2. 2) Les images appartiennent à des systèmes symboliques sémantiquement riches.

  3. 3) Les images appartiennent à des systèmes symboliques relativement saturés.

Examinons plus en détail chacune des caractéristiques. L'idée bien sûr est de comprendre la logique souterraine qui relie densité, richesse et saturation.

1) L'image est tout d'abord présentée comme un symbole appartenant à un schémaFootnote 9 qui est dense d'un bout à l'autre. Autrement dit, la densité syntaxique est un trait qui appartient aux schémas symboliques dans lesquels s'insèrent les images, non à telle ou telle image prise isolément. Imaginons un système symbolique qui serait constitué de plusieurs images représentant des hommes selon nos critères normatifs de représentation occidentale. Dans ce système, la taille des hommes est corrélée de façon continue à la longueur des silhouettes. Le moindre petit changement dans la marque d'une image (longueur du trait)Footnote 10 entraîne un changement dans le caractère représenté et aussi dans ce à quoi il renvoie à un niveau sémantique (son denotatum). Le schéma qui a pour membre l'ensemble des images peintes selon nos normes de représentation occidentale SRP (système de représentation en perspective qui se développe au cours de la RenaissanceFootnote 11) est donc dense d'un bout à l'autre et se caractérise par son manque de différenciation syntaxique. Un tel schéma, bien sûr, n'est pas articulé. Il y a articulation lorsque nous pouvons déterminer si une certaine marque appartient à un caractère donné plutôt qu’à un autre. Or, dans le système SRP, nous pourrons toujours trouver entre deux marques une nouvelle marque qui renverrait à un caractère différent dudit système. Imaginons que dans le système SRP, une taille de 1 m 80 aperçue depuis une certaine distance soit corrélée à un caractère dont les inscriptions graphiques doivent mesurer exactement 10 cm. Pratiquement, il peut s'avérer impossible de décider quelle marque correspond exactement à ce caractère. Il y a là une forme d'indécidabilité. «Un schéma est syntaxiquement dense s'il comporte une multitude infinie de caractères ordonnés de telle sorte qu'entre deux quelconques il en existe un troisième» (Goodman, Reference Goodman and Morizot2011 [1968], p. 173). La densité syntaxique du système SRP entraîne donc avec elle l'absence d'articulation et le manque de différenciation des caractères. Le système SRP jusque-là considéré n'est pas, pour cette raison, un système notationnel. À s'en remettre à la théorie de la notation proposée par Goodman dans Langages de l'art, il se situe à l'extrémité d'une chaîne qui contient des esquisses, des scripts et des partitions. Le système SRP est du côté des esquisses. Les partitions occupent l'extrémité opposée de la chaîne et elles sont l'exemple d'un système notationnel parfait qui obéit à plusieurs réquisits syntaxiques et sémantiques, parmi lesquels il faut compter la différenciation finie des caractères de la syntaxeFootnote 12. Contrairement aux esquisses, et de même que les partitions, les scripts ne se caractérisent pas non plus par une telle densité syntaxique. Ainsi, une description verbale emprunte sa syntaxe à telle ou telle langue, qui pour n’être pas un système notationnel parfait, possède néanmoins une syntaxe articulée et des caractères disjointsFootnote 13 (le système alphabétique pour la plupart des langues occidentales). Bien qu'il faille parfois prendre des décisions interprétatives, nous identifions facilement dans la pratique quelle marque (une certaine inscription) correspond à tel caractère (une lettre de l'alphabet), et il n'existe pas entre deux caractères un troisième caractère. Pour reprendre ici un critère défini par John Kulvicki (Reference Kulvicki2006), l'alphabet est peu «sensible» à un changement infime de graphie entre deux marques d'un même caractèreFootnote 14. Il se peut que nous ne parvenions pas à déchiffrer une marque, mais cela est rarement dû à un manque d'articulation du système ou à un défaut de disjointure. Le système de l'alphabet est parfaitement différencié et articulé, ses caractères correspondant à des classes disjointes de marques. Il n'en va pas ainsi avec les systèmes dont les éléments sont des images. Certes, ce manque d'articulation ne signifie pas que les images soient des symboles plus difficiles à interpréter. Il signifie plus simplement que les marques sur lesquelles s'opèrent au départ le renvoi vers des caractères et à un autre niveau le renvoi vers quelque chose dans le monde (leur dénotation) sont infiniment plus nombreuses et indifférenciées. Pour reprendre l'exemple précédent, entre deux tailles de silhouette humaine, on trouvera toujours une taille intermédiaire, car il y a une continuité forte des marques graphiques, des caractères, et a fortiori de leur denotata Footnote 15.

2) L'image appartient à un système symbolique sémantiquement riche. Le renvoi ou la concordance entre un caractère du système et un domaine de référence, i.e. un objet du monde, est également pensé sous la modalité de la densité ou du moins de la richesseFootnote 16. C'est ici une conséquence de la densité syntaxique, sauf à considérer que plusieurs caractères du système pourraient renvoyer à un même objet du monde et entraîner ainsi d'importantes redondancesFootnote 17. La richesse sémantique est néanmoins un critère différent de la densité syntaxique du systèmeFootnote 18. Nous l'avons déjà rencontrée en reportant la différence des marques graphiques dans le système SRP à des différences de tailles humaines représentées (qui en sont en fait la contrepartie sémantique). Les systèmes de représentation iconiques font en général se correspondre densité syntaxique et richesse sémantique.

3) Enfin, la syntaxe des systèmes représentationnels qui comptent des images comme éléments est relativement saturée. Cela signifie que comptent comme propriétés constitutives d'un caractère (atomique ou composé) un nombre relativement important de traits de ses marques. Reprenons ici un exemple donné par Nelson Goodman. Lorsque nous considérons un diagramme boursier, un nombre réduit de propriétés graphiques jouent un rôle représentationnel. Dans un graphe, seule compte réellement la hauteur de la courbe — non sa couleur, son épaisseur ou sa textureFootnote 19. Il n'en va pas ainsi d'une image qui représenterait la silhouette d'une montagne. Bien que cette ligne d'horizon puisse être indiscernable du graphe, en tant qu’élément d'un autre système représentationnel, un nombre plus important de caractéristiques graphiques (dont la couleur et l’épaisseur du trait) vont jouer une fonction symbolique. Comme le remarque Goodman, «les aspects constitutifs du diagrammatique, en tant qu'on les compare avec le caractère imagé, sont l'objet d'une restriction expresse et étroite» (Goodman, Reference Goodman and Morizot2011 [1968], p. 273). D'où l'importance de ne pas s'intéresser aux symboles isolément mais en tant qu’éléments d'un système. La saturation relative permet ainsi d'offrir une discrimination plus fine au sein des esquisses entre le diagrammatique et le pictural. La théorie de l'art de Goodman s’élabore à partir de ce constat très simple. Alors qu'avec le dessin d'Hokusai, il est impossible de faire la part entre les propriétés constitutives de l’œuvre et ses propriétés contingentes, impossible donc d'opérer une réduction du sens de l’œuvre à certaines de ses propriétés symboliques, il en va tout autrement du diagramme qui ne symbolise que certaines des propriétés qu'il possède : les points de sa courbe, coordonnés à certaines valeurs boursières. Ce qui produit le caractère d'image du dessin d'Hokusai, et plus encore son caractère d'image prise dans un fonctionnement esthétique, c'est l'impossibilité dans laquelle nous nous trouvons d'en abstraire certains traits de syntaxe en tant que traits constitutifs de l’œuvre ou de ce qu'elle symbolise.

Ajoutons qu’à la présentation par Goodman des systèmes notationnels succède un classement organisé selon la tripartition esquisses, scripts, partitions. Nous avons laissé de côté les partitions, qui sont des notations parfaites et dont la présentation joue une toute autre fonction dans Langages de l'art Footnote 20. La densité syntaxique permet en revanche de justifier la distinction que fait Goodman entre les scripts et les esquisses. L'importance argumentative de cette différence se signale au dernier chapitre de Langages de l'art. C'est elle qui va permettre à Goodman de revenir, «de façon inattendue»Footnote 21, sur le problème de la dépiction. Au terme du chapitre I, Goodman a en effet caractérisé la dépiction comme une dénotation dépendant de certaines propriétés d'images. Ayant rejeté un concept non-critique de la ressemblance, Goodman devait fournir un critère neuf pour expliquer la différence que nous reconnaissons immédiatement entre les symboles verbaux et les symboles iconiques. Cette différence est rendue manifeste lorsque sont comparées entre elles la structure des images et la structure des textes. «Les systèmes non linguistiques diffèrent des langages, la dépiction de la description, le représentationnel du verbal, les peintures des poèmes, fondamentalement par le manque de différenciation — de fait par la densité (et l'absence d'articulation qui en découle) — dans le schéma symbolique» (Goodman, Reference Goodman and Morizot2011 [1968], p. 270).

Certes, la présentation de Goodman peut paraître trompeuse à une première lecture. Elle ne fournit par exemple aucune explication de la dépiction. Proposer des traits distinctifs des symboles qui dépeignent, ce n'est pas expliquer ce qu'est dépeindre. Pourtant, cette position a également ses vertus. En se contentant de mettre au jour un critère suffisamment pertinent pour opérer le classement souhaité entre texte et image, la distinction proposée par Goodman n'est que faiblement «idéologique» et supporte mal l'introduction de caractérisations étrangères au pur fonctionnement des images et des textes comme symbolesFootnote 22. Par ailleurs, cette exploration de la structure des symboles offre une clarification de la nature de la représentation iconique. C'est ce qu'il reste à examiner.

3. Analogicité

La densité syntaxique des systèmes dans lesquelles les images s'insèrent et le manque de différenciation qui en résulte sont ce par quoi Goodman essaye, dans la dernière partie de son ouvrage, de capter leur analogicité.

De fait, entre la présentation des systèmes notationnels et le retour opéré à la fin de l'essai de 1968 sur la structure des images, Goodman a introduit une distinction de nature technologique entre ce qu'il nomme les machines analogiques et les machines digitales (ou numériques). Il s'agit de l'esquisse d'une théorie de l'information qui s'appuie sur des analyses quasi symétriques à son effort de compréhension du fonctionnement symbolique des images. D'après cette théorie de l'information, les machines analogiques (thermomètre non gradué, jauge de pression ou sismographe) peuvent être interprétées comme des systèmes symboliques qui renvoient à des denotata physiques (par exemple certaines unités de mesure) sur la base d'une syntaxe caractérisée également par sa densité. «Pour tout caractère [d'un système analogique], il en existe une infinité d'autres tels que, pour une marque donnée (un trait de graduation), il ne nous soit pas possible de déterminer si la marque n'appartient pas à tous; et tels que pour un objet, il ne nous soit pas possible de déterminer si l'objet ne concorde pas avec tous (les caractères)» (Goodman, Reference Goodman and Morizot2011 [1968], p. 196).

Les conséquences relatives à l'interprétation de telles machines sont identiques à celles qui concernent les systèmes de représentation en défaut d'articulation syntaxique. Ainsi, lorsque nous regardons l'heure sur une machine analogique, nous devons prendre une décision quant à la position exacte de l’aiguilleFootnote 23. En effet, avec un instrument de mesure qui fonctionne de manière analogique, nous pouvons toujours trouver entre deux mesures une nouvelle mesure qui aura une valeur différente. C'est la définition que nous avons déjà donnée de la densité syntaxique. Il se trouve que ce genre de décision nous est épargné avec une montre digitale. Pour une montre qui n'indique pas les secondes, il n'y a pas de nouvelles mesures entre 12h00 et 12h01. En général, nous pouvons plus facilement lire et reporter les mesures qu'indiquent les machines digitales.

La démultiplication en droit infinie des marques sur un continuum est la règle d'un fonctionnement analogique, et le manque d'articulation des caractères en est la conséquence. Avec un instrument qui fonctionne de manière digitale, le nombre de mesures possibles est au contraire fini, et spécifié par la notation de départ, qui distribue parfaitement chaque inscription à son denotatum. De fait, un système digital est discontinu d'un bout à l'autre et les caractères d'un tel schéma y sont en corrélation biunivoque avec les classes de concordance d'un ensemble semblablement discontinu. Dès le départ, la description que fait Goodman de deux modalités d'encodage de l'information porte avec elle une distinction directement héritée de la théorie des systèmes notationnels.

Le plus remarquable cependant est que par un léger glissement, l'analogique devient non plus la caractérisation du fonctionnement d'une machine, mais un trait de certains systèmes représentationnels. Puisque les systèmes représentationnels qui fonctionnent de manière analogique sont aussi les systèmes qui comptent des images comme éléments, l'analogique s'est donc mis à désigner le régime des images tout court. Si Goodman lui-même a moins souvent confondu image et fonctionnement analogique que certains de ses interprètes ne l'ont fait, il n'en demeure pas moins que ce recoupement des images et des machines analogiques obéit à une intuition philosophique de plus grande portée, à l’œuvre dans sa théorie des symboles (élargissement de l'esthétique au non-artistique, intérêt philosophique pour les fonctionnements denses, saturés et, en général, les procédés de supplémentation).

4. Fonctionnement dense et fonctionnement clairsemé

À mon sens, le détour par l’étude des machines analogiques et numériques, comme l'examen des passages de l'analogique vers le digital, permettent à Goodman d'intégrer le problème de la différence entre texte et image dans un questionnement philosophique plus général. C'est là aussi un trait qui caractérise le style philosophique de Goodman. En effet, il arrive que Goodman change d’échelle, passant d'une réponse à un problème très localisé à une thèse philosophique d'une autre ampleur. Lorsqu'il travaillait sur la justification des énoncés inductifs, Goodman avait entrevu que le problème du vleu était «endémique» et pouvait se mettre à contaminer l'idée même de signification. Sa réponse en termes de projectibilité relative n'en est pas moins pertinente et joue parfaitement le rôle qu'elle est censée jouer pour dénouer la nouvelle énigme de l'induction. De même, lorsqu'il s'intéresse au problème posé par la dépiction, l'examen peut se situer à des niveaux d'analyses différents : un problème localisé qui doit consister, comme nous l'avons montré, à fournir un critère de discrimination entre deux classes de symboles; un problème de plus grande portée qui concerne deux modalités distinctes du fonctionnement symbolique (fonctionnement dense ou fonctionnement clairsemé).

Nous ne pouvons qu’être frappés, en effet, par la parenté qui relie l'enquête sur les systèmes représentationnels, certaines considérations sur l'art autographique, l’étude du fonctionnement des machines analogiques, l'analyse symptomatologique de l'art et certaines modalités cognitives comme l'induction ou la supplémentation. C'est la différence entre l'analogique et le digital qui sert de fil conducteur à Nelson Goodman pour penser la similitude formelle de ces différentes analyses.

Qu'est-ce qui distingue les mesures obtenues avec un appareil analogique et celles obtenues avec un appareil digital? Fidèle, en partie, aux théories de John Von Neumann, Goodman affirme que c'est d'abord en termes de précision et d'exactitude de la mesure que se manifeste la différence entre machine analogique et machine digitale. Une machine digitale réussit mieux qu'une machine analogique à compter, dénombrer, individuer, tandis qu'une machine analogique a pour tâche d'enregistrer une position absolue sur un continuum. En fonction de la mesure, i.e de la prise sur le réel que nous souhaitons effectuer, nous pourrons préférer recourir à une machine analogique ou digitale. Les systèmes analogiques et digitaux ont donc des vertus épistémiques différentes. Puisque les instruments digitaux mesurent le monde à partir d'une syntaxe fortement articulée entre marques et caractères, les mesures qu'ils offrent sont répétables et parfaitement définies. L'articulation syntaxique des caractères impose ainsi une conception discrète de la mesure et l’élimination des petites mesures qui constituent le fond continu de la valeur que l'on mesure, (Von Neumann, Reference Von Neumann and Jeffress1951, p. 20). En revanche, un appareil analogique sera plus sensible aux petits grains de la réalité, à condition que nous ayons exercé notre faculté de discrimination (lecture fine de la position d'une aiguille sur un continuum). Puisque les valeurs qu'un instrument analogique mesure ne sont pas déterminées au préalable par des caractères fortement différenciés et discrétisés, il en résulte que l'instrument sera aussi plus chargéFootnote 24 en information. Comme nous pouvons le constater, ces vertus épistémiques complémentaires sont les conséquences d'une différence qui se situe à un niveau structural (fonctionnement clairsemé/fonctionnement dense).

Dès lors, l'interprétation proposée par Goodman de la différence entre l'analogique et le digital a un pouvoir explicatif important. En nous permettant de comprendre le rôle épistémique différent que peuvent jouer les textes et les images, l'analyse structurale clarifie aussi la nature de nos représentations.

De ce point de vue, la théorie de l'information esquissée dans Langages de l'art a bien une fonction exploratoire. Encore qu'incomplète, et ne correspondant pas stricto sensu à la différence entre texte et imageFootnote 25, elle permet de voir qu'une image n'a pas un rapport au réel identique à celui d'un texte qui représenterait la même chose. L'image ne mesure pas le réel de la même façon. La théorie de l'information qui sera développée quelques années plus tard par Dretske se fonde précisément sur une telle intuition. En effet, pour Dretske, il y a au niveau conceptuel un traitement de l'information qui discrétise notre perception du monde sensible. Une représentation conceptuelle s'interprète comme une sorte de mesure discrète, définie et répétable. Dretske illustre ce point par l'exemple d'une tasse de café présentée selon deux modalités distinctes (analogique et digitale). L'image d'une tasse remplie de café (modalité analogique de présentation) véhicule une grande quantité d'information (le type de tasse, le niveau de remplissage, la présence ou non de lait). Cependant, seule la description verbale («une tasse remplie de café») est parfaitement déterminée sur un plan cognitif (Dretske, Reference Dretske1981, p. 137). Notre perception, à un niveau infra-conceptuel, nous donne ainsi quantité d'informations sur la chose perçue que l'esprit traite à un autre niveau. Il en va bien sûr de l'utilisabilité cognitive de cette information. Parce que notre perception est un système symbolique syntaxiquement dense (une structure d'information, dit Dretske), elle nous offre un surplus d'informations, pas toujours pertinentes et impossibles à utiliser dans toute leur richesse. Ces informations doivent donc être discrétisées — avec la perte informationnelle que cela entraîne — pour que nous puissions en faire un usage cognitifFootnote 26.

Pour Nelson Goodman cependant, la différence importante n'est pas celle qui se joue entre le concept d'un côté et l'infra-conceptuel ou le non-conceptuel de l'autre côté, mais celle qui se joue entre deux types de fonctionnement dont l'un est clairsemé et l'autre dense. La représentation n'est pas circonscrite à l'ordre du conceptuel. Il n'y a pas re-présentation à la condition stricte où un tri aurait été opéré sur le matériau sensible. Pour Goodman, les images sont bien des éléments de systèmes représentationnels, même si ces derniers sont denses et saturés. Goodman semble d'ailleurs affirmer, au moins dans l'avant-propos de Manières de faire des mondes, que la perception est elle-même un système symbolique, et plus précisément un système qui favorise la continuité sur la discontinuité, les opérations de transition qui s'effectuent en douceur (Goodman, Reference Goodman and Popelard2006 [1978]). Si cette hypothèse est confirmée empiriquement, nous aurions peut-être une explication de notre tendance spontanée à expliquer les images à partir d'une ressemblance naturelle avec ce que l'on perçoit. Il s'agirait alors davantage d'une analogie de structure (identité d'un fonctionnement dense), que d'une similarité objective entre l'objet vu et l'objet dépeint.

C'est là le cœur de la réflexion goodmanienne sur la nature de nos représentations. Certains systèmes représentationnels fonctionnent de manière dense plutôt que clairsemée. Ils véhiculent davantage d'informations, s'appuyant sur un renvoi continu des marques, des caractères et des contreparties sémantiques, en exigeant par conséquent de l'interprète qu'il fasse un travail de discrimination supplémentaireFootnote 27. Les images appartiennent à des systèmes de ce type. John Kulvicki, dans un article récent, a suggéré que ce type de fonctionnement implique que le symbole partage avec ce qu'il symbolise une structure commune (Kulvicki, Reference Kulvicki2015). En bref, la densité de la syntaxe de renvoi des systèmes analogiques entraîne une corrélation partie par partie des marques, des caractères et des denotata. D'où le fait que les machines analogiques préservent en général la structure de ce qu'elles mesurent ou représentent, contrairement aux machines digitales. Pour Kulvicki, une interprétation pertinente des représentations syntaxiquement et sémantiquement denses est inenvisageable si l'on n'est pas en mesure de mettre au jour une forme d'isomorphie structurelle entre les qualités syntaxiques et les qualités qu'elles symbolisent (Kulvicki, Reference Kulvicki2015, p. 171)Footnote 28. L'isomorphisme structurel entre le symbole et ce à quoi il renvoie dans un système représentationnel dense et indifférencié (et qui correspond à ce que Kulvicki appelle ailleurs le squelette de l'image [bare-bone content]) a sans doute un rôle à jouer dans une explication de notre expérience des images (naturalité de la recognition). Goodman l'aura peut-être entrevu lorsqu'en conclusion de son article sur «la représentation re-présentée», il se demande si un «fantôme de la similitude», comme indifférenciation, ne revient pas hanter la distinction des textes et des images (Goodman, Reference Goodman, Cometti and Pouivet1994 [1988], p. 141).

La distinction entre diagramme et image, interne aux systèmes analogiques, se fonde sur une intuition identique. Les images sont davantage saturées que les diagrammes dans la mesure exacte où un plus grand nombre de traits syntaxiques comptent au nombre des propriétés ayant une fonction symbolique. Du diagramme à l'image, on passe également d'un fonctionnement clairsemé à un fonctionnement plus dense, sujet à une qualification éventuellement esthétique dans le cadre d'une enquête sur les symptômes de l'art. Un dessin d'Hokusai est hyper-analogique parce que sa syntaxe est dense et qu'il est relativement saturé. Dans le dessin d'Hokusai, toutes les marques graphiques finissent par jouer une fonction représentationnelle. Il n'en va pas ainsi d'un diagramme. Que la saturation relative puisse être pour Goodman un symptôme de l'esthétique découle de cette analyse. C'est bien d'ailleurs parce que la saturation est le trait de certains types d'images que nous trouvons sous une forme analogique «pure» que John Haugeland a pu en faire un trait des régimes analogiques tout court, et non de certaines images fonctionnant de manière esthétique (Haugeland, Reference Haugeland1981). Haugeland distingue ainsi entre deux sens du mot «analogue» : l'un qui s'applique aussi aux diagrammes, l'autre qui s'applique aux images seules. En distinguant une acception étroite et une acception plus générale de l'analogue, il reconduit en fait à un autre niveau la différence introduite par Goodman entre l'appartenance à un système analogique stricto sensu et le fonctionnement esthétique.

Le passage d'un système digital à un système analogique appelle en général une densification de la syntaxe de départ et une activité de supplémentation, voire d'inductionFootnote 29. Inversement, lorsque nous cherchons à traduire de façon digitale un symbole encodé analogiquement, nous opérons les suppressions nécessaires à une clarification de la syntaxe et à une différenciation finie des caractères. Il en est ainsi lorsqu’à des fins de conservation, de reproduction ou de clarification, nous recherchons à rendre un art partitionnable en différenciant les caractères d'une œuvre et en opérant des coupes dans la richesse de ce qu'elle présenteFootnote 30; ainsi encore, remarque Dretske, lorsque nous essayons de décrire une image. Il est significatif que Nelson Goodman identifie ces procédés aux outils à notre disposition pour fabriquer des mondes à partir de mondes anciens ou connus.

C'est en effet dans Manières de faire des mondes que Goodman a été le plus près de mettre au jour l'un des fils conducteurs de ses recherches sur la théorie du fonctionnement symbolique. Non pas parce qu'il y est question de dévoiler quelque chose qui resterait ailleurs cachée, mais tout simplement parce que Goodman adopte un point de vue de surplomb sur les problèmes qu'il a rencontrés depuis Faits, fictions et prédictions, et qui nécessitaient un traitement philosophique ailleurs plus technique. Ainsi, au nombre des worldmakers, Goodman compte la supplémentation et la réduction. Comme il le répète souvent, nous ne saurions faire des mondes à partir de rien. Il faut donc concevoir la supplémentation et la réduction comme des outils complémentairesFootnote 31 qui permettent d'opérer la traduction d'un système symbolique dense vers un système symbolique davantage différencié et articulé. Et vice versa. Alors que la supplémentation concerne une densification du fonctionnement à l’œuvre dans telle ou telle opération symboliqueFootnote 32, la réduction (ou soustraction) prend la direction inverse. Ces opérations servent des desseins épistémiques très différents. Puisque la densité syntaxique et la saturation relative sont comptées par Goodman comme des symptômes de l'esthétique, il ne faut pas s’étonner que les fonctionnements symboliques denses, qui mobilisent fortement notre faculté de discrimination, appellent plus souvent une expérience ou une interprétation esthétiqueFootnote 33. Cependant, l'artiste peut parfois se servir de procédés abstractifs ou soustractifs qui ne sont pas incompatibles avec un fonctionnement par ailleurs entièrement analogique du symbole : ainsi d'une lithographie de Giacometti qui représente un homme par la seule esquisse de sa tête. Inversement, certains scientifiques peuvent avoir recours à des opérations de supplémentation et favoriser des représentations structurellement plus denses (et donc moins différenciées) : c'est le cas en général de tous les procédés inductifs (généralisation, remplissage de courbes de points) dont on sait quelle importance ils jouent dans les pratiques scientifiques.

Conclusion

Certes, il est normal d'exiger d'une théorie de la dépiction qu'elle fournisse une explication de notre expérience perceptuelle des images. L'analyse structurale que propose Nelson Goodman peut, de ce point de vue, paraître insuffisante. Goodman cherche à mettre au jour un critère de discrimination assez fin pour opérer un classement de nos systèmes symboliques, et en particulier, assez fin pour distinguer les systèmes verbaux des systèmes iconiques. Une fois ce critère identifié, il en déduit que la différence entre texte et image se situe à un niveau syntaxique. Cela ne peut pas, bien sûr, être une explication définitive de la dépiction.

Il n'en reste pas moins que l'intérêt que Goodman porte aux traits structuraux des systèmes symboliques offre une clarification de la nature de nos représentations. Les images sont apparentées aux opérations analogiques de la représentation et plus largement encore à ce que j'ai ici nommé les fonctionnements denses, en les distinguant des fonctionnements clairsemés. Se découvre ainsi, dans la densité des images, un concept original de la «similarité» comme isomorphie entre la structure du symbole et la structure de ce qu'il symbolise, identité de fonctionnement entre perception et système iconique.

Ainsi, il conviendrait de ne pas séparer le problème de la distinction image/texte d'un ensemble de problèmes en fait apparentés dans Langages de l'art : le fonctionnement des machines analogiques et digitales, l'enquête sur les systèmes notationnels, la différence entre art autographique et allographique, les symptômes de l'esthétique et la mise au jour de procédés cognitifs comme la réduction et la supplémentation.

Remerciements

Je remercie Alexandre Declos et les évaluateurs anonymes de la revue Dialogue pour leur relecture attentive.

Footnotes

1 C'est un point qu'avaient déjà mis en avant Dominic Lopes et Laure Blanc-Benon (voir Blanc-Benon, 2009, p. 75–77; Lopes, 2000, p. 227–231).

2 À ne considérer que cet ordre de présentation, on peut légitimement se demander si la caractérisation des images comme denses est une thèse forte de Langages de l'art, une thèse qui commanderait par exemple l'ensemble des autres considérations de l'essai de 1968, ou bien si, au contraire, l'appariement des images et des systèmes denses est une conséquence subsidiaire de son analyse des systèmes symboliques.

3 L'analyse structurale que Goodman propose des systèmes symboliques a suscité moins de critiques que sa théorie conventionnaliste du réalisme iconique. Il est possible de dissocier les deux, comme je le ferai ici. Par contre, il est clair que cette analyse structurale est aussi une réponse au défi lancé par le rejet d'une conception naïve de la ressemblance, d'où le fait que l'on distingue, dans la littérature consacrée à la dépiction, les approches structurales des approches recognitionnelles. Pour une mise au point sur ces débats, voir Morizot (Reference Morizot and Kristanek2017). Il convient enfin d'ajouter que certains auteurs ont cherché à faire tenir ensemble analyse structurale et approche recognitionnelle (Blanc-Benon, Reference Blanc-Benon2005; Lopes, Reference Lopes2010 et 2014 [1996]).

4 Lorsque les deux prédicats en concurrence sont également corroborés empiriquement, cela va sans dire.

5 De fait, ce problème ne saurait être confondu avec celui que pose aux psychologues l'expérience de voir une image ou de voir dans une image, même si, bien sûr, voir un texte et voir une image sont assurément des expériences perceptuelles très différentes. Que l'on considère la question que pose Goodman comme secondaire (Nanay, Reference Nanay2016, p. 37–39) ne discrédite pas l'entreprise philosophique qui cherche à y répondre.

6 Certes, la réponse de Goodman est bien éloignée de celle de Lessing. Pour Lessing, l'image, contrairement au texte, est un signe naturel (voir Lessing, Reference Lessing and Teinturier2011 [1766–1768]). Pour être une sorte d'anti-Laocoon, Langages de l'art n'en suit pas moins la même piste que celle empruntée par Lessing au dix-huitième siècle.

7 La similitude ne doit pas être poussée plus loin. Alors que la solution est syntaxique en ce qui concerne la dépiction, elle est plutôt pragmatique en ce qui concerne la nouvelle énigme de l'induction. Puisqu'une description ne deviendra jamais une dépiction par la seule puissance de l'accoutumance, le recours à un critère de type pragmatique se trouvait d'emblée écarté. Il reparaît cependant lorsqu'il s'agit de fournir une explication du réalisme iconique.

8 La présentation des systèmes notationnels s'insère dans une perspective philosophique d'abord plus étroite : une explication de la différence entre art autographique et art allographique, cette distinction étant elle-même appelée par une réflexion sur le faux en art. De façon surprenante, les problèmes de Langages de l'art semblent s'engendrer mutuellement de sorte que nous ne savons pas, au fond, lesquels doivent recevoir une priorité. À suivre l'ordre de présentation de Langages de l'art, la caractérisation des images comme symboles appartenant à un système analogique semble plutôt accidentelle.

9 Un schéma symbolique désigne la structure de renvoi entre marques et caractères; un système symbolique organise la structure de renvoi entre caractères et contreparties sémantiques.

10 Cela s'applique aux caractères atomiques (un point qui symboliserait une goutte de pluie) ou aux caractères composés (la prolongation d'un trait qui, par composition, entraînerait la formation d'un nouveau caractère). On peut ainsi démontrer assez facilement que l'ajout d'un trait dans l'image d'un ciel pluvieux entraîne un changement dans ce qui est représenté.

11 Ces systèmes de représentation ou systèmes symboliques ne sont pas hors-sol. Il est possible d'en faire la genèse. John Kulvicki s'intéresse, dans un article consacré à la diversité des images, aux différentes techniques visant à produire un système de représentation qui contiendrait des images (voir Abell et Bantinaki, Reference Abbel and Bantinaki2010, p. 28).

12 C'est un point qu'a bien vu Jacques Morizot : «Ce qui intéresse Goodman est une théorie de la notation (dont le noyau dur est la définition des trois systèmes symboliques de base : esquisse, script, partition correspondant grossièrement aux images non numériques, aux textes et à la musique notée) et non pas une théorie de la dépiction qui repose sur une détermination intrinsèque de l'image» (Morizot, Reference Morizot and Kristanek2017).

13 La disjointure est un autre réquisit des systèmes notationnels qu'il ne faut pas confondre avec la différenciation finie. La disjointure des caractères suppose qu'on puisse facilement reporter une marque à l'un des caractères de la syntaxe.

14 John Kulvicki fait de la sensibilité relative de la syntaxe un critère différent de la densité syntaxique. En effet, alors que la sensibilité est une affaire de degré, la densité ne l'est pas.

15 Goodman n'identifie pas continuité et indifférenciation syntaxique, encore qu'il soit clair qu'un ensemble continu de marques implique un manque de différenciation des caractères (Goodman, Reference Goodman and Morizot2011 [1968], p. 174).

16 Kulvicki préfère le terme «richesse» à celui de densité. En effet, au niveau sémantique, le problème en est moins un d'articulation du sens que de richesse de la dénotation.

17 C'est le cas par exemple des icônes religieuses où des images aux caractères distincts renvoient exactement aux mêmes denotata (Kulvicki, Reference Kulvicki2003, p. 328). Cette redondance peut être esthétiquement intéressante. Elle ne retire pas aux icônes leur qualité d'images dans la mesure où les images appartiennent à des systèmes qui restent syntaxiquement denses. Voir aussi l'analyse proposée par Jacques Morizot de ces ensembles pseudo-notationnels qui fonctionnent comme des graphes inversés, syntaxiquement denses, mais sémantiquement articulés : «rien dans l'aspect physique de l'image ne peut être écarté mais le fait de noter ces caractéristiques n'apporte aucune information pertinente supplémentaire pour interpréter les marques» (Morizot, Reference Morizot2012 [1996], p. 123). Certaines images de signalisation routière fonctionnent de cette façon.

18 En général, la densité syntaxique appelle une densité sémantique, mais Goodman insiste sur le fait qu'un système peut être syntaxiquement articulé et sémantiquement indifférencié et même insuffisamment disjoint (comme c'est le cas de nos langues ordinaires) (Goodman, Reference Goodman and Morizot2011 [1968], p. 188).

19 Il faut tout de même préciser que dans certains graphes, les couleurs peuvent signifier quelque chose. Le plus souvent, il faut lire la légende pour comprendre exactement quelles marques dans le graphe jouent une fonction représentationnelle.

20 Il s'agit de fournir une explication de la différence entre les arts que l'on peut contrefaire et ceux que l'on ne peut pas contrefaire, car les premiers autorisent une instanciation multiple de leurs œuvres et une duplication en droit infinie de ces œuvres.

21 (Goodman, Reference Goodman and Morizot2011 [1968], p. 269). On peut douter cependant du caractère inattendu de cette conclusion.

22 Je me réfère ici aux remarques du théoricien des images W. J. T. Mitchell (Mitchell, Reference Mitchell, Boidy and Roth2009 [1986]). Une explication idéologique de la différence texte/image serait fondée sur des raisons extérieures à la structure même des symboles ou de leur fonctionnement (des conceptions par exemple sociales, politiques ou culturelles : ainsi de la naturalité supposée de l'image chez Gombrich, indissociable pour Mitchell d'une conception en fait idéologique de la nature).

23 Bien sûr, d'autres décisions plus pragmatiques interviennent également pour déterminer, par exemple, quel degré de précision est attendu par notre interlocuteur lorsque l'on nous demande l'heure. Nous avons tendance à arrondir l'heure lorsqu'on nous la demande dans la rue et à être plus précis lors des derniers moments d'une épreuve chronométrée. Mais ce genre de décisions intervient quelle que soit la syntaxe de la machine considérée.

24 Cette charge informationnelle ne doit pas être confondue avec l'idée de «saturation relative» des systèmes présentée plus haut.

25 Je laisse de côté l'objection adressée à Goodman en ce qui concerne les images numériques. Goodman a tenté d'y répondre dans l'article déjà cité de Reconceptions (Goodman, Reference Goodman, Cometti and Pouivet1994 [1988], p. 136–137). La meilleure façon de comprendre cette réponse consiste à rappeler que le mode de production de l'image n'entre pas ici en considération. Seule compte l'insertion de l'image comme élément au sein d'un système représentationnel. Or l'image pixélisée, même si elle est produite ou composée de façon numérique (ensemble de marques discrètes), peut être intégrée comme élément d'un système qui fonctionne de manière analogique.

26 Lopes est le premier à souligner l'interprétation que Dretske fait de la différence entre l'analogique et le digital. Lopes refuse pourtant l'idée que les images seraient naturellement plus «spécifiques» que les textes, c'est-à-dire plus chargées en informations. Sa théorie de la reconnaissance d'aspects en découle. Sur ce point, voir Lopes (Reference Lopes and Blanc-Benon2014 [1996], 6.1 et 6.2).

27 Cela n'empêche pas l'expérience perceptuelle de recognition d’être immédiate.

28 Il ne faut pas confondre ce trait des systèmes analogiques avec un trait plus contraignant que Kulvicki (Reference Kulvicki2006; 2014) désigne sous le nom de transparence et qu'il compte, à côté de la densité syntaxique, au nombre des qualités syntaxiquement pertinentes des images. Il s'agissait déjà alors d'intégrer parmi les propriétés structurales des systèmes symboliques une certaine version de ce que les théories alternatives de la dépiction désignent sous le concept de similarité. Une image est transparente au sens structural si, en la prenant pour objet d'une nouvelle représentation (une image de l'image), on engendre un résultat qui est syntaxiquement identique à la représentation originale (c'est le cas entre autres de la photographie argentique et des vues en perspective).

29 Je renvoie ici à la reformulation que Goodman donne des procédés inductifs à partir de l'inter-traductibilité du digital vers l'analogique. (Goodman, Reference Goodman and Morizot2011 [1968], p. 199). Il est remarquable que Goodman (à la différence de Dretske) se soit intéressé au passage des systèmes digitaux aux systèmes analogiques pour en relever la portée également cognitive. C'est même ce qui constitue le fil conducteur des préoccupations de Goodman des années 1950 aux années 1980.

30 On pourrait ainsi penser l'allographisation de l'art comme l'une des modalités de ces passages du dense vers le clairsemé (voir Genette, Reference Genette1997). Cependant, il n'est pas dit que ce passage soit toujours possible. Sur ce point, je souscris aux conclusions de Frédéric Pouillaude (Reference Pouillaude2009). Ce dernier insiste à juste titre sur l'irréductibilité de la danse à ses partitions.

31 Le passage d'un système dense vers un système clairsemé peut prendre des formes très différentes. Procéder à une approximation (comme nous le faisons parfois en sciences ou dans la vie de tous les jours) ne saurait être confondu avec la recherche de traits constitutifs d'une œuvre d'art pour en assurer la réitération ou tout simplement l'identification. Il s'agit pourtant, dans les deux cas, de dé-densifier le symbole. Par ailleurs, cette dé-densification peut entraîner des pertes importantes. Un diagramme floral de John Henry Schaffner ne représente pas les mêmes propriétés qu'un dessin de fleur par Pierre Joseph Redouté. Il en va de même des diagrammes réalisés par Erle Loran à partir des peintures de Paul Cézanne. Tout dépend bien sûr de ce que nous attendons de telle ou telle représentation. Enfin, il faut noter que si nous pouvons dé-densifier un symbole en poursuivant certaines fins (identification scientifique, schématisation), il n'est pas toujours possible de faire le chemin dans l'autre sens. Retrouver le dessin de Cézanne à partir du diagramme de Loran ne consiste pas à dessiner une courbe à partir d'un ensemble fini de points. Aucun procédé inductif n'accomplira ce chemin. Il en résulte que si ces deux procédés sont complémentaires, ils ne sont pas symétriques.

32 Avec le concept de «fleshing out» ou de remplissage, Kulvicki s'intéresse par exemple aux procédés de supplémentation engagés dans la perception des images (Kulvicki, Reference Kulvicki2014). En partant des travaux réalisés par Paul A. Kolers sur l'effet phi, Goodman est également parvenu à identifier des phénomènes de supplémentation impliqués dans notre perception ordinaire des formes (Goodman, Reference Goodman and Popelard2006 [1978], p. 106–130). De toute évidence, ces dernières remarques confirment le rôle que peuvent jouer les sciences cognitives et la psychologie de la perception dans les débats sur la dépiction.

33 «Quand on ne peut jamais préciser exactement en présence de quel symbole d'un système on est, ou si c'est le même en une seconde occurrence, quand le référent est si insaisissable que de trouver le symbole qui lui convient parfaitement requiert un travail sans fin, quand les caractéristiques qui comptent pour un symbole sont plus nombreuses que rares, […] dans tous les cas, on ne peut traverser simplement le symbole pour aller à ce à quoi il réfère […]. On doit constamment prêter attention au symbole lui-même» (Goodman, Reference Goodman and Popelard2006 [1978], p. 103).

References

Références bibliographiques

Abbel, Catharine et Bantinaki, Katerina, dir. 2010 Philosophical Perspective on Depiction, Oxford, Oxford University Press.CrossRefGoogle Scholar
Blanc-Benon, Laure 2005 La question du réalisme en peinture, Paris, Vrin.Google Scholar
Dretske, Fred 1981 Knowledge and the Flow of Information, Cambridge (MA), MIT Press.Google Scholar
Genette, Gérard 1997 L’œuvre de l'art, Paris, Seuil.Google Scholar
Goodman, Nelson 1985 Faits, fictions et prédictions [1954], trad. par Jacob, P., Paris, Éditions de Minuit.Google Scholar
Goodman, Nelson 1994 Reconceptions en philosophie [1988], trad. par Cometti, J.-P. et Pouivet, R., Paris, Presses universitaires de France.Google Scholar
Goodman, Nelson 2006 Manières de faire des mondes [1978], trad. par. Popelard, M.-D., Paris, Gallimard. Première édition française : Nîmes, Éditions Jacqueline Chambron, 1992.Google Scholar
Goodman, Nelson 2011 Langages de l'art : une approche de la théorie des symboles [1968], trad. par Morizot, J., Paris, Fayard. Première édition française : Nîmes, Éditions Jacqueline Chambron, 1991.Google Scholar
Haugeland, John 1981 «Analog and Analog», Philosophical Topics, vol. 12, no1, p. 213225.CrossRefGoogle Scholar
Hyman, John 2006 The Objective Eye, Chicago (IL), University of Chicago Press.CrossRefGoogle Scholar
Kulvicki, John V. 2003 «Image Structure», The Journal of Aesthetics and Art Criticism, vol. 61, n° 4, p. 323340.CrossRefGoogle Scholar
Kulvicki, John V. 2006 On Images: Their Structure and Content, Oxford, Clarendon Press.CrossRefGoogle Scholar
Kulvicki, John V. 2014 Images, Londres et New York (NY), Routledge.Google Scholar
Kulvicki, John V. 2015 «Analog Representation and the Parts Principle», Review of Philosophy and Psychology, vol. 6, no1, p. 165180.CrossRefGoogle Scholar
Lessing, Gotthold Ephraim 2011 Laocoon ou Des frontières respectives de la poésie et de la peinture [1766–1768], trad. par Teinturier, Frédéric, Paris, Klincksieck.Google Scholar
Lopes, Dominic 2010 «From Languages of Art to Art in the Mind», Journal of Aesthetics and Art Criticism, vol. 58, no3, p. 227231.CrossRefGoogle Scholar
Lopes, Dominic 2014 Comprendre les images [1996], trad. par Blanc-Benon, L., Rennes, Presses universitaires de Rennes.Google Scholar
Mitchell, W. J. T. 2009 Iconologie. Image, Texte, Idéologie [1986], trad. par Boidy, M. et Roth, S., Paris, Les Prairies Ordinaires.Google Scholar
Morizot, Jacques 2012 Goodman. Modèles de la symbolisation avant la philosophie de l'art [1996], Paris, Vrin.Google Scholar
Morizot, Jacques 2017 «Dépiction», version académique, dans Kristanek, M., dir., l'Encyclopédie philosophique [en ligne], http://encyclo-philo.fr/depiction-a/.Google Scholar
Nanay, Bence 2016 Aesthetics as Philosophy of Perception, Oxford, Oxford University Press.CrossRefGoogle Scholar
Pouillaude, Frédéric 2009 Le désœuvrement chorégraphique. Étude sur la notion d’œuvre en danse, Paris, Vrin.Google Scholar
Schier, Flint 2019 La naturalité des images [1986], trad. par Rehault, S., Paris, Questions théoriques.Google Scholar
Von Neumann, John 1951 «The General and Logical Theory of Automata», dans Jeffress, Llyod A., dir., Cerebral Mechanisms in Behavior, New York (NY), Wiley.Google Scholar