La Théorie de la pertinence

Nous l’avons déjà vu ici, la pragmatique est l’étude du langage en usage, ou en contexte. Or il existe, schématiquement, deux axes d’étude principaux si l’on s’intéresse à ces questions. Soit on s’intéresse à « ce que le locuteur fait » lorsqu’il produit un énoncé. Cette question de recherche amène à décrire la nature des énoncés en fonction de l’intention qu’a le locuteur lorsqu’il les produit. Cette direction s’appuie sur la théorie dite des Actes de langage (article à paraître) développée par John L. Austin. La seconde voie que l’on peut emprunter est celle qui s’intéresse à « ce que l’interlocuteur fait » lorsqu’il interprète un énoncé. Contrairement à la première voie qui tente de décrire la production langagière dans un environnement social donné, la seconde s’attelle à décrire les procédures mises en place par l’interlocuteur pour récupérer ce que son partenaire souhaite lui communiquer. Pour ces questions, nous nous tournons plutôt vers les travaux de Paul Grice sur les maximes de conversation.

La théorie de la pertinence de Sperber et Wilson s’intéresse à ce second aspect de la communication humaine. Elle tente de fournir un modèle vraisemblable des processus mentaux, cognitifs, qui opèrent lorsque nous devons donner du sens à un énoncé qui nous est destiné. Cette théorie se base sur plusieurs postulats. Le premier est que ces processus sont automatiques, non conscients et incontrôlables. En effet, on ne choisit pas consciemment le sens que l’on attribue à un énoncé. On ne peut pas non plus décider de ne pas interpréter un énoncé. Ce que l’on fait sur la base de notre interprétation est de l’ordre du conscient (on choisit de croire, d’obéir, de répondre, etc). Mais le cheminement de pensée qui nous a amené à donner du sens à cette suite de sons ne relève pas notre volonté, mais plutôt de mécanismes automatiques de traitement de l’information communs à l’espèce.

Cette position, très forte, se base sur un argument lui-même fort, et entraîne une conséquence elle aussi importante. L’argument qui permet d’affirmer que ces processus mentaux sont automatiques, innés, et communs à l’espèce tient à la grande stabilité de la communication. Une observation attentive de la communication humaine nous montre vite que les énoncés produits sont, du point de vue de l’information sémantiquement encodée dont ils sont porteurs, hautement sous-informatifs, souvent ambigus, et insuffisants à transmettre l’ensemble des informations intentionnées sans un rajout quel qu’il soit. Pour s’en rendre compte, imaginons simplement l’exemple suivant :

– Tu sors avec nous ce soir ?
– J’ai de la fièvre.

Cet échange, standard et parfaitement compréhensible, pose néanmoins un problème pour qui espère récupérer toutes les informations communiquées par simple décodage. En effet, si l’on considère la seule information sémantiquement encodée dans le second énoncé, force est de constater qu’elle ne contient pas la réponse à la question posée. Il n’est nullement fait mention d’un « oui » ou d’un « non » telle que l’exige la question fermée. Nous sommes pourtant tous d’accord pour dire que l’énoncé y répond quand même, d’une manière ou d’une autre. Mais pas parce qu’il encode quelque part un second message caché subliminal ésotérique occulte contenant la réponse. Non, c’est plus simple. Cette information, c’est nous qui décidons de la rajouter à la signification de base de la phrase. Nous choisissons (ou plutôt notre module pragmatique choisit, car encore une fois, ce choix n’est pas conscient) de compléter l’information de base, insuffisante en l’état, pour qu’elle devienne satisfaisante dans le contexte. Et c’est ça, qu’on appelle la pragmatique !

Mais le mystère est loin d’être résolu. Il faut maintenant expliquer comment nous sélectionnons les informations complémentaires à rajouter pour compléter l’information.

Toutefois, avant de proposer une explication, permettez que je revienne un peu en arrière. Car je n’ai toujours pas expliqué en quoi ce qui vient d’être montré tient comme argument au postulat de l’automatisme et de l’universalité de cette procédure de « rajout de sens ». Comme je l’ai dit, et illustré par un exemple, la communication quotidienne regorge de cas dans lesquels nous adaptons, complétons le sens littéral de l’énoncé pour les besoins de l’échange en cours. Or, comme ces informations supplémentaires ne sont pas encodées, les rajouter relève du pari. On fait l’hypothèse que ce que l’on rajoute était effectivement intentionné par notre interlocuteur. Il souhaitait précisément que l’on rajoute ces informations complémentaires, et pas d’autres. Et dit comme cela, cette pratique semble hautement risquée. Comment se fait-il que nous tombions aussi souvent juste dans notre sélection d’informations subsidiaires ? Force est de constater que la communication quotidienne est globalement très stable. Les malentendus existent, soit, mais ils restent rares en regard de la très haute fréquence des situations dans lesquelles nous devons compléter le sens de base d’une phrase. En y regardant de près, on se rend compte que la quasi totalité des énoncés produits au quotidien demandent une adaptation de sens d’une forme ou d’une autre. Nous prenons donc en permanence un risque dans notre interprétation, mais celle-ci est correctement réalisée dans la très grande majorité des cas. Et cet aspect de la communication est un mystère qu’il faut expliquer.

La réponse de Sperber et Wilson est double. D’une part, ils affirment que cette démarche de récupération du sens est automatique et non consciente, comme nous l’avons vu. Mais en plus, ils soutiennent que le locuteur, lorsqu’il produit un énoncé qui mérite une adaptation quelconque, fait en réalité un travail mental sensiblement similaire à celui que devra faire le destinataire. Il anticipe le chemin de pensée qui sera réalisé lors de l’interprétation, et construit sa phrase en fonction. Ceci explique pourquoi nous réalisons les bonnes interprétations, et récupérons les bons contenus de sens, tels qu’ils ont été initialement intentionnés par le locuteur. Mais pouvoir faire ceci exige de tous les sujets parlants qu’ils partagent le même système d’analyse linguistique. Ce qui est en fait assez évident. Si je suis en mesure de prédire l’interprétation que fera mon interlocuteur de l’énoncé que je lui adresse, c’est parce que j’utilise moi-même le même système langagier, que je me retrouve souvent à sa place (celle du destinataire qui doit interpréter), que je sais comment ça marche. Je me base sur ma propre façon d’interpréter, je postule que l’autre a le même modus operandi, et je construit ma phrase en partant de là. Je me permets de dire que c’est en fait évident, car imaginez un instant que ça ne soit pas le cas. Que l’interprétation soit aléatoire, que les processus de calcul du sens soient différents pour chaque individu. Comment pourrions-nous nous comprendre ? Je pense que la suite de sons X donnera l’interprétation Y, mais pour mon interlocuteur, la suite X donne en fait l’interprétation Z, que je ne peux aucunement prévoir. Je n’ai donc aucune possibilité de communiquer efficacement avec lui. Dans un tel cas, je devrais me limiter à un code transparent, qui ne souffre aucune adaptation d’aucune sorte, pour éviter les malentendus systématiques que cela entraînerait. La communication serait horriblement lourde, couteuse, et très peu pratique. Le fait que nous ayons le même système d’analyse des énoncés nous permet de tabler sur une interprétation convergente, et donc un message plus simple, car accommodé d’un ajout d’informations implicites qui apparaissent en contexte.

Ce point est capital, car c’est lui qui motive l’élaboration d’un modèle de l’interprétation. Comment peut-on croire qu’il est réaliste d’élaborer un modèle capable de prédire l’interprétation des énoncés ? Et bien simplement car c’est déjà un travail qui est systématiquement effectué par le locuteur. Toute personne prenant la parole anticipe ce que l’autre comprendra de son propos. Nous faisons quotidiennement des sous-entendus, nous communiquons des contenus de manière implicite, car nous savons que l’autre parviendra à les retrouver. Tout notre système de communication est basé sur notre capacité à prédire l’interprétation de notre interlocuteur. Et pour cette raison, il est possible de construire un modèle théorique de cette procédure mentale, dont le but est d’expliquer comment nous sélectionnons telle ou telle interprétation.

Bien. Maintenant que nous avons soulevé les questions liées à la pratique d’interprétation du sens, il est temps d’y apporter quelques réponses.

Voici la question à laquelle la théorie de la pertinence a tenté de donner réponse: quel chemin empruntons-nous pour retrouver la somme d’informations que notre interlocuteur a voulu nous transmettre par son énoncé ?

Pour comprendre comment la théorie de la pertinence prédit notre cheminement interprétatif, il est nécessaire de s’attarder un instant sur ce qu’elle dit de la communication elle-même.

On s’en doute assez vite, la notion de pertinence est centrale dans le processus d’interprétation. Mais se contenter de dire qu’il faut être pertinent dans nos échanges n’est pas très éclairant. Les auteurs ont donc consciencieusement précisé cette notion dans leur modèle. Pour eux, la pertinence d’un énoncé est le résultat d’un calcul. Et ce calcul est le rapport entre le coût cognitif que demande le traitement de l’énoncé, et les effets cognitifs qu’il apporte. On entend par effets cognitif l’apport informatif que l’énoncé réalise dans notre environnement de pensées. Les auteurs recensent trois cas de figures dans lesquels une information entraîne un effet cognitif; le premier est l’acquisition d’une nouvelle croyance, le second est le renforcement d’une croyance et le troisième est l’annulation d’une croyance existante. Dans chacun de ces cas, notre environnement cognitif (l’ensemble des croyances que l’on entretient) s’en trouve modifié.

Ainsi, à effet égal, plus l’effort de traitement est grand, moins l’énoncé est pertinent. Respectivement, à effort égal, plus les effets sont nombreux, plus l’énoncé est pertinent. Le locuteur doit donc évaluer le coût qu’entraînera le traitement de l’énoncé qu’il produit par rapport aux effets qu’il produira dans l’environnement cognitif de son interlocuteur.

Il ne reste maintenant qu’un pas à franchir pour comprendre comment le destinataire évalue l’énoncé qui lui est proposé, et comment il sélectionne l’interprétation qui lui semble la plus adéquate.

Lorsqu’on lui adresse un énoncé, le destinataire va le traiter en terme de rendement entre effort de traitement et effet cognitif. L’objectif est donc d’obtenir le meilleur ratio entre ces deux valeurs. Il commence par décoder l’information encodée, saturer un ensemble de variables (les pronoms, les anaphores, les déictiques, etc) pour obtenir l’information minimale, littérale. Si au terme de ce travail le gain informatif n’est pas jugé suffisant, si les effets sont trop faibles, alors il poursuivra son analyse par ce qu’on appelle un processus inférentiel. Il va imaginer un certain nombre de contenus additionnels qui pourraient être rajoutés pour que l’information devienne davantage informative. Ces informations n’étant pas encodées, elles ne sont pas certaines. Ce ne sont que des hypothèses contextuelles faites par le destinataire sur l’intention communicative du locuteur. Ces hypothèses sont appelées des inférences. Il cherche quelles informations supplémentaires pourraient à la fois être susceptibles d’être communiquées conjointement à l’énoncé, et parmi celles-ci, lesquelles sont les plus informatives, lesquelles produisent le maximum d’effet. Une fois arrivé à une interprétation qui apporte suffisamment d’effet, et qui a demandé un coût de traitement raisonnable, le destinataire considère qu’il a trouvé l’interprétation la plus probable, l’adopte comme étant celle initialement intentionnée, et cesse son analyse.

Voici dans les grandes lignes le modèle que proposent Sperber et Wilson pour décrire le processus interprétatif de la communication humaine. Mais tout ceci étant assez théorique, reprenons l’exemple précédent en expliquant comment nous le traitons:

– Tu sors avec nous ce soir ?
– J’ai de la température.

Lorsque le premier locuteur entend la réponse, il débute la procédure d’interprétation. La première étape, nous l’avons dit, est la saturation des variables. Dans le cas présent, il n’y en a qu’une: le je. Ce mot est appelé un déictique. Cela veut dire qu’il ne désigne rien de précis hors d’une situation particulière. Il est nécessaire, pour que le mot je ait un sens, pour qu’il désigne quelqu’un, qu’il soit prononcé par une personne identifiable dans le contexte. La phrase « Je t’aime » gravé sur un tronc d’arbre a une signification, mais n’a pas de sens étant donné que dans ce cas, je ne renvoie à personne d’identifiable. Pour en revenir à notre exemple, le destinataire identifie la personne à qui renvoie le pronom je. On dit qu’il lui attribue une référence. Cet exemple est très simple, mais cette opération peut, selon les cas, demander davantage de travail pour correctement identifier les objets auxquels la phrase fait référence. Quoi qu’il en soit, cette opération est obligatoire. Sans cela, aucune information consistante ne peut être traitée. Le résultat de cette étape s’appelle le sens littéral. C’est le sens qui est encodé sémantiquement par la phrase.

Mais une fois cette procédure effectuée, il peut arriver que l’information qui en résulte ne satisfasse pas nos attentes de pertinence. L’énoncé n’est pas encore assez informatif, il n’apporte pas suffisamment d’effets. C’est précisément le cas ici. Si l’on se limite à l’information littérale de la réponse « J’ai de la température », elle ne nous apporte pas les informations attendues en réponse à la question posée. C’est là que le processus inférentiel entre en jeu. On va chercher à compléter le sens littéral pour obtenir un résultat final suffisamment pertinent pour l’échange. Pour ce faire, on va chercher des informations supplémentaires, liées à cet énoncé, qui peuvent rétablir le manque de pertinence apparent. En quoi l’information « J’ai de la température » peut-elle être utile, informative, pour quelqu’un qui souhaite savoir si je sors ce soir ? Le processus inférentiel va donc servir à faire le lien entre l’information attendue « oui je sors/non je ne sors pas », et l’information littérale « j’ai de la température ». En l’occurrence, le lien n’est pas difficile à trouver. Nos connaissances encyclopédiques nous disent qu’avoir de la température est un symptôme de maladie, de fièvre. Ces mêmes connaissances générales, que nous partageons tous, nous informent qu’être malade implique un état de fatigue prononcé, qui demande de rester au calme chez soi. Et par conséquent, qu’une sortie festive n’est pas envisageable. Nous arrivons donc, au terme d’une recherche de cohérence entre ces informations, à une réponse: non je ne sors (car je suis malade, car j’ai de la fièvre, etc).

Cette chaine de raisonnement est totalement automatique. On ne se rend pas compte qu’on la réalise lorsqu’on traite cet énoncé. Cet aspect peut donc donner le sentiment que ce traitement est trivial, évident, banal, et ne mérite pas tant de sueur pour tenter de le décrire. Deux remarques à cela: la première est qu’il faut se méfier de ce qui est évident. C’est souvent là que réside les plus grands défis explicatifs. Même si l’écart entre la réponse « j’ai de la température » et « non je ne sors pas » semble aisément comblé, il reste nécessaire de trouver une explication cohérente qui permette de judicieusement décrire comment nous comblons cet écart. Ensuite, si cet exemple est simple, il est symptomatique d’une forme de communication, la communication verbale humaine, qui utilise sans cesse stratégie de complétion d’information pour simplifier le message produit, laissant à la charge de l’interlocuteur le soin de rajouter ce qui manque. De nombreux cas de ce genre exigent une analyse beaucoup plus sophistiquée. C’est le cas par exemple des métaphores, de l’ironie, du discours persuasif et manipulatoire, des temps verbaux, etc. Ainsi, si l’arsenal théorique peut sembler lourd pour décrire un exemple aussi simple, il a l’avantage de rester le même quel que soit le type d’énoncé à traiter. Des énoncés beaucoup plus complexes recevront la même analyse qu’ici. Ce modèle est donc très stable, très efficace à décrire des cas simples comme complexes, et est vraisemblable du point de vue cognitif.

J’ai dit que cet exemple était simple. Il reste pourtant un élément que je n’ai pas abordé. Indépendamment du fait que la réponse « j’ai de la température » est attendue comme une réponse en oui/non, elle pose un autre problème: en l’état, elle n’apporte aucune information nouvelle. Tout le monde a de la température. Tout objet physique a une certaine température. Ainsi, sans autre traitement, cette phrase ne renseigne sur rien que nous ne sachions déjà. Avant de chercher à la relier à la réponse attendue en oui/non, il faut donc au préalable lui donner une valeur informative non triviale. Et cette étape demande également un cheminement inférentiel spécifique. Et là encore, on va chercher à compléter le sens pour qu’il gagne en intérêt. Dans le cas présent, on va spécifier l’information « j’ai de la température » en « j’ai une température atypique, différente de la normale, plus haute que d’habitude, etc ». Nous retrouvons d’ailleurs le même type d’inférence lorsque nous spécifions un énoncé comme « la plupart des médecins boivent » en « la plupart des médecins boivent de l’alcool ».

Bien entendu, les exemples considérés sont classiques, standardisés, et leur fréquence d’emploi les ont rendu routiniers, ce qui simplifie considérablement le travail inférentiel nécessaire. Ce travail n’est  malgré tout pas nul, et illustre la démarche générale entreprise par notre système de traitement de l’information dans la bonne sélection d’interprétation de tous les énoncés que nous rencontrons.

Ainsi, la théorie de la pertinence nous dit que nous traitons l’énoncé jusqu’à atteindre un niveau de pertinence optimale, ce niveau étant obtenu par ratio de l’effort de traitement que demande l’interprétation de l’énoncé, et les effets cognitifs amenés par l’énoncé.
Toutefois, pour qui est familier des raisonnements mathématique, cette description, en l’état, pose un problème. Mais pour le voir, commençons par exposer ce postulat en termes algébriques (très simples, rassurez-vous !).

Si le degré de pertinence est obtenu par ratio effet/effort, nous pouvons l’écrire sous la forme d’une fraction. L’effet est en haut, il fait du gâteau, l’effort est en bas, il fait du nougat. Imaginons que je vous adresse un énoncé Y. Celui-ci vous apporte, mettons, 10 d’effets . Et il vous coûte 1 d’effort de traitement (il n’existe pour l’instant aucune unité de mesure précise des effets et des efforts. La présente formulation ne sert donc que d’illustration et ne renvoie à aucune réalité empirique). Le ratio (le degré de pertinence), est donc de 10 (10 divisé par 1 = 10). Imaginons maintenant un autre énoncé, Y’, qui transmette sensiblement les mêmes informations, produisant ainsi les mêmes effets, mais dont la formulation est plus obscure. Il apportera donc toujours 10 d’effet, mais pour 5 d’effort de traitement. Le degré de pertinence est donc maintenant descendu à 2 au lieu de 10 (10 divisé par 5 = 2). On arrive peut-être à la même interprétation, mais pour un coût de traitement plus grand. Ainsi Y est cognitivement préférable à Y’.

Pour donner un exemple plus concret, on a tous dans notre entourage une personne qui raconte des histoires à rallonges, fait de multiples digressions avec force détails inutiles pour finalement arriver à une chute qui aurait pu être atteinte beaucoup plus rapidement. Ce genre de récits nous coûte beaucoup en ressources de traitement, pour un résultat final somme toute assez pauvre.

Maintenant que nous avons une idée plus précise de ce rapport effort/effet, considérons un cas typique d’interprétation d’un quelconque énoncé, sur la base de ce que nous avons vu jusque là. Lorsque nous l’entendons, nous commençons à le traiter. Ce processus est bien évidemment pas conscient, et totalement automatique et incontrôlable (comme nous l’avons déjà dit, on ne peut pas décider de ne pas interpréter un énoncé). Notre cheminement mental débutant, nous atteignons le degré 1 d’effort. Ce premier travail nous a amené à une interprétation minimale (mettons le décodage littéral) qui nous donne un effet à hauteur de 1. Nous avons donc à ce stade un degré de pertinence de 1 (1 divisé par 1 = 1). Nous continuons à traiter l’énoncé, et donc à rajouter de l’effort de traitement. Nous atteignons le degré 2. Malheureusement, le passage de 1 à 2 ne nous à pas apporté davantage d’effet. Nous sommes donc à 2 d’effort pour 1 d’effet, ce qui nous donne un degré de pertinence de 0.5, ce qui est insuffisant. Pour dire les choses autrement, l’information obtenue jusqu’ici ne mérite pas le coût qu’elle a nécessité, elle n’est pas assez informative, pas assez rentable. Nous persévérons donc dans notre recherche d’effets. Mettons maintenant que lorsque je fournis la troisième unité d’effort, j’accède à une nouvelle interprétation, bien plus informative. Pour 3 d’effort, j’obtient 4 d’effet. J’ai donc un degré de pertinence de 4/3, ce qui donne 1 et des poussières. Le degré de pertinence devient donc plus acceptable.

Le problème avec la procédure ainsi décrite est que rien n’indique quand nous devons nous arrêter. En effet, on pourrait continuer ainsi ad eternam, misant sur le fait que plus je fournis d’effort, plus j’obtiens d’effet. La progression sera peut-être en dent de scies, mais elle restera progressive, sans possibilité de dire à quel moment nous devons nous arrêter. Il est donc indispensable d’incorporer au modèle un critère qui indique à quel moment nous avons obtenu l’interprétation la plus acceptable, et donc le stade auquel nous pouvons cesser de persévérer dans cette recherche d’effets.

C’est là que la présomption de pertinence entre en jeu. Selon Sperber et Wilson, nous avons tous, avant même le début du traitement de l’énoncé, une attente vis-à-vis de celui-ci. Nous nous attendons à ce qu’il apporte un certain niveau de gain dans notre environnement cognitif. Cette présomption de pertinence peut varier d’une situation à l’autre. Si vous discutez avec votre grand oncle d’Amérique, que vous n’avez pas vu depuis 15 ans, que vous connaissez à peine et à qui vous n’avez rien à dire, l’attente de pertinence sera sans doute limitée au début, et vous échangerez des informations d’un intérêt relatif, rapport à la qualité de son voyage ou au temps qu’il fait. En revanche, si vous parlez avec le professeur de votre cours préféré, l’attente de pertinence sera beaucoup plus élevée, et vous déploierez beaucoup d’efforts pour vous assurer une bonne compréhension de ce qu’il vous dit. Ou si vous avez un ami réputé pour ses jeux de mots fréquents, et que vous remarquez sur son visage un sourire complice, vous comprendrez que ce qu’il vient de dire comporte un second degré d’interprétation, nécessitant un effort supplémentaire pour un gain d’effets substantiel. Vous augmenterez ainsi votre présomption de pertinence, et fournirez des efforts jusqu’à ce que vous accédiez au sens caché de son mot d’esprit.

En d’autres termes, vous fixez, en fonction de la situation, une valeur au degré de pertinence que vous souhaitez atteindre. Le degré relatif à votre grand oncle ne sera que de 1. Mais celui relatif à votre professeur grimpera à 3. De sorte que lorsque vous déployez les ressources liées à l’interprétation de l’énoncé, vous avez déjà un niveau que vous comptez atteindre. Vous faites donc tourner le moteur mental jusqu’à atteindre ce niveau. Et une fois le degré de pertinence atteint, vous considérez que le résultat de votre analyse est satisfaisant, que vous avez correctement identifié le contenu d’information que votre interlocuteur souhaitait vous transmettre, et vous stoppez le cheminement interprétatif.

À noter par ailleurs que ce modèle explique aussi l’origine des malentendus et des mauvaises interprétations. Étant donné que nous formulons un certain nombre d’hypothèses sur le sens « complet » que notre interlocuteur souhaite nous transmettre, nous sélectionnons pour cela les données contextuelles les plus pertinentes, et construisons le sens sur cette base. Or il arrive que nous ne sélectionnons pas les bonnes données, que nous loupions des indices, et donc que nous donnions à l’énoncé un sens qui n’était pas celui voulu à l’origine. Mais sur l’ensemble des données que nous traitons quotidiennement, ces cas sont en réalité assez rares, et la communication reste globalement très efficace.

 

Nous voici au bout de cet article. Résumons donc brièvement. Notre traitement de l’information est basé sur une attente de pertinence optimale. Nous cherchons l’interprétation apportant le maximum d’effets pour le coût de traitement le plus faible possible. Tant que nous n’avons pas atteint un niveau de pertinence satisfaisant, nous continuons à chercher des informations supplémentaires qui rendraient l’énoncé davantage informatif. C’est cette présomption de pertinence optimale qui nous motive à rajouter des contenus implicites, à imaginer des sous-entendus, et à adapter le sens de certains termes. Et une fois le niveau de pertinence atteint, nous considérons avoir trouvé la bonne interprétation, telle qu’elle était initialement intentionnée par le locuteur, et nous stoppons notre traitement de l’énoncé. Cette procédure est totalement automatique, n’est pas consciente et n’est pas contrôlable. Elle est gérée par un système de traitement de l’information commun à l’espèce, stable, et universel, rendant par conséquent possible une modélisation de ce processus. S’il est difficile, voire impossible de prédire ce qu’un individu dira dans une situation donnée, il est en revanche possible de prédire ce qu’il comprendra, étant donné l’énoncé et un certain nombre d’informations contextuelles, culturelles et environnementales.

Un commentaire pour “La Théorie de la pertinence”

  1. Bonjour,
    Auriez-vous l’ amabilité de suggérer en Bibliographie des ouvrages davantage à destination des profanes ou débutants pour aborder le sujet en étant mieux armés?
    Merci !

Laissez un commentaire