20 octobre 1970 2 20 /10 /octobre /1970 08:49

L'alphabet, machine libératrice
A propos du livre de Eric Havelock Aux origines de la civilisation écrite en Occident (1)
par Catherine Kintzler

En ligne le 8 juillet 2011 [Vous pouvez lire cet article sur le nouveau site Mezetulle.fr]


L'alphabet est probablement le dispositif le plus puissant inventé pour libérer les esprits. Or c'est parce qu'il abandonne l'ambition de représenter les pensées, et parce que, à la différence de tout autre système d'écriture, il rend l'acte de lecture totalement mécanique, ne s'attachant qu'à la matérialité des sons et de leur émission, que l'alphabet déploie cette puissance. Dans un ouvrage trop peu connu et qui fut parfois injustement décrié, Aux origines de la civilisation écrite en Occident, Eric A. Havelock développe ce paradoxe et lui donne sa forme maximale : « un système d'écriture réussi ou pleinement développé est un système où la pensée n'a plus aucune part ». Cet article se veut un hommage à un livre stimulant que j'ai lu il y a bien longtemps, et qui donne toute sa plénitude à une forme audacieuse et sophistiquée de matérialisme.

Sommaire

  1. Quelques préjugés sur la notion d'écriture
  2. La capacité sociale de lecture
  3. Les conditions d'efficacité de l'écriture
  4. Conséquences
  5. Réflexions annexes : écriture alphabétique et symbole

 

Lecteurs accoutumés à la notation alphabétique, nous sommes fascinés par un moment dont nous avons perdu le souvenir personnel mais que nous observons chez les enfants qui apprennent à lire : il y a un déclic, une illumination qui saisit brusquement l’enfant au moment précis où il reconnaît les sons de la langue qu’il parle déjà. Dès le moment où il a compris le principe de l’articulation des sons alphabétiques, et compris que cette articulation note des chaînes sonores qu’il peut identifier, il entre dans l'univers infini de la lecture : le voilà bientôt autonome, délivré de tout tuteur, en état de naviguer sur l'océan de la littérature universelle. L'alphabet est probablement le dispositif le plus puissant jamais inventé pour libérer les esprits. Or c'est parce qu'il abandonne l'ambition de représenter les pensées, et parce que, à la différence de tout autre système d'écriture, il rend l'acte de lecture totalement mécanique, ne s'attachant qu'à la matérialité des sons et de leur émission, que l'alphabet déploie cette puissance. Dans son ouvrage trop peu connu et qui fut parfois injustement décrié, Aux origines de la civilisation écrite en Occident, Eric A. Havelock développe ce paradoxe et lui donne sa forme maximale : « un système d'écriture réussi ou pleinement développé est un système où la pensée n'a plus aucune part »

Epeler ce n’est pas encore savoir lire, on pourrait même dire que l’acte d’épeler fait obstacle à l’acte de lecture puisque épeler c’est nommer les lettres par leur nom, dont le son est toujours, si on excepte les voyelles, très différent de celui qu’elles représentent dans la chaîne écrite.
Par exemple la lettre que nous écrivons « B, b » s’appelle « bé » mais nous ne la prononçons pas « bé » lorsque nous la voyons écrite dans un mot. La lettre que nous écrivons R, r s’appelle « èr » mais nous ne disons pas « èr » lorsque nous la rencontrons. Quand je vois le mot écrit « bras » je lis /bra/ et non « béèraès ».
Le scénario qui permet de passer de l’épellation à la lecture, émission orale correcte de ce qui est noté, se réalise dans l'ânnonement « b-a - ba ». Mais entre les deux moments de ce petit scénario, on franchit un abîme : passer du nom de la lettre à son émission en articulation phonique avec d'autres. Cet abîme se creuse si on se demande en quoi consistent ces sons qui entrent dans la chaîne sonore notée par l'alphabet.
Si nous examinons d’un peu plus près ce qui se passe, on se pose la question : alors qu’il est très facile d’émettre le son noté par une voyelle, comment expliquer à quelqu’un qui apprend à lire ce qu’est le son noté par une consonne ? C’est impossible d’émettre le son isolé noté par la lettre B et à plus forte raison de demander à un autre de le reproduire, et ainsi de toutes les consonnes. On ne peut l’émettre qu'en le joignant à un autre : b-a ba.
Nous devons donc affiner notre idée de l’alphabet : les lettres de l’alphabet ne notent pas directement des sons au sens strict, mais notent des abstractions de son, des sons imprononçables en eux-mêmes de manière isolée. Plus précisément, elles notent une action du corps, elles correspondent à ce qu’il faut faire pour émettre un son abstrait, articulé à d’autres. Car un phonéticien pourra nous dire que le graphe « B » note une labiale occlusive sonore, alors que le graphe « P » note une labiale occlusive sourde. Comprendre cela est à la fois élémentaire et très abstrait: et d'une certaine manière c'est ce qui rend comique la leçon de philosophie du Bourgeois gentilhomme.

Voilà la découverte de l’alphabet ; un mode d’écriture qui rompt avec d'autres modes d’écriture par le raffinement analytique de la chaîne sonore parlée qu'il s'efforce de représenter, ce qui lui donne une économie en nombre de signes, une facilité d’utilisation et une adaptabilité inconnues avant lui (Grèce, environ 700 ans avant JC, alors que l'écriture est bien plus ancienne). La version universelle et scientifique de l’alphabet est l’alphabet phonétique, qui répertorie systématiquement tous les sons de toutes les langues et leur donne une notation non ambiguë, mais le phonéticien ne fait rien d’autre que de rationaliser et étendre ce que l’alphabet a déjà fait imparfaitement. Selon Havelock, l'alphabet vulgaire proprement dit est assez récent et existe sous deux formes : le grec (dont est dérivé le cyrillique) et le latin.

J’ai bien conscience en disant cela d’avancer une proposition « culturellement incorrecte ». Ce n’est pas moi qui l’ai inventée, j’ai emprunté les rudiments de cette théorie à Eric A. Havelock, qui a consacré une grande partie de sa vie à élucider et à exposer les propriétés distinctives de l’alphabet dans ce qui le distingue des autres systèmes d’écriture. Havelock a travaillé principalement dans les années 1970-80 et il a été accusé d’occidentalocentrisme. Je voudrais lui rendre hommage et retracer quelques éléments de sa théorie, qui n’a absolument rien d’occidentalocentriste comme on le verra.


1 – Examen de quelques préjugés concernant la notion d’écriture

L’écriture serait liée à la culture. C’est faux, car le fait de lire et d’écrire est très récent (environ 5000 ans avant JC), c’est le langage oral qui est fondamental. D’où l’importance d’apprendre d’abord à parler aux enfants, de leur raconter des histoires, de leur apprendre à réciter. Plus le vocabulaire oral d'un enfant est riche, plus il sera ensuite à même d'apprendre à lire.

On identifie souvent mais abusivement une langue parlée avec le système d’écriture qui la note traditionnellement. Or il n’y a aucun lien entre les deux. Par exemple, Kemal Atatürk a supprimé l’écriture arabe et l’a remplacée par l’alphabet latin : les phonèmes de la langue turque non seulement n’en ont pas été affectés, mais ils ont été notés avec plus de précision. De manière générale, il est possible de transcrire n’importe quelle langue dans n’importe quel système de notation phonographique sans que cela affecte la langue. L’alphabet est un système phonographique parmi d’autres, et Havelock soutient qu’il est le plus performant.

On croit souvent que la notation des quantités est plus difficile que celle des unités phoniques composant la parole. C’est faux, représenter la parole est beaucoup plus difficile. Il y a disjonction entre les deux. Les Babyloniens avaient des outils arithmétiques bien supérieurs à ceux des Grecs, alors que les Grecs ont inventé l’outil le plus performant pour capter la chaîne sonore parlée. Il n’y a aucune relation entre les deux, et de plus cela permet de répondre à l’accusation d’occidentalocentrisme : les Grecs étaient plus avancés pour la notation de la parole, mais beaucoup plus arriérés que les peuples sémitiques pour la notation des quantités. On ne peut donc pas conclure à une quelconque « supériorité » des uns ou des autres.

L’écriture est considérée comme un phénomène global et homogène qui divise l’histoire de l’humanité en « avant » et « après ». Or des divisions profondes traversent l’écriture elle-même. Tout d'abord, ce n'est pas la même chose de s'efforcer de noter des idées ou des mots (idéogrammes et logogrammes), et de s'efforcer de noter une chaîne sonore (phonogrammes). Une seconde division traverse les systèmes phonographiques, faisant de l'alphabet le système d'écriture le plus puissant et le plus libérateur.


2 – Les systèmes d'écriture appréciés à l'aune de la capacité sociale de lecture

Havelock propose une classification des systèmes d’écriture en deux grandes catégories.
a) Les systèmes qui tentent de noter des représentations mentales et ceux qui tentent de représenter des mots ou des expressions. Ce sont les idéogrammes et les logogrammes. Ces systèmes (très ambitieux puisqu’ils tentent d’aller directement aux processus psychiques) sont très anciens (5000 à 4000 ans av JC). Leur difficulté est qu’il faut un nombre considérable de signes et qu’il faut associer chaque signe à un énoncé : la mémoire humaine est incapable d’aller au-delà de quelques milliers (de l'ordre de 10 000) enregistrements de cette nature. On voit tout de suite ce que veut dire « lettré » dans un tel système : c’est une profession qui demande qu’on y consacre sa vie, la lecture ne peut pas être un acte populaire, c'est un acte hautement spécialisé et valorisé.

b) Un très grand pas a été franchi dans l’économie des signes et la facilité de manipulation quand on a renoncé à noter les idées et les mots et quand on a tenté de noter les sons émis par la parole. Ce sont les phonogrammes : on s’efforce de noter les sons, de donner le moyen de capter la chaîne sonore.

Les phonogrammes se caractérisent par leur modestie : au lieu de représenter la pensée, on s’efforce de représenter des phénomènes matériels (les sons d’une langue) par d’autres phénomènes matériels (les signes visuels tracés). D’où cette proposition qui est une des thèses fondamentales de Havelock : « Un système d’écriture réussi ou pleinement développé est un système où la pensée n’a plus aucune part ». Il s’agit en lisant de restituer des sons, l’acte de lecture devient mécanique et n'a plus besoin de profonde réflexion : on économise le moment de réflexion sur le fonctionnement du système pour accéder plus vite à l'énoncé lui-même. On voit bien que  l’alphabet gréco-latin est un système phonographique, mais on ne voit pas encore au juste pourquoi il serait plus puissant qu'un autre système phonographique. Afin de nous pencher sur cette question, il est nécessaire de faire un détour pour dégager un concept important.

On croit en effet que pour comprendre l’écriture il est primordial de s’intéresser à l’écriture elle-même. Or c’est la lecture qui donne la clé de l’écriture. L’intérêt est de se demander ce qu’un système d’écriture permet au niveau de la lecture, du décryptage. Ici Havelock avance le concept fondamental de sa théorie : la capacité sociale de lecture. Quelle proportion de la population est susceptible d'identifer rapidement, facilement et sans aide extérieure le message tracé ? Bien sûr cela tient à des conditions sociales (apprentissage) mais pas seulement : il y a aussi, en amont, des conditions techniques dans le système d’écriture. Autrement dit il y a des systèmes d’écriture plus libérateurs dans leur principe que d’autres.

Quand un système d’écriture est difficile à décrypter – par exemple un ensemble d’idéogrammes et de logogrammes – la lecture et l’écriture sont l’objet d’un usage professionnel ; la lecture courante rencontre beaucoup d’obstacles. C’est le règne des scribes. Et c'est seulement avec l'alphabet que les conditions techniques sont réunies pour sortir entièrement d’un usage professionnel de l’écriture et pour jeter les bases d'une capacité de lecture universelle. Il est donc important de s'interroger sur ce qui rend une écriture efficace du point de vue de la capacité de lecture. [Haut de la page]


3 – Quelles sont les conditions d’efficacité de l’écriture ?

Qu'est-ce qui peut  rendre une écriture facile à décrypter et la soustraire à un usage professionnel ?
Il est clair que les écritures phonographiques sont, par leur  principe même, forcément plus efficaces que les écritures idéographiques ou logographiques : elles requièrent moins de signes et moins d’effort de la part du lecteur.
Mais pourquoi l’alphabet serait-il le système le plus efficace au sein des écritures phonographiques ?
C’est qu’il parvient à satisfaire (quoique de manière imparfaite) trois conditions techniques relatives à l’efficacité de la lecture.

  1. Le système doit permettre la représentation de tous les sons d'une langue donnée.
  2. Cette fonction doit être assurée sans ambiguïté phonique : il faut que le lecteur ne soit pas constamment obligé de faire des choix, ou de recourir pour cela à un « interprète autorisé ».
  3. Le nombre total de caractères ne doit pas dépasser certaines limites, la capacité de lecture étant inversement proportionnelle au nombre des signes. Empiriquement, ce nombre oscille entre 20 et 30.

Alors on peut introduire pertinemment une quatrième condition : un système d’éducation imposant au cerveau les habitudes de reconnaissance avant que celui-ci ne soit pleinement développé, pendant qu’il est encore dans le travail d’acquisition de la langue orale.
Ce résultat n’a été obtenu qu’en Grèce vers 700 avant JC : c’est l’alphabet grec.

D’autres systèmes phonographiques existent. Ce sont des systèmes syllabaires parmi lesquels Havelock classe les systèmes à entrées consonantiques. C'est le cas, par exemple ce qu’on appelle « l’alphabet phénicien » ; des systèmes perse, sanscrit, hébreu, araméen et arabe, ainsi que du cunéiforme.
Les syllabaires au sens strict cherchent à représenter des sons réels (que l’on peut émettre isolément) dont l’analyse n’est pas aussi poussée que dans le cas de l’alphabet. Or les syllabaires sont pris dans une contradiction : ou bien ils essaient de représenter un maximum de sons, et alors ils satisfont les deux premières conditions mais ils aboutissent à un très grand nombre de signes ; ou bien ils essaient d’économiser les signes en procédant par « factorisation », par groupes de sons (par exemple les sons ba be bi bo bu bou seront notés par une même « entrée consonantique ») mais alors une partie du son est laissée de côté et il y a une forte ambiguïté qu'on ne peut trancher que si l'on connaît d'avance le mot ou si l'on fait appel à une autorité extérieure. Ces systèmes sacrifient donc une des conditions pour satisfaire les autres.
Dans tous les cas, l’activité de lecture reste au moins partiellement une activité spécialisée, professionnelle : la lecture est laborieuse, elle a besoin souvent du recours à un interprète qui tranche les ambiguïtés, elle sera également facilitée si on « reconnaît » des énoncés déjà constitués.

Quelles différences l'alphabet proprement dit introduit-il ?

Du fait qu’il pousse l’analyse de la chaîne sonore jusqu’à ses composantes morphologiques, du fait qu’il note des sons abstraits, le système alphabétique est un système « atomique » qui vise en fait ce que les linguistes appellent les phonèmes. L'alphabet ne note pas des sons réels mais des sons abstraits qui correspondent à un acte du corps : lorsque je vois une lettre, insérée dans une séquence, je sais ce que je dois faire pour prononcer cette lettre prise dans cette séquence.

Je ne peux pas entrer dans les détails, notamment Havelock se livre à une démonstration assez longue pour noter dans différents systèmes connus cette même séquence sonore : « Jack and Jill went up the hill », et il montre comment les systèmes syllabaires, soit par la surabondance de la notation, soit au contraire par son économie introduisant des ambiguïtés, supposent toujours un déchiffrage laborieux. C’est cela qui requiert l’usage de type professionnel. L’alphabet, une fois acquis, est plus aisément déchiffrable sans aide extérieure. En fait dans le cas des syllabaires, la reconnaissance est aisée quand on connaît la phrase d’avance – par exemple dans un corpus de littérature traditionnelle comportant des formes fixées. Avec l’alphabet, un énoncé jamais entendu par le lecteur sera aussi aisément déchiffré qu’un énoncé connu d’avance.
[Haut de la page]


4 – Les conséquences sont considérables

  • Démocratisation. La capacité de lecture devient un automatisme. On n’a plus besoin du scribe qui sait tout, ni de l’interprète qui dit comment il faut prononcer. Cet effet ne prendra sa pleine dimension qu’avec l’imprimerie, mais il serait impossible sans l’alphabet. Le lecteur peut devenir totalement autonome, si un système d’éducation prend les choses en main. Le lecteur alphabétique n’a pas besoin d’une autorité extérieure pour lui donner la bonne interprétation.
  • Désacralisation de l’écriture. L’alphabet est totalement mécanique, on n’y pense pas. L’écriture n’est plus un écran et elle n’est plus par principe le privilège de professionnels. Elle n’a plus de valeur en soi : elle ne fait que renvoyer à la langue parlée.
  • Un système alphabétique est indifférent à la langue qu’il note. Bien sûr il garde la trace de la langue dans laquelle il a d’abord été inventé et pratiqué, mais il peut en droit s’étendre à d’autres langues. Havelock donne un exemple tiré de Thucydide. Un émissaire perse a été capturé par les Grecs, qui ne savent pas sa langue. On le fait parler et on note en alphabet grec la transcription phonétique : on transmet cela à un traducteur, qui n’a plus qu’à « prononcer » ce qu’il voit pour entendre le persan et le traduire.
  • Possibilité de lire et de produire des énoncés originaux entièrement nouveaux. Le système alphabétique ne privilégie pas les formes « déjà connues », la littérature traditionnelle avec des formules répétitives. On a donc un développement sans précédent de la prose courante, ce qui suppose bien sûr aussi qu'on va pouvoir écrire des choses sans grande valeur : les conditions de l'innovation sont aussi celles d'une production médiocre en plus grande quantité.


Je me permets d'ajouter ici une remarque. L'un des plus perspicaces à avoir vu la puissance de l'alphabet et à avoir vu en quoi cette puissance peut aussi être accompagnée d'une forme d'affaiblissement, si on la compare à ce qu'il eût appelé « l'énergie » des cultures orales, est Rousseau qui au chapitre 5 de son Essai sur l'origine des langues, caractérise la propriété analytique l'alphabet.

Dans une dernière conférence, Havelock aborde les questions non résolues et montre  que les systèmes alphabétiques existants n’atteignent pas parfaitement les conditions énumérées : il reste des ambiguïtés ; les systèmes restent dépendants des langues d’origine et l’alphabet est fortement limité par les supports matériels dont on dispose ; il y a aussi des obstacles politiques et sociaux : en somme il ajoute des correctifs.

Mais si on neutralise les obstacles, et c’est sa conclusion, on voit que l'addition  : système alphabétique + système arabe de numération + imprimerie et papier (on pourrait ajouter aujourd’hui : claviers et représentation graphiques sur écran + transmission par réseaux) ; plus rien ne s’oppose à la diffusion universelle de l’usage de l’écriture : il n’y a plus que des obstacles politiques et sociaux. Il ne reste plus qu'à apprendre résolument à lire à tous. C'est peut-être ce qui est le plus difficile à préserver et à étendre.


5 - Quelques réflexions annexes sur écriture alphabétique et symbole

Les considérations qui précèdent n'abolissent cependant pas à mon avis le moment « symbolique » dont l'alphabet peut et doit faire l'économie. Libérés par l'alphabet, nous n'avons cependant pas à congédier un rapport plus archaïque et en un sens plus précieux au moment pré-alphabétique de l'écriture, lequel subsiste, peut-être pas comme on le prétend souvent en dépit de l'alphabet, mais à côté de lui.

Le maintien et l’usage du symbole est d’une certaine manière l’opposé de la lettre alphabétique. Mais ce n’est pas nécessairement son contraire, ce n’est pas sa négation, c'est un maintien qui complète et enrichit le signe alphabétique. Contempler un vitrail ou une statue rituelle, c'est y projeter un concentré de récits et de significations. Lorsque le franc-maçon étudie un symbole initiatique, il se sent libre d'y inclure des interprétations qui ne lui sont pas dictées par un dogme venu de l'extérieur. Dans l'un et l'autre cas,  en des sens différents, on regarde aussi le symbole comme un aide-mémoire.

  • Le symbole est global et non atomique, tout au plus peut-il parfois s’analyser en unités qui elles-mêmes ont un sens (par exemple l'allégorie de la justice avec les yeux bandés et tenant à la main une balance ou le niveau maçonnique composé du fil à plomb et d’une perpendiculaire). Il faut le prendre tout entier, il est lui-même une pensée et pas seulement une chose mécanique, il a quelque chose de méditatif, il a une consistance propre. Sa « choséité » est elle-même imprégnée de sens, alors que la choséité de la lettre alphabétique est par définition dénuée de sens.
  • Cette matérialité du symbole est imagée, elle n’est pas réductible à un tracé abstrait (même ornementé) : le symbole appelle le concept, il fait travailler l’imagination qui ensuite s’environne de concepts. Le symbole a des propriétés imaginatives et esthétiques par lui-même, alors que la beauté d’une écriture alphabétique ne peut être que surajoutée, ornementale.
  • Le symbole est par définition ambivalent, il appelle plusieurs interprétations, il n’est pas fixé une fois pour toutes et il ne s’impose pas à tous dans une seule et même acception. Parce que le symbole est ambivalent, équivoque, il y aura toujours des tentatives pour le fixer, pour lui donner un sens et un seul, pour le dompter et en faire une sorte de totem, pour l’enserrer dans un « programme » religieux, politique ou autre. On retrouve ici le défaut des écritures syllabiques dans lesquelles on a besoin soit de reconnaître un texte autorisé, soit de recourir à un interprète lui-même autorisé. Mais d’un autre côté, parce que le symbole est ambivalent il permet l’interprétation. Il donne libre cours à la pensée sur un mode vagabond.

Mais cette liberté dont le symbole peut et doit être le support suppose aussi des sujets libres, qui ont l’expérience de la liberté dans l’exercice de la pensée et qui souhaitent maintenir et développer cette expérience, qui ne sont pas pris en main par une tradition entièrement saturée qui vous dit tout ce qu’il faut faire, ou qui ont les moyens de s’en défaire, qui savent user de leur propre jugement.
Et sans l’alphabet, sans la constitution ordinaire du lecteur autonome, cela est sans doute possible, mais c’est très difficile, très long, très élitiste. Dans une tradition orale la liberté est un luxe aristocratique, c’est celle qu’on s’imagine chez les Indiens d’Amérique au temps de leur splendeur.
J’ai voulu montrer ici que l’écriture alphabétique est probablement l’outil le plus puissant jamais inventé par l’humanité pour l’autonomie du jugement et pour faire en sorte que cette autonomie soit accessible à tous. Le symbole n'est pas à mon avis une figure sacralisée mais ce n'est pas non plus une figure totalement dépassée, je vois dans le symbole ce que l’alphabet ne sait pas et ne peut pas m'apporter, ce que l’alphabet risque peut-être de me faire oublier.
La parole pleine, vivante et libératrice a toujours existé, elle n’a pas attendu l’alphabet. Mais pour que la parole pleine soit vraiment universelle, pour que tous puissent y prendre part, la formation orale est trop parcimonieuse et élitiste, il faut passer par une puissance plus forte et plus minimaliste : c’est ce que permet la culture alphabétique.

 
[Haut de la page]

© Catherine Kintzler, 2011

  1. Eric A. Havelock, Aux Origines de la civilisation écrite en Occident, Paris : F. Maspero, 1981 ; traduction en français par E. Escobar Moreno de quatre conférences données en 1974 à l'Ontario Institute for Studies in Education. Ouvrage original en anglais : Origins of western literacy : four lectures delivered at the Ontario Institute for Studies in Education, Toronto, March 25, 26, 27, 28, 1974, Toronto : Ontario Institute for Studies in Education, 1976.

 

Accueil                     Sommaire

Partager cet article

commentaires

Véranne 09/08/2011 12:40



Merci de ces précisions éclairantes, qui remettent en perspective et poussent ma réflexion plus loin...



Véranne 07/08/2011 20:21



Bonjour, et merci de cet article passionnant. J'ai été spécialement intéressée par l'allusion aux francs-maçons vers la fin, dont l'approche symbolique serait en quelque sorte
complémentaire ou en tout cas différente, plus ouverte, que la démarche alphabétique qui décrit le monde en associant des lettres de manière univoque et donc fermée.


Or il se trouve qu'une phrase des rituels d'apprenti ou compagnon précise: "je ne sais ni lire, ni écrire, je ne sais qu'épeler". L'origine de cette formule pourrait être liée à la
Kabbale, où celui qui débute l'étude de la Torah doit être prudent, chaque lettre créant un effet, chaque mot potentiellement un monde (celui du créateur ne devant jamais être prononcé mais
seulement epelé) En effet, les rituels maçonniques se font l'écho notamment des textes sacrés fondateurs de nos religions philosophies ou morales.


Eric Havelock développe-t-il davantage son étude en rapport avec l'approche maçonnique? Auriez-vous d'autres lumières à m'apporter à ce sujet? 


 



Catherine Kintzler 08/08/2011 11:28



Merci pour vos remarques. Havelock ne parle pas de cela, c'est moi qui le fais en ajoutant cette réflexion - l'allusion à la démarche maçonnique ne vous étonnera pas si vous jetez un coup d'oeil
sur ce blog. On ne peut rien vous cacher !


Je ne peux donc pas répondre pour Havelock. Mais je le fais en mon propre nom : je ne pense pas du tout que l'approche symbolique soit plus ouverte que la démarche alphabétique - c'est même
parfois le contraire et il arrive même que la démarche symbolique soit utilisée pour faire taire l'analyse et pour condamner toute pensée procédant par concepts. J'ai voulu justement sortir de
cette opposition, situer le symbole en regard de l'alphabet et dire en quoi il ne me semble pas aboli par l'écriture alphabétique, en quoi il me semble apporter une richesse par son ambivalence.


La phrase de rituel que vous citez est bien connue, elle est très intéressante puisque l'épellation est à la fois un moyen et un obstacle à l'apprentissage de la lecture. Elle n'a de sens qu'à
être dépassée.



Emmanuel Lazinier 20/07/2011 07:26



Il semble que le livre d'Havelock auquel vous faites référence soit épuisé en version
française. Avez-vous une idée du titre de l'original anglais ?

J'ai déjà de lui les titres suivants que je ne peux que chaudement recommander :




Preface to Plato


The Greek Concept of Justice: From its Shadow in Homer to its Substance in Plato


The Muse Learns to Write: Reflections on Orality and Literacy from Antiquity to the Present



A recommander aussi le livre fameux de son complice Walter Ong : Orality and
Literacy: The Technologizing of the Word



Catherine Kintzler 21/07/2011 09:28



Merci pour toutes ces précisions, je vais lire le livre de W. Ong.


Voici la référence de l'ouvrage de Eric Havelock en anglais, je vais l'ajouter à la note de bas de page dans mon article :


Origins of western literacy : four lectures delivered at the Ontario Institute for Studies in Education, Toronto, March 25, 26, 27, 28, 1974, Toronto : Ontario Institute for Studies in
Education, 1976.




David Monniaux 19/07/2011 22:43



Au sujet des syllabaires : les syllabaires japonais hiragana et katakana ont un nombre de symboles limités... tout simplement parce que la langue japonais a un nombre assez faible de syllabes
possibles. La représentation de la phonétique par ces syllabaires n'est donc pas ambiguë ; c'est la parole elle-même qui l'est, mais l'oral communique plus que la simple phonétique des syllabes
(séparation entre mots, hésitations...), au rebours de l'écrit, qui de plus peut ne pas fournir tout le contexte. Aussi, le japonais écrit fait-il ample usage d'idéogrammes : la notation
syllabaire serait très pénible à lire...



Emmanuel Lazinier 18/07/2011 16:21



Entendons-nous bien. Je ne suis pas du tout en désaccord avec le fond de votre thèse, à savoir que  le système alphabétique est applicable à toute langue... à la condition bien
entendu qu'elle soit orale.

Là où nous  divergeons, c'est sur l'extension qu'implicitement vous donnez à la notion de système alphabétique, en y rattachant des écritures non phonétiques comme les "orthographes"
française ou anglaise. Pour moi ces écritures, bien que réutilisant les caractères d'un authentique alphabet (le latin), ne respectent plus le principe "un phonème = une lettre ; une lettre = un
phonème", et donc ont cessé d'être à proprement parler alphabétiques.

Quand vous nous parlez "des imperfections [...] dues à l'habitude qu'on a de noter une langue plutôt qu'une autre", je ne vois pas bien à quoi vous faites allusion. L'alphabet phonétique international, avec ses 118
caractères principaux, est une belle chose, fort utile pour un usage scientifique et pédagogique, mais impropre à la consommation courante. Réduire le nombre de caractères utilisés dans
l'écriture d'une langue donnée à ce qui est nécessaire pour noter les phonèmes de cette langue semble être la sagesse même, et je ne vois pas en quoi cela devrait introduire des imperfections. (A
moins que vous ne pensiez à des imperfections mineures consistant par exemple à noter par un seul caractère deux phonèmes proches, comme le "o" ouvert et le"o" fermé du français ?) 

Et comment vous suivre quand vous écrivez qu'"il n'y a pas [...], par principe, d'alphabet spécifique à telle ou telle langue, mais deux alphabets à proprement parler" ? Le système
alphabétique, universellement applicable, inventé par les grecs à l'occasion de la création de leur écriture propre, ne doit pas être confondu avec son application particulière qu'est
l'alphabet grec. Donc ni l'alphabet grec, ni son héritier l'alphabet latin ne sauraient prétendre à un statut particulier qui ferait d'eux les seuls "alphabets à proprement parler". Et le fait
pour une langue donnée de se doter d'un alphabet spécifique, dérivé ou non d'un de ces deux alphabets, n'a rien d'irrationnel et n'introduira aucune "imperfection", pour peu que le principe
alphabétique/phonétique soit respecté.

Enfin, je veux bien admettre (encore que j'aimerais connaître les références qui le prouvent) que la charge cognitive induite par notre "orthographe" française n'est pas supérieure à celle
induite par une écriture phonétique en ce qui concerne l'apprentissage de la lecture (en l'espèce la comparaison avec l'anglais, autre langue dont l'écriture n'est pas
phonétique, n'est guère pertinente). Mais il me paraît évident qu'il en va tout autrement en ce qui concerne l'apprentissage de l'écriture, qui devient quasiment l'affaire de
toute une vie, et qui constitue un puissant facteur de reproduction des inégalités sociales et culturelles. La "faute d'orthographe" n'est-elle pas dans notre société le stigmate par excellence
de l'infériorité, voire de l'indignité ?

EL

PS1. Je ne pense pas qu'il faille réserver le débat qui nous occupe, et encore moins l'appréciation de sa pertinence, aux spécialistes en linguistique et phonologie comparée. Il me semble au
contraire que tout citoyen a le droit et le devoir de se faire une opinion sur la légitimité d'un système, l'orthographe, qui a de telles conséquences sur sa vie, du fait de
1. l'effort considérable que requiert son apprentissage,
2. le marquage social et culturel qui va résulter de sa plus ou moins grande maîtrise du système.


PS2. Je viens de retrouver sur la Toile un sketch de Dau et Catella,

Catherine Kintzler 19/07/2011 18:06



C'est Havelock lui-même qui emploie, si j'ai bonne mémoire (car je n'ai pas le livre sous la main), le terme "imperfection", pour désigner, entre autres, les nombreux écarts avec le principe
idéal "une lettre-un phonème" que vous avancez. Ce qu'il souligne fortement, c'est le degré d'abstraction dans l'analyse du son, permettant de satisfaire les trois critères que j'ai énumérés et
qu'il examine.


 


C'est encore Havelock qui dit qu'il n'y a que deux alphabets. Et c'est précisément parce qu'il ne confond pas leur application particulière avec l'idée même du système alphabétique (dont ces
applications sont les deux seuls exemples historiques) qu'il consacre tout un chapitre du livre à ces "imperfections". Cependant, la notion même de système alphabétique fait que ces deux
alphabets (et d'autres possibles) sont nécessairement en correspondance, coïncident en grande partie car les phonèmes, toutes langues confondues, ne sont pas en nombre infini. Et cela fait aussi
que l'un ou l'autre peut, en droit, être utilisé par une langue quelconque, moyennant des conventions et des adaptations. tout cela est dans le livre, je ne peux que vous en conseiller la
lecture, car bien des questions que vous posez y trouveront leur réponse.


 


Havelock s'explique beaucoup mieux que je n'ai pu le faire et je comme je le disais déjà dans la réponse à votre précédent commentaire, je n'ai pas eu d'autre ambition dans cet article que
d'attirer l'attention sur ses travaux en la matière ! Ainsi je ne peux que me répéter... et vous renvoyer au livre lui-même. Je vous assure, sa lecture en vaut vraiment la peine !


Je n'ai pas le souvenir, comme élève, d'avoir passé ma vie à apprendre à écrire, ni d'avoir fourni un effort considérable. Il se trouve que j'ai eu d'excellentes institutrices qui ne faisaient
pas d'état d'âme pour "corriger les fautes" et les expliquer et qui s'efforçaient, précisément, de réduire le "marquage culturel et social" en donnant à chacun les moyens de lire et d'écrire
correctement. Elles donnaient aussi le goût pour la littérature, pour la poésie, pour "l'expression belle et forte" et transmettaient un amour de la langue française que certains trouveraient
peut-être ringard ! L'effort s'en trouvait considérablement allégé et récompensé.


En fait, la question qui donne son noyau conceptuel original au livre de Havelock touche principalement la lecture.


 


Il faut effectivement pouvoir se faire une opinion, et autant qu'elle soit suffisamment informée et pertinente. En la matière linguistes et phonologues ne peuvent qu'éclairer les débats des
citoyens, lesquels sont capables également de comprendre des concepts !


Un exemple d'ouvrage de "spécialiste" et pourtant parfaitement limpide et populaire :


Hélène Huot Et voilà pourquoi ils ne savent pas lire, Paris : Minerve, 1990


 



Philippe Foucher 18/07/2011 12:16



Bonjour. Grand merci à tous pour vos réponses et précisions.


Quelques petites remarquess puis je reviens sur l'apprentissage de la lecture ?


 


Mon idée n'était pas de dire que le français soit moins alphabétique. J'ai écrit rapidement qu'il était peut-être moins phonétique que d'autres langues, en fait je voulais dire que le rapport
entre les graphèmes et les phonèmes y est plus complexe. J'avais en effet bien conscience que l'anglais, langue pourtant validée par l'histoire, l'est souvent encore bien plus en domaine! Mais
j'avais en tête par exemple le russe où on est presque dans une relation où pour chaque son correspond à une et une seule lettre. Aussi j'ai du mal à vous suivre sur le fait que l' apprentissage
de la lecture ne pose pas plus de difficulté aux petits français qu'aux petits russes, italiens, espagnols. Mais peut-être faut-il clarifier ce que l'on entend par « apprentissage analytique
de la lecture en accord avec le principe même de l'alphabet » notamment au regard de ce qui ressort de votre article ?


Juste avant je confirme, ne connaissant rien de rien à la naissance du français et de son écriture, je ne dirais rien de plus de sa spécificité ! Je ne parlais pour ma part pas de régression
en soi, mais simplement d'un recul léger quant aux seuls avantages du principe alphabétique. J'ai un tel souvenir d'un débat sur le progrès avec François Chatelet au lycée de Montmorency !


 


Le principe alphabétique fait un temps abstraction du sens. Peut-on dire qu'il renforce le principe de l'arbitraire du signe ? Voilà je pose cette question car il me semble que selon les
méthodes analytiques de lecture, on vivrait plus ou moins bien cet arbitraire !


Je vous propose de distinguer 2 types de méthodes analytiques de lecture (puis une méthode plus globale) :




les méthodes analytiques non strictement phonétiques.




Les méthodes analytiques phonétiques systématiques.




Les méthodes à départ global, à visée phonétique empirique.




 


1. Jusque fin des années 60, on apprend à lire avec une méthode analytique non strictement phonétique dans laquelle la relation de l'écrit à l'oral n'est pas strictement décomposée. Lorsqu'on dit
« b » « a » « ba », on n'évoque pas de lien entre la lettre et le son qu'elle commet. On donne juste l'effet sonore finale de la syllabe. Ce que ne comprennent pas
les linguistes phonétistes pour qui dire « b » « a » fait « béa » ! C'est que la relation vis à vis de l'écrit de cette méthode est, il me semble, celle qu'on
peut avoir vis à vis d'un code, d'une convention. Pédagogiquement cela donne une méthode fondée sur l'apprentissage, la répétition et la mémorisation des combinatoires. Il y a bien une
méthode : on part des lettres, les plus faciles et des plus récurrentes. Mais on ne décompose pas les sons des syllabes, on entre par la lettre. En outre on ne systématise pas pour chaque
lettre, c'est à dire qu'on ne cherche pas à construire un système complet de la valeur de chaque lettre. L'écrit est un code, une convention, non systématisée pour des élèves de 6, 7 ans.


 


2. A partir des années 70 apparaissent des méthodes toujours analytiques mais phonétiques et systématiques. Appuyées scientifiquement par les linguistes, ces méthodes cherchent à faire comprendre
aux élèves la relation entre « la chaîne de l'oral et la chaîne de l'écrit »... Cet exercice est pourtant extrêmement difficile, puisque les consonnes sont particulièrement brèves.
C'est un exercice supplémentaire très abstrait. En outre ces méthodes ont cherché à systématiser. Il ne s'agit plus d'apprendre un ensemble de conventions un peu éparses, mais de faire de la
relation oral/écrit un système. On entre par le son. Les élèves font référence aux signes de l'alphabet international. Chaque son est abordé de façon systématique : toutes les graphies du
même son sont souvent abordées de front ce qui fait parfois beaucoup. On voit bien l'intérêt d'une telle systématicité, mais aussi sa difficulté pour des élèves de 6, 7 ans.


Et quand on rajoute cette difficulté française que j'ai présupposée plus haut, on peut se demander si ce n'est pas trop, si l'objectif de faire de la relation oral/écrit un système compris par
les élèves de cet âge n'est pas parfois un objectif de trop dans l'apprentissage de la lecture ? Or c'est cette 2ème méthode qui domine aujourd'hui largement l'enseignement de la lecture en
France.


 


Pour revenir au sujet de votre article, il me semble alors que ce deuxième type de méthode analytique cherche à réintroduire du sens, là où le principe alphabétique en fait l'économie. Bien sûr
ici pas le sens du mot, de la phrase lue, mais celui d'un système global de la langue. Est-ce un hasard si ces méthodes fleurissent après 68 au temps où les codes, les conventions, tout est
remettre en question ? L'arbitraire du signe doit rendre raison.


Autrement dit pour conclure ici, cette conscience du système alphabétique, de son principe phonétique ne nous en fait-il pas perdre parfois dans notre éducation des petits, sa spontanéité et sa
simplicité ?


 


3. Pour compléter le tableau, les méthodes à départ global, à visée phonétique empirique sont conscientes des dérives d'un enseignement systématique de la relation oral/écrit. Elles proposent
alors une approche empirique par repérage d'analogie. Avec un départ global où le sens de la phrase est premier, les élèves passent leur année à construire empiriquement des analogies sur les
relations écrit/oral. Sont reliés les morceaux de mots, de syllabes identiques. Cette méthode très empirique vise bien à construire une synthèse mais autour des analogies de l'écrit. Il faut pour
l'enseignant et l'élève être particulièrement capable de mémorisation et d'ordre pour tirer bénéfice d'un tel chantier... Le remède apporté aux méthodes de type 2, peut très vite devenir bien
pire...


 


Donc, 3 méthodes, 3 entrées :


1. La langue écrite comme convention de l'oral.


2. La langue écrite comme système de l'oral.


3. La langue écrite comme sens et ensemble d'analogies.


 


 



Emmanuel Lazinier 16/07/2011 17:16



Chère Catherine Kintzler;

Philippe Foucher a raison de le souligner : la thèse, que vous reprenez d'Eric Havelock, que l'écriture alphabétique est supérieure à tout autre type d'écriture implique que le système d'écriture
actuel du français, cette "orthographe" dont nous sommes si fiers, constitue une régression.

Comment une telle régression a-t-elle pu survenir ? Votre commentateur propose comme hypothèse que cette regression serait liée au fait que le français est une "langue [...] de deuxième
génération" -- en termes plus techniques un "créole. Il n'a pas tout à fait tort dans la mesure où il existe en effet une tendance naturelle des créoles à leur début à faire ressortir les liens
qui les lient à leur langue mère en adoptant un système d'écriture qui les met en évidence, et ce éventuellement au détriment d'une bonne transcription phonétique.


Mais, en général, lorsqu'un créole a acquis le statut de langue à part entière, cet hommage à la langue mère n'est plus ressenti comme nécessaire et l'on passe à une écriture phonétique. C'est ce
qui s'est passé pour les langues soeurs du français (elles aussi de "de deuxième génération") que sont l'italien et l'espagnol, dont l'écriture est aujourd'hui, à quelques détails près,
phonétique.

Alors pourquoi n'en a-il pas été de même pour le français ?

On peut certes imaginer toutes sortes d'hypothèses flatteuses du genre : les français ont un tel sens de la continuité qu'ils ont tenu à conserver une écriture qui matérialise la filiation de
leur langue au latin... Mais j'ai peur que la vérité ne soit bien plus prosaïque : ils n'ont simplement pas été capables de se doter d'un alphabet qui corresponde à leur phonétique ; ils n'ont
pas su faire ce que les Grecs, les Latins et Atatürk ont si bien réussi !

Vous écrivez qu'"un système alphabétique est indifférent à la langue qu’il note". Ce n'est pas exact, puisque  chaque langue a un système phonémique qui lui est propre et que son système
alphabétique se contente en général de représenter ce système et lui seul : nul besoin de représenter des phonèmes qui n'existent pas dans la langue !

Pour prendre un exemple trivial, un Espagnol confronté à un Français aura bien du mal à renouveler l'exploit (peut-être apocryphe) rapporté par Thucidide. Car comment écrira-t-il les paroles de
son interlocuteur à l'aide du système alphabétique qui est le sien, qui ne note pas les phonèmes que nous écrivons "u", "eu", "on", "in", "an", "un", "j", "ch", "z", "v", tout simplement parce
qu'ils n'existent pas en espagnol !

Et que dire d'un Latin hypothétique confronté au même problème ? Il éprouverait à peu près les mêmes difficultés, à ceci près qu'il saurait noter les phonèmes français "u" et "z" au moyen des
lettres "y" et "z" incorporées tardivement à son alphabet pour la transcription des mots grecs. Et s'il était confronté à un besoin permanent de transcrire des mots français ? Tout laisse à
penser qu'il appliquerait la recette déjà suivie pour le grec : ajouter de nouvelles lettres à son alphabet.

Mais les Français, confrontés au problème de devoir écrire leur langue, n'ont pas eu l'intelligence de choisir entre les trois seules solutions viables :
1. créer un alphabet de toutes pièces
2. réutiliser un alphabet existant en y ajoutant des lettres (ou des diacritiques) pour les phonèmes manquants
3. réutiliser un alphabet existant en réaffectant les lettres inutiles aux phonèmes manquants

La méthode numéro 2 est celle, je suppose, choisie par Atatürk. La numéro 3 est celle choisie par les Grecs, et plus près de nous par les chinois pour leur système pinyin de
transcription du mandarin en caractères latins. C'est cette dernière méthode que j'aurais tendance à proposer, s'il se présentait un Atatürk français, pour mettre fin à notre exception/régression
gauloise.



Catherine Kintzler 17/07/2011 18:24



L'une des thèses de Havelock est effectivement que le système alphabétique est par principe indifférent à la langue notée. Par principe, cela ne veut pas dire qu'il n'y a pas des imperfections,
principalement dues à l'habitude qu'on a de noter une langue plutôt qu'une autre. Il consacre un chapitre entier de son ouvrage à cette question, aussi je ne peux que vous y renvoyer. Et c'est
pourquoi aussi j'ai fait allusion à l'alphabet phonétique universel, qui ne fait en réalité qu'optimiser ce que font les deux alphabets "historiques" dont on continue à se servir. Avec une telle
"optimisation" l'anecdote de Thucydide est réalisable entièrement, quelle que soit la langue : cela donne l'horizon idéal de la puissance du principe alphabétique.


Selon Havelock, il n'y a pas non plus, par principe, d'alphabet spécifique à telle ou telle langue, mais deux alphabets à proprement parler qui ne diffèrent foncièrement que par leurs graphismes
respectifs, qui sont bien sûr l'un et l'autre plus ou moins dépendants de la langue où ils ont d'abord fonctionné mais qui contiennent le principe fondamental d'une notation universelle possible.


Quant à vos remarques sur la notation en français, je suppose que c'est un vieux débat. Il se trouve que les francophones apprennent à lire tout aussi facilement (quand on veut bien leur proposer
un apprentissage analytique de la lecture en accord avec le principe même de l'alphabet, comme le souligne Philippe dans le commentaire n°2) que ceux qui pratiquent une autre langue, et que ceux
qui ont appris à lire dans une autre langue n'ont pas plus de mal à apprendre à lire le français qu'un francophone n'en a à apprendre à lire l'anglais... Donc je ne vois pas ce que le terme
"régressif" ajoute, à part un jugement moral : et c'est précisément ce que le livre de Havelock évite, en effet il n'avance aucun jugement de valeur qui introduirait une hiérarchisation entre
différents usages de l'alphabet.


En fait je pense que pour entrer dans le débat que vous soulevez ou même pour en apprécier la pertinence, il faut avoir une solide formation en linguistique et en phonologie comparée. Ce qui
n'est pas mon cas, je n'ai que des rudiments ... J'ai simplement jugé qu'il était intéressant d'attirer l'attention des lecteurs sur le travail de Havelock, qui me semble méconnu.


 



Foucher Philippe 09/07/2011 11:52



Merci à vous pour cet article véritablement passionnant, mais alors merci aussi au principe alphabétique ! Et puis au codage numérique qui nous l'envoie par Internet ? Heureusement que
notre computer encode tout seul, stocke, puis transmet pour finalement recoder pour nous ces algorithmes de chiffres électriques ! Cette dématérialisation est-elle elle aussi une
« forme audacieuse et sophistiquée du matérialisme » ?


Lorsque vous évoquez en introduction, le jeune lecteur, je ne peux m'empêcher de penser à ce que pourrait vouloir dire votre article sur l'apprentissage de la lecture. J'ai comme l'impression
d'entendre : à tous les pédagogues obsédé par le sens, obsédés permanents de globalité en lecture, à tous ceux qui ont eu peur de faire des élèves une machine codante/décodante, prenez le temps
de considérer la nature de votre écriture. Pour trouver le sens, il faut aussi accepter de passer par ce travail d'abstraction du sens qui est inscrit dans le principe alphabétique. C'est
libérateur ! Encore grand merci pour votre article !


Autre question, Éric A. Havelock esquisse-t-il dans son livre quelque chose des langues alphabétiques qui ont succédé au grec, latin et qui ont eu à en gérer le principe et le patrimoine ?
Notamment du français ?


Voilà, il me semble que le français vient légèrement heurter le descriptif de ce principe d'économie de l'alphabet, et de ce mouvement historique d'augmentation de « la capacité sociale de lecture » décrit pour l'occident. Le français n'est pas une langue très phonétique. D'une part, elle peut proposer une lettre différente
pour un même son, elle peut même proposer plusieurs lettres pour un seul son. Même s'il existe bien des règles pour la lecture de ces lettres, il faut souvent faire intervenir un travail
d’interprétation, de sens pour décoder les lettres. D'autre part, la même lettre peut représenter plusieurs sons. Les possibilités combinatoires sont beaucoup plus grandes pour le jeune lecteur
français. Le français ne porte-t-il donc pas en lui une légère tendance à un retour vers une moindre efficacité (ou vers une efficacité autre) qu'il faudrait savoir assumer elle aussi ?


Pour comprendre ce qui attend le jeune lecteur français, il faudrait alors comprendre ce qui fait la nature du principe alphabétique, libérateur, mais aussi ce qui fait la spécificité de
l'écriture alphabétique française.


La situation du français n'est-elle pas propre à son statut de fille ? Héritant du grec, du latin, toutes langue alphabétique, le français est une langue alphabétique de deuxième génération.
Est-ce son esprit un rien universaliste qui la pousse à conserver, à englober ces richesses au risque de complexifier ? Est-ce parce qu'elle vénère ces langues, leur alphabet et la
libération qu'elles ont apportée que le français se serait mis à en perdre une petite partie de leur spontanéité, de leur simplicité ? Si l'idéogramme semble attaché au sens des choses
écrites, le français lui, langue alphabétique de 2ème génération, semble comme attaché à l'origine écrite des mots. Est-ce pour en préserver le sens ? Ou bien cette langue alphabétique de
deuxième génération ne se plaît-elle pas un peu plus gratuitement à se mirer dans les univers alphabétiques qui lui sont donnés ? En poussant un peu, on irait même jusqu'à dire que cet amour
de l'écrit, tous ces beaux et nombreux costumes pour les sons, ne sont qu'une seconde nature pour déguiser un peu sa vraie nature alphabétique, prendre ici avec plus encore d'arbitraire dans
l'écriture, de la distance d'avec le sens ?
Bref, le français, langue joueuse, alphabétique au système plus complexe que d'autres, joue-t-il plus de sa proximité ou de sa distance d'avec le sens ? Je m'y perds... A l'aide Mezetulle !!
;- )


J'avoue en plus m'aventurer ici sans rien connaître de l'origine du français. Comme enseignant dans le premier degré, j'ai souvent raconté à mes élèves même petits, à ceux les plus en souffrance
avec l'orthographe, de petites histoires sans appuis théoriques, comme celle de la langue française véritable musée offert. Pas facile d'écrire avec un musée dans la main ! Ou cette petite
histoire des mots qui ne se promènent pas dans un simple appareil mais cachent leur nature en s'attribuant chacun de beaux costumes, ou un costume spécifique. Il me semble que ces petites
histoires m'étaient en partie inspirées, à juste titre ou non, de vos cours de terminale. Avec cette intuition peut-être transmise que pour bien rentrer dans la langue française et son écriture,
il faudrait aussi se réconcilier avec le grand siècle et son rapport à la langue ?



Catherine Kintzler 09/07/2011 15:25



Cher Philippe,


Juste quelques pistes très sommaires en écho à vos questions et réflexions.


Oui bien sûr, j'inclus le codage informatique et la transmission qu'il permet dans la sophistication bienfaisante du matérialisme de l'allégement par la découverte de structures représentables
minimalement (chiffres, lettres, bâtons, points, pixels ordonnés de manière structurée). Le matérialisme n'est pas réductible à un substantialisme ni même à un mécanisme. La structuration en
pixels est très économique et très puissante, et elle permet de plus de véhiculer la structuration alphabétique de manière très rapide, sans trop d'encombrement et à des coûts qui sont inférieurs
à ceux des supports "papier" - ce qui n'empêche pas le support papier de conserver ses propriétés d'aisance de consultation (le feuilletage d'un livre est plus aisé que le "déroulement" d'un
écran ou même que le pseudo-feuilletage "aller à la page xxx").


Pour ce qui est de l'apprentissage de la lecture, oui aussi : l'analyse est toujours plus économe, plus libératrice que la globalité. Et surtout quand il s'agit du sens, l'analyse alphabétique le
porte, y compris dans son ambivalence. Vivent les chiffres et les lettres ! Oui je pense aussi que c'est mutiler les élèves que les assujettir constamment à la globalité du sens. Il faut en
l'occurrence inverser le fameux pseudo-proverbe chinois : quand on montre la Lune, il est urgent de regarder d'abord le doigt ! car regarder tout de suite la Lune empêche de comprendre ce qu'est
le principe de l'index..


 


En revanche je ne vous suivrai pas dans l'idée qu'il y aurait des langues plus alphabétiques que d'autres. Si l'on examine bien les principes de Havelock (mais je ne l'ai fait que de manière
sommaire dans l'article), aucune langue n'est alphabétique par elle-même et c'est pourquoi en un autre sens toutes le sont : une langue, du point de vue de sa matière, c'est d'abord un système
vocal de phonèmes. N'importe quel système vocal de phonèmes est susceptible d'être représenté par une analyse phonographique, et donc par l'analyse alphabétique. Les alphabets existants ne sont
que des exemples, ils offrent des modèles d'analyse du son mais ils sont comme le dit Havelock "imparfaits", ils restent dépendants en partie des langues où il sont d'abord apparus. Mais aucun
obstacle n'empêche une langue quelconque d'être notée par un alphabet. Havelock donne l'exemple de la langue turque qui a changé de système de notation au début du XXe siècle, et l'exemple du
persan tiré de Thucydide.


Il faut ajouter que les langues véhiculent aussi le souvenir de ce qu'elles ont été, les phonèmes ne font pas toujours entendre tous les morphèmes mais l'écriture y compris alphabétique peut
cependant les marquer : on n'entend pas toujours les différences grammaticales. Cela vient parasiter la pure analyse alphabétique, s'y surajouter. Ainsi en français, l'accent circonflexe sur
"fenêtre" note le souvenir du s qui n'est pas prononcé. Ainsi, on ne prononce pas la désinence "-ent" à la fin de la troisième personne du pluriel d'un verbe conjugué. En anglais, les décalages
sont souvent plus importants. Donc c'est plus complexe et moins "parfait" que les rudiments que j'ai exposés dans l'article et je ne peux que vous encourager à lire le livre de Havelock qui
aborde bien plus de détails et notamment les décalages du type de ceux que vous évoquez (car ils existent aussi ailleurs qu'en français, notamment en anglais où ils sont souvent plus grands) mais
il n'en reste pas moins que l'alphabet repose sur un principe d'analyse du son qui en droit peut capter n'importe quelle langue.


En résumé, aucune langue n'est alphabétique par elle-même parce que l'alphabet n'est rien d'autre qu'un système phonographique qui s'applique a posteriori. Aucune langue n'implique l'alphabet, et
plus généralement aucune langue n'implique aucun système de notation particulier. Mais c'est pour la même raison que toutes les langues sont alphabétiques au sens où aucune ne se dérobe par
nature à une notation alphabétique.



jf Van Campo 08/07/2011 15:38



E.Brami et moi même avons proposé récemment aux enfants et à leurs ainés un ABCédaire(COLORISSIMOTS/T.Magnier-éditeur) illustrés de nombreux clichés.Notre but fut double...Inviter les plus jeunes
à lire et leurs ainés à partager notre vision du monde,avec toujours une référence à l'humour et à l'imaginaire.


 



Mezetulle 08/07/2011 19:00



Un bijou de poésie et de couleur, serti dans la rigueur des assonances :


http://www.mezetulle.net/article-colorissimots-un-abecedaire-78897411.html



Nouveau site

Depuis le 1er janvier 2015, le nouveau site Mezetulle.fr a pris le relais du présent site (qui reste intégralement accessible en ligne)

Annonces

 

Le nouveau site Mezetulle.fr est ouvert !

Abonnement à la lettre d'info : suivre ce lien

 

Interventions CK et revue médias

Voir l'agenda et la revue médias sur le nouveau site Mezetulle.fr

 

Publications CK

  • Livre Penser la laïcité (Paris : Minerve, 2014)
  • Livre Condorcet, l'instruction publique et la naissance du citoyen (Paris : Minerve, 2015)

Lettre d'info

Pour s'abonner à la Lettre d'information du nouveau site :

Cliquer ici.