Interview du Dr O. R. Cornett par le Dr Beaupre

7 questions posées au Dr Cornett, fondateur du LPC

En supposant que "La nécessité est mère de l'invention", qu'est ce qui a été à l'origine de votre invention appelée Cued Speech ?

Le début de mon intérêt pour la surdité vint de la découverte du fait, en 1965, que la plupart des personnes nées sourdes ne sont jamais capables de lire suffisamment bien, pour simplement aimer lire ou pour regarder dans un dictionnaire un mot, pour en assimiler et comprendre son sens. J'avais supposé que les personnes sourdes seraient des rats de bibliothèques, aidées par la lecture comme leur seule et unique fenêtre sur le monde. Quelques mois d'études m'ont convaincu que la cause sous-jacente de leur illettrisme était liée à la défaillance de leur langage oral, sans lequel ils ne peuvent pas utiliser l'expression orale, devenir des "liseurs sur les lèvres" ou apprendre à lire. Donc, j'ai commencé à réaliser qu'il y avait un besoin d'un moyen adapté, pour représenter de manière précise, le langage oral, par la vision, en temps réel. C'était alors le problème que j'avais en tête, que je voulais résoudre, c'était ce besoin perçu qui a fixé mon objectif.

Avez-vous été influencé par d'autres personnes ?

Deux personnes eurent une influence décisive sur ce que je fis : une avant que je ne développe le Cued Speech, une autre après. Ma réaction au problème d'éducation des sourds fut fortement influencé par la philosophie d'éducation de ma mère (elle commença à enseigner à 16 ans et fut à la retraite à l'âge de 76 ans) : "Tu dois offrir ce que tu souhaites à l'enfant de telle manière qu'il réussira à apprendre environ trois fois sur quatre". J'ai appris d'elle qu'un enfant doit se sentir heureux afin d'apprendre plus efficacement et d'acquérir une volonté à vie d'apprendre. En regardant l'éducation des sourds, j'ai été horrifié par les difficultés rencontrées par les enfants, notamment dans les tentatives d'apprendre le langage oral.

Une autre personne qui m'influenca beaucoup, fut le Dr Powrie Doctor, un professeur honoraire à Gallaudet, qui durant l'année scolaire enseignait aux étudiants la science politique avec l'ASL à Gallaudet et durant les vacances d'été, enseignait oralement aux enfants noirs sourds à l'institut Hampton. Peu après avoir développé le modèle du Cued Speech en Août 1966, j'allais le voir pour connaître ses réactions. "Orin, il me dit, tu te feras tirer dessus par les deux clans (oraliste et gestuel) mais tu ne devras jamais abandonner. Tu as obtenu quelque chose d'important. C'est la première méthode qui peut résoudre le problème de la syllabation pour les sourds". Il m'a préparé à l'opposition que j'allais rencontrer, et parce qu'il était très respecté par les professionnels des deux courants d'opposition dans la controverse "oraliste-gestuel", ses mots m'ont donné confiance.

Avez-vous considéré d'autres méthodes alternatives ?

Pas vraiment. Bien sûr, quand j'ai commencé à lire sur la surdité, avant de savoir que la déficience du langage parlé était la cause de leur difficulté de lecteurs, j'ai pensé que l'épellation des doigts était la solution (N.d.T. il parle de la Dactylologie) mais j'ai bientôt vite appris que ça ne l'était pas malgré son utilité. Une fois que j'ai décidé de développer une représentation visuelle du langage oral, j'ai pris une décision. Reconnaissant que les autres pouvaient avoir tenté la même chose que moi, devrais-je chercher dans la littérature pour voir ce qu'ils avaient fait, ou devrais je attaquer le problème de novo ? Ma décision fut influencée par le principe que j'ai appris de plusieurs années de pratique des échecs : si, dans une situation donnée, on doit choisir entre deux lignes d'attaque qui apparaissent être de forces égales, il faut choisir celle qui fournit le plus d'options.

Si j'avais choisi la littérature pour voir ce que les autres ont essayé, je n'aurais jamais été capable d'attaquer le problème initialement, avec un état d'esprit indépendant avec des impressions prioritaires. En utilisant la première approche de novo, j'ai pu ensuite examiner ce que les autres avaient fait et utiliser leurs idées. Alors, j'ai commencé à analyser à travers , en listant ce dont la méthode a besoin , les conditions d'utilisation qu'elle doit satisfaire, dans quel sens l'employer ... Du fait de mes préoccupations initiales avec la dactylologie et sa limitation de vitesse, j'ai attaqué le problème théorique de la main, peut-elle transmettre visuellement l'équivalent du message oral. En fait, cela n'est pas possible parce que la main est trop "peu déliée" (combersome) pour exécuter l'équivalent de l'information vocale à la vitesse de la parole. Ce qui m'a conduit à rechercher une information complémentaire, une information visuellement disponible sur le visage pendant la parole.

Je suis donc retourné à la littérature pour apprendre que cette "information faciale" représente la moitié de l'information requise pour transmettre le message oral complet, en laissant seulement l'autre moitié pour la main, en supposant, bien sûr, que je puisse concevoir une "sortie manuelle" de telle sorte que la main puisse fournir cette moitié complémentaire.

Une fois que ma conception fut achevée, je suis retourné à la littérature pour voir si les autres avaient conçu un système similaire. J'ai trouvé plusieurs systèmes qui utilisaient la main comme un complément "disponible" mais aucun d'entre eux ne satisfaisait aux principes que j'ai développés dans le Cued Speech, ce qui le rend supérieur aux autres méthodes par ses avantages.

Lesquelles sont :

Tous les phonèmes du langage parlé sont faits de telle manière qu'ils apparaissent différent, ou sur la bouche, ou sur les mains. Les phonèmes des sosies labiaux (sur la bouche) sont différents par la main et vice-versa.

Tous les phonèmes sont lisibles sur les lèvres, ce qui fait que pas un seul phonème ne peut être identifié seulement par la main. Ce qui est réellement un système de support pour la lecture labiale.

Le groupe basique du Cued Speech est la syllabe Consonne-Voyelle, comme dans la parole elle-même, ainsi les "clefs" peuvent être synchronisés avec la parole normale, dans la durée, l'intonation...

Quels furent les progrès décisifs dans cette direction?

Seulement sur un point. J'eus un très lent cheminement dans les premières étapes jusqu'à ce que je me heurté au problème de la représentation au niveau syllabique. Bien que j'étais capable de réduire la charge de la main en regroupant les phonèmes par groupes clairement distincts sur les lèvres, je n'avais pas produit un système capable d'être utilisé plus rapidement que les "gestes transcripteurs phonétiques" qui furent développés par Edmond Lynn en 1890. J'ai mis 6 semaines pour résoudre ce problème. En concevant une représentation comme une matrice à deux dimensions (pour les matheux) j'ai pu saisir une périodicité telle que la syllabe de la parole est représentée par une combinaison de lèvres et de la main. Tout simplement, l'idée d'utiliser les formes de la main pour le groupe des consonnes et les positions de la main sur le visage pour le groupe des voyelles (donc une représentation à deux dimensions pour la main) fait que j'ai pu représenter simultanément la syllabe Consonne-Voyelle. Je ne sais pas pourquoi j'ai calé sur ce problème pendant 6 semaines. C'était réellement simple, une fois que l'idée m'est venue à la tête, mais j'avais à saisir ce problème à travers un raisonnement mathématique.

Quelles observations avez-vous eues des autres professionnels ?

La plus naturellement imaginable : la tendance des oralistes à considérer que le Cued Speech comme "gestuel" et celle des "gestuels" (TC : Total Communication) à le considérer comme "oral". Alors, bien sûr, pas mal de personnes sourdes ont été méfiantes vis à vis du Cued Speech comme une tentative de remplacement de la Langue des Signes. Je ne les ai jamais blâmés pour cela, parce qu'ils se sont battus si longtemps pour avoir le droit d'utiliser les signes gestuels que la tendance à s'opposer à tout ce qui peut rivaliser avec est compréhensible. J'ai trouvé que les personnes sourdes très réceptives si elles avaient une chance de voir ce que le Cued Speech représente : une aide à lire sur les lèvres, un support pour le bilinguisme des sourds à travers la reconnaissance de la Langue des Signes comme complètement différente de l'anglais et des autres langues étrangères.

Quelle courses de haies avez vous affrontées pour l'enseignement initial?

Tôt, nous avons fait la bêtise d'encourager les personnes entendantes à mémoriser le graphisme des "clefs", ce qui les a sévèrement retardés pour atteindre la compétence. Maintenant, bien sûr, nous apprenons le plus possible aux personnes entendantes par l'audition. Sinon nous nous heurtons à d'autres problèmes que ceux que nous avons déjà : la difficulté que rencontrent la plupart des personnes avec une audition normale pour discriminer les sons de la parole, leur manque d'attention sur leur manière de prononcer les mots, leur manque de motivation et de compréhension sur l'importance d'un code régulier et systématique.

Heureusement, nous avons amélioré nos méthodes et le matériel d'apprentissage pour réduire ces problèmes.

Quels conseils donnez-vous pour améliorer le niveau de compétence du Cued Speech ?

Premièrement, apprendre le Cued Speech par la "voie normale", à travers un atelier ou grâce à un tuteur suivi d'une pratique étendue avec des leçons sur des cassettes audio jusqu'à ce que vous ayez assimilé le système basique et que vous puissiez coder n'importe quoi lentement.

Deuxièment, évaluez votre manière de coder sur l'échelle de Beaupre et faites attention aux faiblesses qui seront indiquées.

Ensuite, ne jamais essayer de coder trop vite mais laissez votre vitesse venir comme elle se développera naturellement. Essayer de coder trop vite produit des bêtises, spécialement dans les liaisons et les groupes des consonnes.

R. O. Cornett, Ph. D.

Traduit de l'américain par A. Bazureau (Février 2000)