Acquisitions et apprentissages

2007


ANALYSE

5-

Apprentissage du langage écrit chez les sourds

Le rôle clé des habiletés phonologiques pour l'apprentissage de l'écrit conduit à s'interroger sur la façon dont les sourds apprennent à lire et à écrire, notamment dans une langue alphabétique. D'une part les sourds éprouvent de très grosses difficultés dans cet apprentissage (pour une revue, voir Transler, 2005renvoi vers), d'autre part chez eux, comme chez les entendants, l'apprentissage du langage écrit est tributaire de la possibilité de former des représentations phonologiques.

Connaissances phonologiques du sourd

Contrairement à l'intuition du sens commun, les observations sont nombreuses qui établissent que les sourds ne sont pas démunis de connaissances phonologiques, ou du moins de capacités de les acquérir. Ainsi, Dodd (1976renvoi vers) observe les productions orales de dix enfants âgés de 9 à 12 ans, sourds profonds prélinguistiques ayant eu une éducation orthophonique importante. Huit de ces dix enfants disposent d'un répertoire de phonèmes complet à quelques unités près.
Ces informations phonologiques semblent être parfois utilisées par la mémoire de travail. Campbell et Wright (1990renvoi vers) montrent en effet sur des sujets sourds que le rappel sériel d'images est d'autant moins bon que les images représentent des objets dont le nom est plus long, ce qui suggère que le maintien en mémoire passe par l'autorépétition des noms des objets. Plusieurs autres études montrent, chez les sourds, de moins bons rappels ou de moins bonnes reconnaissances de listes lorsqu'elles sont composées de mots phonologiquement proches (Hanson, 1982renvoi vers ; Waters et Doehring, 1990renvoi vers).
C'est essentiellement dans le traitement de l'écrit que ces connaissances phonologiques se manifestent. Merrils et coll. (1994renvoi vers) comparent dans une tâche de décision lexicale les temps de réponse d'adultes sourds et de sujets entendants de différents niveaux de lecture. Dans tous les groupes, les sujets mettent moins de temps à désigner comme n'étant pas un mot une suite non prononçable (ex : « thrd ») qu'un pseudo-mot prononçable (ex : « hogh »). Ceci suggère que tous les sujets, y compris les sujets sourds, utilisent une conversion graphie-phonie pour décider de la lexicalité des items. Des résultats existent d'ailleurs qui montrent chez des sourds, une tendance à régulariser la prononciation des mots dont l'écriture est irrégulière (Dodd et Hermelin, 1977renvoi vers).
Différentes unités phonologiques semblent ainsi utilisées par les sourds dans ces tâches de traitements de l'orthographe. Transler et coll. (1999renvoi vers) soumettent des lecteurs débutants sourds et entendants à une tâche de copie de mots et pseudo-mots trisyllabiques dont la longueur oblige les sujets à se référer plusieurs fois au modèle pour réaliser la copie. L'analyse porte sur les caractéristiques du premier segment copié avant une seconde prise d'informations sur le modèle. Dans 53 % des cas chez les entendants et dans 52 % des cas chez les sourds, ce premier segment est constitué d'une ou de deux syllabes complètes sans adjonction d'autres lettres. Compte tenu des ca-ractéristiques des items à copier, ce type de segmentation ne pouvait être opéré par hasard qu'à un taux de 27,4 %. La syllabe semble donc une unité utilisée par les sujets sourds, comme par les sujets entendants, pour maintenir une information orthographique en mémoire à court terme.
D'autres données suggèrent que des unités plus fines sont utilisées, même par les sourds, dans les toutes premières étapes du traitement des mots écrits. Paire-Ficout (1998renvoi vers) utilise le paradigme « d'amorçage sémantique médiatisé par la phonologie ». Le principe de l'amorçage sémantique est simple. Il s'agit, dans une tâche de décision lexicale, de faire précéder l'item sur lequel doit porter la décision, d'un autre item qui lui est ou non sémantiquement relié. Il a ainsi été montré que « océan » est plus rapidement reconnu comme étant un mot s'il est précédé (amorcé) par le mot « mer » que s'il est précédé par un mot qui ne lui est pas sémantiquement relié. Dans l'amorçage sémantique médiatisé par la phonologie, on amorce le mot « océan », par exemple par le mot « maire », qui est un homophone du voisin sémantique « mer ». Chez l'entendant, il est établi qu'un tel amorçage accélère également la décision lexicale, ce qui étaye l'hypothèse d'une intervention des traitements phonologiques dans l'identification des mots. Paire-Ficout met en évidence ce même effet chez les sujets sourds. La seule différence entre sourds et entendants dans cette tâche est la durée nécessaire entre le début de la présentation de l'amorce et la présentation de l'item cible. Pour que la facilitation se produise, les sourds ont besoin de 150 ms là où les entendants n'ont besoin que de 100 ms. Ces résultats demandent bien sûr à être confirmés par d'autres études, il n'en reste pas moins qu'ils constituent un élément important en faveur de l'hypothèse de l'utilisation de la phonologie par le lecteur sourd.
Contrairement aux études qui viennent d'être évoquées, d'autres études, généralement plus anciennes, distinguent sujets entendants et sujets sourds, précisément sur le fait que les seconds, contrairement aux premiers, ne s'appuieraient pas sur la phonologie dans les traitements orthographiques. Ainsi, Conrad (1970renvoi vers) demande à des enfants sourds et à des enfants entendants d'apprendre des listes de lettres soit proches visuellement (KNVXYZ), soit proches phonologiquement (BCDPTV soit phonologiquement /bi/ /si/ /di/ /pi/ /ti/ /vi/). Dans le rappel, alors que les entendants font plus d'erreurs pour la seconde liste, les sourds font plus d'erreurs dans la première. De même, dans une tâche de barrage de lettres dans des listes de mots, les sujets entendants ont tendance à oublier les lettres qui ne se prononcent pas, ce qui n'est pas le cas chez les sourds (Locke, 1978renvoi vers). Pour ce qui concerne des unités plus larges, Campbell et Wright (1988renvoi vers) ont montré que les sourds ont des performances inférieures à celles des entendants dans des tâches de jugement de rime et que leurs réponses semblent s'appuyer plus sur l'orthographe que sur la prononciation.
De plus, au sein même des études, les résultats conduisent parfois à des conclusions divergentes. Leybaert et Alegria (1995renvoi vers) montrent que, comme les entendants, les enfants sourds ont plus de facilité à écrire des mots dont l'orthographe retranscrit fidèlement la phonologie (ex : ours), que des mots comportant une lettre muette (ex : petit) ou des mots irréguliers (ex : clown). Ce résultat plaide en faveur de l'utilisation de la phonologie. En revanche, les mots mal orthographiés sont homophones des mots bien orthographiés dans 90 % des cas chez l'entendant et seulement dans 30 % des cas chez le sourd. Des résultats de même type sont également rapportés par Burden et Campbell (1994renvoi vers).
En fait, la plupart des études tentant d'établir l'existence de connaissances phonologiques chez les sourds distinguent, à cet égard, une population présentant des performances qualitativement voisines de celles observées chez les entendants et une population qui s'en différencie clairement. En utilisant le même type d'expérience que Conrad (listes de lettres), Locke et Locke (1971renvoi vers) distinguent les performances des sourds dont la parole est intelligible de ceux dont la parole est peu intelligible. Alors que les seconds ont des résultats comparables à ceux rapportés par Conrad (confusions visuelles et pas de confusions phonologiques), les premiers ont des résultats intermédiaires entre ceux des seconds et ceux des entendants. En d'autres termes, tout en étant plus sensibles que les entendants à la proximité visuelle, ils présentent comme eux des confusions phonologiques.
De même, Leybaert et coll. (1983renvoi vers) mettent en évidence que les sourds intelligibles sont plus sensibles que les autres à « l'effet Stroop ». Il s'agit de dénommer la couleur de l'encre utilisée pour écrire des noms de couleur. Les auteurs retrouvent chez l'entendant le résultat classique : il est plus rapide de donner la bonne réponse lorsque par exemple, c'est le mot « rouge » qui est écrit en rouge, que lorsque c'est le mot « bleu » qui est écrit en rouge. Ce phénomène révèle le caractère automatique et irrépressible de l'identification des mots écrits. Chez les sourds, cet effet d'interférence se manifeste surtout chez les sujets intelligibles. Dans une expérience voisine, Leybaert et Alegria (1993renvoi vers) montrent que, chez les entendants et les sourds intelligibles, mais pas chez les sourds peu intelligibles, cet effet se révèle en utilisant des pseudo-mots homophones des noms de couleurs. Ainsi chez ces sujets, « vair » mais pas « vour » gêne la dénomination de la couleur (par exemple rouge) de l'encre avec laquelle ces mots sont écrits.
Transler et coll. (2001renvoi vers) demandent à des enfants sourds et entendants lec-teurs débutants de choisir entre deux pseudo-mots présentés à l'écrit, celui qui ressemble le plus à un pseudo-mot donné comme modèle. Il s'agit par exemple de savoir entre « denc » et « dane » lequel ressemble plus à « danc ». Les deux items test sont voisins orthographiques de l'item cible, mais seul l'un des deux est homophone de cet item. Alors que les sourds peu ou moyennement intelligibles semblent répondre au hasard (en moyenne 4,5 choix de l'homophone sur 10 essais), les sourds très intelligibles, comme les entendants choisissent majoritairement l'homophone (respectivement 6,75/10 et 6,92/10).
Cette différence entre sourds en fonction du niveau d'intelligibilité de la parole se retrouve entre les sourds de niveaux de lecture différents. En effet, de nombreux auteurs, notamment Hanson (1982renvoi vers), ont montré que le niveau de lecture des sourds est fortement corrélé à l'utilisation d'un code de parole. Les différences en fonction de l'intelligibilité de la parole se retrouvent donc lors de la comparaison de sourds de différents niveaux de lecture. Conrad (1979renvoi vers) utilise une tâche de rappel de listes de mots rimant (few, do, blue...) ou de mots visuellement proches (have, lane...). Les deux types de listes sont présentés à l'écrit. Contrairement aux sourds mauvais lecteurs, les sourds bons lecteurs et les entendants font plus d'erreurs de rappel dans les listes rimant que dans les autres. L'auteur met ainsi en évidence un lien entre l'utilisation de codes phonologiques dans la tâche de rappel et le niveau de lecture. De plus, tout étant égal par ailleurs, Conrad trouve que les sourds non intelligibles ont, en lecture, en moyenne deux ans de retard sur les sourds intelligibles.
Ce lien entre intelligibilité de la parole, lecture et habiletés phonologiques suggère que l'apprentissage de la lecture pourrait jouer un rôle chez les sourds dans la formation des connaissances phonologiques. Deux arguments militent dans ce sens : d'abord, bien entendu, la modalité auditive étant très défaillante chez le sourd, un système visuel phonologiquement motivé comme l'est le système alphabétique constitue une voie d'accès évidente à la phonologie. Ensuite, les recherches chez l'entendant ont maintenant très clairement établi que l'apprentissage de la lecture d'un système alphabétique provoque chez l'apprenti-lecteur la prise de conscience de l'identité des phonèmes (pour des revues, voir Gombert, 1990renvoi vers ; Goswami et Bryant, 1990renvoi vers).
Pour ce qui concerne les sourds, plusieurs des résultats présentés ci-dessus suggèrent que les représentations orthographiques et leurs traductions phonologiques jouent un rôle important dans la constitution du lexique des sujets sourds. Ainsi, Alegria (1992renvoi vers) montre, dans des tâches de dénomination de dessins, une tendance des sourds à régulariser la prononciation des mots dont l'écriture est irrégulière.
Plus généralement, se pose le problème de la constitution des connaissances phonologiques chez des sujets dépourvus d'une audition efficace.
Certes, la plupart des sourds disposent de restes auditifs, éventuellement améliorés par un appareillage. Toutefois, la détérioration sensorielle est trop importante pour permettre les discriminations fines nécessaires à la reconnaissance auditive et à la catégorisation des contrastes phonémiques entre syllabes. Il faut donc chercher ailleurs les voies de la constitution des connaissances phonologiques attestées chez de nombreux sourds.

Utilisation des modalités kinesthésiques et visuelles

Une de ces voies pourrait s'appuyer sur les données kinesthésiques fournies par l'articulation. On rejoint là la conception ancienne de Liberman à propos de l'entendant (Liberman et Mattingly, 1985renvoi vers). Les orthophonistes connaissent depuis longtemps l'importance de ce facteur qu'ils utilisent souvent dans les rééducations. Quand on conseille à quelqu'un de placer sa langue contre les dents ou contre le palais pour prononcer /ta/ ou /la/, on lui fait distinguer deux phonèmes à partir de données kinesthésiques. La très forte discriminabilité de ces données, jointe à la très grande fréquence de leur perception dans la production de la parole et à la propension de notre système cognitif à extraire les régularités perceptives, suggère un rôle essentiel de cette voie dans la construction des connaissances phonologiques. Toutefois, l'existence de cette voie suppose une oralisation et ne concerne donc pas l'ensemble de la population sourde.
La modalité sensorielle la plus naturellement utilisée par les sourds est la modalité visuelle. Il a d'ailleurs été montré que la surdité congénitale s'accompagne parfois d'une supériorité dans les traitements visuels (Bellugi et coll., 1990renvoi vers). Pour ce qui concerne la perception visuelle des contrastes phonologiques, le moyen le plus étudié est la lecture labiale.
En effet, comme le souligne Campbell (1987renvoi vers), l'information lue sur les lèvres a la même organisation temporelle que l'information entendue, les deux étant deux traces de la même activité : l'articulation. Cela justifie l'hypothèse de la construction des connaissances phonologiques sur base de lecture labiale. D'ailleurs, Dodd (1976renvoi vers) rapporte que chez les enfants sourds les contrastes phonologiques visibles sont les plus précoces à être produits correctement. Cette hypothèse est étayée par les performances dans des tâches de rappel de listes. Campbell et Wright (1989renvoi vers) montrent ainsi que des enfants sourds de niveau de lecture de 3e année d'apprentissage, à qui on a présenté des listes de syllabes écrites, ont de meilleures performances de rappel pour les syllabes dont la consonne initiale est très visible en lecture labiale (F, TH, B) que pour celle dont la consonne initiale est peu visible (D, SH, Z). Cette facilitation se manifeste également dans l'orthographe. En effet, comme le rapportent Leybaert et Alegria (1993renvoi vers), les fautes d'orthographe commises par les sourds peuvent souvent s'expliquer par des confusions entre des phonèmes dont les configurations labiales sont identiques (« pychama » ou « pisama » pour « pyjama » ; « bouge » ou « bousse » pour « bouche »).
L'utilisation d'un langage signé comme le « Langage Parlé Complété » (LPC, adaptation française du Cued Speech créé par Cornett, 1967renvoi vers), qui permet de distinguer les synonymes labiaux1 , constitue pour les sourds une aide notable dans la constitution de connaissances phonologiques suffisamment différenciées pour motiver l'ensemble des contrastes alphabétiques (Leybaert, 1993renvoi vers ; Hage, 1994renvoi vers ; Alegria et Leybaert, 2005renvoi vers). Il semble notamment que les enfants sourds ayant appris précocement le LPC aient beaucoup moins de difficultés que les autres enfants sourds dans l'acquisition de la langue écrite (Alegria et coll., 1999renvoi vers).
L'utilisation d'un système signé qui symbolise les lettres, la « dactylologie », semble également avoir le même effet (Padden et Clark, 2005renvoi vers). Cependant, la logique même de ces systèmes conduit à faire l'hypothèse que le LPC facilite la maîtrise de l'orthographe en assistant la construction des connaissances phonologiques, alors que la dactylologie constitue un apprentissage de l'orthographe qui fournit un guide pour la prise de conscience des contrastes phonémiques. La directionnalité de la liaison causale serait ainsi inverse.
En tout état de cause, ces études et cette réflexion sur les connaissances phonologiques du sourd invitent à affirmer qu'en l'espèce, c'est le caractère de seconde articulation qui est ici important et non la modalité d'appréhension de cette seconde articulation, comme le suggère le terme même de phonologie. De fait, les unités de seconde articulation sont de nature visuo-kinesthéso-phonologique.
Pour être plus clairement plurimodales, les connaissances phonologiques dont il vient d'être traité n'en sont pas moins communes aux sourds et aux entendants, même si certains des moyens de leur élaboration sont en général ignorés des entendants. D'autres connaissances sont, elles, spécifiques à la population sourde.

Connaissances « kinologiques »

Une langue très utilisée par les sourds est la Langue des signes (LSF, pour Langue des signes française). Chaque signe y a une valeur sémantique, sa configuration peut toutefois être décrite selon cinq paramètres : la configuration de la main, sa position, son orientation, le mouvement et l'expression du visage qui lui est associée. Même si certaines de ses caractéristiques ont une valeur sémiotique, d'une part les locuteurs ne la saisissent pas nécessairement, d'autre part, leur système cognitif semble traiter les ressemblances perceptives indépendamment de tout voisinage sémantique.
D'abord, la motivation analogique du geste n'est pas nécessairement perçue. Ainsi, Meier (1982renvoi vers) signale que le très jeune enfant comprend le signe désignant le « lait » qui mime la traite d'un animal, sans avoir aucune connaissance de l'origine du lait.
Par ailleurs, le bébé sourd élevé dans un environnement langagier signé produit des gestes ressemblant à des mots signés bien avant d'être capables de les comprendre. Ainsi, Petitto et Marentette (1991renvoi vers) observent chez des enfants sourds de un an environ, cinq fois plus de gestes correspondant à des unités élémentaires de la langue des signes que chez leur alter ego entendants. Même si d'autres auteurs ne retrouvent pas les mêmes résultats (Meier et Willerman, 1995renvoi vers), il semble bien qu'il soit possible, à l'instar de ce qui se passe pour les langues orales, de parler de babillage gestuel, au moins chez les 10 % d'enfants sourds de parents sourds qui utilisent la langue des signes dans la communication quotidienne.
L'observation du développement du langage signé chez l'enfant sourd confirme l'existence d'une deuxième articulation. Newport et Meier (1985renvoi vers) affirment que les erreurs observables chez les enfants sourds en cours d'acquisition de la langue des signes révèlent qu'ils comparent les formes complexes à des formes plus simples et donc qu'ils tentent de trouver des composants communs aux différents items lexicaux (Mayberry, 1995renvoi vers). De même, plus tard, quand on leur demandera de se rappeler de listes de signes, d'une part ils feront plus de confusions par proximité gestuelle que de confusions sémantiques, d'autre part le rappel sera d'autant moins bon que les listes à mémoriser contiendront plus de signes qui se ressemblent (Hanson, 1982renvoi vers). Concernant les connaissances que les sourds possèdent sur la structure des mots, il convient donc de signaler l'existence d'unités gestuelles de deu-xième articulation qui n'entretiennent pas de lien direct avec les phonèmes. Ces unités gestuelles sont désignées sous le vocable de « kinème ». Par ana-logie, il est donc possible d'affirmer l'existence d'unités « kinologiques » impliquées dans les patrons d'activation lexicale chez le sourd signeur.
La supériorité des sourds sur les entendants dans les traitements visuels a déjà été signalée. Il convient de souligner qu'elle semble surtout établie chez les signeurs (Bellugi et coll., 1990renvoi vers). Si cette plus grande efficacité des traitements visuels peut conduire à l'hypothèse d'un avantage des sourds signeurs dans les traitements orthographiques, les constats empiriques montrent qu'il n'en est rien. De fait, il est désormais établi que ce qui fait obstacle à l'apprentissage de la lecture n'est pas la discrimination et la catégorisation des lettres, mais l'identification des phonèmes qui sont les unités de base de la traduction alphabétique. Or, comme le signale Paire-Ficout (1998renvoi vers), la langue des signes et l'écriture alphabétique sont tellement différentes qu'aucune médiation directe de type phonologique ou visuel ne permet le passage immédiat de l'une à l'autre.
Il existe toutefois quelques ponts entre langue des signes et orthographe. En effet, la langue des signes intègre quelques signes dactylologiques (par exemple, dans le signe correspondant au mot « vacance », les majeurs et index forment le « v » de l'initial). De même, les noms propres comme les mots inconnus sont généralement épelés en dactylologie. Toutefois, ces ponts ne constituent pas un moyen d'établir des correspondances entre les kinèmes et les lettres, notamment dans la LSF qui inclut beaucoup moins de signes dactylologiques que l'ASL (American Sign Language). La situation est comparable à celle que connaît le lecteur du mandarin. En effet, la langue chinoise peut être analysée en phonèmes mais, malgré les éléments phonologiques qui complètent le radical idéographique de la plupart des mots écrits en mandarin, il n'est pas possible de fonder la lecture et l'écriture sur l'exploitation systématique des unités de deuxième articulation. Dans le cas de la langue des signes, à la fois la langue des signes et le système alphabétique ont des unités de deuxième articulation mais, hormis le cas marginal de la présence de signes dactylologiques dans la langue des signes, ces unités appartiennent à deux systèmes qui ne peuvent être mis en correspondance. Ainsi Krakow et Hanson (1985renvoi vers) montrent que les lecteurs sourds signeurs ne font pas les mêmes erreurs dans le rappel de signes et dans le rappel de mots écrits.
Avant l'adoption relativement récente d'un système alphabétique, l'appren-tissage de la lecture et de l'écriture des logogrammes chinois commençait dès 3 ans et durait une dizaine d'années avant l'atteinte d'un niveau d'expertise permettant la lecture autonome. Certains apprentis-lecteurs sourds sont dans cette situation d'apprentissage qui réclame du temps, mais à la différence des enfants chinois ils se trouvent dans un contexte de scolarisation qui n'est pas adapté à ce type d'apprentissage mais à celui, beaucoup plus simple et rapide, d'un système alphabétique. En l'absence d'une pédagogie privilégiant l'éla-boration d'habiletés phonologiques, cela se traduit par un taux très élevé d'illettrisme chez les adultes sourds ; le rapport Gillot (1998renvoi vers) estime que 80 % des sourds profonds sont illettrés en France.

En conclusion,

les recherches sur l'apprentissage du langage écrit par les enfants sourds ont un double intérêt. D'abord elles confirment le rôle central des capacités de traitement phonologique dans la maîtrise d'un écrit alphabétique et invitent à vérifier systématiquement ces capacités chez les enfants entendants présentant un trouble de l'apprentissage. Ensuite, elles imposent, en collaboration avec les associations concernées, que les mét-hodes d'apprentissage utilisées pour les enfants sourds soient évaluées afin que soient prises des orientations claires visant à la disparition d'un illettrisme qui est un facteur supplémentaire d'exclusion pour cette population.

Bibliographie

[1] alegria j. Lecture, phonologie et surdité. In: bentolila a, editors. Les entretiens Nathan : lecture et écriture. Nathan, Paris:Actes II; 1992. p. 75--100Retour vers
[2] alegria j, charlier b, mattys s. Phonological processing of lipread and Cued-Speech information in the deaf. European Journal of Cognitive Psychology. 1999; 11:451-472Retour vers
[3] alegria j, leybaert j. Le langage par les yeux chez l’enfant sourd : lecture labiale et Langage Parlé Complété. In: transler c, leybaert j, gombert je, editors. L’acquisition du langage par l’enfant sourd : les signes, l’oral et l’écrit. Marseille:Solal; 2005. p. 213-252Retour vers
[4] bellugi u, o’grady l, lillo-martin d, o’grady m, van hoek k, corina d. Enhancement of spatial recognition in deaf children. In: volterra v, erting c, editors. From gesture to language in hearing and deaf children. New York:Springer-Verlag; 1990. p. 278-298Retour vers
[5] burden v, campbell r. The development of word-coding skills in the born deaf : an experimental study of deaf school-leavers. British Journal of Developmental Psychology. 1994; 12:331-349Retour vers
[6] campbell r. The cerebral lateralization of lip-reading. In: dodd b, campbell r, editors. Hearing by eye : the psychology of lip-reading. Hillsdale, NJ:Lawrence Erlbaum; 1987. p. 243-255Retour vers
[7] campbell r, wright h. Deafness, spelling and rhyme : how spelling supports written word and picture rhyming skills in deaf subjects. Quarterly Journal of Experimental Psychology. 1988; 40A:771-788Retour vers
[8] campbell r, wright h. Immediate memory in the orally trained deaf : effects of « lipreadability » in the recall of written syllables. British Journal of Psychology. 1989; 80:299-312Retour vers
[9] campbell r, wright h. Deafness and immediate memory for pictures : Dissociations between « Inner Speech » and the « Inner Ear ». Journal of Experimental Child Psychology. 1990; 50:259-286Retour vers
[10] conrad r. Short-term memory processes in deaf. British Journal of Psychology. 1970; 31:179-195Retour vers
[11] conrad r. The deaf school child. London:Harper&Row; 1979. Retour vers
[12] cornett o. Cued speech. American Annals of the Deaf. 1967; 112:3-13Retour vers
[13] dodd b. The phonological system of deaf children. Journal of Speech and Hearing Disorders. 1976; 41:185-198Retour vers
[14] dodd b, hermelin b. Phonological coding by the prelinguistically deaf. Perception and Psychophysics. 1977; 21:413-417Retour vers
[15] gillot d. Rapport de Madame Dominique Gillot, Députée du Val-d’Oise au Premier ministre. France:; 1998; http://www.ladocumentationfrancaise.fr/. Retour vers
[16] gombert je. Le développement métalinguistique. Paris:Presses Universitaires de France; 1990. Retour vers
[17] goswami uc, bryant pe. Phonological skills and learning to read. Hillsdale, NJ:Lawrence Erlbaum; 1990. Retour vers
[18] hage c. Développement de certains aspects de la morpho-syntaxe chez l’enfant à surdité profonde : rôle du Langage Parlé Complété. Université Libre de Bruxelles:Thèse de Doctorat en Sciences Psychologiques non publiée; 1994. Retour vers
[19] hanson vl. Short term recall by deaf signers of American Sign Language : Implications of encoding strategy for order recall. Journal of Experimental Psychology : Learning, Memory and Cognition. 1982; 8:572-583Retour vers
[20] krakow ra, hanson vl. Deaf signers and serial recall in the visual modality : memory for signs, fingerspelling and print. Memory and Cognition. 1985; 13:265-272Retour vers
[21] leybaert j. Reading in the deaf : the role of phonological codes. In: marschark m, clark d, editors. Phonological perspectives of deafness. Hillsdale, NJ:Lawrence Erlbaum; 1993. p. 269-309Retour vers
[22] leybaert j, alegria j, fonck e. Automaticity in word recognition and in word naming by the deaf. Cahiers de Psychologie Cognitive. 1983; 3:255-272Retour vers
[23] leybaert j, alegria j. Is word processing involuntary in deaf children ?. British Journal of Developmental Psychology. 1993; 11:1-29Retour vers
[24] leybaert j, alegria j. Spelling development in deaf and hearing children : evidence for use of morpho-phonological regularities in French. Reading and Writing: An Interdisciplinary Journal. 1995; 7:89-109Retour vers
[25] liberman a, mattingly ig. The motor theory of speech perception revised. Cognition. 1985; 21:1-36Retour vers
[26] locke jl, locke vl. Deaf children’s phonetic, visual and dactylic coding in a grapheme recall task. Journal of Experimental Psychology. 1971; 89:142-146Retour vers
[27] locke jl. Phonemic effects in the silent reading of hearing and deaf children. Cognition. 1978; 6:175-187Retour vers
[28] mayberry ri. Mental phonology and language comprehension, or what does that sign mistake mean ?. In: emmorey k, reilly js, editors. Language, gesture and space. Hillsdale, NJ:Lawrence Erlbaum; 1995. p. 355-370Retour vers
[29] meier rp. Icons, analogues, and morphemes : the acquisition of verb agreement in ASL. :Unpublished doctoral dissertation, University of California in San Diego; 1982. Retour vers
[30] meier rp, willerman l. Prelinguistic gesture in deaf and hearing infant. In: emmorey k, reilly js, editors. Language, gesture and space. Hillsdale, NJ:Lawrence Erlbaum; 1995. p. 391-409Retour vers
[31] merrils jd, underwood g, wood dj. The word recognition skills of profoundly, prelingually deaf children. British Journal of Developmental Psychology. 1994; 12:365-384Retour vers
[32] newport el, meier rp. The acquisition of American Sign Language. In: slobin di, editors. The crosslinguistic study of language acquisition, Vol 1, The data. Hillsdale, NJ:Lawrence Erlbaum; 1985. p. 881-938Retour vers
[33] padden ca, clark d. Comment l’alphabet devient représenté en langue des signes. In: transler c, leybaert j, gombert je, editors. L’acquisition du langage par l’enfant sourd : les signes, l’oral et l’écrit. Marseille:Solal; 2005. p. 71-88Retour vers
[34] paire-ficout l. Étude des mécanismes d’accès à la signification de mots écrits chez des lecteurs sourds sévères et profonds prélinguistiques : rôle des représentations dérivées de la lecture labiale. Thèse non publiée de Doctorat de Psychologie de l’Université Lumière Lyon 2:; 1998. Retour vers
[35] petitto la, marentette pf. Babbling in the manual mode : evidence for the ontogeny of language. Science. 1991; 251:1397-1536Retour vers
[36] transler c, gombert je, leybaert j. Decoding processes in deaf children, a similarity judgment between pseudowords. Applied Psycholinguistics. 2001; 22:61-82Retour vers
[37] transler c. Comment l’enfant sourd développe puis utilise le principe du B-A/ba/. In: transler c, leybaert j, gombert je, editors. L’acquisition du langage par l’enfant sourd : les signes, l’oral et l’écrit. Marseille:Solal; 2005. p. 317-326Retour vers
[38] transler c, leybaert j, gombert je. Do deaf children use spoken syllables as reading units?. Journal of Deaf Study and Deaf Education. 1999; 4:124-143Retour vers
[39] waters gs, doehring dg. Reading acquisition in congenitally deaf children who communicate orally : insights from an analysis of component reading, language and memory skills. In: carr t, levy ba, editors. Reading and its development : component skill approaches. San Diego:Academic Press; 1990. p. 323-373Retour vers

→ Aller vers SYNTHESE
Copyright © 2007 Inserm