Dette afsnit indeholder tekster på dansk, engelsk og tysk.

This part contains texts in Danish, English and German.

Diese Absnitt enthielt Texte in Dänish, English und Deutsch.


Kjeld Johansen:

Hearing and Learning. Paper presented at the conference Movement, Vision, Hearing –The Basis of Learning at Warsaw Univ., 17.09.2011.

It is hardly surprising to assert that a child’s hearing is crucial to the learning process. But the notion that even a minor hearing impairment can affect many aspects of behaviour is perhaps less familiar, just as some people would be surprised to learn that hearing which deviates from the optimal pattern is found among children and adults diagnosed with as wide a variety of afflictions as dyslexia, ADHD, autism, depression and schizophrenia.

It has long been known that children and adults with apparently “normal” hearing, e.g. measured by audiometric screening at 20 decibels (dB), may have difficulty perceiving and understanding what is being said. Some researchers have designated this as listening or concentration difficulties, in spite of the fact that the hearing of the listener appears to be adequate. In recent years, this has generated great interest in the diagnosis known as (Central) Auditory Processing Disorder (C)APD or just APD, because the entire auditory system, not just its central components, may be involved in hearing difficulties. Listening is an active process, but if one’s hearing does not function up to par, the listening process becomes very demanding.

Whenever researchers cultivate new fields, delimiting the various fields is a difficult process, and this is also the case here. Much energy is expended on specifying clear definitions and developing testing procedures to ensure that the researcher knows what he or she is dealing with. Naturally, the principal objective is to offer different client groups the best treatment possible. But occasionally it seems as if these very clear delimitations seem to prevent effective intervention. This is exemplified by the fact that until now it has been difficult to get reading researchers to accept that hearing itself is crucial to explaining why many children have difficulty reading, just as it is difficult for behavioural scientists to see that an inadequate perception of what can be heard might explain several behavioural problems in some children.


Figure 1 does not indicate that auditory processing difficulties cause the above-mentioned difficulties in every instance, but that such problems recur in many of these instances. There is direct causality occasionally, however.

The wishes of specialist groups to clearly sequester their own field of specialisation from “everything else” has created a situation where some frequently recurring problems do not get the attention that their severity actually deserves. When it comes to learning and/or behavioural difficulties, auditory sensation and perception constitute just such a common field. This is not to say that problems in this field explain all the difficulties, but that problems occur throughout the field, and by using adapted stimulation these problems can be significantly reduced or totally remedied, regardless of the overall diagnosis.

Development of the auditory system

The ear starts to develop around 22 days after the fetus starts to develop; at this time it is possible to trace the precursors of the inner ear and the vestibular system. About five weeks after conception, the ear canal starts to form. One week later, the cochlea starts to develop, at the same time that the outer ear becomes visible and starts to grow rapidly. At around the seventh week, the three small bones of the middle ear (auris media) are discernible and continue to grow until they achieve full size in the sixth to eighth month of pregnancy. At birth, the “mechanical” aspects of the auditory system are therefore reasonably well developed, even if some nerve links to the cerebral cortex continue to develop their myelin sheaths (“insulating layers”) until at least four years of age, and some nerve fibres between the cerebral hemispheres (via the corpus callosum) are not fully sheathed with myelin until the age of ten or eleven.


Even so, an auditory system which is not fully developed can still hear, i.e. it can react to auditory stimuli, several weeks before birth. Without exaggerating, it is actually possible to stimulate the auditory system by playing music and singing for an unborn baby eight to ten weeks before birth. Minor (and uncontrolled) experiments have demonstrated the positive effect this can have on a child’s subsequent linguistic development. The “prenatal universities” where pregnant mothers walk around with loudspeakers attached to their stomach so the fetus can both listen to music and have books read aloud to them are not recommended, however.

The ear canal and eardrum reach adult size as early as the child’s first birthday.

Virus infections (like rubella) contracted by the mother during the first two or three months of pregnancy can in some instances cause hearing impairment and other more serious problems in the fetus. This is why women should have had this disease in childhood or should have been vaccinated against it. Mumps in children (and adults) can cause similar problems.

Drinking alcohol and smoking can affect a fetus as its brain undergoes radical development during the course of the nine months of pregnancy, with the formation of nerve cells (neurons), the outgrowth of neuron processes (axons and dendrites) and the formation of synapses between these processes. An expectant mother bears a heavy responsibility indeed for leading a healthy lifestyle.

The birth and the first year

Several circumstances during birth can affect a newborn’s hearing, such as brief oxygen deficiency or an unfortunate action on the infant’s neck region during the delivery. In the latter instance, one-sided hearing impairment is occasionally seen, which in the long term can cause problems with linguistic development. A group of (mainly German) doctors who work with manual (chiropractic) medicine have identified a unique problem in infants where the neck region, for instance, is crooked for one reason or another. They call this phenomenon “KISS” (Kinematic Imbalance due to Suboccipital Stress). These children are characterised by having an asymmetrical appearance in repose, for instance. Some children with this syndrome, with whom I have worked, have had a distinct hearing impairment in one ear. In these cases, chiropractic treatment has been very useful. In the early months of their lives, many of these children are remembered as being very restless (“crybabies”).

Recent Danish research seems to indicate that children born by caesarean section have a greater risk of allergic reactions. This could be the result of a very “neat” birth, i.e. without the unique action exerted on them by the mother’s body. Allergic reactions reduce one’s immune response and can, among other things, increase the risk of inflammation of the middle ear (otitis media), which is occasionally also consequential for linguistic development. A study of 426 “earache children” (children with frequent afflictions of otitis media) in the Region of Southern Denmark showed that earache is just part of the problem. One-third of these children experienced subsequent hearing impairment, and linguistic development was impaired in 20% of the children. My own studies have shown that linguistic development is especially affected by reduced hearing in the right ear. Even a slight reduction in relation to optimal hearing and in a limited frequency range has a negative effect.

Children with inflammation of the middle ear are often treated with penicillin. A Dutch study, published in 2009, showed that, unfortunately, children treated with penicillin have recurring bouts of otitis media more frequently than children who are not treated with penicillin and are thus at greater risk of becoming “earache children”.

Hearing impairment as a result of middle-ear problems can also occur if the Eustachian tube, linking the middle ear to the pharynx, is obstructed, thereby preventing the middle ear from being ventilated. The obstruction can also be caused by a common cold or adenoids, but irritation caused by microparticles like pollen and tobacco smoke can also cause the tissue in the Eustachian tube to swell, thus obstructing the passage. The oxygen content of the atmospheric air which ventilates the middle ear (via the Eustachian tube) is about 20%. If this ventilation ceases for some reason, this oxygen will be quickly absorbed by the surrounding tissue, causing the pressure in the middle ear to fall, thereby reducing the flexibility of the eardrum and the middle ear. Most adults are familiar with a similar phenomenon in connection with air travel. Although it is not necessarily painful, hearing is reduced. Some children suffer from permanent hearing loss for this reason, without this ever being discovered. This has the same negative impact on linguistic development as recurring otitis media over a long period of time. As a child’s linguistic development starts long before the child attempts to speak, it is important for the child’s hearing to function properly throughout infancy. The auditory system is only fully developed if the requisite stimulation is available, which requires complete hearing capacity, and even this is not enough. It is necessary, but not sufficient.

Occasionally, you meet parents (usually fathers) who think that toddlers are uninteresting until they start talking. This is a huge misconception. Toddlers begin their linguistic development long before they actually start to speak. Professor Patricia Kuhl (USA) has conducted a wide range of interesting studies of the earliest linguistic development in children, involving both auditory and visual aspects.

Very young (newborn) children are capable of registering differences in phonemes between different languages. This characteristic disappears by the time they are about one year old. At this point, they can only differentiate between phonemes in the language they hear every day, unless they have been stimulated by hearing and seeing a foreign language spoken to them. Kuhl has notably demonstrated how important it is for an infant to both hear and, at the same time, see when it is being spoken to. There must be accordance between articulation and mouth movements. Therefore, it is important to speak to and with one’s baby – and avoid talking on a mobile phone with a friend far away if the child thinks one is speaking to him/her. For the same reason, linguistic development is hardly encouraged by letting the television be partly responsible for child care. Especially if it is showing dubbed movies.

Recent German studies show that newborn babies remember auditory stimuli – especially melodies and pitch patterns – from the last trimester of pregnancy. This means, for example, that after birth, they prefer their mother’s voice above all others. If a father-to-be sings to his unborn baby every day, the father’s voice will presumably be recognised and appreciated as well. When infants cry, the intonation of their crying is influenced by the intonation of the language they heard in the final months of pregnancy.

For several years, various groups of researchers have shown that if an infant (6 months to 1 year old) is stimulated by a language different from his/her parents’ language over a prolonged period of time, e.g. if a nanny speaks to a child in a language different from the parents, it will be easier for the child to learn this other language, particularly its phonetic system, many years later. It is as if this very early stimulation prepares the auditory system for subsequent learning years later. Perhaps we should use this knowledge to stimulate the infants and toddlers of immigrant families by letting young local students spend an hour a week playing with the toddlers and talking with them in Danish.

Photo: Communication

Anyone who has ever “talked” with an infant and who has held his/her face very close to the infant has noted how the infant quickly tries to imitate one’s facial expressions and mouth movements. This is actually part of linguistic development and is due to the interrelationship between the words spoken and mouth movements. A few years ago, brain researchers made a number of remarkable discoveries. They were studying monkeys fitted with brain electrodes to record brain activity associated with certain movements. Almost by accident, they discovered that when one monkey saw another monkey pick up a piece of fruit and eat it, the observing monkey’s brain was active in the same areas of the brain as those that were activated when the monkey actually performed the action. This gave rise to the theory of “mirror neurons”. In other words, watching someone perform an action can induce the same brain activity as if one was involved in performing the action oneself. This discovery will presumably influence our educational theories. Maybe “apprenticeship” is not such a bad idea after all.

Everyone knows that loud noise can be directly detrimental to hearing, even if not everyone (especially young people) will take the necessary precautions. What is less well known is that faint noises over a long period of time are also significant and indeed fundamentally different: the faint humming of a fan, for instance, can increase the sensitivity to this same frequency range to which one’s hearing is exposed. It shifts the balance of hearing, so to speak. Sensitivity to noise is increased and the ability to differentiate sounds in other frequency ranges is reduced. Constant, faint noise also increases stress levels. Just think of how wonderful it feels when a hotel’s air conditioning unit shuts off.


Sound is composed of vibrations in the air or in another substance. The number of oscillations per second is called the sound’s “frequency” and is measured in Hertz (Hz) (after Heinrich Hertz, a German physicist). The volume of sound can be measured in several different ways. As ambient sound varies the air pressure, it is possible to use the same measuring unit used by meteorologists, for instance, who measure pressure or pressure variations in pascals or micropascals (after Blaise Pascal, a French mathematician and philosopher). The field of audiology uses a different scale named after Alexander Graham Bell, the Scottish-born US physiologist and inventor. As it is also important to be able to measure small variations in pressure, volume is normally measured in decibels (abbreviated to dB). The correlation between dB and micropascals is shown in Fig. 3. Note that an increase in volume, measured in dB, means that an increase of 3 dB is a twofold increase in volume, but the listener does not perceive the volume to have doubled in intensity. The auditory system is affected by the doubled volume, however. Oftentimes, as here, the lower hearing limit is specified as 0 dB. This is not correct for all frequencies, however. As is apparent, there is still acoustic pressure (20 micropascals) at 0 dB. Young people with good hearing can perceive sounds fainter than 0 dB in the frequency range 3000–4000 Hz. Thus, hearing in this range is also exceptionally sensitive. This same frequency range usually suffers the greatest injury from an explosion, a gunshot or long-term exposure to noise, etc.

A study published in the autumn of 2009 shows that two out of three children in Danish preschools feel bothered by too much noise. This can cause headaches and impaired concentration. Whether this high level of noise can also cause long-term behavioural and learning problems in these children has not been studied. But I fear that this is the case.

ADHD and autism

Children with even minor auditory impairments often have problems in learning situations. Concentrating on what is being said, especially if the listener is surrounded by noise and commotion, requires a lot of energy. Frequently, they quickly run out of it, after which they become inattentive and preoccupied or even restless. The teacher starts to wonder whether the child has ADHD, even though the primary cause is reduced auditory perception. In a few cases, it is even possible that a child will exhibit aggressive behaviour, perhaps as a result of this stressful situation where he/she is unable to communicate linguistically. Therefore, it is naturally crucial for the design of schools and classrooms to thoroughly consider acoustic factors, with short reverberation times and reduced echo effects from walls, floors and ceilings. Teachers should be aware how pupils are positioned in the classroom, as some pupils actually and instinctively rely on lip-reading. Having a child sit at a round table with his/her back to the teacher is not always a good idea. Generally speaking, linguistic difficulties, regardless of cause, can affect a child’s behaviour. At a conference in Copenhagen in 2009, Professor Edvin Bru of Stavanger, Norway, stated: “Children with reading difficulties at the start of school often develop emotional problems later on.” If a pupil has linguistic difficulties, he/she will have difficulty communicating with the teacher and fellow pupils and, as a result, will have to communicate in ways that depart from the norm. These children simply have fewer alternatives at their disposal to resolve conflicts. Linguistic difficulties also make it harder for children to control their emotions. Whereas other children can express their emotions through language, children with linguistic difficulties often use a negative manner of expression. In June 2009, researchers at the Rochester Institute of Technology published results showing that it is thought that as many as 38% of children who are hard of hearing or deaf exhibit ADHD symptoms.

Children with very sensitive hearing frequently exhibit problematic behaviour too. When exposed to loud or sudden noise, they become very frightened and sometimes cover their ears with their hands. They may even refuse to walk along a noisy street or enter a railway station. Sometimes they also refuse to enter a room with loud noise. Some children stop playing with noisy playmates of the same age. Some are even diagnosed as having ASD (Autistic Spectrum Disorder) when the primary cause may be extremely sensitive hearing, presumably combined with heightened sensitivity in other areas as well.

Obviously, both ADHD and ASD can undoubtedly be genuine afflictions with hereditary causes where certain genes give rise to altered chemical conditions in the brain that disturb concentration and perception. In such instances, medical treatment may be required, but this always has unwanted side effects as well. Nevertheless, diagnoses are sometimes made on an insufficient basis, resulting in medical treatment being prescribed with the best intentions, even though other measures would have been more appropriate. The chemical situation in the brain is affected by far more than what has been inherited from one’s parents – by stress induced by the surroundings, for example.

In the autumn of 2009, researcher Nora D. Volkow (USA) published the results of a study of adults diagnosed with ADHD. By comparing them to a control group, Volkow discovered that ADHD in this study seems to correspond to a reduced level of the neurotransmitter dopamine in central areas of the brain. Also in the autumn of 2009, the periodical Nature published an article stating that about 90% of autistic afflictions appear to be genetic in origin and that the genes on chromosomes 5, 6 and 20 could be linked to autism. These genes could have been altered by mutation, the causes of which are unknown. Other researchers point out that autism can be related to biological mechanisms which change the metabolism in a number of cells, thereby affecting the immune response system, etc.


Any behaviour, or any “affliction” for that matter, can be due to several different factors. Similarly, a single underlying factor can result in several different outcomes; which is what Figure 4 attempts to show.

This viewpoint is also shared by others, including Dr Steve Baldwin of the University of Teesside, who said the following in an interview with The Guardian in 2000: “Children can be misdiagnosed with ADHD because it suits the needs of busy professionals, when in fact the children have a developmental problem or a specific learning disability. Some have epilepsy. Others have poor eyesight or bad hearing. If you give them stimulants, you can create a new problem.”

In his book Running on Ritalin, US paediatrician L. H. Diller brilliantly explains how a child’s family background affects behaviour. He, too, is quite sceptical about the rising use of psychoactive drugs in efforts to “pacify” children who do not fit in with our ways of allowing them to grow up or with our educational methods.  Diller attaches great importance to families’ psycho-social factors, insufficient parental involvement, and school classes with far too many pupils as contributing causes of children being diagnosed with ADD or ADHD. A lack of parental involvement can be the result of demands made on them by the change, competition and pace of their jobs, which have gradually become the norm required by modern society. As a result, parents spend less time with their children. In overpopulated school classes, it is impossible for the teacher to make daily contact with all the pupils by any stretch of the imagination. Teachers spend extra time on pupils with problems. When other pupils find that the teacher does not answer their questions or give them the support they expect, they sometimes lose their motivation. And so begins a vicious, downward spiral, because the teacher does not have an earthly chance of meeting the requirements made on satisfactory teaching. But then there’s always Ritalin, which subdues everyone, regardless of the cause of their frustrations or level of activity!

Auditory laterality: ear preference

If the sight in one eye is reduced, this often makes it difficult to judge distances correctly. The fact that a difference in hearing between the right and left ear also plays a part is generally less well known.

Our senses and motor control have crossovers between body and brain (this does not apply to our sense of smell, however). When the fingers of the left hand are moved, these movements are controlled by the right cerebral hemisphere. What is seen in the right field of vision is registered in the left cerebral hemisphere, and what is heard through the right ear is registered fastest and strongest in the left cerebral hemisphere, which is also where a substantial part of the linguistic decoding and linguistic production takes place in most people.


All models are simplifications of reality. Special attention should be given in this respect to the “crossover” from the right ear to the auditory areas in the left hemisphere. On the way from the inner ear to the brain, every sound – including phonemes – passes a number of “relay stations” which do not just transmit the acoustic image, but influence it in such a way that certain characteristics are amplified, while others are weakened. In 2009, Profession P. Uclés of the University of Zaragoza, Spain, announced that by using electrophysiological measurements at brainstem level, he had discovered that children with dyslexia react differently to pure tones than children who are not dyslexic. Other studies show that reactions in the brainstem also manifest differences between dyslexics and non-dyslexics. It is also worth noting that this study measured reactions to pure tones, but not to phonemes. In other words, there is reason to assume that dyslexia may be related to general auditory perception and processing difficulties.

Therefore, if a person has experienced long-term hearing impairment in the right ear or continues to do so, this will affect his/her ability to decode and distinguish between phonemes and thus affect his or her perception of actual linguistic content. Comprehensive studies have shown that a preference for using the left ear which has arisen for hereditary reasons or due to a one-sided, right-side hearing impairment during childhood can be linked to several types of linguistic disorders, such as dyslexia.

Phonetic tone and pitch are best perceived via the left ear, which primarily works together with the right hemisphere. If the hearing in this “channel” is not functioning up to par, this can make it difficult to perceive the hidden content of spoken language, such as irony. This can give rise to lots of frustration for both the receiver and the sender due to misunderstandings.

It is characteristic that the vast majority of well-functioning right-handed people also have a distinct preference for using the right ear, whereas left-ear preference or reduced right-ear preference is seen with unusual frequency in dyslexics, people with autism, schizophrenics and persons suffering from depression. These people will probably attach great importance to how words are spoken (i.e. intonation), perhaps even more than to the actual content of the message. This is also why talking to a dyslexic in an irritated tone of voice can have unfortunate consequences for the very reason that the negative vibrations are perceived very clearly.

If a preschool child or school pupil has learning and/or behavioural problems, there is every reason to take a much closer look than usual at his/her auditory perception. This type of hearing test – which tests the ability to perceive and reproduce linguistic expressions and at the same time tests ear preference together with a very exact measurement of hearing threshold limits across the entire frequency range from 125 Hz to 8000 Hz – can, in many instances, aptly depict which auditory problems a child might be struggling with. Unfortunately this is by no means part of the standard procedure before an institution or body refers a pupil to special needs support. As a result, the special needs educationalist lacks important information about the pupil.


Figure 6 is a highly simplified model of the areas of the left cerebral hemisphere which are active during linguistic perception and linguistic processing. If a word is heard and the hearer is to repeat this word, a number of brain areas will be active. This drawing shows the primary auditory cortex (A) where sounds are perceived, Wernicke’s area (B) where spoken language is identified, Broca’s area (C) where the word to be repeated is produced, and the motor cortex (D) which controls the organs of speech. Many more areas of the brain are activated in connection with the perception and reproduction of language. These interacting areas include areas of the frontal lobes, right hemisphere and cerebellum, etc. This model does not consider that, along the way from the inner ear to the brain’s auditory areas, the stimuli received are processed from the time they are received in the brainstem until they are “delivered” to the cortex. Nor is there any indication that Broca’s area (C) also plays an extensive part in decoding the linguistic input. This model, which is still printed in many textbooks, is more or less out of date.

(Central) auditory processing disorders/difficulties, (C)APD

As mentioned in the introduction, there is a difference between hearing and listening attentively. Nerve pathways exist between sections of the auditory system which run from the central nervous system out to the auditory system (efferent nerves), whereby the processing of incoming auditory stimuli can be influenced by “superjacent” structures. This is significant when examining specific sounds in the surroundings (such as when attempting to hear what is being said at the next table above the background noise at a restaurant). Spoken language is made up of sounds. A simple phoneme conveying meaning comprises small “sound parcels” (formants) that are articulated at the same time. Each formant has a specific pitch (frequency), a specific intensity (volume) and a specific duration. The listener’s auditory system must be able to correctly decode all these parameters in order to understand the phoneme correctly. Many things, from initial hearing to transmission via the auditory system to the brain, can give rise to faulty interpretation. This is called APD (Auditory Processing Disorders), or the somewhat milder Auditory Processing Difficulties. Disorders, of course, can only be diagnosed by specialists, whereas a difficulty is discernible to most people.

Researchers working with APD now focus on how the difference between the two cerebral hemispheres’ perception of auditory input (such as speech) affects the comprehension of what is being said. This was demonstrated by a group of students at the university of Chieti, Italy, who conducted an amusing experiment: in noisy restaurants they went up to other patrons and asked for a cigarette. By noting the frequency with which their request was complied with, they discovered that the number of positive reactions was higher when they spoke into the subject’s right ear, rather than the left. Other similar studies have shown that the left ear is better at perceiving a voice’s emotional expression than the right ear. Such studies indicate the importance of well-functioning hearing in both ears. Some attempts to improve auditory perception take account of the wish to develop balanced hearing and are therefore called “dichotic training”. One way of being trained or stimulated is to listen to music recorded for this purpose. (See below under JIAS.)


A disorder which seems to afflict more and more people, including children and youths, in recent years, is tinnitus (ringing or buzzing in the ears). This disorder can be very draining for the sufferer and has several possible causes. The problem is generally blamed on hearing a loud noise over a prolonged period of time, or being exposed for a relatively short time to noises like an explosion or a gunshot – but also attending a rock concert and standing too close to the loudspeakers. Countless musicians have come down with tinnitus in the course of their careers. Taking certain types of medicine, e.g. painkillers containing acetylsalicylic acid, can cause tinnitus after prolonged use, presumably because this medicine more or less destroys some of the hair cells in the inner ear. There are several types of tinnitus. Some describe it as a constant rushing sound, almost like a roaring sea. Other sufferers report that they constantly have one or more different ringing sounds in one or both ears. Ear specialists and neurologists do their best, although not always successfully, to help their patients, even though there are several different therapies for treating tinnitus. Various types of medicine have been (and are still being) used; surgical treatment is possible, and various psychological measures are used. Unfortunately, these treatments do not always work, presumably because there are many different potential causes of tinnitus, and the person prescribing the treatment has not always known the cause. No single treatment works for all types of tinnitus. Tinnitus sufferers frequently have hearing impairment around the frequency range where the “ringing sound” is also heard. This could be related to the destroyed hair cells in the first section of the cochlea where these very same high tones are registered.


For more than four decades, this author has been involved with the stimulation of auditory perception in children and adults using a method based on theories about the plasticity of the brain and the effect of specific, targeted stimulation. Although not a miraculous cure that helps everyone, this is a method where the child, by listening to individually adapted CDs on a daily basis, stimulates his/her auditory system in such a way that at least a substantial part of the difficulties noted are reduced or disappear entirely. Over the years, the method has changed names a few times for various reasons. From now on, it will presumably be best known as Johansen Individualised Auditory Stimulation (JIAS).

The average effect of this type of stimulation on a number of audiograms is shown in FIG. 7. At the same time, studies of children’s linguistic skills showed statistically significant improvement in a number of areas, compared to the results of an untreated control group. The study, which will be published in its entirety at a later date, and whose results are referred to here, was conducted by Wim de Zwart, of Roermond, the Netherlands, and was included in de Zwart’s approved master’s programme at the Free University in Amsterdam, where the statistics were also compiled. The dotted line in these audiograms is a hearing curve, whose course was suggested by French ear specialist A. A. Tomatis. Hearing is usually screened at a volume of 20 dB, because this volume is considered sufficient for being able to conduct a telephone conversation without difficulty, for instance. Tomatis found that people with exceptionally good voice control (opera singers) had a hearing graph like the one shown. In the early 1960s, I personally studied around 40 excellent readers aged 7 to 16, and found that their hearing graphs closely resembled the graph recommended by Tomatis. This is also why the hearing graph is used as a frame of reference for JIAS.

Children whose learning difficulties are partly explained by auditory disorders are often extremely sensitive in the frequency range below around 1000 Hz, which is apparently interrelated to a sensitivity to ambient noise – noise which is consciously or subconsciously processed – and this gives rise to a perception of the student as lacking concentration. At the same time, sensitivity to sounds around 3000–4000 Hz seems to be significantly below the values suggested by Tomatis. This is frequently related to a difficulty in differentiating different phonemes from one another, such as /b/, /d/ and /p/, or difficulties perceiving /s/ and /t/, as well as /f/ and /v/. This will naturally result in spelling problems when writing from dictation, but it also seems to affect reading skills. Unfortunately, this is not widely acknowledged among reading teachers. Denmark’s national public radio programmes often announce the letter and number of the programme being listened to. When the speaker announces “You are listening to P2”, I very clearly hear him or her say “You are listening to B2”. Because of my age, my hearing graph resembles the graphs I find in many children with spelling difficulties. It is worth noting here that even in Scandinavia there are big differences in how clearly the different languages are spoken. Danish pronunciation is generally much more slurred than both Norwegian and Swedish. This makes correct learning of Danish as a native language difficult for many Danish children and also makes it difficult for foreigners to learn Danish.

Researchers Nina Kraus and Dana Strait, of Northwestern University, Chicago, published results in September 2009 showing that musical training improves children’s ability to perceive language in noisy surroundings and improves their reading skills at the same time. This is precisely what my work with JIAS has shown over the course of many years.

Fig. 7: JIAS

In some instances, JIAS has also been able to relieve tinnitus, if the affliction involved a clearly defined ringing tone in one or both ears and if the ringing tone’s frequency could be exactly determined. By stimulating narrow frequencies both above and below the ringing tone heard (a method proposed by researchers at Humboldt University in Berlin), it was possible to reduce the perception of the irritating and stressful sound. Lasting relief cannot be obtained after just a few treatments, however, which is why the treatments have had to be repeated. The underlying theory is related to the brain’s plasticity, i.e. the brain’s ability to change its structure according to stimulation. It should be emphasised that treating tinnitus using this type of audio therapy should only be carried out after a medical examination has determined that there are no demonstrable medical causes of the ringing in the ears (e.g. tumours, ossicular defects, inflammation, hypertension or hypotension, or metabolic disorders).

Useful references:

Bellis, T.J. (2002), When the Brain Can’t Hear. New York: Pocket Books. ISBN 0-7434-2863-3.

Bérard, G. (1993), Hearing Equals Behavior, New Canaan, Conn.: Keats Publishing. ISBN 0-87983-600-8.

Biedermann, H. (2004), Manual Therapy in Children, New York: Churchill Livingstone. ISBN 0-443-10018-7.

Blythe, S.G. (2009), Attention, Balance and Coordination. Chichester: Wiley-Blackwell. ISBN 978-0-470-51623-2.

Diller, L.H. (1998), Running on Ritalin. New York: Bantam Books. ISBN 0-553-37906-2.

Gopnik, A., Meltzoff, A.N. & Kuhl, P.K. (2001) Tænk engang [Just Think]. Copenhagen: Hans Reitzels Forlag. ISBN 87-7913-236-7.

Johansen, K.V. (1993), Lyd, hørelse og sprogudvikling [Sound, Hearing and Linguistic Development]. Horsens: Forlaget åløkke. ISBN 87-592-2034-1.

Madaule, P. (1994), When Listening Comes Alive. Norval, Ontario: Moulin Publishing. ISBN 0-9697079-1-6.

Sohlman, B. (2000) Möjligheterna finns. Om hjälp för Barn med läs- och skrivsvårigheter och andra inlärningsproblem [The Possibilities Exist – about helping children with reading and writing problems and other learning difficulties]. Täby: Sama Förlag. ISBN 91-972923-9-7.

The websites (Danish) and (English) provide further details about JIAS as well as contact addresses.

Kjeld Johansen (b. 1937) is a former teacher and head teacher, and has an MSc in psychology and a PhD in educational theory. He has been working with the significance of hearing to linguistic development for more than forty years. Together with composer Bent-Peder Holbech, K.J. developed the JIAS system for stimulating the auditory system of children and young people in particular with language difficulties, including dyslexia.



The following is an edited, extended and updated (2010-05-08)  version of a paper that appeared in

Nordic Journal of Special Needs Education   4/2002   pg. 245-271.   ISSN 0408-0509.  Universitetsforlaget, Postbox 508, N-0105 Oslo, Norw

Kjeld V. Johansen:

Dyslexia, Auditory Laterality, and Hemisphere-Specific Auditory Stimulation

    Researchers from several disciplines (education, psychology, speech and language) agree that half of the population with specific reading difficulties have inherited the problem. But what may be the cause of the problem in the other half of the population?

    We now know that the majority of people suffering from specific reading difficulties (dyslexia) - with or without occurrence of the problem in the family  have had or still have specific phonological/phonemic difficulties with language perception and production.

     According to parents’ answers to a questionnaire from our lab during the academic year 2001, 26% of the children came from families with reading problems, 22% of the children had suffered recurrent middle ear infections early on, 36% had suffered recurrent middle ear infections early on and came from families with reading problems, 16% had no such problems registered (N=50, mean age 10;6, mean reading age < 8;6).    

     One line to persue, therefore,  in dyslexia research, could be that of insufficient auditory sensation and perception (either inborn or acquired) in early childhood.

    Several  definitions of dyslexia explicitly state that this learning disability is not related to sensory problems. Our work questions that statement. One problem might be that assessments of sensory problems too often  are insufficient.

(The 2003 definition from IDA does not state this (Lyon, Shaywitz & Shaywitz, 2003), while the IDA definition from 1994 did as also the 1981 definition from the National Joint Committee for Learning Disabilities)

     Research has shown that there are individuals who, despite apparent normal peripheral hearing sensitivity, exhibit central auditory processing disorders (CAPD or just APD) that may be related to language problems, including problems in reading and spelling (developmental dyslexia)

At the same time in most dyslexia research, assessments, and intervention programs it is implicitly assumed that both the peripheral and the central sensory processings are well functioning. This may not be the case.


    It has been found in an animal model that auditory discrimination abilities may progressively improve with practice (Merzenich et al., 1993).

It has been suggested that similar improvements may be induced in children using special auditory stimulation techniques (Stein, 2001).


     The results reported in the following paper seem to indicate that simple assessment techniques, such as precise determination of hearing thresholds for different frequencies, together with binaural audiometry and dichotic listening to decide discrimination abilities and auditory laterality, may contribute to the diagnosis of what is generally considered to be a central processing problem ((C)APD) often out of reach by normally applied teaching methods.


     Furthermore it is indicated that specific and individualized auditory stimulation programs which are based on such assessments and where the perception of AM (amplitude modulation), FM (frequency modulation), and TM (temporal modulation) of auditory input is trained by listening to individually formatted music tapes or CDs  may improve the perception of  CV syllables and thus positively support remedial education by improving auditory discrimination abilities.


Keywords: auditory laterality; auditory processing; auditory stimulation; dyslexia.



     The recent debate related to the work published by P. Tallal and M. Merzenich (Hook, Macaruso and Jones, 2001; Macaruso and Hook, 2001; Bellis, 2002, pg. 270) may make it appropriate to add similar ideas involving non-verbal auditory stimulation to the discussion.

     Since 1987 the Sensomotoric Centre in Mjölby, Sweden has successfully used reflex- and visual stimulation programs and since 1990 has also used hemisphere specific auditory stimulation (ADT/HSAS/JIAS/JST) programs with a total of some eight hundred students with learning problems (Sohlman, 2000, pg. 16). The auditory stimulation is based on assessment procedures comprising hearing tests (audiometric testing of hearing thresholds and auditory laterality plus some form of dichotic listening). The students are assessed prior to and post intervention.  

In the light of published results from this training and of recent research referred below, it was decided to carry out a retrospective study of students who had attended this center.



    “Animal research has suggested that auditory deprivation induced by lack of environmental stimulation or by conductive hearing loss results in incomplete maturation of most auditory neurons in the brainstem: “There is a critical period for development of brainstem nuclei.... Without adequate sound stimulation during this period, most brainstem auditory neurons do not fully develop” (Webster & Webster 1979, p. 687).“In light of  Brainstem Auditory Evoked Response research that indicated that brainstem maturation in the human may continue into the third year of life (Kaga & Tanaka 1980), auditory deprivation during this period, regardless of the cause, may have devastating consequences for the development of normal auditory processing. This finding is consistent with studies of the effects of chronic otitis media, indicating that early hearing deficits adversely affect later central auditory functioning, and supports the sensitive period hypothesis of language acquisition.” (From Spreen et al., 1995, pg. 418).

     ”A carefully controlled prospective study of 207 children from birth to 7 years found a significant association between time spent with middle ear effusion during the first 3 years of life and both Verbal and Performance IQ scores and scores in mathematics and reading, as well as articulation and the use of phonological markers, Length of time with otitis media after age 3 was not related to outcome at age 7.” (From Spreen et al., 1995, pg. 433).

    ”However, it is known that severe otitis media during early childhood can lead to language problems and then to dyslexia (Merzenich and Jenkins, 1995).” (From Livingstone, 1999, pg.89).

      “From cognitive and educational psychology we have learned that children must be trained to hear the individual sounds (phonemes) of their language. They must be able to disconnect or ‘unglue’ sounds in words in order to use an alphabetic writing system.” (McGuinness, 1997).

     “If we take the stand that each individual is a unique case, then the health issue does not lend itself to statistically significant double blind tests involving hundreds of identical cases and control groups. Simply because reality does not conform to the statistical rules of science. Simply because each and every human being, each and every human illness, and each and every human destiny is unique and unreproduceable.” (Jerndal, 1999).

     “Until recently, many thought developmental dyslexia was a behavioral disorder that primarily affected reading. In fact, it is a partly heritable condition, the clinical manifestations of which are extremely complex including deficits in reading, working memory, sensorimotor coordination, and early sensory processing. Even though extensive research has characterized these behavioral abnormalities carefully, the biological mechanisms of the clinical manifestations are still poorly understood.” (Zeffiro and Eden, 2000, pg. 3).

     “For example, research on remediation of developmental reading disorders has been hampered by reliance on the coarse, pretheoretical category of developmental dyslexia. Whereas this category is almost certainly heterogeneous, most developmental dyslexia research implicitly assumes that the underlying cognitive dysfunction is the same in all (or at least most) dyslexics. As a consequence, most remediation studies have examined undifferentiated groups of dyslexic individuals, and have been aimed at formulating a single set of methods for across-the-board application. Among the results of this approach are disappointing success rates, and widespread failure to replicate.” (McCloskey, 2001, pg. 607).

     “It stands to reason that selective, subtle sensory and motor problems may interfere with dyslexics’ reading and writing.” (Berninger, 2001, pg. 37).

     ”Ideally, however, we would like to clinch the causal argument that poor AM and FM sensitivity prevents the acquisition of good phonological skill by showing that improving children’s AM and FM sensitivity by sensory training will help them to acquire phonological skill”. (Stein, 2001, pg. 14).

     “I believe that, if we continue to look for a simple answer to Auditory Processing Disorder (APD), it will continue to elude us. As long as we try to agree on easy, concise definitions, methods of diagnosis, and methods of treatment for APD, we will never reach consensus on anything. The brain is infinitely complex. Any disorder that involves the brain will, likewise, be infinitely complex. Therefore, until we let go of the hope for a simple answer, we may find ourselves never asking the right questions.” (Bellis, 2002, pg. 318; See also Bellis, 2003).

     “Duration measurements and a rating system based on first and second formant values were used to analyze production performance. As a group, the students with reading disabilities not only perceive but also produce less well-defined vowel categories than the control group of age-matched good readers. Perception and production performance, however, were not correlated.” (Bertucci et al., 2003).

     ”This study (by Overy) is particulary interesting in that it shows specific effects on some, but not all, aspects of language performanc in dyslexic children. This is a clear demonstration that music’s effects are not the result of some general overall “motivation” or “priming” effect, but are a consequence of specific overlaps between cognitive components af music processing and related components of nonmusical tasks.” (Sloboda, 2003, pg. 390).

     “Pigeons with right-eye dominance exel at foraging for grain compared to their unlateralized brethren fowl. It is possible that dyslexic students resemble left-eyed pigeons and have difficulty foraging for speech sounds in text. In pigeons, prenatal exposure to the right eye to light is the determinant for eye dominance. Perhaps prenatal and perinatal sensory input is one factor influencing the development of dyslexia.” (Eckert and Leonard, 2003, pg. 671).

     ”The observed differencies in the development of these basic neurally based perceptual abilities may underlie the faulty processing of speech-related information postulated by other researchers as underlying the development of reading skills.” (Espy et. al., 2004, pg. 33).

     ”These findings suggest that perceptual mechanisms to the full sound spectrum, both speech and nonspeech sounds, are important in later reading ability.” (Espy et. al., 2004, pg. 34).

      ”In the domain of phonetics and phonology we have seen that the catego-rical perception of stop consonants in at-risk children around age 4 is signifi-cantly less clear-cut than in the control group, and in fact not distinguisably better than in children with SLI. This is suggestive of a spech recognition problem.” (van Alphen et al., 2004).

     ”It can be concluded that work needs to be done on improving processing in the phonological channel (accuracy and speed) for all dyslexics in order to help them attain faster speed of processing in this channel, and as a result their reading may also be improved.” (Miller-Shaul, 2005).

      “In sum, we found more robust and faithful encoding of linguistic pitch information by musicians. Such encoding, arguably associated with increased musical pitch usage, may reflect a positive side effect of context-general corticofugal tuning of the afferent system, implying that long-term music-making may shape basic sensory circuity. These results complement our existing knowledge of the brainstem’s role in encoding speech and frequency modulation by demonstrating the interplay between music and speech, subcortical and cortical structures, and the impact of long-term auditory experience.” (Wong et al., 2007, pg. 2).

     ”Indeed, over the past decade a great deal of evidence has accumulated showing that developmental dyslexics are impaired in a number of different psychoacoustic measures of auditory processing. In addition to EEG* and MEG* approaches, tests of categorical perception involving speech-like stimuli*, frequency discrimination*, auditory temporal order judgement with pure tone or syllable pairs*, and perception of amplitude modulation* have suggested that dyslexics suffer from a dysfunction in low-level auditory processing .”(Uclés et al., 2009, pg. 73).

     “These deficits would not be confined to sound performance by speech temporal processing*, but would include spectral processing as well. On practical grounds, our findings may have implications in the early recovery of language disorders that dyslexic children suffer. Because current rehabilita-tion programmes are initiated solely by speech sound performance, inclusion of musical note discrimination in the protocols could help correct these basic perceptual deficits in auditory processing” (ibid, pg. 80).

 *) See original paper for  references.

     “A number of studies have examined music and language by studying children during language acquisition. There is evidence that low-level auditory processing at the level of the brain stem is related to literacy skills in children; those individuals who respond to speech sounds in an early or intermediate fashion display higher achievement in reading than those individuals who are delayed in their response.” (Levitin and Tirovolas, 2009, pg. 222).

     “Perceptual learning has been advanced as an effective method for improving visual acuity in adult amblyopia patients, which raises the possibility that focused auditory training may also be a promishing approach to accelerate recovery in individuals with unresolved auditory processing deficits stemming from childhood conductive hearing loss.” (Popescu & Polley, 2010 pg. 718).


Recent research

      Wiesel and Hubel (1963) investigated the effects of early sensory deprivation on newborn animals. They found that visual deprivation in one eye profoundly alters the organization of ocular dominance columns. Columns in the occipital lobe receiving inputs from the closed eye shrink, and those receiving inputs from the open eye expand.

     Our suggestion is that similar effects on the auditory cortices may result from deprivation in the auditory domain during sensitive periods early in life.

           Evidence exists that weakness in the auditory identification of speech sounds is one of the causal factors in poor reading skills (Clark & Richards, 1966; Goetzinger, 1962).

     Leviton and Bellinger (1986) concluded on the basis of a meta analysis of several studies that there is a convincing association between early and persistent otitis media and later reduction in language function as measured by paraphrase quality.

      Bess, Tharpe, and Gibler (1986) reported that children with unilateral, right ear impairment tended to have poorer syllable recognition scores than left ear impaired children, but found no apparent explanation for this difference.

     Auditory system plasticity may result in deprived speech perception if hearing, especially in the right ear, has been reduced during some critical periods of early life (Jensen, Børre, and Johansen, 1989). Their results confirmed that right ear impaired children perform significantly poorer than their left ear impaired counterparts especially in verbal subtests that are sensitive to minor input/processing damages.

     Brain imaging studies and postmortem examinations of individuals with dyslexia, learning disabilities, ADHD, and normal controls have revealed functional, morphologic and structural differences in the auditory areas of the brain that are activated when listening to simple tonal complexes, language and music (Galaburda and Kemper; 1978; Hynd et al., 1990, 1991).

      Recanzone et al. (1993) trained owl monkeys for 60-80 daily sessions to make fine-pitch discriminations in selected regions of the auditory frequency spectrum. Tonotopic mapping carried out invasively afterward showed that the cortical area tuned to the trained frequency spectrum was enlarged by a factor of 2 to 3 compared to untrained monkeys.

      We propose that similar effects may be obtained in the primary auditory cortex after hemisphere and frequency specific auditory stimulation (HSAS).

     Other researchers have concluded that some children’s discrimination deficits originate in the auditory pathway before conscious perception and have implications for differential diagnosis and targeted therapeutic strategies for children with learning disabilities and attention disorders (Korpilahti, 1996; Kraus et al., 1996).

     Wright et al. (1997) reported that children with specific language impairment have auditory perceptual difficulties in certain temporal and spectral sound contexts and are less able than controls to take advantage of a frequency separation between a tone and noise to aid detection of a tone. They concluded that the temporal and spectral specificity of the auditory perceptual deficits reported may serve to guide the search for the underlying neural bases of language disorders.

      Näslund, Johansen and Thoma (1997) reported from a study with 59 Danish subjects that dichotic listening (DL) predicts reading performance, but language laterality variations among handedness and gender groups must however be considered.

      There is some evidence that early asymmetry is linked with later language abilities. Infants who show early left hemisphere processing of phonological stimuli show better language abilities several years later (Mills et al., 1997)

      Shtyrov et al. (1998) found that during background noise, the hemispheric balance of the processing of speech sounds shifts from its left-hemispheric dominance toward the right hemisphere. 

     Plasticity is now recognized as a fundamental property also of the central neural system (Diamond, 1988; Buonomano and Merzenich, 1998).    

     It has been widely believed that the sensory cortex matures early in life and thereafter has a fixed organization and connectivity. We now know that the cortex can be reshaped by experience. In one experiment, monkeys learned to discriminate between two vibrating stimuli applied to one finger. After several thousand trials, the cortical representation of the trained finger became more than twice as large as the corresponding areas for other fingers (Buonomano and Merzenich, 1998).

      Helland and Asbjørnsen (2001) found that dyslexic subgroups showed a deviant asymmetry pattern compared to a control group with a weaker response pattern to right ear stimuli than controls.

       Pantev et al. (2001) documented in a study of  functional deafferentation” that plastic changes of frequency representation can occur on a short timescale of a few hours. They suggest that probable candidates to account for these findings may be changes in the efficacy of existing excitatory synapses or modification of synaptic efficacy by transcription of immediate early genes. They do not suggest axonal sprouting and dendritic growth to be involved because this may require more time.

     Molecular signals direct differentiation, migration, process outgrowth and synapse formation during the earliest steps of development. Neural activity is needed to refine the connections further so as to forge the adult pattern of connectivity. The neural activity may be generated spontaneously, especially early in development, but later depends importantly on sensory input. In this way, intrinsic activity or sensory and motor experience can help specify a precise set of functional connections (Kandel and Squire, 2001).

     On the other hand, plasticity may also be the fundamental reason for the reported improved results in auditory perception after specific auditory stimulation as suggested by Johansen (1984, 1986, 1988, 1992, 1998).

     It can be argued that music and language are homologous functions that evolved from a common ancestor that embodied their shared features and that certain features are still shared (Brown, 2001).

     Moore et al. (2003) concluded that the central auditory problems induced by OME seem likely to contribute to learning and social difficulties esperienced by some children with chronic OME. Early intervention to eliminate the hearing loss produced by OME is desirable, if effective therapies can be implemented. Auditory training to improve listening performanc may accelerate recovery following chronic OME.

     Kujala et al. (2004) reported data showing that long-term exposure to noise has a persistent effect on central auditory processing and leads to concurrent behavioral deficits. They found that speech-sound discrimination was impaired in noise-exposed individuals, as indicated by behavioral responses and the mismatch negativity brain response. Furthermore, irrelevant sounds increased the distractibility of the noise-exposed subjects, which was shown by increased interference in task performance and aberrant brain responses.

     Based on the results from an intensive research project Richardson et al. (2004) suggested that individual differences in auditory processing skills are related to individual differences in the quality of phonological representations, reading and spelling. They furthermore suggested that the accurate detection of supra-segmental cues are more important for the development of phonological representations and consequently literacy than the detection of rapid and transient cues.

      Previous studies have shown evidence of cortical reorganization following unilateral sensorineural hearing loss (USNHL). In addition, study participants with right USNHL have shown greater deficits in academic language performance compared with those with left USNHL. A preliminary functional magnetic resonance imaging investigation was performed on a small cohort of participants, four with left USNHL and four with right USNHL, using the paradigm of listening to random tones. While the participants with left USNHL displayed greater activation in the right superior temporal gyrus, those with right USNHL displayed greater activation in the left inferior frontal area immediately anterior to the superior temporal gyrus. The results provide preliminary evidence of disparate neural circuity supporting auditory processing in participants with left and right USNHL. (Schmithorst, V.J. et al., 2005).

      Neuroscientists Lu, Manis and Sperling from Univ. of Southern California have  found that “noise” (snow on a computer screen) seems to impede figure/ground discrimination in dyslexic individuals. They think that difficulty extracting the signal from noise is a general problem by dyslexics in other sensory/perceptual areas as well (Emerson, 2005).

     Green found that research persons listening to wellknown musical tunes (also documented by follow up tests to be remembered better) by fMRI show increased activity in Brodmann areas 9 and 10 (prefrontal cortex in both hemispheres). These areas are involved in working memory, Increased activity is also seen in Brodman area 39 in the left hemisphere (close to Wernicke’s area) and earlier found to be involved in semantic processing of language (Green, 2007).

     Degraded sensory experience during critical periods of development can have adverse effects on brain function. In the auditory system, conductive hearing loss associated with childhood ear infections can produce long-lasting deficits in auditory perceptual acuity, much like amblyopia in the visual system. Popescu and Polley explored the neural mechanisms that may underlie “amblyaudio” by inducing reversible monaural deprivation (MD) in infant, juvenile, and adult rats. MD distorted tonotopic maps, weakened the deprived ear’s representation, and disrupted binaural integration of interaural level differences. Biderectional plasticity effects were strictly governed by critical periods, were more strongly expressed in primary auditory cortex than inferior colliculus, and directly impacted neural coding accuracy. These findings highlight a remarkable degree of competitive plasticity between aural representations and suggest that the enduring perceptual sequelae of childhood hearing loss might be traced to maladaptive plasticity during critical periods of auditory cortex development. (Popescu & Polley, 2010).



The Training program

     Over a period of 3-18 months the students at the Sensomotoric Centre in Mjölby, Sweden listen for 10-15  minutes daily to specially composed and individually formatted music tapes. The amplitude of each recording is manipulated (lowered or raised) via a 1/3 octave band equalizer to partly compensate for the variation between the measured hearing thresholds and the optimum curve suggested by Gulick (1971) and Tomatis (1963, 1991). For all frequencies, where the hearing is more sensitive than the optimum curve indicates, the amplitude is reduced by 60% of the variation between the actual hearing and the optimum curve. For frequencies where the hearing is poorer than the optimum curve indicates, the amplitude is raised by 40% of the variation between the two curves. The music is formatted separately to each ear. Generally in all right handed and in the majority of left handed students, the sounds to their right ears are boosted the most.

The music  used has been specially made for this purpose (Holbech, 1986) and covers the frequency range 100 Hz to 16 000 Hz.  In this way AM-  as well as FM- and TM-sensitivity is trained.

The students’ hearing is reviewed at regular intervals (every 6th  10th  week), and new individual tapes or CDs based on the follow-up assessments are formatted and utilized during the following stimulation period.

For the first 6-8 weeks the stimulation is primarily addressing the frequency range 100-2000 Hz. For the remaining stimulation period the frequency range 1000-16000 Hz is targeted.


The purpose of this study

     Taken together the reported results from the Sensomotoric Centre at Mjölby (Sohlman, 2000) and the published research has raised these questions:

1) Is there a correlation between the total variation of the individual’s hearing curves and the optimum hearing curve  and the number of discrimination errors found by dichotic listening?

2) Can specific auditory stimulation (with individually formatted music) influence auditory laterality and hearing sensitivity and thus the variation between the hearing curve and the optimum curve?

3) Is a reduction in variation between the individual’s hearing curve and the optimum curve obtained by specific auditory stimulation followed by a reduction in discrimination errors found by dichotic listening?

4) Is the length of the stimulation period and reductions in errors correlated?




     In Mjölby fourteen files (m: 13; f: 1) were randomly drawn  from a file containing the total number of cases (N=127) completing the programme between Jan. 1997 and  April 2000 . The small sample was chosen due to expected large effect size based on earlier pilot studies. All turned out to be right handed and the mean age was 10yr10m (9;1-13:7). One student had dropped out before finishing the stimulation program. All students had normal hearing according to standard hearing tests (20 dB screenings). All students had been  referred by school or by parents based on tests for delayed reading (two or more years behind age matched peers) and spelling problems (dyslexia).

The mean stimulation period for the reported study was 29 weeks (10 - 65). The students had listened to the individualized tapes at home and had been supervised by their parents according to guidelines from the Sensomotoric Centre.



     Twenty four age-matched students (f: 15; m: 9) with above average reading skills (teachers’ assessments) from a comprehensive school served as controls. All of these were tested with the same DL (dichotic listening)-test (DLCV-108 NF, Hughdal & Asbjørnsen, 1990) as the research sample. (NF indicates the Non-Forced condition part of the test with 36 simultaneous pairs of CV syllables).


Auditory Laterality Index (ALI)

     Based on the DL-tests an auditory laterality index (ALI) was calculated for all participants: ALI = (R-L)x100/(R+L), where R indicates the number of correct responses via the right ear and L indicates the number of correct responses via the left ear. The students in the contol group (N=24) had a mean ALI of +21.78 (SD=15.47). Only one student in this group (a left-handed girl) had a negative ALI (-2.86). The other left-hander in this group (a boy) had an ALI of  +5.88.

Mean ALI for the right-handed girls (N=14) was +21.17 (SD=13.57) and for the right-handed boys (N=8) the mean ALI was +27.92 (SD=14.11).



     Tomatis (1963) suggested an ascending hearing curve from 15-20 dB at 125 Hz to  -5 --10 dB at 3000-4000 Hz with stabilization at this level and a slight drop in the higher frequencies (6000-8000 Hz) to be the optimum curve for analysis of music and language. This optimum curve was found also by Gulick (1971) and was used as a measure in this study.

     1) Before intervention the total variation (sum) in dB at eleven frequencies between the measured hearing thresholds for both ears and the optimum hearing curve was calculated for each individual in the research group and correlated with the number of errors by dichotic listening in the non-forced condition  (DLCV-108 NF). The correlation was moderately negative (-.49).

This may indicate that initially a slight to moderate variation between the actual hearing and the optimum hearing in some individuals is more damaging to auditory acuity than a more profound variation approaching a small hearing loss or alternatively  hypersensitivity.

     2) Files from only six of the thirteen students in the research group had enough data to deal with questions 2, 3 and 4 above. (Results from post intervention DL were not available for seven students).

These six students were all right-handed males with mean age of 10yr01m (9;10-10;04).


Auditory Laterality

      Before intervention the mean ALI in these six students was +3.49 (SD=23.00). Mean ALI after stimulation was +29.09 (SD=18.23).  d (effect size) = 1.24. (According to Cohen (1988) a  d above .80 is a large effect size).

Before stimulation two students had ALI < 0. After stimulation all had ALI > 0.


Hearing threshold

     The mean variation from the optimum curve for the six hearing curves (R + L) before stimulation was 205.00 (SD=54.16). After stimulation the mean variation from the optimum curve was found to be 122.50 (SD=39.44). d = 1.76.

     For the total group of thirteen students who completed the stimulation period the mean variation (R+L) from the optimum curve was reduced from 220.38 (SD=75.77) to 143.46 (SD=77.12). d = 1.00.

     After 19 weeks of stimulation one of these students had no alterations in hearing sensitivity at the right ear (variation from the optimum curve before and after was 230, which appeared to be the largest variation in the sample). Variation in his left ear improved from 210 to 155 (reduction in variation between curves).

(It may be important to note that in earlier clinical trials the left ear has shown the most rapid improvements followed later by the right ear.

This may be related to better myelination of the neuronal fibers in the right hemisphere or to the known earlier maturation of the right hemisphere especially in boys (Geschwind and Galaburda, 1987; Korpilahti, 1996).

Research has shown a greater neural activation over the right temporal lobe when people are exposed to dichotically presented musical stimuli (Hughdal et al., 1999).

(It is known that musically unskilled people usually exhibit greater activation over the right temporal lobe while listening to music, whereas skilled musicians exhibit greater activation over the left temporal lobe.

Could the observation referred above indicate also a similar change in listening mode, when an individual has been listening to the same tonal patterns every day for several weeks?)

      By the remaining twelve students their right ears alone had a mean variation from the optimum curve of 87.92 (SD=15.61) before the stimulation period and of  57.08 (SD=18.31) after stimulation.  d = 1.82.

     Thus 92.3 per cent had a raised auditory sensitivity from stimulation of hearing during the training period with a  large effect size.

t test for dependent means (repeated measures design): t(11)= -12.210; p < .01, one tailed.

      This study would appear to show that specific auditory stimulation has an effect on auditory laterality and on hearing sensitivity. Generally auditory laterality became more right biased and auditory sensitivity was reduced in the low frequency range (< 1000 Hz) and increased in the high frequency range (> 1000 Hz).




Discrimination of language sounds 

      For the six students with all data available the mean error rate by DL-NF  before the stimulation period was 33.33% (SD=13.05). After the stimulation period the mean error rate was 14.00% (SD= 9.24). d =1.73. The mean error rate for the age matched controls was 13.50% (SD=6.13)

     3) For these six students the reduction in total variation (R + L) between the actual hearing curves and the optimum hearing curve correlated with reduction in errors by DL-NF at r=.19.

This is a minor correlation, but contrary to the previous suggestion that the variation between the actual hearing curves and the optimum curve is negatively correlated with errors at DL-NF and thus with hearing sensitivity.

     Looking at the right ears only in these six students it was found that the mean variation between the actual and the optimum hearing curve was reduced from  88.33 (SD=15.72) to 57.50 (SD=20.56).  d = 1.70. The correlation between the reduction in variation between the actual hearing curves and the optimum curve for the right ears only and the reduction in errors by DL-NF was found to be  .68.

       This study would suggest that reduction in variation between the actual hearing curve and the optimum hearing curve for the right ear alone (altered sensitivity) after specific auditory stimulation was related to improved auditory acuity.


Length of stimulation period

     4) For the six students with a complete set of filed data the stimulation periods varied from 21 weeks to 65 weeks (mean 29 weeks). The reduction in error rate by DL-NF correlated with length of stimulation period (r= .86).


Reading measures

     Parents and children involved in this study reported that reading and spelling had improved more than expected, but this was not thoroughly tested due to lack of resources. (The children in this study were living in different parts of Sweden).

     In a report published by A Chance To Grow/New Visions School (2001) it was stated that a group of  50 students following a similar  HSAS program at NVS during the school year 2000/2001 made an average gain of 1.56 years on the Gates-MacGinitie test (measuring vocabulary understanding and reading comprehension skills), while the students at NVS who did not participate in this program made a .93 year gain on this test.



     CAPD is generally not assessed by basic means such as audiometry, binaural audiometry and dichotic listening. Assessments of dyslexia do not include audiometry. The possible link between auditory problems and later reading difficulties is still disputed even though a great proportion of contemporary research confirms that there is a link. Ongoing research at several sites may expand our knowledge in this field.

     The reported results from the clinical work in Mjölby (although the number of participants in this retrospective study is limited) indicate that assessment procedures utilizing such simple tools as audiometry and dichotic listening may provide valuable information about the auditory difficulties of a Language Impaired (LI) – and later dyslexic - child. At the same time they can provide the necessary information for a remedial technique of which listening to specially composed and specially recorded (individually formatted) music is an essential part.

     This does not mean that problems related to specific reading difficulties are not found in other areas  (coordination problems, left right confusions, sequencing problems, several problems related to vision, problems with postural control and primitive reflexes to mention some). As shown in other research projects ( Zeffiro and Eden, 2000) and documented by Bein-Wierzbinski (2001), Goddard (1996), Nicolson and Fawcett (1994, 1995, 1999), Sohlman (2000), and by Stein (2001) such problems are certainly there.


Stimulation programs

     For more than half a century many special education teachers, clinicians, speech-language therapists, ENT-practitioners and others have experienced that LI children often face subsequent reading and spelling problems in school.

In an attempt to help LI children develop their language properly, some of these individuals have independently developed assessments and stimulation programs motivated by positive outcomes but without generally accepted theories. Some of these have been used for many years.

     During the fifties and early sixties the Danish/American researcher, Christian A. Volf (1894-1967) developed a stimulation method based on the assumption that deficient auditory perception (poor AM-,  FM- and TM-sensitivity) was at the root of many children’s reading problems. C.A. Volf focussed on these three sound parameters: the amplitude, the spectral and the temporal aspects of sound (the parameters characterizing the formants), and developed records with soundtracks to stimulate the auditory system in these areas (Johansen, 1984).

     Even though Volf did not write a single paper on his  method of stimulation, it has survived as a private business in Denmark and in Germany, due mainly to reported positive outcomes and despite limited published research and limited advertising, and performed by educators and  therapists that were trained by Volf.

The psychologist Karen L. Skjølstrup, in her Master’s Thesis (1989) reported interviews with some former clients of C.A. Volf and their successful outcomes from this type of auditory stimulation. But few researchers have been interested in pursuing these ideas.

     The method used in the Mjölby-project reported above is inspired by C.A. Volf’s method, but the use of modern techniques has made it possible to make individualized stimulation programs.

     The much disputed work by Paula Tallal and Michael Merzenich (FastForWord TM) (Hook, Macaruso and Jones, 2001; Macaruso and Hook, 2001), relies on ideas similar to those expressed by C.A. Volf more than forty years ago (Johansen, 1986), but there are major differences in the ways that these ideas are implemented in the training programs.

     Today we know that deficient auditory perception may cause language problems including problems in reading and spelling. We also know that the plasticity of the neural networks makes it possible successfully to utilize stimulation programs following brain injury, the results of which just a decade ago seemed to resemble pure magic.

     The study presented above seems to support C.A. Volf’s view that subtle auditory problems can cause language problems - but more importantly than that: we can do something about it!

     Recently Habib et al. (2002) have reported positive results from three studies using temporo-phonological training very similar to the methods used by Paula Tallal providing further justification for a rational, indication based temporo-phonological treatment of dyslexia.

      Definitely phonemic awareness is a prerequisite for learning an alphabetic writing system. Therefore phonemic awareness must be explicitly taught in all proper courses for beginning readers and in remedial reading courses (where language sounds must be mapped to letter symbols). (McGuinness, 1997). But some individuals do not benefit from this teaching.

The development of phonemic awareness may be hampered by minor and unrecognized auditory processing problems. In some individuals these difficulties may well be related to poor perception of amplitude modulation, frequency modulation and temporal modulation of single formants, the “atoms” of the language “molecules” (the phonemes).


The need for research

      Ramus (2001) is arguing strongly that the locus of the phonological deficit seen as a core deficit in dyslexia must be related to the sub-lexical phonological representation: “Firstly, word learning involves (among other things) storing a word’s phonological form in the phonological lexicon. The only way the phonological lexicon can receive such information is through the sub-lexical phonological level: if the latter is deficient, then the former is likely to become so. In particular, if certain phonological features are misrepresented or under-specified at the sub-lexical level, there is little hope that this will improve in the lexicon.” (Pg. 206).  And: “If dyslexic children have deficient sub-lexical phonological representations to begin with, should they not have difficulties acquiring the phonology of their native language? This prediction remains largely untested.” (Pg. 208).

(Also read “The Scientist in the Crib” (Gopnik, Meltzoff and Kuhl, 1999).

    Similarly Goswami (2002) is arguing “any deficits in phonemic awareness are products of the preexisting poorer phonological skills in dyslexic children.” (Pg. 154).

      We suggest that initially basic problems in the acoustic representations may cause faulty sub-lexical phonological representations at least in some dyslexic individuals.

     In order to address language discrimination problems it seems of major importance to look at the significance of the right ear, to search for reduced hearing (sensory deprivation) in the right ear during early childhood, and to look carefully at the present hearing in the right ear. We know how essential inputs via the right ear are for the decoding of language sounds (Kuhl et al., 2001; Stirling et al., 2000). Knowing as we do that language areas in the left hemisphere show less activity in the dyslexic brain than in the non-dyslexic brain and knowing the significance of  the contralateral ear, we should take more heed of these factors in relation to language development. Stimulation through music/sounds that are easy to manipulate makes it possible to target the specific parameters of the formants (amplitude, frequency and temporal features) that constitute the basic acoustic features in language as well as in music.

     Research employing mismatch negativity (MMN) suggests that the neural representation of these parameters within the auditory cortex are spatially separate (Giard, Lavikainen, Reinikainen et al., 1995).

      Recent MEG and PET data (Tervaniemi et al., 2000) indicate that the earliest auditory processing stages do not differ between speech and music sounds.

     Plastic changes in the brain as a result of computer-based training of dyslexic children that were accompanied by reading improvement has recently been demonstrated by the Cognitive Brain Research Unit at the University of Helsinki (Kujala et al., 2000).

     Korpilahti et al. (2002) reported from a similar stimulation program as the one used in Mjölby (10 min./day through 9 months) that they found “Better discrimination of consonants and development of naming skills. In these skills the ADT/(HSAS)-group reached the reference values for the age. Parents and teachers reported noticeable progress in attentive and language skills in those children whose ERPs were normalized after the training. …  ADT/(HSAS) training can be used to reach better auditory discrimination and, by that means to help the LI child to acquire language.”

     In the Report of the National Reading Panel (NICHD, 2000) it is recommended that reading programs should cover five domains 1) phonological awareness and in 2) phonics in reading and writing, and work on 3) fluency, 4) vocabulary and 5) comprehension. The results presented in this paper would indicate a sixth “domain” prior to these five: 0) secure adequate auditory processing (AAP).

     Testing for and targeting deviant responses with stimulation may be a valuable new research area for training or rehabilitation of individuals with milder perceptual disorders such as CAPD and – dyslexia? 

      We need to undertake more research and to develop more neuro-educational training programs to address these problems!




      The author wants to thank the staff at the Sensomotoric Centre in Mjölby, Sweden for opening the files, the staff at A Chance To Grow, Minneapolis, MN, for communicating their results, and Mrs. Camilla Leslie MRCSLT, Edinburgh, UK for invaluable comments on this paper.



A Change To Grow/New Visions School. 2001. Hemisphere Auditory Stimulation. 2000-2001 School Year Report. Minneapolis: A Chance To Grow, 1800 Second Street NE, Minnesota.


Bein-Wierzbinski, W. 2001 Persistent Primitive Reflexes in Elementary School Children – Effects on oculomotor function and visual perception. Hamburg: PäPKI, Felix-Jud-Ring 305, D-21035.


Bellis, T. J. 2002. When the Brain can´t Hear. Unraveling the Mystery of Auditory Processing Disorder. New York: Pocket Books/Simon & Schuster.


Bellis, T.J. 2003. Assessment and Management of Central Auditory Processing Disorders in the Educational Setting. From Science to Practice. 2nd Ed. New York: Delmar Learning.


Berninger, V.W. 2001. Understanding the ‘Lexia’ in Dyslexia: A Multidisciplinary Team Approach to Learning Disabilities. Annals of Dyslexia  51: 23-48. Baltimore: IDA.


Bertucci, C., Hook, P., Haynes C., Macaruso, P., and Bickley, C. 2003. Vowel Perception and Production in Adolescents with Reading Disabilities. Annals of Dyslexia 53: 174-197. Baltimore: The International Dyslexia Association.


Bess, F.H., Tharpe, A.M., and Gibler A.M. 1986. Auditory Performance of Children with Unilateral Sensorineural Hearing Loss. Ear and Hearing 7/1: 20-26.


Brown, S. 2001. Are Music and Language Homologues? The Biological Foundations of Music. Annals of the New York Academy of Sciences. Vol 930: 372-374.


Buonomano,  D.V. and Merzenich, M.M. 1998.  Cortical Plasticity: From Synapses to Maps. Annual  Reviews  of Neuroscience  21: 149-86.


Clark, A.D. and Richards, C.J. 1966. Auditory discrimination among economically disadvantaged and non disadvantaged preschool children. Except. Child. 33: 259-62.


Cohen, J. 1988. Statistical power analysis for the behavioral sciences. Hillsdale, N.J.: Erlbaum.


Diamond, M.C. 1988. Enriching Heredity: The Impact of the Environment on the Anatomy of the Brain. New York: The Free Press/MacMillan, Inc.


Eckert, M.A. and Leonard, C.M. 2003. Developmental Disorders: Dyslexia. In The Asymmetrical Brain, K. Hughdahl and R.J Davidson (eds.). Cambridge, Mass.: MIT Press.


Emerson, E. 2005. Tuning in to Dyslexia. Scientists suggest new explanation of common reading disability. Los Angeles: College News, Univ of Southern California, Jan.2005.


Espy, K.A., Molfese, D.L, Molfese, V.J., Modglin, A.  2004. Development of Auditory Event-Related Potentials in Young Children and Relations to Word-Level Reading Abilities at Age 8 Years. Annals of Dyslexia 54: No. 1, 2004 pg.. 9-38. Baltimore: The International Dyslexia Association.


Galaburda, A.M. and Kemper, T. 1978. Cytoarchitectonic abnormalities in developmental dyslexia: a case study. Ann. Neurol. 6: 94-101.


Geschwind, N. and Galaburda, A.M. 1987. Cerebral Lateralization. Biological Mechanisms, Associations, and Pathology. Cambridge, MA: MIT Press.


Giard, M.H., Lavikainen, J. and Reinikainen, K. et al. 1995. Separate representation of stimulus frequency, intensity and duration in auditory sensory memory: an event-related potential and dipole-model analyses. J. Cognit. Neurosci.  7: 133-143


Goddard, S. 1996. A Teacher’s Window Into the Child’s Mind. Eugene, Oregon: Fern Ridge Press.


Gopnik, A., Meltzoff, A. N. and Kuhl, P.K. 1999. The Scientist in the Crip. New York: William Morrow and Company, Inc.


Goetzinger, C.P. 1962. Effects of small perceptual losses on language and on speech

discrimination. Volta Rev. 64: 408-14.


Goswami, S. 2002. Phonology, Reading Development, and Dyslexia: A Cross-Linguistic Perspective. Annals of Dyslexia 52: 141-163. Baltimore: The International Dyslexia Ass.


Green, A.C. 2007. Personal communication.


Gulick, W.L. 1971. Hearing: Physiology and psychophysics. London and New York: Oxford University Pres.


Habib, M., Rey V., Daffaure, V., Camps, R., Espesser, R, Joly-Pottuz, B., Démonét, J.-F. 2002. Phonological training in children with dyslexia using temporally modified speech: a three-step pilot investigation. Int. J. Lang. Comm.Dis., 2002, Vol. 37, No. 3, 289-308. 


Helland, T. and Asbjørnsen, A. 2001. Brain asymmetry for language in dyslexic children.

Laterality,  6(4), 289-301.


Holbech, B.P. 1986. SyncroSoundSystemTM: Music for Auditory Discrimination Training.

Aakirkeby, DK-3720: Rotna Music.


Hook, P.E, Macaruso, P. and Jones, S. 2001. Efficacy of ForWord Training on Facilitating

Acquisition of Reading Skills by Children with Reading Difficulties – A Longitudinal Study. Annals of Dyslexia, 51: 75-95.


Hugdahl, K. and Asbjørnsen, A. 1990. Dikotisk lytning med CV stavelser. Institutt for medisinsk og biologisk psykologi. Univ. of Bergen, Årstadveien 21, N-5009 Bergen, Norway.


Hugdahl, K., Bronnick, K., Kyllingsbaek, S., Law, I. Gade, A., & Paulson, O.B. 1999. Brain activation during dichotic presentations of consonant-vowel and musical instrument stimuli: A 150-PET study. Neuropsychologia, 37: 431-440.


Hynd, G.W., Semrud-Clikeman, M., Lorys, A.R., Novey, E.S., and Eliopulos, D. 1990. Brain morphology in developmental dyslexia and attention deficit disorder/hyperactivity.

Arc . Neurol. 47: 916-919.


Jensen, J.H., Børre, S., and Johansen, P.A. 1989. Unilateral sensorineural hearing loss in

children: cognitive abilities with respect to right/left ear differences. British Journal of

Audiology, 23: 215-220.


Jerndal, J. 1999. In an address to The Scientific and Medical Network.


Johansen, Kjeld V. 1984. You Learn to Read by Reading - Maybe. Extract from dissertation. Ann Arbor. UMI, 300 N. Zeeb Rd. (LD00916).


Johansen, K.V. 1986. Alternative behandlinger af ordblindhed. Djursland, DK: Forlaget



Johansen, K.V. 1988. Hearing. An overlooked factor in relationship to dyslexia. Nordisk Tidsskrift for Specialpedagogikk , 2/88: 100-117. Tøyen, Oslo: Universitetsforlaget.


Johansen, K.V. 1992. Sensory deprivation – a possible cause for dyslexia. Nordisk Tidsskrift for  Spesialpedagogikk, 1/92: 31-38. Tøyen, Oslo: Scandinavian University Press.


Johansen, K.V. 1998. Left Hemisphere Stimulation with Music and Sounds in Dyslexia Remediation. Nordic Journal of Special Education,  4/98: 209-216. Oslo: Scandinavian University Press.


Kandel, E.R. and Squire, L.R. 2001. Neuroscience. Unity of Knowledge. The Convergence of  Natural and Human Science. Annals of the New York Academy of Sciences. Vol. 935: 118-135.


Korpilahti, P. 1996. Electrophysiological Correlates of Auditory Perception in Normal and

Language Impaired Children. Dissertation, Turku University, Finland.


Korpilahti, P., Ceponiene, R., Näätanen, R. 2002. Neurofunctional Correlates of Auditory Perception and Discrimination Training at the School Age. Paper presented at The Science of Aphasia. Conference in Acquafredda di Maratea, Italy, 14-19 June 2002.


Kraus, N., McGee, T.J., Carrell, T.D., Zecker, T.G., Nicol, T.G., and Koch, D.B. 1996. Auditory neurophysiologic responses and discrimination deficits in children with learning problems. Science 273: 971-973.


Kuhl, P.K., Feng-Ming Tsao, Huei-Mei Liu, Yang Zhang, and Bart De Boer 2001. Language: Success at Disciplinary Boundaries. Unity of Knowledge. Ed. by Damasio, Harring, Kagan, McEwen, Moss, and Shaikh. Annals of the New York Academy og Sciences.  935: 136-174.


Kujala, T., Alho, K. & Näätänen, R. 2000. Cross-modal reorganisation of human cortical

functions. Trends in Neuroscience. 3: 115-120.


Kujala, T., Shtyrov, Y., Winkler, I., Saher, M., Tervaniemi, M., Sallinen, M., Teder-Sälejärvi, W., Alho, K., Reinikainen, K., & Näatänen, R. 2004. Long-term exposure to noise impairs cortical sound processing and attention control. Psychophysiology, 41, 875-881.


Levitin, D.J and Tirovolas, A.K. Current Advances in the Cognitive Neuroscience of Music.

In Cognitive Neuroscience 2009: Ann. N.Y. Acad. Sci. 1156: 211-231, (2009).


Leviton, A. and Bellinger, D. 1986. Is There a Relationship between Otitis Media and Learning Disorder. In J.F. Kavanagh: Otitis Media and Child Development. Baltimore: York Press.


Livingstone, M.S. 1999. The Magnocellular/Parietal System and Visual Symptoms in Dyslexia. Reading and Attention Disorder. Neurobiological Correlates. Ed. by Drake D. Duane. Baltimore:  York Press.


Lyon, G.R., Shaywitz, S.E. and Shaywitz B.A. 2003. A Definition of Dyslexia. In Annals of Dyslexia  503: 1-14. Baltimore: The International Dyslexia Association.


Lyytinen, H. 1991. Corpus callosum morphology in attention deficit-hyperactivity disorder: morphometric analysis of MRI. J. Learn. Disabil. 24: 141-146.


Macaruso, P. and Hook, P.E. 2001. Auditory Processing: Evaluation of FAST FORWORDTM for children with dyslexia. IDA Perspectives, vol. 27,3: 5-8.


McCloskey, M. 2001. The Future of Cognitive Neuropsychology. The Handbook of Cognitive  Neuropsychology. Ed. by Brenda Rapp. Philadelphia: Psychology Press/Taylor & Francis Group.


McGuinness, D. 1997. Why Children Can’t Read -  and what we can do about it. London: Penguin Books.


Merzenich, M.M. and Jenkins, W.M. 1995. Maturational Windows and Adult Plasticity. Ed. by B. Julesz and I. Kovaks. New York: Addison-Wesley.


Merzenich, M.M., Schreiner, C., Jenkins, W., and Wang, X. 1993. Dysphasia & Dyslexia Models. Temporal Information Processing in the Nervous System. Ed. by Tallal, Galaburda, Llinás, and Euler. Annals of the New York Academy of Sciences. Vol 682: 1-22.


Miller-Shaul, S. 2005. The Characteristics of Young and Adult Dyslexic Readers on Reading and Reading Related Cognitive Tasks as Compared to Normal Readers. Dyslexia 11: 132-151.


Mills, D.L., Coffrey-Corina, S.A.,and Neville, H.J. 1997. Language comprehension and cerebral specialization in 20-months-old infants. Journal of Cognitive Neuroscience, 5: 397-445.


Moore, D.R., Hartley, D.E.H., & Hogan, S.C.M. 2003 Effects of otitis media with effusion (OME) on central auditory function. International Journal of Pediatric Otorhinolaryngology, 67S1, S63-S67.


Nicolson, R.I. and Fawcett, A.J. 1994. Comparison of Deficits in Cognitive and Motor Skills among  Children with Dyslexia. Annals of Dyslexia, Vol. 44: 147-164.


Nicolson, R.I. and Fawcett, A.J. 1995 Dyslexia is More Than a Phonological Disability. Dyslexia, Vol 1: 19-36.


Nicolson, R.I. and Fawcett, A.J. 1999 Developmental Dyslexia: The Role of the Cerebellum. Dyslexia 5: 155-177.


Näslund, J.C., Johansen, K.V., and Thoma, R. 1997. Predicting Decoding Level from Dichotic Listening. Paper presented at the Natl. Conf. of Neuropsych., Boston 1997. Reprints from Baltic Dyslexia Research Lab, Roe Skolevej 14, DK-3760 Gudhjem, Bornholm, DK.


Pantev, C., Engelien, A., Candida, V., and Elbert, T. 2001. Representational Cortex in

Musicians: Plastic Alterations in Response to Musical Practice. The Biological Foundations of Music.  Annals of the New York Academy of Sciences. 930: 300-314.


Popescu, M.V. & Polley,D.B. 2010. Monaural Deprivation  Disrupts Development of Binaural Selectivity in Auditory Midbrain and Cortex. Neuron 65: 718-731.


Ramus, F. 2001. Outstanding Questions about Phonological Processing in Dyslexia. Dyslexia 7: 197-216.


Recanzone, G.H., Schreiner. C.E., and Merzenich M.M. 1993. Plasticity in the frequency

representation of primary auditory cortex following discrimination training in adult owl

monkeys. J. Neurosci. 13: 87-103.

Richardson, U., Thomson, J.M., Scott, S.K. and Gowwami, U. 2004. Auditory Processing Skills and Phonological Representation in Dyslexic Children. Dyslexia 10: 215-233.

Schmithorst, V.J. et al. 2005. Cortical reorganization in children with unilateral sensorineural hearing loss. NeuroReport, vol. 16, no. 5: 463-467.

Shtyrov, Y., Kujala, T., Ahveninen, J., Tervaniemi, M., Alku, P. Ilmoniemi, R.J., & Näätänen, R. 1998. Background acoustic noise and the hemispheric lateralization of speech processing in the human brain: Magnetic mismatch negativity study. Neuroscience Letters, 251, 141-144.

Skjølstrup, K.L. 1989. Spørgsmålet om den konstitutionelle dysleksis væsen og dens indgriben i barnets betingelser for at erkende. Not published Master’s Thesis. University of Aarhus, Denmark.

Sloboda, J. 2003. Music and Development. Introduction. The Neurosciences and Music. Eds. G. Avanzini, C. Faienza, D. Minciacchi, L. Lopez & M. Majno. Annals of the New York Academy of Sciences. Vol. 999.


Sohlman, B. 2000. Møjligheterna finns. Täby, Sweden: Sama förlag AB.


Spreen, O., Risser, A.H. & Edgell, D. 1995. Developmental Neuropsychology. New York, Oxford: Oxford University Press.


Stein, J. 2001. The Magnocellular Theory of Developmental Dyslexia. Dyslexia 7: 12-36.


Stirling, J., Cavill, J., and Wilkinson, A. 2000. Dichotically presented emotionally intoned words produce laterality differences as a function of localisation task. Laterality, 5 (4): 363-371.


Tervaniemi, M., Medvedev, S.V., Alho, K., Pakhomov, S.V., Roudas, M.S., van Zuijen, T.J., Näätänen, R. 2000. Lateralized automatic auditory processing of phonetic versus musical information: a PET study. Human Brain Mapping, 10: 14-19.


Tomatis, A.A. 1963. L’Oreille et le Langage. Paris: Editions du Seuil.


Tomatis, A.A. 1991. The Conscious Ear. New York: The Talman Company.


Uclés, P., Méndez, M. and Garay, J. 2009.  Low-level Defective Processing of  Non-verbal Sounds in Dyslexic Children. Dyslexia 15: 72-85.

van Alphen, P., de Bree, E., Gerrits, E., de Jong, J., Wilsenach, C. and Wijnen, F. 2004. Early Language Development in Children with a Genetic Risk of Dyslexia. Dyslexia 10: 265-288.

Wiesel, T., and Hubel, D. 1963. J. Neurophysiol. 26: 1003.

Wong, P.C.M., Skoe, E., Russo, N.M., Dees, T. & Kraus, N. 2007. Musical experience shapes human brainstem encoding of linguistic pitch patterns. NATURE NEUROSCIENCE ADVANCE ONLINE PUBLICATION 11 March 2007; doi:10.1038/nn1872.

Wright, B.A., Lombardino, L.J., King, W.M, Puranik, C.S., Leonard, C.M, and Merzenich, M.M. 1997. Deficits in auditory temporal and spectral resolution in language-impaired children. Nature 387: 176-178.

Zeffiro, T. and Eden, G. 2000. The Neural Basis of Developmental Dyslexia. Annals of Dyslexia 50: 3-30. Baltimore: The International Dyslexia Association.

Correspondence to:  Kjeld V. Johansen, PhD, MSc,  Baltic Dyslexia Research Lab, ApS,

Roe Skolevej 14, DK-3760 Gudhjem, Bornholm, Denmark.  E-mail:

You  may also search GOOGLE        johansenias




Efterhånden er vel de færreste forældre i tvivl om, at rigtig kost betyder en masse for vore børns trivsel. De seneste år har vi gennem medierne fået ”læst og påskrevet”, at vore unger bliver fede af forkert ernæring og for lidt motion. Sådan er det! (Se Dejbjerg m.fl., 2004)


Mindre opmærksomhed har været rettet mod det faktum, at forkert kost også påvirker børns adfærd og intellektuelle udvikling. D.v.s., at nogle børn opfører sig uhensigtsmæssigt og/ eller har koncentrationsproblemer eller problemer med indlæring. Nogle får endda en diagnose hæftet på sig. En diagnose som i nogle tilfælde faktisk primært har sammenhæng med, at deres ernæring er utilstrækkelig eller direkte forkert (se s. 5 og igen Dejbjerg m.fl., 2004).


I 2001 skrev afdelingsleder ved læseklasserækken, Østrigsgade, København, Ib Hedegaard Larsen en artikel i tidsskriftet Specialpædagogik (nr. 2, s. 19): Kost, vitaminer og specialundervisning, hvor disse emner behandles.

Larsen beskriver i sin artikel bl.a., hvordan et par elever ved kostregulering og tilskud af vitaminer og essentielle fedtsyrer i løbet af 4½ måned øgede den sproglige IK (intelligens-kvotient) fra henholdsvis 64 til 88 og fra 80 til 96.


Samme år havde Frede Braüner fra Midtbyens Ungdomsskole i Århus en artikel i tidsskriftet Mit Helbred  (nr. 4, s. 11): Sund mad betyder ro i timen.

Braüners oplevelse er samstemmende med Hedegaard Larsens, at ordentlig morgenmad og ordentlig mad midt på dagen (uden sodavand og slik) har en kolossal positiv virkning på evnen til koncentration og indlæring.


Naturligvis bør vi som forældre (og/eller børnehave / skole) sørge for, at børn og unge i vores varetægt får tilstrækkelig og rigtig ernæring (og motion). Ingen diskussion om det.

Jævnligt er det imidlertid nødvendigt at supplere kosten med tilskud af f.eks. vitaminer og med vigtige fedtsyrer (Essential Fatty Acids, EFA).


Denne lille ”epistel” drejer sig om EFA.

Betydningen af tilskud med essentielle fedtsyrer over for nogle børn er gennem de seneste år dokumenteret af adskillige forskere. (Se f.eks.: Haglund, 2005 og Stordy, 2000).


Fiskeolie er et eksempel på EFA; men alle fiskeoliens gode egenskaber til trods, synes det ikke at være nok, når det drejer sig om at hjælpe børn med forskellige vanskeligheder i skolen.

De fedtsyrer, der tilsammen kaldes EFA, består af en lang række forskellige komponenter. Netop sammensætningen af dem (balancen mellem dem) er tilsyneladende af væsentlig betydning.


Et i udlandet kendt produkt er EFALEXTM.   Et andet, som kan købes i Danmark hos bl.a. Matas, kaldes eye qTM.  Selv har jeg positive erfaringer med begge produkter, men er ikke i stand til at vurdere, om der er forskelle mellem deres virkninger.


Da imidlertid eye q kan købes som kosttilskud i Danmark, citeres i det følgende fra beskrivelser af undersøgelser med dette produkt.


EFA har forskellige funktioner i kroppen og inddeles i to grupper, der ofte betegnes

omega-3 og omega-6.

I omega-3 gruppen, som fås fra bl.a. fede fisk, finder man EPA (vigtig for signaloverførsel mellem nerveceller og for hukommelse) og DHA (vigtig som byggesten i nervecellerne og for hjernens og øjets normale funktion).

I omega-6 gruppen (fra planter og kød) findes linolsyre, der fra GLA kan omdannes til DGLA og videre til prostaglandin og arakidonsyre, AA der er vigtig for indlæring af læse- og skrive-færdigheder samt koordination.


Forskydninger i omsætning af fedtsyrer ses bl.a. hos personer, som spiser for lidt fede fisk, hos gravide og hos ammende kvinder samt hos personer med nedsat evne til at udnytte/danne EPA, DHA og AA.

Hos Haglund (2005) findes s. 9 denne liste over vanskeligheder, der sættes i forbindelse med sådan forskydning i fedtsyreomsætningen:

Depression, dysleksi (ordblindhed), dyspraksi (koordineringsvanskeligheder, vanskeligheder ved at fokusere på ting), AD-HD (Attention Deficit – Hyperactivity Disorder), DAMP (problemer med koncentration, motorik og percep-tion), autisme, skizofreni, fetalt akoholsyn-drom, demens, udbrændthed, sterilitet, tvangs-tanker, m.m.


Selv har jeg beskæftiget mig med dysleksi samt DAMP/ADHD, hvor tilskud af EFA synes at have haft en god effekt. Forældrene fortæller, at eleven er blevet roligere og bedre til at kon-centrere sig efter indtagelse af maksimal dosis gennem 6 – 12 uger. Hvis der er en sådan positiv virkning fortsættes med tilskud af EFA, men nu ikke længere i maksimal dosis, der er 6 kapsler pr. dag.

Som allerede nævnt er balancen mellem de for-skellige fedtsyrer af stor betydning. Fiskeolie indeholder typisk 3 dele EPA og 2 dele DHA.

Forsøg har vist, at en sammensætning med 4 dele EPA og 1 del DHA har en bedre virkning. Netop dette forhold findes i den såkaldte kironalolie (en blanding af fiskeolier tilsat kæmpe-natlysolie med GLA), der fremstilles i UK af Equazen Ltd. og sælges under navnet eye q TM.


Man skal altid være varsom med at tage sælgeres oplysninger helt for pålydende; men mine egne og flere kollegers erfaringer er, at tilskud med EFA kan have positive virkninger.

Kontrollerede undersøgelser er gennemført i bl.a. England, Sverige og Australien.

En undersøgelse fra 1998 viste, at børn, der som ganske små fik tilskud af EPA, DHA og AA senere (i 10-måneders alderen) var væsent-lig bedre til at løse problemer end en kontrol-gruppe, der ikke havde fået tilskud. Gode evner til problemløsning er forbundet med højere in-telligens senere i livet (Haglund, 2005, s.18).

En større undersøgelse i England (det s.k. Oxford-Durham Study) viste at tilskud med eye q gennem 3 måneder havde en sikker og målelig positiv virkning på adfærd, læsning og stavning hos de 55 børn, der gennemførte forløbet (Richardson, 2005). I alt har mere end 1400 børn i England, Sverige og Australien deltaget med positivt udbytte i forsøgene med eye qTM.


Dejbjerg, J.  m.fl.: Hvad fylder vi i børnene? Høst & søn, 2004. ISBN 87-14-29945-3.

Haglund, O.: Den intelligente fedtsyresammensætning. Eliasens forlag, 2005. ISBN 87-89554-34-5.

Richardson, A.: The Oxford-Durham Study. Pediatrics Vol. 115 No. 5  May 2005.  Pg. 1360-1366.

Stordy, J.: The LCP Solution. Ballantine Books, 2000.

Web-sites:                                                                    Kjeld Johansen,  feb. 07.



Possible Effects on Language of Specific Auditory Stimulation

by  Jac Beelen & Wim de Zwart, BC Broekhin, 6042 Roermond, The Netherlands; Oct. 2005.

    (Submitted for review to DYSLEXIA, UK, Oct. 05).   



This pilot study examines the effects of  Hemisphere Specific Auditory Stimulation (HSAS) with music on a group of children diagnosed with dyslexia. Three groups of children from a Dutch school which also has a department for children with special needs (N=70, f:17, m: 53) were examined. Two groups (1; N=10, f: 3, m: 7)  and (2; N=10, f: 3, m: 7) consisted of  dyslexic pupils and one group (3; N=8, f: 3, m: 5) consisted of non-dyslexic individuals. Members of group 1 were treated  for 5 x 10 minutes per week from Nov. 03 until July 05 with music recorded especially for each individual according to her/his audiogram to support remedial education. Members of group 2 did not listen to similar recordings, but continued their remedial education through the entire period. Group 3 members were assessed prior to and post the training period. The pupils in group 1 who also  received additional stimulation showed statistically significant alterations of hearing curves and improvements in  most language related areas compared to the pupils in groups 2 and 3.



     Dyslexics most often show impaired phonological processing. Some research has concentrated on the temporal aspects of language sounds (Merzenich et al., 1993) while others have looked more at the categorical perception of vowel sounds (Bertucci et al., 2003).

     To our knowledge few researchers have tried to link ear advantage and even fewer basic auditory skills in the perception of pure tones at different frequencies to language development and to language problems including specific reading and spelling difficulties.

     This project shows that statistically significant improvements in auditory sensitivity documented by altered audiograms and statistically significant changes of auditory laterality documented by dichotic listening, obtained by non-verbal auditory stimulation, are accompanied by statistically significant improvements in decoding, spelling, reading aloud, phonemic analysis, rapid naming, visual memory and behavior.

     More research addressing individuals with different auditory and visual profiles is necessary, but this pilot project seems to indicate that carefully planned intervention using a non-acknowledged method with selected individuals suffering from specific sensory problems alongside with dyslexia may be beneficial.

     Nie to ten months after the termination of the stimulation program eight students from the experimental group were  reassessed to control for the long-term effects







Average hearing curves from group 1 (N=10), pre-, during-, and post-HSAS (table 3).



CONCLUSIONS on the follow-up study


Nine to ten months after completing the HSAS programme the follow-up test results show a continued significant improvement when compared to the post-test scores.


Technical Reading:       EMT: one-minute-test                 sig  .023

                                                    Reading aloud                                                  sig  .003


Spelling:                                                                                            sig .004


Sound Processing:        KLEPEL: non-word-test                  sig  .002

                                                    Phonemic Analysis                          sig  .002


Auditory Memory:                                                                             sig  .026


Pupils naturally develop during their time at school, but the statistically significant improvements we see show that HSAS gives pupils an additional boost.


Auditory Memory

The improvement in auditory memory is interesting. The post-test results, immediately following the period of stimulation, showed no significant improvement from the pre-test scores. However, when retested nine to ten months later, the improvement is significant. It may be concluded that pupils can continue to benefit from listening to customised music after the completion of the programme.


Reading Comprehension

It is also interesting to note that there is no significant improvement in Reading Comprehension. However, pupils still improve. We see the greatest improvement in the Micro-score (word level: .171) and less improvement in Meso-score (sentence level: .795) and Macro-score (text level: .920). The post-test results were reversed.


Most dyslexic pupils do not choose to read text. We hoped that HSAS would give these pupils the tools with which to read more easily and with greater enjoyment. We believe that this process is continuing (this is shown by the improvement on Macro-score and the near-significant improvement (.068) on the Rapid Naming of words) and we hope that pupils will continue to benefit from the underlying changes made by HSAS.


Those items which don’t improve significantly stay stable. The most important of these is the audiogram (sig .705). The hearing curves of the left and right ears did not change significantly in the 9 to 10 month period after auditory stimulation ceased. This means that there is an average difference of 2.5 dB between the post-test and the follow-up test 9-10 months later. We can therefore conclude that changes made by HSAS in the hearing curves stay stable a long period after having ended this stimulation.





Auditory Laterality

On the follow-up Auditory Laterality tests we see a significant improvement in the left ear (.032). In the post-test the left ear stayed stable (.548) while the right ear improved significantly (.027). In the follow-up test the right ear continues to improve (.090) but not significantly.


Writing / copying (.722), Visual memory (.222) and Rapid Naming (total average) (.112) also improve. Within Rapid Naming, numbers (.064), words (.068), colours (.062) and pictures (.066) improve the most. So, information processing continues to improve!


In addition to the normal development in pupils that we would expect to see, tested items continue to show a significant improvement 9-10 months after having completed auditory stimulation. We may conclude that the improvements attributed to HSAS, stay stable. It is expected that dyslexic pupils stimulated with HSAS will benefit from the changes during their further school career and this should help their development and lead to a greater chance of success.


Average hearing curves from gr. 1 more than half a year after termination of HSAS:



Lyd, hørelse

Illustrationen her er fra Johansen (1993) Lyd, hørelse og sprogudvikling ISBN 87-592-2034-1

pg. 21.  The labels: Visual Magnocellular, Phonological and Cerebellar  were added i 2007.

(Læs også  Reid, Szczerbinski, Iskierka-Kasperek & Hansen  Cognitive Profiles of Adult

Developmental Dyslexics: Theoretical Implications. DYSLEXIA 13: 1-24, Feb. 2007).



HVOR  ER BEVISERNE?                                                                                      2006-12-15


Spørgsmålet stilles ofte, når effekten af ikke-verbal stimulation (lydterapi) diskuteres. Der er beviser! Ganske vist ikke mange idet sprogforskere generelt modsætter sig at gennemføre undersøgelser af lydterapi, fordi tanken om andet end sproglig stimulation mod sproglige vanskeligheder strider mod deres ”tro”.

Af mangel på beviser må man støtte sig til indicier. Dem er der så til gengæld mange af. Ikke bragt til veje af sprogforskere, men af musikforskere.

Efter et par konferencer under titlen ”The Neurosciences and Music”, bl.a. sponsoreret af The New York Academy of Sciences, er udgivet to digre værker med oplæg fra disse konferencer – tilsammen  950 sider (1; 2).

Det følgende er citater herfra oversat og af hensyn til forståelsen ganske let bearbejdet af K.J.


Toward the Neural Basis of Processing Structure in Music

af Stefan Koelsch og Angela D. Friederici, Max Planck Institute of Cognitive Neuroscience, Leipzig  (1: s. 25 ff).


     I dur-mol tonal musik arrangeres akkorder i henhold til visse regelmæssigheder. Dominant-tonika (akkorden på grundtonen), kendt som en autentisk kadance, bruges ofte til at markere slutningen af et harmonisk forløb og anses af adskillige musikteoretikere og musikpsykologer for at være en slags grundlæggende syntaktisk struktur i dur-mol tonal musik.

     Vi har gennemgået data fra undersøgelser, i hvilke hjerne reaktioner på en autentisk kadance er blevet sammenlignet med reaktioner udløst af  musik-syntaktiske uregelmæssige afslutninger.

Ved måling af elektriske hjerne potentialer (evoked response potentials, ERP, målt med EEG) udløser uregelmæsige afslutninger en tidlig, højresidig negativ reaktion forrest i hjernen (early right anterior negativity, ERAN), som er maksimal ca. 200 ms efter præsentationen af den uregelmæssige akkord. Denne reaktion (ERAN) minder om reaktionen, der udløses af syntaktisk inkongruens ved perception af sprog.

     Data fra magnetoencefalografi (MEG) antyder at ERAN opstår i IFC (inferior frontal cortex), et område af hjernen kendt for at være afgørende involveret i forarbejdningen af sproglig syntaks.

     Interessant nok kan ERAN udløses også hos børn og hos musikalsk utrænede personer, hvilket indikerer evnen til implicit at tilegne sig viden om musikalske regelmæssigheder. At forarbejde musikalsk information i overensstemmelse med denne viden er tilsyneladende en generel evne i den menneskelige hjerne.

Denne evne er sandsynligvis af stor betydning for erhvervelsen af sprog hos spædbørn og større børn.


Dyslexia and Music. From Timing Deficits to Musical Intervention

af  Katie Overy, Harvard Medical School, Boston, - nu Univ. of Edinburgh  (1: s. 497 ff).


     De underliggende årsager til sprog og læsevanskeligheder hos dyslektiske børn er endnu ikke helt forstået; men aktuelle teorier antyder at vanskeligheder med ”timing” kan være en nøglefaktor.

     Dyslektiske børn har vist sig at have vanskeligheder med timing, når det drejer sig om sprog, musik, perception og kognition så vel som med motorisk kontrol.

     Denne forfatter har tidligere foreslået, at gruppeundervisning i musik, baseret på sang og rytmiske lege, kan være en værdifuld multisensorisk støtte for dyslektiske børn ved at fremme udviklingen af vigtige auditive og motoriske timing færdigheder og senere sproglige færdigheder.

     For at undersøge denne hypotese sammensattes et forskningsprogram, som omfattede udviklingen af gruppeundervisning i musik samt musikalske prøver for dyslektiske børn i tilknytning til tre eksperimentelle undersøgelser. Det viste sig, at musikundervisning i klassen havde en positiv virkning på både fonologiske og stavemæssige færdigheder, men ikke på læsning. Resultaterne afslørede også, at dyslektiske børn havde vanskeligheder med musikalsk timing, men ikke problemer med at skelne forskellige toner.

(O.a.: Jeg har talt med Katie Overy. Vi var nok enige om, at forsøgsperioden var for kort til at give effekt på læsefærdighederne).



Effects of Musical Training on the Auditory Cortex in Children

af  L.J. Trainer, A. Shakin & L.E. Roberts, Dep. Of Psychology, McMaster Univ., Hamilton, Can.  (1: s. 506 ff).


     Adskillige undersøgelser af virkningen af musikalsk erfaring på den lydmæssige repræsentation i den auditive cortex blev gennemgået.

Sammenlignet blev: auditivt vækket potentiale (ERP) som reaktioner på rene toner, violin toner og toner fra klaver hos voksne musikere versus ikke-musikere og hos 4-5 årige børn med eller uden ekstensiv musikalsk erfaring. Ydermere undersøgtes virkningen på auditivt vækket potentiale af træning i at skelne mellem forskellige tonehøjder (pitch) hos voksne ikke-musikere.

     Vi fandt at P2 responsen (en elektrisk positiv respons målt med EEG) var kraftigere hos både voksne og børn, der var musikalsk trænede, end hos ikke-musikere samt, at auditiv træning forstærker denne respons hos voksne ikke-musikere.

Resultaterne indikerer, at P2 responsen er i særdeleshed neuroplastisk og at virkningen af musikalsk erfaring kan ses tidligt i udviklingsforløbet. Resultaterne antyder også, at skønt virkningen af musikalsk træning på den cortikale repræsentation vil være større, hvis træningen påbegyndes i barndommen, så er den voksne hjerne også modtagelig for ændringer.

     Virkningerne af musikalsk træning på den auditive cortex er også af interesse med hensyn til forholdet mellem musikalsk træning og andre områder end musik.

F.eks. at lære at læse et sprog involverer auditiv forarbejdning, idet børn må være i stand til at opdele et ord i de fonemer, som ordet består af (ordet ”kat” er sammensat af tre fonemer /k/, /a/, /t/) og at sammenknytte hvert fonem med et skrevet symbol. Der findes faktisk undersøgelser som viser, at børns fonemopfattelse og tidlige læsefærdigheder har sammenhæng med deres musikalske træning.

Sammenfaldende med vore fund af tidligere modning af de auditive responser hos børn med ekstensiv musikalsk træning, antyder disse undersøgelser, at tidlig musikalsk træning kan fremme sprog- og læseudvikling så vel som de musikalske færdigheder. Igen, i øvrigt, undersøgelser af årsag og virkning er endnu ikke gennemført.


Perceiving Prosody in Speech. Effects of Music Lessons

af  W.F. Thompson, E.G. Schellenberg & G. Husain, Dep. Of Psychology, Univ. of Toronto at Mississauga  (1: s. 530 ff).


    Ved to undersøgelser blev musikalsk trænede sammen med utrænede voksne undersøgt for deres evner til at sammenligne talte ytringer med ytringernes tonale sidestykker (tonefølger som havde de samme tonehøjder og tidsmæssige former som de talte ytringer). Ved begge undersøgelser var de musikalsk trænede deltagere bedre end de utrænede til at opfange prosodisk indhold i talesprog. Denne forøgede evne til at opfatte prosodisk indhold fandtes over for ukendte sprog og effekten var tydelig, hvad enten stemmelejet blev gengivet delvist eller vedvarende.

     Sådan dokumentation for kognitiv transfer mellem musik og talesprog øger sandsynligheden for, at sprogets prosodi og musik forarbejdes i sammenfaldende neurale netværk.


Neural Correlates of Rapid Spectrotemporal Processing in Musicians and Nonmusicians

af  N. Gaab, P. Tallal, H. Kim, K. Lakshminarayanan, J.J. Archie, G.H. Glover & J.D.E. Gabrieli, Dep. of Psychology, Stanford Univ., CA, Dep. of Radiology, Stanford Univ., CA,  Dep. of Neuroscience, Rutgers Univ., New Jersey  (2: s. 82 ff).   


     Vore resultater antyder, at musikalsk træning ændrer den funktionelle anatomi involveret i hurtig spectrotemporal forarbejdning (forarbejdning af hurtige skift i lydbilledet), hvilket resulterer i forbedret sproglig adfærd. Samtidig med etableringen af et mere effektivt netværk, der primært omfatter traditionelle sprogforarbejdende hjerneområder. Denne opdagelse kan have vigtig følger for forbedring af sprog/læsefærdigheder hos børn, der kæmper med dysleksi.

     Totalt antyder denne undersøgelse, at musikalsk træning ikke kun forbedrer ikke-verbal hurtig spectrotemporal forarbejdning, men også ændrer de neurale netværk, der er involveret i denne forarbejdning, således at forarbejdningen overlapper primært hjerneområder, der traditionelt forbindes med forarbejdning af sprog (f.eks. Brochas område).

     Resultaterne fra tidligere undersøgelser indikerer, at akustisk træning, der sigter mod at forbedre evnen til hurtig auditiv forarbejdning, er en fordel for børn, der kæmper med forarbejdning af hurtige, auditive sproglige input.


Influence of Musical Training on Pitch Processing

af  Sylvia Moreno & Mirdle Besson, Institut de Neurosciences Cognitives de la Méditerranée, Marseille  (2: s 93 ff).

     Formålet med denne undersøgelse var at afgøre om otte ugers musikalsk træning baseret på forarbejdning af pitch (tonehøjde) kunne forbedre 8-åriges evne til at opdage ændringer i sprogets tonehøjder. Resultatet var, at en relativt kortvarig træningsperiode (8 uger) med forarbejdning af pitch i musik har en vis indflydelse på opfattelsen af sprogets tonehøjder. Disse resultater er derfor i overensstemmelse med hypoteser om at fælles processer er involveret i forarbejdning af tonehøjder i sprog og i musik.


Investigating the Relationship of Music and Language in Children

af  S. Jentschke, S. Koelsch  & A.D. Friederici, Max Planck Institute, Leipzig  (2: s. 231 ff).   


     Sprog og musik er alment menneskelige færdigheder, der indebærer sansemæssig opfattelse af adskilte enheder organiseret i hierarkisk strukturerede følger. Reglerne, der styrer kombinationen af disse enkeltheder i bestemte rækkefølger, kaldes syntaks.

     En krænkelse af forventningerne til syntaktisk regularitet reflekteres af to ERP komponenter (evoked response potentials målt med EEG): ERAN (early right anterior negativity) og ELAN (early left anterior negativity), d.v.s. nogle små, kortvarige spændingsfald over elektroder uden på kraniet forrest på hovedet i h.h.v.  højre og venstre side.

     ERAN fremkaldes af en krænkelse af musikalske forventninger, medens ELAN har sammenhæng med forarbejdning af (forkert) sproglig syntaks. Der er forskningsmæssig dokumentation for, at både ERAN og ELAN, i det mindste delvis, opstår i de samme områder af hjernen. Derfor synes det plausibelt at forvente transfer virkninger mellem musik og sprog på grund af fælles forarbejdningsområder.

     Der ud over er ERAN kraftigere hos voksne med formel musikalsk træning (musikere) end hos voksne uden sådan træning. Det indikerer, at mere specifik repræsentation af musikalsk regularitet fører til øgede musikalske forventninger. Formålet med denne undersøgelse var at se på disse forholds betydning for børns udvikling.

     Vi gennemførte to undersøgelser med de samme deltagere og sammenlignede 11-årige børn med og uden musikalsk træning og 5-årige børn med og uden sprogvanskeligheder (language impairment, LI).

Ved et musikalsk eksperiment sammenlignedes reaktionerne til akkord-følger, der endte enten med en (regulær) tonisk eller en irregulær (supertonisk) akkord. Ved det sproglige forsøg brugte vi syntaktisk korrekte og syntaktisk ukorrekte sætninger.

     Forudgående resultater har vist, at ERAN kan måles i begge grupper af deltagere (ved det musikalske eksperiment) og har en større amplitude (d.v.s. er kraftigere) hos de trænede børn. Yderligere er der større negativ amplitude som reaktion på en sproglig syntaktisk krænkelse hos de musikalsk trænede børn. Sammenhængen mellem ERP komponenterne manifesteres der ud over ved, at ERAN findes hos børn i 5-års alderen uden sproglige vanskeligheder, men ikke hos sproghæmmede børn i samme alder.

     At ERAN er formindsket hos sproghæmmede børn viser, at de har vanskeligheder ved at forarbejde også musikalsk syntaks. Undersøgelser viser endvidere, at grammatiske problemer er karakteristiske for specifikke sprogproblemer (specific language impairment, SLI). Specielt synes det, at børn med SLI har vanskeligheder med at forstå visse typer af syntaktiske forhold og de formmæssige aspekter ved grammatikken.


     De refererede bøger (1; 2) indeholder langt flere bidrag, der viser sammenhængen mellem musik og sider af  sprogopfattelse og sprogproduktion. I en nylig udkommet bog (3) dokumenteres overbevisende flere sammenhænge mellem musik og sprog.


Et spørgsmål kan derfor være:

Hvorfor antager vores håndfuld af danske sprogforskere med forbindelse til folkeskolens undervisning, at specifik musikalsk stimulation (f.eks. lydterapi) ingen indflydelse kan have på børns sproglige udvikling?  



1. The Neurosciences and Music (2003). Ed. by Giuliano Avanzini, Carmine Faienza, Diego Minciacchi, Louisa Lopez, & Maria Majno. Annals of The New York Academy of Sciences. Vol. 999. ISBN 1-57331-453-6.


2. The Neurosciences and Music II. From Perception to Performance (2005). Ed. by Giuliano Avanzini, Luisa Lopez, Stefan Koelsch, & Maria Majno. Annals of The New York Academy of Sciences. Vol. 1060. ISBN 1-57331-611-3.


3. Mithen, Steven  (2006) The Singing Neanderthals. The Origins of Music, Language, Mind, and Body. Cambridge, Mass.: Harvard University Press.  ISBN 067402192-4.


Månedsmagasinet SKOLEN september 2006 – Nr. 11. Årgang 12.

Håb for de ordblinde

- Måske


Meget tyder på, at en alternativ behandling kan hjælpe ordblinde, men danske eksperter vil ikke undersøge, om der kan være noget om snakken.


Af: Jesper Bech Pedersen


DRRRRRRRRRRRR! Toner, der lyder som hvis lykkehjulet snurrede baglæns, strømmer ud af høretelefonerne og ind i øregangen på Jamile Johansen, 13 år. Hun er en af mange ordblinde børn og voksne, der har prøvet lydterapi i et forsøg på at slippe af med deres læsebesvær.

     Ifølge danske lydterapeuter kan musik og lydtoner hjælpe ordblinde til at komme til at læse. De mener, at ordblindhed ofte skyldes nedsat hørefunktion.

Dette er dog ikke den almindelige opfattelse i Danmark, og danske eksperter på området, tror ikke lydterapi kan gavne ordblinde.

     ”Der er ingenting, der taler for, at lydterapi virker, og så længe det er tilfældet, vil vi ikke sætte undersøgelser i gang,” siger Carsten Elbroe, formand for Dansk Videnscenter for Ordblindhed.

     Men et kig uden for Danmarks grænser afslører, at der faktisk er lavet forskning, der peger på lydterapiens gavnlige virkninger. Lektor i musikterapi ved Aalborg Universitet, Lars Ole Bonde, siger:

     ”Lyd og musik til at behandle forskellige lidelser er meget lovende, og det er forkert uden videre at afvise det.”


Læs mere på side 2


Låvende beahndling af

orblinhed møder modstan


Danske lydterapeuter mener at kunne hjælpe ordblinde til at komme over  deres problemer med at læse og stave ved hjælp af en alternativ behandling, men tilbuddet bliver mødt af kraftig modstand fra det etablerede system.


Af: Jesper Bech Pedersen


”Jeg sad bare bagerst i klassen og gemte mig bag gardinet. Når jeg endelig blev trukket ud og skulle læse højt, gik det hakkende og langsomt.”

     Jamile Johansen, 13 år,  er ordblind. Allerede før hun begynder i skole, går hun til talepædagog.

     ”Vi kunne mærke fra, hun var helt lille, at Jamile var langsommere til at lære end jævnaldrende. Hun havde blandt andet problemer med sit sprog” fortæller Jamiles mor, Gitte Johansen, 36 år.

     I første klasse begynder Jamile Johansen at gå til specialundervisning. Hver uge bliver hun hevet ud af dansktimerne og i stedet sendt til specialundervisning, hvor hun træner læsning og stavning. På vej tilbage til klassen gemmer Jamile Johansen mappen fra specialundervisningen i et ugeblad.

     ”Der stod  ’specialcenter’ på den. Jeg følte, at jeg blev set ned på af mine kammerater, og at de syntes, jeg var dum,” fortæller Jamile.


For meget klatundervisning

Formanden for Pædagogiske Psykologers forening, Bjarne Nielsen, kan sagtens genkende Jamile Johansens problem.

     ”Det er simpelthen en elendig måde at give specialundervisning på, og der foregår generelt for meget af den slags klatundervisning, hvor børnene trækkes ud af klassen i enkelte timer. Det er skadeligt for de svage elever,” siger han

     I sjette klasse bliver Jamile frataget specialundervisningen. Der er ikke længere råd, da skolen har begrænsede midler, og den vurderer, at andre har mere brug for hjælp end Jamile. Gitte Johansen føler sig magtesløs. Ved et tilfælde hører hun om lydterapi.

     ”Skolen var fra starten imod ideen, og da jeg diskuterede det med speciallæreren på skolen, fik jeg på en meget negativ og hånlig måde at vide, at jeg lige så godt kunne spare de penge,” fortæller Gitte Johansen.

                 Alligevel sætter mor og datter sig en dag ind i bilen og kører til et møde med en lydterapeut.


Ørerne modarbejder hinanden

Lydterapi har eksisteret siden 1960’erne, men har altid mødt massiv modstand fra de videnskabelige kredse. Alligevel siger mange ordblinde, at de er blevet hjulpet gennem lydterapi.

                  Lydterapi går ud på at lytte til særlige toner og musik gennem høretelefoner nogle få minutter om dagen. Ifølge lydterapeuter stammer ordblindes problemer i mange tilfælde fra nogle blokeringer i hjernen, der gør, at ørerne ikke arbejder ordentligt sammen.

                 Kitten Frimor har en fortid som skolelærer. I dag driver hun en lydklinik i Kolding.

                 ”Selvom man hører inden for normalområdet, så kan ørerne høre forskelligt i forhold til hinanden. Det gør, at man ikke hører ordene rigtigt, og så kan man jo heller ikke udtale dem korrekt eller skrive dem ned,” forklarer Kitten Frimor.

                 De særlige toner, der afspilles gennem almindelige høretelefoner, går ind gennem øret og rammer nervesystemet. Det sætter gang i en proces, der opløser blokeringerne.

                  Til at måle hørelsen bruger lydterapeuten  et audiometer. De fleste vil genkende apparatet som det, hvor man skal trykke på en knap, når man hører en tone.

                 Forskellen er, at en lydterapeut måler hørelsen i flere frekvenser, end når hørelsen bliver testet hos en ørelæge. Ifølge lydterapeuterne gør det dem i stand til at opfange, når ørerne ikke samarbejder.

     Formanden for Danske Øre-Næse-Halslægers Organisation, Mikkel Holmelund, bekræfter, at man afprøver færre frekvenser ved en normal høreprøve, og at fænomenet med ørernes manglende samarbejde eksisterer:

     ”Det er rigtigt, at sådanne høreforskelle kan forekomme, men jeg tvivler på, at antallet af de tilfælde er lige så stort som antallet af ordblinde.”


Ønsker ikke en undersøgelse

Formanden for Ordblinde/ Dysleksiforeningen i Danmark, Hans-Pauli Christiansen, tror ikke på lydterapiens gavnlige effekter.

     ”Vi vil ikke anbefale nogen at gå til lydterapi, for i Danmark er det vores erfaring, at der skal undervisning til. Jeg ved ikke, hvorfor nogle siger, lydbehandling virker. Faktisk tror jeg, at folk prøver det i ren afmagt,” siger han.

     Og han kan godt forstå, hvis forældrene føler afmagt. Ifølge Hans-Pauli Christiansen er det nemlig kun fem procent af alle ordblinde i Danmark, der får tilstrækkelig specialundervisning.

     ”Vi har redskaberne, men vi bruger dem ikke ordentligt,” udtaler han.

     Men selvom det står sløjt til på området, ønsker Hans-Pauli Christiansen ikke en undersøgelse, der én gang for alle kan kaste lys over, om lydbehandling virker:

                 ”Hvis man skal gøre noget ekstra, så skal det være ved at koncentrere sig mere om det kendte område, nemlig undervisningen.”


Ikke nogen mirakelkur

På vej til lydterapeuten er Gitte Johansen i tvivl om, lydterapien kan hjælpe hendes datter.

     ”Jeg var meget skeptisk og syntes, det lød som noget hokus pokus,” fortæller hun.

     Undersøgelsen af Jamile går godt. Hun begynder på lydterapien, og allerede efter den første uge viser de første forbedringer sig.

     ”Jeg begyndte at læse i blade, og jeg kunne pludselig følge med på tavlen i skolen,” fortæller Jamile Johansen.

     Også Jamiles mor, Gitte Johansen, kunne se forbedringerne.

     ”Når vi var ved lydterapeuten testede hun Jamiles læsehastighed, og jeg kunne jo se sort på hvidt, at det blev bedre og bedre. Det sjove er, at Jamile ikke fik specialundervisning i skolen imens, så der kan fremgangen jo ikke være kommet fra,” siger Gitte Johansen.

     Lydterapeut Kitten Frimor understreger, at der ikke er tale om nogen mirakelkur, og at øjenøvelser og læsetræning også er en vigtig del af lydbehandlingen. Øjnene kan nemlig have de samme samarbejdsproblemer som ørerne.

     Kitten Frimor er med i en gruppe af lydterapeuter, hvor det er et krav, at man er læreruddannet og tidligere har arbejdet med børn.

     ”Vi ønsker ikke at gå speciallærerne i bedene. Jeg synes, de gør et utroligt flot stykke arbejde, men så længe børnene ikke hører optimalt, får de ikke ret meget ud af undervisningen,” siger Kitten Frimor.

     I dag går Jamile i 7. klasse. For nylig havde eleverne en læseuge, hvor det gjaldt om at læse mest muligt.

     ”Jeg blev nummer fire. Før jeg prøvede lydterapi, lå jeg nederst. Det er i det hele taget blevet meget sjovere at gå i skole,” fortæller en glad Jamile Johansen.


For få facts - for mange formodninger

Det er småt med dybdegående danske undersøgelser af lydterapi. Derfor forkaster man ideen i videnskabelige kredse. Carsten Elbroe, professor på Københavns Universitet og forsker i læsning og læsevanskeligheder, forholder sig skeptisk over for den alternative behandling af ordblindhed.

     ”Der er aldrig lavet veldokumenterede forsøg, og den forklaring lydterapeuter tilbyder i dag, er ikke god nok til at sætte et forskningsprojekt i gang. Der er simpelthen for mange formodninger og antagelser”, siger han.

     Carsten Elbroe, der også er formand for Dansk Videnscenter for Ordblindhed (DVO), afviser at starte en undersøgelse af lydterapi.

     ”Læseforskning har et begrænset budget, og man er nødt til at vurdere, hvor pengene bedst kan bruges. Hvis der var nogle uafhængige tegn på den gavnlige effekt, ville det være interessant at undersøge, men det er der ikke” udtaler Carsten Elbroe.


Udenlandske undersøgelser

Men der er faktisk lavet undersøgelser, der peger på de gavnlige effekter af lydterapi. På Oxford Universitetet i England har en gruppe forskere konkluderet, at der er en sammenhæng mellem fejl i hørelsen og indlæringsvanskeligheder, og at det er muligt at optræne de beskadigede hørecentre ved hjælp af lyd.

     Kjeld Vagn Johansen, leder af Baltic Dyslexia Research Lab, har forsket i lydterapi siden 1960’erne. Han har i mange år været foregangsmanden herhjemme i forsøget på at få indført lydterapi som en accepteret behandlingsform.

     ”Jeg har gang på gang sendt materiale og forskningsresultater til Carsten Elbroe og DVO, men jeg har aldrig hørt fra dem,” siger Kjeld Vagn Johansen.

     En finsk undersøgelse fra 2002, lavet af forskere på Oulu Universitetet i Finland, konkluderer, at behandling med lyd har en gavnlig virkning på børn med nedsat hørelse. Det stemmer overens med resultatet af en ny undersøgelse lavet af hollandske lydterapeuter fra 2005. To grupper af ordblinde børn samt en gruppe af normalt læsende børn indgik i forsøget. Den ene gruppe ordblinde modtog lydbehandling, mens de to andre grupper fortsatte deres normale skolegang. Efter et halvt år havde den første gruppe forbedret sine sproglige egenskaber væsentligt i forhold til kontrolgrupperne.


Umuligt at få bevilget penge

Forsøget i Holland blev finansieret af det hollandske skolevæsen. Kjeld Vagn Johansen har flere gange forsøgt at få bevilget penge til at lave lignende forsøg med danske ordblinde, men uden held.

                 ”Problemet er, at der herhjemme sidder en lille, men meget indflydelsesrig gruppe af personer, der har en utrolig negativ holdning over for emnet,” siger Kjeld Vagn Johansen, der tidligere har arbejdet som lærer og har en mastergrad i psykologi og en Ph.D. i pædagogik.

     Carsten Elbroe, formand for DVO, lader sig ikke imponere af de udenlandske undersøgelser.

     ”Jeg tror nok, jeg ville have hørt om det, hvis der havde været nogle gennembrud på det her område,” siger han.

                 Lektor og forsker i musikterapi på Aalborg Universitet, Lars Ole Bonde, støder ofte på den samme reserverede holdning i sit arbejde.

                 ”Musik og lyd brugt som medicin er meget lovende, og der er ganske meget forskning, der tyder på, det hjælper,” siger han.

                 Den musikterapi han underviser i ved Aalborg Universitet, bruges for eksempel til at behandle hjerneskader, og er altså ikke det samme som lydterapi til ordblinde. Selve teorien bag er dog beslægtet.

                 Ifølge Lars Ole Bonde er det forkert, at forskningen på området ikke tillægges nogen betydning.

                 ”Jeg mener, det er sandsynligt, at  lyd også kan have en god påvirkning hos ordblinde,” siger han.

                 Uddannelsesordfører for Dansk Folkeparti, Martin Henriksen, mener, man skal slå koldt vand i blodet.

                 ”Jeg er nødt til i første omgang at forholde mig til det, de danske eksperter siger, men jeg synes, det er vigtigt, at man løbende undersøger nye muligheder,” siger han.

                 Martin Henriksen vil nu se nærmere på sagen og rette henvendelse til undervisningsminister Bertel Haarder.

Det har ikke været muligt at få en udtalelse fra undervisningsministeren.



Månedsmagasinet SKOLEN september 2006 nr. 11  årgang 12           
HVAD MAN DOG FALDER OVER                                               17.07.06


En studerende ved Journalisthøjskolen i Århus, Jesper Bech Pedersen, valgte i 2006 som et projekt at beskæftige sig med mulige virkninger af lydterapi.Undervejs gennemførte han en række interviews. Indledningsvis vil jeg tillade mig at citere fra to af dem.

Formanden for Ordblinde/Dysleksiforeningen, Hans-Pauli Christiansen, sagde bl.a.: ”Vi vil ikke anbefale nogen at gå til lydterapi, for i Danmark er det vores erfaring, at der skal undervisning til. Jeg ved ikke, hvorfor nogle siger, lydbehanding virker.”

Formanden for bestyrelsen i Dansk Videnscenter for Ordblindhed (DVO), (læse)professor Carsten Elbro, KUA, udtrykte sin skepsis sådan: ”Jeg tror nok, jeg ville have hørt om det, hvis der havde været nogle gennembrud på det her område.”


Således inspireret har jeg fået lyst til at oversætte et lille bidrag fra finske forskere. Den originale artikel (på engelsk) blev sendt til Ordblinde/Dysleksiforeningen og til DVO kort tid efter offentliggørelsen i 2002.


Dr. Pirjo Korpilahti, der nu er professor i logopædi ved universitetet i Helsinki, stod bag undersøgelserne.


Sammenhæng mellem neurologisk funktion ved auditiv

perception og diskriminations træning i skolealderen.

Præsenteret ved konferencen The Science of Aphasia, Acquafredda di Maratea, Italien 14.-19. juni, 2002.


P. Korpilahti, Oulu Universitet og Laboratoriet for Klinisk Neurofysiologi, Universitetshospitalet, Oulu.

R. Ceponiene, Center for Sprogforskning, Univ. of  California, San Diego.

R. Näätänen, Kognitive Hjerneforskningsafd., Univ i Helsinki.



·         dårlig auditiv forarbejdning verbalt såvel som ikke-verbalt rapporteres ofte hos børn med dårligt sprog (language impaired, LI)

·         mange LI børn har en kombination af vanskeligheder: den neurale forarbejdning er langsom og en masse auditiv information går tabt

·         akustisk over- eller underfølsomhed og forøget distraktion (afledelighed) har forbindelse med de sproglige vanskeligheder

·         ved auditiv perception vælger hjernen fortrinsvis visse typer af stimuli

·         ERPs (event related potentials) – d.v.s. ændringer i hjernens reaktioner på (her) lydmæsige stimuli – kan bruges til at afsløre neurofunktionelle sammenhænge med opfattelsen af sprog

·         MMN (mismatch negativity) er en ERP hjernebølgeform, der viser perceptuelle ændringer af den auditive opfattelse uafhængigt af opmærksomhedsniveauet

·         MMN ændres af langtidshukommelse og af indlæring

·         den sene lMMN komponent menes at afsløre forskelle i opfattelsen af komplekse auditive enheder

·         med ERP optagelser er det muligt at isolere forskellige faser af den auditive forarbejdning og af kognitive reaktioner, der ikke kan observeres gennem forsøgspersonens adfærd

·         vi undersøgte effekten af stimuluskompleksiteten på auditive ERPs og ændringer af MMN opnået efter auditiv diskriminations træning (ADT)

·         arbejdshypotesen var, at intensiv træning, der tager hensyn til den enkeltes auditive perception, vil afspejles som ændringer i MMN.





·         ERP optagelser med NeuroScan udstyr (spec. type EEG udstyr)




Rene toner                               standard    afvigelse

                                                 500 Hz      550 Hz

                                               2000 Hz    2200 Hz

Vokaler                       /e/                    /ö/

Stavelser                                    /ta/                            /ka/






27 elever i alderen 7-10 år.

ADT: 6; ikke-ADT: 8; kontrolgrp.: 13.   ADT og ikke-ADT: LI og dyslektikere



·         virkningen af stimulus kompleksiteten kunne aflæses af varigheden af de tidlige eMMN hos alle deltagere (fig. 1)

·         hos LI børnene var de tidlige eMMN tydeligt længere og amplituden svagere for 2000/2200 Hz og den samme tendens blev fundet for 500/550 Hz og ved stimulation med vokaler

·         efter træningsperioden blev såvel de tidlige som de senere MMN amplituder i ADT gruppen normaliseret, specielt for 500/550 Hz og for vokalerne e/ö (fig 2); dette blev antaget, at indikere mere præcis skelnen mellem auditive forskelle

·         på det adfærdsmæssige område kunne virkningen af træningen observeres som bedre diskrimination af konsonanter og udvikling af ”naming skills” (evnen til hurtig navngivning af f.eks. genstande); på disse områder nåede ADT gruppen et alderssvarende niveau (fig. 3)

·         forældre og lærere rapporterede bemærkelsesværdige fremskridt i opmærksomhed og sproglige færdigheder hos de børn hvis ERPs var normaliseret efter træningen.



·         perception af auditive stimuli, hvad enten man er opmærksom på dem eller ikke, undergår en hurtig og kompleks kortikal analyse

·         med MMN forskningsmetoder er det muligt af studere både elementære og komplekse aspekter i forbindelse med sprogindlæring

·         ADT træning kan bruges til at opnå bedre auditiv diskrimination og således hjælpe barnet til at udvikle sit sprog




Metoden som er blevet undersøgt og her kaldt ADT er udviklet over ca. 25 år i et samarbejde mellem komponisten Bent-Peder Holbech og undertegnede. Vi foretrækker dog betegnelsen hemisfære specifik auditiv stimulation (HSAS). Vil man vide mere, kan disse web steder besøges:;;;;  






Enhver, der arbejder med menneskers problemer, ved at der ikke findes ”’én-til-én korrespondance” mellem årsag og virkning (”adfærd”).

års-virk 1

Årsag              Virkning


Ofte ser man, at flere forskellige problemer eller ”lidelser” forårsager det samme symptom:

års-virk 2

Årsager           Virkning


 - eller at en enkelt årsag manifesterer sig på flere forskellige måder:

års-virk 3

Årsag             Virkninger


Det betyder, at vi ved forskning i f.eks. årsagerne til og arbejde med sproglige vanskeligheder (og meget, meget mere) må acceptere en ”model”, der nærmest ser sådan ud:

års-virk 4

Årsager         Virkninger


Alligevel får man ofte det indtryk, at mange forskere benytter denne ”model”:

års-virk 5

Årsag              Virkning


Naturligvis vil det blive benægtet, fordi det strider mod vore almindelige erfaringer; men hvis man orker at gennemlæse mange forskningsbidrag, finder man, at der i hovederne på adskillige forskere må gemme sig en opfattelse svarende til den sidst tegnede model. Der er således ikke levnet megen plads til holistisk tænkning.

Sådanne modelbetragtninger er yderst banale; men mere end fyrre års arbejde med mulige årsager til indlæringsvanskeligheder hos børn sammen med et ønske om at kunne afhjælpe vanskelighederne helt eller delvis har lært mig, at i hvert fald mange læseforskere slås om, hvilken ”streng” på det sidste billede, der er den rigtige.


Er læsevanskeligheder primært fonologisk betingede? Er der tale om forringet visuel perception? Skyldes vanskelighederne manglende metalingvistisk udvikling? Spiller en markant højre-venstre forvirring en rolle? Har kostens sammensætning betydning (sukker, essentielle fedtsyrer)? Har miljøet i hjemmet nogen betydning? O.s.v., o.s.v.


Blandt mine mere end tusinde klienter gennem 40 år er alle disse årsager (og flere til) repræsenteret.

Sådanne observationer tæller bare ikke som videnskabelige, fordi de forekommer alt for diffuse og alt for svære at håndtere i videnskabelige, randomiserede, dobbelt-blindforsøg. Men sådan er virkeligheden!





Gennem årene har skolerne oplevet et voksende behov for specialundervisning. Det har medført, at en hel del elever er blevet udskilt til vidtgående specialundervisning på særlige institutioner og at mange elever i folkeskolen har modtaget en del af deres undervisning på mindre hold. Udviklingen er nu ved at vende. Flere elever skal ”hjem i klasserne” og den kommende strukturreform vil muligvis medføre nedlæggelse af nogle specialskoler. Det kan betyde, at erfaring og specialviden bliver udnyttet mindre effektivt; men det kan måske også betyde, at man nødsages til at se sig omkring efter nye måder at skrue specialundervisningen sammen på:




I samfund, der (i hvert fald p.t.) kun kan hænge sammen, hvis de fleste medlemmer kan læse og skrive, ofres der megen energi på at udforske mulige årsager til læse- og staveproblemer og på at afhjælpe eller lette sådanne problemer.

Vanskelighederne rammer 5 – 15 pct. af alle, afhængigt af hvor man lever og hvordan man dér definerer vanskelighederne. Med en så stor del af befolkningerne involveret, er der naturligvis brug for at gøre noget ved problemerne. Netop undervisning i læsning og stavning udgør da også en meget stor del af den danske folkeskoles almindelige specialundervisning.


Gennem de seneste år er der opstået forholdsvis bred enighed om, at ca. halvdelen af de såkaldt ”ordblinde” har arvet deres problemer og flere undersøgelser viser, at dyslektiske (ordblinde) forældre har en chance (risiko) på 40 - 50 pct. for at få børn, der udvikler tilsvarende vanskeligheder med skriftsproget. Det er måske lidt interessant, at nogle forskere har fundet, at ca. 60% af børn med svære læseproblemer har arvet disse problemer, medens kun ca. 40% med store staveproblemer synes at kunne give forfædrene skylden.


I næsten alle nationer, hvor læsning og skrivning har væsentlig betydning, arbejdes der konstant på at udforme præcise definitioner af dysleksi/ordblindhed/specifikke læse- og stavevanskeligheder. En definition hænger meget nøje sammen med, hvad forskningen lige netop nu kan vise af årsagssammenhænge. Derfor ændres definitionerne ofte og egner sig faktisk ikke til optagelse i et nationalleksikon, der jo skal leve i mange år.


Den seneste definition er i 2003 formuleret af en række fremtrædende, amerikanske forskere med tilknytning til The International Dyslexia Association (IDA) og lyder ca. (i min oversættelse) sådan:

”Dysleksi er en specifik indlæringsvanskelighed, hvis årsag er neurobiologisk. Vanskeligheden er karakteriseret af problemer med præcis og/eller flydende ordgenkendelse og ved dårlig stavning og dårlige evner til afkodning (af skriftsprog). Disse vanskeligheder er typisk et resultat af en mangel i sprogforarbejdningens fonologiske del og er ofte uventede i forhold til andre kognitive evner og til  modtaget effektiv undervisning. Afledte følger af dysleksi  kan være problemer med at forstå det læste samt reduceret læseerfaring, der kan hæmme udviklingen af ordforråd og baggrundsviden.”


Det er vigtigt at være opmærksom på, at en sådan definition er resultatet af, hvad en række personer med meget forskellige baggrunde har kunnet enes om. Den amerikanske gruppe omfattede f.eks. neurologer, pædagoger, advokater, hjerneforskere, genetikere, psykologer, administratorer og andre med speciel interesse i netop dysleksi.

Det er også vigtigt at være opmærksom på, at definitionen fastslår, at årsagen til dysleksi skal findes i den enkeltes neurobiologiske funktion, men ikke siger noget om, hvorfor denne ændrede funktion er opstået.

Fornuftigvis er definitionen ledsaget af bemærkninger om, at den vil blive revideret i takt med stigende viden på området.



Som allerede nævnt spiller arven en stor rolle. Det betyder ikke, at der så ikke er noget at gøre ved det. Det betyder, at der tidligt skal gøres en aktiv indsats af folk (tale-/hørepædagoger og lærere), der ved, hvad de har med at gøre. Det er derfor vigtigt, at forældre, som selv har problemer med skriftsproget, allerede ved skolestarten gør opmærksom på, at netop deres barn måske har nogle (skjulte) anlæg for sproglige vanskeligheder. En tidlig og kompetent indsats kan komme mange problemer i forkøbet. Lærerne i indskolingen bør derfor opfordre forældrene til at komme frit frem. Husk at dyslektiske forældre har en ca. 50% risiko for at få et dyslektisk barn!

Hvad det præcis er, der arves, forekommer en smule usikkert, men evnen til opfattelse og adskillelse af sproglyde er i hvert fald en del af billedet.

Genetikere har nu fundet afvigelser på ca. halvdelen af dyslektikeres kromosompar sammenlignet med, hvad de ser hos ikke-dyslektikere. Men genforskningen har jo også fået meget at gøre godt med – og man finder ofte, hvad man leder efter.



Verdens mange sprog er uhyre forskelligt opbygget. Ordforrådet er meget forskelligt, grammatikken kan være mere eller mindre kompliceret, selv antallet af anvendte sproglyde adskiller sprogene enormt. På Hawai.i bruger man kun 12 forskellige bogstaver (syv konsonanter og fem vokaler) og antallet af forskellige sproglyde er langt mindre end hos os, hvor vi har over 40 forskellige lyde til vore 28 bogstaver. Hvis vi tæller dialekternes udtaler med, kommer der flere lyde til.

Der er en tæt forbindelse mellem det talte sprog, man hører som spæd, og den sproglige formåen, som man senere udvikler. En amerikansk forsker, Patricia Kuhl, har f.eks. vist, at det sprog små børn hører fra de er ca. ½ år til de er ca. 1 år gamle, præger deres sproglige udvikling længe efter.

Derfor: tal med/til småbørnene, men tal tydeligt (næsten som Poul Reumert).


Hvis vi vil gøre noget effektivt ved den sproglige udvikling hos børnene i vore indvandrerfamilier, burde vi måske tilbyde ½ til 1 times leg om ugen  i et halvt års tid fra småbørnene er ca. ½  år gamle. Legen skal foregå i små grupper (2-3 børn) og ledes af unge, der er i stand til at tale ordentligt og korrekt dansk (fortrinsvis kvinder fordi de generelt taler tydeligst).

Patricia Kuhl har sammen med et par kolleger i bogen ”The Scientist in the Crib” beskrevet virkningen af en sådan tidlig leg (bogen er oversat til dansk med titlen ”Tænk engang”).



Her er vi så fremme ved min ”hobby”: Hvordan påvirker ernæring, motorik, visuel perception og auditiv perception et barns sproglige udvikling?

Desværre er besvarelsen af dette spørgsmål tilsyneladende uden særlig interesse for danske forskere på området.

En ungdomsskoleleder på Århuskanten har skrevet artikler om ernæringens betydning for børn med forskellige vanskeligheder (koncentration og adfærd). En lærer fra Brønshøj har i årevis fortalt om gode resultater opnået med tilskud af essentielle fedtsyrer. Forskere i England og i Sverige har i videnskabelige afhandlinger og i alment tilgængelige tidsskrifter og bøger dokumenteret nøjagtig det samme. Men generelt sker der i den danske pædagogiske verden ikke en snus.


I The Lancet, det engelske lægevidenskabelige tidsskrift, såvel som i tidsskrifter, der specielt behandler  specifikke læsevanskeligheder, har flere forskere fra forskellige universiteter, dokumenteret, at motoriske problemer (bl.a. dårlig balance og bevarede primitive reflekser) har sammenhæng med forsinket neurologisk udvikling og indlæringsproblemer, og at specielle træningsprogrammer kan afhjælpe eller lette sådanne problemer. I vores pædagogiske verden sker ikke noget.


Adskillige optikere og optometrister både hjemme og i udlandet har i årevis og baseret på omfattende undersøgelser vist, at en række problemer med forbindelse til visuel perception hos nogle børn spiller en rolle for såvel den tidlige læseindlæring som for senere udvikling af læsehastighed og præcision, samt at mange vanskeligheder kan afhjælpes med træning og/eller korrekt korrektion. I den pædagogiske verden sker ingenting.


For et par år siden udgav prof. Teri James Bellis, der er audiolog, bogen ”When the Brain Can’t Hear”. Heri gennemgår hun en række af de vanskeligheder, der kan følge af ikke at høre optimalt, vanskeligheder der også omfatter problemer med læsning og stavning. Bellis redegør for fænomenet Auditory Processing Difficulties (APD), der nu langt om længe også er på vej til at vække interesse i Danmark.

Fysio- og ergoterapeuter har vist, hvordan også træning/stimulation af det auditive system med andet end sproglyd kan betyde forbedrede evner til sprogbehandling. Det samme har tale-hørepædagoger vist (bl.a. en fra Danmark). På det pædagogiske område sker intet.



Gennem 80erne og 90erne har vi set en tilsyneladende forøgelse i antallet af børn med diagnoser som ADHD, (Attention Deficit / Hyperactivity Disorder), Asperger, autisme, PDD (Pervasive Developmental Disorder) m.fl. Alle disse etiketter hæftes på børn, som også har vanskeligheder ved at kommunikere med omverdenen med samme lethed, som flertallet kan det.

Adskillige forfattere uden for landets grænser har i bøger og artikler påvist, at også sådanne problemer i mange tilfælde har sammenhæng med præcis de samme individuelle vanskeligheder, som  man finder hos dyslektikerne. Disse beskrivelser har generelt heller ikke rykket meget ved den danske pædagogiske praksis.



Kan mon nogen forklare mig, hvorfor tusinder af siders dokumentation for effekten af supplementer til den almindelige specialundervisning (der jo ikke har det for godt, og som i Danmark nu nærmest skal spares væk) ikke kan vække systemets interesse?

Jeg er nu 67 og har i mere end 40 år arbejdet med området ”alternative supplementer”, og jeg fatter ikke den bastante modstand mod at supplere specialundervisningen med andre og påvist virkningsfulde tiltag.


Der er masser af grøde i den pædagogiske debat om filosofi, neuropædagogik, teorier om specialpædagogik, kognition og pædagogik, flow teorier, og hvad ved jeg.

Men nede på gulvet, hvor Søren ikke kan styre sin krop, hvor Anders ikke kan følge en linie med øjnene, hvor Mads ikke kan høre forskel på ”fyr” og ”dyr”, hvor Karin falder i søvn klokken ti, hvor Knud helst vil hænge i gardinerne, og hvor Søren får tiden til at gå med at sidde indadvendt og rokke frem og tilbage, der har vi også brug for noget andet og mere jordnært! Og mulighederne findes! Hvorfor kan de autoriserede forskere ikke få øje på dem? Kan det hænge sammen med, at de forholdsvis få, som på vore breddegrader har ansvaret for forskningen, fungerer mere som undervisere, konsulenter, foredragsholdere og forfattere på de områder, som de i forvejen behersker, end som forskere, nysgerrige efter at undersøge nye muligheder?  / Kjeld Johansen 2005-01-06



(Desværre er hovedparten af henvisningerne til litteratur på ”udenlandsk”. Det afspejler imidlertid den mangel på interesse, som i Danmark kendetegner forholdene på dette område).



Lyon, G.R., Shaywitz, S.E., & Shaywitz, B.A. (2003): A definition of Dyslexia. Annals of Dyslexia, Vol. 53, pg. 1-14. ISBN 0-89214-053-4.



Gopnik, A., Meltzoff, A.N., & Kuhl, P.K. (2001): Tænk engang. Små børns bevidsthed, viden og læring. Pædagogisk Bogklub. ISBN 87-7913-236-7.



Deibjerg, J. (1996): Urolige unger og skrantende børn. Borgen. ISBN 87-21-00520-6.

Stordy, B.J. & Nicholl, M.J. (2000): The LCP Solution. Ballantine. ISBN 0-345-43872-8.



Bein-Wierzbinski, W. (2004): Räumlich-Konstruktive Störungen bei Grundschulkindern. Peter Lang. ISBN 3-631-52288-6. En ph.d. afhandling, der bl.a. også omhandler bevarede primitive refleksers indvirkning på øjenmotorikken.

Goddard Blythe, S. (2004): The Well Balanced Child. Hawthorn Press. ISBN 1-903458-42-0.

Sohlman, B. (2000): Möjligheterna finns. Sama förlag. ISBN 91-972923-9-7.


SYN m.m.

Bachara, G.H. (1977): Visual an Perceptual Motor Training: A Psychologist’s viewpoint. Optometric Weekly, Vol. 68. Opt. Ext. Prg., 2912 S. Daimler Str.. Santa Ana, CA 92705-5811.

Kops, M.B. (2004): Sammenhæng mellem syn og læsning. Månedsmagasinet Skolen. Juni 2004, pg. 46-52.

Wachs, H. & Ehrlich, L.A. (1982): Vision Training. What Professionals Outside of Optometry Have to Say. Optometric Management / Nov. 1982, pg. 17-23.



Bellis, T.J. (2002): When the Brain Can’t Hear. Pocket Books. ISBN 0-7434-2863-3

Bellis, T.J. (2003):Assessment and Management of Central Auditory Processing Disorders in the Educational Setting. From Science to Practice. Thomson / Delmar Learning. ISBN 0-7693-0130-4.

Frick, S.M. & Hacker, C. (2001): Listening with the Whole Body. Vital Links, Madison. ISBN 0-9717653-3-2.

Gøtze, J. (2004): Afdækning af en mulig sammenhæng mellem auditiv perception og fonologiske vanskeligheder. Dansk Audiologopædi, marts 2004, pg. 10-13.

Johansen, K.V. (2002): Dyslexia, Auditory Laterality and Hemisphere Specific Auditory Stimulation. Nordisk Tidsskrift for Spesialpedagogikk 4/2002, pg. 245-271. ISSN 0408-0509.

Madaule, P. (1993): When Listening Comes Alive. Moulin Publishing, Ontario. ISBN 0-9697079-0-8.



Bluestone, J. (2004): The Fabric of Autism. The Handle Institute, Seattle, WA. ISBN 0-9720235-1-8.

Lyon, M.R. (2000): Healing the Hyper Active Brain. Focused Publishing, Calgary, AB. ISBN 0-9685108-0-9.





Referat fra IDAs konferene i Philadelphia november 2004:

MUSIK betyder en masse!

IDA, Philadelphia 6.11.04.


     Den internationale ordblindekonference arrangeret af IDA (The International Dyslexia Association) med 3589 deltagere fra 22 lande med godt 200 foredrag og knap 50 poster- presentations over fire dage sluttede i dag.

De fleste konferencer har heldigvis for os alle nogle klare højdepunkter. Specielt når en internationalt anerkendt forsker siger netop det, som man selv går og tænker! I år fik neurologen, professor, dr. med. Martha Bridge Denkla, John Hopkins Univ., Baltimore æren af at holde konferencens “festforelæsning”, men fik også lejlighed til for en mindre forsamling at præsentere resultater af sin forskning og fortolkningerne heraf.

Professor Denkla sagde bl.a., at vi som lærere skal holde op med at tro på, at kun forskningsbaserede tiltag kan bruges i undervisningen, sådan som der (specielt i USA men efterhånden også i Europa) er en tendens hen imod. Erfaring tæller også!  ”Hvis vi som læger kun måtte bruger metoder, som er forskningsmæssigt dokumenterede, ville der ikke være meget for os at gøre!”  Martha Denkla advarede også mod at presse formaliseret undervisning længere og længere ned i aldersgrupperne. ”Fordi de fleste børn nu går i børnehaver og børnehaveklasser betyder det ikke, at deres hjerner udvikler sig i en anden takt end før. Udvikling tager den tid udvikling tager. Det er derfor fejlagtigt at tro, at man kan introducere formel undervisning tidligere end man kunne før!” Tænk om vore hjemlige skolepolitikere kunne fange den.



     Som (tror jeg eneste danske) konferencedeltager vælger man naturligvis foredrag efter interesse. Med det enormt brede udbud kan man derfor ikke give et bare nogenlunde dækkende billede af indholdet.

Min oplevelse er, at de mange forskellige nye teknikker til scanning af arbejdende hjerner overbevisende dokumenterer, at dyslektikere (ordblinde) og andre med specifikke læse- og stavevanskeligheder forarbejder såvel auditive som visuelle stimuli på andre måder, end man ser hos ikke-dyslektikere. (For mig at se er der en tendens hen mod at reservere betegnelsen ”dysleksi” til de ca. 50 pct. af de læse- og staveretarderede, som har arvet deres problemer).

Der er fortsat enighed om, at de manifeste problemer er nedarvede hos ca. 50% af de belastede; men man går hos hjerneforskerne behændigt uden om, hvor resten får problemerne fra.

I krogene pipper et lille antal forelæsere om auditiver perceptionsproblemer (APD), visuelle vanskeligheder eller sågar problemer med balancen, der henføres til vestibulære og/eller cerebellare ”fejlfunktioner”;  men hjerneforskerne vender det døve øre til eller sætter kikkerten for det blinde øje. Besynderligt, når man betænker, hvor optaget hjerneforskerne er af hjernens plasticitet og dokumenterede ændringer af hjernens funktion efter træning af f.eks. sproglige funktioner.

Hjerneforskerne ser på, hvordan en dyslektisk hjerne arbejder og ikke på, hvorfor den gør, som den gør, med mindre man f.eks. kan vise, at det, som det nogle gange ser ud til, har sammenhæng med reduceret myelinisering af væsentlige neurale forbindelser, fejlplacerede neuroner i cortex eller ændret cellestørrelse i nogle områder af thalamus.



     En enkelt forsker berettede om en besynderlig og uforklarlig iagttagelse. Hos nogle børn med ADHD (det vi en overgang kaldte DAMP) har man ved scanninger fundet en afvigende funktion i den del af den motoriske cortex, som har med benene at gøre. Min reaktion på oplysningen var: ”så er det måske ikke så dumt, når nogle specialskoler for ADHD-børn starter dagen med en rask løbetur!”



     Genetikerne har primært øje for, at der er genafvigelser på nu mindst 10-11 kromosom par hos børn og voksne diagnosticeret med dysleksi (1, 2, 3, 6, 7, 13, 15, 16, 18, 19, X).

Men genforskningen har jo også de seneste år fået mange midler ”at gøre godt med”.

Hvad de afvigende gener gør eller ikke gør, har man kun få bud på; men at adskillige har med hjernens udvikling at gøre, er der enighed om.



     Neurobiologen, professor Judith Lauter, Stephen F. Austin State Univ., Texas, søgte at overbevise os om, at kønshormonerne testosteron og østrogen spiller en kritisk rolle for at „tænde og slukke” for genernes funktion på bestemte tidspunkter af udviklingen både før og efter fødslen. Hvis der er kludder i det kønshormonale system, bliver der derfor problemer med genernes styring af udviklingsforløbet, og specielt med hensyn til hjernens dominansforhold. En spændende forelæsning; men forskningen er tydeligvis på et meget indledende stade. (Hvad var det for øvrigt Chr. A. Volf påstod for 50 år siden om netop hormoner og dysleksi?)



     Dr. Avi Karni fra Haifa viste, hvordan beskæftigelse med forskellige og beslægtede aktiviteter adskilt af for korte pauser havde negativ indvirkning på hukommelse og indlæring. En bestemt færdighed bør indlæres (trænes) i sammenhæng, indtil man ingen forbedring ser. Derefter bør der hviles (soves). Voksne synes at have behov for mindst 6 timers pause før en beslægtet færdighed trænes. I modsat fald opstår der interferens. Børn antages at kunne klare sig med kortere pauser. Søvn spiller en overordentlig vigtig rolle for etableringen af en permanent hukommelse. Efter søvn kan man endda se forbedring af de resultater, der blev opnået før søvnperioden. (Hvordan er det nu med at lægge en time i engelsk lige efter en time i tysk, hr. skemalægger?)



    En gruppe lærere og forskere fra Texas viste, hvordan ”cursive writing” (gammeldags, sammenhængende skrift) har en væsentlig mere positiv indvirkning på tilegnelsen af skriftsproget end man ser ved brugen af små, trykte bogstaver. Men det har vi jo i Danmark p.g.a. enkelte personers udokumenterede og fikse idéer valgt at se stort på.



     Frank B. Wood, der er professor i neuroscience ved Wake Forest Univ. School of Medicine og Peter Perret, musiker og dirigent for the Winston-Salem Symphony fra 1978 til 2004, berettede i fællesskab om et nu 10-årigt projekt, hvor en gruppe orkestermedlemmer i en halv time ugentligt i 18 uger arbejder med elever i grundskolen (0.-3. kl.) for at lære dem musikkens udtryksformer. Der er altså ikke tale om egentlig musik- eller instrumentalundervisning.  Frank Wood fortalte, at denne form for undervisning havde haft en temmelig uventet sideeffekt. Ved tidligere nationale tests efter 3. klasse havde under 40 pct. af skolens elever scoret gennemsnitligt eller over gennemsnit i læsning og matematik. Efter bare ét år med denne type undervisning i 3. klasse scorede 85 pct. af eleverne i 1997 på eller over det nationale gennemsnit i læsning og 89 pct. på eller over det nationale gennemsnit i matematik, uden at disse fag havde fået ekstra opmærksomhed.

Woods forklaring er, at musik påvirker hjernes måde at opfatte og arbejde på, hvilket jo allerede Aristoteles (384-322 f.Kr.) hævdede. Perret har skrevet en bog om forløbet. Se nedenfor.

Engang havde vi et skoleforsøg på Østrigsgade Skole med nøjagtig samme konklusion. For kort tid siden bragte DR  (Nina Ørum) en udsendelse, hvor 6-7 års forsøg i Berlin viste tilsvarende resultater. Desværre siver den slags kun langsomt ind hos danske læseforskere og skoleautoriteter. Vore elever skal tæskes med sproglig træning så tidligt som muligt, uanset om de små hjerner er modne til det eller ej.



     Prof. Guinivere Eden, der er leder af Center for the Study of Learning, Georgetown Univ., Washington, DC er et meget aktivt medlem af IDA’s bestyrelse og hjerneforsker. Også hun forelæste (flere gange) ved konferencen. I dagene forud publicerede hun sammen med en række kolleger resultater fra  fMRI scanninger af  19 voksne dyslektikere og 19 ikke-dyslektikere.

Undersøgelsen viste at dyslektiske hjerne under arbejdet med at forarbejde ord viste mindre aktivitet i et område af hjernebarken (left inferior parietal cortex) end man fandt hos ikke-dyslektikere.

Derefter fik den ene halvdel af den dyslektiske gruppe intensiv træning i at genkende og forarbejde sproglyd. Den anden halvdel fik ingen træning. Ved retestning fandt man, at den trænede gruppe viste signifikante forbedringer i visuel og auditiv ord genkendelse samt i højtlæsning. Endvidere fandt man hos denne gruppe forøget aktivitet i ”left parietal cortex” samt i flere regioner i hjernens højre hemisfære. Konklusionen er, at også voksne dyslektikere har udbytte af intensiv træning.

Undersøgelsens resultater er  blevet offentliggjort i  NEURON, Vol. 44, Nr. 3, Oct. 28, 2004, s.411- 422.


     Der kan selvfølgelig skrives uendelig meget mere fra en så omfattende konference, men interesserede kan evt. logge ind på og forhåbentlig blive inspirerede til at deltage i næste års konference i Denver, Colorado 9.-12. nov. 2005.



Perret, P. & Fax, J, 2004: A Well-Tempered Mind. Using Music to Help Children Listen and Learn. New York: The Dana Foundation, 745 Fifth Ave., Suite 900, New York, NY 10151. ISBN 1-932594-03-5.




Rapport med kommentarer fra en konference i San Diego 12.-15. nov. 2003.


Kjeld Johansen:



Stigende bekymringer over et voksende antal børn og unge med væsentlige læse- og stave-vanskeligheder findes også i Danmark, hvor vi bruger over 20% af vore ”skolepenge” på specialundervisning!


En rapport vedrørende udviklingen i læse- og matematikkundskaber i USA fortæller, at der er små fremskridt i matematik; men der sker intet i læsning. Man mener, at fremskridtene i matematik skyldes, at der overalt er indført standardiserede læseplaner med klare krav, medens man i over 20 år har skændtes om, hvilken læsemetodik, der giver de bedste resultater!


Fortalerne for metoder, hvor der eksplicit og systematisk undervises i sammenhænge mellem sproglyd og bogstaver har god forskningsmæssig støtte i deres påstand om, at dette  er de bedste metoder.

Imidlertid tilsiger sund sans, at der jo også skal være andet og mere i en læseundervisning end ”sprogeksercits”.  God litteratur f.eks.


Der er dog ingen tvivl om, at den store gruppe med læse- og staveproblemer har behov for netop eksplicit og systematisk undervisning  i sammenhængen mellem lyd og bogstaver, udført af veltrænede lærere.


I San Diego dokumenterede kendte forskere, at dårlige læsere har hjerner, der i flere områder ser anderledes ud eller fungerer anderledes end hjerner hos folk, der læser uden problemer.


Flere  præsenterede dog deres forskning og resultater på en sådan måde, at man skulle tro, at et menneske rækker fra issen til underkæben.


Der findes i USA skoler uden udendørs legemuligheder. Hvis børn kommer til skade i løbet af skoledagen, er det nemlig skolens ansvar. Så må man jo passe på dem og holde dem inde. Evt. dæmpe aktivitetstrangen med et par piller.


Er der en sammenhæng til andre sider af udviklingen? Rotter udvikler sig jo langt bedre i fri dressur end i bur!


Engang spiste alle fisk en gang om ugen. Fisk indeholder vigtige fedtsyrer, som bl.a. har betydning for hjernens udvikling.


Småbørn, som vokser op i støj, har forsinket sprogudvikling. Børn, som vokser op i byer – eller i hjem -, hvor der konstant er støjpåvirkning, løber en risiko for at det får konsekvenser for sproget.


Konferencen var arrangeret af The International Dyslexia Association, havde ca. 3000 deltagere og mange fremragende forelæsere.


Det er nu med diverse skanningsteknikker vist, at særlig de strukturer i hjernens venstre halvdel, der har betydning for forarbejdning af talesproget, har betydning også når læseindlæringen påbegyndes. Hvis der i disse strukturer er nedsat aktivitet, går indlæringen langsommere – eller sker slet ikke.

Senere, når læsningen automatiseres, får andre strukturer i hjernen øget betydning. F.eks. strukturer bagtil, hvor visuelle mønstre forarbejdes. Den viden må nødvendigvis får konsekvenser for læseundervisningen.


I mange dyslektiske hjerne er der reduceret aktivitet i venstre hemisfære og samtidig øget aktivitet i højre sammenlignet med forholdene hos ikke-dyslektikere.


Det blev vist, at når et barn er få uger gammelt kan man med en speciel eeg-teknik registrere responser på auditive input, der kan forudsige kommende sproglige vanskeligheder.


Det var interessant at se, at helt unge læsere (3-4 årige) primært viser øget aktivitet i hjerneområder med visuel tilknytning. Det ser altså ud til, at læseudviklingen også kan være

                                 visuel =>auditiv (fonologisk)=>visuel

afhængig af alder.


G. Eden nævnte, at der er grund til at være opmærksom på sensoriske og perceptuelle forhold i både det auditive og det visuelle system og at dybereliggende hjernestrukturer også er værd at kigge på.


Mindst tre områder udviser forskelle mellem dyslektiske og ikke-dyslektiske hjerner:

Cortex (hjernebarken) har både arkitektoniske og funktionelle forskelle mellem dyslektiske og ikke-dyslektiske hjerner. Det samme er tilfældet for corpus callosum (hjernebjælken) og for cerebellum (lillehjernen), der er involveret i motorisk automatisering, men overraskende også i automatiseringen af visse sproglige funktioner.

I talamus, relæstation mellem sanseorganerne og hjernebarken, findes et par områder i både det auditive og det visuelle system, hvor arkitektur og funktioner også udviser forskelle mellem dyslektiske og ikke-dyslektiske hjerner.


Drake Duane beskæftigede sig med neurologiske og psykiatriske karakteristika ved dysleksi, ADHD, Tourette og Aspergers. Han fastslog, at ved alle disse lidelser, der betegnedes som neurologiske, kan man måle forsinket respons på auditive input, men at problemet synes at mindskes i puberteten.

Duane viste at omkring 25% af børn med indlæringsvanskeligheder har afvigende eeg-mønstre, der viser små abscencer. Ca. en tredjedel af børn med indlæringsvanskeligheder har også opmærksomhedsproblemer (ADD) og mellem halvdelen og tre-fjerdedele af diagnosticerede ADD tilfælde har også indlæringsproblemer. Forekomsten af DAMP/ADHD sattes til ca. 7.5% og forholdet mellem drenge og piger til 3:1.

Interessant var det også at se, at børn med diagnosen DAMP/ADHD uden dysleksi ved diverse skanninger af sprogområderne ikke adskilte sig fra ”normalbilledet”, medens børn med diagnosen DAMP/ADHD og dysleksi udviste præcis de samme karakteristika som dyslektikerne.


Jeffrey W. Gilger sagde om genforskning:

”Der er ringe tvivl om at fremskridt i molekylær genetik nu gør det muligt at identificere specifikke gener og deres indvirkning på neurologisk udvikling . Vi må dog ikke lade os forlede af den genetiske forsknings løfter. Vi må være bevidste om, at selv om man finder de gener, der har betydning for læsevanskeligheder, så er det usandsynligt at genetisk manipulation vil bidrage med nogen som helst nyttig terapi eller præventiv indsats, i det mindste i adskillige år.

I stedet bør vi lære af denne forskning, hvordan vi bedre kan indrette omgivelserne, så folk med vanskeligheder får god hjælp eller endnu bedre, så risikobørn identificeres og så ændringer i miljø og metoder kan iværksættes længe før problemerne viser sig.

Disse miljømæssige interventioner kunne være standardiserede tidlige stimulationsteknikker (jeg tænkte naturligvis straks på motorisk, auditiv og visuel stimulation), formelle læseprogrammer eller måske endda medicin udviklet på grundlag af vor viden om de neurobiologiske årsager til læseproblemer (her tænkte jeg på kostændringer, vitaminer og essentielle fedtsyrer i stedet).

Disse terapier kan ændre hjernen på en sådan måde, at den lærer at læse ved at bruge sine intakte systemer eller endnu bedre: udvikler de systemer der findes, men som fungerer utilstrækkeligt.”


En forelæser viste, at axoner, der forbinder hjerneområder involveret i sprogforarbejdning, kan være dårligere myeliniseret i dyslektiske hjerner end i ikke-dyslektiske hjerner. Det betyder dårligere kommunikation mellem disse områder  og kan være årsag til sproglige problemer.


Gregory Robinson, Australien, gav en detaljeret analyse af biokemiske profiler hos børn og voksne, hvor visuelle problemer (kontrastfølsomhed) synes at have sammenhæng med dysleksi og utilstrækkelig omsætning af essentielle fedtsyrer. Her kan være en forbindelse til anden forskning, som viser nedsat transmission i det visuelle magnocellulære system, der er transmissionsvej for perifert syn, registrering af bevægelse, opfattelse af konturer og kontrast, samt nattesyn.

Robinson mente, at visse kemikalier og kroniske infektionssygdomme har betydning for omsætningen af essentielle fedtsyrer.


Flere fremlagde dokumentation for, hvordan veltilrettelagt og stærkt struktureret undervisning af dyslektikere, 1:1 eller 1:3(5), i 60 til 100 timer kunne fremme elevernes færdigheder. Man kunne samtidig vise, hvordan hjerneaktiviteten så ændrede sig mod normalbilledet, som hos ikke-dyslektikere.


Der er dog en del, ca. 2% af alle børn uden andre særlige vanskeligheder, som trods intensiv undervisning ikke flytter sig.


Mange træningsprogrammer har positiv virkning på især de fonologisk betingede vanskeligheder, som findes hos dyslektikerne, men bidrager ikke til øget   læsehastighed. Der må derfor også arbejdes med udvidelse af eleverne ordforråd og kendskab til verden omkring os.

(Man kunne måske også begynde at interessere sig for evt. visuelle problemer, min bem.)


W. Tunmer og J. Chapman, NZ, sammenlignede  Reading Recovery med andre specialundervisningsprogrammer. Konklusionen lød:

”RR programmet har væsentlige mangler og behov for forbedringer på i hvert fald fire områder: programmets teoretiske grundlag, som  er i strid med viden om behovet for fonologisk træning, testprogrammet er ikke godt nok, idet de ca. 30% dårligste elever dropper ud af programmet og ikke regnes med, hvorved effektiviteten overvurderes, de specifikke procedurer og strategier i programmet er utilstrækkelige og én-til-én undervisningen i stedet for undervisning i par, som tilsammen får bare 8 min. mere, er ikke mere givende. Ændringer på alle disse områder vil forbedre programmet, både med hensyn til udbytte og omkostninger. Indtil forbedringer gennemføres, vil vi stærkt anbefale, at programmet ikke bruges i skolerne.”


Den mest spændende forelæsning var Patricia Kuhl’s Geschwind Memorial Lecture, der viste, hvor vigtig perioden fra ca. 6-8 måneder og frem til 10-12 måneder er for et barns sproglige udvikling og hvor vigtigt det er, at de visuelle og auditive sproglige input et barn modtager gennem det første leveår er synkrone. God social interaktion i dette tidlige stadium er også en forudsætning for god sproglig udvikling.


I San Diego deltog forskere, lærere og undervisere på læreruddannelser fra såvel Norge som Sverige. Men ingen fra Danmark. Det har været billedet i de 12 år jeg har deltaget i IDA’s konferencer. Er manglende interesse for de mange problemstillinger omkring læsevanskeligheder en årsag til den lidet frugtbare diskussion vi oplever i Danmark? Eller måske deltager danske  seminarielærere, forskere og professorer fra DPU og KUA bare andre steder?




“Vi har revideret arbejdsdefinitionen fra 1995 på basis af nutidige og sammenfaldende synspunkter, der er af betydning for læseudvikling, læsevanskeligheder og læseundervisning. Men opgaven er ikke afsluttet. Vor forståelse af dysleksi er et fremadskridende arbejde og vil vedblive at være netop det. Vær sikker på at i løbet af de næste fem år så vil forbedrede forsknings- og undersøgelsesmetoder med garanti give ny viden som yderligere vil modificere definitionen. Det eneste konstante er at denne og fremtidige definitioner afspejler det bedste, som videnskaben kan tilbyde.”

Sådan skrev G. Reid Lyon, Sally E. Shaywitz og Bennet A. Shaywitz, da de på vegne af en 12 personers arbejdsgruppe i august 2003 fremsendte det forslag til ny definition af dysleksi, som nu er IDA’s officielle:


”Dysleksi er et specifikt indlæringshandikap, der har neurobiologisk årsag. Det karakteriseres ved vanskeligheder med nøjagtig og/eller flydende ord genkendelse og ved dårlige stave- og afkodnings evner. Disse vanskeligheder er typisk forårsaget af et svigt i sprogets fonologiske system og er ofte uventede set i forhold til andre kognitive evner og til modtagelsen af effektiv undervisning.

Sekundære følger kan omfatte problemer med at forstå det læste samt nedsat læseerfaring, der hæmmer udviklingen af ordforråd og baggrundsviden”.


I Danmark har vi ikke en sådan officiel definition, men må søge i Det Danske Nationalleksikon, hvor en enkelt person har formuleret sin opfattelse, dog med fornuftig skelen til hvad andre mener (se Ordblinde Bladet 2, 2003, s. 14).


I Sverige har en gruppe forskere netop afleveret første del af et værk, hvori de forsøger at give udtryk for enighed om, hvad man i Sverige skal forstå ved dysleksi og hvordan man bør forbedre dyslektikernes indlæringsmuligheder.

Men allerede i første afdeling af rapporten tager et par forskere forbehold. Et forbehold som også på en vis måde rammer definitionen ovenfor. De to forskere forklarer deres forbehold således:”… att man taler om språkliga problem utan att förstå vad dessa kan bestå av, orsakas av eller leda till.”  De er desuden kritiske over for at ”all fokusering hamnat på fonologien, som ses som en förutsättning för läsningen” og mener, at selve termen ”fonologi” ikke tolkes korrekt.


Der er imidlertid ingen som helst tvivl om, at der er en sammenhæng mellem dårlig opfattelse af andres talesprog, dårlig (forsinket og/eller ”forkludret”) udvikling af eget talesprog og senere læse-/stavevanskeligheder. Men som altid, når det handler om mennesker, er der ikke nogen en-til-en sammenhæng!!


Sammenholder man tidligere definitioner fra en række lande med IDA’s nyeste herover, er der flere interessante ting at få øje på.

Det slås fast, at dysleksi er et specifikt indlæringshandikap. Der er altså ikke tale om, at dysleksi blot er den nedre ende af en normalfordeling, som mange tidligere påstod; faktisk også professorerne Shaywitz. Det slås også fast, at dysleksi har neurobiologisk årsag. Ikke nogen bestemt, men man skal altså søge i det enkelte menneskes neurologiske og biologiske konstitution samt funktioner for at finde årsagen (årsagerne).


Fra mit synspunkt er det endvidere meget spændende, at man ikke længere holder fast i tidligere tiders formulering at ”dysleksi ikke er en følge af generelle udviklingsmæssige handikaps eller af sensorisk svækkelse”. Denne lille og tilsyneladende ubetydelige modifikation gør det nemlig muligt også at forske i mulige sammenhænge mellem forsinket neurologisk udvikling, tidlige problemer med syn og hørelse og senere udvikling af læse-/staveproblemer. Nu er disse muligheder jo ikke længere pr. definition udelukket.


Ellers er det min opfattelse, at det næsten væsentligste står i følgeskrivelsen:

”Vor forståelse af dysleksi er et fremadskridende arbejde og vil vedblive at være netop det.”

Eller for at udtrykke det som den svenske hjerneforsker Martin Ingvar engang gjorde det: ”Forskningen viser, hvad vi ved i dag og hvad vi vidste i går, men ikke hvad vi ved i morgen.”


IDA står for The International Dyslexia Association og den nye definition kan findes i Annals of Dyslexia, Vol. 53, der er udgivet af IDA i nov. 2003.




                                                                              LYD, HØRELSE OG SPROG.

For næsten 8 år siden udstødte den daværende redaktør af Nordisk Tidsskrift for Spesialpedagogikk (nr. 2/1995), Hans Arte, et hjertesuk over den forvirrende dysleksi-debat.

Arte anklagede dysleksiforskerne for ikke bare at være uenige, men også for (i hvert fald i Sverige) at miskreditere og underkende hinandens forskningsresultater.

Siden da har ikke meget ændret sig på det område. Det gælder i Sverige såvel som andre steder.

Den afgående redaktør af det engelske tidsskrift Dyslexia, T.R. Miles, skriver ganske vist i sit afskedsindlæg (okt.-dec. 2002): ”Himlen forbyde at der nogensinde vil være et ’dyslexia establishment’, hvor kun bestemte typer af artikler er acceptable”.

Det er min overbevisning, at prof. Miles godt ved, at han tager fejl! Hvis man fra sidelinien søger at fremkomme med andre idéer til forskning og praksis end hvad ’the establishment’ p.t. anser for acceptabelt, så får man ikke en chance. Det gælder også (kan hænde specielt?) i Danmark (Janteloven?).

Måske er det derfor, at en ny organisation, the Dyslexia Research Trust, er dannet i England.

Organisationens første nyhedsbrev (aug. 2002) indeholder artikler om anerkendte forskeres arbejde med tiltag, der generelt betragtes som ”alternative” f.eks. kosttilskud, essentielle fedtsyrer, visuelle og auditive problemer, farvede briller og naturligvis de genetiske sammenhænge. (Det sidste er dog ikke så ’alternativt’ eller kontroversielt).


En af nyhedsbrevets artikler refererer et indlæg af C. Witton, J.F. Stein, C.J. Stoodly, B.S. Rosner og J.B. Talcott fra Federation of European Neurosciences Societies, Paris.


Overskriften er:

Hvad du hører kan påvirke hvad du læser.

”Caroline Witton har samlet mere dokumentation for at basal auditiv forarbejdning kan være en underliggende årsag til nogle af de vanskeligheder, som mange dyslektikere har med at erhverve fonologiske færdigheder d.v.s. at blive opmærksom på og at være i stand til at manipulere sprogets lyde.

Hun har fundet, at auditiv følsomhed både over for hurtige og langsomme ændringer i frekvens (tonehøjde) og amplitude (lydstyrke) ved rene toner er af betydning for udviklingen af de fonologiske færdigheder, der er nødvendige for at kunne læse godt.

Dyslektiske voksne var mindre følsomme end ikke dyslektiske voksne både over for langsomme ændringer i frekvens og over for hurtigere ændringer i amplitude.

Disse målinger af auditiv følsomhed forudsagde de fonologiske færdigheder hos alle deltagerne, når disse blev testet med læsning af non-ord.

De fundne resultater leverer yderligere beviser for, at forskelle i basal sansemæssig forarbejdning – både auditivt og visuelt – kan bidrage til dyslektikernes vanskeligheder med at læse. Tests for tidlig opdagelse af disse vanskeligheder er nu under udarbejdelse.” (Min oversættelse).


Også i 2002 kom andre interessante oplysninger fra anerkendte forskere. Ved en konference i Acquafredda di Maratea, Italien fremlagde P. Korpilahti, R. Ceponiene og R. Näätänen fra universiteter i Finland og Californien dokumentation for, at man med auditiv stimulation (lyd-behandling) kan forbedre børns opfattelse af sproglyd:



”ADT (auditiv diskriminations træning)

er en metode, der kan forme de auditive processer ved hjælp af individuelt filtreret terapeutisk musik. Filtreringen er baseret på ren-tone audiogrammer.

Formålet med ADT terapien er at reducere problemer forårsaget af upræcis hørelse, f.eks. sprogvanskeligheder og opmærksomhedsproblemer.

Barnet lytter til ADT musikken hjemme hver dag i 10 minutter. Hele ADT forløbet tager 6-9 måneder. Undervejs i behandlingsperioden er der sædvanligvis 3-5 kontrol undersøgelser, hvorefter der indspilles nye tapes.”

Den refererede undersøgelse omfattede specielle EEG-målinger og sproglige tests af en forsøgsgruppe, en ikke behandlet forsøgsgruppe og en kontrolgruppe.

Af resultaterne fremgår, at der forud for behandlingen var signifikante forskelle ved visse EEG-målinger mellem de sproghæmmede børn og børnene i kontrolgruppen. Det fremgår endvidere, at disse EEG-målinger normaliseredes hos den behandlede forsøgsgruppe, der også udviste forbedret (alderssvarende) diskrimination og ”naming skills” efter træningen.

Forældre og lærere rapporterede mærkbare fremskridt i opmærksomhed og sproglige færdigheder hos de børn, hvor EEG-målingerne normaliseredes efter træningen.

Konklusionen hos Korpilahti et al. er, at ADT kan anvendes til at opnå bedre auditiv diskrimination og således hjælpe barnet til bedre sprogudvikling.


Det er bemærkelsesværdigt, at disse forskningsresultater opnås i f.eks. England og Finland, når det trods alt var i Danmark at Chr. A. Volf slog sine folder  for ca. 40 år siden.




Dyslexia, Vol. 8., No. 4, Oct-Dec 2002 pg. 187. Bognor Regis: John Wiley & Sons, Ltd.


Korpilahti, P., Ceponiene, R., Näätänen, R.  Neurofunctional Correlates of Auditory Perception and Discrimination Training at the School Age. Paper presented at the conference  The Science of Aphasia, Acquafredda de Maratea, Italy, June 2002.   E-mail:  Korpilahti: 


NETWORK. The Newsletter of the Dyslexia Research Trust, Vol. 1, Issue 1, Aug. 2002, pg. 2. Oxford: The Dyslexia Research Trust.



når flere hundrede ”behandleres” og titusinde elevers positive erfaringer ikke anerkendes, fordi der ikke er udført et randomiseret dobbelt blindforsøg med et halvt hundrede deltagere.


Gennem mere end 40 år har jeg hørt og læst såkaldte videnskabelige læseforskere udtale, at lydbehandling, auditiv stimulation, auditiv diskriminationstræning eller hvad det nu kaldes ikke er ”videnskabeligt bevist”, hvorfor det bør afvises fra det gode selskab.


I de samme mange år har jeg mødt og arbejdet med utallige børn og unge, hvis liv er blevet afgørende ændret af denne uvidenskabelige metode.


Blandt teologer diskuterer man, om det er troen eller handlingerne, der frelser mennesket. Er man fortabt, hvis man gør, hvad man kan, for at lette livet for andre, men ikke tror? Er man frelst, fordi man tror, men i øvrigt opfører sig som et dumt svin? En del teoretisk indstillede teologer forfægter begge synspunkter.

På samme måde fungerer ”videnskaben” om børns indlæringsproblemer. Til h…… med resultaterne, hvis vi bare kan anklage den teoretiske baggrund for at være mangelfuld!


Når det drejer sig om auditiv stimulation og sprogudvikling er det bare sådan, at teorierne ikke halter, men at mange s.k. ”ledende læseforskere” har for ringe all round viden om menneskebørns udvikling i samspillet mellem de genetiske dispositioner og miljøets indflydelse eller har en nærmest religiøs overbevisning om teoriernes forrang over erfaringernes.


Det er bevist, at børn, der vokser op i støjfyldte miljøer, har sværere end andre ved at opfatte forskelle mellem visse sproglyde (1).

Det er bevist, at børn i løbet af det første leveår så at sige indstiller sig på lydene i det sprog, de hører hver dag, og derefter får vanskeligere ved at udskille visse lyde i fremmede sprog (2).

Det er for længst bevist, at børn med hyppige hørenedsættelser oftere end andre får sproglige problemer (3).

Det er bevist, at man ved at lytte til musik, hvor snævre frekvensområder er bortfiltreret, bliver dårligere til at reagere på netop disse frekvenser (4).

Det er bevist, at man ved at lytte til lyde i bestemte frekvensområder bliver bedre til at opfatte disse frekvenser (5).

Det er for længst bevist, at der er en tæt sammenhæng mellem manglende evne til at skelne mellem visse sproglyde og en dårlig sprogopfattelse (6).

Det er bevist, at når hjernen ikke reagerer godt nok eller normalt på lydmæssig stimulation, så får det konsekvenser for alle dele af den sproglige udvikling – også for stavning og læsning (7).

Det er for længst bevist, at miljømæssig stimulation af alle sansemodaliteter grundlæggende ændrer og udvikler hjernens arkitektur og funktion (8).


Titusinder af børn over hele jorden er gennem mange år blevet hjulpet til en bedre opfattelse af talesproget, til bedre stavning og bedre læsning ved at deres specialundervisning er blevet suppleret med specifik, auditiv stimulation. Alligevel afviser statsautoriserede og fondsbetalte læseforskere fortsat, at der kan være noget om snakken. Det kan man godt blive træt af at høre på.

I øvrigt er Skandinavien kendt som et område, hvor afvisning af supplerende eller alternative tiltag fra de etablerede systemer i enhver sammenhæng er størst (9).



Henvisningerne herunder er kun til en minimal (men forhåbentlig repræsentativ) brøkdel af, hvad der findes om forskning på dette område.

Det er en gåde, at forskere fortsat bruger deres tid på at gentage undersøgelser for evt. at korrigere nogle procentsatser, frem for i første omgang at anvende den eksisterende viden på at hjælpe nogle børn.

Man fristes til at tro, at nogle forskere frygter dele af virkeligheden uden for laboratorierne.


  1. Forskning på bl.a. Karolinska, Stockholm, som har været omtalt i svenske dagblade 2003.
  2. Kuhl, Patricia (2003): Language, Reading and the Developing Brain. The Norman Geschwind Memorial Lecture. The International Dyslexia Association’s 54. Annual Conference, San Diego Nov. 2003.
  3. Kavanagh, James (ed.) (1986): Otitis Media and Child Development. Parkton, Maryland: York Press.
  4. Pantev, C. et al. (2001): Representational Cortex in Musicians. Plastic Alterations in Response to Musical Practice. New York: Annals of the New York Academy of Sciences. Vol. 930, pg. 300-314.
  5. Merzenich, M. et al. (1993): Neural Mechanisms Underlying Temporal Integration, Segmentation and Input Sequence Representation. New York: Annals of the New York Academy of Sciences. Vol. 682, pg. 1-22.
  6. Obrzut, J.E. & Boliek, C.A. (1988): Dichotic Listening: Evidence from Learning and Reading Disabled Children. I Handbook of Dichotic Listening pg. 475-511. Chichester: John Wiley & Sons.
  7. Breier, J. & Fletcher, J.  (2003) Neuropsychology, Oct. 2003.
  8. Diamond, Marian C. (1988): Enriching Heredity. The Impact of the Environment on the Anatomy of the Brain. New York: The Free Press/MacMillan, Inc.
  9. Brogaard, Maj C. (2001): Alternative forskere fryses ud. Danmark er langt bagud med forskning i alternativ behandling, fordi dele af lægeverdenen modarbejder seriøse forskningsprojekter. Dagbladet Information 12.11.2001.





Dies    Diese Vortrag wurde im Nordic Journal of Special Needs Education 4/2002 S. 245 – 271, ISSN 0408-0509, Universitetsforlaget, Postfach 508, N – 0105 Oslo veröffentlicht.


Kjeld V. Johansen


zentrale Hörverarbeitungsprobleme,

Sprachstörungen -


Wissenschaftler mehrerer Disziplinen (Erziehung, Psychologie, Sprechen und Sprache) sind übereinstimmend der Auffassung,

 dass die Hälfte der Population mit spezifischen Leseschwierigkeiten dieses Problem geerbt hat. Doch was mag die Ursache des

        Problems bei der anderen Hälfte sein?

Wir wissen inzwischen, dass die Mehrzahl der Personen mit spezifischen Leseschwierigkeiten (Legasthenie) – mit oder ohne

V      Vorkommen des Problems in der Familie – spezifische phonologische / phonemische Schwierigkeiten mit der Wahrnehmung              

Und Produktion von Sprache hatten oder still haben.

         Nach Angaben von Eltern auf einem Fragenbogen unseres Laboratoriums im Schuljahr 2001 kamen 26% der Kinder aus

         Familien mit Leseproblemen, 22% der Kinder hatten von früh an wiederholte Mittelohrentzündungen, 36% hatten  von früh

an wiederholte   Mittelohrentzündungen und kamen aus Familien mit Leseproblemen, bei 16% bestanden keine solche

Probleme (N=50, Durchschnittsalter 10;6,  Durchschnittslesealter < 8;6).

      Ein naheliegender Schwerpunkt in der Legasthenieforschung könnte daher eine unzureichende auditive Wahrnehmung in

 früher Kindheit (entweder angeboren oder erworben) sein.

      Etliche Definitionen von Legasthenie behaupten explizit, dass diese Lernstörung nichts mit  sensorischen Problemen zu tun

habe. Unsere Arbeit stellt diese Behauptung in Frage. Ein Problem könnte darin liegen, dass die Untersuchungen sensorischer

Probleme zu oft unzureichend sind.

    Forschungen haben gezeigt, dass es Individuen gibt, die trotz eines offensichtlichen normalen peripheren Hörvermögens

 zentrale auditive Hörverarbeitungsstörungen (CAPD = Central Auditory Processing Disorders) aufweisen, die mit sprachlichen

Problemen zusammenhängen können, einschließlich Problemen beim Lesen und in der Rechtschreibung (Legasthenie).

Gleichzeitig wird in den meisten Forschungen zur Legasthenie, bei den Untersuchungen und den Interventionsprogrammen

 implizit angenommen, dass sowohl die periphere wie die zentrale sensorische Verarbeitung gut funktionieren. Dies wird hier

 in Frage gestellt.


  In Tierversuchen hat man gefunden, dass sich auditive Diskriminierungsfähigkeiten durch Übung ständig verbessern

(Merzenich et. al., 1993).

Man hat daher vermutet, dass durch Anwendung spezieller  auditiver  Stimulationstechniken  ähnliche Verbesserungen

 bei Kindern herbeigeführt werden können (Stein, 2001).

   Die Ergebnisse, über die im vorliegenden Paper berichtet wird, scheinen darauf hinzuweisen, dass einfache diagnostische

Techniken, wie z.B. die präzise Bestimmung der Hörschwellen in den unterschiedlichen Frequenzen, zusammen mit einer

binauralen Audiometrie und dichotischem Hören, um die Diskriminationsfähigkeit und das dominante Ohr zu bestimmen,

wichtige Aspekte zu der Diagnose eines Problems  beitragen können, das gemeinhin als zentrales Verarbeitungsproblem

betrachtet, das oft außer Reichweite üblicher Lehrmethoden liegt.


         Weiterhin gibt es Belege, dass spezifische auditive Stimulationsprogramme, die auf solchen Untersuchungen basieren und bei

 denen die Wahrnehmung von AM (Amplitudenmodulation), FM (Frequenzmodulation) und TM (Temporale Modulation)

 durch das Hören individuell erstellter Kassetten oder CDs trainiert wird, die Wahrnehmung von CV (Konsonant/Vokal)

 Silben verbessern und somit den Förderunterricht durch die Verbesserung auditiver Diskriminierungsfähigkeiten unterstützen




Schlüsselwörter: auditive Lateralität; Hörverarbeitung; auditive Stimulation; Legasthenie



    Die jüngste Debatte im Zusammenhang mit den von P. Tallal und M. Merzenich veröffentlichten Arbeiten (Hook, Macaruso und Jones, 2001; Macaruso und Hook, 2001; Bellis, 2002, S. 270) legt es nahe, ähnliche Ideen in bezug auf non-verbale auditive Stimulation der Diskussion hinzuzufügen.

    Seit 1987 hat das Sensomotorische Zentrum in Mjölby, Schweden, erfolgreich Reflex- und visuelle Stimulationsprogramme angewandt. Seit 1990 wurden dort auch hemisphärenspezifische auditive Stimulationsprogramme (HSAS) eingestzt, und zwar insgesamt bei bisher 800 Schülern mit Lernproblemen (Sohlman, 2000, S. 16). Die auditive Stimulation basiert auf diagnostischen Prozeduren, die Hörtests einschließen (audiometrische Tests zur Bestimmung der Hörschwellen, der auditiven Lateralität sowie auch des dichotischen Hörens). Die Schüler werden vor und nach der Intervention untersucht.

Im Licht veröffentlichter Ergebnisse dieses Trainings  sowie der oben angeführten Forschung wurde die Durchführung einer retrospektiven Studie über jene Schüler, die vom Zentrum betreut wurden, beschlossen.

    „Forschungen über die Behandlung von entwicklungsbezogenen Leseproblemen wurden zum Beispiel durch das Vertrauen auf  die grobe, vortheoretische Kategorie der entwicklungsbezogenen Legasthenie beeinträchtigt. Während diese Kategorie mit großer Sicherheit vielschichtig ist, wird bei den meisten Forschungsarbeiten über entwicklungsbezogene Legasthenie implizit angenommen, dass die zugrundeliegende kognitive Dysfunktion bei allen (oder fast allen) Legasthenikern die gleiche ist. In der Folge haben die meisten Studien undifferenzierte Gruppen von Legasthenikern überprüft. Sie zielten darauf ab, einen für alle gleichen, pauschalen methodischen Behandlungsansatz zu finden. Zu den Ergebnissen dieses Ansatzes zählen enttäuschende Erfolgsraten und weit gestreute Wiederholungsfehler.“ (McCloskey, 2001, S. 607)

    „Wenn wir den Standpunkt vertreten, dass jedes Individuum ein einzigartiger Fall ist, dann eignen sich Fragen der Gesundheit nicht zu statistisch signifikanten Doppelt-Blind-Studien, die Hunderte von identischen Fällen und Kontrollgruppen einbeziehen. Einfach, weil die Realität nicht mit den statistischen Regeln der Wissenschaft übereinstimmt. Einfach, weil jeder einzelne Mensch, jede einzelne Krankheit und jedes menschliche Schicksal einzigartig und nicht wiederholbar ist.“ (Jerndal, 1999).

    „Bis vor kurzem  dachten viele, dass es sich bei erworbener Legasthenie um eine Verhaltensstörung handelte, die sich vor allem auf das Lesen auswirkte. In der Tat ist es eine zum Teil vererbte Bedingung, bei der die klinischen Manifestationen überaus komplex sind. Sie umfassen Defizite im Lesen, Kurzzeitgedächtnis, sensomotorische Koordination und frühe Sinnesverarbeitung. Obwohl intensive Forschungsarbeiten diese Verhaltensanomalien sorgfältig charakterisiert haben, werden die biologischen Mechanismen dieser klinischen Manifestationen immer noch nur unzureichend verstanden.“ (Zeffiro und Eden, 1999, S. 3)

    „Es ist jedoch bekannt, dass schwere Mittelohrentzündungen in der frühen Kindheit zu Sprachproblemen und dann zu Legasthenie führen können (Merzenich und Jenkins, 1995).“ (Von Livingstone, 1999, S. 89)

    “Es gibt Grund zur Annahme, dass einzelne subtile sensorische und motorische Probleme sich auf das Lesen und Schreiben von Legasthenikern beeinträchtigend auswirken können.“ (Berninger, 2001, S.37)

    „Idealerweise würden wir jedoch gerne das kausale Argument endgültig bestätigen, dass eine unzureichende AM und FM Sensitivität den Erwerb guter phonologischer Fähigkeiten verhindert, indem wir zeigen, dass eine Verbesserung der AM und FM Sensitivität bei Kindern durch ein sensorisches Training ihnen dabei hilft, phonologische Fähigkeiten zu erwerben.“ (Stein, 2001, S. 4)

    „Ich glaube, dass dann, wenn wir nach einer einfachen Antwort auf die Auditive Verarbeitungsstörung (APD) suchen, diese sich uns weiterhin  entziehen wird. Solange wir versuchen, uns auf einfache, knappe Definitionen, Diagnose- und Behandlungsmethoden von APD zu einigen, werden wir niemals einen Konsensus über irgendetwas erzielen. Das Gehirn ist ungeheuer komplex. Jede Störung, die das Gehirn betrifft, wird gleichermaßen ungemein komplex sein. Bis wir deshalb die Hoffnung auf eine einfache Antwort fahren lassen, könnten wir eventuell darauf kommen, dass wir nie die richtigen Fragen gestellt haben.“ (Bellis, 2002. S. 318)

    Hirnstudien mit bildgebenden Verfahren und Obduktionen von Personen mit Legasthenie, Lernschwierigkeiten, ADHD und Kontrollstudien mit Normalen haben funktionale morphologische und strukturelle Unterschiede in den auditiven Hirnarealen ergeben, die beim Hören von einfachen Tonkomplexen, Sprache und Musik aktiviert werden (Galaburda und Kemper, 1987; Hynd et al., 1991).

    Andere Forscher haben gefolgert, dass einige der Diskriminierungsdefizite von Kindern ihren Ursprung in der Hörbahn vor der bewussten Wahrnehmung haben. Daraus haben sie Folgerungen für eine Differentialdiagnose und angestrebte therapeutische Strategien für Kinder mit Lernschwierigkeiten und Aufmerksamkeitsstörungen abgeleitet (Korpilathi, 1996; Kraus et al., 1996).

    Leviton und Bellinger (1986) schlossen auf der Basis von Metaanalysen mehrerer Studien, dass es eine überzeugende  Verbindung zwischen frühen und wiederholten Mittelohrentzündungen und späterer Beeinträchtigung in Sprachfunktionen, gemessen an der Qualität des Paraphrasierens, gebe.

     Wright et al. (1997) berichteten, dass Kinder mit spezifischen Sprachproblemen auditive Wahrnehmungsschwierigkeiten in bestimmten temporalen und spektralen Schallbereichen haben. Sie können auch weniger gut als die Kinder in der Kontrollgruppe den Vorteil der Frequenztrennung zwischen einem Ton und einem Geräusch nutzen, um den Ton zu erkennen. Sie schlossen daraus, dass die temporale und spektrale Besonderheit der beschriebenen auditiven Wahrnehmungsdefizite die Suche nach der zugrunde liegenden neuronalen Basis von Sprachstörungen unterstützen könnte.

    Es ist erwiesen, dass eine Schwäche in der Identifikation von Sprachlauten einen der kausalen Faktoren bei Leseschwierigkeiten darstellt (Clark & Richards, 1966; Goetzinger, 1962).

    Bess, Tharpe und Gibler (1986)  berichteten, dass Kinder mit einseitiger Beeinträchtigung des rechten Ohres gewöhnlich größere Probleme beim Erkennen von Silben haben als Kinder mit linksseitiger Beeinträchtigung. Sie fanden jedoch keine schlüssige Erklärung für diesen Unterschied.

    Näslund, Johansen und Thoma (1997) berichteten von einer Studie mit 59 dänischen Personen, nach der  dichotisches Hören (DL = dichotic listening) die Leseleistung vorhersagen könne. Dabei  müssen jedoch Variationen der Lateralität in bezug auf Händigkeit sowie die Geschlechtszugehörigkeit berücksichtigt werden.

    Helland und Asbjørnsen (2001) fanden, dass Untergruppen von Legasthenikern im Vergleich mit Angehörigen einer Kontrollgruppe ein abweichendes asymmetrisches Muster aufwiesen. Sie zeigten ein schwächeres Reaktionsmuster auf Stimulation des rechten Ohres hin als die Kontrollgruppe.

    Es gibt hinlängliche Evidenz, dass eine frühe Asymmetrie mit späteren Sprachfähigkeiten verbunden ist. Kleinkinder, die früh schon phonologische Stimuli in der linken Hemisphäre verarbeiten, zeigen dann etliche Jahre später bessere sprachliche Fähigkeiten (Mills et al., 1997)

    Heute wird Plastizität als fundamentale Eigenschaft des Zentralen Nervensystems anerkannt (Diamond, 1988; Buonomano und Merzenich, 1998).

    Wiesel und Hubel (1963) untersuchten die Auswirkungen früher sensorischer Deprivation auf neugeborene Tiere. Sie fanden heraus, dass die visuelle Deprivation in einem Auge die Organisation der okularen Dominanzsäulen tiefgreifend ändern. Die Säulen im okzipitalen Lappen, die Input vom geschlossenen Auge erhielten, schrumpften, während jene mit Input vom geöffneten Auge sich noch ausdehnten.

    Unserer Meinung nach kann eine Deprivation im auditiven Bereich während kritischer Perioden in der frühen Kindheit ähnliche Auswirkungen haben.

    Recanzone et al. (1993) trainierten Eulenaffen in 60 – 80 täglichen Sitzungen, feine Unterschiede in der Tonhöhe in ausgesuchten Regionen des akustischen Frequenzspektrums wahrzunehmen. Das danach ausgeführte invasive tonotopische Mapping zeigte, dass der kortikale Bereich, der auf das trainierte Frequenzspektrum eingestellt war, verglichen mit untrainierten Affen um einen Faktor von 2 bis 3 vergrößert war.

    Pantev et al. (2001) dokumentierten in einer Studie über „funktionale Deafferentation“, dass plastische Veränderungen in der Frequenzrepräsentation innerhalb eines kurzen Zeitraumes auftreten können. Sie vertreten die Meinung, dass Veränderungen in der Effizienz bestehender exzitatorischer Synapsen oder Modifikationen in der synaptischen Effizienz durch die Transkription  benachbarter früher Gene mögliche Kandidaten für eine Erklärung dieser Ergebnisse sind. Sie gehen nicht davon aus, dass dendritisches und axonales Wachstum beteiligt sind, da dies mehr Zeit erfordern würde.

    Molekulare Signale steuern die Differenzierung, Migration und die Bildung von Synapsen während der frühesten Entwicklungsschritte. Neuronale Aktivität wird benötigt, um die Verbindungen weiter zu verfeinern und auch um die Entwicklung der reifen Verbindungsmuster voranzutreiben. Die neuronale Aktivität kann spontan erzeugt werden, besonders in der frühen Entwicklung. Später ist sie jedoch stark vom sensorischen Input abhängig. Auf diese Weise können intrinsische Aktivität oder sensorische sowie motorische Erfahrungen dabei helfen, einen präzisen Set funktionaler Verbindungen zu spezifizieren (Kandel und Squire, 2001).

    Die Plastizität des auditiven Systems kann zu einer beeinträchtigten Sprachwahrnehmung führen, wenn das Hören, besonders im rechten Ohr, während einiger kritischer Phasen in der frühen Kindheit reduziert war (Jensen, Børre und Johansen, 1989). Ihre Ergebnisse bestätigten, dass Kinder mit beeinträchtigtem rechten Ohr signifikant schlechtere Leistungen erbringen als Kinder mit beeinträchtigtem linken Ohr, und zwar besonders in verbalen Untertests, die besonders empfindlich sind in bezug auf geringfügige Input- und Verarbeitungsschäden.

    Andererseits kann die Plastizität auch die grundlegende Ursache für die berichteten Verbesserungen der auditiven Wahrnehmung nach spezifischer auditiver Stimulation sein, wie Johansen behauptet (1984, 1986, 1988, 1992).

    Bisher nahm man allgemein an, dass der sensorische Kortex in der Kindheit ausreift und danach eine unveränderbare Organisation und Verknüpfungsstruktur hat. Heute wissen wir, dass der Kortex durch Erfahrungen umgeformt  werden kann. So lernten Affen im Rahmen eines Experiments, zwischen zwei vibrierenden Stimuli zu unterscheiden, die einen Finger betrafen. Nach einigen tausend Versuchsdurchführungen war die kortikale Repräsentation des trainierten Fingers zweimal so groß im Vergleich mit den korrespondierenden Arealen der anderen Finger (Buonomano und Merzenich, 1998).

    Wir behaupten, dass ähnliche Effekte im primären auditiven Kortex nach hemisphärenspezifischer und frequenzspezifischer auditiver Stimulation (HSAS) erzielt werden können.

    Man kann die Ansicht vertreten, dass Musik und Sprache homologe Funktionen sind, die eine gemeinsame Abstammung haben und gemeinsame Merkmale verkörpern, und dass bestimmte Merkmale immer noch übereinstimmen (Brown, 2001).

    Wir behaupten, dass spezifische Musik- oder Frequenzstimulation die Gehirnentwicklung in einer Weise beeinflussen, dass die Wahrnehmung von Sprache ebenfalls beeinflusst wird.



Das Trainingsprogramm

     Über einen Zeitraum von 3-18 Monaten hören die Schüler am Sensomotorischen Zentrum in Mjölby, Schweden, 10-15 Minuten täglich speziell komponierte und individuell angefertigte Musikkassetten. Die Amplitude wird bei jeder Aufnahme mittels eines Equalizers von 1/3 Oktavbandbreite verändert ( verringert oder angehoben), um die Abweichung zwischen den gemessenen Hörschwellen und der von Gulik (1971) und Tomatis (1963, 1991) vorgeschlagenen optimalen Hörkurve zum Teil auszugleichen.  Bei allen Frequenzen, bei denen das Hören im Vergleich zur optimalen Kurve empfindlicher ist, wird die Amplitue um 60% des Unterschiedes zwischen dem tatsächlichen Hören und der optimalen Kurve verringert. Bei den Frequenzen, bei denen das Hören schlechter als die optimale Kurve ist, wird die Amplitude um 40% des Unterschieds zwischen den beiden Kurven angehoben. Die Musik wird getrennt für jedes Ohr angefertigt. Generell werden bei allen rechtshändigen und der Mehrheit der linkshändigen Schüler die Töne zum rechten Ohr am stärksten angehoben. 

Die Musik wurde speziell für diesen Zweck komponiert (Holbech, 1986). Sie  deckt den Frequenzbereich von 100 Hz bis 16 000 Hz  ab.  Auf diese Weise wird AM-  wie auch FM- und TM-Sensitivität  trainiert.

Die Hörkurven der Schüler werden in regelmäßigen Abständen (jede 6. – 10. Woche) überprüft. Dann werden neue individuelle Kassetten, die auf den Ergebnissen der Follow-up-Überprüfungen beruhen, erstellt und während der folgenden Stimulationsperiode eingesetzt.  

In den ersten 6-8 Wochen richtet sich die Stimulation hauptsächlich auf den Frequenzbereich von100-2000 Hz. Der übrige Teil der Stimulationsperiode zielt auf den Frequenzbereich von 1000-16000 Hz.


Das Ziel dieser Studie

     Die vom  Sensomotorischen Zentrum in Mjölby berichteten Ergebnisse (Sohlman, 2000) sowie auch die publizierte Forschung  haben folgende Fragen aufgeworfen: 

1) Besteht eine Korrelation zwischen den Abweichungen der jeweiligen Hörkurven von der optimalen Hörkurve und der Anzahl von Diskriminationsfehlern beim dichotischen Hören?  

2) Kann eine spezifische auditive Stimulation  (mit individuell  bearbeiteter Musik) die auditive Lateralität und die Hörschwelle beeinflussen und somit auch die Abweichung der Hörkurve von der optimalen Hörkurve? 

3) Hat eine Verringerung der Abweichung von der optimalen Kurve, die über eine spezifische auditive Stimulation erzielt wird, auch eine Verringerung der im dichotischen Hören gefundenenen Diskriminierungsfehler zur Folge? 

4) Besteht eine Korrelation zwischen der Länge der Stimulationsphase und der Verringerung der Fehleranzahl im dichotischen Hören? 




     In Mjölby wurden aus einer Gesamtzahl von Fällen (N=127), die das Programm zwischen Januar 1997 und April 2000 durchliefen, 14 Fälle (m: 13; w: 1) zufällig ausgewählt. Die kleine Anzahl wurde aufgrund von erwarteten großen Mass des Effekts, die sich aus früheren Pilotstudien ergaben, gewählt. Alle Teilnehmer waren rechtshändig; ihr Durchschnittsalter betrug 10Jahre11Monate (9;1 – 13;7). Ein Schüler hatte vorzeitig das Stimulationsprogramm abgebrochen. Alle Schüler wiesen gemessen an standardisierten Hörtests (20 dB Screening) normale Hörkurven auf. Alle Schüler  waren von der Schule  oder von ihren Eltern überwiesen worden, da ihr Lesealter zwei oder mehr Jahre unter dem ihrer Gleichaltrigen lag und da sie Rechtschreibprobleme hatten (Legasthenie). 

Die durchschnittliche Stimulationsperiode in der Studie, über die hier berichtet wird, betrug 29 Wochen (10 – 65).  Die Schüler hatten die individualiserten Kassetten zu Hause gehört. Dabei waren sie entsprechend den Richtlinien des Sensomotorischen Zentrums von ihren Eltern supervidiert worden. 


     Vierundzwanzig Schüler einer Gesamtschule, die der gleichen Altersgruppe (w: 15; m: 9) angehörten und überdurchschnittliche Lesefähigkeiten (Beurteilung der Lehrer) hatten, dienten als Kontrollgruppe.   Sie wurden alle mit demselben DL (dichotischen Hör-) Test (DLCV-108 NF, Hughdal & Asbjørnsen, 1990) wie die Versuchsgruppe getestet. (NF weist auf den „Non-Forced condition part“ des Tests mit 36 gleichzeitig präsentierten Paaren von Konsonant/Vokal-Silben hin).


Auditiver Lateralitäts-Index   (ALI)

     Basierend auf den DL-Tests wurde ein auditiver Lateralitätsindex für alle Teilnehmer berechnet: ALI = (R-L)x100/(R+L)   R zeigt die Anzahl richtiger Antworten über das rechte Ohr an, L entsprechend für das linke Ohr. Die Schüler der Kontrollgruppe (N=24) hatten einen durchschnittlichen ALI von   +21.78 (Standardabweichung=15.47). Lediglich ein Schüler dieser Gruppe (ein linkshändiges Mädchen) hatte einen negativen ALI (-2.86). Der andere Linkshänder dieser Gruppe (ein Junge) hatte einen  ALI von  +5.88.

Der durchschnittliche ALI der rechtshändigen Mädchen (N=14) betrug +21.17 (Standardabweichung=13.57), während der durchschnittliche ALI bei den rechtshändigen Jungen   (N=8)   +27.92 (Standardabweichung=14.11) betrug.



     Tomatis (1963) betrachtete eine ansteigende Hörkurve von 15-20 dB bei 125 Hz bis  -5 --10 dB bei 3000-4000 Hz  mit Stabilisierung auf diesem Level und einem leichten Abfall in den höheren Frequenzen  (6000-8000 Hz) als die optimale Kurve für die Analyse von Musik und Sprache. Diese optimale Kurve wurde auch von Gulick (1971) gefunden. Sie wurde als Referenzkurve in dieser Studie verwendet. 

     1) Vor der Intervention wurde die Gesamtabweichung (Summe) in dB der bei elf Frequenzen gemessenen Hörschwellen von der optimalen Hörkurve für jeden Teilnehmer der Versuchsgruppe berechnet und mit der Fehleranzahl beim dichotischen Hören in der „non-forced condition“ (DLCV-108 NF) korreliert.  Die Korrelation war schwach negativ (-.49).

Dies könnte ein Hiweis darauf sein, dass anfänglich eine leichte bis mäßige Abweichung des tatsächlichen Hörvermögens vom optimalen Hören bei einigen Menschen die auditive Hörschärfe starker beeinträchtigen kann  als eine stärkere Abweichung, die eher einer leichten Schwerhörigkeit oder umgekehrt einer Hypersensitivität entspricht. 

     2) Bei nur sechs der dreizehn Schüler der Versuchsgruppe gab es Unterlagen mit Daten, die für die Beantwortung der Fragen 2, 3 und 4 oben ausreichten. (Bei sieben Schülern waren die DL-Testergebnisse nach der Interventon nicht verfügbar.) 

Diese sechs Schüler waren alle rechtshändige Jungen mit einem Durchschnittsalter von 10Jahren01Monaten (9;10-10;04). 

Auditive Lateralität

      Vor der Intervention betrug der durchschnittliche  ALI bei diesen sechs Schülern +3.49 (Standardabweichung=23.00). Der durchschnittliche ALI betrug nach der Stimulation +29.09 (Standardabweichung=18.23).  d (Maß des Effekts) = 1.24. (Nach Cohen (1988) bedeutet ein  d über .80 ein hohes Maß an Effekt). 

Vor der Stimulation hatten zwei Schüler einen ALI < 0. Nach der Stimulation hatten alle einen ALI > 0.



     Vor der Stimulation betrug die durchschnittliche Abweichung der sechs Hörkurven (R+L) von der optimalen Hörkurve  205.00 (Standardabweichung =54.16). Nach der Stimulation betrug die durchschnittliche Abweichung von der optimalen Hörkurve 122.50 (Standardabweichung=39.44). d = 1.76.

     Bei der Gesamtgruppe der dreizehn Schüler, die die Stimulationsperiode vollendeten, wurde die durchschnittliche Abweichung (R+L) von der optimalen Kurve  von 220.38 (Standardabweichung=75.77) auf 143.46 (Standardabweichung=77.12) verringert. d = 1.00. 

     Nach 19 Wochen Stimulation wies einer dieser Schüler keine Veränderungen in der Hörschwelle des rechten Ohres auf (die Abweichung von der optimalen Kurve betrug vor und nach Stimulation 230. Dieser Wert war die größte Abweichung innerhalb des Sample.)  Die Abweichung seines linken Ohres verbesserte sich von 210 auf 155 (Verringerung der Abweichung zwischen den Kurven).

Es ist vielleicht wichtig hier anzumerken, dass sich in früheren klinischen Studien gezeigt hatte, dass zunächst beim linken Ohr am schnellsten Verbesserungen eintraten, die dann später auch beim rechten Ohr festzustellen waren.  Dies könnte mit der besseren Myelinierung der neuronalen Fasern in der rechten Hemisphäre oder mit der erwiesenermaßen früheren Reifung der rechten Hemisphäre zusammenhängen (Korpilahti, 1996).

      Bei den restlichen zwölf Schülern bestand lediglich bei deren rechten Ohren eine durchschnittliche Abweichung von der optimalen Kurve von 87.92 (Standardabweichung=15.61) vor der Stimulationsphase und danach von 57.08 (Standardabweichung=18.31).   d = 1.82.

     Damit hatten durch die Hörstimulation während der Trainingsphase 92.3 Prozent eine beträchtlich verbesserte Hörschwelle. 

[t test for dependent means (repeated measures design): t(11)= -12.210; p < .01, one tailed.]

      Diese Studie zeigt, dass eine spezifische auditive Stimulation offenbar eine Auswirkung auf die auditive Laterailtät und die Hörsensitivität hat.  Allgemein wurde die auditive Lateralität mehr nach rechts verschoben; die Hörsensitivität wurde im niedrigen Frequenzbereich (< 1000 Hz) verringert und im hohen Frequenzbereich (> 1000 Hz) angehoben.


Diskrimination von Sprachlauten 

      Bei den sechs Schülern, bei denen alle Daten verfügbar waren, betrug die durchschnittliche Fehlerrate beim DL-NF vor der Stimulationsperiode 33.33% (Standardabweichung=13.05).  Nach der Stimulationsperiode betrug die durchschnittliche Fehlerrate  14.00% (Standardabweichung= 9.24). d =1.73. In der Kontrollgruppe der gleichen Altersgruppe betrug die durchschnittliche Fehlerrate 13.50% (Standardabweichung=6.13)

       3) Bei diesen sechs Schülern korrelierte die Verringerung der Gesamtabweichung (R+L) ihrer tatsächlichen Hörkurven von der optimalen Hörkurve mit einer Verringerung der Fehlerzahl beim DL-NF mit r=.19. 

Hier handelt es sich nur um eine schwache Korrelation; jedoch widerspricht sie der früheren Behauptung, dass die Abweichung der tatsächlichen Hörkurven von der optimalen Hörkurve mit der Fehlerzahl beim DL-NF und der Hörsensitivität negativ korreliert.

     Bei der ausschließlichen Betrachtung des rechten Ohres bei den sechs Schüler stellte sich heraus, dass sich die durchschnittliche Abweichung der tatsächlichen Hörkurve von der optimalen Kurve von 88.33 (Standardabweichung=15.72) auf 57.50 (Standardabweichung=20.56) verringert hatte. d = 1.70.  Die Korrelation zwischen der Verringerung der Abweichung der tatsächlichen Hörkurven von der optimalen Kurve nur des rechten Ohres und der Verringerung der Fehleranzahl beim DL-NF betrug .68. 

       Diese Studie lässt den Schluss zu, dass nach einer spezifischen auditiven Stimulation eine Verringerung der Abweichung der tatsächlichen Hörkurve nur des rechten Ohres (veränderte Sensitivität) und der optimalen Hörkurve zu verbesserter Hörschärfe führt. 

Länge der Stimulationsdauer

     4) Bei den sechs Schülern, bei denen alle Daten zur Verfügung standen, variierte die Stimulationsperiode zwischen 21 und 65 Wochen (Durchschnitt: 29 Wochen). Die Verringerung der Fehleranzahl beim DL-NF korrelierte mit der Dauer der Stimulationsperiode (r= .86). 

Auswirkungen auf das Lesevermögen

     Die an dieser Studie beteiligten Eltern und Kinder berichteten, dass sich Lesen und Rechtschreibung stärker als erwartet verbessert hatten. Dies wurde jedoch aufgrund mangelnder Resourcen nicht gründlich überprüft. (Die Kinder in dieser Studie lebten über ganz Schweden verstreut.) 

     In einem Bericht, der von der   A Chance To Grow/New Visions School (2001) veröffentlicht wurde, wurde ausgeführt, dass sich eine Gruppe von 50 Schülern, die während des Schuljahrs 2000/2001 ein ähnliches HSAS Programm an der New Vision School (NVS) durchführten,  beim Gates-MacGinitie Test (der Wortverständnis und Leseverständnisfähigkeiten misst) im Lesealter durchschnittlich um 1.56 Jahre verbesserten. Die Schüler an der NVS, die nicht am Programm teilnahmen, verbesserten sich bei diesem Test  lediglich um .93 Jahre.   



     CAPD (Central auditory processing disorder: Zentrale Auditive Verarbeitungsstörung) wird gewöhlich nicht mit solch grundlegenden Untersuchungsverfahren wie Audiometrie, binaurale Audiometrie und Dichotischem Hören überprüft. Legasthenietests schliessen Audiometrie gewöhnlich nicht ein. Die mögliche Verbindung zwischen Hörproblemen und späteren Leseschwierigkeiten wird immer noch kontrovers diskutiert, obwohl der überwiegende Teil der gegenwärtigen Forschung eine solche Verbindung bestätigt.   Laufende Forschungsprojekte an unterschiedlichen Orten werden unser Wissen in diesem Bereich erweitern.  

     Die berichteten Ergebnisse der klinischen Arbeit in Mjölby (auch wenn die Anzahl der Teilnehmer an dieser retrospektiven Studie nur begrenzt ist) weisen darauf hin, dass Untersuchungsverfahren, die so einfache Instrumente wie Audiometrie und dichotisches Hören verwenden, wertvolle Informationen über die auditiven Schwierigkeiten eines Kindes mit Sprachproblemen und späterer Legasthenie liefern können.  Gleichzeitig können sie die notwendigen Informationen für eine Behandlungstechnik zur Verfügung stellen, bei der das Hören speziell komponierter und speziell aufgenommener (individualisiert erstellter) Musik ein wesentlicher Teil ist. 

     Dies bedeutet nicht, dass Probleme, die mit spezifischen Leseschwierigkeiten zusammenhängen, nicht auch in anderen Bereichen gefunden werden (Koordinationsprobleme, Verwechslung von rechts und links, Probleme mit Abfolgen, unterschiedliche visuelle Probleme, Probleme mit der Haltungskontrolle und mit primitiven Reflexen, um nur einige zu nennen).  Wie in anderen Forschungsprojekten belegt (Zeffiro and Eden, 2000) und dokumentiert  von Bein-Wierzbinski (2001), Goddard (1996), Nicolson und Fawcett (1994, 1995, 1999), Sohlman (2000), und von Stein (2001) bestehen derartige Probleme ganz sicherlich. 



     Seit mehr als einem halben Jahrhundert haben viele Förderschullehrer, Kliniker, Logopäden, HNO-Ärzte und andere beobachtet, dass Kinder mit Sprachentwicklungsproblemen später in der Schule häufig Lese- und Rechtschreibprobleme entwickeln. 

Bei dem Versuch, diesen Kindern bei der Entwicklung guter sprachlicher Fähigkeiten zu helfen, wurden von mehreren Personen unabhängig von einander Untersuchungsverfahren und Stimulationsprogramme entwickelt. Dabei waren sie von den positiven Ergebnissen motiviert, verfügten jedoch nicht über allgemein akzeptierte Theorien. Einige dieser Verfahren werden schon seit vielen Jahren angewendet. 

     In den fünfziger und frühen sechziger Jahren des letzten Jahrhunderts entwickelte der dänisch-amerikanische Forscher Christian A. Volf (1894-1967) eine Stimulationsmethode, die auf der Annahme beruhte, dass eine unzureichende auditive Wahrnehmung (schlechte AM-, FM- und TM-Sensititvität) die Ursache für die Leseprobleme vieler Kinder war.  C.A. Volf konzentrierte sich gezielt auf diese drei Parameter von Tönen: die Amplitude, die spektralen und temporalen Aspekte von Tönen (Parameter, die die Formante charakterisieren) und entwickelte Schallplatten mit Soundtracks, die das auditive System in diesen Bereichen stimulieren sollten  (Johansen, 1984).

     Obwohl Volf keine einzige Arbeit über seine Stimulationsmethode schrieb, überlebte sie als privates Therapieangebot in Dänemark und Deuschland, vor allem weil über positive Resultate berichtet wurde. Sie wurde von Pädagogen und Therapeuten angewendet, die von Volf trainiert wurden. Jedoch gibt es kaum veröffentlichte Forschungsarbeiten. 

Eine davon ist die Magisterkonferenz (1989) der Psychologin Karen L. Skjølstrup, in der sie Interviews mit früheren Klienten C.A. Volfs durchführte und über deren erfolgreichen Resultate durch diesen Typ der auditiven Stimulation berichtete. Jedoch sind nur wenige Forscher daran interessiert, diese Ideen weiter zu verfolgen. 

     Die in dem oben  beschriebenen Mjölby-Projekt benutzte Methode ist von C.A. Volfs Ansatz inspiriert; jedoch hat der Gebrauch moderner Technik es möglich gemacht, individualisierte Stimulationsprogramme herzustellen. 

     Die viel diskutierten Arbeiten von Paula Tallal und Michael Merzenich (FastForWord TM) (Hook, Macaruso and Jones, 2001; Macaruso and Hook, 2001) beruhen auf Ideen, die den von C.A. Volf vor mehr als vierzig Jahren entwickelten Vorstellungen ähnlich sind (Johansen, 1986), jedoch gibt es große Unterschiede in der Art, wie diese Ideen in  Trainingsprogramme umgesetzt werden. 

     Heute wissen wir, dass eine beeinträchtigte auditive Wahrnehmung sprachliche Probleme einschließlich Lese- und Rechtschreibprobleme verursachen kann. Wir wissen auch, dass die Plastizität neuronaler Netzwerke es ermöglicht, nach Hirnschädigungen Stimulationsprogramme erfolgreich einzusetzen. Die Erfolge, die hierbei erzielt werden, wären vor nur zehn Jahren als reine Magie erschienen. 

     Die oben präsentierte Studie scheint C.A. Volfs Ansicht zu unterstützen, dass schon geringfügige auditive Probleme sprachliche Probleme verursachen können – doch noch wichtiger als das: Wir können etwas daran tun! 

     Vor kurzem haben Habib et al. (2002) über positive Ergebnisse dreier Studien berichtet, in denen ein “temporo-phonologisches” Training verwendet wurde, das den von Paula Tallal benutzten Methoden sehr ähnlich ist. Damit wird eine weitere Rechtfertigung für eine “temporo-phonologische” Behandlung von Legasthenie zur Verfügung gestellt, die auf einer differenzierten Indikation basiert.  



      Ramus (2001) spricht sich eindeutig dafür aus, dass der als Ursache für Legasthenie angesehene Ort des phonologischen Defizits auf die sub-lexikalische Repräsentation bezogen werden muss:  “Das Erlernen von Wörtern erfordert als erstes u.a. die Speicherung der phonologischen Form des Wortes im phonologischen Lexikon. Der einzige Weg, über den das phonologische Lexikon eine solche Information erhalten kann, ist der über die sub-lexikalische phonologische Ebene: Ist letztere beeinträchtigt, ist es wahrscheinlich, dass erstere ebenfalls beeinträchtigt wird. Besonders wenn bestimmte phonologische Merkmale auf der sub-lexikalischen Ebene falsch repräsentiert oder unterspezifiziert sind, besteht wenig Hoffnung, dass sich dies in der lexikalischen  Ebene verbessert.” (S. 206).  Und: “Wenn legasthenische Kinder erst einmal unzureichende sub-lexikalische phonologische Repräsentationen haben, sind dann nicht Schwierigkeiten zu erwarten, wenn sie sich die Phonologie ihrer Muttersprache aneignen? Diese Vorhersage ist noch weitgehend ungeprüft.” (S. 208) 

    Ähnlich argumentiert Goswami (2002): “Alle Defizite in der phonemischen Wahrnehmung sind Ergebnisse der vorher bestandenen schlechten phonologischen Fähigkeiten bei legasthenischen Kindern.” (S. 154) 

      Wir behaupten, dass ursprünglich vorhandene Probleme bei den akustischen Repräsentationen fehlerhafte sub-lexikalische phonologische Repräsentationen zumindestens bei einigen Legasthenikern verursachen können. 

     Bei der Behandlung von Sprachlautdiskriminierungsproblemen scheint es von größter Wichtigkeit zu sein, die Bedeutsamkeit des rechten Ohres zu berücksichtigen: d.h. zu überprüfen, ob es während der frühen Kindheit Hörverminderungen (sensorische Deprivation) des rechten Ohres gab, und sehr genau das derzeitige Hörvermögen des rechten Ohres zu überprüfen.  Wir wissen, von wie grundlegender Bedeutung Input über das rechte Ohr für das Dekodieren von Sprachlauten ist (Kuhl et al., 2001; Stirling et al., 2000).   Auch wissen wir genau, dass die Sprachareale in der linken Hemisphäre im Gehirn eines Legasthenikers weniger Aktivität zeigen als  im Gehirn eines Nicht-Legasthenikers und welche Bedeutung das kontralaterale Ohr hat. Von daher sollten wir diesen Faktoren in Bezug auf ihre Bedeutung bei der Sprachentwicklung mehr Beachtung schenken.  Die Stimulation durch Musik/Töne, die einfach zu handhaben ist, macht es möglich, die spezifschen Parameter der Formante (Amplitude, Frequenz und zeitliche Merkmale), die die grundlegenden akustischen Bestandteile sowohl der Sprache wie der Musik darstellen, gezielt zu erreichen. 

     Forschungen, die “mismatch”-Negativität (MMN) anwenden, lassen den Schluss zu, dass die neuronale Repräsentation dieser Parameter im auditiven Kortex räumlich getrennt ist (Giard, Lavikainen, Reinikainen et al., 1995).

      Neuere MEG und PET Daten (Tervaniemi et al., 2000) zeigen, dass die frühesten Phasen der auditiven Verarbeitung nicht zwischen Sprach- und Musiklauten unterscheiden. 

    Kürzlich wurden an der “Cognitive Brain Research Unit” an der Universität von Helsinki (Kujala et al., 2000) als Ergebnis komputerunterstützten Trainings plastische Veränderungen im Gehirn von legasthenischen Kindern demonstriert, die von Verbesserungen der Leseleistung begleitet waren. 

     Korpilahti et al. (2002) berichteten über ein ähnliches Stimulationsprogramm wie das in Mjölby benutzte (10 Min./ Tag  9 Monate lang). Sie beobachteten “bessere Diskriminierung von Konsonanten und Entwicklung der Fähigkeit, Dinge zu benennen. Bei diesen Fähigkeiten erreichte die ADT/(HSAS)-Gruppe die für die Altersgruppe empfohlenen Werte. Eltern und Lehrer berichteten über erkennbare Fortschritte in der Aufmerksamkeit und bei sprachlichen Fähigkeiten bei jenen Kindern, deren ERPs nach dem Training normalisiert waren.    ADT/(HSAS) Training kann eingesetzt werden, um eine bessere auditive Diskriminierung zu erlangen und dadurch dem Kind mit Lernschwierigkeiten beim Spracherwerb zu helfen.“ 

     Abweichungen von der optimalen Hörkurve zu testen und diese mit Stimulation gezielt zu normalisieren könnte ein wertvoller neuer Forschungsbereich sein, um Kindern auch mit schwächer ausgeprägten Wahrnehmungsstörungen wie CAPD und Legasthenie (?) zu trainieren und zu rehabilitieren. 

      Wir müssen weiter forschen und neue neuro-pädagogische Übungsprogramme entwickeln, um diese Probleme anzugehen!



      Der Autor möchte den Mitarbeitern des Sensomotorischen Zentrums in Mjölby dafür danken, dass sie ihre Daten zur Verfügung gestellt haben, den Mitarbeitern von A Chance To Grow, Minneapolis, dass sie ihre Ergebnisse mitgeteilt haben, und Mrs. Camilla Leslie MRCSLT, Edinburgh, UK, für unschätzbare Anmerkungen zu diesem Paper.