Certaines questions apparemment simples sont en réalité une ouverture sur des interrogations bien plus vastes. Christina Vanden Bosch der Nederlanden de l'Université de Toronto en a fait le constat. Violoncelliste depuis son plus jeune âge, elle est devenue neuroscientifique et s’est longtemps demandée comment le cerveau pouvait comprendre les différences entre la musique et la parole. "Nous savons qu'à partir de 4 ans, les enfants peuvent et font facilement la différence explicite entre la musique et le langage, rappelle-t-elle. Bien que cela semble assez évident, il y a eu peu ou pas de données demandant aux enfants de faire ce genre de distinctions." Elle y remédie dans une étude rendue publique à l’occasion de la réunion annuelle de la Cognitive Neuroscience Society (CNS) à San Fransisco.
Entre nourrissons et adultes, des résultats opposés
Ces travaux sont le résultat d’une expérience menée auprès de nourrissons âgés de 4 mois : ils ont écouté des paroles et des chants, prononcés soit dans une voix un peu chantante semblable à celle que nous utilisons pour nous adresser aux enfants, soit de manière monotone. Pendant ce temps, les chercheurs ont enregistré l'activité électrique du cerveau à l’aide d’un électroencéphalogramme (EEG). Ils constatent que les nourrissons réussissent mieux à suivre les phrases lorsqu’elles sont énoncées en parlant, plutôt qu’en chantant, or le constat est à l’opposé chez les adultes : ils intègrent mieux les paroles lorsqu’elles sont chantées. Les chercheurs remarquent aussi que le ton et le rythme affectent l'activité cérébrale. Selon eux, le "manque de stabilité du ton" est une caractéristique acoustique importante pour guider l'attention chez les bébés. Selon Christina Vanden Bosch der Nederlanden, la stabilité du ton peut aider un auditeur à identifier une chanson, et à l’inverse, l’instabilité indique au nourrisson qu’il entend une personne parler, et non chanter.
Comprendre comment les gens estiment différencier la musique et la parole
Lors d’une expérience en ligne, la scientifique et ses collègues ont demandé à des enfants et à des adultes de décrire qualitativement en quoi la musique et le langage sont différents."Les enfants et les adultes ont décrit des caractéristiques telles que le tempo, le ton, le rythme comme des caractéristiques importantes pour différencier la parole et la chanson", indique-t-elle. "Cela m'a donné un vaste ensemble de données qui en dit beaucoup sur la façon dont les gens pensent que la musique et le langage diffèrent d’un point de vue acoustique et aussi sur la façon dont les rôles fonctionnels de la musique et du langage varient dans notre vie quotidienne."
De futures applications cliniques ?
La compréhension de la relation entre la musique et le langage peut "aider à explorer les questions fondamentales de la cognition humaine, comme la raison pour laquelle les humains ont besoin de musique et de parole, et comment les humains communiquent et interagissent les uns avec les autres via ces formes", estime Andrew Chang, l’un des participants à cette réunion de la CNS. Ces résultats sont aussi une voie vers de nouveaux essais cliniques, qui pourraient par exemple s’intéresser à la musique comme forme alternative de communication verbale pour les personnes aphasiques, c’est-à-dire qui ont perdu une partie ou la totalité de leurs facultés de parole.