Речь и музыка – это весьма сложные формы коммуникации, характерные преимущественно для человека. Но как наш мозг отличает одно от другого в случае, когда речь и музыка смешаны, как, например, в песне – до сих пор оставалось загадкой.
Филипп Албой из Университета МакГилла (Канада) и его коллеги создали 100 уникальных песен а капелла с помощью наложения 10 предложений на французском и английском языках на 10 оригинальных мелодий. Затем они воспроизвели их для 27 франкоговорящих и 22 англоговорящих слушателей, меняя различные элементы песен для понимания того, как люди воспринимают слова и мелодии.
Оказалось, что способность распознавать текст песни сильно зависит от ее такта, ведь речь состоит из множества слогов, произносимых в одну секунду, что делает ее такт более важным, чем структуру мелодии. Когда исследователи переиначивали такт песни, участники эксперимента по-прежнему могли определять мелодию, но уже не могли понимать текст. Напротив, наша способность распознавать мелодию кажется более зависящей от ее частотности: при нарушении частотности слушатели продолжали понимать текст, но уже не могли распознать мелодию.
Затем команда ученых повторила эксперимент, но теперь его участники подверглись процедуре МРТ-сканирования мозга в процессе прослушивания песен. Это позволило выяснить, что левое полушарие мозга отслеживало такт, что позволяло распознавать текст, а правое – частотность, требуемую для распознавания мелодии. Данное открытие совпадает с результатами предыдущих наблюдений, которые предположили, что нарушение работы левого полушария мозга с большей вероятностью повлияет на речевые способности, а правого – на способности к музыке.
Теперь команда исследователей намерена выяснить, как воспринимают текст и мелодии песен носители таких языков, как вьетнамский или китайский, которые считаются более мелодичными.
Фото: Moodboard/Alamy
Это новость от журнала ММ «Машины и механизмы». Не знаете такого? Приглашаем прямо сейчас познакомиться с этим удивительным журналом.