音樂和語言是人們最常聽到的聲音類型,但大腦是如何毫不費力地自動識別音樂和語言的?以往科學家對此缺乏清晰的理解。現在,包括美國紐約大學在內的一個國際研究團隊通過實驗重現了這一過程。相關論文發表在28日的《公共科學圖書館·生物學》雜志上。
研究人員表示,音樂和語言在音調、音色、聲音質感等許多方面都有所不同。此次,他們借用一種精確測量單位來表示聲音的節奏或變化周期,即赫茲(Hz)。Hz值越大,每秒發生的次數越多。例如,人們的行走速度約為每秒1.5—2步,也就是1.5Hz—2Hz;史蒂夫·旺達熱門歌曲《Superstition》的節拍大約是1.6Hz。語言通常比音樂節拍快2—3倍。有充分證據顯示,一首歌音量或響度隨時間的變化(即所謂的“調幅”)相對穩定在1Hz—2Hz。相比之下,語言的調幅通常是4Hz—5Hz,這意味著它的音量經常變化。
研究團隊進行了4個實驗,讓300多名參與者聆聽一系列合成音樂和語言類的音頻,這些聲音具有不同的調幅和規律。
參與者被要求判斷這些音頻聽起來是音樂還是語言。結果顯示,人類的聽覺系統使用非常簡單且基本的聲學參數來區分音樂和語言:對參與者來說,速率較慢(小于2Hz)且調幅較規則的音頻聽起來更像音樂;而速率較快(約為4赫茲)且調幅較不規則的音頻聽起來更像語言。
了解人類大腦如何區分音樂和語言,可能會使患有聽覺或語言障礙(如失語癥)的人受益。音樂療法是一種很有前途的方法,可以訓練失語癥患者利用他們完好無損的“音樂機能”繞過受損的語言機能,唱出他們想說的話。