「発音できない音は聞き取れない」について
発音できない音は聞き取れない、という説があります。これについて、確かにそうだなと思うところもあるのですが、ミスリーディングな要素も含んでいます。今回は、「発音できない音は聞き取れない」説について、端折ることなく高い解像度で説明します。
音の理解と意味の理解
まず前提として、リスニングは音の理解と意味の理解に分けることができます。もちろん、順番は音>意味であり、音を理解してその後に意味(イメージ)が想起されます。また、この逆再生がスピーキングです。
そして、その母音が何かとか、子音が何かというのは、意味を理解するうえでの手掛かりのひとつ(一部)にすぎません。TEDトークで、次の vednesday に集まりましょう、と言うとみんな火曜日の次の日に集まってくれる、という話をみたことがありますが、これは、音を介した意味伝達における子音の貢献度が、ゼロではないが全体から見た場合低いことを意味します。平たく言うと、母音や子音を識別しなくても意味を取れる場合もあるということです。
メロディだけで意味を伝えることもできる
実は、母音や子音がどうこうという話をいっさい抜きにして、メロディだけで意味を伝えることもできます。これは乱暴な主張でもなんでもなく、実験ですぐに確かめることができます。
たとえば、「クリスマス」、「木とわたし」、「ジルコニア」という3パターンのいずれかだけを言い、聞いた人にその3つのうちどれを言ったか当ててもらうゲームをするとします。ただし、言葉を言う人は、「フ」しか言えないという縛りがあります。
「クリスマス」、「木とわたし」、「ジルコニア」のいずれも5文字ですから、これらの単語はすべて、「フフフフフ」になります。全部フフフフフになったら区別できないじゃないかと思うかもしれませんが、実はだれでも簡単にできます。これは、メロディ(超分節的特徴)だけを足掛かりにして意味を「識別」する一例です。このことからも、母音や子音が何かの見当がつかなくても、意味を取れる場合もおおいにあることがわかります。
コンテキスト情報も意味の理解に貢献する
他にも、adopt と adapt は母音の聞き分けができなければ識別不可能ですが、コンテキスト情報から意味を補うこともできます。adopt と adapt の音がどっちがどっちだっけ?というあやふやな状態の人も多いと思いますが、それがわからないままでも、コンテキスト情報から、「あ、いまのは多分採用する、のほうだな」と類推できます。
このような、コンテキスト情報、全体としてのマクロな情報からローカルな箇所を類推するというのはよくあることで、たとえば他の例として:
こんに〇は ぼくのな〇えは そ〇ちゃそです
のように、一部虫食い状態になっていても「意味」をとることは可能です。これも adopt と adapt の例と同じで、よくわからない部分をまわりから補うパターンです。
さいごに
意味を捉えるというのは、単に聞こえた音が何の母音か、何の子音かを聞き分けてそこから意味を誘導する作業ではありません(もしそうだとしたら、英語発音の習得が母音と子音の習得だけで完結してしまいます)。話し手から来るメッセージは、母音、子音、超分節的特徴、ボディランゲージ、その人の表情など、複数の要素が重畳してこちらにやってくるものであり、それらすべてを手掛かりにして意味を取り出します。
事実として、発音されていない音の存在を脳で補う、「フフフフフ」のような、母音や子音の情報が完全に失われた音から意味を汲み取る、という作業は可能です。発音できない音は聞き取れないというのはやや言い過ぎで、また、この話は「意味を取る」という話とはわけて考える必要があります。これが、冒頭で述べた「ミスリーディング」の内容です。
発音学習やってみませんか
英文を読むスピードが遅い、英文を読むのが負担に感じる、リスニングでどうしても神経をすり減らしてしまう、そのようなあなたの「インプット」の悩みは発音学習で解決できるかもしれません。
発音学習の目的はけっして、カッコイイ英語を話すことではありません。むしろ、ふだんアウトプットをいっさいおこなわずに黙々と頑張っている英語学習者にこそ、発音学習がオススメです。
もし、これまで発音をいっさいケアしてこなかったのであれば、大きな伸びしろに手を付ける大チャンスです。そのようなコンセプトのもとで発音講座をやっていますので、ぜひご利用ください:
ご不明点があればメールでお問い合わせください:overconfidence1117*gmail.com
*をアットマークに変えてください