言葉を理解しているように感じられることがある。 しかし1歳前に言葉を話すようになる赤ちゃんはほとんどいない。 ある特定の言葉を理解する様子を見せるようになるのは6ヶ月から8ヶ月あたりからである。 幼児教育で有名な思想家ルドルフ・シュタイナーによれば、 言葉の発達は、からだの運動と歩く能力と密接に関係しているという。 話すときのリズムは歩くときの脚の動きであり、抑揚や表現力は手と腕を 自由に動かすことから生まれるのだという考え方である。
たしかに、赤ちゃんは言葉を持つ前にベビーサイン という手話のような伝達手段を使い始めることがあるという。 1歳の女の子が、両手を合わせて開けたり閉じたりする。 「本を読んでほしい」というサインだ。 「ベビーサイン—まだ話せない赤ちゃんと話す方法」 の著者であるカリフォルニア州立大学の心理学者リンダ・アクレドロ教授は 米国の140家族を対象に調査を行い、 サインを使った子どもの方が、そうでない子どもに比べて、 語彙が豊富、知能、論理的能力が高いという結果を得たそうだ。
キカイが歩き始めた。
ヒューマノイドロボットたちは、二足のよちよち歩きから だんだん普通に歩けるようになってきた。 また、キカイによる聞く能力、音声認識や自然言語理解の研究もすでに進んでいる。 そして、その結果に基づいて次の言葉を考える力、感じること、 人工知能や人工感情についてもさまざまな研究が行われている。
では、しゃべることはできているか。できていると言われる方が多いと思う。 留守番電話やカーナビばかりでなく、 最近の家電機器にも音声合成機能が付いているものが少なくない。 言葉で伝達するという目的はかなり達成していると言えるのかもしれない。 しかし、これらは言葉を構成する音素の波形データのスピーカ再生である。 自らの「声」によるものではない。
肺、気道、声帯、声道、口、鼻腔。
人間の発声はこれらの器官が働いて行われている。 香川大学工学部の 澤田秀之助教授は、スピーカ再生ではなく人間と同じように 自らの発声器官で同じ声を出す 「音声生成機械システム」を研究している。 システムは、マイクから入力された人の声をコンピュータが自動解析し、 発声器官の物理モデルに当てはめてモーターの制御信号を決める。 肺にあたるコンプレッサーから送られてきた空気を、 声道、口に相当する竹輪麩のようなシリコンゴムを喉のように搾り、 断面を口のようにパクパクと動かして自ら発話する。 発音できるのはまだ母音と限られた子音ではあるが、実際に聞くとなかなか貫禄ある肉声ぶりだ。 (ビデオクリップ MPEG 1.7MB)
物理的な発声機構ができることで、これまでの音声合成が乗り越えられずに いる口調などの課題が一気に解決でき、 音声合成の人まね学習によって新展開を切り開く可能性がある。
赤ちゃんは、親など大人が話す声を聞いてしゃべりを覚える。 からだの運動と歩く能力を身につく頃、発声もうまくできるようになっていく。 もちろん、流暢にしゃべったり、優しい声で耳元でささやくように なるには人間とて大変なことだ。コンピュータの言語獲得にも身体性が必要なのかもしれない。
参照
イギリスの科学雑誌”New Scientist”のページより
音声生成機械システム