見出し画像

Syrinx(サイリンクス)を体験してみて


あいさつ

初めまして、今日はじめてブログの投稿をするRyotaです。
普段はYouTubeで2017mohumohuという名でMMDという映像コンテンツを出したり、もうひとつのVieraというYouTubeチャンネルでゲーム実況の配信しています。
今回は初めての投稿なので色々と間違いがあると思われますが、どうか温かく読んで頂ければなと思っております!
カバー写真はSyrinxと関係ありません。

はじめに

スケジュールの都合で、投稿が遅くなってしまいました。
お待たせしてしまいすみません!
先日10月16日にハンズフリー型EL(電気式人工喉頭)Syrinxのリーダー・エンジニアである竹内雅樹様に自宅までご足労いただきました。
大まかな経緯は母のFacebookの投稿をご覧ください。


①. 僕の声と竹内さんの声の性質と周波数


僕の場合、喉頭気管分離手術で声帯自体はのこっていて、そこを振動させる方法がないため、これまでは舌打ちの用法をうまく応用して発話していました。
今回試させて頂いたSyrinxは、簡潔に言うと人工喉頭のスマートデバイス版といった感じです。
従来のELデバイスよりも人間に近い振動数を出せるデバイスと聞いています。
(更に情報を知りたい方はSyrinxOfficial公式HPを見てください)
さて、本題に入ります。
僕の声を竹内さん持参の音声解析ツールで録音して解析して頂いたところ、僕の声にはベースとなる周波数がないとのことです。
この言葉だけでは意味が分からない方もいるでしょう。
大丈夫です。これから分かりやすく順を追って説明します。
まず、普通の人間の声にはベースとなる母音があり、その上に、子音があります。
バンドにもベース・バスドラム(キック)がありますからね。
母音=バンドのベース・キック
子音=ギター・シンバル(ハイハット)
まぁ、そういう仕組みなんだなって理解していただければ幸いです。

②. 声の発声技術について


①で述べたように、母音さえあれば、僕自身の滑舌に問題ないので、きれいに発話できるらしいのです。
では母音のベースをどう出すか…。これが今回の一番難しい問題でした。
竹内さんによると、声帯が残っている僕だと食道まで振動が届かず、なかなか難しいとのことです。

③. ベースとなる音声を加えるとどうなる?



それで、従来のELも持ってきてくださっていたので、それで頬や顎に当てて試してみると、かすかに聞こえる程度の声は出ましたが、期待していたほど大きく出ませんでした。
要するに振動ではなくても、何かしらの音が一定で出続ければいいらしいので、実際にやってみることに。
僕が出先や家で使っていたSONYのオープン型片耳イヤホンをPCと繋ぎ最大音量にし、その先に細い経管栄養チューブを切った物を咥え、VOICEROID2結月ゆかりさんの声で、抑揚なしで「あ~」を10秒間連続再生しながら口を動かすと、なんとそれっぽい声が出てしまったのです!
(動画は撮り忘れてしまいました…)

感想


2020年以降、AIによる合成音声技術は発展してきていますが”声を失った方の肉声を再び取り戻す”技術は日本では少ない例なので、僕個人としてはかなり嬉しいですし有難いですね。
これはあくまで僕の一意見ですが、この”Syrinx”が有名な”AppleWatch”のようにウェアラブルデバイスとして、どなたでも利用できるように市販化され、更に拡張パーツを付けることで、僕のような特殊な声の方やうまく言葉を発声できない方でも使えるようになったらいいな、と僕は感じました。
竹内雅樹様、先日は貴重な体験をさせて頂き、本当にありがとうございました!

ゲスト:竹内雅樹様
Syrinx公式HP:Syrinx Speech is a right, not a privilege

https://syrinx.community/


竹内雅樹様のプロフィール

https://www.linkedin.com/in/masaki-takeuchi-0046a4196/


いいなと思ったら応援しよう!