iOS 14でSpeechフレームワークによる日本語の音声認識は改善されたのか? #WWDC14 #iOS14
WWDC 2020のキーノートでは、iOS 14では純正の翻訳アプリ"Translate"が発表された。
これがなんと、「オフラインで動作」する上に、「日本語もサポート」しているらしい!
ということは、iOSの音声認識APIであるSpeechフレームワークも大幅パワーアップされているかもしれない!
とキーノート後の新APIの発表を心待ちにしたが、しかし残念ながらiOS 14におけるSpeechフレームワークのAPI差分はゼロだった。(Speechの更新としてはacousticFeatureValuePerFrameがmacOS 11でサポートされただけ)
いやしかし、Speechフレームワークの場合はAPIには表れない、内部的なアップデートは十分あり得る。そのへんはコードを動かしてみないとわからないので実際にiOS 13とiOS 14で動かしつつ検証してみた。
日本語のオフラインサポート
SFSpeechRecognizerを日本語を指定して初期化し、
let recognizer = SFSpeechRecognizer(locale: Locale(identifier: "ja-JP"))!
ここから先は
1,568字
/
1画像
昨年は書籍という形にまとめましたが、今年はこのマガジンに集約することにしました。
最初は記事が少ないので格安から開始して、充実してくるごとに本来あるべき価格に戻していく予定です。というわけで早いうちに買うと非常にお得です。
昨年の書籍は約80ページ+本に載せなかった事項もたくさん、ということで最終的にはそれなりの量になるのではと思います。
#WWDC2020 の勉強メモ
980円
堤がWWDC 2020およびiOS 14についてセッションやサンプルを見つつ勉強したことを記事にしていくマガジンです。NDAの都合上、Ap…
最後まで読んでいただきありがとうございます!もし参考になる部分があれば、スキを押していただけると励みになります。 Twitterもフォローしていただけたら嬉しいです。 https://twitter.com/shu223/