コロナ禍2年目となった大学の授業(講義篇/リアルタイム字幕)
2021年12月15日 (水) 投稿者: メディア社会コース
私は聴覚障害支援の研究をしているため、リアルタイム字幕変換を可能とする「UDトーク」というアプリを使っています。数年前から使用しているが、AIを使っているからか年々精度が上がっているのを実感している。
UDトークの詳細はホームページをご確認ください。
https://udtalk.jp/
昨年の遠隔授業でも使用したところ、私が話している内容がより理解できることや、聞き逃した箇所に戻って確認できることから、ぜひ利用したいという学生が多くいました。そこで、対面授業に戻った今期も出来る限りリアルタイム字幕変換を活用することにしました。
写真:UDトークと専用マイク
私が主に使っているのは、iPhoneとBluetoothマイクの組み合わせです。UDトークは株式会社アドバンスト・メディアの高精度日本語音声認識エンジン「AmiVoice(アミボイス)」を採用しています。英語の場合はGoogleのエンジンを使うようですが、日本語はやはり日本製のエンジンの方が認識率が上がります。マイクは、同社が開発したもので、このマイクを使った方がさらに認識率が上がります。
しかし、Zoomをやりながらリアルタイム字幕変換をして、さらに教室のスピーカから声を出す場合、全部で3つのマイクを使うことになります。下の写真のようにハンドマイク、イヤフォンマイク、Bluetoothマイクを使えば良いのですが、なんだか大袈裟な気がしてきました。
写真:ハンドマイク、UDトーク用マイク、Zoom配信用イヤフォンマイク
そこで、現在システムを改良中です。
Bluetoothマイク→ノートパソコン→Zoom
Zoom配信チェック用iPad→iRig Stream→UDトーク
写真:UDトークとiRig Stream
これでマイクが2つになり、少しスッキリしました。配信後の音声を字幕変換しているので少し遅延がありますが、この仕組みであればメリットもあります。これまで、Zoomで参加したゲストの声や再生している動画の声を字幕変換することが出来ませんでしたが、それらが可能になります。
やってみないと分からないことが多いので、もう少し実験を繰り返してみたいと思います。
明日は、これまたオンラインでの実施が多くなった学会発表についてお話します。
メディア学部 吉岡 英樹
略歴:バークリー音楽院ミュージックシンセシス科卒業後、(有)ウーロン舎に入社しMr.ChildrenやMy Little Loverなどのレコーディングスタッフや小林武史プロデューサーのマネージャーをつとめる。退社後CM音楽の作曲家やモバイルコンテンツのサウンドクリエイターなどを経て現職。1年次科目「音楽産業入門」を担当。現在は聴覚障害支援を専門としており、メディア専門演習「聴覚障害理解とコミュニケーション支援」、聴覚障害支援メディア研究室 を担当している。
「授業紹介」カテゴリの記事
- トップレベルの論文を読み込む「CG技術特論」(大学院授業紹介)(2019.03.13)
- 大学院授業:プロシージャルアニメーション特論の紹介(2019.03.08)
- 専門演習「空間インタラクティブコンテンツ」2018後期(3)(2019.02.22)
- タンジブルインタラクションデザイン最終発表(2019.02.13)
- 専門演習「空間インタラクティブコンテンツ」2018後期(2)(2019.02.12)