« 誰か見ている効果2 | トップページ | 「映像表現・芸術科学フォーラム」で、様々な音に関連して2件の研究発表 »

「映像表現・芸術科学フォーラム」で、人間の声に関連して2件の研究発表

2019年3月21日 (木) 投稿者: メディア技術コース

メディア学部の大淵です。

前回の記事に引き続き、「映像表現・芸術科学フォーラム」での発表を紹介します。今回紹介するのは、人間の声に関する2件の研究です。もともと私自身が音声認識の研究を長くやっていた関係で、当研究室でも声に関する研究には力を入れているのですが、最近では「何と喋ったか」を認識する音声認識研究よりも、「どんなふうに喋ったか」を研究することの方が増えてきました。

Expressive2019_2_2

卒研生の上島さん(写真左)は、「機械学習を用いた漫才音声の解析」というタイトルで発表しました。実は、当研究室では以前から漫才音声の研究をやっていて、ブログ記事で紹介したこともありました。ただ、以前の研究が「漫才音声を作る」側からの研究だったのに対し、上島さんの研究は「漫才音声を聞く」側からの研究だというのが違いです。特に観客の声の盛り上がりに着目して、漫才の面白さを数値化しようと試みています。

もう一人の卒研生の横田さん(写真右)は、「ディープニューラルネットによるラジオ番組音声の分析」という発表を行いました。横田さんは、2年生のときから学会発表をするなど、機械学習については既にベテランですが、今回はあらたにディープニューラルネットを使った分析に挑戦してみました。ディープニューラルネットは、扱うデータ量が多いほど性能を発揮しやすいのですが、丹念に集めたデータの量が結実した研究と言えると思います。

スマホやスマートスピーカーに向かって話しかけるのは当たり前の時代になりましたが、声の研究では、まだまだ未解決の問題がたくさんあり、これからも力を入れていこうと思っています。。

研究紹介」カテゴリの記事

« 誰か見ている効果2 | トップページ | 「映像表現・芸術科学フォーラム」で、様々な音に関連して2件の研究発表 »