« Calvin and Hobbes(本の話 #2) | トップページ | 声の感情認識を使ったゲーム »

言葉の雰囲気をシンセサイザーの音にする

2020年7月22日 (水) 投稿者: メディア技術コース

メディア学部の大淵です。

新型コロナウイルスの問題で、3月に予定されていた学会発表はすべて中止になってしまったのですが、その後も大規模な集会は行えない状況が続く中、研究発表の場はオンライン学会に移りつつあります。我々の研究室でも、この6月に2件のオンライン発表を行いました。

参加したのは、NICOGRAPH International 2019という国際会議で、当初は山梨県の勝沼で開催される予定でした。オンライン学会になって、おいしい勝沼ワインを飲みながら参加者の皆さんと交流する機会がなくなってしまったのは残念でしたが、オンライン発表での議論は活発に行われました。残念ながら勝沼ワインはありませんでしたが、オンライン懇親会もありました。

この学会での発表の1件目は、大学院生のマイニッケルシアンさんの"Multi-level Query Analysis for NLT-based Synthesizer Interface"という発表です。これは、言葉でシンセサイザーの音色を呼び出すという一連の研究の続きで、これまでにもこちらこちらの記事で紹介してきました。これまでは「単語から類推される音を見つける」という機能に主眼を置いて発表してきたのですが、今回の発表では「同じキーワードでも表現の仕方によってイメージが変わる」ということをシンセサイザーに応用しています。たとえば、「海」という言葉から連想されるサウンドがあるとしても、「南国の太陽に照らされた海」と「コンテナ埠頭に面した冷たい海」ではイメージが全然異なります。そうしたイメージを数値化して、「海」のサウンドに自動的にエフェクトを掛けてくれる機能を作ったというわけです。

私自身はじめてのオンライン学会で、指導教員としてドキドキしながら発表を見ていましたが、特にトラブルもなく無事終えることができました。普段なら、夜には反省会と称して盛り上がったりするのですが、オンライン学会の場合、終わるとすぐに日常モードに戻ってしまうのがちょっと残念ですね。

研究紹介」カテゴリの記事

« Calvin and Hobbes(本の話 #2) | トップページ | 声の感情認識を使ったゲーム »