« 2012年2月 | トップページ | 2012年4月 »

2012年3月

3Dと立体視では「音」が違う!!

|

2011年度卒業研究で、同じ映像でも普通のテレビで見たのと、立体テレビで見たのでは「音」に違いがあることがわかりました。音は光よりもはるかに伝わる速度が遅いので、遠くの音はだいぶ遅れて聞こえます。花火を遠くで見たときにそのように感じますね。ですが、人間の視聴覚にはこの時間差を緩和する特別な働きがあるのです。ですから、花火でも実際の時間差ほどには音が遅れているようには感じないのです。では、テレビに遠くの景色が映っている時と実際に遠くの景色を見ているは同じなのでしょうか?2011年度卒業研究で栗田美喜さんは同じ映像を普通のテレビで見たのと、立体テレビで見たのとでは時間遅れの感じ方に違いがあることを発見しました。コンピュータグラフィックスで鉄筋の映像を2次元表示の普通のテレビ用と立体視ができる3次元テレビ用の2種類を作って比較したのです。この結果は2012年3月の日本音響学会春季研究発表会で発表しました。

図 鉄筋の三次元グラフィックス。ボールが落ちてきて鉄筋を打つと音がします。人は鉄筋の大きさを知っているので小さい映像では遠くにあることがわかります。

インタラクティブ観客賞の受賞

|

2012年3月の15日から17日まで、科学未来館で「インタラクティブ2012」というシンポジウムが開催されました。メディア学部からは、大学院生(修士課程)の田中くんがインタラクティブ発表という部門に参加し「インタラクティブ観客賞」を受賞しました。



インタラクティブ発表というのは、論文の投稿に加えて、会場で作品をデモしながら説明する部門です。インタラクティブ観客賞というのは当日来場してデモを見た人たちの投票で選ばれるものですが、田中くんの受賞はシンポジウム3日目にデモを行った54もの研究のなかから選ばれました。投票をしたのはシンポジウムに参加した方たちですから、自分たちも同じ分野の研究をしている人も多く含まれていたと思います。その中で選ばれたのは、作品としての完成度(面白さ)と同時に、作品の基礎であるインターフェースの可能性を感じていただくことが出来たからではないかと思っています。



論文のタイトルは「スマートフォンを利用した複数画面の連携表示と動的なレイアウト変更によるアプリケーション」というものですが、具体的にはスマートフォン(iPhone、iPad)を2台並べ、両方の画面を指でつまみあわせるようにすると、それらで実行されているアプリが連動して動作するようになる、というものです。



アプリケーション(DynamicCanvas)のデモ動画



この仕組を利用して、今回の発表には3つの異なるアプリを作成しました。上の動画のものは、つなげるたびに複数の画面が仮想的な一つの画面となって画像や動画が大きく表示されるものです。画面のつなげ方も自由ですし、アプリの動作中でも画面をつなぎかえることができます。その他にも2つのアプリケーションを作成し、そのうちの一つのTuneblockは、第15回 文化庁メディア芸術祭」エンターテインメント部門の審査委員会推薦作品に選ばれました(関連記事)。



この研究には大きな2つの特徴があります。一つは、複数のスマートフォンを利用したものであること。アプリケーションは一台でも動作するようになっていますが、3台、4台とつなげることでもっと面白くなるものです。一人でたくさんのスマートフォンを持っている人はそういないでしょうから、友人に声をかけて何名かで一緒に遊ぶことになるでしょう。つまり、複数の人を直接結びつけるような潜在力をもっているということです。このインターフェースを利用したアプリケーションをうまくデザインすることによって、ネット越しにではなく、人と人が直接コミュニケーションをとるきっかけになるような企画をつくれるのではないかと期待しています。



もう一つは、この研究はアプリケーションという作品そのものではなく、「指でつまんで複数のアプリを連携させる」というアプリケーション作成の土台となるコンセプトを提案するものだということです。単に「こういう作品を作りました」ということにとどまらず、新しい表現を考える媒体(メディア)を提案したという観点からみて、メディア学部で目指すべき研究の一例として誇れるものだと思います。

効果音でゲームプレイヤーの心を揺り動かす

|

2011年度卒業研究で、石田翔君は音でゲームプレイヤーの心理をコントロールする研究を行いました。今までは、ゲーム中に流れる効果音は妨害効果しかないといわれていました。石田君は、効果音を使い分けることにより、プレイ速度を上げたり下げたり、また、冒険心をあおったり、抑えたりできることを示しました。効果音をうまく使うことによりゲームはもっともっと面白くなりそうです。この研究は2012年3月の日本音響学会春季研究発表会で発表しました。

図 ゲームの画面。球状の敵を攻撃するゲームです。球状の敵は攻撃してくるとともに、重要物品を時々投下させます。ゲームプレイヤーは攻撃を優先するか、物品を取得するのを優先するかを考えなくてはならなりません。石田君の研究により、場面場面で流す効果音の種類によって、この判断が変わることがわかりました。

音声で図柄パタン検索

|

2012年3月卒業の鈴木教子さんの卒業研究です。音声入力で図柄パタンを検索してデザインを描画するツールを作成しました。たくさんの図柄パタンから視覚的に候補を探し出すのは時間のかかる作業です。これを音声で探すことができれば大変便利です。コンピュータによる音声認識は辞書と呼ばれる言葉の一覧表を必要とし、辞書に無い言葉は認識できません。ところが図柄パタンを音声検索しようとすると、人はさまざまな表現をするので、「るんるん」のように辞書に無い言葉が続出します。鈴木さんはこの音声認識の「未知語」の問題を新しい方式を提案して解決し、どんな言葉で表現しても適切な図柄パタンの候補が選ばれるようにしました。さらに、その音声検索方式を使って、図に示すような、音声検索によるデザインツールを作成しました。音声検索により左側に候補の図柄パタンが表示され、それを右側のキャンバスに配置してデザインを作成します。この研究は音声情報処理分野のトップレベルの国際会議Interspeechで採録となったほか、卒業式において、学部で最も優れた卒業研究に与えられる「相磯賞」を受賞しました。

図 音声入力による図柄パタン検索を使ったデザインツール

映像の外にあるものを見る

|








カメラの視線が静かだから映像の外にあるものが見える。
取材の気持ちが穏やかだから言葉の外にあるものが聞こえる。

素晴らしいドキュメンタリーだった。3月9日(日)放送の「あの日から1年 『南相馬 原発最前線の街で生きる』」(NHK総合)。この番組の語り口は実に謙虚で静か。むしろ寡黙。それでいて、見ているこちら側に、大きくて重たい何かを残してくれた。東日本大震災一周年。各局過熱気味の演出が多い中で、この番組の静かさは異色だった。

テレビ番組が、その中で伝えることができる情報の量は、意外に少ないものだという。番組中でナレーターがどれだけ語り、映像がどれだけつぎ込まれようとも、新聞や雑誌などの印刷物の情報量にはかなわない。立花隆氏によれば、NHKスペシャル一本分の情報量は、文芸春秋の一記事の情報量にもならないそうだ。

続きを読む "映像の外にあるものを見る"

« 2012年2月 | トップページ | 2012年4月 »