技術

研究の分業:技術的な課題と本質的な課題

2021年4月 4日 (日) 投稿者: メディア技術コース

助教の戀津です。
昨日の記事で紹介した春木さんの研究について、リミテーションという観点から追加のお話です。
(まだお読みでない方は先に紹介記事をお読みください)

春木さんの研究は、本来「実在の」樹木を対象とするものでした。
実在の樹木をもとに、その中のどの枝をどう剪定すると、剪定後にどのように生長するというのを予測・可視化するというものです。
樹木の適切な剪定には高度の知識と経験を要するため、そこを補助するというのが目的でした。

これを達成するためには、まずは実際の樹木の形状をPC等に取り込む必要があります。
そこで、研究開始当初は樹木情報の取り込み方法について調査をしていました。

フォトグラメトリと呼ばれる、対象物をたくさんの方向から見た写真を大量に撮ることで3DCGとして取り込む技術があります。
観光地の大きな建物や、人間大の石像、小さいものではフィギュアなどが対象としてよく取り込まれています。
原理上はiPhoneなどのスマートフォンでも行えるため、多くの研究者や技術者が日々精度の向上に打ち込んでいる技術です。

しかし、残念ながら調べた範囲では現在の技術では樹木のモデルを得るのには向いていませんでした。
上で挙げたような建造物や像などは、細かな部品はあるにしろ一つの大きな塊の物体です。
それに対し樹木は、葉があると枝の様子を確認することができず、また冬季など枝だけの状態ではスカスカの形状になるためうまく取得ができませんでした。
一定の空間内に多数の細い枝があるという状況では、撮影する角度を少し変えると手前や奥にある枝が違う映り込み方をするため、空間的な配置の認識が難しかったものと思います。
何とかして枝の情報を入力できないか、春木さんはずいぶん試行錯誤してくれましたが、最終的には「今回は実際の樹木を扱わない」という結論になりました。

前置きが長くなってしまいましたが、ここからが今回お話したいことです。
本来の目的は樹木の剪定を補助することなので、もちろん実際の樹木を入力できることがベストです。
しかし、この研究は樹木の枝を剪定した後にどのように生長するかをシミュレーションするのが一番重要なポイントです。
仮に樹木の情報を入力できても、生長シミュレーションができなければ目的を達成できません。
逆に、樹木の情報は実在のものでなくても、シミュレーション方法が確立されていれば仮の情報でシミュレーションができますし、今後技術が発展し実在の樹木を入力できるようになるかもしれません。

この場合、フォトグラメトリ等で実在の樹木の情報を取得できないことは技術的な課題で、生長シミュレーションが本質的な課題にあたります。
こういう時に、「この研究ではこの部分は取り扱わない」というものをリミテーションと呼び、将来的な課題として論文で挙げておくという方法があります。

同じような例として、VR技術の研究があります。ヘッドマウントディスプレイを装着した仮想空間体験は、理論やプロトタイプは1960年代には研究されていました。
当初は機材が大きすぎたり高価すぎたり、また精度も低いものでしたが、体験に関する理論の研究は進んでいました。
それから多くの時が経ち、
多くの技術者が積み重ねてきた技術の進歩によって小型で安価な機材が市場に出回り、個人でもVR体験が行えるようになりました。
長い歴史をかけた壮大な分業ですね。これもまた研究活動の素晴らしい点です。

卒研という限られた期間において技術的な課題は必ずしも春木さん自身が解決する必要はないため、本質的な課題に注力するという決断をしました。
結果、生長予測と可視化部分の実装という形で成果を残し、学会発表も行う事ができました。

今後フォトグラメトリ(またはその他の技術)の精度が向上し、リアルタイムに目の前の樹木の形状を取得できるようになればより一層この研究の成果が輝きます。
その時が来るのを楽しみにしています。

2021年4月 4日 (日)

研究紹介:流量推定を用いたラテアートシミュレーション手法(学生奨励賞受賞)

2021年3月31日 (水) 投稿者: メディア技術コース

助教の戀津です。
今回は、3/18~20にオンラインで開催された、情報処理学会全国大会での発表のご報告です。

情報処理学会では、多くの投稿の中から似たジャンルの研究を10件前後まとめて、セッションという名前で発表会を行います。
そして、セッションごとに座長の選ぶ学生奨励賞というものがあります。およそ5~6件に1件程度選ばれるという形です。

私は柿本先生と一緒に卒研ゼミを担当していますが、情報処理学会は柿本・戀津研の研究内容と親和性が高く毎年何件か発表を行っています。
今年は2件の発表を行い、そのうち中村哲平君の『流量推定を用いたラテアートシミュレーション手法の提案』という研究が学生奨励賞を受賞しました!
去年は佐藤君白崎君、一昨年は渋谷君が学生奨励賞を受賞しており、私の着任前から合わせるとなんと6年連続の受賞です。

研究内容は、タイトルの通りラテアートについてです。
ラテアートはエスプレッソコーヒーにフォームしたミルクを注ぎ、その注ぎ方によってカップの液面上に模様を作るというものです。
流体力学によるシミュレーションをしたり、CGでラテアートの再現を行う研究は多くされていますが、今回はラテアートを習得する際の練習過程に着目しています。

実際にラテアートを練習する時は、水を使って練習します。本物のエスプレッソとミルクを使いカップに注ぐと混ざってしまい回収ができず、一回ごとに材料費がかかってしまうためです。(また、材料を無駄にしないために毎回飲まないといけないですね)
しかしもちろん、水をカップに注いでもラテアートの模様は描けません。そこで、この研究では水を使って練習しながらラテアートの模様を描くことで練習効果の向上を目指しています。

ラテアートの練習という目的に対し、当初次のような方法を検討していました。

La1

ピッチャー底部認識法と名付け、ゼミで検討をしていました。スマートフォンの画面に向かって注ぎ込むイメージで、実際のピッチャーを傾けるものです。
ピッチャーの底に円形のマーカーをつけ、内側カメラでマーカーがどのくらい楕円になって見えているかを検出することでピッチャーの傾きを検出、どのくらいミルクが注がれたかを計算するというものでした。

しかし、実際にこの方法を試行錯誤していたところ、意外とマーカーがうまく写らないことや、空っぽのピッチャーで注ぐ動作だけするのはイマイチといった欠点が見つかりました。
画面に向かって注ぐというのは大変直感的で魅力的ではあったのですが、本体が下にあることによって実際の水が注げないというのは大きな欠点でした。
そこで、中村君が新たに次のような方法を考えてくれました。

La2

新しい手法では、カップに向かって実物の水を注ぐという実際の動作に大変近い形を取りながら、カップ上部に据えたスマートフォンの画面上にラテアートの模様を描画できるというものです。
フレキシブルアームを使う必要が出てしまいましたが、スマートフォンが上に来ることによって実際に水を注ぐことができるようになりました。
これは当時柿本先生も私も想定していなかった新しい着眼点でした。学生本人が自身の研究について一番時間を使い、考えてくることで教員の発想を超えてくれるのが卒業研究指導の一番嬉しい時と感じます。

これを実現するには、画像処理を使った水の流量推定やリアルタイムなシミュレーション、カップ上への描画など解決すべき課題が大変多く、残念ながら今年度内の研究では練習手法までの完成には至りませんでした。
しかし、流量推定実験の結果までをまとめたことと、このアイディアが研究の肝となり、冒頭に書いた通り学会でも評価していただけました。
研究室で引き継いで研究を進め、いつか完成させたいと思います。

2021年3月31日 (水)

オンラインポスターセッションシステムの公開

2021年3月14日 (日) 投稿者: メディア技術コース

助教の戀津です。

これまでに何度かお話した、オンラインポスターセッションシステムを公開しましたのでお知らせです。
過去記事: (太田先生ご紹介ありがとうございます)

TeleAgora -テレアゴラ- こちらからアクセス可能です。

TeleAgora(テレアゴラ)はオンラインポスターセッション用システムです。
昨今の情勢により、多人数が一堂に集まり代わる代わる会話をする形であるポスターセッションの開催は困難となりました。
しかしながら、研究の発展においてポスター発表の持つ役割は大きく、どうにかオンラインで行えないかと考えこのシステムを開発しました。

さっそく、3/8に行われた映像表現・芸術科学フォーラム2021でのポスターセッションに利用していただきました。
学会終了後にお願いしたアンケートでは運営の皆様、参加者の皆様よりご好評をいただき、また改善案もいくつかいただけましたので更にブラッシュアップしていければと思います。

これまでに発表会で利用した際は、発表者と参加者向けの部分のみ開発し、発表会主催者向けの機能はありませんでした。
そのため、発表会を行う時には発表者リストからポスター情報の登録をしたり、実際のディスカッションの場となるGoogleMeetのアドレス作成を私自身が行う必要がありました。
私自身の負荷の高さや、主催者の方が内容をコントロールできないという問題がありましたが、今回主催者向け機能も実装できたので公開です。

乱立を避けるため発表会そのものの作成機能は公開していませんが、ご連絡を頂ければオンラインでのポスターセッションを行えるようにできますので、学会関係者の方や研究室での発表でポスターセッションを検討している方は是非ご連絡ください。(連絡先はTeleAgoraページ下部に記載してあります)
多数の発表者/参加者間での成果物共有・ディスカッションができるというものなので、学会等だけでなく個人的な仲間うちでの発表会等でも利用できます。お気軽に問い合わせください。

ちなみに、システムを公開するにあたり結構苦労したのが名前をつけることでした・・・。
TeleAgoraはギリシャ語のTeleとAgoraをあわせた造語です。Teleは『遠くの』、Agoraは『広場』を指す言葉です。
広場は古代ギリシャの都市国家において、学術交流の場としても利用されていました。広場を囲むようにストアと呼ばれる柱廊が多数建てられ、そこで学術交流が行われました。
TeleAgoraではこれになぞらえ、アゴラ(個人ページ)からストア(研究発表会)に参加する形にしています。
実際に人々が集まる広場はまだしばらくの間困難ですが、テレアゴラが多くのストアで賑わい、研究発表会での交流が盛んに行われると幸いです。

2021年3月14日 (日)

AIとの対話ライブコンペ優勝^ ^;

2021年3月 9日 (火) 投稿者: メディア技術コース

文責:榎本美香

先日ご紹介いたしました人工知能学会 言語・音声理解と対話処理研究会(SLUD)第90回研究会(11/30-12/1)で、開催されましたAIとの対話ライブコンペで、私とAIの対話が優勝してしまいました。

【ライブコンペ3】6. シチュエーショントラック 演舞1&対話1
https://youtu.be/jHoH0gfz5hQ

の対話1の対話者が私です。

演舞というのは模擬対話で、AI作成者がこうなるといいなという感じで模擬演技でやったバージョンです。

これに対して、対話というのは学会本番に、AIと対話者(人間)が実際に話した内容です。話すと言ってもテキストのチャットですが。

で、最終的に参加者が投票で一番良かったAIシステムを選ぶというものです。

 

いや、見事にAIシステム作成者の思う壺通りに会話をしてしまいまして、ものすごく自然な中身に仕上がっております。

それを見ていた参加者から、「演舞とまったく同じこと話してたで」と指摘されてしまいました。優勝といっても、私がまんまとこう言えばこう返すだろうというのを読まれたわけで、汗顔の至りです。

大学の後輩(シズカ)に同窓会の幹事を卒業した先輩(私)が頼む、という設定で話します。シズカが断ってくるので、こちらは何とか引き受けてもらうよう説得する、と事前に言われています。で、このシステムのすごいところは、こういえばああいうという対話の規則を使って、こちらが答えの選択肢が1つしかないようにしてくる、というところです。例えば、自己卑下されるとそれを否定する、というような対話の対ですね。

で、優勝の理由は、会話が破綻すること無く、最後には何となく幹事を引き受けさせるところまで行っているというものでした。

 

以下に、公開されていますので、ご興味のある方はぜひ見てみてください。

========================================================
【ライブコンペ3】1. 趣旨説明
https://youtu.be/HkJ_u6ExitQ

【ライブコンペ3】2. オープントラック 対話1
https://youtu.be/e4eraejSTTs

【ライブコンペ3】3. オープントラック 対話2
https://youtu.be/lRyV6Gw1yyM

【ライブコンペ3】4. オープントラック 口頭発表1
https://youtu.be/dhTz8O2DJ4A

【ライブコンペ3】5. オープントラック 口頭発表2
https://youtu.be/-abWpYoVfEQ

【ライブコンペ3】6. シチュエーショントラック 演舞1&対話1
https://youtu.be/jHoH0gfz5hQ

【ライブコンペ3】7. シチュエーショントラック 演舞2&対話2
https://youtu.be/Oeh1eN3B-I0

【ライブコンペ3】8. シチュエーショントラック 演舞3&対話3
https://youtu.be/7u3IZy5IHWI

【ライブコンペ3】9. シチュエーショントラック 口頭発表1
https://youtu.be/3R-sIJdbylg

【ライブコンペ3】10. シチュエーショントラック 口頭発表2
https://youtu.be/tZNGXLzhR6s

【ライブコンペ3】11. シチュエーショントラック 口頭発表3
https://youtu.be/lTxxMMHIEhs

2021年3月 9日 (火)

コンパイラとCG技術

2021年1月25日 (月) 投稿者: メディア技術コース

 メディア学部にはCG制作に興味のある学生が多いです。一方でプログラミングが前提となるCG技術(各種アルゴリズムなどの原理)に興味のある人は相対的に少数です。CG制作では、ツール(MayaやMaxやBlender)の使い方を知っていれば、技術の原理を知らなくても仕事はこなせてしまいます。
 
 結論を先に言うと、今日の話は、原理まで知っている方が制作でより良い仕事ができるという内容です。
 
 先日「メディア特別講義Ⅰ」でシリコンスタジオ社の開発部長の辻俊晶さんが講義をされました。受講生からは「大学時代に学んでおいてよかったと思うことは何ですか?」という質問がありました。辻さんはゲーム黎明期の頃からゲームプログラミングを長年究められた生粋のプログラマーです。
 
 辻さんの回答は「コンパイラ」でした。コンパイラは、プログラミング言語を使って書かれた「ソースプログラム」の文字データを、コンピュータが直接実行できる形式(Windowsでいうと.exeファイル)に変換するプログラムです。
 
 本格的な情報工学の学科であれば、一通り理論学習と簡単な言語を想定したコンパイラのプログラム試作を行います。コンパイラは「プログラムを処理するプログラム」という興味深いソフトであり、重要かつ基本的な計算機科学の一分野です。
 
 辻さんによれば、就職してゲームプログラマーになってから直接コンパイラを作ることはなかったし、仮にコンパイラの原理を知らなくてもプログラムは書けることは確かです。しかし、自分が書いたプログラムをコンパイラがどう解釈し処理するのかを知っておくことで、普通のプログラマーに比べて明らかに良いプログラムを書くことができる、ということでした。
 
 この事実を抽象化すると、自分の仕事の成果がどう処理されるか理解し実際にその処理も経験することでより良い成果が出せる、となります。さらにそれを別分野に具体化すると、CG制作者はCGアルゴリズムがどのような処理をするか理解し、プログラムを書く経験もすることで、より優れたCG作品を制作することができる、ということになります。
 
 CG制作に限らず、先端技術を利用するほかのメディア制作分野も同様と思います。学生のうちに技術の原理を知りプログラム等の体験もすることは、制作の道に進んでもきっと将来プラスになるはずです。
 
メディア学部 柿本 正憲

 

2021年1月25日 (月)

にゃんズ来る(ネコ×2とAI、その2)

2021年1月 8日 (金) 投稿者: メディア技術コース

さて、続きです。前回に学習モデルを作成したところまで説明しましたが、学習の成果を確認しましょう。Teachable Machineのプロジェクトのページのさらに右側に、Previewという領域があって、ここの”Input”を”ON”にするとカメラが起動し、学習したモデルを確認することができます。ということで、にゃんズカモン!また一匹づつひっつかまえてカメラの前に持ってきます。下に画像を載せますが、画像右下にある”Output”でそれぞれのネコに対応したラベルのグラフが100%になっているのがわかります。さらに、何も画面に写っていないときも、”nocat”ときちんと判定されていますね。これで学習モデルの準備はOKです。

 

Screen-shot-20210101-at-125604

  学習成果の確認

 

これで、いよいよアプリケーション自体のプログラムに移ることができます。p5.jsは、ウェブ上でプログラムを作成、実行できる環境が https://editor.p5js.org にあります。このブログでは詳細は省きますが、まずこれでPCのカメラを使い、キーを押すと撮影画像を保存するものを用意しておきました。次に先程の機械学習のモデルをこのプログラムで使えるようにしていきます。

 

もう一度、Teachable Machineのページに戻ります。Previewのところにある”Export Model”をクリックすると、下記のようなウィンドウ(水色の部分)が表示されます。ここにJava Scriptから学習モデルを使うための情報が提供されています。学習モデルを利用するためのURLや、モデルを利用するためのJava Scriptのコードが表示されていますので、ここから必要な部分をコピーして先程自分で作成したカメラ撮影のプログラム中に適宜埋め込んでいきます。ここらへんは多少プログラミングを理解している必要がありそうですが、そこまで難しいわけでもありません。

 

Screen-shot-20201231-at-104838

Export Modelの画面:利用するためのコードが表示されている

 

さて、実行してみましょう。エディターの上部にある実行アイコンをクリックしてみます。まず何もカメラ前に居ないときには撮影が行われません。よしよし。次にまたにゃんズに協力をあおぎます。うにゃーというのをかまわずひっつかまえてカメラ前に連れてきます。カシャ!という音はしないのですが、画像が保存されたことが視覚効果でわかります。すごい、ちゃんと出来ているじゃないですか!もう一匹も連れてきても成功です。ちなみになんでもかまわず撮影しているわけではないのは、画像のファイル名にそれぞれのネコの名前が含まれるようにしたので、きちんと識別されているのが分かります。自分自身でカメラの前にいっても撮影されません。

 

Screen-shot-20201231-at-175837

エディター上のプログラムが実行されている様子

 

 

ということで、ネコとのにゃんにゃんブログを正当化するために実施した機械学習を利用したアプリケーション開発ですが、非常に簡単にAIアプリを作成することができました。さすがGoogleというところでしょうか。これで、実行したままにしておくと、ネコたちが画面前にやってきたときに自動的にシャッターがきられて画像が保存されるアプリケーションができあがりました。いたずらするところの決定的な写真を撮ったりするのに使えるかもしれません。まあ、まだ色々細かい調整や作り込みは必要でしょうが。今回の作業で一番大変だったのはネコをカメラ前に連れてきて学習データを取り込むところでした。なにしろじっとしていなくて暴れまくるのでカメラに写るようにつかまえているのが大変でした。ものによるとは思いますが学習データの用意が一番面倒な部分ではないでしょうか。それなりの量も用意しなくてはならないでしょうから。今回は、それぞれ200枚〜250枚くらいの画像で行いました(他のネコの写真は20枚くらい。用意するのが大変だったので)。それさえ用意できれば非常に簡単にAIを自分のコンテンツに取り込むことができました。課題はAIの機能を「何に」「どのように」使用するかというアイデアを考える部分になりますね。独自のアイデアがあれば、面白いものを簡単に作ることができそうです。来年の演習にでも取り込もうかな。

 

さて、ネコと遊ぼう…

 

 

太田高志

2021年1月 8日 (金)

にゃんズ来る(ネコ×2とAI、その1)

2021年1月 7日 (木) 投稿者: メディア技術コース

ネコ買っちゃいましたよ。飼っちゃいました?安らぎを求めて…

二匹です。ネコを飼うなら複数と思っていて、ついに妻を説得するのに成功いたしました。…いや~、マジでかわいいですね…。毎日メロメロになっています。以前は犬を飼っていて、妻は犬派でしたが、高齢になってくると朝晩の散歩が厳しいということで今回は猫ということで納得してもらいましたが、可愛いですねえ…。おまけにまだ子猫だし。さわり心地はいいし、躰はぐにゃぐにゃでやわらかいです。ゴロゴロ音も心がやすらぎます。セロトニンが毎日ドバドバ出まくります。猫は犬よりドライだというようなことも聞きましたが、思ったよりも全然甘えん坊で毎日膝の上で寝ています。家の犬はかなりドライな性格でしたがそれよりも全然くっついてきます。二匹でもしょっちゅうべったりくっついていて、それを見ているのも微笑ましいです。犬との違いは、テーブルの上でもピアノの上でも飛び上がってどこでもいってしまう運動神経で、これだけは大変で、その身体能力に驚いていますが、それも楽しい毎日…

 

ということで写真です。ペットって人に見せたくなりますよね…

 

Cache_messagep11946-copy Img_1726_original

かわいい                    かわいい

 

Img_4597-copy Img_4322

かわいい                   かわいい

 

Img_4605

チョーかわいい…

 

 

ひたすら「かわいいよぉ、ハァハァ…」なんて書いているだけだと、大学のブログとしての品格と見識を疑われてしまいますよね。フム…。というわけで、にゃんズに協力してもらって機械学習を利用したアプリケーションを作ってみました(唐突か?)。

 

Googleが提供しているTeachable Machineで機械学習による画像認識の学習データを用意し、それを使ってネコたちがカメラの前に来ると自動的にシャッターを切り画像を保存する、ウェブブラウザーで動作するJava Scriptのアプリケーションを作成してみました。Java Scriptの開発環境としては、ビジュアルプログラミングの環境として有名はProcessingをJava Scriptに移植したp5.jsを利用しました。

 

さて、Teachable Machineのページ(https://teachablemachine.withgoogle.com)にアクセスして、”Get Started”をクリックすると、下図のように3つのプロジェクトから選択できるようになっています。今回は、ネコの顔を認識して反応するようにさせたいので、Image Projectを選びます。その他に、音声やポーズを認識するものがありますので、これらもそのうち試してみたいと思います。

 

Screen-shot-20210101-at-02155

Teachable Machineのプロジェクト種別選択の画面

 

新規のImage Projectのページになると、複数の対象の学習データを登録できる画面が現れます。画像認識のための学習データは画像群を読み込ませることもできますが、このシステムで簡単なところは、PCのビデオカメラを利用して、その場で対象物をカメラの前で動かして色々なパターンの写真を連続して取り込めるところです。ということで、ネコを一匹捕まえてウニャウニャと激しく振りほどこうと暴れるのを一生懸命なだめつつ、カメラの前でグルグルと動かして色々な画像を200枚程度づつ取り込みました。何枚くらいが適切なんだろうか…。そしてもう一匹を捕まえて、再度ウニャウニャを別の学習データとして取り込みます。それぞれの学習データにはそれぞれのネコの名前をラベルとしてつけておきます。それから、他のネコの画像をウェブから仕入れて、別のネコの認識用の学習データを用意し、人が写っていたり部屋が写っている画像もネコが居ないときを識別するために撮影してその学習データに”nocat”とラベル付けしました。

 

Screen-shot-20201231-at-104923

学習データ読み込みの様子

 

 

学習データが用意できたら、それらの右側に”Training”と書かれている領域に”Train Model”と書かれた矩形(ボタン)がありますので、それをポチッとなとすると学習データによる訓練を開始します。学習している間「ブラウザーのタブを変えるんじゃねえぞ」という警告を受けながら待っていると、”Model Trained”と表示され、学習が終了します。これで、ネコの顔を識別するための機械学習のモデルができあがりです。次はこれを利用して画像を撮影するアプリケーションをp5.jsで作っていくのですが、長くなりましたのでそれについては「その2」に続きます…。かわいいよぉ…

 

 

太田高志

2021年1月 7日 (木)

CGプログラミングの定番「レイトレーシング」を実装してみた

2020年12月29日 (火) 投稿者: メディアコンテンツコース

 先端メディアゼミナールは少人数の演習形式の科目です。成績による履修制限があり、研究に近いようなプロジェクトを学生が行う科目です。
 
 私の担当テーマは「CGプログラミング」です。今期の履修生は何と一名だけです。今回はCGに興味あるプログラマーなら一度は経験してみるレイトレーシングというアルゴリズムに挑戦しました。私自身も40年近くCG関連のプログラミングを行ってきています。レイトレーシングは5回以上はプログラムを書いた経験があります。
 
 詳細のアルゴリズムは検索すればいくらでも出てきますので、興味のある人は調べてみてください。
 
 今回の履修生の目標は、1980年に初めてレイトレーシングがCG分野で研究発表された論文の結果画像をマネしてみる、というものに設定しました。
 
Whitted1980 Nogiwa2020

 左の画像は1980年のTurner Whittedの論文で紹介された画像です。右は履修生のメディア学部2年生が自分で一から書いたプログラムの出力画像です。
 
 細かいところは違っていますが、概ね似た画像を出力することができました。三次元物体の形状描画、完全鏡面反射、屈折、テクスチャ、光源処理、影計算など、これだけのCG画像に各種アルゴリズムがプログラムされています。
 
参考文献
Whitted, Turner, “An Improved Illumination Model for Shaded Display,” Communications of the ACM, Vol. 23, No. 6, pp. 96-102, 1980.

メディア学部 柿本 正憲

2020年12月29日 (火)

ACM UIST 2020参加

2020年12月15日 (火) 投稿者: メディア技術コース

こんにちは,メディア学部の加藤です.

前回 WISSの告知をしてみましたが,真面目に記事を書くのはこれが初回です.
HCI・インタラクション関連の学会・イベントの告知の他に,
僕が進めている研究,参加した学会について紹介する記事をポストしていこうかなぁと思っています.

今回は 2020年10月21-23日に開催されたACM UIST2020について紹介します.
UISTは,User Interface Software and Technologyの略であり,HCI (ヒューマン・コンピュータインタラクション)の研究分野の中でも,
特にユーザインタフェースに関する研究を取り扱ったトップカンファレンス(分野の中で最高レベルの学会)です.
今年はアメリカのミネアポリスで開催される予定だったのですが,
COVID-19の影響で完全オンライン開催になり,僕は自宅からの参加となりました.

メインの Paper セッションには,全部で 450本の論文が投稿され,その内 97本が採択されています (採択率 21.56%..狭き門です).
オンラインでの学会は基本的に Zoom上で行われるものが多いようです.
UISTも同様の方式で,発表者とセッションチェア(座長)がそれぞれリアルタイムにZoomに接続し,
各々の自宅または職場から発表を行います.
また,UIST参加者全員が参加できる Discordが用意されており,聴講者はそこから発表者に対して質問をすることができます.

UISTの発表の中で,特に興味深かったHERMITSという研究を紹介します.
この研究は MITに所属する中垣さんが発表しました.
HERMITSは toioをベースとしたインタラクティブシステムで,
3Dプリンタを用いて作成された様々なタイプのアタッチメントモジュールにドッキングすることで
色々なインタラクションを実現しています (動画が最高なのでぜひ見ましょう).
豊富なアプリケーション例はどれも圧巻ですね〜

この研究についてもっと詳しく知りたい!という人はぜひ,論文も読んでみてください.
(当たり前ですが,全部英語です.がんばってください..w)


Ken Nakagaki , Joanne Leong, Jordan L Tappa, João Wilbert, and Hiroshi Ishii. In Proceedings of the 33rd Annual ACM Symposium on User Interface Software and Technology (UIST'20), pp.882-896, (2020). [DOI]

UIST にはPaperセッションの他,Demoセッション,Posterセッションといった発表も行われます.
これらの発表は Zoomではなく,Discordのビデオチャット形式で行われました.
僕は Posterセッションにて LightTouchという研究を発表しました.
これは Yahoo!研究所の池松さん,東京大学の川原先生との共同研究です.
(LightTouchの詳しい紹介はまた次回..)
Kaori Ikematsu, Kunihiro Kato, Yoshihiro Kawahara. LightTouch: Passive Gadgets for Extending Interactions on Capacitive Touchscreens by Automating Touch Inputs. In Proceedings of the 33rd Annual Symposium on User Interface Software and Technology (UIST'20 Adjunct).  ACM, New York, NY, USA, pp. 10–12, (2020). (Acceptance Rate: 58%)[DOI]
20201023-20144
図: Discord上での発表の様子
UISTで発表された研究のほとんどは YouTube上 [Link]でも見ることができます.
とても面白い研究がたくさんあるので,興味のある人はぜひ見てみましょう〜

2020年12月15日 (火)

オンライン専門演習「ネットワーク構築」の実施

2020年8月12日 (水) 投稿者: メディア技術コース

皆さん、こんにちは。メディア学部の寺澤です。

今日は今学期のメディア専門演習「ネットワーク構築」について書きたいと思います。この演習は、家庭用ではなく、企業のビルなどで使われているネットワーク機器類を実際に使用して、実際にネットワークを設計し、それを実現し、その動作を確認します。これらを通して、講義等で学修したコンピューターネットワークの理解をより深め、将来ICT分野に就職をする人も多いメディア学部の学生の皆さんに基礎力を高めてもらうことが目的です。また、コンピューターネットワークは私の研究室の研究分野でもありますので、卒研に関心も持ってもらうことも狙いの一つです。

とはいうものの、今学期はメディア学部は演習授業も含め、全面的にオンライン実施となったので、このテーマも急遽オンラインで実施することになりました。いろいろな方法を考えましたが、学生の皆さんが持っているノートPCは今学期にオンライン授業を受講するための必須の道具でもあるため、その動作を不安定にしたり、起動できなくなるような事態は避けなければならないと考えました。結局、ネットワーク機器大手の米Cisco社の提供する、Packet TracerというシミュレーターとAmazonのAmazon Web Services(AWS)のEC2サービスを利用して授業を組み立てることとしました。

Packettracer

続きを読む "オンライン専門演習「ネットワーク構築」の実施"

2020年8月12日 (水)