技術

八王子市内の飲食店を元気にするプロジェクト演習『企業・団体のプロモーション技法』の活動事例

2023年11月24日 (金) 投稿者: メディア技術コース

人体を健康メディアとしてとらえメディアをつかって自らの健康をデザインするための研究を行なうという新しい研究領域としての健康メディアデザイン研究室の千種(ちぐさ)です。

今回はメディア学部のプロジェクト演習「企業・団体のプロモーション技法」の1コマの活動を紹介したいと思います。このプロジェクト演習は企業やボランティア団体の活動を支援するためにイベント広報や販売促進用の出版物・紙媒体を制作する課題を100分で、課題提示・デザイン制作・デザインレビュー、を実施するユニークな演習です。

この演習の目的は以下としています。
・実際に使用されるデザインを制作する
・短時間でイメージをデザインに落とし込むトレーニングを半年間で14回実施
・多くの学生のデザイン制作物とそのデザインレビューに参加
・プロのデザイナーによるデザイン制作事例を見る
・学生本人のポートフォリオを14回の授業で14件を増やし充実させる

これらを授業時間内の百分間で完了させるためのポイントは以下の4点です。
1.デザイン制作時間を考慮した課題設定
2.最初は名刺デザインから、店舗用ポップ、イベントポスターと段々と高度化した課題
3.デザインツールcanvaのテンプレートベーストデザイン、高度な編集をワンクリックで実現
4.毎回のデザインレビューにより学生個人の飛躍的なレベルアップ

この回の課題は八王子市大横町にあるカフェGrassHopperIIのメニューのリニューアルデザイン制作でした。
この時点までに使用されていたメニューはワードで制作した文字情報のみの簡素なものでしたので、オーナーの沼田氏と交渉して、メニューのリニューアルをこのプロジェクト演習の課題にさせていただくことの了解をいただきました。

Menuold

実際に演習で完成したメニュー案10点ほどの中からオーナーに選んでもらったのが神田柊吾さん(3年生)がデザインした下のメニューになります。美味しそうなメニューのイメージが伝わって、オーナーにも大変に喜んでもらいました。

Menunew
後日、神田さんと千種でお店を訪問して、簡単な授賞式を行ない、副賞としてカレーをご馳走になりました。

Photo_20231123143201


2023年11月24日 (金)

視点のすぐ近くは見えない

2023年11月22日 (水) 投稿者: メディア技術コース

 前回記事は講義「CG数理の基礎」での投影変換の授業紹介でした。まだ読んでいない人は参照してください。
 
 履修生からの以下の質問への回答を今日の記事で紹介します。
 
---
後方クリッピング面があるのは無限に続くのを防ぐ目的であると理解できるのですが、前方クリッピング面はなぜあるのでしょうか? カメラの座標を原点とした四角錐型では不都合があるのでしょうか?
---
 
 投影変換の設定として3次元空間(カメラ座標系)に六面体(四錐台)の視界を設けます。6つの「クリッピング面」で最終表示対象の範囲になるように切り取ることになります。視点から視線方向を向いて上下左右を4つの面で切り取るのは直感的にわかります。
 
 なのに、なぜ目の前の前方クリッピング面と視点から遠くの後方クリッピング面で前後を切り取るのか、確かに理解しがたいですね。特に目の前の場所を前方クリッピング面で範囲外に設定する理由が。
 
 簡単に答えを言うと「0で割り算できないから」です。ここで、前回記事の図を再度掲載します。
 
 Projectionxform
 
 視点から前方クリッピング面までの距離は変数nで示されています。前方クリッピング面の4頂点は変数l, r, t, b, nを使って表されます。冒頭の質問にあるように四角錐の視界を使うということは前方クリッピング面が無限に小さくなり視点(原点)に収斂(しゅうれん)することになります。つまり、l, r, t, b, nは全部0になり、4頂点とも(0,0,0)になります。
 
 この場合、後方クリッピング面の4頂点のxy座標は計算できません。いずれも0分の0になってしまいます。投影変換(透視投影)行列の要素も、16要素のうち4つについて0分の0が生じて設定不能です。
 
 数式の計算ができないから、という理由では納得しづらいでしょう。もう少し直感的な理由として幾何学的な説明をしてみましょう。それは「無限に大きくするという計算はできないから」ということになります。
 
 近くの物は大きく見え、遠くの物は小さく見えるように変換するのが透視投影です。前方クリッピング面を視点に収斂させて四角錐の視界にしてしまうと、限りなく視点に近い物を無限に大きくすることになります。これは不可能だから、ほんの少しでよいので視点から離れた位置に前方クリッピング面を設定するのです。必然的に四角錐ではなく四錐台の視界になります。
 
 実務的には、前方クリッピング面までの距離nと後方クリッピング面までの距離fとの比(f/n)が1万程度を超えない設定ならばその後のCGの計算処理には支障ないです。n=10cmとすればf=1000mと設定できます。これなら大抵のCGの場面で切り取っても大丈夫そうですね。
 
 宇宙空間のように遠い場所は一度に扱えないし、f/nの値が百万とかの設定もNGなのはなぜ、という疑問も生じますが、その話題は別の機会にしましょう。
 
 現実世界でも視点に限りなく近い場所の物を見るということはないですから、四角錐の視界を設定できなくても、四錐台の視界で十分と言えるでしょう。
 
メディア学部 柿本正憲

2023年11月22日 (水)

3次元から2次元への計算

2023年11月20日 (月) 投稿者: メディア技術コース

 2年次後期の講義科目「CG数理の基礎」はCG技術の基本的な概念や手法を理解することを目的にしています。画素を塗りつぶす過程、頂点を変換する過程、など地味な内容です。数少ない3次元CGの話題として、先日の授業では投影変換を取り上げました。
 
 CGの場面を構成する部品(キャラクタ)は多くの場合、多数の三角形(3頂点)の組合せです。制作者の想像上の3次元空間に存在する各頂点が、最終表示に使う現実の2次元平面画面のどの場所に対応するかをコンピュータが計算します。
 
 部品(model)各頂点の(x_m, y_m, z_m)の数値は「ビューイングパイプライン」と呼ばれる4種類の行列の乗算を経て画面(screen)上の点(x_s, y_s)に変換されます。この過程で3次元から2次元に変わる本質的な変換が投影変換です。投影変換としてCGでよく使われる透視投影は次の図のように「カメラ座標系」から「正規化デバイス座標系」に変換します。
 
Projectionxform

 カメラ座標系ではビューボリューム(視界)という六面体をデザイナーが設定します。視界は最終的な表示画面の範囲に対応させる3次元の範囲です。原点から放射状に拡がるこの形状はフラスタム(四錐台)と呼ばれます。視界のことをビューフラスタムと呼ぶこともあります。
 
 カメラ座標系の原点はカメラ位置(視点)で-z方向が視線です。視点から離れると視界が段々拡がるのは直感的にも理解しやすいでしょう。そして変換後の正規化デバイス座標系では視界が立方体に変形します。カメラ座標系の各三角形(図には描いていない)は正規化デバイス座標系の三角形に変換されます。
 
 図aの視点に近い小さな長方形(前方クリッピング面)が図cで同じ向きの一辺が2の正方形に変形します。前方クリッピング面のちょうど反対側の大きな長方形(後方クリッピング面)も図c右奥の一辺2の正方形に縮小されます。これに伴い、視点に近い三角形は拡大され視点から遠い三角形は縮小されます。人間がものを見るときの結果と同じです。
 
 この投影変換により画面で表示される形に近いものになります。その証拠に、投影変換の次の段階「ビューポート変換」にはxy座標だけが送られz座標は無視されます。つまり大まかには投影変換により3次元形状が2次元形状になると思って構わないのです。
 
 この授業で履修生から次のような質問がありました。
 
---
後方クリッピング面があるのは無限に続くのを防ぐ目的であると理解できるのですが、前方クリッピング面はなぜあるのでしょうか? カメラの座標を原点とした四角錐型では不都合があるのでしょうか?
---
 
上下左右の範囲を視界として区切るのは直感的です。後方を区切るのはまだしも、手前まで区切るのは確かに人間の視界とは違いますね。この回答は次回紹介します。
 
メディア学部 柿本正憲


2023年11月20日 (月)

深層学習の落とし穴

2023年11月 3日 (金) 投稿者: メディア技術コース

渡辺です。ブログはしばらくご無沙汰してしまっておりました。今回は、「深層学習」(Deep Learing)について思うところを書いていきたいと思います。

「深層学習」とは、元々は脳の神経細胞(ニューロン)の仕組みを倣った「ニューラルネットワーク」と呼ばれる理論体系がベースとなっています。詳しい話はここでは省きますが、ニューラルネットワークの仕組みをより多層に構築し、さらに学習を実現するための様々なアイデアが盛り込まれています。2015年、深層学習を用いて開発された「AlphaGo」というシステムが、当事の囲碁の世界最高棋士に勝ったことで有名となりました。それ以後、様々な応用に用いられていますが、有名なものとしてはヒントとなる文章から画像を自動生成する「Stable Diffusion」などの画像生成AIや、日本語や英語などの自然言語による質問にやはり自然言語で回答する「ChatGPT」があります。

これらの技術があまりにも衝撃的であるため、様々な分野で深層学習が注目されています。実際に成果が挙がっていなくても、「深層学習を用いた」というだけで注目されているということも、たまに見受けられますね。

それはともかくとして、最近よく感じるのは「学生が研究で安易に深層学習に手を出す」ということです。深層学習は確かに凄い理論であることは間違いないのですが、有用な成果を挙げることは決して容易ではありません。深層学習をプログラム内で用いる方法は、検索すればすぐに出て来ますし、自分のPCにインストールして簡単に動かすことができます。それを実体験した学生が、「自分でもまったく新しい成果が挙げられるかも」と期待するのは無理もありません。しかし、そこに落とし穴があります。

実際のところ、深層学習が有効に働くには多くの「コツ」が必要となります。入力データをどのように揃えるのか、パラメータや評価関数をいかにうまく設定するか、どのような深層学習理論を用いることが適切なのか、どういったデータを出力することで有用性が出せるのかなどなど、様々な要因があります。こういったことは、決して「試しに触ってみた」というレベルで身につくものではなく、平たく言えば「深層学習を使う練習と実践」が必要になるわけですね。ですが、研究で深層学習を利用したいという学生のほとんどは、実際にはほぼ未経験の状態なことが多く、なかなか思い通りの成果が挙がることはありません。「何か変な画像が出力されてしまいました」という状況ならまだマシで、大抵は「そもそも出力が得られてない」という段階で終わることも多いようです。

また、深層学習を利用する手法だと、うまくいかないときにどうすればいいのかの判断が非常に難しいという特性があります。深層学習を用いない、演繹的な手法だと、うまくいかないときもどの部分が悪いのかを検討する余地があります。しかし、深層学習だと「どうすればよくなるのかさっぱりわからない」となってしまうことが結構あります。

深層学習を研究に取り入れること自体については、非常に有効となる可能性はあります。ただ、それならば事前に深層学習についてよく理解しておくことが重要だと思います。

(メディア学部教授 渡辺大地)

2023年11月 3日 (金)

オープンキャンパスでの言語メディア研究室の研究紹介

2023年8月30日 (水) 投稿者: メディア技術コース

2023年8月6日と20日に開催されたオープンキャンパスに言語メディア研究室も参加し、言語メディアに関する研究紹介を行いました。両日とも、当研究室で現在進めている10個の研究テーマについて来場者の皆様に紹介しました。12枚のポスターを展示するとともに、大型ディスプレイでデモも実施しました。

 

Cl1
8月6日に研究紹介してくれた研究室メンバーです。

Cl2
8月6日は、大型ディスプレイを使って、小説を分析する目的と手順について詳しく説明しました。

Cl3
8月20日は、大型ディスプレイを使って、広東語を楽しく学べるゲームアプリケーションを来場者に体験してもらいました。5つの項目のそれぞれで5問ずつ、計25問の問題が出題されます。広東語の単語や文に関して、文字列を見たり発音を聞いたりして正しい選択肢を来場者に選んでもらいました。

Cl4
20名以上の方にゲームアプリケーションを体験していただけました。そのうち、25問すべてに挑戦してくれた方のスコアを「広東語スコアボード」に記録しました。ホワイトボードに、来場者のハンドルネームとスコアを記録していきました。オープンキャンパス終了後に最高点を確認したところ、最高点は23点/25点でした。中国語や広東語に特に詳しいわけではない高校生の方がベストのスコアでした。おめでとうございます!
現在、このゲームアプリケーションは改善を続けています。来年の春ごろに研究発表することを予定しています。詳細については、その研究発表を楽しみにお待ちいただければと思います。

Cl5
8月20日に研究紹介してくれたメンバーです。片付けの時の写真です。

 

猛暑であったり、時々激しい雨が降ったりする中、八王子キャンパスまでご来場くださり、オープンキャンパスにご参加くださった皆様、誠にありがとうございました。
(文責: 松吉俊)

 

2023年8月30日 (水)

無限遠にある光源

2023年6月28日 (水) 投稿者: メディア技術コース

3年生向けの講義「3次元コンピュータグラフィックス論」の授業での履修生からの質問とそれに対する回答を紹介します。「シェーディング」(CG形状モデル表面の輝度を求める照明計算)というテーマの授業回で、光源の種類について説明した下記のスライドについての質問です。
 
Lightsources
 
質問:
 
平行光線に関して、「点光源が無限に遠いところにある」という説明がいまいちよくわかりませんでした。
 
回答:
 
実世界で無限遠というのは想定できません。あらゆる光源は有限の位置にあるわけです。実は無限遠はCG描画計算の都合で用意された架空の想定です。特定の向きから光線が平行に降り注ぐことから「平行光線」と呼びます。光源が無限に遠いと想定すると、少ない計算量で物体表面の1点の輝度計算(照明計算)ができます。そしてその結果はある程度遠いところにある点光源から照らされた結果とほとんど同じです。
 
であれば、わざわざ遠い有限の距離を設定するよりは架空の無限遠設定で計算するのがいい、ということになります。そうすると、後で出てくる「距離の2乗で割り算」という計算をしないで済ますことができます。1回の照明計算で、引き算3回、掛け算3回、足し算2回(以上距離の2乗の計算)、それと割り算1回を省略できます。
 
もちろんそれぐらいの計算はきわめて短時間で実行できます。しかし、CG描画では各頂点で照明計算を行いますから、仮にシーン中に10万頂点あれば10万回の上記計算が節約できます。やや極端ですが、同じ条件下で点光源10個を平行光線10個に置き換えれば100万回節約できます。
 
もっとも近年ではGPUの処理速度が以前よりも高まったため、1フレーム(リアルタイムCGなら16ミリ秒)のうちの数100万回程度の乗算や除算はさしたる影響もない、という判断もあり得ます。ただ結果がほとんど同じなら、無駄な計算をしないために無限遠の光源を設定すべきでしょう。
 
無限遠とは言っても向きは確定します。平行光線の位置の設定に際しては向きのベクトルを指定することになります。例えば空間内のある1点(10, 5, 20)に存在する点光源(もちろんこれは有限)の位置は(10, 5, 20, 1)と設定します。これを(10, 5, 20, 0)と設定すれば向き(10, 5, 20)の無限遠にある平行光線とみなされます。
 
3次元ベクトルではなく4つ目の次元をもったベクトルで位置を指定し、無限遠かどうかは4番目の成分が0かどうかで判定します。このような4次元の座標は同次座標と呼ばれ、数学的に3次元空間での無限遠の向きを有限の位置と同じ枠組で設定できます。
 
少し制作面の話をしましょう。晴天の屋外のシーンであれば太陽を想定した無限遠の平行光線を使えば十分です。
 
一方で屋内のシーン、特に暗めの部屋であれば無限遠の光源は使わずなるべく有限位置の光源を使う方が雰囲気が出ます。この講義では説明しませんがスポットライト(特定の向きに近い範囲だけ照らす点光源)も併用すると効果的です。
 
メディア学部 柿本正憲

2023年6月28日 (水)

ChatGPTの爆発的なブームの観測法としてのGoogle Trends (Part1)

2023年5月19日 (金) 投稿者: メディア技術コース

新しいメディア学の研究テーマに取り組んでいる全国唯一の健康メディアデザイン研究室の千種(ちぐさ)です。人体を健康メディアとしてとらえメディアを活用して自らの健康をデザインしたり、多くの人たちに役立つ健康改善するための健康アプリを制作するための研究を行っている研究室です。

現在、生成AIとしてChatGPTが世界じゅうの国、学校、企業、人々を巻き込んだ大ブーム・大論争になっていますが、皆さん個人としてはどうでしょうか?大ブームと大論争といって定量的に測定できるのは大ブームですので今回はその大ブームの様相について話していきたいと思います。

物事を検索するときにGoogle検索を使用するようになって久しいですが、Googleのサービスとして、Google検索のキーワードの検索数の経年変化を観測することができるGoogle Trendsというものがあります。Wikpediaによると以下のような説明があります。

Google Trends(グーグルトレンド)は、ある単語がGoogleでどれだけ検索されているかというトレンドをグラフで見ることができるツール。公開は2006年5月10日。日本版の公開は2008年10月28日。
[概要]
Google Trendsでは、入力した単語の検索数をグラフで示してくれる。このときその単語に関連したニュースを見る事ができ、特に検索数が多いときに何があったのかが分かるようになっている。特定の国、期間に絞ったグラフを見ることもでき、また世界中の都市や国、言語毎にどこでの検索が最も多いのかのランキングも提供される。さらにコンマで区切ることにより複数の単語のグラフを比較することも可能である。
リアルタイムの検索トレンドとして急上昇ワードを見ることができるだけでなく、検索キーワードから1年を振り返るなどで、長いスパンでの検索トレンドから毎日のニュースまで幅広く知ることができる。

実際に、分かり易い例として以下のWebアプリ、Webサービスの検索数を使ってみます。
1.Google(1996年~、月間利用者数7億人)
2.Facebook(2004年~、ユーザ数29億人)
3.Youtube(2005年~、月間利用者25億人)
4.twitter(2006年~、月間利用者5.5億人)
5.Instagram(2010年~、月間利用者数20億人)
6.LINE(2011年~、月間利用者1.9億人)
7.TikTok(2016年~、月間利用者数10億人)
8.ChatGPT(2022年~、1億人)

まず、ChatGPTと新興SNSの比較を2004年から現在&世界中で実行してみます。
8.ChatGPT、4.twitter、5.Instagram、7.TikTok、の順です。2010年前後にtwitterとInstagramがブームになってきて、その後にTikTokが2019年にブームの始まりといった感じです。そしてChatGPTは右下で少しだけ変化が見えますが、世界を代表するSNSと比較してその位置が分かるくらいの利用数(検索数)なのでそれなりにインパクトがあります。


Snschatw

左記の例では国内トップのLINEの情報がありませんでしたが、LINEも追加して比較してみます。LINEの利用が年々減少しているように見えるのは、Google検索全体が増えていて、相対的にLINEの割合が減っているためです。そして注目のChatGPTですが、ちょうど2023年4月にLINEとほぼ同等の検索割合になったことが分かります。去年の秋にリリースされたChatGPTがLINEと同等になっていることはすごいことですね。

 

Snschatw_20230519150301

2023年5月19日 (金)

前期の授業紹介:クリエイティブ・アプリケーション

2023年5月10日 (水) 投稿者: メディアコンテンツコース

助教の戀津です。

2023年度も前期授業が始まりました。今回は水曜4・5限に開講するプロジェクト演習「クリエイティブ・アプリケーション」の紹介です。
以前にも紹介しており、内容に大きな差はないのですが、環境に大きな変化があったので紹介します。

以前は片柳研究所棟の5F、MTCという施設で実施していたのですが、施設のリニューアルに伴い開講場所を変更しました。
今期からは講義実験棟5Fの、C-Room1という教室で実施します。

この演習は前期中はメディア史や西洋美術史など、歴史に関する座学とディスカッションをメインで行っています。
しかし、実施内容は人文学的ですが、それを何のためにしているかと言うと、アプリ開発のためです。

アプリ開発を行う際には、プログラムの技術的な学習や企画力など実装・内容検討に関わる部分の学習も多く必要です。
しかし、その際にそれら双方の土台となる教養として、メディア史や美術史、哲学などの『人類の積み重ねてきた叡智』への理解が活きてきます。
実際に役に立ち始めるのは学習してしばらくしてからで、間をおいて出てくることが多いのですが、遅効性ながら大きな効力があると考えます。

というわけで、人文学的な部分の座学も内容として多く実施するのですが、アプリケーションを開発することもまた大きな目的の一つです。
iOSデバイスを対象に、Swiftを利用しプログラムの講座も行います。先日紹介したTUTSchoolBusは、この授業で使用されている資料を参考に開発しています。
これまでは自身でMacの機材を持っていないと実際の開発が難しかったのですが、今年度からはC-Room1にあるMacStudioが利用可能です。

MacStudioは昨年発売されたばかりの、現行機種の中でも上位の処理能力を持つ機材です。C-Room1には多く配置してあり、受講生はこれを使いアプリの開発を実際に行えます。
AppStoreで公開しようと思うともう少し色々することはありますが、手元のiPhoneやiPadで実行できるアプリを作るだけなら割とすぐにできるようになりました。

ちなみにこの演習の受講生が、昨年度に大きな成果を残してくれました。授業の資料を参考にアプリを制作し、Appleから表彰されています。
http://blog.media.teu.ac.jp/2022/06/post-d23909.html

表彰を狙う必要はありませんが、アプリ作りができると将来の選択肢が色々広がります。
座学・ディスカッションで教養を深めるフェーズとあわせ、大変お勧めのプロジェクト演習です。
今からだと履修はできませんが、聴講はいつでも歓迎ですので、水曜4・5限に空きがあれば覗いてみてください。

2023年5月10日 (水)

スクールバスの行列状況の取得アプリ『TUTSchoolBus』について

2023年5月 8日 (月) 投稿者: メディアコンテンツコース

助教の戀津です。
今回は、私の開発・公開しているアプリの『TUTSchoolBus』について紹介します。

本学の八王子キャンパスは最寄り駅から距離があるため、スクールバスの運行をしています。
バスは主に八王子みなみ野駅と八王子駅から発車していますが、朝の時間は1限の授業に向かう学生さん達で大変に込み合ってしまいます。

特に八王子駅が大変で、8:50開始の1限に間に合うためには8:00に八王子駅到着では厳しいくらいに混雑します。
そうなってくると、八王子駅で改札を出ずに、そのまま横浜線に乗り換えて八王子駅みなみ野駅へ行き、そこからみなみ野のバスに乗った方が早い・・・ということが起こりえます。
さらに、八王子みなみ野駅も混んでいた場合駅から徒歩も選択肢に入ります。もちろん歩く速度に依りますが、20分前後で登校可能なので駅で10分以上待つようであれば徒歩の方が早く着く可能性があります。

こうした交通事情があるのですが、上記のような回避策を取ろうと思った場合、八王子駅では改札を出る前に、八王子みなみ野駅では改札を出てバス停に向かう前に込み具合を知る必要があります。
そこで、本学スクールバスの行列状況を測定するためのアプリを開発し、リリースしました。TUTSchoolBusというそのまんまなタイトルですが、スクールバスにまつわる諸々の機能を提供できればということで設定しています。

八王子駅であれば改札階からバス停のある地上へ降りるエレベーター付近、八王子みなみ野駅であればバス停に向かう階段付近を通過した時にバス利用開始として扱い、その時点からバス列の情報取得になります。
バス停から20m、40m、60m、80m付近を通過した時にもログを取得しており、これによって『現在60m~80m付近に5分滞在している人がいる』、というような情報が取得できます。
この情報を使えば、現在のバス列のおおよその長さとバスに乗れるまでにかかる時間が推測できます。また、大学到着時にもログを取得しているのでバスの経路が渋滞している場合もそれを検知できます。

現在はiOS版のみ開発・公開しており、iPhoneユーザーの方にご協力をお願いしています。
登校時、駅に着くまでにアプリを起動しておけば、後はバックグラウンドにあるだけで自動的に位置情報のログを取得します。
八王子駅または八王子駅みなみ野駅に到着したら到着の通知を出すので、別のアプリを使用していても通知で気付くことができます。
各駅と、バス停付近と大学付近の位置情報を使用し、現在各駅のバス停付近がどのような状況かを計測します。

八王子駅の改札を出る前に「八王子バス大学到着まで50分/みなみ野バス大学到着まで30分」というような表示ができれば、横浜線と徒歩の方が早いことがわかり、その選択ができるようになります。(運賃はかかってしまいますが・・・。)
現在のバージョンでは、↑これができるよう情報収集と所要時間推測方法の検討を行っています。

位置情報の取得は随時行いますが、上記特定の個所以外では送信せず、大学に到着すれば自動で取得を終了します。
また、この地点に現在何人いるということはわかってもそれが誰であるかはわからないようにしています。

現状はデータ収集のためだけのアプリになってしまっていますが、現在時刻表機能を準備中です。
アプリを起動すれば、現在地に応じて八王子駅バスまたは八王子みなみ野駅バスの現在時刻から3本先くらいまでのバス発車時刻を表示予定です。
そのほかスクールバス利用に関する便利機能があれば随時更新しようと思います。利用者が増え多くの方が情報を提供していただければ、その分推測の制度が上がりますのでiPhoneユーザーの方はインストールしていただければ幸いです。

こちらからダウンロード可能です。よろしくお願いします。
https://apps.apple.com/jp/app/id1659882368

2023年5月 8日 (月)

ネットワークメディア研究室卒研発表会

2023年2月 2日 (木) 投稿者: メディア技術コース

皆さん、こんにちは。

メディア学部は1月30日から2月2日まで卒研発表会が集中開催されています。私たちのネットワークメディア研究室は2月1日に対面の口頭発表形式で最終発表会を実施しました。全員マスク着用ではありますが、対面で発表会ができたのは良かったと思います。レビュアーの森川先生にはたくさんのコメントをいただきました。また、2年生、3年生で参加してくれた人も多く、質問も出てよい発表会となりました。

20230202

今回の発表者は6名で、テーマは以下の通りです。

  • 一方の絵に他方の絵の特徴を度合いを調整し付与するための手法の検討
  • FPSゲームにおける射撃訓練のAIの検討と実装
  • 合成音声を用いた講義動画における発話特徴の学習効果への影響
  • Webを活用した高等学校までの情報科目の教材の提案と試作
  • 画像分類における特定ラベルの正解率を上げる手法の考察
  • BluetoothLEを用いたスマートフォンへの周囲環境通知システム

それぞれが興味を持つ分野の問題発見からテーマを設定し研究を進めてきましたが、時間切れで目標としたところまで到達できなかったテーマもありました。それでも、テーマを設定し、研究手法を検討し、実際に研究を進めて最後に評価実験を行う、そしてそれを論文にまとめ口頭で発表するというプロセスを経験したことはとても大きいと思います。なぜそうするの?なぜそれを選ぶの?なぜそう言えるの?としつこく責められた1年だったと思いますが、そのような考え方や進め方というのは各自の今後の進路において必ず役に立ちます。

あとは卒業論文の最終版の作成が残っています。1月に論文を提出後、発表の準備の過程で新たに考えが整理されたり、良い図やデータの示し方が分かったという人もいたはずです。発表会での指摘も踏まえ、完成に向けてあと少し頑張ってほしいです。

メディア学部 寺澤卓也

2023年2月 2日 (木)

より以前の記事一覧