おもしろメディア学

メディアの輪~似顔絵は誰の?~(3)

2021年1月31日 (日) 投稿者: メディア技術コース

こんにちは。今回はに教員似顔絵シリーズ((1)コンテンツコース・(2)技術コース)の第3弾です。社会メディアコースと実験助手、兼任教員の村上先生と就職担当の山砥先生です。

Media_shakai_knife_17

Media_shakai_knife_09

Media_shakai_knife_26

Media_shakai_knife_24

Media_shakai_knife_15

Media_shakai_knife_12

Media_shakai_knife_37

Media_shakai_knife_35

Media_shakai_knife_06

 Media_shakai_knife_19_20210128155901

Media_shakai_knife_21

Media_shakai_knife_03_20210128160001

こちらの学部の教員紹介ページで答え合わせをしてください。

メディア技術コース 越智

2021年1月31日 (日)

メディアの輪~似顔絵は誰の?~(2)技術コース編

2021年1月30日 (土) 投稿者: メディア技術コース

こんにちは。メディア技術コースの越智です。以前紹介していた教員似顔絵の続編です。(前回のメディアコンテンツコースはこちら。

今回はメディア技術コースを取り上げます。以下の似顔絵は誰をモデルにしたものでしょうか??

Media_gijutsu_06

Media_gijutsu_15

Media_gijutsu_20

Media_gijutsu_23

Media_gijutsu_03

Media_gijutsu_14

Media_gijutsu_18

Media_gijutsu_25

Media_gijutsu_16

Media_gijutsu_12

Media_gijutsu_22

Media_gijutsu_27

Media_gijutsu_09

誰がどれかわかりたでしょうか?答えは、メディア学部教員紹介ページの技術コースの掲載順をご参照ください。

メディア技術コース 越智

 

 

 

 

 

2021年1月30日 (土)

【漫画の話題】領域展開に関するメディア技術コース的考察

2021年1月29日 (金) 投稿者: メディア技術コース

みなさんこんにちは。今回は、最近注目されている漫画作品である「呪術廻戦」に乗っかってその世界観についてメディア技術コース的に考察したいと思います。(あくまで私見による解釈であり、実際の作品の設定とは異なることはご承知おきください。)メディア学部らしい記事ですよね。

(1)設定について
作品をご存じない方のために、今回考察する設定についてお話します。物語の重要な登場人物である高専教員・五条悟先生は「無下限呪術」なる技を持っており、とくにそれが発揮される有利な状況である「領域展開”無量空処”」をすると、その領域に入った人は無下限呪術の技を受けてしまいます。以下、設定の一部ですが、それぞれの概略を示します。

  • 無下限呪術 相手の物理的攻撃(殴打など)が「永遠に」直前に留まって当たることがありません。
  • 領域展開”無量空処” 入った人に無下限呪術が適応される特別な領域を作ること。その領域に入った人は、感覚情報が「永遠に完結せず、故に何もできない」といいます。

他にもいろいろ設定はあるのですが、以上2点に絞って考察します。


(2)仮説:無下限呪術はアナログな時間の進行を操る技である
作品内の説明によると、「無下限呪術」により打撃が永遠に当たらない秘密は、古代ギリシャの時代から考えられているパラドックスの一つ「アキレスと亀」にあるといいます。俊足のアキレスが遅い亀を追い抜かそうとした場合、ある時刻にアキレスがa [m]の地点にいて、亀が b の地点(b > a)にいたとすると、秒後 ( 以下、秒の単位は s と記載し、t [s] などと書く)にアキレスが に到達したときには亀はc (c > b)にすでに進んでいます。アキレスがcに到達したころには、亀は(d > c)に到達しています。こうして、いくらアキレスが亀がいた場所に進んでも亀はその間に先に進んでいるため永遠に追い抜かすことはできないという話です。

このパラドックスは、結局のところ、実際にアキレスが亀を追い抜く時刻 T (仮に両者が等速運動をしているとしてアキレスが秒速v [m/s]、亀が秒速u [m/s]とすると T = (b - a) / (v - u) なのですが)があったとしても、そこまで先については、言及していないということになります。つまり、時刻 T より前の時刻で起こっている亀とアキレスの競争を「無限に細かく時間を刻んで述べている」だけに過ぎないのです。

呪術廻戦においてこのパラドックスが技に応用されているとすると、無下限呪術の実行者(五条先生)に打撃を与えようとする拳は、その直前に五条先生の体の前で無限に細かく刻まれる(いつまでも時刻tが t < T のままで)ことにより本来打撃が当たるはずの時刻 に永遠に到達しないことになるのではないでしょうか。

(3)では領域展開”無量空処”は?
こちらは、「領域」に入った人がその無限に細かく刻まれる時間の流れに、体が部分的に巻き込まれると解釈できるのではないでしょうか。人間のニューロンはある値を超える電圧の信号のパルス(スパイク状の信号)が連続して一定時間以上入力されると「発火」という活動状態が生じ、次のニューロンへと情報が出力されます。これは、人工知能のアルゴリズムの一つで現代に広く用いられているニューラルネットワークでもこのモデルが使われています。ニューロンは複数が並列に並んでいて同時に発火したりといった並列の処理ができるのですが、一個一個のニューロンが発火できる頻度、つまり脳が局所的に情報を処理できる速度には上限があります。

「無量空処」によって例えば脳が処理をする時間間隔が無限に近く細かく刻まれていったらどうなるでしょう。視覚や聴覚から入ってきた情報は、各種のニューロンを発火させて次の階層のニューロンへと伝えられますが、それが仮に1秒間に本来10回~数十回程度だったものが、1秒間に数万回になったとしたら、情報を与えられる人間にとっては1000倍の時間でゆっくり情報が与えられたかのようになるのです。


そもとも視聴覚などに入力される光や音の自然界の情報は、アナログ情報のため、時間軸上は無限に細かく取得することができます。しかし人間側は、ひとつひとつのニューロンは局所的にある意味デジタル的な逐次処理をしていてその1ステップ1ステップが1秒間に膨大な回数行われるようになると、メディア学的には「フレームレート(動画像の場合は1秒間の処理画像枚数)は上がるが、1秒間の処理は延々に完結しない・・ゆえに何もできない」という状況になるのです。

Blog_kiku

(画像:呪術廻戦にハマって領域展開のポーズをする菊池先生の3Dモデル)

メディア技術コース 越智

 

2021年1月29日 (金)

にゃんズ来る(ネコ×2とAI、その2)

2021年1月 8日 (金) 投稿者: メディア技術コース

さて、続きです。前回に学習モデルを作成したところまで説明しましたが、学習の成果を確認しましょう。Teachable Machineのプロジェクトのページのさらに右側に、Previewという領域があって、ここの”Input”を”ON”にするとカメラが起動し、学習したモデルを確認することができます。ということで、にゃんズカモン!また一匹づつひっつかまえてカメラの前に持ってきます。下に画像を載せますが、画像右下にある”Output”でそれぞれのネコに対応したラベルのグラフが100%になっているのがわかります。さらに、何も画面に写っていないときも、”nocat”ときちんと判定されていますね。これで学習モデルの準備はOKです。

 

Screen-shot-20210101-at-125604

  学習成果の確認

 

これで、いよいよアプリケーション自体のプログラムに移ることができます。p5.jsは、ウェブ上でプログラムを作成、実行できる環境が https://editor.p5js.org にあります。このブログでは詳細は省きますが、まずこれでPCのカメラを使い、キーを押すと撮影画像を保存するものを用意しておきました。次に先程の機械学習のモデルをこのプログラムで使えるようにしていきます。

 

もう一度、Teachable Machineのページに戻ります。Previewのところにある”Export Model”をクリックすると、下記のようなウィンドウ(水色の部分)が表示されます。ここにJava Scriptから学習モデルを使うための情報が提供されています。学習モデルを利用するためのURLや、モデルを利用するためのJava Scriptのコードが表示されていますので、ここから必要な部分をコピーして先程自分で作成したカメラ撮影のプログラム中に適宜埋め込んでいきます。ここらへんは多少プログラミングを理解している必要がありそうですが、そこまで難しいわけでもありません。

 

Screen-shot-20201231-at-104838

Export Modelの画面:利用するためのコードが表示されている

 

さて、実行してみましょう。エディターの上部にある実行アイコンをクリックしてみます。まず何もカメラ前に居ないときには撮影が行われません。よしよし。次にまたにゃんズに協力をあおぎます。うにゃーというのをかまわずひっつかまえてカメラ前に連れてきます。カシャ!という音はしないのですが、画像が保存されたことが視覚効果でわかります。すごい、ちゃんと出来ているじゃないですか!もう一匹も連れてきても成功です。ちなみになんでもかまわず撮影しているわけではないのは、画像のファイル名にそれぞれのネコの名前が含まれるようにしたので、きちんと識別されているのが分かります。自分自身でカメラの前にいっても撮影されません。

 

Screen-shot-20201231-at-175837

エディター上のプログラムが実行されている様子

 

 

ということで、ネコとのにゃんにゃんブログを正当化するために実施した機械学習を利用したアプリケーション開発ですが、非常に簡単にAIアプリを作成することができました。さすがGoogleというところでしょうか。これで、実行したままにしておくと、ネコたちが画面前にやってきたときに自動的にシャッターがきられて画像が保存されるアプリケーションができあがりました。いたずらするところの決定的な写真を撮ったりするのに使えるかもしれません。まあ、まだ色々細かい調整や作り込みは必要でしょうが。今回の作業で一番大変だったのはネコをカメラ前に連れてきて学習データを取り込むところでした。なにしろじっとしていなくて暴れまくるのでカメラに写るようにつかまえているのが大変でした。ものによるとは思いますが学習データの用意が一番面倒な部分ではないでしょうか。それなりの量も用意しなくてはならないでしょうから。今回は、それぞれ200枚〜250枚くらいの画像で行いました(他のネコの写真は20枚くらい。用意するのが大変だったので)。それさえ用意できれば非常に簡単にAIを自分のコンテンツに取り込むことができました。課題はAIの機能を「何に」「どのように」使用するかというアイデアを考える部分になりますね。独自のアイデアがあれば、面白いものを簡単に作ることができそうです。来年の演習にでも取り込もうかな。

 

さて、ネコと遊ぼう…

 

 

太田高志

2021年1月 8日 (金)

にゃんズ来る(ネコ×2とAI、その1)

2021年1月 7日 (木) 投稿者: メディア技術コース

ネコ買っちゃいましたよ。飼っちゃいました?安らぎを求めて…

二匹です。ネコを飼うなら複数と思っていて、ついに妻を説得するのに成功いたしました。…いや~、マジでかわいいですね…。毎日メロメロになっています。以前は犬を飼っていて、妻は犬派でしたが、高齢になってくると朝晩の散歩が厳しいということで今回は猫ということで納得してもらいましたが、可愛いですねえ…。おまけにまだ子猫だし。さわり心地はいいし、躰はぐにゃぐにゃでやわらかいです。ゴロゴロ音も心がやすらぎます。セロトニンが毎日ドバドバ出まくります。猫は犬よりドライだというようなことも聞きましたが、思ったよりも全然甘えん坊で毎日膝の上で寝ています。家の犬はかなりドライな性格でしたがそれよりも全然くっついてきます。二匹でもしょっちゅうべったりくっついていて、それを見ているのも微笑ましいです。犬との違いは、テーブルの上でもピアノの上でも飛び上がってどこでもいってしまう運動神経で、これだけは大変で、その身体能力に驚いていますが、それも楽しい毎日…

 

ということで写真です。ペットって人に見せたくなりますよね…

 

Cache_messagep11946-copy Img_1726_original

かわいい                    かわいい

 

Img_4597-copy Img_4322

かわいい                   かわいい

 

Img_4605

チョーかわいい…

 

 

ひたすら「かわいいよぉ、ハァハァ…」なんて書いているだけだと、大学のブログとしての品格と見識を疑われてしまいますよね。フム…。というわけで、にゃんズに協力してもらって機械学習を利用したアプリケーションを作ってみました(唐突か?)。

 

Googleが提供しているTeachable Machineで機械学習による画像認識の学習データを用意し、それを使ってネコたちがカメラの前に来ると自動的にシャッターを切り画像を保存する、ウェブブラウザーで動作するJava Scriptのアプリケーションを作成してみました。Java Scriptの開発環境としては、ビジュアルプログラミングの環境として有名はProcessingをJava Scriptに移植したp5.jsを利用しました。

 

さて、Teachable Machineのページ(https://teachablemachine.withgoogle.com)にアクセスして、”Get Started”をクリックすると、下図のように3つのプロジェクトから選択できるようになっています。今回は、ネコの顔を認識して反応するようにさせたいので、Image Projectを選びます。その他に、音声やポーズを認識するものがありますので、これらもそのうち試してみたいと思います。

 

Screen-shot-20210101-at-02155

Teachable Machineのプロジェクト種別選択の画面

 

新規のImage Projectのページになると、複数の対象の学習データを登録できる画面が現れます。画像認識のための学習データは画像群を読み込ませることもできますが、このシステムで簡単なところは、PCのビデオカメラを利用して、その場で対象物をカメラの前で動かして色々なパターンの写真を連続して取り込めるところです。ということで、ネコを一匹捕まえてウニャウニャと激しく振りほどこうと暴れるのを一生懸命なだめつつ、カメラの前でグルグルと動かして色々な画像を200枚程度づつ取り込みました。何枚くらいが適切なんだろうか…。そしてもう一匹を捕まえて、再度ウニャウニャを別の学習データとして取り込みます。それぞれの学習データにはそれぞれのネコの名前をラベルとしてつけておきます。それから、他のネコの画像をウェブから仕入れて、別のネコの認識用の学習データを用意し、人が写っていたり部屋が写っている画像もネコが居ないときを識別するために撮影してその学習データに”nocat”とラベル付けしました。

 

Screen-shot-20201231-at-104923

学習データ読み込みの様子

 

 

学習データが用意できたら、それらの右側に”Training”と書かれている領域に”Train Model”と書かれた矩形(ボタン)がありますので、それをポチッとなとすると学習データによる訓練を開始します。学習している間「ブラウザーのタブを変えるんじゃねえぞ」という警告を受けながら待っていると、”Model Trained”と表示され、学習が終了します。これで、ネコの顔を識別するための機械学習のモデルができあがりです。次はこれを利用して画像を撮影するアプリケーションをp5.jsで作っていくのですが、長くなりましたのでそれについては「その2」に続きます…。かわいいよぉ…

 

 

太田高志

2021年1月 7日 (木)

スマホアプリは面白い(カメラ編③)

2020年11月 5日 (木) 投稿者: メディア技術コース

5年前から新しい研究テーマを始めた健康メディアデザイン研究室の千種(ちぐさ)です。人体を健康メディアとしてとらえメディアをつかって自らの健康をデザインするための研究を行っている研究室です。

すでに、スマホアプリは面白い(カメラ編①)でGoogleレンズ、スマホアプリは面白い(カメラ編②)でGoogle翻訳、を紹介しましたが、

http://blog.media.teu.ac.jp/2020/10/post-39ab1e.html

http://blog.media.teu.ac.jp/2020/11/post-cc0b8a.html

今回は、健康メディアデザインにとって関わりが深く有益なカメラアプリを紹介いたします。それは、スマートフォンのカメラを使用して、心拍数を計測するアプリです。最近は世界的な健康志向のため「スマホで健康」という潮流が年々拡大してきています。iPhoneのヘルスケアアプリやAndroidのGoogle Fitで利用できる歩数計もその一つです。

https://xtech.nikkei.com/it/pc/article/mag/20140227/1122703/

そして心拍数を計測するアプリはたくさんありますが、iPhoneではCardiio社の「心拍数計+7分間エクササイズ」という無料アプリがApp.Storeの評価も4.4と高く有名です。

https://apps.apple.com/jp/app/id542891434

AndroidではHealth & Fitness AI Lab社の心拍数測定器がシンプルで使いやすいです。

https://play.google.com/store/apps/details?id=com.bluefish.heartrate

さて、スマホカメラに指先を当てて心拍数を測定する原理はどうなっているのでしょうか?スマホのLEDライトの強い光を指先に当てると、血液中に含まれるヘモグロビンが緑色の光を吸収する特性があり、指先の血流の変化がわずかな映像の変化となって現れます。これを増幅して心拍の変化を時間波形として記録するのがこのスマホの心拍計になります。

Cardiio_20201104101801

また、Androidの心拍計では、アスリートのトレーニングには必須の運動強度という運動の強さを表す指標もわかります。

Photo_20201104100701

 

そして、さらには同じ仕組みを顔の動画に適応して心拍数を測定できるアプリもあります。やっと日本の企業の登場(旭化成、http://pacesync.com/ )です。顔の動画像から心拍数を測定できると、面接の際に緊張して心拍数が高くなったりする心の動揺を測定することができます。将来は面接官もAIになるかもしれませんね!

Pacesync_20201104100701

 

 

2020年11月 5日 (木)

スマホアプリは面白い(カメラ編②)

2020年11月 3日 (火) 投稿者: メディア技術コース

5年前から新しい研究テーマを始めた健康メディアデザイン研究室の千種(ちぐさ)です。人体を健康メディアとしてとらえメディアをつかって自らの健康をデザインするための研究を行っている研究室です。

前回はGoogle レンズというカメラアプリを紹介しました。

http://blog.media.teu.ac.jp/2020/10/post-39ab1e.html

今回は同じくGoogleの翻訳アプリを紹介したいと思います。PCでサービスを利用する場合は、以下のURLから利用できます。例えば、英語の文章を入れると、日本語の翻訳文が表示されます。これだけでも便利です。

https://translate.google.co.jp/?hl=ja&pli=1

Google_20201030111501

 

スマホアプリとして、iPhone版の無料アプリは以下になります。

https://apps.apple.com/jp/app/id414706506

android版の無料アプリは以下になります。

https://play.google.com/store/apps/details?id=com.google.android.apps.translate&hl=ja&gl=US

どちらも基本機能は同じです。

ここまでの段階でPCを使用すればできるのだからそれで十分と感じている人も多いかもしれません。しかし利用シーンによってはスマホアプリ版のGoogle翻訳が活躍できるシーンがあります。それを実感したのは2018年にベトナムでの海外旅行中のことでした。

Photo_20201030111501

街中で上の写真の場所を通りかかったとき、一体何でこんなに人が集まっているのだろうと思いましたが、ベトナム語はしゃべることができないので、そこで威力を発揮したのがGoogle翻訳のカメラ機能でした。以下のように表示され、肉と卵とビーフやチキンのミートケーキなのか、とわかりました。

Photo_20201030111801

ちょっと暗所だったので画質は悪いですが、下図のように街中で見つけたベトナム人に人気のバインミー(ベトナム風サンドイッチ)を購入することができました。また別の日にはベトナム食堂で、ウエイターがタブレットを持ってきて、これのgoogle翻訳アプリを使用して、フォーを選んで注文することもできました。

Photo_20201030111502

スマートフォンの登場で本当に便利な世の中になりました。国連の会議も世界各国の委員が自国の言葉で発言すると、聞いている側(日本人)には自国語(日本語)で聞こえたり、字幕で流れたりする時代はもうすぐそこに来ています。

2020年11月 3日 (火)

こうかとん&片研(校舎)型のぬいぐるみでハロパー気分だとん★

2020年10月16日 (金) 投稿者: メディア技術コース

みなさんこんにちは。もうすぐハロウィンですね。三密を避けてソーシャルディスタンスを保つため大人数で対面のパーティーを開くのは難しい状況ですが、気分だけでもハロウィンパーティーに!ということで大淵・越智研究室(研究棟C・C318号室)前を飾り付けました。

Kazari01

まず、カッティングプロッター(自動でカッターを制御して図形を切り出す機械)でこうかにゃんのハロウィン風かぼちゃと融合した図形を切り出します。素材は黒のフェルトです。同様にして、オレンジで我らがこうかとんもの形も切り出します。これらは紐で繋げて飾りにします。

Katagami

次に、こうかとんの姿を想像しながら型紙を作り、チャコペンで布に書き写してから幅1cmの縫い代をつけて布を裁ちます。ミシンでチャコペンの曲線に沿ってどんどん縫っていき、裏返してから綿をいれました。

Img_20201008_190839

上の写真は左から右にかけて徐々に型紙を改良しながら制作したこうかとんたちです。写真上はわかりづらいですが、最初は顔が円筒形になって頬のふくらみが足らなかったりしたので、型紙の面積やパーツ数を調整していきました。

 

Kazari04

次は片柳研究棟(通称:片研)です。これもなんとぬいぐるみ化します。そのためにこちらも型紙を生地に移してカットします。今度は縫い代は作らないことにして、展開図通りにカットすることにします。

Nuigurumi03 

展開図の折り目(図形の辺)にあたる部分は端から1mmほどのところでミシンで波縫いをしてしっかり折り目が付くようにしてみました。しかし、自分の技術不足と縫ったぶん図形の面が細くなってしまったためうまく成型できていません。

Nuigurumi01

その後何回か制作を重ね、型紙や縫う順番などを工夫することで歪みが少ない片研になってきました。上図は左から右へと制作を繰り返した結果の比較です。

Nuigurumi05

片研(3Dプリンタによる模型)を肩に載せる片研(ぬいぐるみ)。

Kazari02Kazari03

以上3種類の飾りを研究棟C(C318)の廊下に飾り付けます。

 Kazari05jpg

どうでしょうか。普段の校舎がちょっと楽し気になっていませんか?

メディア技術コース 越智

 

 

2020年10月16日 (金)

スマートフォンアプリで今を知る、情報源を探索する

2020年9月23日 (水) 投稿者: メディア技術コース

5年前から新しい研究テーマを始めた健康メディアデザイン研究室の千種(ちぐさ)です。人体を健康メディアとしてとらえメディアをつかって自らの健康をデザインするための研究を行っている研究室です。

 皆さんはtwitterinstagramを利用していますか?2020年の新成人のSNS(ソーシャルネットワーキングサービス)の利用割合(https://honote.macromill.com/report/20200107/)は、

LINE96%twitter80%instagram67%Facebook16%、となっています(下図)。中でもtwitterは今を知るSNSとして広く知られていて、今現在の電車の遅延やTVチャネルの視聴率を知るのにも活用されています。

Sns

さらに積極的に利用されているのがtwitterアプリのトレンドhttps://twittrend.jp/ の外部サービスなどです。その一つとして「Yahoo!リアルタイム検索」があります。Webサービス(https://search.yahoo.co.jp/realtime)としても専用アプリ(https://promo-search.yahoo.co.jp/realtime/wadainow/ iPhone& Android)としても提供されています。twitterユーザでなくても、過去30日間までさかのぼってtwitterのトレンドを知ることができ、さらにその時間的変化や感情の度合いも知ることができるサービス/アプリです。

 以前、「大学生活の”新しい日常”を「幸せホルモン」を増やして乗り切っていきましょう!」と題して、メディア学部ブログの

http://blog.media.teu.ac.jp/2020/05/post-6aa964.html

にて、①セロトニンと②オキシトシンと③ドーパミン、を取り上げて、『①セロトニンは精神安定などの効果があり、たくさん生成された夜は熟睡できます。②オキシトシンはスキンシップやおしゃべりによって増大し、精神安定や記憶力向上に役立ちます。③ドーパミンはやる気アップや達成感が得られる効果があります。』と紹介した記事を書きました。

9月15日現在、ヤフーリアルタイム検索で「幸せホルモン」と検索し、30日間表示にすると、825日に小さなピークがあり、全体の感情はポジティブであることが分かります。

Realtime

しかし、もっとブームを作るようなインパクトの強い大きな情報源があるはずですよね。

これを実現するのがGoogle TrendというGoogleの検索されたキーワードの件数をグラフ化するサービスです。今回掲載した画像はPC版ですが、スマートフォンでも利用できます。

 https://trends.google.co.jp/

 これを使って「幸せホルモン」を1年間表示で検索すると2020419日~25日に1年間で一番大きなピークがあります。

Trend

ではこの期間にどんな情報源があったのかをさらにGoogle検索で調べてみると、最近の幸せホルモンのトレンドのきっかけは、2020/04/22日に放送されたNHKのガッテンで取り上げたのが「新型コロナの今こそ!“ハッピーホルモン”で不安ストレス撃退」の可能性が高そうです。

 http://www9.nhk.or.jp/gatten/articles/20200422/index.html

 こうやってヤフーリアルタイム検索やGoogle TrendGoogle検索を併用すると使用すると様々な情報の因果関係が分かってきて面白いですね。

2020年9月23日 (水)

YouTube番組に出演しました!

2020年8月27日 (木) 投稿者: メディアコンテンツコース

本ブログをご覧の皆様,こんにちは.

メディア学部教授 菊池 です.

先日,YouTube番組「インテブロ情報局」に出演させていただきました!
番組は,こちらから.

「インテブロ情報局」は東京工科大学のあんなことやこんなこと,サークルの紹介から1年生のお悩み相談まで様々な疑問に答えてくれるチャンネルです.

私が出演した回では,私の趣味である「スノーボード」を始めたきっかけや,「盛岡三大麺」,「八王子ラーメン」の麺トーク,私が学生時代に経験した「世に恐ろしい恐怖体験(笑)」,最後は私の研究分野である CG に関しての話まで,楽しくも真面目に話させていただきました.

2_20200827102101

番組は 30 分ほどですので,お時間のあるときにでも聴いていただけたら光栄です.
よろしくお願い申し上げます.

文責:菊池 司

2020年8月27日 (木)

より以前の記事一覧