技術

パスワードに名前をつける

2019年10月 6日 (日) 投稿者: メディア技術コース

助教の戀津です。
先日の大淵先生の記事『コンピュータに名前をつける』を読んで思い出した話題があるので、タイトルを拝借しました。

皆さんもSNSなどを(しかも複数)利用している方が多いと思います。
それ以外にも色んなWebサービスなど、アカウント登録をして利用する場合パスワードの管理が大変ですね。
パスワード管理については色んな手法がありますが、今回は「使い回さない」ための方法についてお話します。

パスワードはあらゆる場面で必要になりますが、もちろん、12345678などの簡単なパスワードは厳禁です!
大文字小文字数字記号交じりが好ましいですが、あまり複雑だと人間は覚えていられないものです。

そのため、一つの複雑なパスワードをどのサービスでも利用するという方が多いと思いますが、これはどこか一か所で漏洩するとすべてのサービスが危険にさらされるためセキュリティ上好ましくありません。

そこで、「パスワードに名前をつける」です。
まずは苗字?部分として、ベースとなる充分に複雑なパスワードを一つ考えてしっかり記憶しておきます。
そしてお題を用意して、そのお題に従ってサービスごとに別の名前をつけます。
例として、今日は10/6なのでトロから連想し、お題を『寿司のネタ』・苗字部分を『sL15n!』にしようと思います。

そして、苗字・名前の日本式か、名前・苗字の欧米式か(あるいは混在)を決めておいて、苗字と名前を組み合わせて完成です。
sL15n!Otoro
sL15n!Hotate
・TsunamayosL15n!
大文字小文字数字記号交じりの強い苗字を一つ考えておくことで、充分な長さで強いパスワードが量産できますね。

あとは各サービス用に何という名前をつけたかを記憶すればOKで、それが難しくても
・大学メール 大トロ
・携帯メール ホタテ
・Twitter ツナマヨ
のようなメモをどこかに持っておけます。パスワードそのものを書いたリストは持っていると危険ですが、これだともし他人に見られても意味不明ですね。

不正アクセス技術も日々進化しているためこれが絶対の正解ではないですが、パスワードを使い回さないことで防御力をグッと一段上げることができます。
是非参考にしてみてください。

2019年10月 6日 (日)

おしゃべりAI~音声合成の潮流~(1)

2019年10月 4日 (金) 投稿者: メディア技術コース

こんにちは。最近はスマートフォンやスマートスピーカーなどで話し声を作り出して再生する「音声合成」技術の利用が広がっていますね。今回は最近の音声合成技術について、連載形式でお話します。

音声合成は、任意の文章(テキスト)を音声に変換することです。今日に実用化されている音声合成は、ゼロから音声の波形(音圧の時々刻々の変化)を作り出すのではなく、誰かの声の録音を材料として使って行います。2000年代初めまで主流だったのは、

  1. 音声波形を短く切ってつなぎ合わせるもの(波形接続)
  2. 一度パラメータに変換してからパラメータの系列を生成するもの(例えば隠れマルコフモデルを使った方法)

Blog_hmm002

/k a/の合成のようす

でした。後者は、上図のように、ある確率でいろんな音ののパラメータを発生(出力)する「状態」(図のマルのところ)の系列を仮定して、出したい音に対応したパラメータを出力させていきます。

近年は、いわいるAIの技術のひとつであるディープラーニング(深層学習)が活用されています。ここで、簡単にディープラーニングを用いたニューラルネットを説明します。ニューラルネットは、神経の活動を模した学習モデルです。Neuron

神経細胞(ニューロン)同士が互いに結合して構成されています。基本的なモデルでは、ひとつひとつに何本かの入力(図では頭から延びる枝)と枝分かれしている出力(顔の下から延びる枝)の経路が付いています。

 Activate

入力からは何らかの数値が入ってきます。この合計が小さいと出力がほとんど出ず(ここでは0)、ある値より大きいと「発火」して一気に大きな出力が(ここでは1)出ます。

Weighting

出力された値には、次のニューロンに届くまでに「重み」と呼ばれる係数が掛け算されます。例えば、1に重み2.1をかけると値は2.1になりますね。全ての枝で重みが掛け算された後で次のニューロンの入力に入り、そこでまた合計が大きい場合に次の発火が起こります。

Training_dnn

では、どうやってAIは「学習」されるのでしょうか。教師あり学習といわれる学習では、テキストから取り出した情報(発音やアクセントなど)と実際誰かが発声した音声(=正解の情報)を使います。このデータの組を使ってAIにテキスト情報を入力したときの仮の出力と、実際の音声のデータとの差を計算すると、誤差が求まります。この誤差が小さくなっていくようにニューロンの枝の「重み」を微調整していく作業がニューラルネットの「学習」です。

次回は上記を使った音声合成技術の広がりについてお話しします。

メディア技術コース 越智

2019年10月 4日 (金)

学会ってどんなとこ?

2019年9月11日 (水) 投稿者: メディア技術コース

Gakkai2019_2w

今は学会シーズンです。連続して3つの学会に行ったので、それぞれの特色を比較しつつ、学会ってどんな雰囲気なのかについて紹介します。

(1)国際会議IEVC2019

  1. 画像がテーマ
  2. インドネシアバリ島で行われた

サウンドの研究が専門の私はこの画像の学会で、画像と音を両方使った研究の発表を行いました。VRなどを目指した360度映像・画像で臨場感の高いバイノーラル録音を活用する研究プロジェクトです。学会発表には大きく分けて、口頭発表とポスター発表の二種類があります。私は今回ポスター発表を行いました。口頭発表は通常の座学形式の発表で、プレゼンテーション+会場からの質疑応答で構成されます、それに対し、ポスター発表とは、研究内容を印刷したA0サイズ程度の大きなポスターを壁に貼ってその前に立ち、見に来た学会参加者に対して直接説明するという形式です。一対多の口頭発表に比べてよりインタラクティブでありたくさんの意見を聞くことができます。今回は、画像やゲームなどに関わる研究者とそのコンテンツに付与する高臨場感がある音とはどういうものかについて活発に議論する機会を得ることができました。

ところで、IEVCは画像を扱う学会であることもあり、ポスター発表の発表者にも、全員の前で自分の発表の概要を1分で述べる時間(ファスト・フォワード)があります。例えばCGについての研究であれば、画像を載せたスライドを出して、聴衆の興味を引いてたくさんの人に聞きに来てもらうことができます。一人1分しかないため、発表者が列になって次々と入れ替わって話すという光景が見られます。

Ffws

さらに、余談ですが、お昼休憩には地元のインドネシア料理の食堂に行きました。写真のようなスープを注文しました。あっさり味でのスープと、ご飯と、激辛唐辛子ソース(左上)の組み合わせがとてもおいしかったです。たいていの料理にライムが添えてあったり、レモングラスというハーブがふんだんに使われていて、辛さの中にも爽やかな清涼感を感じることができます。この学会参加を通じてインドネシアの食文化の奥深さとすばらしさを体験することができました。

Soup

Restaurant006w

(2)JSSFD(日本吃音・流暢性障害学会)

  1. 医療系学会
  2. 当事者(患者)・家族参加型
  3. 今回は神奈川県

次は、がらっと変わって、国内の医療系学会です。筆者が助成金を受けて行っている研究プロジェクトに関わるテーマであり、特定の疾患を扱っている珍しい学会です。また、当事者と家族が参加しているという意味でも特色があり、患者にとっては自分たちの疾患の会に自分たちが参加せずに専門家だけで話し合われる、という従来の形の学会にはない画期的な交流が行われます。とくに、お昼にマイメッセージというプログラムがあり、経験談が語られて生の声が患者と専門家の間で共有されました。

Mymassagews

(3)ASJ(日本音響学会)

  1. 音がテーマ
  2. 学際的・文理融合型
  3. 今回は滋賀県

最後は、音響・音声・音楽など音を扱った学会についてです。音についてなら、言語を研究する人文系の専門家の話、音響教育、建築物での音の響きなどを扱う話、騒音の話、超音波の話など、なんでも含まれています。つまり、聞きたい音、消したい音、聞こえない音、色々な話題があるのです。たくさんの部屋に分かれて口頭発表やポスター発表が行われていて、色々聞いて回ることができます。質疑応答では、結構厳しく鋭い質問が飛んだりします。音を流す発表が多いので、いざ発表時に音が出ないということがないよう、発表者は入念に確認して発表に臨みます。

Asjws

学生の皆さん、このように学会には様々な独自の特色があります。発表の時はドキドキ緊張すると思いますが、是非チャレンジして学外の人と意見交換して自分の研究に磨きをかけてください。

 

メディア技術コース 越智

2019年9月11日 (水)

メディアの基礎としてのコンピュータ

2019年6月30日 (日) 投稿者: media_staff

 

技術コースの羽田です.

今日は1年生むけの講義科目,「システム基盤技術の基礎」についてのお話です..

この科目は1年生にむけて,コンピュータとインターネットを中心とした「システム基盤」についての基礎知識を学ぶという科目です.コンピュータサイエンスの基礎にあたる内容のうち,メディア学部らしいトピックに関連するようなものを抜き出して行っています.
現在は,前半のコンピュータの仕組みについての話がおわり,最後のトピックであるインターネットとその応用についての授業が行われています.

先週の授業では,インターネットの歴史について簡単に話をしました.
今の学生くらいの年齢の人たちには信じられないかもしれないのですが,四半世紀つまり25年ほど前には,インターネットは未だ「誰もがつかえる」ようなものではなかったのです.実のところ携帯電話もちょうど存在が知られるが手に入りにくいものだった頃ですね.私も大学院でコンピュータの研究をしていなければインターネットに触れることはなかったでしょう.多くの家でインターネットが使えるようになっていくのはこのあとしばらくたってからになります.

インターネットの歴史で一番誤解を生んでいる話といえば,「インターネットと核戦争」の話です.もともとインターネットの祖先にあたるARPANETというネットワークはアメリカ国防総省の高等研究計画局というところが資金を提供して,複数の大学や研究所で開発された技術です.
この「国防総省」という言葉と,ARPANETの始まった1969年(アポロ11号が月に行った年ですね)という年から「核戦争」という言葉が強く連想されたようです.しかしながらこの説は多くの当事者から否定されており,インターネット=核戦争を生き抜くためのネットワークである,というのは都市伝説にすぎないようです.
この国防省が主導してはじまったネットワーク接続のプログラムは有効性が知れるにつれ,多くの研究所や大学が加わるようになってきましたが,軍のネットワークに直接接続できない人たちも数多くいたようです.
そこでアメリカ国立科学財団(NSF)というアメリカの科学技術振興のための組織が資金提供をはじめ,CSNETやNSFNETと呼ばれるネットワークが整備されます.これらが元となって現在のインターネットは始まりました.日本のインターネットもこのNSFNETに1989年に接続されて世界と繋がるようになりました.
インターネットは今では世界中でなくてはならない社会基盤の一つとなりましたが,その歴史は浅いものです.
今後もますます発展するであろうインターネットとそのサービスはメディアにとっても欠かせないものとなっていくことでしょう.

(羽田久一)

2019年6月30日 (日)

お料理音響実験その後と「今度は輪ゴム楽器」?!

2019年6月22日 (土) 投稿者: メディア技術コース

 昨年後期、大淵・越智研究室の講義先端メディアゼミナール「AIと音響分析」で、研究室で天ぷらを揚げてその音を分析するという、お料理音響実験を行いました。その結果は、3月の記事で報告があったように、学会(芸術科学フォーラム)で発表して見事受賞しました。その内容について、今回は紹介したいと思います。

天ぷらは、以下の図のように、揚げ始めと出来上がりで音が違うことが、経験的に言われていました。それを今回科学的に調べたのです。

Tempra_befores Shuwas Untitled1

Tempra_afters Pichis Untitled2

 

Tempra_comps

音は一定時間ごとに区切ったうえで、以前先端メディア学で行われたコイン当て実験のように、音の大きさや音色、高さに関係する物理量が抽出されます。それと答え(揚がったかどうか)をAIに学習させて、新しい音を入力したときに揚がったかどうか判別させます。

Tempra_ai

この研究は現在精度などを挙げるべくAIの改良中です。

Sentan2019_1_s

また、今学期は新しく、輪ゴムを弦に見立てた楽器の音の研究をしています。
Wagomus

羽田先生のアドバイスのもと、クギなどを使ってオリジナルの自動輪ゴム演奏機械が制作されました。

Wagomu_jidous

現在目下分析中です。天ぷらと一緒に発表があった鉛筆の筆記音の研究もそうですが、音の研究は本当に幅が広いですね。

メディア技術コース 越智

2019年6月22日 (土)

研究の種見つけた!:学生主体の情報交換の場「知の発見」

2019年6月21日 (金) 投稿者: メディア技術コース

Chino_hakken_005m_20190621205201音について研究を行っている大淵・越智研究室では、学生自身が企画した、研究等の紹介と意見交換の会が毎週開かれていて、研究のアイデアが活発に出てくる場になっています。

二年半前に大学院生(当時、昨年大学院修了)の大谷君により「知の発見」と名付けられて開始し、調査した論文、イベントや学会参加、新しい音響機器など、おもしろいと思ったことを各自が持ち寄って共有しています。教員も参加することがありますが、学生主体で自由参加で開かれています。現在は、大学院生の松井君が大谷君を引き継ぎ、中心となって開催しています。

2年生でニコニコ学会βというイベントのボランティアスタッフをした大谷君は、初めて研究発表形式の講演を聞いてとても面白いと思ったそうです。研究に関心を持って大学院進学をするきっかけにもなったそうです。大谷君は、さらに、同じような会を自分もやってみたいと思いました。毎週開催できるように、参加者各自の研究報告に限定せずに、興味を持った国内外の研究論文を広く紹介する会にしようと企画しました。当時大淵研は新しい研究室だったので、自分たちが新しくて面白い文化を作ろうと思い立ったのです。その後、共有内容を論文に限定せずに広く興味を持ったイベント・技術・機器などに広げて現在の「知の発見」という形にして、今は10名前後の有志で毎週続く会になっています。

それでは、今までどんな内容が発表されたか、少し紹介していきます。

(1)論文紹介:AIで好きな曲をダンスゲームにする [1]

音楽に合わせてダンスをするゲーム(Dance Dance Revolution)のダンスステップの指示を、好きな曲から自動生成するという研究です。機械学習の手法である、再帰型ニューラルネットワーク(Reccurent Neural Network: RNN)や畳み込みニューラルネットワーク(Convolutional Neural Network: CNN)などと、音響特徴量の分析を組み合わせています。音響特徴量とは、音楽中にどの周波数(高さに相当する物理量)の音がどの程度の強さで含まれているかなどです。既存の曲とそれに対するステップの指示の譜面のセットから機械学習を行って、未知の曲が与えられた時にもステップの指示を生成できるようにします。これは福永君の、キー音のあるリズムアクションゲームの自動生成の研究のアイデアの生まれるきっかけになりました。

(2)論文紹介:鳥の鳴き声の自動検出 [2]

この研究は、自然環境の中で録音したデータから鳥の鳴き声がいつ録音されたかを取り出すというもので、その技術の精度について世界中で競い合う大会が行われているということが「知の発見」で共有されました。環境や野生動物の観察のため、野山にカメラやマイクを設置して長時間映像と音声を記録するということは、実は世界中で行われています。そのとき大変になるのが、どの時刻に何が(例えば鳥が鳴いた、など)起こったかということを書きだすこと(アノテーション)です。長時間の録画・録音のため、人手で行うのには非常に手間がかかるので、自動的に鳥の声などを検出できるようになることは、上記の分野に大変に役立ちます。この研究紹介の共有は、昨年鳥の鳴き声の研究をしたS君の研究のヒントになりました。

Sekireim

Tsubamem ちなみに、工科大では現在、上の写真のようなハクセキレイ(上)やツバメ(下)といったさまざまな鳥が見られます。夜は裏の森の中から「ホーホーホー」という鳴き声も聞こえますよ。工科大で鳥の声を録音してみても興味深い結果が観察されるかもしれませんね。

他にも楽しい研究紹介・イベント紹介があり、学生の新たな研究のアイデアに繋がったものがあるので、また次回に紹介したいと思います。

メディア技術コース 越智

参考文献:

[1] Donahue, C., Lipton, Z. C., & McAuley, J. (2017, August). Dance dance convolution. In Proceedings of the 34th International Conference on Machine Learning-Volume 70 (pp. 1039-1048). JMLR. org.

[2] Stowell, D., Wood, M., Stylianou, Y., & Glotin, H. (2016, September). Bird detection in audio: a survey and a challenge. In 2016 IEEE 26th International Workshop on Machine Learning for Signal Processing (MLSP) (pp. 1-6). IEEE.

2019年6月21日 (金)

タイのThammasat Universityの学生と教員がメディア学部を訪問

2019年6月10日 (月) 投稿者: メディアコンテンツコース

 
「Tokyo University of Technology Campus Tour and CG Industrial Visits」として、一週間学生のツアーを計画した先生方から、6月4日から7日まで本学の教員と学生らとの交流をしたいとの依頼がありました。
この記事では、メディア学部の紹介と先生方による研究紹介について紹介します。
 
13:00-13:20  
1. Introduction to School of Media Science, Graduate program 
   Prof.Masanori Kakimoto Dean School of Media Science
  片柳学園、大学、専門学校の紹介、メディア学部の概要紹介、さらには、メディアコンテンツコース、メディア技術コース、メディア社会コースの内容とその関係、さらには海外大学との交流への期待として大学院生獲得と共同研究について紹介されました。
 
Dsc_8491 Dsc_8493
Dsc_8507

続きを読む "タイのThammasat Universityの学生と教員がメディア学部を訪問"

2019年6月10日 (月)

メディア基礎演習 HCI

2019年5月17日 (金) 投稿者: media_staff

技術コースの羽田です.今日は2年生の演習についてのお話です.


HCI とは Human Computer Interaction の略で,人間とコンピュータの関係性を考える学問です.
とくにコンピュータのユーザインターフェースに関してはさまざまな研究がなされており,研究の中から新しいツールが生まれてきたりしています.2年生の必修科目であるメディア基礎演習ではそんなHCIの基本的なところを体験してもらうことを目標に,先日も紹介した micro:bit を用いた演習を3回コースで行なっています.この演習は自分で選択できるものではないので2年生が全員受けることになっています.

今週からはじまるグループの最初の課題は「自分たちの反応速度を調べてみよう」ということで micro:bitのプログラムを使ってLEDが光ったらボタンを押す,音が鳴ったらボタンを押すという行動の時間を計測しました.
micro:bitに書き込まれたプログラムを実行すると,しばらくして音が鳴ったり,LEDが点灯したりします.そうすると被験者(実験する人)はそれに反応するようにボード上のボタンを押すわけです.
そのとき,LEDや音が鳴った時間からボタンが押されるまでの時間を何度も計測することで,その人の反応時間を調査したり,光と音の刺激の差を見たりすることになっています.


実験自体は簡単なものなのですが,どちらかというと計測実験よりも実験レポートを書くことに慣れていない学生が多いようで,この演習では実験時間と同じくらいレポート作成に時間がかかっているようです.とはいえ,これから3年生,4年生と進むにつれ学会発表や卒業論文のようにまとまった実験レポートのようなものを書く機会は増えてきます.せっかくですのでこのようなライティングにも慣れて欲しいと思っています.


(羽田久一)

2019年5月17日 (金)