おもしろメディア学

動画生成AI:Sora2を使えばAIに授業をさせられるか!?

2025年11月 5日 (水) 投稿者: メディア技術コース

メディア学部の藤澤です。先日、OpenAIから発表された動画生成AI:Sora2を使って授業動画を作れないか試してみました。

Sora2とは?

2025年秋、OpenAIが発表した最新の動画生成AI Sora2 が世界中で大きな注目を集めています。Sora2は、テキストや画像の指示から10〜15秒ほどの高品質な動画を自動生成できるAIモデルで、映像の一貫性や物理的リアリティの高さが特徴です。例えば、登場人物の動き、カメラワーク、照明、背景の連続性まで自然に表現され、まるで実写のような短編映像を作ることができます。

さらに、Cameo機能 を活用すると、実在する人物の3Dアバターを動画内に登場させることも可能です。ユーザー自身の姿をCameoとして登録すれば、まるで自分が演技しているかのような動画をAIが生成してくれます。登場人物同士の会話や表情の変化も自然で、AI俳優が演じる“仮想映像制作” が現実のものとなりつつあります。

Sora2では、以下のような点が特に注目されています:

 

 

 

  • シーン間の整合性:複数カットの中でキャラクターや背景が一貫している。

  • 自然な動きと物理法則の再現:風に揺れる髪、重力による落下、歩行などが現実的。

  • 多様なカメラアングル:ズームやドリーショットなど映画的な表現も自動生成。

  • 音声合成との統合:ナレーションや会話を自然に組み合わせられる。

つまり、これまでの動画生成AIが「断片的な映像」を作る段階にとどまっていたのに対し、Sora2はストーリー性や演出を含んだ“映像作品”を生成するAI へと進化しているのです。


実験:Sora2で授業動画を作ってみまし

そこで今回、Sora2を使って短い授業風動画 を生成してみました。Cameo登録したAIが作った私が教壇に立ち、授業を行う映像がどの程度自然に見えるかを検証しました。まずは以下の動画をご覧ください。

一つ目の動画と二つ目の動画では少し声のトーンが変わっていますが、おおむね問題ないようです。


生成してみての印象

Sora2で生成した動画のクオリティは非常に高く、動作も滑らかで、話し方も自然に感じられます。特に注目すべきは、フィラー音(「えーっと」など)が全く入らない こと。コロナ禍のオンデマンド授業では自分の話し声を録音していましたが、どうしても間延びしたり、フィラーが入ったりしてしまいました。Sora2なら、こうした“人間らしい不完全さ”を排除し、スムーズで聴き取りやすい日本語 で授業が進められます。

ただし、いくつかの課題もあります。例えば、動画内に表示される日本語テキストはまだ不自然 な場合が多く、正しい日本語表記にするには調整が必要です。また、適切な内容や演出にするためには試行錯誤が必要 で、生成に時間もかかります。10秒の動画を作るだけなら、自分で喋って撮影した方が早いというのが正直なところです。


今後の可能性

しかし、将来的にSora2が長尺の動画生成 に対応するようになれば状況は変わってくるでしょう。たとえば、自分の著書や授業資料をSora2に読み込ませ、その内容に基づいた完全自動授業動画 が作れる日も遠くないかもしれません。AIが自動で教材を生成し、教師の代わりに授業を行う――そんな未来の入り口に、Sora2は立っているのです。

Sora2は、“AIが話すだけでなく、AIが教える”ことができるようになることを示唆するツール でしょう。教育現場での応用可能性を探るうえで、今後も注目していきたいと思います。

2025年11月 5日 (水)

生成AIによるメディア学部オープンキャンパス紹介ツール

2025年9月 5日 (金) 投稿者: メディア技術コース

メディア学部の藤澤です。

今回、今年度のオープンキャンパス向けに作成したGPTsOpenCampus Guide 2025@TUT.MSを紹介します。GPTsとは、OpenAIChatGPTをベースに、ユーザー自身がカスタマイズして作成できる「特化型AIアシスタント」のことを指します。知識や応答スタイル、利用目的に合わせて設定できるため、教育や研究支援、イベント案内など幅広い用途に活用することが可能です。

その一環として、昨年度に引き続き改良を重ねて開発しているGPTsの一つ OpenCampus Guide 2025 を、今年6月と8月に開催されたオープンキャンパスにて紹介しました。本記事では、その概要と活用方法、さらに利用上の注意点についてご紹介します。なお、本ツールは、学部や大学の公式ツールではなく、藤澤研で勝手に作ったものですので、大学や学部への問い合わせはご遠慮ください。

実際のGPTは以下から利用できます。

 

続きを読む "生成AIによるメディア学部オープンキャンパス紹介ツール"

2025年9月 5日 (金)

そもそも、オーラキャストって何?

2025年8月 1日 (金) 投稿者: メディア社会コース

 オーラキャストは、Bluetoothの新しい機能で、音声や音楽を多くの人に同時に届けることができる技術です。これまでのBluetoothは1対1の通信が基本でしたが、オーラキャストではペアリングなしで、複数の人が同じ音をスマートフォンや補聴器、ワイヤレスイヤホンで受け取ることができます。たとえば、駅のアナウンスや学校の授業、映画館などで使われ、聞こえにくい人や騒がしい場所でもはっきりと音を聞くことができます。公共の場での情報伝達がより便利で、誰にとってもやさしい社会の実現に役立つ技術です。

Voicesforall_20250531005

 前回のブログで書いた通り、このオーラキャストとWi-Fiを用いた音声配信システムを導入し、聴覚障害者にもアナウンスなどの声や音が届く社会基盤の実現を目指します。最新の補聴器や人工内耳にはオーラキャストが搭載されていますが、まだ社会で実装されていないのでその機能はオンになっていません。今後、鉄道・空港・公共施設・ホール・スタジアム・映画館・学校・病院などに導入が進むことで、その威力を発揮することになるでしょう。

 実は、この仕組みにより聞こえる人々も便利になります。

・雑音の多い場所でも、ワイヤレスイヤフォンなどでアナウンスの声が聞こえる

・多言語放送により、日本語以外の言語の観光客などに放送を流すことができる

・大きな音が出せない場所でも、ワイヤレス送信することで音楽イベントを開催することができる

・そのエリアだけの小さなラジオ局を運営できる(避難所などでも使える)

 すでにオーラキャストを搭載したヘッドフォンやイヤフォンが販売されていますが、まだ価格が高いので普及はしていません。しかし、今後スマートフォンに搭載される可能性も示唆されているので、例えばiPhoneに搭載されると一気に普及するでしょう。「オーラキャスト」という言葉を覚えておきましょう。

 


メディア学部 吉岡 英樹

001_20220613213101
略歴:バークリー音楽院ミュージックシンセシス科卒業後、(有)ウーロン舎に入社しMr.ChildrenやMy Little Loverなどのレコーディングスタッフや小林武史プロデューサーのマネージャーをつとめる。退社後CM音楽の作曲家やモバイルコンテンツのサウンドクリエイターなどを経て現職。1年次科目「音楽産業入門」を担当。現在は聴覚障害支援を専門としており、メディア専門演習「サイレント・コミュニケーション」、3年次科目「音声情報アクセシビリティ」、聴覚障害支援メディア研究室 を担当している。


 

2025年8月 1日 (金)

生成AIは音楽をどこまで作れるのか? ー 伊藤謙一郎先生に聞く、Suno AIの実力とは

2025年6月11日 (水) 投稿者: メディア技術コース

メディア学部の藤澤です。普段は、機械学習の様々な応用について研究をしていますが、今回は音楽生成AIの話です。私自身は音楽からは縁遠い生活なのですが、昨今の生成AIを用いた楽曲生成を使ってみて、素人目には非常に素晴らしいものができていました。これが専門家から見るとどうなるのかを知りたくなり、同じメディア学部で作曲を専門とする伊藤謙一郎先生にお話を伺いました。

 


 

近年、生成AIの進化が目覚ましく、文章生成AIや画像生成AIをはじめ、さまざまな分野でその活用が進んでいます。中でも、ここ1年ほどで急速に注目を集めているのが音楽生成AIです。Suno AIやUdio AIといったサービスの登場により、誰でも簡単に楽曲を生成できる時代が到来しつつあります。

音楽生成AIとは?

音楽生成AIとは、人工知能を用いて楽曲を自動で作成する技術です。与えられたテキストやスタイル、ジャンルなどの条件に基づき、メロディ、和音、リズム、さらには歌詞や音声までも自動的に生成することが可能です。従来、音楽制作には専門知識と時間を要しましたが、これらのAIによって、より多くの人が音楽制作にアクセスできるようになってきました。

 


 

伊藤先生が見たSuno AIの実力

伊藤先生ご自身は、現在のところSuno AIなどの音楽生成AIを積極的に使用しているわけではありません。しかし、学生が話題にすることも多く、実際に生成された楽曲を耳にする機会は増えているそうです。

その上で、Suno AIの技術的完成度について、以下のような評価をされていました。

 

 

 

  • ジャンルに合わせた作曲が秀逸
    単に指定された楽器を使うだけでなく、スタイルに即した曲調や構成が的確に模倣されている。

  • 作詞の精度も高い
    適切な韻を踏んでおり、自然なリリックとして成立している。

  • リズム感のある裏打ち
    曲中に効果的な裏打ち(バックビート)が挿入されており、音楽的にも説得力がある。

  • 歌詞と旋律の整合性
    単語を1音に凝縮したり、語尾を引き伸ばすなど、メロディに合わせた処理が自然で、感情表現も豊かである。

  • 音質の向上
    バージョンを重ねるごとにミックスや音質が向上しており、商用レベルに近づいている印象がある。

 


 

人間とAIの創作の関係

伊藤先生は、Suno AIのようなツールが「音楽制作を身近にする」という点で大きな可能性を感じつつも、今後の創作活動における人間の役割についても慎重な考察が必要だと語ります。

「AIが生み出す音楽は確かに魅力的です。ただ、創作の本質には“なぜそれを作るのか”という意図が必要です。AIが補完できる部分と、人間にしか担えない部分の境界を、今まさに私たちは探っているのだと思います。」

また伊藤先生は、AIが作った音楽には、明確な違和感とまでは言えないものの、「人が作ったものとは異なる何か」を感じることがあるとおっしゃっています。この話題から、画像生成AIの分野でも見られたように、今後は人間の作曲家がAIのスタイルに寄せて作るという現象が起きる可能性についての話もあがりました。そうなると、「人が作ったもの」と「AIが作ったもの」の境目は次第に曖昧になっていくのかもしれません。

 


 

おわりに

音楽生成AIは、テクノロジーの力で音楽表現の地平を押し広げようとしています。Suno AIはその最前線にある存在であり、メディア学部としてもこの分野の動向を注視していく価値があるでしょう。

 

2025年6月11日 (水)

【学部長Blog004】コンテンツとの出会い(2)<ゲーム編>

2025年5月18日 (日) 投稿者: メディアコンテンツコース

メディア学部長の三上です

ゴールデンウィークで少しお休みさせていただいておりましたがまた再開したいと思います.
前回に続き,私がコンテンツに興味を持つきっかけになり,今でも影響を受けていると思うコンテンツについて紹介してみようと思います.まず今回はゲームの方から.

私はアーケードゲームだと「パックマン」と「ゼビウス」が大好きで,近所の「牛乳屋」や「饅頭屋」と呼ばれる,ゲーセンではないけどゲームが置いてある商店で並んでプレイしていました.そんな私がいわゆる家庭用ゲーム機を購入したのは中学1年(1985年)の冬でした.それまでは任天堂のゲームウォッチを小学校5年ごろに買ってもらって遊んでいましたが,そこまでのめりこむことはなかったです.

最初の家庭用ゲーム機は任天堂のファミリーコンピュータで,当時発売され大人気だった「スーパーマリオブラザーズ」がどうしてもやりたくって,お年玉を使って購入しました.ところが当時のカートリッジソフトはソフトと言ってもハードウェアでしたから,すぐに大量生産できるわけがなく,欲しくても購入できませんでした.

そこで,ハードと一緒に買ったのは当時アーケードから委嘱されたばかりだった「シティコネクション」(ジャレコ)と「ジッピーレース」(アイレム)と「エレベータアクション」(タイトー)でした.「スーパーマリオブラザーズ」は手に入らなかったものの,アーケードゲームとしてもプレイしていた作品が無限に自宅でプレイできるのは本当にうれしい限りでした.

そして,その後私が出会ったのは,今でもシリーズが脈々と続く「ドラゴンクエスト」でした.
まあ,同世代の結構な人数が当時この大ヒットゲームに魅了されたので,今となってはそれほど新鮮味はないかもしれませんが,それまでのゲームと違って,継続してプレイしてストーリーをたどっていくという遊びは斬新でした.

当時はネットなどもなく,攻略サイトは存在していません.ファミコン通信などの雑誌は存在し,攻略本が出始めたころですが,そこまでタイムリーで詳細な情報は出ていないので,学校では攻略の話でもちきりでした.

どれぐらい時間かけたかわかりませんが,それは夢中になってマップ上を探索しまくりました.そして第2作ももちろんのめりこみました.この当時はプレイデータをゲーム機に保存するという概念はなく,プレイデータは「復活の呪文」と呼ばれる,ドラクエ1では25文字,ドラクエ2では52文字のひらがなによる暗号がセーブデータになっていました.一語づつ間違えなく記すのですが,もし間違えているとその日のプレイの記録がなくなり,前の日に逆戻りしてしまいます.スマフォなどもありませんので,画面を写真でとるようなこともできません.インスタントカメラでも持っている人であれば写真に残すこともできたでしょうが・・・(チェキが発売されるのは1998年なのでまだ敷居が高い).
そして,第3作のときはちょうど高校受験のタイミングでした.プレイを始めたら絶対にのめりこむをはわかっていたので,購入はしたものの手を付けずにずっと保管して,試験が終わった日からプレイしました.

ドラゴンクエストは今でも発売されると必ずプレイするゲームとなりました.ドラゴンクエストの作者である堀井雄二さんとはデジタルコンテンツ協会のデジタルコンテンツグランプリで表彰する側として参加して,受賞される堀井さんと直接お話しする機会がありました.とにかく感謝を伝えたことを覚えております.

ファミコン以前に夢中になった「パックマン」の岩谷徹さんや「ゼビウス」の遠藤雅伸さんには,日本デジタルゲーム学会で理事として学会運営をご一緒したり学会で議論する機会にも恵まれ,子供のころに私に影響を与えた皆さんと,社会人になって今度は次の人材を育成する側としてご一緒できたのは本当にうれしい限りでした.

P.S
当時購入したファミコンのゲームはまだ資料として持っています.意外と几帳面な私はパッケージから出した後,外箱や取説は大切にしまっておきましたので,ほぼ新品に近い状態で保存しております!(今度その写真も紹介します)

 

 

2025年5月18日 (日)

線形割当問題

2025年4月28日 (月) 投稿者: メディア技術コース

メディア学部の大淵です。

私の研究室では、卒業研究を行う4年生全員に、個人用の机を割り当てています。4月からは新しい4年生が来るので、それぞれどの席に座ってもらうかを決めなければなりません。それぞれの希望を聞いても、最適な割り当てを決めるのはそんなに簡単ではありません。

そこで、席決めの前に、新4年生の皆さんにアンケートを取ります。人数分の机に番号を振って、それぞれ第1希望から順位を付けてもらうのです。そのうえで、全員が割り当てられた席の「順位の和」が最小になるようにすれば、みんなの満足度も高まるだろうと思われます。

では、そんな割り当てはどうやって求めればよいでしょうか。N人の人の座席の割り当て方はNの階乗通りあるので、しらみつぶしに当たるのはちょっと大変です。でも、この問題は「線形割当問題」という名前で古くから研究されていて、しらみつぶしよりずっと効率の良いアルゴリズムも知られています。そして、そんなアルゴリズムを自分で実装するまでもなく、世の中には線形割当問題を解いてくれるライブラリも存在します。なので、やるべきことは、アンケート結果を整理して、ライブラリ関数を呼び出すプログラムを書くだけです。

Assign1

試しにやってみました。図の上側はアンケート結果です。aからjの10人が、AからJの10個の座席に希望順位を付けています。図の下側は、scipy.optimize.linear_sum_assignmentという関数を使ってこれを解いてみた結果です。順位の和は19で、これより小さい解はありません。

ただ、この解を見ると、bさんだけが第8希望に割り当てられてしまって、ちょっとかわいそうですね。こういうときは、最小化の対象をちょっと変えてあげます。順位の和の代わりに、「順位の2乗の和」を最小化することにすると、どうなるでしょうか?

Assign2

こちらがその結果です。第2希望以下に割り当てられる人は増えましたが、第8希望なんていうかわいそうな人はいなくなりました。

それでもまだ第5希望の人がいてかわいそう、と思うかもしれませんが、残念ながらこのアンケート結果では、全員を第4希望以内に割り当てることはできません。なぜそうなるかの証明は皆さんへのクイズとしますので、興味がある人は考えてみてください。

 

2025年4月28日 (月)

研究紹介:登場人物間の絡み可視化における変身や変装を伴う事例の分析

2024年5月24日 (金) 投稿者: メディアコンテンツコース

助教の戀津です。
昨日に引き続き、芸術科学フォーラムでの発表について報告です。

もう一件の発表は同じく絡みの可視化における、情報抽出時に迷う場面についての分析です。
タイトルにある通りですが、作品によっては登場人物が変身したり変装したりすることがあります。
変身する登場人物の変身前と変身後の姿は、あらかじめ変身について聞いていたり変身する瞬間を目撃したりしない限り、他の登場人物にとっては違う登場人物という認識になります。

つまり、変身前の本体とだけ絡みのある人物、変身後の姿とだけ絡みのある人物、両方の姿と絡みのある人物がありえます。
更に細かく考えると、両方と絡みがあってもその二つの姿が変身前後の同一人物だと知らない、という場合も考えられます。
(絡みの可視化においては会ってさえいれば絡んでいると考え、同一人物という認識の有無は問題にしませんが・・・)

この場合、可視化結果で〇で描かれる登場人物をどうするかが問題になります。
例として、仮面ライダーアギトの第一話・第二話を分析した結果を使い説明します。
主人公の津上翔一は仮面ライダーアギトに、警察官の氷川誠は仮面ライダーG3にそれぞれ変身します。
G3の方は警察組織としての動きで、基本的に変身前後で絡みはあまり変化しません。
しかしアギトの方は、翔一としての絡みとアギトとしての絡みは全く別になっています。

この場合に、翔一とアギトを同じ一つの〇で表すのは絡みの可視化上問題になります。
しかし、別の登場人物として扱い、二つの〇を出すと今度は別の問題が発生します。
次の図は翔一とアギト、氷川とG3を別の登場人物として可視化した場合の結果です。

Karami2

当人による変身という都合上、津上翔一と仮面ライダーアギト、氷川誠と仮面ライダーG3には絡みが全くないのです。
先ほど書いた通りG3の方はあまり絡みに変化がないので比較的近くに配置されていますが、翔一とアギトはかなり離れた配置になってしまいました。
これでは主人公の翔一が作品の本筋の一部である戦いに全く関わっていないような結果になってしまいます。

そこで、変身等複数の姿が登場する作品においては、それぞれを別の〇としながら、距離としては常に密着させるという方法をとってみました。
次の図は翔一とアギト、氷川とG3を繋げている場合の可視化結果です。

Karami3

翔一としての絡みとアギトとしての絡みを両立しつつ、それが同一人物であることもわかるような配置になりました。
現在は2人(4人)分しか密着させる処理を書いていないので(&変身後の姿で誰とも絡んでいないため)仮面ライダーギルスが浮いてしまっていますが、これも変身前の本体である葦原涼と密着させるとより正確な結果になると思います。

今後は任意の人数について変身前後の姿を密着させられる処理にする予定です。
近年の仮面ライダーシリーズやマーベル系の作品等、変身する人物が多くなっても対応できる必要があります。

現状困っているのは、三つ以上の姿がある場合です。コナンの登場人物で多重スパイをしている方々とか・・・
二つの姿は単純に距離を〇の直径まで縮めるだけですが、三つ(またはそれ以上)となるとどうやってつなげればよいか・・・
まだまだ研究することはいっぱいです。進展があり次第報告します。

2024年5月24日 (金)

研究紹介:登場人物間の絡み可視化における分類困難な事例の分析

2024年5月22日 (水) 投稿者: メディアコンテンツコース

助教の戀津です。
遅ればせながら、3月に行われた学会の芸術科学フォーラムでの発表について報告です。

今回は2件の発表をしてきました。どちらも登場人物の絡みの可視化に関する内容です。
絡みの可視化は、以前に発表してから期間が開いてしまいましたが、少しずつ改良を重ねてきた内容です。

アニメや映画などの作品において、登場人物同士が一緒に居た場面の抽出をします。
俗語的ですが、登場人物同士が一緒に居たり何かをしていることを「絡む」と表現することがあります。
冒頭のシーンから順番に、登場人物のうち誰が描写されているかを記録していくことで、「よく一緒に居る人物」を抜き出す試みです。

そして抽出した絡みの情報を、力学グラフという方法を使って可視化していきます。
よく一緒にいる登場人物同士、つまり絡みの多い登場人物同士が近くになるような可視化結果が得られます。
次の図は『美女と野獣』の絡み可視化結果です。

Karami1

ベルと野獣を中心に、ルミエール・コグスワースをはじめとする家臣達が近くに集まっています。
家臣たちの中でも特に絡みの多い上記二人が近くに来て、ポット婦人とチップは少し離れた位置になっています。
町の人たちは、終盤では城に集まり交戦しますが、それまでは町の人たち同士の絡みが中心のため城のメンバーとは離れた位置に来ています。

このように、絡みの情報を入力として力学モデルでの可視化を行うと、登場人物間の距離感のようなものを出力できます。
ただし、絡みの情報を抽出するという分析過程において迷う場面が生じることがあります。
前置きが長くなってしまいましたが、それが今回発表した研究のテーマです。

私の担当している先端メディアの科目で、色んな作品で絡みの可視化をしてみようと学生さんと共に分析をしてみました。
その際に、「このシーンはどうしよう・・・」という場面がいくつかあったので、そのような作品・場面についてまとめてみました。
例として、次のような場面では絡み情報の抽出で困りました。

・登場人物同士が入れ替わってしまった作品の場合
・登場人物がアバター等別の姿を持ち、アバター同士の絡みがある場合
・スター・ウォーズのストームトルーパー等、同じ姿で複数回登場するが実際には同一人物でない場合
・同行はしているけど一言も会話をしない場合

それぞれ色んな難しさがあります。
最後の例であれば寡黙な登場人物など、集団内にはいるけど孤立しているような描写があると「絡んでる」と言えるのか迷うところです。
そういった状況も含め、可視化のための情報抽出をどううまく行っていくかが課題となっています。
引き続き研究を進め、また進展があれば報告します。

2024年5月22日 (水)

研究紹介:視聴履歴の共有によるジェネレーションギャップの可視化

2023年12月 4日 (月) 投稿者: メディアコンテンツコース

助教の戀津です。

今回は、以前にも紹介したジェネレーションギャップビューアのお話です。
前回の記事でも最後に少し触れていたのですが、ユーザー登録と視聴作品の登録方法について紹介します。

https://contents-lab.net/ggviewer/
こちらのアドレスからアクセスすると、まずは年表が表示されます。年表上にはデータベース内の各作品がシリーズ別に放映年の位置に表示されています。
ドラッグドロップやマウスホイールで動かしたり拡大・縮小できますので色々操作してみてください。

右上の「ユーザー追加」ボタンから、ログイン・ユーザー登録・年表上への情報追加が可能です。
初めての方はユーザー登録を、登録済みの方はログインをしてユーザーページへ移動できます。

Ggviewer4

 

ユーザーページでは、データベース内の各作品について、あなた自身が視聴したものを選択することができます。
表形式で一覧を出しているので、視聴済みの作品について左端のチェックボックスをチェックにしていただければ入力完了です。

Ggviewer5

 

作品はたくさんあるので、検索欄も準備してあります。図では「プリティー」と入力してみた結果を表示しています。
入力した文字列で各情報を検索するので、プリティーシリーズの各作品と、ウマ娘シリーズがヒットしました。
他にも放送年(2023等)を入れて絞り込むことも可能です。

Ggviewer6

 

こうして入力した情報は、年表上に反映されます。ログイン済みのユーザーであれば、年表ページに戻ると自身の生まれ年からの年表が表示され、視聴済み作品に色が付きます。

Ggviewer7

 

ユーザー追加ボタンから他ユーザーのユーザー名を入力すると、その方の年表と視聴済み作品が色つきで表示されるので、自身の年表・視聴作品と比較ができます。
共通の話題が見つかったり、視聴していたシリーズの他の作品の様子を聞いたりと色んな活用ができると思います。
私自身色々試しましたが、複数人で視聴履歴を持ち寄るだけで結構楽しいです。
「無限にオタクトークができる」という評価を頂いたこともありました。

ユーザー登録は本名である必要なく、半角英数で作成をお願いしているのでSNSのidで作成し、SNSで共有するのも楽しいかも知れません。
私のおすすめ作品リスト!みたいな活用法も考えられますね。是非やってみてください。

2023年12月 4日 (月)

視点のすぐ近くは見えない

2023年11月22日 (水) 投稿者: メディア技術コース

 前回記事は講義「CG数理の基礎」での投影変換の授業紹介でした。まだ読んでいない人は参照してください。
 
 履修生からの以下の質問への回答を今日の記事で紹介します。
 
---
後方クリッピング面があるのは無限に続くのを防ぐ目的であると理解できるのですが、前方クリッピング面はなぜあるのでしょうか? カメラの座標を原点とした四角錐型では不都合があるのでしょうか?
---
 
 投影変換の設定として3次元空間(カメラ座標系)に六面体(四錐台)の視界を設けます。6つの「クリッピング面」で最終表示対象の範囲になるように切り取ることになります。視点から視線方向を向いて上下左右を4つの面で切り取るのは直感的にわかります。
 
 なのに、なぜ目の前の前方クリッピング面と視点から遠くの後方クリッピング面で前後を切り取るのか、確かに理解しがたいですね。特に目の前の場所を前方クリッピング面で範囲外に設定する理由が。
 
 簡単に答えを言うと「0で割り算できないから」です。ここで、前回記事の図を再度掲載します。
 
 Projectionxform
 
 視点から前方クリッピング面までの距離は変数nで示されています。前方クリッピング面の4頂点は変数l, r, t, b, nを使って表されます。冒頭の質問にあるように四角錐の視界を使うということは前方クリッピング面が無限に小さくなり視点(原点)に収斂(しゅうれん)することになります。つまり、l, r, t, b, nは全部0になり、4頂点とも(0,0,0)になります。
 
 この場合、後方クリッピング面の4頂点のxy座標は計算できません。いずれも0分の0になってしまいます。投影変換(透視投影)行列の要素も、16要素のうち4つについて0分の0が生じて設定不能です。
 
 数式の計算ができないから、という理由では納得しづらいでしょう。もう少し直感的な理由として幾何学的な説明をしてみましょう。それは「無限に大きくするという計算はできないから」ということになります。
 
 近くの物は大きく見え、遠くの物は小さく見えるように変換するのが透視投影です。前方クリッピング面を視点に収斂させて四角錐の視界にしてしまうと、限りなく視点に近い物を無限に大きくすることになります。これは不可能だから、ほんの少しでよいので視点から離れた位置に前方クリッピング面を設定するのです。必然的に四角錐ではなく四錐台の視界になります。
 
 実務的には、前方クリッピング面までの距離nと後方クリッピング面までの距離fとの比(f/n)が1万程度を超えない設定ならばその後のCGの計算処理には支障ないです。n=10cmとすればf=1000mと設定できます。これなら大抵のCGの場面で切り取っても大丈夫そうですね。
 
 宇宙空間のように遠い場所は一度に扱えないし、f/nの値が百万とかの設定もNGなのはなぜ、という疑問も生じますが、その話題は別の機会にしましょう。
 
 現実世界でも視点に限りなく近い場所の物を見るということはないですから、四角錐の視界を設定できなくても、四錐台の視界で十分と言えるでしょう。
 
メディア学部 柿本正憲

2023年11月22日 (水)

より以前の記事一覧