http://kansai.cedec.jp/
個人用メモなんで見難い所あるかもです。
間違いあったらごめんなさい。
セッション資料は後日公開される事を期待してるので、資料に書いてある内容は書いてません。たぶん。
他の人の纏め †
CESAゲーム開発技術ロードマップから未来を学ぶ! †
学生向けに予定してたけど学生3人だけで、他は業界人ばっかりだった。
ゲームエンジンによるモーションキャプチャー †
撮りながらゲームに反映させる
AI+アニメーション †
AIエンジニアとアニメーターどっちがやるのか?お互いの連携は必須
どうやって連携取っていくのか
・ゲームエンジンによってアーティストの理解が進んだ
あくまで「ベース」なので、その先にある表現。どういう表現をするのか
・アニメーションが追い付いてきていない。
グラフィックは綺麗になってきているが、不気味の谷で違和感が出るモーション
筋肉を表現するモーションが無いと違和感がでる。固い動きになる。
・写真、光学の知識とかも必要?@アーティスト
写真、デッサンの知識と、コンピューターの中でのパラメーターの関連付けしてコントロールできる事が必要
イメージしたゴールをどうやって表現していくか
リアルな水を作る、ではなくて、美しい水作る事が必要。
美しい写真を撮るにも知識が必要。それと同じように作るなら写真とか光学の知識は必要。
ラフネス、メタリック、フレネルを理解して絵を書いてみるといいかも
人肌の影を茶色く塗る。なぜ茶色なのか?(表面下散乱)そこを意識しているといいんじゃないか
3DCGの観点では大事。だけど知っていないといけない、ではない。知っていたほうが近づきやすくなる。
今の現象がどうなっているから、どうしたら表現できるか。
プロシージャル †
・フーディニ エンジン(これかな? http://sidefx.jp/
プロシージャルに作っていくソフト。
パラメーター弄れば蜘蛛の足の本数変わったり
谷の長さで橋の長さが変わっていくとか
大量のアセットを作らなくて済む
でもソフト自体が非常に難解だった。
社内とかでどう学んでいってるか、 †
・意識の弱い人に教えるのは難しい。
モチベーションが高い人を牽引役。
やらざるをえない、という状況になるとそれに追い付いてくるってのが現実。
・素養のある人がサポートして、それ以外の人はサポートを受けて作業できるように
全員が知識が必要、という事にならないように
・検索エンジン使おう
初めて聞く単語をググる。そして画像検索にする。絵とか図解が出るので、興味を持ったところをリンクたどっていく
この演出綺麗だとか、直観的に思ったところのリンクをたどる。
・やるにしても誰かがひっぱらないといけない。
何事もやってみないとわからないので、興味持ったらやってみる。やったらフィードバックする。の連鎖
・エンジニア主導で、分かりにくい所を勉強会した。資料用意すると時間が掛かるので、用意せずに、ネット検索しながら説明していく。
噂を聞きつけて結構人が集まってきた。
組織変更で主導してる人が部署を移ったりしたら段々無くなっていく。やっぱり牽引する人が一杯必要
Oculus Panel Discussion in KANSAI †
会場でVR持ってる人は半分くらい
・CEDEC 2014の記事も参照。
INSIDE - Oculusで優れたコンテンツを作るための現実的な解とは?先達たちが議論
http://www.inside-games.jp/article/2014/09/03/80175.html
考慮すべきゲームデザイン、ポリシー †
・フレームレート:75 FPS
コンテンツの質が下がるので必須
モバイル版のデータ使うとか。
・お勧めのハードは?
GPU:デスクトップPCなら、GTX 970
ノートPC:GTuneさんとか。Optimusは不具合がある。
今買うならもうちょっと待ったほうがいいと思う
・ネットワークの遅延は?
数ms, 数十msの遅延はゲームデザインによっては気にならない。(ポポポ認証)
・他のハードを使った遅延
一番良いのはOculus以外使わない
Kinectとか他のUSB接続使うと、遅延が発生する。
お勧めはOculusとKinectでポートを変える。PICeに追加ボードつけてそっちをKinect用にするとか。
USBを挿すポートでも上手くいかない、とかあるので、どのポートに挿すか指定してたり。
没入感を損なわない、酔わない工夫 †
・視覚と体感を極力一致させる
ガイドラインで、座ってのプレイが推奨された。
・瞳孔間距離の設定
・頭の大きさも問題。装着がグラグラすると没入間が減る
プレイアブルにする場合は3パターン用意したりした
モーフィアス、GearVRだと弄れるのでハードで解決するかも
・常時頭の動きと連動させる
シネマチックなシーンで前を向いてほしい場合は、音を鳴らしたりして前を向かせるなど
・音響デザインは?
ヘッドフォン+立体音響で没入間アップ
UnityとかUE4だとデフォルトでできるのできっちり設定を
AAAタイトル。レイトレみたいに音波の反射もシミュレートしてるので、使われていくとVRにいいかも
・UIは?
ダイエジェティックUIを活用
(これかな? gihyo.jp : http://gihyo.jp/design/serial/01/ui-ux/0004
ベスト入力インターフェイス †
・家庭用パッド
皆知ってるのでブラインド(手元を見ず)でも扱えるのが良い
・LerpMotion
去年の新しいバージョンのドライバSDKで凄く良くなった。
標準で付いてないので持ってる割合が低くなっていってしまう
・モーションセンサー
・スマートフォンを入力インターフェイスにするのは?
コロプラさんのコロパッド?
普及率が高い。
タッチパネル、ジャイロとか色々機能が入っているのでアリかな
マルチタップなら手元みないといけないけど、シングルタップならイケるかも
音声入力もアリなんじゃないか
・VRとARを混ぜる
手元が見えて安心感
実世界からVRへの導入、今からゲームの世界にいきますよー、という事を訴えられるのが良い
オーバービジョン。今月PROの発表。高解像度、フレームレートも。
(これかな? Ovrvision : http://ovrvision.com/order-ovrpro/
Oculusあるある大事典 †
・開発時やリリース時にありがちな注意点は?
パネリスト内ではUnityの利用が有用
・高速化どうしてる?
GPUがボトルネックになりがち
シェーダーを単純にする。
シャドウを簡単に
カリングを使用しない(オープンワールドではなく、見えてる範囲だけを作る)
解像度がオーバーレンダリングされてるので、解像度を下げる。
AMDがマルチGPUでVR最適化
NVIDIAがVR DIRECT
今後高解像度化していくので益々パフォーマンスチューニングが必要かも
・リリース時の展示の注意点は?
アテンドは最低一人必要
・どんなコンテンツなら上に通しやすい?
既存IPの世界に入れるおまけモード
ガイドラインで、現在は展示のための無料しか許されない
売れないから開発してもなぁ、となる風潮になるのは嫌だなぁ
今後のVRの為にもやっておくべき
CEDEC2014の「カメラ的に正しいフォトリアルグラフィック制作フロー」がベースになってる
メモったけど資料待って、そっち読んだ方が吉。
フォトリアルグラフィック制作ワークフロー †
・フォトリアルとは?
写真を忠実に再現する
・写真撮影について考えてみる
光以外にも明るさが変わる要素に露出。ExposureValue。Ev
要素:絞り、シャッター速度、感度、露出補正
Ev値が1段階さがると受ける光は2倍
1段階あがると光は1/2
露出*被写体*光源=写真
・CG
露出フィルター*マテリアル*ライト=レンダリング画像
・写真は余計なフィルターがかかっているので、かかってない状態を使う
LinearRaw:受信信号をRGBに戻したもの
ワークフロー †
・LinearRaw
暗室。1m四方の使ってる。
カメラは自動露出補正切れるの。「sony-α7」使ってる
光源。昼白色なもの。
被写体。反射率が数値で判明しているもの。
カメラの露出を決めて撮影
「Raw Therapee」使ってLinearRaw抽出してる。
・CG
暗室と同じシーン、被写体の材質も同じ反射率にする。
その結果でRGBをLinearRawに合わせてライト強度を取得する。
・炎
発光体、周囲の光の影響を受けない
αチャンネルを使う
黒い背景を使って撮影したLinearRawを使用。
LinearRawのルミナスをアルファチャンネルに突っ込む。
ルミナスは普通にPhotoShop等でルミナス化したのを使ってる。
背景変わると色味が変わってしまう
背景色が黒の状態の時との連立方程式でカラー値とアルファ値を算出する。
FINAL FANTASY 零式HDにみる新しいHDリマスター †