【マッチムーブ】実写とCGの合成テク総合スレ2

91. 名無しさん@お腹いっぱい。 2008/10/11(土) 14:09:51 ID:pTFkaer6
http://3dcg-yotuba.com/yotuba/yotuba.php?res=969

voodooを試しています。トラッキングはうまくいってるみたいですが、床の位置とかどうやって
決めればいいでしょうか。
92. 名無しさん@お腹いっぱい。 2008/10/11(土) 21:30:39 ID:mnlc8+af
>>91

3Dソフトにデータ読み込んで、一緒についてくるトラッキングマーカーの位置から
床その他の位置(カメラとの相対関係)が分かるはずです。
まだ滑ってるっぽいからちゃんと配置してもズレそうだけど。
インターレースの素材は大変かもね。
93. 名無しさん@お腹いっぱい。 2008/10/12(日) 02:13:53 ID:p/klbVjf
インタレース解除はやったほうがいい結果が出ますね。
走査線でトラッカーが分断されるからかな。
正しく設定出来ていれば大丈夫なんかもしれないけど。
94. 名無しさん@お腹いっぱい。 2008/10/12(日) 02:56:24 ID:PuSmPwvi
VoodooCameraTrackerには確かインターレースの画像としてトラッキング出来るのがあった気が
95. 名無しさん@お腹いっぱい。 2008/10/13(月) 05:30:32 ID:2JVVMiwh
SyntheyesのTIPS
http://yu-zentoy.blogspot.com/2008/09/syntheyestips.html
constrainって使ったことなかったけど参考になった。

96. 名無しさん@お腹いっぱい。 2008/10/14(火) 23:22:28 ID:hYAvFEpF
動画変換  TMPGEnc(インタレース解除とjpeg連番へ変換)
マッチムーブ  Syntheyes(jpeg連番で食わせる)
CGモデリング  MAX
テクスチャやHDRI加工にPhotoShop
レンダリング  VrayでTga出し
カラコレ  AfterEffect(動画jpeg連番とCG(Tga)を合成)

って感じの手順環境で作業してるんすけども
モデリングやレンダリングソフトの好みは置いといて
そこは違うだろ!みたいなのあります?  あと追加のソフトとか。
(特にjpegで作業してんのが気になる)
97. 名無しさん@お腹いっぱい。 2008/10/14(火) 23:30:30 ID:8aOeStuX
ちゃんと処理できてて満足してるならそれでいいんじゃないの?w
98. 名無しさん@お腹いっぱい。 2008/10/26(日) 18:31:52 ID:Vh0BUn0w
>>95

うおー消えてる…;;
99. 名無しさん@お腹いっぱい。 2008/10/26(日) 20:27:55 ID:rW7ypFxS
>>98

ttp://72.14.235.104/search?q=cache:znsHwZ9frN4J:yu-zentoy.blogspot.com/2008/09/syntheyestips.html+Syntheyes+blogspot&hl=ja&ct=clnk&cd=1&gl=jp&lr=lang_ja
今は便利な世の中になったもんだ。
100. 名無しさん@お腹いっぱい。 2008/10/30(木) 18:37:17 ID:/3Aha5Sd
>>99

ありがとう!
102. 名無しさん@お腹いっぱい。 2008/11/04(火) 22:26:01 ID:ZUDlWKeL
>>66


>>67

Shadeの場合リアルカラーにチェックを入れると、レンダリング時にピクセルの色を決めるのが
48ビット(RGB 各16ビット)になる。JPEG画像をパノラマレンダリングして終わりではなく
光源を置いて擬似的に日の光を表現しているので、光源の遠い、近いによって色のグラデーションが
再構築される。よって元のJPEG画像よりダイナミックレンジの広い画像が出来上がる・・ような希ガス

103. 名無しさん@お腹いっぱい。 2008/11/04(火) 23:48:27 ID:9FRuuZ1t
なんちゃってHDRと俺は勝手に命名してます、それ。
CGの上がりは特に問題ないし、皆結構やってるものだと思ってるけど。
104. 名無しさん@お腹いっぱい。 2008/11/04(火) 23:52:35 ID:D+K719GI
なんちゃってじゃなくてまともなHDRIだっつーの
105. 名無しさん@お腹いっぱい。 2008/11/06(木) 00:21:35 ID:TSDiOzCo
ロトスコープのマスクって、うまく自動とかでやる方法ってあるんかな?
Commotionとか使ってる人います?
手作業だと死なねぇ?
106. 名無しさん@お腹いっぱい。 2008/11/14(金) 22:40:29 ID:mSNPvC5l
あげ
107. 名無しさん@お腹いっぱい。 2008/11/18(火) 01:29:34 ID:av1hAccx
>>102

3dsMAXではできないんかなぁ?
108. 名無しさん@お腹いっぱい。 2008/11/19(水) 16:51:05 ID:dWqRO+mk
できるでしょ
109. 名無しさん@お腹いっぱい。 2008/12/12(金) 20:02:40 ID:3t57aMTF
保守age
110. 名無しさん@お腹いっぱい。 2008/12/13(土) 13:19:25 ID:9a/W8Xen
みなさんはHDR画像どうやって作ってる?
111. 名無しさん@お腹いっぱい。 2008/12/14(日) 00:34:38 ID:WlBlVsid
昔はデジカメで複数露出でコツコツ合成してたけど、今はRAW撮影してコンバートしてる。
112. 名無しさん@お腹いっぱい。 2008/12/15(月) 12:51:04 ID:+jKx1dMP
ほうほう
RAW撮影→数種類現像→HDRに統合
ですね
113. 名無しさん@お腹いっぱい。 2008/12/18(木) 01:52:30 ID:QueCj/N0
>RAW撮影→数種類現像→HDRに統合
それ、CGライティング用のHDRにはならんはず。32bitを網羅してない。
いわゆるHDR画像にはなるけど。

それでライティングすると、青天の場合、太陽の部分のエネルギーが
小さすぎて空の青のエネルギーのみでライティングされて
CGが真っ青になるはず。

前出のjpegで作ったなんちゃってHDRと変わんなくて
結局太陽部分に補助ライト足して、写りこみだけ使用するような結果に
ならない?

114. 名無しさん@お腹いっぱい。 2008/12/18(木) 18:02:01 ID:5MUYaw7Q
RAWで複数露出撮影→HDRに統合
が正しい
RAWだとほぼリニアだしビット数も多いからJPGよりいい
115. 名無しさん@お腹いっぱい。 2008/12/18(木) 19:00:48 ID:5xJH31Yo
ほぼリニア?
完全にではなく?
116. 名無しさん@お腹いっぱい。 2008/12/19(金) 16:29:02 ID:ub0/JnJv
そこはかとなくリニア?
117. 名無しさん@お腹いっぱい。 2008/12/20(土) 16:30:26 ID:ewGlX8BE
じゃあ
>>111
の昔のやり方をRAWで撮影するようになっただけで
今もコツコツ作るしかない、という事ですか。
118. 名無しさん@お腹いっぱい。 2008/12/21(日) 06:10:19 ID:zhGXiAyX
>>115

ほぼ  だよ
デバイスの特性があるから完全にリニアじゃない


>>117

RAWは一枚がカバーするレンジが広いから
JPGよりは枚数少なくて済むかもね
用途によるけど
119. 名無しさん@お腹いっぱい。 2008/12/22(月) 23:07:14 ID:Gbb/0Qrh
魚眼レンズで180度ずつ撮影して360度のHDRI作るのってどうやるの?
120. 名無しさん@お腹いっぱい。 2008/12/23(火) 03:21:26 ID:E7Z3JrH+
>>119

http://www.hh.iij4u.or.jp/~tabata/hdr.html
ここ!
ちょうど今調べてた所だった
121. 名無しさん@お腹いっぱい。 2008/12/24(水) 09:04:31 ID:skSA9SdE
ニコンのフィッシュアイコンバーターは現在入手困難。
安くて良かったのだが。
フィッシュアイレンズはケラレに注意。
APS-Cサイズで真円に対応した
シグマ 8mm F3.5 EX DG Circular Fisheyeがおすすめ。
高いけどな。。。。(レンタルがいいかも)
http://dc.watch.impress.co.jp/cda/review/2006/10/27/4909.html

122. 119 2008/12/24(水) 13:47:10 ID:CTfnu76v
>>120-121

情報ありがとう


>>120
のサイトのプラグインはうまく動かなかったけど、HDR Shopで
Mirrored Ball Closeup→Latitude/Longitudeの変換してから横並びに
合成すればなんとかなりそう。

ただケラレ部分がどうにもこうにも。
いいレンズ持ってないしなー

http://www.tenpai.com/QTVR/index/index_qtvr.aspx
ここで6枚合成してるのってたぶんケラレ対策だよね?



123. 名無しさん@お腹いっぱい。 2008/12/25(木) 04:07:17 ID:97ywIOAF
作る目的がHDR画像そのものなら話は別だが
作りたいものがCGで、背景になじませることが目的なら
正確なHDRを作る努力は意味無い気がする。
むしろどのくらい適当な(簡単な)HDRもどきで
なじむ効果が出せるかの比較テストとかの方が興味あるな。
なんかの論文で読んだ気がするが。。。
124. 名無しさん@お腹いっぱい。 2008/12/25(木) 13:39:15 ID:r/Ghv879
HDRIの使い道にもよるけど、普通はHDRIが正確な方がなじみもいいよ
HDRIライティングとかの場合はHDRIが不正確だと色が全然合わないし
125. 名無しさん@お腹いっぱい。 2009/01/02(金) 19:11:28 ID:Sq/ArLb5
お正月という事で、和風映像の合成について。

http://www.kyotokimonoyuzen.co.jp/cm/
↑の京都きもの友禅のCMで振袖に花柄が合成されていくカットってこれどうやってるんだろう…

うーむ…皆さんならどう作りますか?



126. 名無しさん@お腹いっぱい。 2009/01/06(火) 11:32:55 ID:KQ06VO2s
近いものを作ろうと思ってましたけど、
私はアマなのでAfterEffects+Photoshopと
気合で行くつもりでしたw

プロの精度、制作時間考えると多分もっと巧い手があるんだろうなぁ
詳しい方のご意見も聞いてみたいです
127. 125 2009/01/06(火) 19:51:14 ID:utjR1KTP
>>125

使った事ないけど、boujou4のサイト説明みてたら、
トラッキングしたポイントの点群をメッシュで書き出す機能があるって書いてあった…
http://www.crescentvideo.co.jp/boujou/4/

ひょっとして、この機能使えば、振袖の表面を3Dオブジェクト化して、アニメーションするマッピングを貼り
そのレンダリング結果を撮影素材に合成。そうすればこのCMにようなカットが可能かな…

自分はSynthEyesもロクに使いこなせない人間なんで、あくまで想像なんだけど。。

…そう簡単にノウハウを教えてくれるプロもいないかな…
128. 名無しさん@お腹いっぱい。 2009/01/07(水) 13:03:28 ID:F77iEpR+
>>125

何気なく放送されてるけど、地味に手の込んだCMだよね。

メイキング見ると、無地の着物着てる時に白いマーカーつけてるように見えるけど、気のせいかな?
逆にマーカー無しで無地の着物表面を追っかけられるとは思えないし。
boujouでもSEでもトラッキングさえ出来ればトラッキングポイントからメッシュを生成できる。
(3Dソフトに持っていけばもっと融通が利くでしょう)

俺がやるならオーソドックスにそうします。
129. 名無しさん@お腹いっぱい。 2009/01/08(木) 06:09:29 ID:fwUndUN1
正直  インフェルノがあれば  できるけどな  こんなの。
130. 名無しさん@お腹いっぱい。 2009/01/08(木) 23:50:30 ID:zuCqjxrY
そっすね^^
131. 名無しさん@お腹いっぱい。 2009/01/09(金) 02:21:08 ID:JrAvgfef
オブジェクトトラッキングじゃないのかな?
こんな感じに。
http://jp.youtube.com/watch?v=liQXhexIYRk&feature=channel_page
着物が変形してたら難しかったんじゃないかな。
132. 名無しさん@お腹いっぱい。 2009/01/09(金) 02:48:57 ID:e2noukzL
動き自体はオブジェクトトラッキングだろうね
着物はまずどっかのフレーム合わせでモデリングして
細かい変形とかはトラッキングでどうこうよりはジオメトリを目で見ながら変形させて合わせた方が楽かも
尺短いし柄だけだから皺とか厳密に合わせなくてもほとんど気にならんだろうし
むしろ服の部分部分のマスク切りが一番めんどくさそう
133. 名無しさん@お腹いっぱい。 2009/01/09(金) 02:55:56 ID:LfB4PdXB
>>131

お…おお!てことは、やっぱり撮影された映像から
イメージベースドモデリングで振袖を3D化して、そこにマッピングなのかな…
手間かかってるなぁ。どこのプロダクションが制作したんだろう。。

SynthEyesの完全な日本語マニュアル出ないかなぁ…
ちんぷんかんぷんだ。
134. 名無しさん@お腹いっぱい。 2009/01/09(金) 11:45:27 ID:4OR3VwhC
胸元のアップ以外は平行移動っぽいから、トラッキングかけなくても1080pとか720pで取って
後からパンさせれば大分楽っぽいんだけど、胸元の所がカメラ回り込んでるのが面倒そうだよな。
力技の見た目合わせにしちゃあ、かなりきれいにマッチしてるし。

つーか、みんなアレ気になってたんだ。

久しぶりにこのスレ覗いたら話題になっててワロタ。
仲間内でも、アレ地味だけど大変だよなって話題になってたよ。
お前らみんな職業病だ。
135. 名無しさん@お腹いっぱい。 2009/01/09(金) 12:17:33 ID:niYSwBD6
1だけど、伸びは遅くてもスレが良い方向に向かってくれて有り難いっす。
マッチムーブに限らず気になるCMとか合成カットを
紹介したり相談できる場ってなかなか無いんですよね…

合成関連の情報って本当に少ないと思う。なんか良い雑誌とか無いっすかね。
CinefexとCGワールドくらいかな…
136. 名無しさん@お腹いっぱい。 2009/01/09(金) 13:18:20 ID:ufQKfokn
CGもそうだけど、他の人がやってないようなやり方で面白いモノを作っていけば稼ぎになるし
そういう職人技みたいのって誰にでも教えたい事でもないだろうしね。
137. 名無しさん@お腹いっぱい。 2009/01/09(金) 21:48:45 ID:JrAvgfef
そうね。これとかアイデアだなぁ。。。
http://ssontech.com/phpBB2/viewtopic.php?t=464&sid=dbdf0fda3e48dde333b54fec6e578d9f

138. 名無しさん@お腹いっぱい。 2009/01/10(土) 11:01:22 ID:0yQuRYmm
良スレ  あげ。

139. 名無しさん@お腹いっぱい。 2009/01/10(土) 19:15:33 ID:hDa781Gc
>>137

ちょっと前の投稿だよね。それ見てSE買って真っ先に試したよw
140. 名無しさん@お腹いっぱい。 2009/01/17(土) 09:08:15 ID:dKFxFvo5
3DCG関連のIRCだと
映像業界とかゲーム業界とか同人の人とか
アマチュアとか単なる3DCGが趣味の人とか
色々いるからそっちで業界人に聞くのもいいかもよ

ホスト名:irc.juggler.jp
ポート番号:6667
チャンネル:#3DCG

ま、合成テクは教えてもらえるかわからんけどw
141. 名無しさん@お腹いっぱい。 2009/01/19(月) 17:01:17 ID:IGOHAl3G
折角良スレっぽくなってきたんだし、ここでいいじゃないか。
他の人のやり方って知らないから、ちょっとした事でも何気に役立ってるし。
142. 名無しさん@お腹いっぱい。 2009/01/20(火) 00:41:23 ID:9Dqb3e0R
素人なんすけども、CGを最終レンダで出さずにスペキュラだけとか
要素別レンダリングして、あとで合成して仕上げってケースは
実際どの位使うもんなんでしょうか?(無論動画のケースで。)
要素といってもどの程度分解して出しとくと後で楽なんでしょ?
どう楽なのかも想像できてないですが。。。。

どういうリテイクが現場でよく出るのかってことかと思うんですけど
教えてください。
143. 名無しさん@お腹いっぱい。 2009/01/20(火) 01:27:29 ID:y6lQYOYH
スペキュラとディフーズとリフレクションは素材分ける事が多い
結局反射やスペキュラの強さは3Dソフトでちびちび調整するより合成で調整した方が早いからね
要素を分解し辛い素材もあるし
一発レンダーで軽くいけるショットなら
余り素材分け細かくしすぎてもレンダリング時間の無駄だからそのまま出す
どのぐらい素材分けるかっていうのはケースバイケース
144. 名無しさん@お腹いっぱい。 2009/01/20(火) 01:43:43 ID:9Dqb3e0R
>>143

早っ!ありがとさんです。
意外と情報なかったんす。
分解できるよ的な機能宣伝は多いけど重要度が不明で。

特定TOOLに特化してないところが良スレっすね。
なんかmixiかなんかでコミュ化して情報蓄積しても良いような。
145. 名無しさん@お腹いっぱい。 2009/01/20(火) 10:33:36 ID:vnBdIQE6
スレだけでいいよ
情報はまとめサイトでも作るか、テンプレでまとめればいい
146. 名無しさん@お腹いっぱい。 2009/01/20(火) 18:37:29 ID:SFr1wePr
>>142

俺は極力素材分けないようにしてる。
調整したくなるのは大抵分解しづらいw

他の会社から引継ぎで素材丸ごと預かったりするとレンダーパス分けまくってて
素材が恐ろしい事になってるのは良くあるなぁ。
素材が分けてあってもミックス時にカラコレすら組んでないとかね・・・。

自分でCGも合成もやっちゃうなら必要な素材は分かるし、合成が別の人なら
その時々で事前打ち合わせするのが早いよね。
147. 名無しさん@お腹いっぱい。 2009/01/24(土) 03:42:22 ID:nTsGJiAx
>>142


スペキュラ  ディフューズ  リフレクション  アンビエント  シャドー  ライトぐらかな?
あったら何げに便利だよ。
簡単なショットなら一発で。

ただ、複雑なシェーダ組むと出ないことが多いんで、一発で出せる技術は付けといたほうがいいかも。

148. 名無しさん@お腹いっぱい。 2009/01/24(土) 10:54:40 ID:Ac5NicAx
>>142

いくら素材分けても元のCGの完成度が低ければ意味ないんで
素材分けを前提にするよりも、まずはCG自体のクオリティーを上げる。
駄目なCGはいくら素材分けても使い物になりませんので。
ある程度のレベルに達してれば下手に素材分かれてるCGよりも手間がかからない。

合成後のイメージ作りを先にしておくのが必須だと思います。
149. 名無しさん@お腹いっぱい。 2009/01/24(土) 13:25:02 ID:ehIS1iDx
初心者丸出しなんですが

>>147
の各素材ってどういう使い方されてるんですか?

自分は趣味で静止画CGを主にやってて
フォトショで選択しやすくするぐらいの用途で
セグメントIDぐらいしか素材を出さないもんで・・・
http://picasaweb.google.co.jp/lh/photo/JRdOVdwxS0tXIJG2LuDqQQ?feat=directlink

スペキュラとか合成にどう使うんだろうか?
150. 名無しさん@お腹いっぱい。 2009/01/24(土) 16:41:14 ID:B3VGka/M
>>149


147だけど、あくまで個人的な使い方として
スペキュラはそのまんまで、テカりを強めたいときときに使う。ブラーをかけてハレーションを起こしたようなときにも使えるかな。
ルミナンスのしきい値を下げたものにブラーをかけるという手もあるけど。
ディフューズはSSSとかを使った時に、スキンシェーダ特有の質感が出すぎてディフューズ情報が低くなったときに色を持ち上げるのに使う。
リフレクションはスペキュラと切り離せない要素なので、調整して使う。
アンビエントは、ファイナルギャザーで全体的に明るくなったのを抑える。
シャドーは、普通に影を強めたいときとか、バックライトに影をつけたくないときに口や鼻の穴の中が明るくなるようなのを防ぐようなのに使う。
ライトは比較やオーバーレイとかで載せて明るさのコントラストの印象をライトの明暗で強めたいときとかかな。
あとは、ライトとかシャドー要素は効果をかけたり色を転がしたりするときのマスクとしても使えるよ。
静止画だとこんなにいらないけどね。ただ、動画でもすべてのショットで全要素出すわけじゃないよ。

ようは、プロジェクトの規模が大きくなると個人個人が完全に質感設定・ライティングして出そうとするよりも、
各要素で出してVFXチームの方で合成のときに絵面を合わせてもらう方が効率がよくなるってことかな。

長くてスマソ
151. 名無しさん@お腹いっぱい。 2009/01/24(土) 18:07:07 ID:ehIS1iDx
>>150

アフォな質問に答えてくれてthxです

しっかし良スレだなぁw
152. 名無しさん@お腹いっぱい。 2009/01/24(土) 19:14:03 ID:jhMVhA/N
http://kadenfan.hitachi.co.jp/ra/shirokuma/tvcm/index.html
【TV-CM】日立PAMエアコン「ステンレス母とミスト母」篇
CGプロダクション:ナブラ

1/29発売予定のCGWorldにメイキングが載ってた。
3Dスキャンした顔のデータをベースにモデリングして
ズレはAE用プラグインRE:Flexでモーフィングさせて合わせてるみたい。
ひょっとしたら
>>125
のCMも同じ様な方法なのかも。
RE:Flexよさそうだな…
153. 名無しさん@お腹いっぱい。 2009/01/25(日) 04:23:27 ID:eX3DIuPE
CGWorldのメイキングは読んでないけど
位置合わせのメインはオブジェクトトラッキングじゃないのかな?
モーフィングは表情の部分だけに思えるけど・・・?
しかし2Dの変形でそこまで合うもんかな・・・・?


154. 名無しさん@お腹いっぱい。 2009/01/25(日) 04:31:30 ID:eX3DIuPE
>>127

>トラッキングしたポイントの点群をメッシュで書き出す機能
SynthEyesにもあるよ。
メッシュ構築した後、出力をobjにしてMAXとかのCGアプリで取り込めばいい。
カメラデータのイクスポートとobjのイクスポートの両方をやって2つとも
CGアプリ側で取り込む。
詳細なモデリングはCGアプリ側でやるとしておおざっぱなガイドにはなるかと。

155. 名無しさん@お腹いっぱい。 2009/01/25(日) 13:32:24 ID:viOM9jvK
>>153

表情は合成の段階で下絵(実写)も上手くミックスしてると思うけどね?
実際の所どこまでやってるか分からないけど。
156. 名無しさん@お腹いっぱい。 2009/01/25(日) 14:07:39 ID:qDtc1MuO
ステンレスの顔は手付けで位置合わせしてるって書いてあったよ。
液体の顔は服の襟の裏側とかもマッチムーブする必要があるから
boujouで合わせたって。

あいうえお、など複数の表情を3Dスキャンして
それをもとにモーフターゲットを作成するってのが斬新だと思った。

…3Dスキャンする環境なんて身近に無いけど、
10年くらい昔、シーグラフで自分の顔スキャンしてもらった時は
メッシュが細かいわ、ポリゴンぐちゃぐちゃだわで実務では使えないと感じたけど、
今なら高解像度モデルを低解像度モデルにベイクできるし
なかなか使えるのかも。
157. 名無しさん@お腹いっぱい。 2009/01/25(日) 18:14:10 ID:eX3DIuPE
SynthEyes2008(Ver2008.0.1000)
アプリ日本語化パッチ  なんちゃて版
http://geino.sakura.ne.jp/syntheyes/jp_patch/2008jp_patch_00-01.EXE

作成ソフト
http://www.nihongoka.com/makepatch/first
158. 名無しさん@お腹いっぱい。 2009/01/25(日) 18:37:17 ID:Pk/V3qdt
>>157

神降臨
159. 名無しさん@お腹いっぱい。 2009/01/25(日) 18:55:24 ID:MDCmNYDi
まじっすか!!!すごい嬉しい!!
160. 名無しさん@お腹いっぱい。 2009/01/25(日) 19:50:30 ID:tRP7CvRl
                     乙
         ┌───┗━━━┓
   ┌─┴─┐         ┏━┛─┐
┌┴┐   ┌┴┐   ┌┗┓   ┌┴┐
                            
>>157

161. 名無しさん@お腹いっぱい。 2009/01/25(日) 20:59:40 ID:eX3DIuPE
3時間程度で作ってるんでメニューと右クリックメニューの半分くらいだけね。
各画面のキャプションは変えてない。
(変えるとボタンの大きさとかも依存するんだわ。HELPも追いにくくなるし。)
あとプログラム組み込みのメッセージとかはいじれない。

パッチあてるとsyntheyes.oldってのができるので
それがオリジナルの英語版(要保管)。old→exeに戻せば元に戻る。
表示や動作の不具合、誤記等あったら連絡よろ。

つーか上記ソフト使えば誰でもできるんだけども。
162. 名無しさん@お腹いっぱい。 2009/01/26(月) 10:20:37 ID:mmP/9Wl0
日本語化ファイル実行で
"crcが一致しません"エラーが出ちゃうのは自分だけかな…
DLファイル容量は28.2 KB (28,932 バイト)です。
みなさんはどうですか??日本語化問題なくできましたか?
163. 名無しさん@お腹いっぱい。 2009/01/26(月) 12:13:39 ID:6uBUD0nV
残念ながら、俺もCRCエラーでパッチ当てられないな
SynthEyes 2008.0.1009 Compiled Oct 17 2008.
164. 名無しさん@お腹いっぱい。 2009/01/26(月) 12:53:25 ID:lDfcipsM
バージョン違うくね?
165. 名無しさん@お腹いっぱい。 2009/01/26(月) 12:54:27 ID:V6ttJ9/d
SynthEyes2008(Ver2008.0.1000) って書いてあるね
166. 名無しさん@お腹いっぱい。 2009/01/26(月) 13:57:48 ID:mmP/9Wl0
なるほど!自分とこ2008.0.1005だった…
古いバージョン探してみよう。。
167. 名無しさん@お腹いっぱい。 2009/01/26(月) 22:46:32 ID:rdIPr5tY
161です。
うはー。買ったタイミングで若干マイナーVer違うのかー!
こちらはアップデートとか試してもVerは変わらず。
困りましたな。
ResouceHackerのデータで渡して各自のVerで書き換えてもらうしかなさそう。
ちょっとまってね。。。。

168. 名無しさん@お腹いっぱい。 2009/01/26(月) 23:44:07 ID:rdIPr5tY
161=167です。
すまんね。下記に手順とか置いたのでトライしてみておくれ。
3ファイル落して手順はpdfみてくれ。
http://geino.sakura.ne.jp/syntheyes/jp_patch/00-01/

Verの違う人、うまくいったら教えてね。
(2007ユーザとかはさすがに駄目だと思う)
169. 名無しさん@お腹いっぱい。 2009/01/27(火) 00:02:48 ID:mmP/9Wl0
ありがとう!!
成功しました。使用バージョンは【2008.0.1005】です
すべてを確認した訳じゃありませんが、見た感じ、間違いなく日本語化されました。
これで今まで何の機能か分からなかった部分にもトライできそうです。
※実は以前独自に日本語マニュアルを作ろうとして途中で断念していたのです…

これがきっかけでSynthEyesユーザーが拡大する事間違い無しですね。
本当にありがとうございます!!
170. 名無しさん@お腹いっぱい。 2009/01/27(火) 00:39:56 ID:9p7eTHYa
よかった。やれやれ。
差分はよく確認して下さい。特に行末の数字の部分とか。
バグっても責任は持ちませんゆえよろしゅう。
オリジナルは要保存。

日本語化TOOLは簡単に編集できるから
自分なりのカスタマイズキャプション入れるのもいいんじゃないかな。

しかしフォーラムには  Build 1008 Releasedとか
書いてるのにアプリからアップデートかけてもなんも変わらんのよね。
無いってメッセージが戻る。
2008.0.1000からアップデートした人とかいる?
変だなぁ。。。。
171. 名無しさん@お腹いっぱい。 2009/01/27(火) 02:19:30 ID:c2AMEayz
>>170

日本語マニュアルの時といい日本語パッチといいとても感謝しています。
本当にありがとうございます。

アップデートについてですが良くわからないのですが、
そもそも登録時に送られてきたIDとパスワードで
http://www.ssontech.com/support/ってログインできてますか?
自分はログインできなくて悩んでます…うーむ…
172. 名無しさん@お腹いっぱい。 2009/01/27(火) 02:19:58 ID:9p7eTHYa
ごめん。お騒がせ。
2008.0.1009  用パッチ(最新版のはず)
http://geino.sakura.ne.jp/syntheyes/jp_patch/00-02/2008jp_patch_00-02.EXE
今度はどうかな・・・・。
173. 名無しさん@お腹いっぱい。 2009/01/27(火) 02:41:17 ID:9p7eTHYa
>>171

ログインできるけどね・・・・。
(SAVE THIS MAIL)に書いてある
You can login as XXXX then yyyy (Customer care login info)
がXXXX:ユーザID  yyyy:パスワード

アプリのHelp→SetUpdateInfoも同一設定(だっけ?)。

正しく出来てればSugやMsgボタンでブラウザ起動する。

あと、169は新パッチでやりなおした方がいいかも。
1000と1009だとメニューに若干差分あったわ。
(Build 1005は大丈夫なのかも知れんが)
174. 名無しさん@お腹いっぱい。 2009/01/27(火) 11:24:16 ID:c2AMEayz
>>173

恥ずかしながら、
Andersson Technologies に拙い英語で問い合わせてみたところ
仮IDと仮Passwordでログインしようとしていたのが問題でした。
新しいID&Passを入手できたので問題なくログインできました。

新パッチもありがとうございます。
1009入手次第試してみます。
175. 名無しさん@お腹いっぱい。 2009/01/30(金) 10:51:50 ID:gKj7pKIh
みんなカラースペースどうしてる?

176. 名無しさん@お腹いっぱい。 2009/01/30(金) 20:17:28 ID:uq6jbb/h
>>175

それは作業を8ビットで行うか16bitや32bitで行うかって事ですか?
177. 名無しさん@お腹いっぱい。 2009/01/31(土) 17:05:37 ID:sw/81SHs
>>176

カラースペースとは関係ない
178. 名無しさん@お腹いっぱい。 2009/02/01(日) 09:45:31 ID:imbSRtGg
フリーのVoodoo使ってるんですけど
連番読み込みはフレームレート30固定ですか?
英語サイト覗くとそれっぽく書いてあるんですけど・・・

本当は24とか60で読んで欲しいな
179. 名無しさん@お腹いっぱい。 2009/02/01(日) 10:27:18 ID:4V3+/Owa
>>178

そもそもフレームレートって関係ありましたっけ?
フレームごとに特徴点を検出するだけだと思うんですが
180. 名無しさん@お腹いっぱい。 2009/02/01(日) 12:03:23 ID:imbSRtGg
>>179

元々の連番が24コマ素材なのですが、Voodooでトラッキングしてカメラ吐き出すと
30コマのカメラになってしまっているんです

192枚の秒24コマ素材をVoodooで読み込みトラッキング

Voodooからカメラを吐き出して3Dシーン上に持ってくると、秒30コマの192フレームキーがついたカメラデータ

ViewportBackgroundに元絵の秒24コマ192枚の素材を敷くと

当然ずれてしまうので、シーンを24コマに直す

30コマ192フレームのカメラは、24コマ補完になるのでキーがズレてしまう

という状態なのですが・・・
boujouはfps設定あるみたいですね
181. 名無しさん@お腹いっぱい。 2009/02/01(日) 18:00:06 ID:gyRRNi9h
3Dソフトが何か知らないけど、Voodooのカメラデータを読み込む時に
環境設定で30コマになってるから30になってるだけじゃないの?

フレーム数とキーフレームの数が一緒なんで、データ的にはなんとかなりそうだけど。


183. 名無しさん@お腹いっぱい。 2009/02/04(水) 01:08:58 ID:TVZ7NBD/
CGのレンダリング時のピクセル数って
合成対象の実写とピタリ同じでレンダリングするのが正しいんでしょうか?
CG側は大きめ(細かく)にレンダリングしておいた方が調整がきくとか
ある程度までなら粗めでもリカバー手段があるとか
どうなんでしょう?
184. 名無しさん@お腹いっぱい。 2009/02/04(水) 02:05:00 ID:TVZ7NBD/
>152
で使用されたとおもわれる
Cyberware製3Dスキャナ  PSモデル
http://www.japantech.co.jp/top.html

あと同制作でHDRI作成に使用したらしい
Panoweaver
http://www.easypano.com/jp/
複数の写真からパノラマ画像を作り出せる模様
HDR パノラマつなぎ合わせをサポート
ステッチが楽なんかね?
185. 名無しさん@お腹いっぱい。 2009/02/04(水) 16:55:21 ID:5oHZmG3e
>>183

大きめに計算しておけば調整が利く事もありますね。合成時に位置移動したりとか。
実写のパースにドンピシャで合わせてあって拡大等する必要がないなら同じ解像度で。
ケースバイケース。

HDだったりすると1080で用意しきれない時に720で出す事もあります。
合成時にリサイズかけたら案外綺麗に馴染んだりする事も。
186. 名無しさん@お腹いっぱい。 2009/02/05(木) 03:02:39 ID:NuBAyeMn
>>185

お返事サンクスです。

187. 名無しさん@お腹いっぱい。 2009/02/05(木) 05:06:30 ID:UjjZirjb
movimento_overview_video
ttp://download.autodesk.com/us/consulting/videos/movimento_overview_video/movimento_overview_video_570x500.html
188. 名無しさん@お腹いっぱい。 2009/02/05(木) 23:05:30 ID:NuBAyeMn
movimentoすごいっすね。
262万ひえー。
http://www.comtec.daikin.co.jp/DC/prd/movimento/
マッチムーブというよりもモーキャプとして考えれば仕方ないのか
個人じゃ無理ですな。
将来MAXかMAYAに標準で実装されることを希望w


189. 名無しさん@お腹いっぱい。 2009/02/05(木) 23:38:07 ID:kBG/2ovA
MayaLiveに技術が反映されて機能向上すると嬉しいっすな
190. 名無しさん@お腹いっぱい。 2009/02/06(金) 08:48:25 ID:nyGz3/zT
MayaLiveなんて粗大ゴミはもう捨てろ

191. 名無しさん@お腹いっぱい。 2009/02/06(金) 13:27:51 ID:hVTVfoh8
MayaLiveは本当に使えないね。あれいらないから安くして欲しいぐらい。
抱き合わせにもほどがある。
192. 名無しさん@お腹いっぱい。 2009/02/06(金) 22:42:12 ID:QOf5uaxh
Voodooの日本語訳とSynthEyesの日本語訳wikiサイト
ダウン中。
管理者の話ではFTPは生きているらしいのでバックアップは可能。

別サーバへ移動するかもしれません。
無料は怖いね。
193. 名無しさん@お腹いっぱい。 2009/02/08(日) 01:05:36 ID:AGpH4sHa
VooCATデモ版を弄ってますが、同CameraTrackerからかなり進化してますね。
・tgaファイル以外にも使えるようになった(jpg,bpm,avi etc...)
・トラッキング動作がかなり軽くなった
・特徴点を拾わないようにするマスク処理が行えるようになった(フレームごとに変形可能)
等など
117.81ユーロ=15000\弱程度で買えるので入門には丁度いいかも、ということで購入を検討しています。
194. 名無しさん@お腹いっぱい。 2009/02/10(火) 01:24:04 ID:VPbfJGsw
MayaLiveなんて粗大ゴミはもう捨てろ

最近じゃモーションキャプチャソフトの方が安上がりだぜ。
それとmovimento買ってみた















なんて言えたらいいな。
195. 名無しさん@お腹いっぱい。 2009/02/10(火) 23:19:34 ID:0wxXLWmS
トラッキング対象の映像って、広角でも撮影時のレンズのmm数を
正確に記録しておけばトラッキングできるもんですか?
極端な広角はやるつもりないけど。

あと歪みの補正ってトラッキング前にやった方がいいのかな・・・?
動画の歪み補正ってできるのかどうか知りませんが。

撮影?トラッキング前までに気をつけた方がいいことを知りたいっす。
196. 名無しさん@お腹いっぱい。 2009/02/11(水) 00:59:20 ID:5K8Vp7Hd
トランスフォーマーみたいな
5mくらいのある大きさを持ったCGを実写になじませる場合、
ミラーボールのHDRIだと思い切り破綻する気がするんですけども
なんか別のアプローチがあるんですかね・・・・。
どうやってんだろ。トランスフォーマーもミラーボールなんかな??
197. 名無しさん@お腹いっぱい。 2009/02/11(水) 02:57:21 ID:Mmyu22g+
オートトラッキングならカメラのmm数も全自動で検出してくれるが
ちゃんと記録した値を入力した方がもっと正確
広角の時はmm数とレンズにもよるがかなり歪むので歪み補正しないとそもそもちゃんとトラッキングできない場合がある

歪み補正は
撮影前の下準備としてboujouの場合だが以下のURL参照
http://www.crescentvideo.co.jp/boujou/technical/20050511.shtml
当然撮影で使ったmm数ごとにこういうのを撮影する必要がある
これをやり忘れると取り返しがつかない

実際にトラッキングする時だが
?トラッキングする前に元素材に歪み補正(歪みを取る)
?歪みを取った素材をトラッキング
?3Dソフトにカメラ読み込んで歪みを取った素材に合わせて作成
?レンダリングしたCG素材に歪み補正(歪みを付加)
?元素材に歪み追加したCG素材乗っけて合成

って感じ
198. 名無しさん@お腹いっぱい。 2009/02/11(水) 11:25:48 ID:woaRvhAq
>>195

どんなレンズであっても?数を控えるのは基本ですね。
トラッキングソフトをアテにして記録しない人もいますが、立会いの意味がありませんし
その後の作業の手間が増えるだけです。
歪みに関しては
>>197
で出てる通りですが、広角はなるべく避けたい所です。
ズームされるともっと悲惨ですw
199. 名無しさん@お腹いっぱい。 2009/02/11(水) 22:11:01 ID:5K8Vp7Hd
撮影時に手持ち移動やドリーは実は稀で、三脚でパンのみのショットの方が多い。
また、夜間の撮影でトラッキングポイントが少ないなど、
撮影した映像がトラッキングしにくいケースがあります。
SynthEyesの場合は同じ場所を写した複数のショットをドッキングさせることができるので
現場で別カメラでトラッキングしやすい映像を押さえておいたり、数枚写真を撮っておき
このトラッキング対象の映像とは別の映像(または写真)でトラッキングを済ませ、3次元解析まで終わらせた上で
トラッキング対象の映像は6点(SynthEyesの場合)だけ手動で追跡して
両者の同一点を合体させるという方法があります。
そうすると本来トラッキングできない映像でも
カメラの動きを割り出せるので、現場では別カメラを回すといいかもしれません。
200. 名無しさん@お腹いっぱい。 2009/02/12(木) 15:11:31 ID:qlXlR62H
>>199

>SynthEyesの場合は同じ場所を写した複数のショットをドッキングさせることができるので


これの詳しいやり方が知りたい・・・
201. 名無しさん@お腹いっぱい。 2009/02/12(木) 16:54:30 ID:JPFsZ0hE
!!俺も知りたい…そんな事できたのか。
全然知らなかった。。
202. 名無しさん@お腹いっぱい。 2009/02/13(金) 00:35:12 ID:FG8VDLVs
http://geino.sakura.ne.jp/syntheyes/manual_jp/SynthEyesUM_jp.htm#_Multi-Shot_Tracking
Multi-Shot Tracking  マルチショットトラッキング
2007版の翻訳だがほとんど一緒じゃないかな?
203. 名無しさん@お腹いっぱい。 2009/02/13(金) 02:34:03 ID:FG8VDLVs
ショットを追加して各々トラッキングして
ショット間のトラッカーをALT+クリック(またはTarget Pointボタン)でリンクさせて
Indirectモードで解析するだけ。
簡単すよ。
204. 名無しさん@お腹いっぱい。 2009/02/13(金) 13:19:44 ID:pHTbqCqH
情報サンクス!試してみます。

205. 名無しさん@お腹いっぱい。 2009/02/16(月) 22:20:14 ID:PW/c4LoU
>>202
のマルチショットトラッキングなんすけども
オブジェクトトラッキングは概してトラッキングポイントが少ないものなので
カメラトラッキングよりもオブジェクトトラッキングで効果を発揮しそうな
気がするんですけども。

例えば走ってくる車のトラッキングをする場合なんかだと
画面内の車の部分だけしかトラッキングポイントがなくて車全体の形状を出せない。
んで、先に車を止まった状態でしっかりと別撮りで映像に押さえておいて
これでトラッキングを済ませ、実際の走ってくる車のショットは6点だけ手動で追って
ドッキングさせるとか。
先に別撮りする時は本番じゃないからトラッキング用のシールだらけにもできるしね。。。


206. 名無しさん@お腹いっぱい。 2009/02/20(金) 00:37:51 ID:+v5llhip
日本語訳の移転先っす
http://www28.atwiki.jp/matchmove/pages/14.html
http://translation.heteml.jp/wiki/index.php?Voodoo%20Camera%20Tracker%20HP%20%E6%97%A5%E6%9C%AC%E8%AA%9E%E8%A8%B3
207. 名無しさん@お腹いっぱい。 2009/02/20(金) 02:34:25 ID:Bd9ET4dI
ありがたい!!お疲れ様です。
208. 名無しさん@お腹いっぱい。 2009/02/20(金) 02:36:52 ID:Bd9ET4dI
なんとこのスレのまとめまで…さらにありがたい!!

タグ:

+ タグ編集
  • タグ:

このサイトはreCAPTCHAによって保護されており、Googleの プライバシーポリシー利用規約 が適用されます。

最終更新:2009年03月05日 09:03
ツールボックス

下から選んでください:

新しいページを作成する
ヘルプ / FAQ もご覧ください。