引きの撮影映像を紹介
Webカメラ、モニタ、盤面が映るような、引いたカメラワークで撮影し、解説を加えてみた。前回(1)を見て、何が何だかよくわからなかった方も、この映像なら理解しやすいのではないだろうか。
なお、この撮影は、所有している普通の携帯電話(約2年前に購入)の動画撮影機能で行っている。案外よく撮れているものだが、本当はもうちょっとまともなビデオカメラがほしい。
また、なるぞうくんのメタセコイアモデリングやFLARToolKitのソースコード、PCの性能などは、残念ながら前回(1)のときと変わっていない。いつかパワーアップしたいのだが。
さらに加熱するARの世界
自分への覚え書きとして、いくつか記事を紹介しておこう。興味をお持ちの方はご参照あれ。
現実世界の映像に情報を重ね合わせる「拡張現実(AR)」。20年来研究が続いてきた技術が今,パソコンや携帯電話の性能向上によって花開こうとしている。(中略)
ユーザー発の新発想が求められている中,誰もが試せるSDK「ARToolKit」を開発した奈良先端科学技術大学院大学の加藤博一教授に,AR研究の現実を聞いた。
FLARToolKitとは、「拡張現実」というものをFlashで実現するためのフレームワークのようです。一体どのようなことができるのか、FLARToolKitの作者である「さくーしゃ」さんに話を伺いました。
本誌2009年2月号の記事「FLARToolKit:FlashとWebカメラで拡張現実」は、群を抜いたアクセス数を獲得し、「FLARToolKit」の注目の高さを実感しました。今回は、FLARToolKit記事第2弾として、さまざまな利用事例を紹介します。
ソースコード紹介
前回(1)で忘れていた、オリジナルのFLARToolKitから変更した箇所のソースコード紹介を、今回しておこう(簡単すぎて全然価値は無いけれど)。
いじっているところは、
- Metasequoiaで作ったなるぞうくんモデルの呼び出し
- なるぞうくんの置く位置・向き・サイズ指定
のみと言ってよい。前者は呼び出すファイル名を変更しているだけなので省略するとして、後者は以下の通り。
var mqo:Metasequoia =new Metasequoia(); mqo.load("Data/naruzo.mqo", 0.3); mqo.rotationX = -90; mqo.rotationY = 180; mqo.z += 60; mqo.x -= 158; mqo.y += 70; this._baseNode.addChild(mqo); var mqo2:Metasequoia =new Metasequoia(); mqo2.load("Data/naruzo.mqo", 0.5); mqo2.rotationX = -90; mqo2.rotationY = 180; mqo2.z += 60; mqo2.x -= 158; mqo2.y -= 20; this._baseNode.addChild(mqo2);
サイズの異なるなるぞうくんを2体配置している。
正直、rotationは正確には把握しておらず(しようとせず)、カットアンドトライで決まった。マーカーの上になるぞうくんがいないのは、X,Y,Z軸方向に適当に移動させているからだ。駒の上に来るように調整している。
以上、万が一にもご参考になれば幸いだ。
コメント