2010-12-28[n年前へ]
■iPhone4でマーカレス拡張現実のPTAMを動かす
Aaron Wetzlerさんが行った「(カメラに映る画像から空間把握を行うことができる) PTAM(Parallel Tracking and Mapping for Small AR Workspaces) のiPhoneへの移植作業レポートとプロジェクトソース」がGitHubに公開されています。そこで早速ビルドし、iPhone4でPTAMを動かしてみることにしました。
下の動画が「PCのディスプレイにiPhoneを向けて、PTAMで空間認識をスタートさせたようす」を撮影してみたものです。「思った通りには動かない部分が残っている」ということですが、それでも手元のケータイ(スマートフォン)が空間自動認識をしているようすを眺めていると、たとえ動きが不十分であるにしても、なかなかに楽しいものです。(プロジェクト設定やソースコードを眺めた限りでは)高速化する余地がまだまだ多くありそうに見えますから、色々なことをさせる機能を追加したりして、実用的なものへとさらに作り変えるのも面白いかもしれません。
現実にはありえないような不思議なものを映し出してみたり、あるいは、現実の世界をより現実(と思えるもの)に見せてみたり、あるいは目の前の世界を誰か全然別の時(空間)にいる人たちと共有してみたり・・・色々なことができそうな気がします。下に貼付けてみた(PCで動かした)PTAMのデモ動画でも眺めつつ、「あんなこといいな、できたらいいな」と思えることを色々考えてみることにしましょうか。