2011-09-27[n年前へ]
■iPhone 4 で広角の動画を撮影する時にはフェイスカメラを使おう!?
iPhone 4 で「イマイチ」と感じることのひとつが「動画撮影時の画角の狭さ」です。 静止画撮影時には比較的広角気味な画角なのですが、動画撮影モードに変更した途端、(上下ともに)画角が狭くなるのです。 つまり、撮像素子であるCMOSセンサーの中央部分のデータのみがプレビュー・撮影に使われるようになります。 比率で言うと、上下ともに2/3程度にまで、上下ともに画角が狭くなってしまうのです。 だから、風景を動画撮影しようとした際などは、静止画で撮影するのに比べると、「目の前の景色が広がる感じ・雄大な感じ」が失われがちになります。
しかし、AV Watchの過去記事を読んでいて、ふと気づきました。 iPhone 4 の液晶面と同じ側にあるフェイスカメラは静止画撮影時も動画撮影時も画角が同じで、その画角は「メインカメラの静止画撮影時と同じ」です。 ということは、「目の前にある広大な風景を”広角の動画”として撮影したい時には、フェイスカメラで撮影すれば良いではないか!」と気づいたのです。
メインカメラ静止画 | フェイスカメラ静止画 | フェイスカメラ動画 |
---|---|---|
メインカメラ動画 |
---|
…とはいえ、フェイスカメラで撮影をしようとすると、液晶画面を見ながら撮影をすることができなかったり、カメラ(iPhone)操作が非常にしづらかったり…と難点も数多くあります。 つまり、「目の前にある広大な風景を”広角の動画”として撮影したい時には、フェイスカメラで撮影すれば良いではないか!」という大発見は、かなり無理のある思いつきと言わざるをえません。
しかし、人のいない大自然の中で「青空の雲が動いていくようすを撮影しようとする時」などには、このテクニックを使うこともできそうです。 もしも、そんなシチュエーションになった時には、メインカメラを青空に向けるのではなく、iPhone 4 をそっと地面に置き「フェイスカメラで真上を動画撮影してみる」のはいかがでしょうか。
2011-10-13[n年前へ]
■「ボール」に36個のカメラを埋め込んだパノラミック・ボール・カメラ
「ボール」に36個のカメラを埋め込み、空へ放り投げて、「空中から見た全周囲画像を作成することができるという”Throwable Panoramic Ball Camera”.
2011-10-18[n年前へ]
■「老眼」になったら「ラッシュアワー」の痴漢疑惑に注意しよう!の法則
年をとると、目のピント調整機能が衰えて、特に近くのものを見ることがしんどくなります。そのような現象を「老いた眼」と人は書き、そして、それを「老眼(ろうがん)」と呼びます。
ふつうに考えれば、近くのものが見づらければ、遠く離して眺めれば良いわけです。しかし、そういうわけにいかない場所も多いものです。それが、たとえばラッシュアワーの電車の中、つまりは、混雑して人が間近に立つような密度が高い場所です。そういった場所では、少なくとも、ケータイやスマートフォンを(水平方向に)遠く離して眺めるわけには行きません。情報端末を掌(てのひら)に持ち、「大きく前へならえ」の姿勢をとりつつ…情報端末の画面を確認する・眺める、というわけにはいかないのです。
「老眼」現象が進んでいる人の間近に人が立ち、それでもケータイやスマートフォンを眺めようとすると、ケータイやスマートフォンを(水平方向に)遠く離し眺めることができないわけですから、必然的に、鉛直方向(距離を)離して眺めることになります。…つまり、右図のように手に持ったスマートフォンを鉛直方向に限りなく下げて、そして液晶画面を上に向ける…という姿勢を保つことになります。
これは、非常に危険です。…なぜなら、最近の情報端末では液晶画面の側にもカメラがあることが多いわけですから、つまりは、人しれずカメラを低い位置から上に向けた姿勢(そして、それはあたかも盗撮写真を撮影するような姿勢)となってしまうからです。
だから、老眼になったら、ラッシュアワーの痴漢疑惑に注意しなければならないような気がします。あるいは、大都市をラッシュアワーに走る列車中には「老眼専用車両」が必要となるのかもしれません。ゴルゴ13は「オレの後ろに立つな!」というセリフをよく吐き(それと同時に後ろに立った人を殴打しますが)ますが、老眼の人は「オレの前に立つな!」といつも思っています。というわけで、「人の前には立たない」が「老眼専用車両」のオキテです。
2012-04-19[n年前へ]
■Lytro リフォーカス・カメラの「写真」の色情報・深度情報を立体的に眺めてみる!?
撮影後にピント位置を自由自在に変えることができるというリフォーカス・カメラLYTROが発売されています。
このLytro の「写真」から色情報と深度情報を取り出し、立体的に眺めてみました。たとえば、そんな風にLytroが撮影した風景を立体的に眺めてみた例が、下の2つの動画です。
これらの立体空間を作る手順は、
- LytroのWEB 表示用Flashが表示時にサイトからダウンロードする"output.noframes.lfp"(深度マップが入った画像ファイル)をローカルに保存
- Lytroカメラの画像から(nrpatel/lfptoolsを使い)深度マップ・深度毎の色画像群を抽出
- 深度マップをもとに色画像群からパンフォーカス画像を生成
- 深度マップにパンフォーカス画像をテクスチャマッピングして立体表示
ちなみに、上の動画に使った元画像はこちらで、下の元画像はこちらです。この手順では、WEB表示の「ギャラリー」に飾られている「写真」を使っているので、「Lytroカメラを持っていなくても・やってみることができる」というのがミソです。
ちなみに、抽出した深度マップは、適当にこんなRubyコードを書いて、一端CSVファイルにしてから処理してみました。
filePath = ARGV[0] width = ARGV[1].to_i x = 0 data = [] open(filePath) do |file| file.readlines.each do |line| data << line.to_f x += 1 if x == width puts data.join ',' x = 0 data = [] end end end
2012-04-20[n年前へ]
■Lytro "リフォーカス" ”ライトフィールド”カメラを使ってみた。(第一回)
撮影後にピント位置を自由自在に変えることができる”リフォーカス・カメラ”、”ライト・フィールド・カメラ”とも呼ばれるLYTROカメラを使ってみました。街中や部屋の中…たくさんの場所で撮影した「写真」の一部が、たとえば、こんな写真です。顕微鏡や赤提灯、ビー玉やホログラム…たくさんのものを、とても楽しく・ワクワクしつつ、LYTROのファインダー越しに眺めました。
こうした機能(あるいは、その機能を使い得られた情報の活用)は、少なくとも数年後には「当たり前で・普通のこと」になっているはずだと思います。
「ムーアの法則」のごとく、デバイスの規模・機能は常に等比的に増大・進歩するし、それ以上に、デバイスから得た情報を処理するソフトウェアも発展しているはずだと信じます。…デバイスは、一日一歩、三日で三歩、365日で365歩進んでいるはずだと思いますし、それらの光学系デバイスから(直接)得ることができる以上の「感動」を与える機能が、ソフトウェア機能を介して、「未来のカメラ(レンズ)」には搭載されているだろうと思います。
つまり、私たちが感じる感動を120パーセント(つまり、人が感じる以上の感動を)そっと差し出す機能が、未来のLYTROには搭載されているはずだと思うのです。