2012-11-13[n年前へ]
■「”ライト内蔵型”眼帯」があれば「見えないもの」も見えてくる!?
数日前から「片目」生活をしています。右目は眼帯で覆い、目の前の景色を見ることができるのは「左目だけ」という状態です。だから、ゴルゴ13ではありませんが、「(後ろならぬ体の右側がほぼ見えないので)オレの右側には立つな」という気分です。
そんな片目眼帯生活の中で気づいたことは、眼帯越しに「明るさ」を感じることさえできれば、驚くべきことに「立体感」を感じるということでした。たとえば、目の前にいる人の姿は(左目から見える)左側しか見えていないはずなのに、(眼帯越しに右目が”明るさ”を感じさえすれば)不思議に両側から眺めている心地になるのです
(眼帯に覆われた)右目を完全に手で覆ったりして明るさを感じない状態にすると、「見えている景色」は平面的で”単なる画像”にしか思えないのですが、ひとたび右目が明るさを感じた途端、目の前の景色が立体的で確かな広がりを持っているように感じます。
どうやら、眼帯に覆われた目が(もしも眼帯がなかったら)見ることができる景色を、脳のどこかの回路が勝手にレンダリング補完しているようです。その回路は、眼帯に覆われて目の前を見ることができない目に信号が入ることで電源が入るようです。たとえ、その信号が何の情報もない一様な明るさだけであったとしても、その回路は動き出すようです。
それだけでなく、その映像補完&立体感生成回路と同じように、視界からの文字認識やパターン認識といった画像処理回路も、見えない右目に光信号が入ることで(その右目からの情報が完全に無意味なものであったとしても)どうやら処理能力がアップするようです。たとえば、「ウォーリーを探せ」を試しにやってみたところ、右目を完全に遮光していると「絵本のページからウォーリーを探し出す」のは至難の業に思えます。しかし、眼帯越しの右目に明かりを当てた状態だと、結構簡単にウォーリー模様を見つけ出すことができるのです。
「”ライト内蔵型”眼帯」があると、とても便利なのではないかと考えます。たとえ瞼を閉じて・眼帯で覆っている(つまり目に優しい)状態であっても、眼帯に内蔵されたライトで目に明るさを感じさせることができたなら、立体感(遠近感)も感じることができるし・文字/パターン認識能力も向上させることができるかもしれない、と思ったのです。
というわけで、100円ショップで超小型ライトを買い、マイ眼帯のガーゼに埋め込んでみました。これで、瞼越しに光を網膜に当てて、脳内画像補完システムで立体感と画像処理能力をアップさせることができるはずです。「眼帯を奇妙に光らせる不審者」として怪しまれなければいいな…と願いつつ。
2013-06-19[n年前へ]
■iOS 8のメニュー画面には「フロントカメラを使った環境光のリアルタイムマッピングレンダリング」くらいはして欲しい!?
iOS 7のアイコン表示時の新機能として、画面の傾きに応じてアイコン位置を変えることで、画面の中に描かれたアイコンや背景に遠近感を与える、というものがあります。
思い起こせば、「未来の立体ディスプレイ」を作る と称して、同様の遊びをしてみたのが8年前…それが今やスマホで実現できる時代になった、と考えると感慨深くもあり、同時に身の回りの世界というのは10年程度ではあまり変わり栄えしないのだな…とも思わされます。
さて、今日は(iOS 7の先の未来で登場するはずの)iOS 8のアイコン表示では「これくらいはして欲しい!?」というものを、iPad miniで行ってみました。やってみたことは、iOS 7同様に加速度センサ値を使って背景とアイコンに遠近感を与えつつ、(ディスプレイ面を向く)フロントカメラから「ディスプレイ面にあたる光(色)分布」を取得して、その状況をリアルタイムに反映したアイコンや背景をレンダリングをする実験をしてみました。それが、下の動画です。動画前半でiPad miniを色々な向きで眺めた後に、その後「さまざまな色の光」をiPad miniに色んな方向からあてるさまを撮影したものです。
iPad miniの加速度センサとフロントカメラから得られる値・映像をもとにして、「(使用者が手に持つ)iPad miniは”こんな光”に囲まれていて」「使用者は”こんな風=向きに”iPad miniを持っていて」…そして、「画面内のオブジェクトはこんな風に光を受け・反射しているはず」…だから、使用者からは「こんな風に(リアルタイムに)見える」はず…というものをレンダリングしてみました。
だから、傾ければ「オブジェクト面の反射光沢の状態」や「オブジェクトの間の距離感」も変わりますし、照明状態が変わると「画面中にある各種オブジェクトの色・見え方」も当然変わります。青い光に照らされている時には、青色波長に対応する光しか(背景もアイコンも)反射・返すことをしませんし、照明スペクトルが赤色ならば、赤色の反射光しか返しません(画面上に反映させません)。
iOS 7はともかく…iOS 8くらいになった暁には「フロントカメラを使った環境光のリアルタイムマッピングレンダリング」くらいはして欲しい…と思いませんか?(…そんな過剰で不必要でつまりはムダなことには電流消費したくないぜ!という声がたくさん聞こえてきそう…)
2016-12-11[n年前へ]
■「平面的に見える満月」と「立体的な月蝕」の秘密
太陽と正反対の空に浮かぶ満月は、とても平面的に見える。まるで、真っ平らな円を切り抜いて、夜空に貼り付けたように見える。白いピンポン球を手に持って、光を当てながら眺めたときのような、「中央近くは明るくて、周辺部分が滑らかに暗く落ち込む陰影が付いた、立体感ある見え方」にはならない。
球の周りが徐々に暗くなる陰影は、物体表面に当たった光が、表面から外に帰っていく際に、周囲に等しく方向性を持たず返される時に生じる。そんな条件では、球の中心から端部までコサイン関数状の陰影が生じる。それでは、遙か古代に信じられていた平面状の月でなく、現実には3次元球体であるはずの月が陰影無く、真っ平らに見えてしまうのだろうか。
その秘密は、月表面の反射特性にある。月の表面は、その表面を照らす光を、その光が発された方向へ返す性質があるからだ(Diffuse Reflections from Rough Surfaces )。満月の時、月を基準にすると、月を照らす太陽は地球の後ろにある。そして、月を照らす太陽と同じ側に浮かぶ地球から月を眺めると、月の表面反射特性は「陰影がほとんどない、真っ平らな平面状の満月」を空に浮かび上がらせることになる。
自分を照らす光を、その光が発された方向へと返す再帰性反射と呼ばれる性質は、急峻な凹凸の表面形状や(交通標識などで使われる)透明ビーズ(やキャッツアイ)など、多くの材質で現れる。再帰性の反射性質が現れる理由は、たとえば、前者の急峻な凹凸形状の場合であれば、斜めから当たる光も、表面が急峻な凹凸形状*であれば、斜面(の法線方向に対し)垂直近くに光が当たり、その光が元来た方向へと帰って行きやすくなるからで、後者の透明ビーズでは、ビーン内部の反射により光が元いた場所へと戻っていくからだ。
通常の満月がとても平面的に見える一方、同じ満月の時期に稀に訪れる皆既月蝕中の月は、とても立体的に見える。それは、太陽からの光を地球が遮りつつ、けれど地球大気が屈折させた太陽光は、月表面を見事なまでな立体的でグラデーション豊かな、名カメラマン顔負けの素晴らしいライティングとなる。
次に日本で見ることができる皆既月蝕は2018年1月31日らしい。その満月を見ることができたなら、立体感溢れる月を眺めてみたいと思う。
*そうした形状の表面反射を表したモデルが、Oren–Nayarの反射モデル