hirax.net::inside out

最新記事(inside out)へ  |   年と月を指定して記事を読む(クリック!)

2017年8月 を読む << 2017年9月 を読む >> 2017年10月 を読む

2017-09-23[n年前へ]

続「妄撮カメラソフト」WEBアプリ版(胸限定)を作ってみた。  share on Tumblr 

 春が終わる頃、京都の街を散歩中に学生時代を思い出し、「男子の夢な(衣服の下を透視する)妄撮カメラ」を作りました。そして、梅雨が終わり夏本番に入る頃、そのコードをもとにして、WEBカメラアプリ「私、脱いだらスゴイんです!ー筋肉自慢 版」を動かしてみました。…ただ、筋肉自慢ソフトというのは、「かつての自分がやりたかったこと」とは違う「画像入れ替え処理」のせいか、心のモチベーションがどうにも上がらないな、とも感じていました。

 そこで、自分で使い倒すソフトにするなら「こうありたい(こういう機能が欲しい)」という初心に戻り、「妄撮ソフト(胸限定)」として、多少のコードを書いてアップデートさせてみました。  

 使い方は簡単で、右のQRコードもしくは、上記のリンクからカメラソフトを立ち上げ、「カメラ撮影/もしくは撮影済みなどの画像を選択」した上で、「妄想する!(Strip it off!)」ボタンを押すと、その妄想が現実のものとして具現化するのです。
 HTML5ベースで動くので、特に環境を選ぶことはないと思いますが、動作テストをしたのはApple iPhone 6s(iOS10/iOS11 Safari)のみです。
 また、試しに使っているようすを撮影したものが、下に貼り付けた動画です。簡単に「現実の世界から妄想が生まれる」さまがわかるかと思います。

続「妄撮カメラソフト」WEBアプリ版(胸限定)






2017-09-01[n年前へ]

下着マチ部分の「わずかな凹凸」がなぜボトムスの上から視認されるのか?  share on Tumblr 

 平日のラッシュ時間、駅のホームから上がる階段は、人がギュウギュウに詰まっている。 その階段を登りながら、こう考えた。

 職場や学校に向かうだろ多くの人に挟まれて、密度高く窮屈に階段を昇っていると、ちょうど1メートルくらい先の正面に、階段を上る女性がいる。 私の顔のちょうど正面に彼女のヒップがあるせいか、それとも何か他のユング心理学的な何か深層心理の原因があるせいか、とにかくその球面状のヒップが目に入る。 もしかしたら、そのヒップが気になったのは、下着の線が浮かび上がっていたせいかもしれない。 女性はストレッチ素材のボトムス(ズボン)をはいていて、階段を昇るために足を上げる動作をするせいか、ボトムスに明瞭に下着の線が浮き上がっている。 それは、下着のアウトラインだけでなく、股部分の左右を繋ぐ「マチ」も線となり浮き上がり、それはまさにあだち充が描く「ムフ♡!」的な気持ちを思い起こさせた。

 人が何に「ムフ♡!」を感じるかは、それはまさに個性で、その人次第に違いない。 けれど、私の場合は、下股部分の左右を繋ぐ、上を凸とする「マチ」の円弧状の曲線に、「ムフ♡!」を感じるらしい。それはもしかしたら、あだち充ではなくて、桂正和の影響だったのかもしれない。

 そこまで考えが漂流してきた時に、こんな疑問が湧いてくる。 「なぜ、下着のマチ部分を、ボトムスの上から見ることができるのだろう?」 「マチ部分には確かに凹凸ができるだろうけど、それほど大きくなさそうな凹凸を、なんで視認することができるのだろう?」 そこで、目の前のヒップを観察しながら階段を登りつつ考えた。

 下着のマチ部分は、他の部分に比べて約2ミリメートルくらい厚い。 つまり、女性の丸いお尻が下着をはくと、丸い曲面上に「下着のマチ」という高さ約2ミリメートル程度の山脈ができる。

 そんな山を持つ曲面面を、さらにストレッチ素材のボトムスが覆うとき、収縮しようとするストレッチ素材の生地を支配する方程式は、ポテンシャル曲面は可能な限り「滑らか」になるというラプラス方程式である。 つまり、下着のマチ部分を覆うストレッチ素材のボトムスがどう見えるかを考えるときには、ラプラス方程式の解を求めればよい。

 自然界の多くの現象がラプラス方程式を使って解くことができるように、下着のマチ厚みが作るボトムス表面形状を、ラプラス方程式で求めることにしよう。…そのために、まずは、下着のマチ部分あたりの女性のヒップを、直径8センチメートルの球面形状だとしてみる。 すると、ラプラス方程式の解を概算すると、下着のマチ部分のストレッチ素材のボトムスは、ざっくり「高さ2ミリメートルで、両側になだらかな斜面が約9ミリメートルほどつづく山(凸形状)」ができることになる。

 すると、次の疑問がさらに湧く。
「高さ2ミリメートルで、両側になだらかな斜面が約9ミリメートルほどつづく山(凸形状)」を人は視認することができるものだろうか?

 約1メートル離れて、視線方向への2ミリの凹凸となると、両眼視差で形状を捉えるようなスケールではない。 となると、そのオフホワイト単色のボトムスに浮かぶ凹凸を識別する手掛かりは、陰影情報だけだろう。

 物体に照明があたるとき、その表面の陰影はコサイン(照明角度)で表される。 ということは、高さ2ミリメートルの下着マチ山脈の陰影は、「両側に約9ミリメートル続くなだらかな斜面」の角度(斜度)を計算し、そのコサインを評価してやれば良いことになる。 ちなみに、下着マチ山脈の斜度を計算してみると、約13度だ。 照明が約45度方向から照らすなら、下着マチ山脈の片側斜面は(他の部分より)約8パーセント明るく、もう片側の斜面はその逆に約8パーセント暗いということになる。

 人の視覚が濃淡模様を識別する特性を考えると、約1メートル離れた9ミリメートルピッチつまり角度約1度の濃淡模様は、数十分の1程度でも識別することができる。 つまり、下着マチ部分の濃淡は、その高さがわずか2ミリメートルだとしても、明瞭に視認されることになる。 もちろん、いわゆる視力的にも角度約1度は約0.02に相当するから、全くもって問題は無い。 結局のところ、「下着のマチ部分の凹凸はわずかでも、その陰影は視認するのに十分な濃淡になる」ということになる。

 と、考えがさらにここまで漂流してきた瞬間、駅の階段を踏み損なって転びかけた。足の先を強く打ち痛い思いはしたけれど、幸い何ともなかった。 階段を昇る目の前の女性のヒップに浮かぶ「ムフ♡!」を眺めつつ、考えごとをすることは、有意義と言うよりは少し危険なことなのかもしれない。

下着のマチ部分の「わずかな凹凸」が一体なぜ視認されるのか?下着のマチ部分の「わずかな凹凸」が一体なぜ視認されるのか?下着のマチ部分の「わずかな凹凸」が一体なぜ視認されるのか?下着のマチ部分の「わずかな凹凸」が一体なぜ視認されるのか?下着のマチ部分の「わずかな凹凸」が一体なぜ視認されるのか?






2017-08-21[n年前へ]

続 300円くらいで「高性能な立体顕微鏡」を作ってみよう!?  share on Tumblr 

 300円くらいで「高性能な立体顕微鏡」を作ってみよう!?で試した、約300円で買ったスマホ用レンズで特殊撮影+後処理+3D表示をするソフトウエアを、スマホ(iOS)単体で行うことができるようにする作業をしています。

 そんな「300円でできるスマホ立体顕微鏡ソフト」を作る作業をしていると、スマホが「ありとあらゆるセンサー」と「昔のスパコンレベルの計算能力」を備えているために、なんだかとても楽しくてハマっているところです。

 いわゆる「8月31日まで」の夏休みの終わり・・・までに終えることはできそうにないですが、9月の終わりくらいまでには一旦リリースしたいなと思っています。

続 300円くらいで「高性能な立体顕微鏡」を作ってみよう!?続 300円くらいで「高性能な立体顕微鏡」を作ってみよう!?






2017-08-03[n年前へ]

8/5,6 東京ビッグサイト開催 Maker Faire Tokyo 2017 でお待ちしております。  share on Tumblr 

 今週末、8月5日と6日、東京ビッグサイトで開催されるMaker Faire Tokyo 2017を散策しに行くことにしました。「踊るアホに観るアホ、同じアホなら踊らな損」だと後押しして頂いたので、「ををつか屋」(A-01-04)に間借りして、スマホ(BLE)制御の特殊三脚撮影システムを展示しようと思います。

 もちろん、ここ1年の間に作ったその他特殊機器や機械学習応用のソフト資料も持って行く予定です(多分ね)。…というわけで、そんなアレコレに関する技術系雑談や各種応用相談、あるいは残暑の雑談や来場する方からのご自慢を伺うことなど、そんなことを楽しみしています。





8/5,6 東京ビッグサイト開催 Maker Faire Tokyo 2017 でお待ちしております。8/5,6 東京ビッグサイト開催 Maker Faire Tokyo 2017 でお待ちしております。8/5,6 東京ビッグサイト開催 Maker Faire Tokyo 2017 でお待ちしております。8/5,6 東京ビッグサイト開催 Maker Faire Tokyo 2017 でお待ちしております。8/5,6 東京ビッグサイト開催 Maker Faire Tokyo 2017 でお待ちしております。8/5,6 東京ビッグサイト開催 Maker Faire Tokyo 2017 でお待ちしております。8/5,6 東京ビッグサイト開催 Maker Faire Tokyo 2017 でお待ちしております。8/5,6 東京ビッグサイト開催 Maker Faire Tokyo 2017 でお待ちしております。






2017-08-01[n年前へ]

300円くらいで「高性能な立体顕微鏡」を作ってみよう!?  share on Tumblr 

 先日、「3000円くらいの立体顕微鏡」を作ってみました。けれど、3000円ではまだ高い!というわけで、そのさらに10分の1のお小遣いでも買える「300円くらいの立体顕微鏡」を作ってみました。

 「やったこと」をひとことで言うと、300円ほどで買ったスマホ用レンズを使って、スマホからの特殊撮影をすることで、300円のレンズ+スマホを立体顕微鏡に仕立ててみました。

 たとえば、下に貼り付けたのは、深圳の油画村(大芬油画村)で買った「油絵」の表面を撮影してみたものです。油絵具材の盛り上がりのようすが見てとれます。こんなようすが、300円程度のレンズとスマホを使って撮影できるのは、結構面白いのではないでしょうか。

 下に貼り付けたテスト撮影を眺めると「千円札のインク盛り上がり」くらいなら撮影できそうな感じです。

 この後は、レーウェンフック系の単レンズ顕微鏡用のボールレンズや「水滴「など、各種安レンズを使ったテスト撮影を行った上で、来週には、コストはさらに10分の1・解像度はさらに10倍くらいの世界を目指してみたいと思います。 10ミクロンオーダーくらいの面内&高さ精度の立体顕微鏡を、100円玉一個くらいで実現するのが来週の目標です。…そして、今年2017年の夏休みの終わり頃には、それを誰でも使えるようにしてみたいと思います(と、日記には書いておこう)。

300円くらいで「高性能な立体顕微鏡」を作ってみよう!?300円くらいで「高性能な立体顕微鏡」を作ってみよう!?300円くらいで「高性能な立体顕微鏡」を作ってみよう!?300円くらいで「高性能な立体顕微鏡」を作ってみよう!?300円くらいで「高性能な立体顕微鏡」を作ってみよう!?






2017-07-26[n年前へ]

Mac OSX のキーボードをiOS(や各種デバイス)外部キーボードとして繋げるTypeetoが「結構良い」  share on Tumblr 

 スマホ(iOS)上でPythonプログラミングできる環境 Pythonista が便利です。とはいえ、スマホのキーボード上でプログラミングするのは快適なものではありません。…かといって、Bluetooth接続の外部キーボードなどをスマホに繋げると、今度は(普段使っている)キーボードとの違いが気になります。

 そこで、(普段使っているPCである)Mac OSX のキーボードをiOS(や各種デバイス)外部キーボードとして繋げることができるソフトウエア Typeeto を使い始めました。この Typeeto が結構良かったので、使い方をメモしておきます。

 まず、Mac(OSX)マシンに、「iOS(外部デバイス)側から」Bluetoothで接続しておきます(自動で接続するようにしておきます)。その状態で、Typeetoを立ち上げると(実際には、Typeetoは自動起動にしておいて、ショートカットキーで、デバイスに対して入力するかを指定して実行すると)、あたかもMac(OSX)のキーボードがiOS(外部デバイス)側の外部キーボードになったかのような状態になります。すると、少なくともOSX/iOSユーザであれば、実に自然な感覚でタイピングも(デバイス内での)コピペも日本語入力もできるようになります。

 ちなみに、OSX側のクリップボードからのコピペもできるのですが、Macから外部デバイスへのコピペに関しては「日本語はNG/(英字モード含む)ATOKを入力ソースにしているとNG」というハマリどころがありました。コピペはもちろん、ショートカットの登録も、入力ソースがATOKの場合には上手く動きませんでした。

 また、いわゆるSendKeysのような形態で実装がされているようで、キーボードを1文字1文字タイプしていくような具合で(Mac OSX側からiOSへの)コピペならぬタイピングがされていきます。そのため、非常に長い文章をコピペするには向きませんが、いわゆる短めのソースコードやURLなどを(OSX側からデバイス側へ)コピペして作業するにはとても便利です。(この場合、iOS側の予測変換などの余計な機能は切っておかなければ、入力された文字が書き換わってしまい、困ることになります)

 他の類似機能を持つソフトもありますが、少なくとも、OSX-iOSという使い方であれば(そしてOSX側の日本語文章をデバイス側にコピーしたいというのでなければ)、このTypeetoは結構良いできです。(為替レートにもより)1300円くらいの値段がしますが、Mac(OSX)側とiOS側の両方で同時作業をする人なら試してみても良いかも、です。

Mac OSX のキーボードをiOS(や各種デバイス)外部キーボードとして繋げるTypeetoが「結構良い」Mac OSX のキーボードをiOS(や各種デバイス)外部キーボードとして繋げるTypeetoが「結構良い」Mac OSX のキーボードをiOS(や各種デバイス)外部キーボードとして繋げるTypeetoが「結構良い」






2017-07-17[n年前へ]

WEBカメラアプリ「私、脱いだらスゴイんです!ー筋肉自慢 版」  share on Tumblr 

 WEBベースのカメラアプリ、「私、脱いだらスゴイんです!ー筋肉自慢 版」を書いてみました。先日作った「妄撮アプリ」、つまりはopenpose を使った人体姿勢推定からの脱衣的な画像処理を、取り回し良いように修正を入れた上で、スマホ対応のWEBカメラアプリ(撮影・画像処理アプリ)にしてみたものです。

 画像処理のサーバ側は、Python/bottleという、恐ろしいチープさなので、サーバが無反応とかエラー返すことも多そうな気もしますが、「まぁ気にしない」ということにしておきましょう。

 今回の想定用途は、自撮り用カメラとして「ウソっこ筋肉自慢」です。…といいつつ、サーバ立ち上げ用に画像処理テストをしていると、腐女子のための「妄撮」カメラの方が似合う気がしてきます。けれど、それは腐女子の生態を理解していないことによる勘違いな気もします(そんな発想をする、腐女子という存在は無いのかも)。

 WEBカメラアプリ「私、脱いだらスゴイんです!ー筋肉自慢 版」のURL、"/lookInside/muscle" というURLを眺めると、当然「これはアレだな。muscle部分を変えれば、違う用途にも動きそうだな。"lookInside"が”手続き”で、"muscle"部分がーどんなキーワードにもとづくかーなんだな」と思われそうです。・・・もちろん、実際のところ、そういう作りにしていますが、この記事を書いた時点では look inside できるのは "muscle" だけにしてあります。

WEBカメラアプリ「私、脱いだらスゴイんです!ー筋肉自慢 版」WEBカメラアプリ「私、脱いだらスゴイんです!ー筋肉自慢 版」






2017-07-02[n年前へ]

USB顕微鏡で「簡易立体顕微鏡」を作ってみる  share on Tumblr 

 今日は、USB顕微鏡を使って「立体顕微鏡」を作ってみました。照明周りとソフト側をいじり、下記のような撮影をして、Shape From Specular 手法で法線積分から形状生成をすることで、カラー立体画像を撮影可能なUSB立体顕微鏡へ変身させてみる!という具合です。つまり、USB顕微鏡を「照明光の向きと各画素に対する撮影方向から、法線方向を推定し、その法線積分による形状を生成する」USB 3次元形状撮影顕微鏡に変身させてみた…という具合です(撮影のようすは、下に貼り付けた動画を見るとわかりやすいかもしれません)。

 下に貼り付けた、添付画像は「五千円札の樋口一葉」の目を中心にした「1ミリメートル角くらい」ぐらい部分を撮影してみたものです。五千円札の樋口一葉の眼を描く、インクの超盛り上がり具合を確認することができます。

 といっても、お札は偽造防止のために、触感でも本物・偽物をすぐに判別できるように、超盛り盛りでインクを盛り上げてあります。だから、これくらいの撮影ができなければ、…実際のところ「立体顕微鏡」なんて名乗る資格は無いのです。

 今や高倍率のUSB顕微鏡も1000円くらいで買うことができる時代。そして、「あったらいいな」と思うことを実現する処理アルゴリズムも、コンピュータで簡単に走らせることができる今日この頃。

 それはつまり、千円あれば「あんなことやこんなこと」…色んなことができるというのが2017年の夏なのかも、と思ったりします。

格安USB顕微鏡で「簡易立体顕微鏡」を作ってみる格安USB顕微鏡で「簡易立体顕微鏡」を作ってみる格安USB顕微鏡で「簡易立体顕微鏡」を作ってみる格安USB顕微鏡で「簡易立体顕微鏡」を作ってみる






2017-06-10[n年前へ]

「今と昔の暦がイキナリ1ヶ月ズレたのは給料1ヶ月分カットが目的」という驚き納得する話  share on Tumblr 

 『「今と昔の暦がイキナリ1ヶ月ズレたのは給料1ヶ月分カットが目的」という驚き納得する話』を書きました。よく、新暦と旧暦の違いから、お祭りの開催時期が本来の時期より1月ズレる問題を考えることがあります。そんな旧暦・新暦変更の歴史的な経緯が、素晴らしく(経済ロジックとして)わかりやすい…という話。

年末近くの11月、まさかの「来年からは、全然違うカレンダー使うことにしました!」という明治政府の発表は、来年の暦(カレンダー)を作成真っ最中の業者など、大混乱を引き起こしたといいます。…「さまざまなことへの影響が大きい暦の変更を、なんでイキナリ急いでやるの?」と思ったアナタは鋭い!聞けば納得の理由があるのですが、それが明らかになるのはもう少し先。

「今と昔の暦がイキナリ1ヶ月ズレたのは給料1ヶ月分カットが目的」という驚き納得する話

2017-06-04[n年前へ]

江戸の町に鳴らされる「時の鐘」の同期手法の科学と謎  share on Tumblr 

 江戸時代、時間を知らせる「時報」があった。江戸城を囲むように配置された何カ所もの「鐘」を鳴らして、江戸の町にその時刻を知らせていた。最も最初に作られた「時の鐘」は、今の東京駅や神田駅にほど近くに位置した本石町にあり、「時の鐘」はその後、他にも上野寛永寺や芝増上寺など10箇所以上に作られた。この「時の鐘」が「鐘を鳴らす順番が決まっていた」という解説を読み、いくつか不思議に思うこと(そして興味を感じること)があったので書いてみようと思う。

 そもそものきっかけは、以下の解説中の「①時の鐘は順番に鳴らされ、前の寺の鐘の音が必ず聞き取れるように配置されていた」「②捨て鐘という前振りを行うことで、遅速なく次のお寺で鐘が撞けるようにする」という記述である。この解説だけでなく、他の書籍などでもこの記述は見かけるのだが、まずはこの2点に、技術的な興味と少しの「引っかかり」を感じた。技術的興味というのはとくに②について、そして「引っかかり」は①についてである。

 時代によって設置場所と個数には変化がありますが、最初の9ヶ所は、①本石町②上野寛永寺③市ヶ谷八幡④赤坂田町成瀬寺⑤芝増上寺⑥目白不動尊⑦浅草寺⑧本所横堀⑨四谷天龍寺で、この順番で前の鐘の音を聞いて順序よく鐘を鳴らしていたのです。
 江戸では「捨て鐘」と呼ばれる撞き方があり、時刻を告げる時打ちの鐘を撞く前に、先ず注意をひくために三度撞き鳴らしていました。これは、一つ前の順番のお寺の「捨て鐘」を聞いたら、遅速なく次のお寺で鐘が撞けるようにするための知恵でした。江戸の「時の鐘」は、前の寺の鐘の音が必ず聞き取れるような位置関係に有ったようで、誤って遅速した場合の罰則はかなり厳しいものでありました。

江戸時代の暮らしと時間

 上の解説には、「①時の鐘は順番に鳴らされ、前の寺の鐘の音が必ず聞き取れるように配置されていた」と書かれているが、浦井 祥子氏の博士論文を元にした書籍「江戸の時刻と時の鐘 (近世史研究叢書 (6))」によれば、順番に鳴らされていたことがわかっているのは、史料からは

  1. 上野寛永寺
  2. 東円寺(市ヶ谷八幡)
  3. 赤坂成満寺
  4. 芝切り通し
の4つであるという。それ以外については、鳴らされ方は正かではない。

 鳴らされる順番がわかっている時の鐘に番号付けをした上で、他の時の鐘とともに地図上に描いてみたのが下図だ。ちなみに、名前を黄色背景としたところは「時計」を備えていたことがわかっている「鐘」である。

 こうして眺めてみると、当たり前のことだが、比較的高い土地に設置されていることがわかる。そうした場所に、高さ8m程度の建物の「時の鐘」を設置したというから、見通しよく鐘の音が伝わったのだろうとは思うが、「上野寛永寺と東円寺(市ヶ谷八幡)の4kmほどの距離」は少し気になる。この距離だと、梵鐘の鐘の音が届く限界距離に近く、現代より自動車音などや音波を遮蔽するビルなどが無いにしても、鐘の音を聞き取りにくい時も生じてしまうように思えてしまう。
 それに対して、東円寺(市ヶ谷八幡)から赤坂成満寺や芝切り通しへの「鐘の音リレー」は1.5km程度の間隔となっていて、こちらはとても自然だ。

 フジテレビ「トリビアの泉」で、梵鐘をヘリで吊して、高度100メートルから落下させたとき鐘の音が届く距離を調べる実験や梵鐘が聞こえる距離実験をしていて、その結果で鐘の音が聞こえる距離が1km前後だった(梵鐘を落下させたのでは、固有振動を最大限にすることは難しそうですが)。江戸の街は現代の東京よりも遙かに音が聞こえやすい…といっても、いつもきちんと伝えるのは難しいように思えてしまう。 当時、鐘の負担金を「聞こえる範囲」の300町〜400町(約3〜4km)の町人が負担したというが、果たしていつも「きちんと聞こえた」のだろうか。

 ところで、秒速340mほどの音速を考えると、上野寛永寺から芝切り通しまで「時の鐘」を伝えるためには、どんなに早くても約30秒掛かる。そして、こうした時の鐘が2次元上に配置されていることを考えると、それぞれの鐘の打ち手は一体どんな鐘の音シーケンスを聴いていたのを知りたくなる。

 「②捨て鐘という前振りを行うことで、遅速なく次のお寺で鐘が撞けるようにする」については、「江戸の時刻と時の鐘)」によれば、まず最初に鳴らされる「捨て鐘」は3打から構成され、1打目の後少し間を空けたあと、2打連続して撃ったという。つまり、モールス符号の「D-・・」のようにして撃つ作法だったという。そして、時刻を知らせる鐘は、時刻の数だけの鐘を「最初は間隔を長く、そして徐々に間隔を短くして」撃ったという。

 梵鐘を撃つ時、鐘を打つ橦木をスイングバックする必要があることを考えると、この打ち方をすることで、「捨て鐘」は「最初の鐘が大きく響き、後の2鐘は小刻みに小さな音で鳴る」ということになる。そして、時刻を知らせる鐘も同じように「音がだんだん小さく・小刻みになっていく」ことになる。この鳴らし方は、鐘の順番や数を聞き分けるために役立つような気もするし、単なる省略的な打ち方にも感じられる。

 何はともあれ、江戸の町に鳴らされる「時の鐘」の同期手法の科学を考えてみると、とても面白そうだ。江戸の町にどんな風に鐘の音が響いていたかを考えてみると、何だか江戸時代にタイムトリップしたような気になってくる。

江戸の町に鳴らされていた「時の鐘」を同期させる手法の科学(と謎)






2017-06-01[n年前へ]

全てのデジカメをリアル妄撮カメラにしてしまう狂気!無線LAN内蔵SDカードアダプタPQI Air Cardと機械学習の間違った使い方  share on Tumblr 

 先日、機械学習を使い人体姿勢を推定するアルゴリズム(コード)openposeをキッカケに、人を妄想的に脱衣させてしまうPC画像処理ソフト(ディープラーニングによる姿勢推定openposeで「男子の夢な(衣服の下を透視する)妄撮カメラ」を作ってみよう!?)や、そのスマホアプリ化(ディープラーニング姿勢推定openposeで「妄撮カメラ iOS版」を作ってみる!?)、さらにはiOSネイティブアプリケーション化をしてみました(機械学習による姿勢推定openposeで「妄撮カメラ iOS版(ネイティブアプリ)」を作ってみる!?)。…今日は、その最終駅として、お仕事で使うようなPCでもなく・いつも持ち歩くスマホでもなくて、もはや過去の遺物になりつつある「デジタルカメラ」をリアル妄想撮影カメラにしてみることにしました。

 実際のところ、そんなことはとても簡単です。すでに、撮影した画像をサーバに投げるだけで、姿勢推定や脱衣画像を自動生成するコードは書いてあるので(ディープラーニング姿勢推定openposeで「妄撮カメラ iOS版」を作ってみる!?)、その機能をデジカメから使うようにするだけで良いのです。…というわけで、内部で動作するLinuxを自由に使うことができる無線LAN内蔵SDカードアダプタPQI Air Cardを使い、SDカード内のJPGファイルに対して自動で人体姿勢推定と脱衣画像合成処理をするRubyコードを書いてみました。もちろん、こんなことはPQI Air Cardで動くRubyを知っている人であれば、実に簡単にできる作業です(デジカメ内部でRubyを動かす狂気!無線LAN内蔵SDカードアダプタPQI Air Cardの間違った使い方)。

 まずは、PQI Air CardにRuby(あるいはCurlなど)を(前記のリンク先などから)インストールしておきます。それと同時に、PQI Air Card が起動時から外部無線LANアクセスポイントに接続してクライアントとして動作する設定にしておきます(autorun.shから/usr/bin/w2を呼ぶだけですね)。そして、autorun.sh の最終端からRubyコードを起動して、/mnt/sd/DCIM内の".JPG"ファイル群に対して妄撮画像処理を実行させてやると、デジカメで撮影した(そしてSDカード内に保存された)写真に写る人が、いつの間にか中二妄想的な脱衣姿になってしまう…というわけです。

 そんなSDカードを作り、作ったSDカードをデジカメに刺して、撮影画像を妄想撮影してみた処理例が、右上の2枚の写真です。まずは左に写る画像が(PCに写る画面を)デジカメで撮影した画像で、デジカメ内部で(サーバを経由して)生成された妄想撮影画像結果が2枚の右側に写る画像です。

 機械学習の力を活用したopenposeを使い、SDカードのDCIMディレクトリのJPGファイルをフルオートマチックに妄想撮影画像にしてしまうRubyコードをウンストールしたのが右のSDカードです。このSDカードを刺すだけで(刺したら最期)、ほぼ全てのデジカメが妄撮カメラに変身してしまいます。レンズを向けた風景に写るひと全てが、一皮も二皮も剥けた姿に変わってしまうのです。中二男子には素晴らしい道具ですが、それ以外の人にとっては単なる極悪ツールです。

 ちなみに、そんな極悪もしくは中二男子の妄想的機能を備えたRubyコードが動くSDカードを刺したコンパクトデジカメです。つまり、世界初のリアル妄撮コンパクトデジタルカメラ。…世界を変えることはないでしょうが、このカメラをひとたび手にしたならば、あなたが見る世界を・周りに存在する世界を見る目を変えてしまう…かもしれません。


 書いたコードは、ここからダウンロードできるようにしておきます。

全てのデジカメをリアル妄撮カメラにしてしまう狂気!無線LAN内蔵SDカードアダプタPQI Air Cardと機械学習の間違った使い方全てのデジカメをリアル妄撮カメラにしてしまう狂気!無線LAN内蔵SDカードアダプタPQI Air Cardと機械学習の間違った使い方全てのデジカメをリアル妄撮カメラにしてしまう狂気!無線LAN内蔵SDカードアダプタPQI Air Cardと機械学習の間違った使い方全てのデジカメをリアル妄撮カメラにしてしまう狂気!無線LAN内蔵SDカードアダプタPQI Air Cardと機械学習の間違った使い方






2017-05-30[n年前へ]

機械学習による姿勢推定openposeで「妄撮カメラ iOS版(ネイティブアプリ)」を作ってみる!?  share on Tumblr 

 10日くらい前、機械学習により画像に写る人体の姿勢を推定するアルゴリズム(コード)のopenposeを使い、画像に写る人の衣服を妄想的に脱がす画像処理ソフトを作ってみました(ディープラーニングによる姿勢推定openposeで「男子の夢な(衣服の下を透視する)妄撮カメラ」を作ってみよう!?)。そして、先週末は、そのソフトをiPhoneから自由自在に使うことができるように(カメラを備えたクライアントiPhone側と機械学習や画像処理を行うサーバ側双方の)Pythonコードを書いてみました(ディープラーニング姿勢推定openposeで「妄撮カメラ iOS版」を作ってみる!?)。

 書いたPythonコードはここに置いておきます。下記2ファイルのうち、前者がサーバ側ファイルで、後者がiOSアプリたるPythonistaコードです。前者は jupyter notebook ファイルなので、jupyterからコードを実行すると、8080ポートでopenposeを使った妄撮(姿勢推定・類似姿勢検索・画像合成)サービスが起動します。そして、後者がiOS上で動くPython(Pythonista)で実装した、妄撮サーバ機能を使うことができるカメラアプリコードです。

  1. boysCamera.ipynb.20170530
  2. boysCamera.py.20170530

 とはいえ、これだけでは先週末に書いたコードをアップロードしただけ…ということになってしまうので、今日はPythonistaコードをiOS用ネイティブアプリケーションにする方法についても書いておきます。

 まずは、Pythonista用のXcodeプロジェクトをダウンロードします。そして、プロジェクト中の main.py に自分が書いたiOS用Python(Pythonista)コードを貼り付けます。そして、Xcodeでプロジェクトをビルドした上で、ビルドされたアプリケーションをiOSデバイスに転送すると、iOSデバイス上でネイティブアプリケーションとして妄撮カメラを使うことができるようになります。

 …というわけで、ネイティブにビルドした妄撮カメラアプリケーションを使って、中二男子大好きな妄想撮影をしてみたようすが、下に貼り付けた動画です。深夜ドラマだった懐かしの「トリック」主人公の姿さえ、透撮できてしまうことに驚きます。

 試してみると強烈に実感しますが、現実世界と妄想世界を(中二男子的に)重ね合わせる「妄撮カメラ」アプリケーションは、実に強烈なMR/ARアプリケーションです。…こうしたアプリケーション、ライセンス的に誰もが使用可能なデータベースやソフトウェアコードを書けば、(中二男子に限って言えば)世界を変えるキラーアプリケーションになるかも!と思ったり思わなかったりします。

2017-05-28[n年前へ]

ディープラーニング姿勢推定openposeで「妄撮カメラ iOS版」を作ってみる!?  share on Tumblr 

 ディープラーニングによる姿勢推定openposeで「男子の夢な(衣服の下を透視する)妄撮カメラ」を作ってみよう!?で書いたコードを元にして、画像をhttpでPOSTすると(httpサーバ側で)姿勢推定を行い、画像に写る人の「服の下が透けて見える妄想映像」を自動生成する画像処理を行って、httpクライアントに妄想撮影画像を返すサーバ側コードを書き、さらに(iOS上でPythonを使うことができるようにするPythonistaを使い)iPhone上でカメラ撮影をすると、自動的に妄撮画像を生成するアプリコードを書くことで、手元のiPhoneを「妄撮カメラ」に仕立ててみました。

 試しに、妄撮カメラ(iPhone Pythonista版)を動かしてみたようすが、下に貼り付けた動画です。こういうカメラ、20世紀後半に中2くらいだった男子には需要がありそうな気がするのですが、草食男子化とコンプライアンスという言葉が流行る21世紀の今日この頃には、全く需要も無い気がする今日この頃です。

 ちなみに、今や一人一台持ち歩くスマホでなく、現代の化石たるコンパクトデジカメを(メーカ・機種問わず)全て妄撮カメラしてしまう無線LAN SDカードPQI Air内部で動くRubyコードも書いてみたのですが、なぜか思ったように動かなくて悩んでいます。

 何はともあれ、勢いで書いたサーバ側コードとPythonistaコードは、中2男子以外の誰の役に立つことも120%無い気がしますが、明日にでもダウンロードできるようにしておこうと思います。


 機械学習/ディープラーニングによる姿勢推定アルゴリズム/コードのopenposeを使った「妄撮カメラ」について、 サーバ/クライアントPythonコードをダウンロード可能にして、iOS用ネイティブアプリ作成方法も書いて起きました。( 機械学習による姿勢推定openposeで「妄撮カメラ iOS版(ネイティブアプリ)」を作ってみる!?

2017-05-20[n年前へ]

スマホ(BLE)から動かせる街中スナップ用の(Ricoh Theta用)自動制御アームで特殊映像を撮ってみる  share on Tumblr 

スマホ(BLE)から動かせる街中スナップ用の(Ricoh Theta S用)2軸自動制御アームを作ってみる」を南国バンコクに持ち込んで、この撮影機材をリュックの中に詰め込んで、自転車で街中をウロウロしながら特殊撮影をしてみました。特殊撮影というのはどういうことかというと、異なるたくさんの視点から撮影した全周画像をもとに3次元空間を再現したり、その3次元空間に光が注ぐ世界の中を歩いてみたり…という実験です。

 リュックから大型三脚とBLE経由制御の駆動ユニットを組み立てて、Ricoh Theta Sを取り付けるまで、慣れれば1分で完了します。そして、バンコクの通りに立てた特殊機材の近くから、iPhone 経由で駆動制御と撮影をしてやるのです。数十枚〜百枚弱の撮影をおよそ5分弱の間に行うのです。

 そんな撮影をしたら、カメラの周りに存在した3次元空間を再現するための計算をCPUとGPUをぶん回し行います。あるいは、そんな世界に差し込む光や反射する光をガウス的に捉え再現するための計算を、やはりCPU・GPUをぶん回して行うのです。…そんなことをするこで、色んな映像を作り出すことができます。

 たとえば、下の動画はBTS(バンコク中央部を走る高架鉄道)のスラサック駅近くにある、中華系の墓地の Tae Chew Association of Thailand で撮影した72枚の全円周な画像群から生成した3次元映像です。この動画では3次元空間を1方向に向かい眺めているだけですが、再現されたデータ世界の中では、「一応」すべての方向に向かう風景が生成されています。

 といっても、こんな映像はとてもチープなのもまた確かです。けれど、そんな撮影画像であっても、「もう二度と見ることができない今の時代を撮影した」データであるような気もする…ので、こんな変な撮影を色々してみて残していこうかな、と思います。

スマホ(BLE)から動かせる街中スナップ用の(Ricoh Theta用)自動制御アームで特殊映像を撮ってみるスマホ(BLE)から動かせる街中スナップ用の(Ricoh Theta用)自動制御アームで特殊映像を撮ってみる






2017-05-18[n年前へ]

ディープラーニングによる姿勢推定openposeで「男子の夢な(衣服の下を透視する)妄撮カメラ」を作ってみよう!?  share on Tumblr 

 ディープラーニングによる単眼画像からの人物姿勢推定を行うコード OpenPose が公開されました。公開されたコードを使うと、画像ファイルや動画、あるいはWEBカメラで撮影された画像などを入力として、そこに写る人の姿勢(主要な関節の位置など)を推定することができます。姿勢推定の品質もなかなか素晴らしく、画像に写る人の姿勢が見事に写し出されます。

 画像から、人物の姿勢推定を簡単にできる…となると、「中二男子の夢的なこと」「あの頃夢見た妄想」をやってみたくなります。つまり、女の子の服の下をひたすら妄想し、その下の姿を透視する男子の夢の実現です。

可愛い女の子の服の下はどんなだろう……?そんな中学男子マインドを持ち続けたまま大人になった男たちへ。
妄撮

 手順はそれほど難しくありません。少なくとも、男子禁制の世界を手に入れる夢に向かう力があれば、実際のところとても簡単です。

 まず、google画像検索から任意のキーワードで画像を収集することができるgoogliser.shなどで、自由自在な「あなたのお好みスタイルに沿った人物姿勢画像」をダウンロードします。たとえば、下の例であれば、少し胸が大きめな立ち姿勢の(そして生まれたままの姿の)人物画像が集まります。もちろん、「どちらかと下着くらいは着ていて欲しいんだボクは」というのであれば、そうした検索語句でコマンドを走らせれば一発です。

./googliser.sh --phrase "naked body boobs" --title 'nakedBodyBoobs' --upper-size 900000 --lower-size 2000 --failures 40 --number 100 --retries 3
 次に、肝心要の「妄想したい画像」も用意しておきましょう。すべては、衣服の下に隠されたその姿を透視するためなのですから、その画像は何より一番大切です(好みに合わせてね)。

 そして、openpose を使えるようにした上で姿勢推定のテストをしてみます。たとえば、下のコマンドのような具合で動かせば、ディレクトリ(sampleImages)に入ってる画像群に写る人の姿勢が、YAML形式でposesディレクトリに生成されるようになります。

./build/examples/openpose/openpose.bin --image_dir sampleImages --write_pose poses/ --write_video result.avi

 ここまで来れば、あとはわずかにコードを書くだけです。妄想・透視したい画像・人物のYAML姿勢ファイルと、Google検索で集めた人物YAMLファイルを読み込み、妄想・透視したい人物の姿勢と類似する(妄想内容に近い)別の人物画像を見つけ出し、それらを中二男子の夢的な画像合成をしてやれば良いわけです。姿勢の類似性は、姿勢の大きさを適当に正規化し、向きも基準の方向を決めた上で、同じ関節どうしの距離を比較する、という具合で良いでしょう。そして、妄撮カメラ用途なら、胴体に近い部分の関節だけを計算に使うので十分でしょう(多分ね)。

 最期に、試しに書いたPython コードで確かめてみた妄想結果が、右上に二枚並べた画像です。男子の多くが夢見た妄想が、機械学習・ディープラーニング力により見事に実現しています。もちろん多少のズレが生じることも少なからずありますが、所詮は妄想、ズレがあっても・中味が全然本人と違っていても、「見えた気になれば良い」のです。

 妄想力だけで書いたコードはここに置いておきます。いつものように、何も考えず書いたコードなので、誰かの役に立つかはわかりませんが、jupyter notebookとpythonコードを置いておきます。また、妄想感度を高めるために、「紙・写真を破った感じで(こういうディティールは妄想満足度をアップさせるのにとても重要です)、その下の姿と画像合成する」処理を行うpythonコード中からマスク画像を読み込んでいます。その部分は、たとえば右に貼り付けたような画像を使えば良いかと思います。

 何はともあれ、妄想こそが発明の親。「こんなこといいな、できたらいいな」と思ったら、その瞬間に男の子は誰もがドラえもんになることができるのです。未来を描くのは、全てがいつも妄想です。
 というわけで、「こんな娘がいいな、見えたらいいな」と心の中のドラえもんに念じたことがあるボクら全員のために、機械の力と妄想力をフルに使い、ディープラーニングによる姿勢推定openposeで「男子の夢な妄撮カメラ」を作ってみました。

こんな娘がいいな、見えたらいいな。
あんな夢、こんな夢、一杯あるけど…
みんなみんなみんな、叶えてくれる、
深層学習が叶えてくれる。


 この後、妄撮カメラをサーバ側で実行するPythonコードと(Pythonistaで)iOS側コードを書き、iPhoneが妄撮カメラになりました。( ディープラーニングによる姿勢推定openposeで「男子の夢な(衣服の下を透視する)妄撮カメラ」を作ってみよう!?

 さらに、機械学習/ディープラーニングによる姿勢推定アルゴリズム/コードのopenposeを使った「妄撮カメラ」について、 サーバ/クライアントPythonコードをダウンロード可能にして、iOS用ネイティブアプリ作成方法も書いて起きました。( 機械学習による姿勢推定openposeで「妄撮カメラ iOS版(ネイティブアプリ)」を作ってみる!?

ディープラーニングによる姿勢推定openposeで「男子の夢な妄撮カメラ」を作ってみよう!?ディープラーニングによる姿勢推定openposeで「男子の夢な妄撮カメラ」を作ってみよう!?ディープラーニングによる姿勢推定openposeで「男子の夢な妄撮カメラ」を作ってみよう!?ディープラーニングによる姿勢推定openposeで「男子の夢な妄撮カメラ」を作ってみよう!?






2017-04-30[n年前へ]

スマホ(BLE)から動かせる街中スナップ用の(Ricoh Theta S用)2軸自動制御アームを作ってみる。  share on Tumblr 

 先週、Ricoh Theta用の極座標自動アームを作った。それを旅先で持ち歩き・街中で2軸アームを 動かしつつ気軽なスナップ写真を撮るために、今日は「ステージ制御をスマホ(iPhone)からできる」ようにしてみました。作戦は、iPhoneとアーム制御ボード間をBluetooth(BLE)で繋ぎ、iPhone上で動くPython環境(Pythonista)から制御アームとRicoh Theta Sを同期制御するという仕組みです。

 先週組んだアームはMakeblockのパーツを使っているので、その制御に使ってる(Makeblock製の)ArduinoボードにBluetooth I/Fを繋ぎ、ドキュメントとiOSアプリのLightBlue Explorerで制御ボードにアクセスしてみると、servicesのFFE1中にあるcharacteristics FFE3 に書き込みを行えば、制御ボードに情報を渡すことができることがわかります。…というわけで、「iPad + Pythonista(iOSで動くPython) + BLEで、Genuino101のLチカをしてみた。」を参考に、Makeblock(Arduino UNO)ボードに(適当に俺ルールで決めた5byte一組の)コマンドをiPhone(Pythonista)から送りつけ、そのコマンドをもとに2軸アームを動かしてみることにしました。

 というわけで、スマホから制御できる「Ricoh Theta S+制御アーム」を持ち歩き、山道で撮影した(円筒表面上の48枚の)画像から、試しに生成してみたた3次元風景が下の動画です。Ricoh Theta S自体は、全天周撮影を行うカメラですが、それを閉曲面状の複数点で撮影することで、3次元な全天周世界を復元したり、周囲の見た目を再現したり(ライトフィールド)することができます。

 ちなみに、iOS Pythonista ( Python ) からの制御コードは、上記参考コードをもとにして、たとえば下のような感じにしています。

    def did_discover_services(self, p, error):
        for s in p.services:
            print(s.uuid)
            if 'FFE1' in s.uuid:
                p.discover_characteristics(s)

    def did_discover_characteristics(self, s, error):
        if 'FFE1' in s.uuid:
            for c in s.characteristics:
            if 'FFE3' in c.uuid:
                 self.myProcedureWithTheta(c)
その上で、(上記コードのmyProcedureWithThetaとしたような部分で)適当なコマンドや値をMakeblock Arduinoボードに渡す(そしてその情報をもとにアームのモータなどを動かす)ことで、持ち歩き用の自動制御アーム付き三脚のできあがり!というわけです。
self.peripheral.write_characteristic_value(
        c, cmd, False)
self.peripheral.write_characteristic_value(
        c, bytes([step]), False)

スマホから動かせる街中スナップ用の(Ricoh Theta S用)2軸自動制御アームを作ってみる。スマホから動かせる街中スナップ用の(Ricoh Theta S用)2軸自動制御アームを作ってみる。スマホから動かせる街中スナップ用の(Ricoh Theta S用)2軸自動制御アームを作ってみる。






2017-04-23[n年前へ]

Ricoh Theta用の極座標自動ステージを作ってみよう!(その心は、どちらもRなθと解きます)  share on Tumblr 

 これまで、今や誰もが持ち歩いているスマホを使った手持ち移動撮影で、大径レンズを取り付けたカメラにような画像を作り出してみたり(「手持ちスマホ撮影動画からの超巨大開口レンズ撮影」に挑戦してみよう!? )、あるいは、全天周を撮影することができるRicoh Theta Sカメラを使って、ありとあらゆる情報を手に入れてみようと遊んでみたりしてきました(Ricoh ThetaSで全天周/HDR/立体動画の撮影に挑戦してみるRicoh Theta S 撮影動画で3次元の世界を撮影してみよう!?)。

 今日は、それらの続きをやってみよう!というわけで、全天周カメラRicoh Theta用の極座標自動ステージを作って、いくつかの撮影&後処理を行ってみました。

 まず、左下は試行錯誤的に作っている(途中の)自動制御ステージです。ステージを動かして違う場所から撮影した写真を使えば、もちろん立体的な映像を作り出すことができます。…というわけで、試しに作った立体視用画像が右下の画像です。

 2つの視点から見た映像を並べれば立体的な映像を感じることができるのと同様に、複数視点からの撮影画像を解析すれば、立体的な世界を再現することができます。…というわけで、自動制御ステージに載せたTheta Sで撮影した画像から生成してみた3次元映像が、下に貼り付けた動画です。

 …と、Ricoh Theta用の極座標自動ステージを作りながら、ふとと気付いたことがあります。それは、もしかしたら、あまり目的思考がなく、Ricoh Thetaを使ったRθな極座標系ステージを作ってみたかっただけかもしれない…ということです。(その心は、どちらもRなθと解きます)

Ricoh Theta用の極座標自動ステージを作ってみよう!(その心は、どちらもRなθと解きます)Ricoh Theta用の極座標自動ステージを作ってみよう!(その心は、どちらもRなθと解きます)http://www.hirax.net/diaryweb/2017/04/23.html#10975http://www.hirax.net/diaryweb/2017/04/23.html#10975http://www.hirax.net/diaryweb/2017/04/23.html#10975






2017-04-18[n年前へ]

たった2枚のスマホ写真から、自動でリアルなCG素材を作ってみよう!?  share on Tumblr 

 スマホを使って、(スマホ付属のライト点灯有無による)2枚の撮影画像から対象物の素材情報(反射特性や凹凸分布)をキャプチャする研究があります。原理は単純で、一般的に照明光が方向性を持つ普通の環境下で撮影した写真からは、同じ方向を向く領域が抽出できるし、照明ライトを点けた写真からは、(撮影画像内の各領域に対する)照明方向と撮影方向がわかるので、それらを組み合わせると、色んな情報がわかるよね!という内容です。…その研究内容が、最近NVIDIAサイトで最近WEBサービス(Photo To Material: 2shot)化されました。

 これは面白そう!というわけで、使ってみた結果が下のようになります。左2枚の写真が、黒皮的な素材をスマホで撮影した画像で、右の画像がWEBサービス(Photo To Material: 2shot)で生成された素材データを使ってCGレンダリングした画像です。…わかりにくいかもしれませんが、たった2枚のスマホ撮影画像から、対象物の色や3次元形状などが得られていることがわかります。

 ためしに、畳をスマホで撮影して・その撮影画像から生成した素材データを使ってCGレンダリングを行ってみると、下の画像のようになります。…わかりにくいかもしれませんが、3次元情報や色やさまざまな情報が得られていることがわかります。

 処理可能な撮影対象は、(規則的である必要は無いのですが)似たような模様が繰り返されているパターンに限られます。けれど、目の前にある素材を「記録」して「CGなどで使ってみたくなる」ことも多い…かもしれません。そんな時、このNVIDIAのサービスはとても役立つに違いない!というわけで、もう少し遊んでみようと思います。

スマホ写真からリアルなCG素材を作ってみよう!?スマホ写真からリアルなCG素材を作ってみよう!?スマホ写真からリアルなCG素材を作ってみよう!?






2017-04-15[n年前へ]

続 OpenFOAMの流体シミュレーション世界、手持ちのスマホで没入体験してみよう!  share on Tumblr 

 少し前、大規模な流体計算シミュレーションを行った結果の中に、スマホをVRデバイスとして入り込む…というOpenFOAMの流体シミュレーション世界、手持ちのスマホで没入体験してみよう!(を書いた。これを作るにいたったキッカケは、「秋葉原の街中全体を空気流計算するのは面白い」「けれど、ふつうの人が持ってないヘッドマウントディスプレイだけでしか見ることができないのはツマラナイ!」「空気流れる空に向かって飛んでみたい!」というコメントをもらったことだった。

 このコメントは確かにその通りだ。1家に1台…ならぬ今や1人1台誰もが持っているスマホを使って流体シミュレーション世界に入り込む(没入体験する)ことができたなら、それは確かにとても面白いに違いない!というわけで、流体シミュレーション世界にスマホを使って没入体験するための作業をしてみたのです。

 「秋葉原の街中全体を空気流計算するのは面白いけれど、ふつうの人が持ってないヘッドマウントディスプレイだけでしか見ることができないのはツマラナイ!」というコメントがもっともなのと同じように、「空気流れる空に向かって飛んでみたい!」というコメントも、確かにその通りとしか言いようがありません。

 …というわけで、今日はその「空気流の中を飛び回りたい」という要望もに応えるための対応作業をしてみました。

 そんな作業をしてみたら、偶然というものは恐ろしいもので、まさに今日は『第64回オープンCAE勉強会@関東(流体など)』が会場【秋葉原】で開催されています。

 秋葉原を流れる空気を流体計算し、その場所に立ちVR/AR的に流体計算結果を眺めることができて、その秋葉原で今日まさに流体計算の集いが開かれている!?…というわけで、スマホで秋葉原空気流のVR表示を行う話を、今日は秋葉原で紹介してみました。

2017-04-08[n年前へ]

2人で対決する「決闘」、自分が生き残る確率は50パーセントで正しいか?  share on Tumblr 

 2人が対決する決闘、生き残る確率と殺される確率、一体何パーセント?…この確率問題が意外に興味深かったので、『2人で対決する「決闘」、自分が生き残る確率は50パーセントで正しいか?』を書いてみる。

2017-04-07[n年前へ]

OpenFOAMの流体シミュレーション世界、手持ちのスマホで没入体験してみよう!  share on Tumblr 

 以前、OpenFOAMを使ってシミュレーション計算した、秋葉原の街全体に吹く空気流。その時は、Oculusで没入的に眺めてみた。今日は、スマホで普通にVR没入体験できるよう、スマホ用アプリケーション化してみた。

 最初は、最近公開されたばかりのUnity 5.6のネイティブなVR機器サポートを使おうと思ったのだけれど、iOS向けのビルドでリンカエラーが出て回避できなかったので、Unity 5.5.3f1+Google VR SDK for Unity v1.0.3で仕立ててみました。

OpenFOAMの流体シミュレーション世界にスマホで没入体験