hirax.net::Keywords::「機械学習」のブログ



2013-04-08[n年前へ]

各種条件から家賃を推測するRubyスクリプト  share on Tumblr 

 「駅からの距離、専有面積、築年数 等の条件から家賃を推測します」という機械学習データ・サーバやRubyスクリプト

面積(m^2) -> 19.9
駅からの距離(分) -> 2
築年 -> 22
階数(階) -> 4
向き(N/NE/E/SE/S/SW/W/NW) -> W
推定家賃 5.44 万円/月

2014-07-21[n年前へ]

小保方さんの顔とオアシズ大久保佳代子さんの顔を機械学習で識別してみよう!?  share on Tumblr 

 Mathematica 10で機械学習関連機能が数多く追加されたというので、 小保方さんの顔とオアシズ大久保佳代子さんの顔をGoogle画像検索結果で学習させて識別器を作ってみました。作った識別器に、いくつか画像を入れてみたら、本当はオアシズ大久保佳代子さんのはずの画像(一番最後の画像)が「小保方さんです!」と判定されちゃった(他の画像は当たってたけど)。…意外に、小保方さんがおじさん的な仮想したら、こんな感じになったりするのかもしれません。

 小保方さんは、キャラがものすごく立ったタレントだと思います。そして、そういうキャラというのは、多くの場合、それを眺める人の指向や傾向や存在意義への認識を絶妙に映し出す鏡だったりする気がします。…だから、こんなキャラが気になってしまったり・クローズアップしてしまうのは、何だかちょっとマズイのかも…と思ったりします。(関連記事:「テレビニュース」=「私たち自身」


 ちなみに、(小保方さんの顔とオアシズ大久保佳代子さんの顔の機械学習識別に失敗したので)重盛さと美さんと小保方さんの識別イコール阿保方判別器も作ってみました。…結果は正解率50%、つまり、全然区別することができませんでした。

小保方さんの顔とオアシズ大久保佳代子さんの顔を機械学習で識別してみよう!? 小保方さんの顔とオアシズ大久保佳代子さんの顔を機械学習で識別してみよう!? 






2015-12-31[n年前へ]

コンボリューション・ニューラル・ネットワーク(CNN)を使って「要素判別」してみよう!?  share on Tumblr 

 コンボリューション・ニューラル・ネットワーク(CNN)を使った画像分類で、「アイドル・アダルトビデオ女優・演技派女優・女芸人」というGoogleキーワード検索で得られた顔画像を教師画像にしてトレーニングして、顔画像から「アイドル・アダルトビデオ女優・セクシー女優・演技派女優・女芸人」の度合いを示す機械学習をさくせてみました。

 学習させた後に、いずれも好きな「薬師丸ひろ子・仲間由紀恵・イモトアヤコ・夏目三久」を、評価コードに流し込んでみると、

  1. 薬師丸ひろ子=アイドル
  2. 仲間由紀=アイドル
  3. イモトアヤコ=女芸人
  4. 夏目三久=アダルトビデオ女優
になった。 …一体、アンドロイドは何を根拠にイモトを芸人と分類し、どんな基準で(角川で活躍していた)薬師丸ひろ子をアイドルと分類したノだろうか?つまりは、一体どんな学習をしたのだろう…。*


*ちなみに、おかずクラブのゆいP顔画像を判定させると、「セクシー女優」となりました。…納得できるような、納得できないような…。

コンボリューション・ニューラル・ネットワーク(CNN)を使って「要素判別」してみよう!?コンボリューション・ニューラル・ネットワーク(CNN)を使って「要素判別」してみよう!?コンボリューション・ニューラル・ネットワーク(CNN)を使って「要素判別」してみよう!?コンボリューション・ニューラル・ネットワーク(CNN)を使って「要素判別」してみよう!?






2016-01-18[n年前へ]

「坂本龍馬」の白黒写真を機械学習でカラフルに眺めてみよう!?  share on Tumblr 

 CNN(Convolution Neural Network)機械学習による自動彩色(Google発のtensorFlowで実装した Automatic Colorization)に、約150年前に撮影された江戸時代末期の土佐藩志士「坂本龍馬」の白黒写真を入力させてみました。その結果得られた画像は、カラフルで生き生きとした…けれど少し昔の青年の顔です。(添付画像は彩度を上げたもの)

 色情報を全く含まないはずの白黒フィルムに焼き込まれた風景や人の姿を、今やカラフルに「それっぽく」眺めることも簡単な時代です。たとえば、歴史の教科書に載っていたような白黒写真で覚えた人たちや風景を、カラフルに眺めてみるのも面白いような気がします。

 そしてまた、こうした機械学習による「自動彩色」の例を眺めていると(たとえば自動彩色した「七人の侍」など)、手作業で行う最適化の苦労なんて、もう20年近く前に終わったはずの20世紀に置いてこないとダメな過去の遺物なんだった…ということを強く意識させられます。

「坂本龍馬」の白黒写真を機械学習でカラフルに眺めてみよう!?「坂本龍馬」の白黒写真を機械学習でカラフルに眺めてみよう!?






2017-10-27[n年前へ]

スマホの1ショット撮影でHDR(ハイダイナミックレンジ)画像を作り出してみる!?  share on Tumblr 

 機械学習を使った「単一露光画像からのHDR(ハイダイナミックレンジ)画像生成」の Paper PDF が出ていて、プロジェクトページ には Tensorflow / Pythonによるコードが公開されていた。

 そこで、まずは iPhone 6s で撮影した1ショット RAW(DNG)画像(右)から、詳細がわかるように…というかGPUメモリが許す画像サイズに切り抜いた上で、HDR画像を生成してみました。それが下の結果です。下左側画像が(1ショット単一露光画像)入力画像で、下右側が機械学習が出力したHDR画像です。相対的に明るすぎて白飛びしている箇所が、それっぽくHDR生成されていることがわかります。

 最近のスマホなら、高速連写機能を使ったHDR撮影が普通にできる時代です。とはいえ、動画撮影をするときは、そんなHDR処理が働かないもの。…ということは、撮影した「動画」が白飛びしていたりしたら、こんな機械学習による単一露光条件動画からのHDR動画を作り出してみるのも良いかもしれません。

 ところで、下に貼り付けた画像は、全天周カメラ Ricoh Theta で撮影した単一露光条件の低解像度画像から生成してみたHDR画像です。…こうした全天周画像に対して機械学習で使われるCNN(Convolutional Neural Network)処理を掛けようとすると、XY座標系の2次元画像ではなく、曲率を持つ球表面に適用可能なCNN画像処理を掛けたくなります。…そんな全天周画像処理を探す旅に出たくなります。

スマホの1ショット撮影でHDR(ハイダイナミックレンジ)画像を作り出してみる!?スマホの1ショット撮影でHDR(ハイダイナミックレンジ)画像を作り出してみる!?スマホの1ショット撮影でHDR(ハイダイナミックレンジ)画像を作り出してみる!?スマホの1ショット撮影でHDR(ハイダイナミックレンジ)画像を作り出してみる!?スマホの1ショット撮影でHDR(ハイダイナミックレンジ)画像を作り出してみる!?








■Powered by yagm.net