hirax.net::Keywords::「平均」のブログ



1999-01-08[n年前へ]

2項分布のムラについて考える 

 今回は、分散について考えたい。確率統計というのは感覚的に分かりにくい。ある確率分布が合った時に、その分布が人間にとって均一であると感じるのはどういうことなのか、ということについて考えてみる。


 今回の目的を説明するために、少し準備を行う。
 まず、2048個の[ランダムに0から256の値を持つもの]からなる1次元データを作成する。以下の左図がそのデータである。ここで、X軸がデータの順番であり、1から2048までを示し、Y軸がデータの値である。Y軸の数値ラベルは0から256の値である。折れ線グラフの方が1次元データとして実感できるのだが、そうすると真っ黒になってしまうので、点プロットグラフにしてある。
 また、[0から256]のデータの出現頻度のグラフ(つまりヒストグラム)を右の図として示す。

作成した1次元データ(左図)、とそのヒストグラム(右図)
 右のヒストグラムを見てもわかるが、2048個程度のデータでは出現頻度がフラットになるわけではない。また、その出現領域は均等にばらけるわけではない。また、左のグラフを見てみても、なにかムラがあるように感じてしまう。
 右のグラフを見ると、下は2回から上は15回位の間で出現頻度がばらついている。その頻度のムラは分散として計算することができる。今回の場合は2項分布である。

 今回の目的は、そのムラを考えることである。広い範囲で見たときには、どの程度フラットだろうか。例えば、最初の100個のデータの平均と、次の100個のデータの平均というのはどの程度同じだろうか。それが1000個ならどうだろうか。1000個平均してみても場所によって、平均値はばらついているだろうか。もし、ばらついているとしたら、2項分布の確率過程を導入すると、広い範囲で見てみても認識できるくらいのばらつきを導入していることになる。その「ばらつき=ムラ」を人間が感じないためには、どの程度まで平均しなければならないのか。そういったことである。

 ここで、先の2048個の1次元データは2048dpiの1次元画像データである、ということにしてみる。したがって、X軸の領域はトータル1inchを示すことになる。そして、以下の作業をする。

  1. 2048dpiの1次元画像データを2値化(128でしきい値とした)したものを8個に分断する。
  2. それぞれ、分断したデータ(256個)内で平均を取る。そなわち、8ppi(pixelper inch)の1次元データができる。
その1次元画像データを左下に示す。また、その8個のデータでヒストグラムを右下に示す。
8ppiへと変換した1次元データ(左図)、そのヒストグラム(右図)
 右のヒストグラムを見ると8ppiに直した段階でもまだばらつきがあることがわかる。110-135位の間でばらついている。中心値128のデータにして振れが25程度ということは、シグナルに対して20%弱のノイズが発生していることになる。8ppiでシグナルに対して20%程度の揺れがあれば、人間が認識してしまう領域だろう。これは2項分布という偏りを導入した結果である。256個で平均してみてもこれほど偏りが残っている。

 すると、2048dpiの(1/2の確率で2値化された)データというものは、今回の目的である「ムラを感じないための条件」を満たしていないということになる。ここでは画像に例えているが、別に画像だけの話ではない。

 それでは、いくつか条件を振ってみたい。各々の条件下で示すグラフの領域は以下を示す。

図の領域の説明
オリジナルの1次元データ左のヒストグラム。条件違いで軸が揃ってないのに注意。
8ppiに変換したもの
Y軸はいずれも相対値であることに注意。Max=256と読み直す。
左のヒストグラム
X軸はいずれも相対値であることに注意。Max=256と読み直す。
2048dpi
オリジナルの1次元データ左のヒストグラム
8ppiに変換したもの左のヒストグラム
 これでは、ばらついている。
4096dpi
オリジナルの1次元データ左のヒストグラム
8ppiに変換したもの左のヒストグラム
 512個で平均している。かなり、平滑になった。
8192dpi
オリジナルの1次元データ左のヒストグラム
8ppiに変換したもの左のヒストグラム
 どうだろうか。まだ、十分ではないかもしれないが、最初に比べればずいぶんと良いのが判ると思う。2項分布の分布がシャープになるためである。1024個で平均をとってやっとこの程度のばらつきになる。ここでは、全て8ppiで評価しているが、本来もっと高い周波数で評価すべきだろう。その時にはオリジナル画像は8192dpiでは不十分だろう。なお、オリジナルの1次元データのヒストグラムの鉛直軸が揃っていなので、一見データ数が増えてもヒストグラムが変化していないように見えるが、きちんと見てみると(数字ラベルが変な風にずれていて見にくいが...)データ数が多い方がヒストグラムがフラットなのがわかる。


 上の右下で出ているようなヒストグラムが2項分布であることは、サンプルを多く(しかし、試行回数を少なく)すればよくわかる。例えば、このようになる。

 関係ないが、この時に使った40960個のオリジナルデータのヒストグラムが以下である。かなりフラットである。このヒストグラムの軸を揃えるのを忘れたのは要反省だ。見にくいが、鉛直軸は140-200の領域になっている。



 今回の話はあることの前準備なので、これだけでは話しが全く見えないかもしれない。というわけで、

続く...

1999-01-10[n年前へ]

宇宙人はどこにいる? 

画像復元を勉強してみたい その1

 知人から「自称UFO写真」というのものが冗談半分(いや100%位か)で送られてきた。その写真はボケボケの画像なので何がなんだかなんだかわからない。そこで、ぼけぼけ画像を復元する方法を勉強してみたい。UFOは冗談として、画像復元において進んでいるのは天文分野である。そこで、このようなタイトルなのである。もちろん、画像復元の問題は奥が深すぎるので、じっくりと時間をかけてみる。今回はMathematicaを使って試行錯誤を行った。

 ボケ画像を復元するには、ボケ画像がどのように出来ているかを考えなければならない。そこで、ごく単純なぼけ画像を考えてみる。まずは以下の画像のような場合である。

左の点画像が右のようにボケる
画像:1
画像:2
 右の点画像が何らかの理由で右の画像のようにボケる場合だ。焦点のボケた写真などはこんな感じだろう。例えば、これはレンズの焦点合わせがおかしいカメラの画像だと思ってみる。そのカメラで風景を撮るとこのようになる。
本来、左のような風景がボケて右の写真のようになる。
画像:3
画像:4
 偶然、写真にカメラが写っているが、偶然である。別にそのカメラが焦点がボケボケといっているわけではない。今回、やりたいことは右上の写真(画像:4)を元に、左上の写真(画像:3)を復元したいということである。

 画像:1のような点画像が、画像:2のような分布のボケ画像になるとすると、次のような関係が成り立つ。

(式:1) 画像:4 = 画像:3 * 画像:2

画像:1のような点画像が画像:2になるなら、それを参照すれば、画像:3のような点画像の集合がどう
ボケるかは計算できる。つまり、それが画像:4になる。ここで、*はコンボリューションを表している。
 よくある信号処理の話で言えば、画像:2はインパルス応答である。といっても、これはごくごく単純な場合(線形シフトインバリアントとかいろいろ条件がある)の話である。まずはそういう簡単な場合から始めてみる。

 このようなごく単純な場合には

(式:2) 画像:3 = 画像:4 * (1/画像:2)

とすれば、画像:3を復元できることになる。

そこで、まずは単純な1次元データで考える。下の画像:5のようにボケる場合を考える。ここでは、ガウス分布にボケるようにしてある。

赤い線で表したパルスデータが水色で表した分布にボケる
画像:5
(式:1より) ボケ画像 = オリジナル画像 * ボケ具合
であったが、* すなわち、コンボリューションは
逆フーリエ変換(フーリエ変換(オリジナル画像) x フーリエ変換(ボケ具合))
と表すことができる。つまり、周波数領域で掛け算をすれば良いわけである。
左がボケ画像、右がその周波数領域(フーリエ変換)
画像:6
画像:7
 右のボケ画像の周波数表示を見れば低周波数の量が多いのがわかる。結局、このモデルではボケると低周波数を増やすことになる。逆に(式:2)では高周波数の量を増やすことに相当する。だから、Photoshopなどの「シャープ」というプラグインはラプラシアンを用いて、高周波を増やしてやることでボケ低減を行っている。それほど、不自然ではない。しかし、そう近い画像復元ができるわけでもない。

 それでは、試しに適当な1次元データをつくって、画像:6とコンボリューションをとってやり、ボケさせてみる。

左が原画像、右が画像:6と画像:8のコンボリューションをとったボケ画像
画像:8
画像:9
 画像:8のパルスデータは、画像:9ではボケてしまい、判別不能である。そこで、

逆フーリエ変換(フーリエ変換(画像:9) / フーリエ変換(画像:7))

= InverseFourier[Fourier[Image8] / Fourier[Image6]]; (*Mathematica*)

とやると、次のデータが得られる。

復元されたデータ
画像:10
 これがインバースフィルターによる画像復元の方法である。FIR(Finite InpulseResponse)フィルタなどだろう。ところで、

(式:2) 画像:3 = 画像:4 * (1/画像:2)

を見るとわかるが、画像:2が周波数領域で0になる点があったりすると、計算することができない。また、0に近いとむやみな高周波数の増幅が行われて使えない。

 そこで、この方法の修正として、ウィーナフィルターなどの最小平均自乗誤差フィルターがある。これにも多くの不自然な条件のもとに計算される(らしい)。しかし、infoseek辺りで探した限りでは、ウィーナフィルターを用いた画像復元の標準であるらしい。

この方法は先の逆変換に対して、次のように変形されたものである。Mathematicaの表記をそのまま貼り付けたのでわかりにくいかもしれない。

Noise ノイズのパワースペクトル
Signal 信号のパワースペクトル
Boke ボケる様子のインパルス応答
Conjugate 複素共役
BokeData ボケ画像
ResData1 計算した復元画像

Boke1 = (Boke^2 + Noise/Signal)/Conjugate[Boke]; (*Mathematica*)
ResData1 = InverseFourier[Fourier[BokeData] / Fourier[Boke1]]; (*Mathematica*)

である。Noise/SignalはS/N比の逆数であるから、SN比の大きいところではインバースフィルターに近づく。また、インバースフィルターの計算不能な点が消えている。

 これを使って復元してみたのが、次のデータである。

ウィーナフィルターを用いた復元
画像:11
 他にも、いろいろ変形っぽいものがあるが、とりあえず、1次元での練習はここまでにして、2次元で画像復元を行ってみる。

 まずは、ボケのフィルター(PSF=PointSpreadFunction(どのようにボケるかを示すもの)、2次元のインパルス応答)である。

ボケのフィルター(インパルス応答)
画像:12
 それでは、画像をボケさせる。右のボケ画像が全体的に暗いのは左とレンジが表示の違うからである。同じレンジにすると真っ白(真ん中辺りはちょっと灰色)になる。
左がオリジナル画像、右はボケた画像
画像:13
画像:14
 それでは、インバースフィルターを用いて画像を復元させてみる。
復元した画像
 うまく再現できている。今回はノイズも混入していないしPSF(PointSpreadFunction)もわかっているのだから、復元できて当然である。他の射影フィルタ、最大エントロピー・フィルタ、一般逆行列法、SVD法等については今回はまだ挑戦してみていない。
 その他線形の画像復元法をいくつか調べたが、ウィーナフィルターやインバースフィルターとほとんど同じような物が(素人目には)多かった。そこで、ウィーナフィルタなどとはやり方がかなり異なるものについて、いずれ挑戦してみたい。

 関係はないが、ウィナーと言えばサイバネティクスが思い浮かんでしまう。当然、ロゲルギストが連想されるわけだが、文庫本か何かで岩波版と中公版の「物理の散歩道」が安く売り出されないのだろうか?売れると思うんだけど。新書版は高すぎる。

 宇宙人はどこにいるか? そういった話は専門家に聞いて欲しい。わからないとは思うが。

................................................................................

 さて、ここからは、1999.01.24に書いている。シンクロニシティとでも言うのか、今回の一週間後の1999.01.17に
日本テレビ系『特命リサーチ200X』で

地球外生命体は存在するのか?( http://www.ntv.co.jp/FERC/research/19990117/f0220.html )

という回があった。何とこの回のコメンテーターは先の専門家と同じなのだ。偶然とは面白いものだ。

1999-03-28[n年前へ]

ハードディスクのエントロピーは増大するか? 

デフラグと突然変異の共通点

fjでKByteの定義(よく言われる話だが)が話題になっていた。「なんで1024Byteが1KByteなんですか」というものである。そのスレッドの中で、

  • 整数値だけでなく、分数値のbitもある
  • 1bitのエントロピーも定義できるはずで、それならハードディスクは結構エントロピーを持つかも
というような記事があった。結局、そのスレッドはすぐに収まってしまったが、とても興味を惹かれたのでもう少し考えてみたい。

 初めに、「整数値だけでなく、分数値のbitもある」という方は簡単である。{0,1}どちらかであるような状態は1bitあれば表現できる。{0,1,2,3}の4通りある状態なら2bitあれば表現できる。{0,1,2,3,4,5,6,7}までなら3bitあればいい。それでは、サイコロのような状態が6通りあるものはどうだろうか? これまでの延長で行くならば、2bitと3bitの中間であることはわかる。2進数の仕組みなどを考えれば、答えをNbitとするならば、2^N=6であるから、log_2 ^6で2.58496bitとなる。2.58496bitあれば表現できるわけだ。

 後の「1bitのエントロピーも定義できるはず」というのはちょっと違うような気もする。そもそもエントロピーの単位にもbitは使われるからだ。しかし、ハードディスクのエントロピーというのはとても面白い考えだと思う。
 そこで、ハードディスクのエントロピーを調べてみたい。

 次のような状態を考えていくことにする。

  1. きれいにハードディスクがフォーマットされている状態。
  2. ハードディスクの内容が画像、テキストファイル、圧縮ファイル、未使用部分に別れる。
  3. その上、フラグメントが生じる。
 今回の計算に用いたMathematicaのNotebookはこれである。

 画像ファイル、テキストファイル、圧縮ファイル、未使用部分を1Byteグレイ画像データとして可視化してみる。

1Byteグレイ画像データとして可視化したもの
8bitグレイ画像
日本語テキストデータ
LZH圧縮ファイル
未使用部分

 ところで、このような可視化をすると、ファイルの種類による差がよくわかる。てんでばらばらに見えるものは冗長性が低いのである。逆に同じ色が続くようなものは冗長性が高い。こうしてみると、LZH圧縮ファイルの冗長性が極めて低いことがよくわかる。逆に日本語テキストデータは冗長性が高い。もちろん、単純な画像はそれ以上である。
 それでは、これらのようなファイルがハードディスクに格納された状態を考える。

  1. きれいにハードディスクがフォーマットされている状態。
  2. ハードディスクの内容が画像、テキストファイル、圧縮ファイル、未使用部分に別れる。
  3. その上、フラグメントが生じる。
をそれぞれ可視化してみる。
ハードディスクの内容を1Byteグレイ画像データとして可視化したもの
未使用ハードディスク
3種類のファイルが格納される
フラグメントが生じた

 横方向の1ライン分を一区画と考える。ハードディスクならセクタといったところか。その区画内でのヒストグラムを計算すると以下のようになる。この図では横方向が0から255までの存在量を示し、縦方向は区画を示している。

ハードディスクの1区画内でヒストグラムを計算したもの
未使用ハードディスク
3種類のファイルが格納される
フラグメントが生じた

 LZH圧縮ファイル部分では0から255までのデータがかなり均等に出現しているのがわかる。日本語テキストデータなどでは出現頻度の高いものが存在しているのがわかる。

 それでは、無記憶情報源(Zero-memory Source)モデルに基づいて、各区画毎のエントロピーを計算してみる。

ハードディスクの1区画内でヒストグラムを計算したもの
未使用ハードディスク
3種類のファイルが格納される
フラグメントが生じた

 これを見ると次のようなことがわかる。

  • 未使用ハードディスクは全区画にわたりエントロピーは0である
  • 3種類のファイルが格納された状態では、それぞれエントロピーの状態が違う。
    • 画像ファイルでは複雑な画像部分がエントロピーが高い
    • 日本語テキストファイル部分は結構エントロピーが高い。
    • LZH圧縮ファイル部分はエントロピーが高い。
  • フラグメントが生じると、トータルではエントロピーが高くなる。
    • しかし、平均的に先のLZH圧縮ファイル部分の状態よりは低い。
 それぞれの状態における、全区画のエントロピーの和を計算してみる。
全区画のエントロピーの和
未使用ハードディスク
0
3種類のファイルが格納される
691.28
フラグメントが生じた
982.139

 というわけで、今回の結論

「ハードディスクのエントロピーは増大する。」


が導き出される。もし、ハードディスクのデフラグメントを行えば、エントロピーは減少することになる。

 こういった情報理論を作り上げた人と言えば、Shannonなのであろうが、Shannonの本が見つからなかったので、今回はWienerの"CYBERNETICS"を下に示す。もう40年位の昔の本ということになる。その流れを汲む「物理の散歩道」などもその時代の本だ。

Wiener "CYBERNETICS"

 生物とエントロピーの関係に初めて言及したのはシュレディンガーだと言う。ハードディスクと同じく、企業や社会の中でもエントロピーは増大するしていくだろう。突然変異(あるいは、ハードディスクで言えばデフラグメント)のような現象が起きて、エントロピーが減少しない限り、熱的死(いや企業や会社であれば画一化、平凡化、そして、衰退だろうか)を迎えてしまうのだろう。

1999-04-26[n年前へ]

WEBページは会社の顔色 

WEBページのカラーを考える 2

 前回は、WEBのレイアウトで企業についての考察を行った。今回はWEBページの色空間を考察してみたい。目的は、企業間あるいは、日本とアメリカ間で使用される色についてなにか差があるか、ということを調べることである。例えば、

  • 日本では万年筆のインクには黒がほぼ使用されるが、アメリカなどでは青が使用されることも多い
  • 日本で二色刷りでは黒と赤だが、アメリカでは黒と青である
とか、そういったことを確かめたいのである。

 まずは、ごく単純なCIE Lab色空間での考察を行いたい。CIE Lab色空間はCIE(Commission Internationale d'Eclairage= 国際照明委員会 )が1976年に推奨した、色空間であり、XYZ表色系を基礎とするものである。知覚的な色差を考えたいので均等色空間であるLab色空間を選んだ。

 まずは、Lab色空間がどんなものかを以下に示す。これは、適当に書いてみたものなので、正確なものではない。もっとわかりやすいものが
http://www.sikiken.co.jp/col/lsab.htm
にある。

Lab色空間
↑L*明るい
/ b*黄色
緑方向←→a* 赤方向
青 /
↓暗い

 それでは、a*b*だけ表示してみる。以下がa*b*色平面である。これも大雑把なイメージ図である。

a*b*色平面
↑b*
→a*

 参考までに、RGBからL*a*b*への変換式を挙げておく。
岡野氏のDigital AstronomyGallery ( http://www.asahi-net.or.jp/~RT6K-OKN/ )
から辿れる蒔田剛氏による第2回CCDカンファレンス「CANP'98」の「デジタル画像と色彩理論の基礎」によれば、

X= 0.412391R + 0.357584G + 0.180481B
Y= 0.212639R + 0.715169G + 0.072192B
Z= 0.019331R + 0.119195G + 0.950532B
ここで使用されているのRGB、およびその際の係数はハイビジョンテレビのRGB色空間だそうだ。

X0 = 0.95045 Y0 = 1.0 Z0 = 1.08892
とすれば、
L= 116(Y/Y0)^0.333 -16 ( Y/Y0 > 0.008856 )
a= 500[ (X/X0)^0.333 - (Y/Y0)^0.333 ]
b= 200[ (Y/Y0)^0.333 - (Z/Z0)^0.333 ]
とできるとある。もちろん、ここで使われる係数などは考えるデバイスにより異なるので、これは単なる一例である。

 それでは、前回に使用した画像についてLab色空間でのヒストグラムを調べてみる。

各WEBページとLab色空間でのヒストグラム
アメリカ版
L*a*b*の平均値/標準偏差
日本版
L*a*b*の平均値/標準偏差
apple
L*201/69.6
a*128/1.82
b*127/3.93
L*228/54.8
a*128/1.82
b*126/6.70
sgi
L*228/49.2
a*128/5.20
b*129/8.49
L*223/55.3
a*129/8.46
b*129.10.4
Kodak
L*37.8/49.9
a*133/9.14
b*138/17.0
L*194/76.4
a*132/14.1
b*132/14.1
Canon
L*163/77.6
a*131/16.2
b*112/21.5
L*207.52.8
a*130/8.56
b*127/11.2
FUJIFILM
L*159/77.1
a*112/25.5
b*145/25.8
L*190/79.2
a*129/6.18
b*121/14.6
Xerox
L*191/80.1
a*140/25.7
b*147/17.8
L*219/38.9
a*132/12.7
b*128/14.5
RICOH
L*228/44.1
a*129/8.81
b*128/10.0
L*289/51.6
a*132/10.2
b*127/10.2

 ここらへんまで、作業をしてくると、今回のやり方は失敗だったことがやっとわかる。WEBのトップページは企業のイメージカラーの影響が強すぎるし、こういった考察には数をかせぐ必要があるので、解析ロボットをつくって、ネットワーク上に放つ必要がある。手作業ではとてもじゃないがやってられない。

 例えば、「WEBのトップページは企業のイメージカラーの影響が強すぎる」というのは

  • Kodakアメリカの黄色
  • FUJIFILMアメリカの緑
  • Xeroxアメリカの赤
  • Canonアメリカの青
などを見ればわかると思う。ただし、こうしてみると全てアメリカ版であることが面白い。日本版よりも、色の使い方が派手なのである。それは、Xerox,FUJIFILM,Canonに関してa*,b*における分散の大きさなどを見れば明らかである。いずれも、日本版よりもアメリカ版の方が大きい、すなわち、派手な色使いをしているのがわかると思う。もしかしたら、ここらへんに文化の違いが出ているのかもしれない。
 ところで、Canonに関しては日本版を見るにイメージカラーは赤のような気がするが、アメリカ版では明らかに青をイメージカラーとしている。これは、Xeroxとの兼ね合いだろうか?

 さて、今回の考察はやり方を間違えたので話が発散してしまった。要反省だ。

1999-05-30[n年前へ]

パーマンのパラドックス 

ボトルネックは何処だ?!

 以前、
ハードディスクのエントロピーは増大するか?- デフラグと突然変異の共通点 - (1999.03.28)
の最後に「突然変異(あるいは、ハードディスクで言えばデフラグメント)のような現象が起きて、エントロピーが減少しない限り、熱的死(いや企業や会社であれば画一化、平凡化、そして、衰退だろうか)を迎えてしまうのだろう。」と書いた時に少し不思議な感じがした。それは、次のような矛盾を感じたのである。

まずは、

  1. 何事につけても、全体としての強さは一番弱いところで決まってしまう。
  2. 全体としての完成度を高くするためには、どこの強さも同じであるのが理想的である。
  3. 従って、全体を構成する部分というものは均質であるのが理想的である。
というのは自然であろう。何事も、一番精度・力の低いところが全体の精度・力を決めるというのは当然である。例えば、一車線の道を考えると、遅い車が一台いれば、全体の速度もその車の速度に従ってしまう。
もし、ビルの鉄骨の一部に弱い所があれば、そこから崩壊が始まり、いずれビルが崩壊することは免れないだろう。
 精度・力が高い所がいくらあろうと、「一番精度・力が低い所の=全体の精度・力」なのである。従って、一番精度・力が低い所を改良するのが全体としての完成度を高めるための唯一の方法である。
 これは、モノであろうが、個人であろうが、グループであろうが同じである。例えば、写真を撮って出力することを考えよう。いくら写真の素材が良くてもカメラマンの腕が悪ければ駄目であるし、写真自体が良くても、写真の出力装置が悪ければ、それもやはり駄目である。そもそも、カメラマンが狙う被写体自体が悪ければ、答えはやはり同じである。
 従って、精度・力を揃えた均質的な状態でなければ良いものは生まれないわけである。

 これと、先の「画一化、平凡化、そして、衰退」すなわち、「画一化は良くない」ということの間に矛盾を感じたわけである。

 しかし、少し考えてみると特に矛盾が無いことがわかる。ロボットを作る場合を考える。

  1. まずは一人で機械系も電気系もソフト部分も自分で作っていた。
  2. ソフト部分がどうも苦手なので、ソフトが得意な友達に手伝ってもらう。
  3. すると、電気系が比較的うまく行かないようだ。
  4. そこで、友達の友達に電気系を手伝ってもらう。
  5. それぞれ得意な部分で力を発揮し、特に弱いところもなくなった。
  6. ロボットの完成だ。
という具合だ。つまり、異なる分野・方法で力を発揮し、なおかつその精度・力が均質であれば理想なわけである。鉄筋コンクリートがその良い例だ。同じ分野で精度・力に差があるものがある時には、その低いほうが全体の力を決めてしまうので駄目である。

 それでは、数学的にふざけたことを考えてみる。といっても、難しく考えるのではなく、中学生でも知っていそうなあの式を使うのである。

 簡単の為にX,Y二つの部品からなるものを考える。それらの単独での精度(あるいは、出力)をx,yとすれば、全体としての精度(あるいは、出力)を考えると、それは(x* y)^(1/2)と置くのが自然だろう。それぞれ単独であれば、単なる和としては(x + y)/2であるわけである。ここで、2で割ったり1/2乗しているのは規格化しているようなものである(あとの落ちに繋げるためでもあるのだが...)。
 今やりたいことは、(x * y)^(1/2)がなるべく大きくなるようにしたいのである。というわけで、相加相乗平均の関係式の登場である。

x->(0,50),y->(0,50)の範囲で図示したもの
(x+y)/2
...相加
(x * y)^(1/2)
...相乗
(x * y)^(1/2)-(x + y)/2
...相乗-相加
 というわけで、


すなわち、x=yの時に(x * y)^(1/2)は最大になるわけである。良く知られている、相加相乗平均の関係式である。今回の話では、それぞれの精度・力が均質であれば理想的というのはこういったことである。異なる分野・方法で力を発揮しという方は簡単だ。異なる分野・方法で力を発揮するのでなければ、わざわざ乗算、すなわち、いっしょに組ませる必要がない。

 さて、タイトルの「パーマンのパラドクス」であるが、少々疲れてきたので、本題は次回にしたい。今回はタイトルについての考察を上の話に絡めてしてみるに留める。
 私は「パーマン」についてほとんど知識がない。TVアニメを観ていた記憶がある位である。だから、パーマンの名前の由来が何であるか知らない。スーパーマン+罰としての「パー」からきているのかもしれないが、ここで勝手な想像をしてみる。英語で考えてみると、par=同等、同水準、平均であるから、par-manは「平凡な主人公ががんばってスーパーマンになる」という気持ちが込められているのかもしれない。これはありそうな話である。
 ここで、「平均」でなくて同等というような意味をそこに入れたらどうなるだろうか?パーマン1,2,3,4号に対して、par=同等、同水準、平均というような視点から考えてみるのである。あるいは、パーマンだけではなく、他で考えたらどうだろうか....



■Powered by yagm.net