hirax.net::Keywords::「理論」のブログ



1999-02-28[n年前へ]

分数階微分の謎 

線形代数、分数階微分、シュレディンガー方程式の三題話

分数階微分?

InterLabの1999No.5を読んでいると面白い記事があった。いわき明星大学理工学部の榊原教授の「Waveletと数式処理ツール」という記事である。といっても、興味を持ったのはWaveletのことではない。もちろん、Waveletに興味がないわけではない。この榊原教授が講師を務めたWavelet講習にも参加したこともある。しかし、今回興味を惹かれたのはその記事中にあった「分数階微分の解析」である。

InterLabの榊原教授の記事を引用すると、-通常微分・積分は整数回実行できるが、分数階微分はこれを分数に一般化したものである。さまざまな物理や工学の現象の記述に使われるようになった-とある。一階微分とか二階微分というものはよく使うが、0.5階微分などというものは使ったことがない。どのようなモノなのかさえよくわからない。

参考:

一体、どんな物理や工学の現象の記述に使われているのか知りたくなったので、infoseekで調べてみる。すると、

いわき明星大学の清水・榊原研究室の「粘弾性動モデル」が引っ掛かる。

参考:

衝撃吸収・シリコーンの弾性率などに興味を持っている人には面白いかもしれない。

もう少し調べてみると「バナッハ空間バナッハスケールにおける分数階積分作用素」というようなキーワードも引っ掛かる。

そこで、まずは勝手に分数階微分について考えてみた。

分数階微分・積分の勝手な想像図


まずは、イメージを考えるためにグラフを作成してみる。x^2の関数、および、それを微分・積分した関数である。微分は3階まで、積分は2階まで行っている。

図.1:x^2を微分(3階まで)したものと、2階まで積分したもの

このグラフ形式の表示をちょっとだけ変えてみる。

図.2:x^2を微分(3階まで)したものと、2階まで積分したもの

ここまでくると、平面グラフにしてみたくなる。つまり、微分・積分の階数を離散的な整数値でなく、連続的な値としてのイメージに変えたくなる。

図.3:x^2を微分(3階まで)したものと、2階まで積分したもの

これで、微分・積分が整数階でない場合のイメージ(勝手な)ができた。微分・積分が離散的なものではなくスムーズにつながっているものであるというイメージである。図.2から図.3への変化をよく覚えていてほしい。

といっても、これは数学的なイメージのみで物理的なイメージはまだここでは持っていない。位置、速度、加速度などの微分・積分で選られるものに対して同じようなイメージを適用すると、位置なんだけれどちょっと加速度っぽいもの、とか、速度と加速度の「合いの子」みたいなものというような感じだろうか?

さらに、これから先は、f(x)という関数が示す無限個の値を位置ベクトルと考えて、f(x)というのは無限次元空間の一つの点だというイメージを持つことにする。線形代数を考えるならそれが一番わかりやすいだろう。任意の階で微分された関数群が集まって、さらに高次元の空間をなしているというイメージである。

分数階微分を調べる

勝手なイメージはここまでにして、手元にある数学の参考書の中から手がかりを探してみた。すると、
大学院入試問題解説 - 理学・工学への数学の応用 - 梶原壌二 現代数学社ISBN4-7687-0190-6
の中に手がかりがあった。あれ、ということは以前にやったはずなのか...そう言えばおぼろげな記憶がちょっと...

その中の言葉を少し引くと、
フーリエ変換は等距離作用素である、関数空間L^2(R)における回転といえる。結局、

ここで、fは元の関数であり、Fはフーリエ変換
となる。そして、古典力学におけるハミルトン関数において、運動量を微分演算子で置き換えれば、量子力学や量子化学のハミルトン演算子が得られ、シュレディンガー方程式などにつながるのである、とある。他の資料を眺めてみると、どうやら量子力学などの分野からの要請に応じてここらへんの微分演算子の分野が発展しているようだ。理論物理などをやった方ならよくご存知のことだろう。例えば、水素原子の基底状態の波動関数へ運動エネルギーの演算子を作用させるというような、基本的な所でも、このフーリエ変換を用いた微分演算が用いられてる。

さて、この式自体は非常に簡単である。それにイメージも湧きやすい。
i を掛ける演算、私のイメージでは複素数空間の中で90度回転をする(言い換えれば、位相が90度ずれる)演算、が微分・積分であるというイメージはスムーズに受け入れやすい(それが正しいかどうかは知らないが)。なぜなら、微分が空間の中での回転であるとすると、三角関数の微分・積分に関する性質(例えば、Sinを微分するとCosに、Sinを2階微分すると-Sinになる、すなわち、一回の微分につき位相が90°ずつ回転する(位相がずれる)というような性質)が納得でき、それがフーリエ変換という形で登場してくることがスムーズに受け入れられるのである。また、微分といえばとりあえず三角関数の登場というイメージもある。

 もう少しわかりやすく書くと、

  • 三角関数では一階微分の結果は90度位相がずれる(回転する)。
  • ならば、(例えば)0.5階微分は45度位相をずらせば良い。
  • 任意の関数もフーリエ変換により、三角関数に分解される。
  • ならば、任意の関数に任意の実数値の微分が成立する。
ということである。

 任意の関数をフーリエ変換し三角関数に分解した時の位相、言い換えれば、周波数領域での位相ずらし、で分数階微分が定義されるということは、物理的実用的に大きな意味を持つ。例えば、電磁波、弾塑性運動などの物理現象の中での位相変化を分数階微分で解けることになる。例えば、複素貯蔵弾性率などについて分数階微分との関係は深そうである。あるいは、媒体中の電磁波の位相などについて適用するのも面白そうである。

分数階微分を使ってみる


よく分からないところも多いが、とりあえず、

という式を使ってみる。まずは、使ってみないとわからない。とりあえず、1次元の関数を作成して、この式を適用してみる。まずは、よく出てくるガウス分布で適用してみる。まずはガウス分布とそれの通常の一階微分の解析解を求める。
ガウス分布(左)とその一階微分の解析解(右)

それでは、今回の方法による一階微分の結果と、それと解析解との比較を示す。なお、本来無限領域のフーリエ変換を有限の領域で行っているため、端部近くで変なことが生じるのはしかたがないだろう。また、色々な事情により係数の違いは無視して欲しい。

フーリエ変換を用いた方法(左)と解析解(右)の比較

ちょっとずれが生じているが、こんなものだろう。しかし、これだけでは今回のフーリエ変換を用いた微分の面白さはでてこないので、0から2の範囲で連続的に分数階微分をしてみる。

ガウス分布の0から2の範囲における連続的な分数階微分

1/10 (=0.1)階微分

1/2 (=0.5)階微分

7/10 (=0.7)階微分

1階微分

13/10 (=1.3)階微分

15/10 (=1.5)階微分

17/10 (=1.7)階微分

2階微分

モーフィングのようで面白い。

さて、今回は分数階微分を勉強してみる所までで、これの応用は別に行ってみたい。もちろん、言うまでもないと思うが、間違いは多々あると思う。いや、田舎に住んでいるもので資料がないんですよ。

1999-03-28[n年前へ]

ハードディスクのエントロピーは増大するか? 

デフラグと突然変異の共通点

fjでKByteの定義(よく言われる話だが)が話題になっていた。「なんで1024Byteが1KByteなんですか」というものである。そのスレッドの中で、

  • 整数値だけでなく、分数値のbitもある
  • 1bitのエントロピーも定義できるはずで、それならハードディスクは結構エントロピーを持つかも
というような記事があった。結局、そのスレッドはすぐに収まってしまったが、とても興味を惹かれたのでもう少し考えてみたい。

 初めに、「整数値だけでなく、分数値のbitもある」という方は簡単である。{0,1}どちらかであるような状態は1bitあれば表現できる。{0,1,2,3}の4通りある状態なら2bitあれば表現できる。{0,1,2,3,4,5,6,7}までなら3bitあればいい。それでは、サイコロのような状態が6通りあるものはどうだろうか? これまでの延長で行くならば、2bitと3bitの中間であることはわかる。2進数の仕組みなどを考えれば、答えをNbitとするならば、2^N=6であるから、log_2 ^6で2.58496bitとなる。2.58496bitあれば表現できるわけだ。

 後の「1bitのエントロピーも定義できるはず」というのはちょっと違うような気もする。そもそもエントロピーの単位にもbitは使われるからだ。しかし、ハードディスクのエントロピーというのはとても面白い考えだと思う。
 そこで、ハードディスクのエントロピーを調べてみたい。

 次のような状態を考えていくことにする。

  1. きれいにハードディスクがフォーマットされている状態。
  2. ハードディスクの内容が画像、テキストファイル、圧縮ファイル、未使用部分に別れる。
  3. その上、フラグメントが生じる。
 今回の計算に用いたMathematicaのNotebookはこれである。

 画像ファイル、テキストファイル、圧縮ファイル、未使用部分を1Byteグレイ画像データとして可視化してみる。

1Byteグレイ画像データとして可視化したもの
8bitグレイ画像
日本語テキストデータ
LZH圧縮ファイル
未使用部分

 ところで、このような可視化をすると、ファイルの種類による差がよくわかる。てんでばらばらに見えるものは冗長性が低いのである。逆に同じ色が続くようなものは冗長性が高い。こうしてみると、LZH圧縮ファイルの冗長性が極めて低いことがよくわかる。逆に日本語テキストデータは冗長性が高い。もちろん、単純な画像はそれ以上である。
 それでは、これらのようなファイルがハードディスクに格納された状態を考える。

  1. きれいにハードディスクがフォーマットされている状態。
  2. ハードディスクの内容が画像、テキストファイル、圧縮ファイル、未使用部分に別れる。
  3. その上、フラグメントが生じる。
をそれぞれ可視化してみる。
ハードディスクの内容を1Byteグレイ画像データとして可視化したもの
未使用ハードディスク
3種類のファイルが格納される
フラグメントが生じた

 横方向の1ライン分を一区画と考える。ハードディスクならセクタといったところか。その区画内でのヒストグラムを計算すると以下のようになる。この図では横方向が0から255までの存在量を示し、縦方向は区画を示している。

ハードディスクの1区画内でヒストグラムを計算したもの
未使用ハードディスク
3種類のファイルが格納される
フラグメントが生じた

 LZH圧縮ファイル部分では0から255までのデータがかなり均等に出現しているのがわかる。日本語テキストデータなどでは出現頻度の高いものが存在しているのがわかる。

 それでは、無記憶情報源(Zero-memory Source)モデルに基づいて、各区画毎のエントロピーを計算してみる。

ハードディスクの1区画内でヒストグラムを計算したもの
未使用ハードディスク
3種類のファイルが格納される
フラグメントが生じた

 これを見ると次のようなことがわかる。

  • 未使用ハードディスクは全区画にわたりエントロピーは0である
  • 3種類のファイルが格納された状態では、それぞれエントロピーの状態が違う。
    • 画像ファイルでは複雑な画像部分がエントロピーが高い
    • 日本語テキストファイル部分は結構エントロピーが高い。
    • LZH圧縮ファイル部分はエントロピーが高い。
  • フラグメントが生じると、トータルではエントロピーが高くなる。
    • しかし、平均的に先のLZH圧縮ファイル部分の状態よりは低い。
 それぞれの状態における、全区画のエントロピーの和を計算してみる。
全区画のエントロピーの和
未使用ハードディスク
0
3種類のファイルが格納される
691.28
フラグメントが生じた
982.139

 というわけで、今回の結論

「ハードディスクのエントロピーは増大する。」


が導き出される。もし、ハードディスクのデフラグメントを行えば、エントロピーは減少することになる。

 こういった情報理論を作り上げた人と言えば、Shannonなのであろうが、Shannonの本が見つからなかったので、今回はWienerの"CYBERNETICS"を下に示す。もう40年位の昔の本ということになる。その流れを汲む「物理の散歩道」などもその時代の本だ。

Wiener "CYBERNETICS"

 生物とエントロピーの関係に初めて言及したのはシュレディンガーだと言う。ハードディスクと同じく、企業や社会の中でもエントロピーは増大するしていくだろう。突然変異(あるいは、ハードディスクで言えばデフラグメント)のような現象が起きて、エントロピーが減少しない限り、熱的死(いや企業や会社であれば画一化、平凡化、そして、衰退だろうか)を迎えてしまうのだろう。

1999-04-26[n年前へ]

WEBページは会社の顔色 

WEBページのカラーを考える 2

 前回は、WEBのレイアウトで企業についての考察を行った。今回はWEBページの色空間を考察してみたい。目的は、企業間あるいは、日本とアメリカ間で使用される色についてなにか差があるか、ということを調べることである。例えば、

  • 日本では万年筆のインクには黒がほぼ使用されるが、アメリカなどでは青が使用されることも多い
  • 日本で二色刷りでは黒と赤だが、アメリカでは黒と青である
とか、そういったことを確かめたいのである。

 まずは、ごく単純なCIE Lab色空間での考察を行いたい。CIE Lab色空間はCIE(Commission Internationale d'Eclairage= 国際照明委員会 )が1976年に推奨した、色空間であり、XYZ表色系を基礎とするものである。知覚的な色差を考えたいので均等色空間であるLab色空間を選んだ。

 まずは、Lab色空間がどんなものかを以下に示す。これは、適当に書いてみたものなので、正確なものではない。もっとわかりやすいものが
http://www.sikiken.co.jp/col/lsab.htm
にある。

Lab色空間
↑L*明るい
/ b*黄色
緑方向←→a* 赤方向
青 /
↓暗い

 それでは、a*b*だけ表示してみる。以下がa*b*色平面である。これも大雑把なイメージ図である。

a*b*色平面
↑b*
→a*

 参考までに、RGBからL*a*b*への変換式を挙げておく。
岡野氏のDigital AstronomyGallery ( http://www.asahi-net.or.jp/~RT6K-OKN/ )
から辿れる蒔田剛氏による第2回CCDカンファレンス「CANP'98」の「デジタル画像と色彩理論の基礎」によれば、

X= 0.412391R + 0.357584G + 0.180481B
Y= 0.212639R + 0.715169G + 0.072192B
Z= 0.019331R + 0.119195G + 0.950532B
ここで使用されているのRGB、およびその際の係数はハイビジョンテレビのRGB色空間だそうだ。

X0 = 0.95045 Y0 = 1.0 Z0 = 1.08892
とすれば、
L= 116(Y/Y0)^0.333 -16 ( Y/Y0 > 0.008856 )
a= 500[ (X/X0)^0.333 - (Y/Y0)^0.333 ]
b= 200[ (Y/Y0)^0.333 - (Z/Z0)^0.333 ]
とできるとある。もちろん、ここで使われる係数などは考えるデバイスにより異なるので、これは単なる一例である。

 それでは、前回に使用した画像についてLab色空間でのヒストグラムを調べてみる。

各WEBページとLab色空間でのヒストグラム
アメリカ版
L*a*b*の平均値/標準偏差
日本版
L*a*b*の平均値/標準偏差
apple
L*201/69.6
a*128/1.82
b*127/3.93
L*228/54.8
a*128/1.82
b*126/6.70
sgi
L*228/49.2
a*128/5.20
b*129/8.49
L*223/55.3
a*129/8.46
b*129.10.4
Kodak
L*37.8/49.9
a*133/9.14
b*138/17.0
L*194/76.4
a*132/14.1
b*132/14.1
Canon
L*163/77.6
a*131/16.2
b*112/21.5
L*207.52.8
a*130/8.56
b*127/11.2
FUJIFILM
L*159/77.1
a*112/25.5
b*145/25.8
L*190/79.2
a*129/6.18
b*121/14.6
Xerox
L*191/80.1
a*140/25.7
b*147/17.8
L*219/38.9
a*132/12.7
b*128/14.5
RICOH
L*228/44.1
a*129/8.81
b*128/10.0
L*289/51.6
a*132/10.2
b*127/10.2

 ここらへんまで、作業をしてくると、今回のやり方は失敗だったことがやっとわかる。WEBのトップページは企業のイメージカラーの影響が強すぎるし、こういった考察には数をかせぐ必要があるので、解析ロボットをつくって、ネットワーク上に放つ必要がある。手作業ではとてもじゃないがやってられない。

 例えば、「WEBのトップページは企業のイメージカラーの影響が強すぎる」というのは

  • Kodakアメリカの黄色
  • FUJIFILMアメリカの緑
  • Xeroxアメリカの赤
  • Canonアメリカの青
などを見ればわかると思う。ただし、こうしてみると全てアメリカ版であることが面白い。日本版よりも、色の使い方が派手なのである。それは、Xerox,FUJIFILM,Canonに関してa*,b*における分散の大きさなどを見れば明らかである。いずれも、日本版よりもアメリカ版の方が大きい、すなわち、派手な色使いをしているのがわかると思う。もしかしたら、ここらへんに文化の違いが出ているのかもしれない。
 ところで、Canonに関しては日本版を見るにイメージカラーは赤のような気がするが、アメリカ版では明らかに青をイメージカラーとしている。これは、Xeroxとの兼ね合いだろうか?

 さて、今回の考察はやり方を間違えたので話が発散してしまった。要反省だ。

1999-07-22[n年前へ]

失楽園殺人事件の犯人を探せ 

文章構造可視化ソフトのバグを取れ

 今回は
夏目漱石は温泉がお好き? - 文章構造を可視化するソフトをつくる - (1999.07.14)
の続きである。やりたいことは以下の3つ

  1. WordFreqのバグを取る。
  2. 定量化に必要な数値を出す。
  3. とにかく遊んでみる。
である。まずは、プログラムのバグを取ろう。前回、プログラム中にバグがあると書いたが、問題は私がbmonkey氏の正規表現を使った文字列探索/操作コンポーネント集ver0.16の仕様を勘違いしていたことによるものだった。ファイルにGrepを書けた際に、テキストファイル中の一行中に複数の適合する単語が存在した場合に、本来、一番最初に適合した単語の文だけが「適合する単語があったよ」と知らせてくれるのであるが、それを単語全部について教えてくれるものと勘違いしていたのだ。従って、一行中に探す単語が複数登場する場合には結局1回分しかカウントされなかったのである。まずはそれを直してみたい。「GrepでMatchした行中に改めて目的の単語が何回登場するかを調べる」という2段階にすることで今回の問題は解決する。

WordFreq.exe 1999.07.21Make版 wordfreq.lzh 338kB

 本WEBサイトのモットーは「質より量」である。...これはちょっと何だな...「下手な鉄砲も数撃ちゃ当たる」...これもちょと...「転がる石に...(もちろん日本版でなくて西洋版のだ)」といった方がニュアンスが良いかな?... 転がる石は精度を求めないのである。数をこなせば精度が悪くてもいい方角に転がっていくと思っているのだ。モンテカルロ理論である。「遊び」だし。というわけで、これはバグがあった言い訳である。

 さて次は、「定量化に必要な数値を出す」である。前回の題目で使った「ホトトギス」版「坊っちやん」のダウンロード元のWEBの作成者である木村功氏より、前回の話以後にいくつかアドバイスを頂いた。それが「定量化するにはどのようにしたら良いか」ということであった。それについては、最低限の機能をつけてみた。やったのはただひとつ。出現頻度の分散を計算するようにしただけである。この数値と出現平均値を用いて、色々な文章を解析すれば、このプログラムの返す値の出現分布の分散・平均値・有意水準などを導くことができるだろう。色々な時代の、色々な作家の、色々なジャンルの文章を解析し、それらから得られた値を調べてみればもしかしたら面白いことがわかるかもしれない。

 それでは、今回のプログラムを使って遊んでみよう。

 今回用いるテキストは小栗虫太郎の「失楽園殺人事件」だ。
青空文庫 ( http://www.aozora.gr.jp/)
から手に入れたものだ。今回のタイトルどおり、「失楽園殺人事件」において「犯人」を探してみよう。

「失楽園殺人事件」において「犯人」を探したもの

 ラストのほうに向かうに従い犯人の登場が増えて、山場を迎えているのがわかるだろう。「犯人」で検索したら次は探偵の番だ。「法水」で検索し、探偵がきちんと働いているか見てみよう。

「失楽園殺人事件」において「法水」を探したもの

 なかなか出ずっぱりで活躍している。もちろん、探偵役もラストでは活躍しているようだ。

 ここまで見ていただくとわかるだろうが、画面は前回のバージョンとほとんど同じである。前回は、1物理行あたり検索単語は1個までしか見つからなかったが、今回はきちんと複数見つかっているのがわかると思う。1物理行中でもきちんと結果が出るようになったおかげで、文章中から「。」を検索すると、物理行(段落と近いもの)中に含まれる「文」の数を調べることが出来る。妙に長い文節の出現頻度などを調べることが出来るのだ。こういったものは定量化にふさわしいのではないだろうか?

「失楽園殺人事件」において「。」を探したもの

 また、C++プログラマーのあなたは自分のプログラム中から「//」などを検索すると面白いのではないだろうか。コメントの出現頻度が手に取るようにわかるだろう。

 というわけで、今回はバグ修正のご報告である。

1999-09-01[n年前へ]

画像に関する場の理論 

ポイントは画像形成の物理性だ!?

 今回は、
夏目漱石は温泉がお好き? - 文章構造を可視化するソフトをつくる- (1999.07.14)
の回と同じく、「可視化情報シンポジウム'99」から話は始まる。まずは、「可視化情報シンポジウム'99」の中の
ウェーブレット変換法と微積分方程式によるカラー画像の圧縮および再現性について
という予稿の冒頭部分を抜き出してみる。「コンピュータグラフィックスを構成する画素データをスカラーポテンシャルあるいはベクトルポテンシャルの1成分とみなし、ベクトルの概念を導入することで古典物理学の集大成である場の理論が適用可能であることを提案している」というフレーズがある。

 着目点は面白いし、この文章自体もファンタジーで私のツボに近い。しかしながら、肝心の内容が私の趣向とは少し違った。何しろ「以上により本研究では、古典物理学の場の理論で用いられるラプラシアン演算を用いることで、画像のエッジ抽出が行えることがわかった。」というようなフレーズが出てくるのである。うーん。
 私と同様の印象を受けた人も他にいたようで(当然いると思うが)、「エッジ強調・抽出のために画像のラプラシアンをとるのはごく普通に行われていることだと思うのですが、何か新しい事項などあるのでしょうか?」という質問をしていた人もいた。

 また、話の後半では、画像圧縮のために、ラプラシアンをかけたデータに積分方程式や有限要素法などを用いて解くことにより、画像圧縮復元をしようと試みていたが、これも精度、圧縮率、計算コストを考えるといま一つであると思う(私としては)。

 画像とポテンシャルを結びつけて考えることは多い。例えば、「できるかな?」の中からでも抜き出してみると、

などは画像とポテンシャルということを結びつけて考えているものである。(計算コストをかけて)物理学的な処理をわざわざ行うのであるから、物理学的な現象の生じる画像を対象として考察しなければもったいない、と思うのである。

 現実問題として、実世界において画像形成をを行うには物理学的な現象を介して行う以外にはありえない。「いや、そんなことはない。心理学的に、誰かがオレの脳みそに画像を飛ばしてくる。」というブラックなことを仰る方もいるだろうが、それはちょっと別にしておきたい。

 「できるかな?」に登場している画像を形成装置には、
コピー機と微分演算子-電子写真プロセスを分数階微分で解いてみよう-(1999.06.10)
ゼロックス写真とセンチメンタルな写真- コピー機による画像表現について考える - (99.06.06)
で扱ったコピー機などの電子写真装置や、
宇宙人はどこにいる? - 画像復元を勉強してみたいその1-(1999.01.10)
で扱ったカメラ。望遠鏡などの光学系や、
ヒトは電磁波の振動方向を見ることができるか?- はい。ハイディンガーのブラシをご覧下さい - (1999.02.26)
で扱った液晶ディスプレイなどがある。そのいずれもが、純物理学的な現象を用いた画像形成の装置である。

 例えば、プラズマディスプレイなどはプラズマアドレス部分に放電を生じさせて、電荷を液晶背面に付着させて、その電荷により発生する電界によって液晶の配向方向を変化させて、透過率を変化させることにより、画像を形成するのである。

プラズマアドレスディスプレイ(PALC)の構造
(画像のリンク先はhttp://www.strl.nhk.or.jp/publica/dayori/dayori97.05/doukou2-j.htmlより)
 これなどは、電荷がつくる電位とその電界が画像を形成するわけであるから、場の理論そのものである。従って、物理的な意味を持ってラプラシアンなどを導入することができるだろう。そうすれば、単なる輪郭強調などだけでなく、新たな知見も得られると思う。
 また、逆問題のようであるが電界・電荷分布測定などを目的として液晶のボッケルス効果を用いることも多い。液晶を用いて得られる画像から、電界分布や電荷分布を計測するわけである。これなども画像と場の理論が直に結びついている一例である。

 参考に、SHARPのプラズマアドレスディスプレイを示しておく。

SHARPのプラズマアドレスディスプレイ(PALC)
(画像のリンク先はhhttp://ns3.sharp.co.jp/sc/event/events/ele97/text/palc.htmより)

 また、電子写真装置などは感光体表面に電荷分布を形成し、その電位像をトナーという電荷粒子で可視化するのであるから、電磁場を用いて画像形成をしているわけである。だから、場の理論を持ちこむのは至極当然であり、有用性も非常に高いだろう。そういった視点で考察してみたのが、

である。

 同様に、画像圧縮に関しても、画像形成の物理性に着目することで実現できる場合も多いと思うのであるが、それは次回にしておく。



■Powered by yagm.net