1999-01-24[n年前へ]
■「私と好みが同じ人」
analog Windows版用のサブドメイン解析ソフトを作る
はじめに
http://www.hirax.net/(このサイト)にどのような人がアクセスしているか知りたくなった。何しろ、作者の私でさえ辿り着くのにかなり苦労するようなサイトである。そこにわざわざ辿り着くような人はどんな人なのか、知りたいと思うのは自然の摂理である。その人達は私と好みが似ている人かもしれない。analog windows版(日本語)
このサイトではhttpサーバーとしてApacheが使われている。このログ解析をするために、ログ解析ソフトであるanalogを使ってみる。そこで、まずはhttp://jolt.ime.yamagata-cit.ac.jp/
からanalogのwindows版(日本語)をダウンロードする。
これを使うと例えば、
というような解析ができる。もちろん、上の画像は結果のごく一部である。
ドメイン解析をするためには、analogの設定ファイルである"Analog.cfg"の中に、
DNSFILE dnsfile.txt
DNS LOOKUP
DNS WRITE
と記述をしてやる。これをしないとIPアドレスからドメイン名への検索をしてくれない。
そうすると、こんな感じになる。
canon.co.jp
sony.co.jp
atr.co.jp
infocom.co.jp
saitama-u.ac.jp
kokushikan.ac.jp
ritsumei.ac.jp
keio.ac.jp
rr.com
しかし、これでもまだよくわからない。日本人としては漢字で、しかも、もっとわかりやすい名前で知りたい。
そこで、"Analog.cfg"の中でサブドメインの指定をしてやる。こういう記述である。
SUBDOMAIN aichi-gakuin.ac.jp '愛知学院大学'
SUBDOMAIN aitech.ac.jp '愛知工業大学'
SUBDOMAIN anabuki-c.ac.jp '穴吹情報専門学校'
SUBDOMAIN ashigei '芦屋芸術情報専門学校'
SUBDOMAIN aist-nara.ac.jp '奈良先端科学技術大学院大学'
そうするとこうなる。
canon.co.jp
sony.co.jp
atr.co.jp
infocom.co.jp
saitama-u.ac.jp (埼玉大学)
kokushikan.ac.jp (国士舘大学)
ritsumei.ac.jp (立命館大学)
keio.ac.jp (慶應義塾大学)
rr.com
Whois解析プログラムをつくる
acドメインなどはanalogのwindows版(日本語)に付属のもので間に合うのだが、co.jpドメインなどはほとんど記述されていない。そのため、coドメインに関しては何らかの方法で"Analog.cfg"の中の記述を補充してやる必要がある。 そこで、ドメイン名から詳しい名称を調べて、"Analog.cfg"用に加工するソフトをつくることにした。
私の設定ではanalogはdnsfile.txtというファイルにアクセスしてきたdomainのリストを出力する。
DNSFILE dnsfile.txt
という指定のためである。そこで、このファイルを元に
whois プロトコル
でそれぞれドメインの詳細を調べてやれば良いだろう。
まずはwhoisプロトコルの情報を
rfc-jp ML (http://www.imasy.or.jp/~masaka/rfc-jp/)
から辿って
Referral WhoisProtocol (RWhois) (http://www.imasy.or.jp/archives/rfc/rfc1714.txt)
を手に入れる。また、whoisのサーバーとしては
whois.nic.ad.jp
にポート43でアクセスする。あとはプログラムを組むだけである。
今回はC++Builder Professional版を使うので、TCP/IP関連にはあまり気を遣う必要がない。日本語コード、改行コードの変換には、
EarthWave Soft(IKEDA Takahiro)氏作成の
Delphi 用 文字コード変換ライブラリユニット jconvert.pas 1.4
http://www.os.rim.or.jp/~ikeda/
を使用してやる。今回はjpドメインの検索だけにした。それ以外のドメインについては検索をしない。
以下の画像が今回作成したプログラムの動作中の画面である。ドメインの詳細について解析しているのがわかるだろう。
これが今回作成したプログラムである。
WhoisPro.exe (whoispro.lzh 165kB) プログラム本体
domain.txt (domain.lzh 2kB) ドメインの詳細のキャッシュファイル
これらを解凍したものを"analog.exe"と同じディレクトリ(つまり、dnsfile.txtと同じディレクトリ)において実行すればよい。解析のスピードはトラックバーで変えることができる(はずだ.しかし、.あまり早くすると動作しなくなるだろう。)。
解析が終わったら解析結果を手動でコピーして"Analog.cfg"に貼り付けてやれば良い。最後の所は手動の方が安心できて良い。何しろ自分のプログラムほど信用できない物はないからである。
このプログラムは解析が終了するのに、かなりの時間がかかる。何しろ一つのドメインあたり数秒かかる。したがって、このようなプログラムを使えるのはアクセスがほとんど無いようなサイトだけだろう。アクセスが激しいサイトでは、とても使えないと思う。また、whois.nic.ad.jpに負担がかかってしまうだろう。
「私と好みが似てる人」
さて、このプログラムを使い、"Analog.cfg"を補充した上でanalogで解析した結果の一部が以下である。これが「私と好みが似てる人」である。もっとも、この中の一つはそうとも言えないのだが... : 16.61%: canon.co.jp (キヤノン)
: 15.64%: sony.co.jp (SONY)
: 5.60%: atr.co.jp (株式会社国際電気通信基礎技術研究所)
: 4.22%: infocom.co.jp (日商岩井)
: 2.80%: waco.co.jp (ワコービジネス)
: 5.44%: odn.ad.jp (オープンデータネットワーク)
: 4.22%: nttpc.ne.jp (ISP事業者向けネットワーク提供サービス)
: 1.26%: att.ne.jp (日本AT&T株式会社)
: 5.76%: saitama-u.ac.jp (埼玉大学)
: 1.08%: kokushikan.ac.jp(国士舘大学)
: 0.90%: ritsumei.ac.jp (立命館大学)
: 0.50%: keio.ac.jp (慶應義塾大学)
関西系の大学が多いのは「鴨川カップル」のせいだろうか? また、慶應義塾大学といっても、全てがSFC(湘南キャンパス)であったのは面白かった。
1999-08-29[n年前へ]
■「私と好みが似てる人」 その3
ドメイン一覧とreferer log
www.hirax.netはレンタルサーバー上で稼動している。1999/6月からレンタルサーバー業者を変えた。業者を変えた一番目の理由は、それまで依頼していた業者の規約で定められているデータ転送量を超えてしまう恐れがあったことである。もし、転送量を超えると割に高額な追加料金が発生してしまうのであった。安い居酒屋がある瞬間からボッタクリバーに早変わりしてしまうのである。
今回、レンタルサーバー業者を変えた後の3ヶ月間のLog解析をしてみた。以前、
私と好みが似てる人 - analog Windows版用のサブドメイン解析ソフトを作る- (1999.01.24)
でドメイン名から機関名への変換ソフトを作成したが、何しろ32kBまでのドメインリストにしか対応していないのでほとんど役に立たない。むしろ役に立ってしまっては(WHOISサーバーの負荷上)困るのである。従って、前回と同様のドメイン名とその名称の解析をするためには、ドメイン名リストの一覧を手に入れる必要がある。今回ドメイン解析をするために、「日本ドメイン一覧」を手に入れることにした。
かつてはJPNICの公開文書( ftp://ftp.nic.ad.jp/pub/jpnic/)から日本ドメイン一覧等の文書は自由に手に入れることができた。しかし、現在はフリーでは公開されていない。ftp://ftp.nic.ad.jp/pub/jpnic/domain-list.txtの中から引用すると、
これまで JPNIC では、JP ドメイン名リストと IP アドレスリストを ftpサービスによって一般公開してきましたが、プライバシー保護およびセキュリティ保全のため、1999年5月11日(火) より原則的に一般非公開といたしました。 JPドメイン名リスト、IPアドレスリストの利用申請については以下のURL をご覧下さい。 http://www.nic.ad.jp/jp/db/application.html関連文書: 『JPドメインのDNSゾーン情報・逆引き情報転送停止および JPドメインリスト等の配布停止について』 http://www.nic.ad.jp/jp/topics/archive/19990401-01.html |
しかし、FTPsearchで探してみると、その残骸らしきものがいくつかあった。例えば、
6.3M 1999 Feb 19 ftp.web.ad.jp /pub/Internet-Document/jpnic/domain/domain-list.txt
などだ。
このファイルを見ると、将来(といってもこのファイルはすでに現在のものではないが)使用されるであろうドメイン名が予約されており、面白い。
(hichiyahigashi-e # *予約ドメイン名* 日知屋東小学校)(hida-sh # *予約ドメイン名* 岐阜県立飛騨養護学校)(hida-sh-b # *予約ドメイン名* 岐阜県立飛騨養護学校高山日赤分校)(hidaka-ao-e # *予約ドメイン名* 阿尾小学校)(hidaka-chisaka-e # *予約ドメイン名* 千栄小学校)(hidaka-fuchu-e # *予約ドメイン名* 府中小学校)
今回はこのファイルを加工して、Logファイル解析ソフトのanalogで使用することにした。そうすると、日本国内のドメインからのわかりやすいアクセス解析をすることができる。試しにCO.JPドメインとAC.JPドメインの解析サンプルを示してみる。
%PAGE %Bytes
1205: 1.51%: SONY.CO.JP (ソニー株式会社)
794: 1.99%: NEC.CO.JP (日本電気株式会社)
607: 0.12%: SQUARE.CO.JP (株式会社スクウェア)
600: 1.09%: ADVANTEST.CO.JP(株式会社アドバンテスト)
548: 0.75%: HITACHI.CO.JP(株式会社日立製作所)
410: 0.66%: CANON.CO.JP (キヤノン株式会社)
395: 0.42%: FUJITSU.CO.JP(富士通株式会社)
313: 0.68%: FUJIXEROX.CO.JP(富士ゼロックス株式会社)
279: 0.54%: TOSHIBA.CO.JP(株式会社東芝)
267: 0.34%: SHARP.CO.JP (シャープ株式会社)
234: 0.30%: RICOH.CO.JP (株式会社リコー)
企業の人数の割にSONY,SQUARE,ADVANTESTといった企業はアクセス数が多いように思う。「私と好みが似ている人」が多いようである。また、namcoもこのすぐ下に位置しているので、SQUARE,Namco,Sonyというゲーム関係の企業が「私と好みが似ている」のかもしれない。
下は、AC.JPドメイン。
%PAGE %Bytes
761: 1.16%: U-TOKYO.AC.JP(東京大学)
672: 1.92%: KYUSHU-U.AC.JP(九州大学)
425: 1.09%: CHITOSE.AC.JP(千歳科学技術大学)
330: 0.45%: KYOTO-U.AC.JP(京都大学)
329: 0.32%: WASEDA.AC.JP (早稲田大学)
265: 0.39%: OSAKA-U.AC.JP(大阪大学)
230: 0.30%: HOKUDAI.AC.JP(北海道大学)
205: 0.39%: CHIBA-U.AC.JP(千葉大学)
168: 0.23%: HIROSHIMA-U.AC.JP(広島大学)
164: 0.80%: TSUKUBA.AC.JP(筑波大学)
163: 0.53%: TITECH.AC.JP (東京工業大学)
WEBのLog解析をして何が一番面白いかというと、知らなかった面白いことが載っているWEBを知ることができることである。どこかのWEBページからwww.hirax.netへのリンクがされて、それによりwww.hirax.netへ辿りつく様子はrefererlogを見ればわかるのである。試しにreferer logを解析した結果のサンプルを示してみる。
#reqs: URL
----- ---
1132: http://www.maqmakmac.com/
355: http://www.cds.co.jp/ff/bbs/minibbs.cgi
155: http://freebee.saccess.co.jp/~gridman/gfx/99summer.html
147: http://www.cds-co.com/ff/main.html
138: http://www.cds.co.jp/ff/main.html
114: http://www.jin.gr.jp/~nahi/link-misc.html
114: http://www2s.biglobe.ne.jp/~chic/pilot.html
82: http://www.puppenhaus.co.jp/mirror-site/fukatsu-eri.htm
63: http://www.cds-co.com/ff/zakki.htm
57: http://www.t3.rim.or.jp/~munemasa/links.html
57: http://www2.saccess.co.jp/~gridman/gfx/99summer.html
そして、そのrefer元の持つ情報は私にとってとても面白いのである。www.hirax.netにリンクを貼っているページの作者というのは大抵「私と好みが似てる人」であるし、なおかつ、私ではない。ということは、そこには
- 私の好みに合っていて、
- 私がちっとも知らないこと
そういったWEBを探そうと思っても、それはとても困難である。何しろ、キーワード検索ができないのである。キーワードで調べるにも「私がちっとも知らないこと」であるから、そのキーワードを私が思いつくはずがないのである。というわけで、「好みに合っていて、(私のちっとも知らないことが多い)新鮮なページを見つけるのは難しい」のであった。
しかし、それも今では違う。www.hirax.netのreferer logを見るとそういったWEBを見つけることができるのである。これがとても嬉しいのである。
2000-01-13[n年前へ]
■WEBサイトの絆
WEBの世界を可視化しよう
目に見えないものを実感できるものにしようと思うことは多い。「直接感じることが出来ないものを感じられる形にする」という作業とその結果には非常にわくわくさせられる。それは、きっと私だけではないと思う。
目に見えないものは色々ある。可視化して見てみたいものは多々あるのだが、以前、
の時に扱った、WEBのトポロジーなどもその最たるものである。WEBページはもちろん目に見えるわけではあるが、それらがどう繋がっているか、すなわち、WEB[= クモの巣(状の物);織物 ]そのものは目には見えない。ネットワークという目に見えない世界でWEBサイト同士がどう繋がっているか、それは企業のWEBサイト同士であれば企業間の繋がりを示すかもしれないし、公的機関のWEBであれば公的機関内部の繋がりが見えてくるかもしれない。そして、個人WEBであれば、個人どうしの繋がりが見えてくるだろう。そして、さらに考えを進めるならば、それが「WEBの繋がりだ」と端的に言い切ってしまっても良いと思う。
そういう色々なWEBサイト同士が互いに結びつき合う、つまりWEBそのものを今回は可視化してみたい。その結果はきっと「WEBサイトの絆」を私に見せてくれるはずだ。
例えば、ファイルシステムを可視化するものであれば、
- xcruise( http://tanaka-www.cs.titech.ac.jp/~euske/index-j.html )
そして、今回の本題のWEBサイトのHyperlink構造を可視化するソフトウェアも、少し探しただけでも結構ある。例えば、
- Site Manager
- ( http://www.sgi.com/software/sitemgr.html )
- HyperLINKWWW Visualization/Navigation
- ( http://www.acl.lanl.gov/%7Ekeahey/c3/navigate/navigate.html )
しかし、よく調べていないので間違っているかもしれないが、この辺りのソフト(appleを除く)はWEBサイト内のリンクのみに限られるようである。それでは、今回の目的とは違う。何しろ、今回知りたいのはWEBサイト同士のリンクの度合いである。WEBのトポロジーなのである。
そこで、もう少し探してみる。すると、今回の目的にかなり近い情報が
- Web構造の把握 宮久地博臣 都立科学技術大学大学院 平成9年度修士論文
- ( http://home2.highway.ne.jp/miyakuji/shuron.html )
やり方はどうしたら良いだろうか?宮久地氏と同じようにWeb Robotを作成して、データを集めるのが理想的だろう。しかし、「perl入門」を昨日やっと買ったばかりの私にはとても難しそうである。いや、もしそんなことをしたらとんでもないことになるに違いない。
そこで、perlのlwp-rgetを用いて各WEBの内容をローカルのPC内にダウンロードした上で、勉強がてらperlで解析を行うことにした。と、思ったのだが、lwp-rgetが上手く動いてくれない。まだドキュメントをちゃんと読んでいないせいだろうか?何故か、ダウンロードの途中で終了してしまう。仕方がないので、急遽作戦を変更し、ダウンロード作業はlwp-rgetではなくてwgetを用いることにした。
行った手順は以下のようになる。
- 5つのWEBサイトを広いWEB内から適当に選択する
- 選んだ各WEBサイト内のファイルについて、相互のハイパーリンクを抽出し、その数を解析する
- その結果を可視化する
以下に、解析を行った結果、すなわちサイトA,B,C,D,Eの相互に対するリンク数を示す。
↓から→へのリンク数 | |||||
0 | 2 | 0 | 27 | ||
1 | 0 | 13 | 273 | ||
20 | 2 | 0 | 43 | ||
0 | 11 | 0 | 285 | ||
1 | 1 | 1 | 1 | ||
合計 | 22 | 14 | 3 | 14 | / |
サイトE「日記猿人」へのリンクがムチャクチャ多いのは投票ボタンという形で、他のサイトからリンクがなされているからである。
さて、上の表からではWEBの絆を実感できないので、「WEBの絆」を3次元空間に可視化するJavaアプレットを以下に張り付けておく。WEBサイトが5つあるので、それぞれのサイトをピラミッド構造(四角柱状)に配置した。
各WEBサイトの表示色は、
- A = 赤
- B = 緑
- C = 青
- D = 黄
- E = 灰
それぞれのサイトから伸びる直線の長さは、そのサイトから他のサイトへ向かうリンク数に比例したものにしている。また、直線の太さもリンク数に比例させている。また、それぞれのWEBサイトを示す立方体の大きさは自分へ向かうリンク数に比例させている。ただし、サイトEの大きさはあまりにも巨大なため、リンク数に比例したものにはなっていない。また、サイトE、すなわち「日記猿人」、へのリンクは省略し、全てサイトEからの直線リンクを表示するだけにした。
さぁ、WEBサイトの構造を自分の目でみて、そしてグリグリ動かして見てもらいたい。このグラフの操作方法は
- 操作 = 作用
- マウス左ボタンドラッグ = 回転
- シフトキー + 垂直ドラッグ = ズームイン・アウト
- シフトキー + 水平ドラッグ = 垂直軸についての回転
- コントロールキー + 垂直ドラッグ = 焦点距離の変更
- マウス右ボタン垂直ドラッグ = 部品除去
- "s"キー = ステレオ画像作成
Java表示が上手く動かない人のために、静止画も一応張り込んでおく。
どうだろう?この5つのWEB間のWEB構造から何が見えるだろうか?こういう解析を数多くのサイトに行うと非常に面白い結果が得られそうである。特に「日記猿人」のようなコミュニティーに対して行うと興味深い結果が得られるはずだ。
私のような「日記猿人」の日記はほとんど読まない(サイトAに関しては大ファンであるが)人間にとっても興味深いのであるから、関係者にとってはきっと...の筈だ。
さて、今回はテストのためにごく少数(5つ)のWEBの解析を行ってみた。いつか、こういった解析を広い範囲で行い、そして、時系列的な変化をも調べようと思う。銀河のvoid構造が観測され、可視化されたものを見たときもとてもわくわくしたものだが、WEBの構造・変化ならばどうだろうか?
不思議なことに、そういうことを考えていると、「新宿都庁」と「思い出横町」が頭の中に浮かんできてしまうのは何故だろうか?押井守の影響だろうか。謎である。
そして、こうも思う。WEBネットワークの中でWEBサイトは何を感じているのだろうか?これらのWEBサイトはもしかしたら孤独を感じているのだろうか、それとも繋がりを感じているのだろうか?あの時のページの中の一フレーズがその答えの一つなのかもしれない。
2000-02-06[n年前へ]
■パノラマ写真と画像処理 Pt.1
パノラマ写真を実感する
「パノラマ」という言葉は何故か大正ロマンを感じさせる。かつて、流行ったパノラマ館や江戸川乱歩の「パノラマ島奇譚」という言葉がそういったものを連想させるのだろう。私も自分で写真の現像・焼き付けをしていた頃は、フィルム一本まるまる使ってベタ焼きでパノラマ写真を撮るのが好きだった。
そういう癖は持ち歩くカメラが「写るんです」と「デジカメ」へ変化した今でも変わらない。例えば、
の時に撮ったこの写真もそうである。 そしてまた、次に示す写真もそうだ。これは1999年夏頃の早朝に箱根の湖尻で撮影したものである。360度のパノラマを撮影したものだ。
観光に行った先で撮影したと思われるかもしれないが、残念ながら違う。出勤途中に撮影したものである。豊かな自然がありすぎて、涙が出そうである。
パノラマ写真としては、こういう景色を撮ったものも良いが、人が写っているものも良い。私の勤務先がこの大自然の中に移転してくる前、都会の中にあった頃に居室で撮ったパノラマ写真などはとても面白い。窓の向こうにはビルが見えたり、周りに写っている人ですでに退職した人が何人もいたりして、涙無しには見られない。
もちろん、こういった写真はパノラマ写真で楽しむのも良いが、もっと実感できるものに加工しても楽しい。私がかつて都会の居室で撮影したものは、当時はAppleのQuicktimeVRのムービーファイルに変換して遊んでいた。今はもうない居室の中をグリグリ動かすのはホロ哀しいものがあり、とても味わい深かった。
ところで、WEB上でそういうパノラマのVRファイルを見せるにはどうしたら良いだろうか?もちろん、AppleのQuicktimeVRを用いれば良いわけではあるが、プラグインが必要である。私はQuicktimeは好きであるが、ブラウザーのQuicktimeのプラグインは嫌いである。WEBを眺めているときに、「Quicktimeのアップグレードはいかがでしょう?」というダイアログが出ると、少しムッとしてしまう。そこで、Javaを使うことにした。いや、もちろんJavaをサポートしていないブラウザーもたくさんあるが、こちらの方がまだ好きなのである。
そのようなパノラマのVRを実現するJavaアプレットには、例えば
- Panoramania
- http://www.lamatek.com/lamasoft/Panoramic/test.html
- Javaアプレット(パノラマver1.1)
- http://village.infoweb.ne.jp/~fwbc6098/java/panorama/panorama.htm
- TheVRApplet1.0
- http://www.physik.uni-greifswald.de/~jonas/VRApplet/VRApplet.html
- how toinsert the panorama show (java applet) inside your home page ?
- http://persoweb.francenet.fr/~carl/brique/exapano1.htm
さて、ここまでは単なる前振りである。本題は、実はこれから始まる。先日このようなメールを頂いた。
私はWindowsを使っているのですが、AppleのQuicktimeVRに興味があって、QuicktimeVRのパノラマ・ムービーを作っています。しかし、素材となる画像の作成に四苦八苦しております。ご承知の通り、
- ライカ版カメラに24ミリ広角レンズをつけて、
- 三脚にパノラマヘッドをつけて、ぐるりと周囲を12枚撮りして、
- 現像、プリントし、
- スキャニングして、ステッチャソフトでレンダリングし、
- それをMacintosh上でMake-QTVR-Panoramaにドロップして、
- 8ミリビデオに広角レンズを付け、
- 90度横倒しにして、10秒程度で1回転するようにステッピングモーターで駆動するパノラマヘッド(自作)に乗せ、
- 高速シャッター撮影し、
- マックのAV機能で円周12枚の静止画を取り出
- し、
- 8ミリビデオを横倒しにして、
- モーター回転するヘッドでぐるりと360度撮影し、
- その撮影した動画ファイルの、各フレームから走査線にして数本分を抽出し(インターレースで256本のうちセンター128本目の前後数本の走査線分)、
- それを貯めて1枚のjpgファイルにする、
- そのJPEG画像をMakeQTVRPanoramaの入力にして、パノラマムービーを作る、
その場合には、スリットスキャンカメラを入手し、それをカラープリントする設備を準備すればいいのでしょうけど、高価です。
そこで、
長々と分かりにくいことを書きましたが、要は、「マックで動く電子スリットスキャンソフト」をなんとか作っていただけないでしょうか?もし、そのようなソフトがあれば、
まずは、答えを先に書いてしまおう。私が作らなくても、
- NIH-Image (MacOS)
- ScionImagePC (Windows)
- 複数画像(動画)からの走査線抽出
ScionImagePCの動作画面を以下に示す。NIH-Imageとほぼ同じである。
これらのソフトのStack-Slice機能を用いれば「複数画像(動画)からの走査線抽出」ができる。その使用例と、その面白い座標軸変換について考えてみたい。しかし、このページは少々重くなってきた。まして、走査線の抽出の話は使用画像が多くならざるをえない。そこで、次回、詳しく使用例を紹介することにする。よく、次回といったまま数ヶ月経つことがあるが、今回は大丈夫である。少なくとも数日後には登場することと思う(多分)。
あれっ、ここまで書いてからinfoseekで検索すると、
- パノラマ写真のひっみっつっ!
- http://www.imagica.com/nomad/sig98/hitachi/
2000-06-04[n年前へ]
■WEBページの迷路の中で
未来の地図を手に持って
WEBアドベンチャーというものがある。私が個人的に好きなのは、HyperTextのリンク構造を用いて、WEB上でアドベンチャーゲームをするものだ。例えば、
- Mirag(みらげ)->Adventure( http://www.ceres.dti.ne.jp/~mayo/entrance.html )
私は、HTMLのリンクを用いただけのWEBアドベンチャーは好きだが、JavaScriptやFlashを使ったものはそれほど好きではない(し、やらない)。せっかちな私は、場面切り替えの効果などの待ち時間を耐えられないのである。そういった効果は不必要だと思うのだ。
ところで、WEB上でアドベンチャーゲームなどをよくやる人は「地図書き(マッピング)」をするらしい。自分が辿った道筋や話の筋を書き留めておくのである。そうすれば、あまり迷わなくてすむし、あとで自分が辿った道筋を振り返ることができる。
ところが、私はそういうことは全くしない。どうも、面倒でできないのである。その結果、WEBページに張られたリンクの迷路の中でやたらに迷ってしまう。そして、一体自分がどういう道筋を辿ったのか思い出せないことも多い。困ったことである。
そこで、少し考えてみると、良い方法があるではないか。以前、
で書いたように、世の中には色々な「WEBサイトのHyperlink構造を可視化するソフトウェア」がある。それで「WEBアドベンチャー」の「WEBページのHyperlink構造を可視化」すれば良いのである。そうすれば、その「WEBアドベンチャー」の中の世界が浮かび上がってくるハズである。自分がさ迷い歩いた世界の姿が、きっと私の目にも見える形となるはずだ。というわけで、「WEBサイトのHyperlink構造を可視化するソフトウェア」を私も使ってみたかったので、
- Cleo Sofware Development Inc.( http://www.cleosoftware.com/ )
- Apple ( http://www.apple.com/)
AppleのサイトのWebリンクが「目に見える形」になっているのがわかる。もう少し、他のサイトも見てみることにする。例えば、次が科学技術省の英語のトップページからのWEBページの繋がりを眺めてみたものである。中心のトップページから、色々なトピックスや他サイトのWEBページのリンクが張られていることがよくわかる。よく眺めてみれば、NASDA,RIKEN,などのよく目にする文字があるのが判ると思う。
さて、Site Mapper2000を使ってみたわけであるが、WEBアドベンチャーにこういった解析をしてみたかというと、実はしていない。そんなことをしたら、何かつまらなくなってしまう、と思うのだ。「WEBアドベンチャー」の中の世界、WEBページの迷路の中で彷徨うのもそれはそれで楽しいものだ、と思ってしまうのだ。
と、終わらせるのも何なので、適当なサンプルだけは示してみることにした。それが次の図である。主人公の現在位置から、前後左右に世界が繋がっているのがわかると思う。このあとどっちにゴールがあるかは秘密である。
こんな簡単な例を作るのでも思うのだが、「WEBアドベンチャー」の世界を作っていく人達にはとても役に立つものなのかもしれない。そういう複雑に繋がった世界を作り上げる人達には、世界が頭の中に見えていないと、とても不便だろう。きっと、頭の中の未来の地図がなく、先が見えずにただ作り上げようとしてもなかなか完成しないのだろう、と私は想像したりするのである。