« 2006年01月19日 | top | 2006年02月11日 »

2006年02月01日

500万テラバイト @ 2009

Internet WatchにGoogle日本社長のプレゼン記事が出ていた。

Googleは、2009年までに500万TBのデータを検索可能な状態にするという。
500万TBを65億で割ると、一人あたりだいたい77GBとなる。まあ100GB(0.1TB)としてよいだろう。

なるほど人間の脳には1000億(100G)の神経細胞があり、
それぞれが100兆(100T)のシナプスを通じて関係性を保っているとすれば、
100T個のシナプスあたり0.1TBなので、1000シナプスあたり1バイトのデータ量となる。
そんなもんかな、という納得感がある数字だ。
人間の知識は相当重複してるだろうから、
実際には1万シナプスあたり1バイトとかなのかもしれないが。
センサーなどが生み出すデータ量が爆発的に増える時代では、この数字目標にあまり意味はないが、
具体的に数字目標を設定することによっていろいろ見えてくることもあるから面白い。

さて、環境シミュレーターを考えてみる。 現在のCPUの処理速度を考えると、
通常のPC1台において、1秒間に変化するメモリの量は、数Gバイト程度である。
仮に1Gバイト/sec だとすれば、1日あたり約100TBの変化がその環境に対して起こることとなる。
5万台のマシンが接続されていれば、1日あたり500万TBの変化が起こることになる。
われわれの知らない、まだ記録されていない世界が、毎日500万TBぶんづつ、生まれている計算になる。

Googleが2009年に500万TBのデータを検索可能にするという目標を設定するなら、
われわれは2009年に毎日500万TBぶんの未知の部分が生まれる仮想世界を作ることをめざそう。

Posted by ringo : 08:39 | TrackBack