|
|
P2Pを巡る2つの課題
2000年11月27日[日経パソコン]より
前回の本欄「“究極の分散処理”がもたらすもの」では、Napsterを手かがりにして、「究極の分散処理」とでも呼ぶべき新しい考え方について触れた。それから約2カ月。今、この考え方にはP2P(ピア・ツー・ピア)という正式名称が付いたようである。 P2Pを考える上で極めて重要なポイントが二つある。一つは「P2Pにおける分散処理の主役がストレージなのかプロセッサーなのか」という視点である。もう一つは「P2Pを巡って新しいビジネスモデルが生まれ得るのか」という視点である。
(1)P2Pの主役がストレージの場合
(2)P2Pの主役がプロセッサーの場合 プエルトリコにあるアレシボ電波望遠鏡が収集するデータの量は莫大で、現在の集中処理型コンピューター環境ではとてもではないが時間がかかりすぎて分析できない。そこでプロジェクト創始者たちは、ネット上で使われていない状態にあるパソコンのプロセッサーを使い尽くすというアイデアを思い付き、ボランティアを募った。現在は、200万台以上のパソコンが、フル稼動している。 つい最近、発表になったタンパク質組み立てプロセスの解明を目指すFolding@Homeプロジェクト(米スタンフォード大学)も、膨大なシミュレーション計算を、SETI@homeと同じコンセプトで実現しようとしている。 「分散処理が進めば、集中処理大型サーバーと端末側パソコンの価値が再び逆転する、そうなれば自社に有利」という戦略的理由から、米インテルはP2Pを積極的に支援しているが、同社のNetBatchという社内プロジェクトも、膨大な計算処理を必要とするマイクロプロセッサー設計シミュレーションを、1万台以上のパソコンによる分散処理で行なうというものである。
出るか、新たなビジネスモデル まず、ストレージ型P2Pで注目すべきGNUtella、gPulp自身が既にオープンソースとなっているので、P2P分野のソフトウエア事業が成立するかどうかは判断が難しい。面白いのは、こうしたソフトウエアを活用して新しいビジネスモデルを構築しようとするベンチャーの成否であろうが、ネット時代のこれまでの成功者たちはすべて集中処理ポイントをネット上に作り、そこを拠り所にビジネスモデルを創造してきた。P2Pはその前提条件を覆しているという意味で、本質的に新しいビジネスモデルを構築しなければならないという困難に直面している。 また、プロセッサー型P2PのSETI@homeなどの場合には、そもそもビジネスという概念が存在しない。Distributed Science、Popular Powerといったベンチャーは、大企業や研究機関から大規模計算の仕事を請け負い、プロセッサー型P2Pでその計算処理を行ない、参加するユーザーには対価を支払うというビジネスモデルを想定しているが、成功したとしても小さなニッチ市場が生れるに過ぎないのではないかという印象を否めない。 NapsterやScour(マルチメディア検索サイト)は「既存産業の破壊」という性格が強すぎて訴訟の対象となり将来は不透明、GNUtellaやgPulpはオープンソース、SETI@homeやFolding@Homeはボランティア依存の学術プロジェクト、未だ有望なベンチャーは見当たらず。これが、2000年10月現在のP2Pの眺望である。 ■
|
||
ページ先頭へ | ||
Home > The Archives > 日経パソコン |
© 2002 Umeda Mochio. All rights reserved. |