「Web2.0」時代と言われて久しい情報技術の世界において、今後の情報システムはどのように発展していくのだろうか。前回、筆者のコラムでは新しい集合知に関するひとつの形態について考えてみた。今回は、もう少し包括的な観点から今後の方向性を論じてみよう。
MicrosoftとGoogleの違い
MicrosoftとGoogle、いずれもIT産業の巨大企業であり、様々なシーンで比較されることが多い。「旧態依然としたITを武器とするMSに対してインターネットを味方に付けて急成長したGoogle」とのステロタイプで語られることがしばしばあるが、ここでは、やや違った観点で両社を比べてみたい。
Microsoftの財産といえばWindowsやOfficeアプリケーションが代表的である。これらの技術が同社のコアコンピタンスとなっており、現在のところその基盤はまだ盤石にみえる。しかしSaaSの台頭やアプリケーションのネットワーク化、ソフトウェア製品からサービスへのシフトといったIT産業の構造改革に対応すべく、同社も危機意識を抱いている。実際、Webサービス作成に対する技術開発には多くのリソースを注いでおり、またオフィス製品のネットワークアプリケーション化も待った無しの状況である。
「これらの変革はGoogleに遅れをとっており、後塵を拝しているのではないか。Googleはインターネットをうまく活用したビジネスを拡大し、インターネットの拡大に乗じて急成長、Microsoftを超えるまでになった」という評価がGoogle礼賛派の主張だ。ある意味で、これは正しい。しかしGoogleが持つ様々な技術を俯瞰してみると、ひとつの共通点に気付く。
Googleの原点ともいえるWebサイトの検索、Google Maps、ニュース検索、ブログ検索など、これらが対象としているものは、全て「他人が持つコンテンツ」なのだ。すなわちGoogleのコアコンピタンスは、数えきれないデータを上手にハンドリングするいくつかの手法にすぎない。これらの技術は大量データを捌く手法として必要不可欠ではあるが、他者のコンテンツに強く依存しているという不安要素がある。それに気付いたからかどうかはさておき、GoogleはGmailのサービスやGoogle Appsといった分野に進出していった。これらのITインフラ分野は、どちらかというとMicrosoftが長じていたはずの分野である。
人々が作り出す大量データの交通整理
さて話をWeb2.0の文脈で語られる様々なアプリケーションに目を向けてみよう。各種のニュースサイトやポータルサイト、あるいは先に紹介した検索サービスは、大量の情報をどのように優先付けて見せるかという点が技術の本質である。セマンティックウェブ技術によってインターネットの世界を大規模データベースにしようと努力している研究者のゴールも、ここにある。
掲示板はSNSも、情報のハンドリングという機能に着目すると、上記と同様の指摘ができる。ただし掲示板やSNSでのやりとりはコミュニケーション機能が優先されているがために情報の蓄積という意味ではマイナス面も持つ。「炎上」の問題や、「ブログを検索したところでノイズばっかり」というぼやき、「便所の落書き」との指摘などは、この観点に由来する。
一方、マッシュアップというキーワードで調べてみると、地図サービスと組み合わせて新しいサービスを提供しようという試みがやたらと多いことに気付く。GISに大きな注目が集まっている理由も同様だろうと推察される。地図や図表による表現は、大量データを伝えるメディアとして優れているからだ。提供されるサービスがイメージしやすく、提供側もユーザ側も使いやすい。
「ライフログ」と呼ばれる活動もまたしかり。活動履歴の自動採取やカメラによる定点観測写真を、大量データとして取得すること自体はさほど難しい問題ではない。解決すべき課題は、それらをどのように有効かつ有意義に見せていくかという点にある。
センサから取得される大量データの処理
人間の活動によるデータ以外にも目を向けてみよう。筆者がよく利用しているWebアプリケーションのひとつに「東京アメッシュ」がある。東京都下水道局が提供しているサービスで、レーダーによる計測データを下水道局や各自治体に設置されている地上雨量計の計測結果で補正して降雨マップを作成、10分毎にリアルタイムの降雨状況を確認できるサービスである。予想外の雨降りに対しても、雨に濡れずに帰宅するためのタイミングを図ることができるので、重宝している。
同様の事例で、タクシーを利用した降雨情報収集の実験が行われたこともあった。この実験では、タクシーに車々間通信機能を設置し、センサをワイパーに備え付けた。ワイパーの稼働頻度から降雨状況を推定し、GPSによる位置情報と合わせて各地域の降雨マップを作成しようとした試みである。東京アメッシュも、センサをマンホールに設置するなどの手段でセンサ密度を高めることで、より精緻な情報提供が可能になると予想される。
大量のセンシングデータから意味のある情報を作り出す試みは、センサネットワークと呼ばれる研究分野で進められている。ネットワーク技術の発展により大規模なセンサネットワークを構築できるようになり、またセンシング技術そのものも進化することで各種のデータを効率的に取得することが可能となった。しかしセンサを能動的に駆動するための電力問題や、センサをうまく配置する方法、各センサが有機的に連携するための技術など、センサネットワークによる有効なアプリケーション開発には、まだ解決しなければ課題も多い。そのぶん、まだ未知数な領域も残されており、この分野に対する今後の期待は高い。
結局、Web2.0の本質とは
折に触れて紹介している情報大航海プロジェクトも、結局のところこれらのハイブリッドを目指すものと括ることができる。生体情報から得られるデータ、人間活動の成果によるテキストデータ、GPSから取得される位置データなど、様々なデータをどのように効果的に処理できるか、その方法を模索するプロジェクトといえる。
このように考えると、大量データの処理に関する発展の方向には、二つの方法があることが分かる。ひとつは既存データの有効活用に軸足を置いた進化の方向。この発展方向は現在のところWeb2.0の本命ともいえる方向性である。サイバースペースには既に十分すぎるほどのデータが存在し、既に混迷の時代を迎えているからなんとかせねばと考える人々はこの立場をとる。
一方、新たなデータソースを探る動きも活発である。先に述べたセンサネットワーク研究が向かう先もこのひとつ。蛇足ながら筆者もどちらかといえばこちらの分野に加担したいという思いが強い。未解決な技術課題が多く、いろいろな解決策を考えるだけでわくわくする。Googleは、この方向性で大きな一歩を踏み出した。ストリートビューである。冒頭で、彼らが持つ弱みのひとつに他者のコンテンツに対する強い依存があると述べた。しかしストリートビューのデータは彼ら独自のコンテンツである。いろいろとトラブルの種となっている同技術ではあるが、彼ら自身のコンテンツとしてデータソースを確保している点で他のサービスと違う意義を持つ。
Web2.0は何処へ向かうのか。「Web2.0」というキーワードでamazon.co.jpを検索すると、およそ200冊の和書がヒットする(2008年12月現在)。既に「Web3.0」とか「Web20.0」とかの単語を織り交ぜる気の早い方々もいらっしゃるようだ。本稿のタイトルもいささか大袈裟だが、Web2.0の潮流ははたしてこれから何処へ向かうのか、ささやかなヒントでも示せたとしたら幸いである。
本文中のリンク・関連リンク:
- 週刊Take IT Easyバックナンバー:「メタ集合知に訊け!」(2008/09/16)
- メタ情報とセマンティック・ウェブ:メタデータやセマンティックウェブに関する情報がわかりやすく解説されている。
- なぜあのサイトが燃えたのか? 実例で学ぶブログ炎上:「炎上」に関する全10回の連載。
- 便所の落書きとは ─ よく わかるかもしれない IT・コンピュータ 用語辞典 [真・コンピュータ用語辞典]
- マッシュアップポータルサイト【Mashupedia.jp】:マッシュアップ×Web API:現在、休止中。早期の復活が望まれる。
- 東京アメッシュ:東京以外にも同様のサービスが提供されている。
- IPv6 による ITS 共通基盤の構築を目指すインターネット ITS プロジェクト [PDF]:ITSプロジェクトが実施した同実験のプレスリリース。
- USN -ユビキタス・センサネットワーク研究会-:電子情報通信学会の研究会。情報がよくまとまっている。
- 情報大航海プロジェクト:同プロジェクトのポータルサイト。
- 来るべきWeb3.0の世界 | WIRED VISION:同様の記事が多数ある。
- アキバ系!電脳空間カウボーイズ: 第二百十一回 Web20.0 前編:「Web2.0は、もう古い!オレたちは、Web20.0だ!!!」だとか。(ポッドキャスト)