12-09.net
>> TOPへ戻る

12-09.net :三十路の会社員が日々の仕事と家庭と趣味と子育てに追われまくるブログ



ウェブ学会まとめ

no comment

昨日行われたWeb学会に行ってきました。
せっかくなので、超ざっくりレポなど。

Webサイトによると、

【第一回ウェブ学会シンポジウム】
開催日時:2009年12月7日(月)9:45~18:10
場所 :東京大学 本郷キャンパス 安田講堂
主催:ウェブ学会準備委員会
「本シンポジウムは、学術に軸足をおいた相互交流の機会を提供し、世界に影響を与えるウェブ研究・ウェブビジネスを継続的に生み出す場となることを目的とします。」

とのこと。
業界挙げて情報交流を行って、みんなで盛り上げていきましょう、という意図がそこかしこから読み取れます。うん、まあ良いことです。


会自体は、

  • セッション1:ウェブとコラボレーション
  • セッション2:ウェブと政治
  • セッション3:ウェブと科学
の3部構成になっていて、各セッションの頭に基調講演が入る、という流れです。

ぼくが現地に着いたのは、会が始まって1時間程すぎたところで、すでにセッション1の最終発表者である野口 祐子(国立情報学研究所 准教授、弁護士) さんの公演途中でした。
以下、各発表者と雑感を書き散らします。(めちゃくちゃ長くなったので、本ブログTOPページから来られた方は、↓↓の”Read the rest of this entry »”リンクをクリックして続きを読んで下さい)




  • 野口 祐子(国立情報学研究所 准教授、弁護士) さん
    「コラボレーションの法的課題」

    →著作権の対象が出版という単純なアウトプットからCD、DVDなどへの複製へと広がり、現代においてはブログやtwitterなどインプット部分まで考慮せざるを得ない時代になっており、すでに一つの考えでは統制できなくなっている。
    →フランスなどで採用されているスリーストライクルール(違法ファイルダウンロードを3度行ったユーザーは、プロパイダ側で一切の接続を遮断する法案)なども今後検討せねばならないかも。
    →オープンなライセンスにも限界がある。主にライセンス対象の取引価格のレベルや、ライセンスごとの互換性等。
    →フェアユースは諸刃の剣。
    →ライセンス対象の種類も着目すべきポイント。ハリウッド作品と科学分野を同列に論じることはできない。
    →【個人的雑感】まあ、そうだよな。


  • セッション1:ディスカッション
    →これはあまり面白くなかったです。みんなむにゃむにゃつぶやいていて、眠くなったくらい。


  • セッション1:基調講演  「ウェブ研究に求められるもの-課題と期待-」
    長尾 真 (国立国会図書館 館長)さん

    →Googleの検索結果は使い物にならない。
    →Webサイト上で公開されている小説等に関しても、一定の購読数を持っているコンテンツに関しては、電子納本を考えたい。
    →セマンティックWebはまだ現実的でない。
    →情報をクラスタリングし、意見分布と合わせることにより、情報の文字面だけでなく、意味を検索させ(fact retrieval)、情報を知識化していくことが課題。
    →【個人的雑感】そこそこ年配で、かつ国会図書館館長というお固い職に就かれている方ですが、話の内容は完全にパンクでした。とにかく、「Googleは決して到達点ではない」と言ってみたり、好々爺的な見た目とズバズバ斬っていく物言いのギャップがとても面白かったです。あと、「トウィター」っていう表現は新しい。


  • ここで午前の部、終了。
    昼食のために、学外へ。

    東大は銀杏真っ盛り。
    東京大学


    午後の部は、超カオスな顔ぶれ。
    セッション2は「Webと政治」とのことですが、正直まともなWeb+政治論を展開したのは、一人目の藤末健三参議院議員くらいでした。


  • 藤末健三(参議院議員、早稲田大学客員教授)
    「ネットがつくる新しい政治」

    →正直、目新しいことはなかったです。
    →参院選選挙期間(17日間)における、候補者一人あたりのハガキ、ビラ、ポスターに必要な費用は2000万以上。(全部税金)
    →前回総選挙でのネット献金は、たったの380件。
    →【個人的雑感】政治のネット活用の一番の効果は、税金の無駄遣いが減ることだ・・・と。


  • 佐藤哲也(静岡大学 准教授)
    「政治的意思決定はどこまで自動化できるか?」

    →エストニアでは、ネット投票と通常投票の結果が逆。
    →フロー知をストック化し、集合知へ。
    →民主主義はそもそも集合知。
    →社会的雰囲気を予測、集計するシステム。
    討議的民主主義的実験は本テーマにおいてなかなか興味深い。
    →【個人的雑感】さすが大学教授、話が上手く、また面白い。しかし、政治的意思決定の自動化というテーマ自体は、ストンと腹に落ちなかったです。


  • 鈴木健(株式会社サルガッソー 代表取締役)
    「Divicracy: Dividual Democracy」

    →個人(Individual)レベルで意思決定をするのは、現実を反映していない。
    →個人が1票を分割し、いわば分人(Dividual)として、矛盾を恐れず、民主的投票を行うシステムはどうか。
    →分人化された分票(0.2票とか0.6票とか)は、他人に委託することもできる。細分化された個々人の小さな意思決定を最終的に大きな意思の発露とする。
    →Dividual Democracyにより、直接民主制と間接民主制のハイブリッドシステムを構築することができ、よりダイナミックでリアルタイムな民主主義が実現する。
    →Dividual Democracyのデモプログラムを作成してきており、画面上の分人モデルを動かすことにより、実際のイメージを訴求。
    →脳でなく胃に投票させたっていいじゃない。
    →【個人的雑感】いやー、世の中に天才っているんですね。「あたまいい」かは別として(いや、頭いいんでしょうが)、間違いなく天才ですね、この人。あからさまな天才って、初めて見ました。プレゼン中、会場に「?」マークが増殖していく空気を感じました。


  • セッション2:ディスカッション
    ファシリテーター:鈴木健(株式会社サルガッソー 代表取締役)
    東 浩紀(哲学者・東京工業大学 特任教授)
    津田 大介(メディアジャーナリスト)
    濱野 智史(株式会社日本技芸 リサーチャー)

    →津田さん登場。
    →東さんの要望により、「朝生」形式で田原総一朗役を鈴木健さんが担うそう。ところで、田原総一朗って、ファシリテーターなのかアジテーターなのか。東さんは実際に朝生で大奮闘していて、「東無双」と言われているらしい・・・
    →東さんはひたすらルソーの話。曰く、国家としての全体意思とは異なる概念として、一般意思がある。ルソーによると、一般意思は「集団の中の個人に十分な情報が与えられ」「他者とコミュニケーションができない状態」で醸成される。この一般意思が重要。とのこと。初めからかなり暴走気味。会の趣旨に縛られず、ひたすらルソーに固執するその飽くなき姿勢、狂ったようなマシンガントークに、途中から何言ってんのか分からなくなって、聞いてる方もボーっとしてくる。
    →濱野さん、Democracy 2.0として「キャラ」を前面に立てる「キャラクラシー」を提案。そのキャラとして「初音ミク」押し、プレゼンの中では基本「ニコ動」押しと、ちょっとトホホな展開。しかも頭は良いもんだから、妙に理路整然としてて困る。
    →キャラは別にやる夫でも良いらしい・・・えと、何の会だっけ。
    →津田さん、前の二人がぶっ飛んでいたので、良い意味でキャラが薄い。本人もそれを意識したのか「Webと政治」というテーマなのに、ひたすらtwitterの話に終始。話上手いんだなあ、この人。
    →東さん的に言うと、まさにtwitterのタイムラインは一般意思と言えるかもしれない。twitterは必ず政治にも役立つはず。ああ、初めてWeb政治論っぽくなった。
    →twitterはリアルタイム性に帰結する。
    →ここから鈴木さんのファシリテートが入る。
    →濱野さん、ここでもやはりニコ動。
    →東さん、ここでもルソーの話ばっか。曰く「twitterとGoogleで世界はルソー化した」そうな。誰かこの言葉の意味をおせーて。
    →津田さん、twitterは個人の行動を後押しする発火点だ。
    →東さん「twitterが面白いと感じるのは、あれば議論ではないということ。TLを俯瞰すると、あたかも繋がった対話に見えるが、フォローする側とされる側で、流れるTLは異なるわけで、tweet同士が必ずしも対応し合ってるとは限らない。厳密な意味でコミュニケーションは取れていないわけで、そこは一般意思的と言える」おお、これはその通り。ちょっと目からウロコ。
    →濱野さん「キャラだけじゃなく、動植物が意思決定したって良いわけです」というもはや別次元を見ているとしか思えない発言に、東さんが鼻で笑う。どっちもどっちじゃ。
    →【個人的雑感】こんなに自由でよいのでしょうか??


  • セッション2は、自由すぎるカオスな状態のまま終了。

    セッション3の前に、遅れて到着したYahoo、GyaO代表取締役の川邊さんとMicrosoftの楠さんの元電脳隊コンビによる基調講演。
    ざっと流すと、
    川邉さんはひたすら「Yahoo!みんなの政治」の紹介、質疑応答に答える形で「Y!もMSもGLも油断できない。一部の寡占企業の行きすぎた影響力は、アントレプレナーシップ溢れる起業家によってこそバランスされる」といった趣旨の発言をされており、まあそうだわな、と。
    楠さんは色々話していたけれど、絶望的に話が面白くなく、TLはみるみるうちに殺伐としてくるわ、会場中を「zzz…」が埋め尽くすわ、まあそんな内容でした。あ、プレゼン資料はハリウッドのCG並に格好良かったけど。


    セッション3は、「ウェブと科学」。
    さあ、講演者を見ても、明らかにここが本番と言わんばかりのセッションです。
    Googleとかはてなの中の人の話を詳しく機会って、そんなにないもんね。


  • 中村聡史(京都大学 特定准教授)
    「サーチとインタラクション」

    →UI・インタラクションデザインを専門に研究されてる教授。
    →動画を見た人の感情ベースでダイジェスト化。
    →検索結果のスニペットをドラッグして選択することにより、検索結果を動的にリランク。
    →オノマトペから食べ物を類推する「オノマトペロリ」。
    →はさんでポンッ。
    →ブラウジング自体をサーチ行為として履歴を蓄積し、履歴に従ってリコメンド。
    →【個人的雑感】やはり大学教授、話は面白いわ、プレゼンするツールはいちいち刺激的だわで、もしかしたらウェブ学会で一番面白い内容だったかもしれない。マジで。「検索ランキングを人の手に」は名言です。

  • 稲垣陽一(株式会社きざしカンパニー CTO)
    「ブログから社会と個人の変化を知る- ブログ検索エンジンの研究開発について- 」

    →自社サービスkizasi.jpの紹介。
    →ブログをクロール、解析してトレンドを公開。
    →【個人的雑感】特になし。


  • ボッレーガラ ダヌシカ(東京大学 研究員)
    「ウェブから作る人工知能」

    →人工知能や自然言語についてプレゼン。
    →「One web, Two views」Webを単なるハイパーリンクの繋がりだけでなく、Entityが関係で繋がれたネットワークと解釈
    →AIのポイントは「知識ベース」と「推論メカニズム」。後者が難しい。
    →「知識ベース」のポイントは、属性類似性と関係類似性の判別など。関係検索などに発展→「キリスト教, 聖書」>「イスラム教, ?」>「?, コーラン」のようなEntityの関係性の判別。
    →AIが行うのは「Document retrieval」から「Object retrieval」へ進化。
    →非常にしっかりした内容だったが、日本語でのプレゼンのためか、少し緊張の色が目立ち、ブワーッと話すだけに終始。
    →【個人的雑感】うーん、学会っぽい。これですよ、これ。


  • 工藤 拓(グーグル株式会社)
    「ウェブデータを使った統計的自然言語処理」

    Google日本語入力を作った人。
    →Google日本語入力は、20%ルールから始まった。
    →人手を介さずに自動的に辞書を作成。
    →Win+Mac両方で同時にスタートできたのが良かった。
    →サジェスト機能は、Webマイニングの応用。
    →大量データによる、統計的自然言語処理が特徴。従来は、新聞記事を対象とした、人手によるアプローチが主流。
    →いかにWebでスケールさせるかがポイント。その1:MapReduce(Googleお得意の分散並列処理、Googleでは、MapReduceを使えるかどうか、が取り組むか否かの一つ目の判断基準となる。従って量的データやシンプルなアルゴリズムが得意)、その2:辞書の圧縮。
    →MapReduceとは:ざっくり対義語としてスパコンがある。数千〜数万の普通のコンピュータを繋ぎ、並列処理を大規模に行うシステム。広大な共有メモリが必要な処理には向かない。
    →ゼロ頻度問題(一定サンプル内での抽出数ゼロでも、実際にはゼロではない)には、スムージング(頻度補正、一定の係数を掛ける)で対応。厳密なKneser-Ney法でなく、Stupid Backoff法を採用。Stupid Backoff法の方が精度が甘いとされるが、負荷が軽い上、精度差は、データ量に応じて極限まで小さくなるのに加えて、データ量増加によりパフォーマンスも鑑みると、GoogleレベルではKneser-Ney法ではレスポンスしない。常に最高機能にこだわり続けると、Googleのイノベーションは実現できない。
    →Googleは、その手法として常にパーフェクトは目指さない。許容しながらベストプラクティスを追求するのが基本姿勢。
    →きちんとスケールするアルゴリズムであることが最も重要である。
    →【個人的雑感】冒頭「Google日本語入力を作りました」と自己紹介した瞬間、会場から大きな拍手。旬の話題だったこともあり、ちょっとしたヒーロー的扱いでした。内容は、Googleの内部を垣間見えた感じで、ちょっと鳥肌立ちました。特に印象に残ったのは、googleは最先端の技術をぶん回しているわけではない、という部分です。今となっては有名すぎるPC繋ぎまくって並列処理、という姿勢は、開発の細部にまで及んでいます。とにかく、興奮するプレゼンでした。


  • 豊田 正史(東京大学 准教授)
    「10年にわたる国内ウェブアーカイブを用いた社会分析」

    →10年間、150億にも及ぶ日本のWebサイトをアーカイブ。
    →蓄積したデータを壁面ディスプレイでマイニング。
    →個々のWebサイトを、属するカテゴリでクラスタ分けして、クラスタごとの関連性をスパイダーグラフ化。さらにそこに時間軸の概念を入れると、クモの巣の形がどんどん変わっていくのが分かる。
    →分かりやすい利用法として、例えば、SEO業者の被リンク用リンクファームの識別などに役立つ。リンクを集めたい目的サイトを中心に、芸術的なほどに放射球体形。
    →実際に1−10万ノードのスパイダーグラフをデモ。サクサク動く様子に、会場から感嘆の声。
    →このように、時間軸の概念を加えたWebマイニングシステムを「Socio-Sense」として、推進中。他方、現状の検索エンジンは、「今のWeb」を切り取ることに終始。
    →【個人的雑感】何度も書くけど、大学教授はやっぱり話上手いなあ。この人は真性のWebオタクですね。10年間Webサイトをアーカイブし続けてるとか、狂気の沙汰としか思えないです。しかし、目の前で無数のスパイダーグラフがどんどん増殖していくのには圧倒されました。迫力十分。


  • 伊藤 直也(株式会社はてな CTO)
    「コンシューマ向けウェブサービス企業におけるサイエンスへの取り組み」
    →はてなのサービスと歴史を網羅的に紹介。
    →はてなの目指すのは、「人と人とを繋げるWisdom of cloud」
    →はてブの関連エントリのリコメントエンジンはパートナー企業である株式会社プリファードインフラストラクチャーと共同開発。
    →全文検索もPFIと共同開発。
    →うごメモはてなの不正動画フィルタリンクは、一次チェックをシステム、そこから人にエスカレーション。
    →ウェブアプリはすべて、詰まるところ掲示板システムの延長。決して難しいものではない。
    →簡単だからカスタマイズも容易、つまりMarket-In的サービスに向いている。
    →2000年までのはてなは、問題が発生しても富豪的アプローチで解決していた。
    →サービスがスケールすると、データ量的に困難になる。富豪的解決だけでなく、自然言語や機械学習のアプローチが必要になった。それが一つの転換期。
    →例えば関連エントリのカテゴリ自動分類などは、技術者ならではの視点。
    →しかし、技術者視点からの開発は、得てして独善的になりがち。即ち、Product-Outであり、成功のためには、プロダクトマネージャがキモ。「理論→実装」「実装→機能化」「製品化」「エンドユーザー向け仕上げ」のフローを、プロダクトマネージャーが統括/ファシリテートしてこそ、良いものができる。
    →今後は、大量のCGMデータを、コンピュータサイエンス的視点で料理していきたい。
    →Market-In、Product-Out両面のサービスを作っていきたい。つまりサービス+テクノロジー。
    →【個人的雑感】これ、明らかに客を帰らせない構成ですね。最後の最後にGoogleのエンジニアやはてなCTOが話すとなれば帰るわけにはいきません。会場の熱気も、セッション3が圧倒的でした。もしかしたら人種としてエンジニアが多くを占めていたってことなのかもしれませんが。いやまあ、こちらも非常に刺激的でした!


  • セッション3:ディスカッション
    →パネラーの背後のスクリーンにtwitterの画面が大写しに。
    →「映った!」とか「いえーい!」等のtweet乱発。まあ、そうだよね。
    →正直、そっちが気になってディスカッションの中身はまったく聞けず。
    →ただ、みんないまいち噛み合ってなくて、あんまり盛り上がっていなかったような・・・
    →それよりも、写りたくてPCを叩く周りの音がうるせー。間違いなくみんなtweet中。


えーと、冗長で今ひとつ盛り上がらなかったセッション1、ぶっ飛んだセッション2、これぞ学会!と言いたくなるような刺激的なセッション3と色々ありましたが、初回としては非常に面白い試みだったと思います。
まあとにかく「自然言語」関連のネタって本当に熱いのね、ということくらいはぼくでも分かりました。

パネルへの質問はすべてtweetで受け付ける等、必要以上にtwitterをフィーチャーした構成でしたが、これも成功かと。かなり盛り上がりましたからね。あとはUstreamでの中継も見た人は多かったのではないでしょうか。

個人的にはこういったセッションを観覧したのは初体験だったのですが、勉強にもなりましたし、それ以上に余りの「熱さ」に刺激されたことが良かったです。

途中までtsudaってみようとiPhoneのフリック入力で頑張ってみましたがセッション3が始まったところで電池が切れ、志半ばに終わったり。

いやー、何が疲れたかって、このながーいレポートまとめるのが、一番疲れましたよ、と・・・



このエントリをはてなブックマークに追加このエントリをdel.icio.usに追加このエントリをLivedoor Clipに追加このエントリをYahoo!ブックマークに追加このエントリをFC2ブックマークに追加このエントリをNifty Clipに追加このエントリをPOOKMARK. Airlinesに追加このエントリをBuzzurl(バザール)に追加このエントリをChoixに追加このエントリをnewsingに追加

Written by poissonvolant

12月 10th, 2009 at 2:50 am

>> コメントをどうぞ

Posted in つぶやき,レビュー

Tagged with , ,

Trackback URL:


Please write your comment.