すでに始まっているAIプラットフォーム競争のなかでIBM Watsonが目指すもの


とあるメディアのタイアップ企画で書いた文章なんだけど、クライアントからNGとなり全面的にボツとなったので、供養替わりにここで公開。微妙にタイミングを外しているけど、賞味期限が切れるほどではないので。

-ーーーーーーーーーーーーーーーーーーーーーーーー

Watson日本語版の発表会において日本IBMの与那嶺社長が「Watsonの起源のひとつが日本語処理技術にある」と話したように、IBM Watsonの特徴は「ことば」の処理能力が高いことにある。一方、現在の人工知能ブームのきっかけとなったディープラーニングは、強力な画像認識が特徴だ。IBM Watsonにも画像認識の機能は備わっているが、なぜIBMはWatsonの強みとして「ことば」をアピールするのだろうか。

現在、さまざまな人工知能関連のサービスが登場している。そのひとつが、ディープラーニングと呼ばれる、多層構造のニューラルネットワークを利用した機械学習技術だ。ニューラルネットワークは以前からあった技術だが、近年になってブレイクスルーが起きて飛躍的に進化した。例えば、画像を認識に利用することで、そこに何が映っているのかをコンピュータが正確に判断できるまでになった。

犬にはさまざまな種類があり、体の大きさや色、または年齢によって、その外見が大きく異なる。また、写真によって明るさや向き、大きさなどはバラバラで従来の画像認識技術では、それをすべて「犬」と自動的に判断することは非常に難しかった。しかし、ディープラーニング技術によって、こうした画像認識技術が大幅に発展し、現在ではすでに人間を越えるほどの認識精度を実現している。

発表会においてデモンストレーションを行ったカラフル・ボードのコーディネート支援アプリ「SENSY」も、このディープラーニングを用いて、ファッションアイテムの認識を行っている。そのアイテムが、シャツなのかセーターかTシャツかスカートなのか、人間なら容易に見分けられるが、それと同様の「目」をディープラーニングが行っているのだ。SENSYはさらに、その人工知能にアイテム同士の組み合わせによるコーディネートを認識させようとしており、ディープラーニングはこれまで人にしかできなかった認識だけでなく、コーディネートのような感性といった曖昧さを含んだ分野をコンピュータ化できる可能性を秘めたものなのだ。

このディープラーニング技術において、早くも主導権争いが始まっている。Googleの「TensorFlow」、日本発の人工知能ベンチャーとして注目されているプリファードインフラストラクチャーの「Chainer」、マイクロソフトの「Computational Network Toolkit」などの解析エンジンがオープンソースソフトウェアとして公開されている。

これらのディープラーニングエンジンは、誰でも自由に使うことができ、エンジンを利用したアプリケーションやサービスをビジネス展開することも可能だ。それは、人工知能のプラットフォームとしての地位を確立することが、これからのIT業界において強い競争力を獲得することになると考えられるからだ。

これまでのインターネットにおいては、強力な検索サービスによってウェブへの入口という地位を獲得したGoogleが、その後広告事業で高い収益を上げ、ウェブにおける巨大な存在となった。AIにおいても、そのような地位を得ることをGoogleやMicrosoftは狙っていると言える。なぜなら、これからのITにおいて、AIは必須の技術となることがほぼ確実視されているからだ。その理由はIoTにある。

IoTはすでにバズワードとなりつつあるが、さまざまな機器がネットに繋がり、自らデータを生み出す世界はすでに始まっている。身近な所でも、すでに自動車は高度なセンサーの塊となっており、将来的に自動運転が実用化されたなら自動車間およびでのセンサーデータの共有は不可欠となる。そして、自動車などの機械が生み出すデータは、現在までに人間が生み出しているデータとは比べものにならないほど膨大な量となる。このIoTが生み出すビッグデータを処理するために、人工知能が必要なのだ。

IoTが生み出すデータ量は、あまりに膨大で、もはや人間が直接対処することは不可能だ。つまり、人工知能技術なくして、IoTは絵に描いた餅になってしまうのだ。そして、ビッグデータを処理するAIとしてのデファクトスタンダードの地位を得ることが、その後のAI時代における今のGoogleのような地位となりうるだろう。

その一方で、実はディープラーニング技術などの最先端のAIは、なぜ上手く動作するのか完全には解明されていない。同時に、ディープラーニングのシステムが学習した結果、つまり人間の「記憶」に相当するデータも、実は人にはほとんど理解できないデータの塊だ。そのため、人工知能が学習した成果を人間が把握するためには、人工知能によって人間の言葉として表現してもらう必要があるのだ。そこでIBM Watsonのように言語処理に優れた人工知能のもうひとつの活躍の場がある。

こうした人工知能は、IoT以外にも活用できる。たとえば、企業はいわゆる「データ」と呼ばれるもの、すなわち小売におけるPOSデータ、製造におけるプラントのデータ、顧客データなどだけでなく、日常業務のなかでさまざまなドキュメントも発生してる。日報や報告書、申請書やビジネスメールなどだ。こうしたテキストデータは、あまりデータとして活用されてこなかったが、人工知能技術によってそれらも「データ」として分析できるようになる。

それによって、これまで「人」が持っていたさまざまな業務上のノウハウが、明確なナレッジとして誰でも再利用可能なかたちで共有できるようになる。ソフトバンクが、デモ映像で見せた「ソフトバンクブレイン」が、そのひとつの形だ。Watsonが、社内文書から過去の事例を検索してくれるだけでなく、具体的に営業するための作戦まで考えてくれる。そうやって機械ができるところは機械に任せ、人間は人間にしかできない仕事に集中し、全体として生産性を上げる。これが当面のビジネスにおける人工知能活用のビジョンだ。

IBMはこれまで企業を相手にビジネスをしてきた。そして、企業が持ちながらデータとして十分に活用されていないものの多くは、テキストデータだ。つまり、企業向けのITシステムやサービスを手がけてきたIBMにとって、人工知能で処理する対象として「ことば」にフォーカスするのは自然流れといえる。

また、競争が起きているのは、AIのエンジン部分だけでない。それを高速に動作させるためのハードウェアもGPUベンダーのNVIDIAを筆頭に開発競争が起きているほか、アプリやサービスを動かすインフラとしてのクラウドにおいても、各事業者がAIエンジンを利用しやすいサービスやメニューの提供を始めている。このように、AI技術は、基礎的な部分はすでに実用的なサービスやプロダクトとして出そろいつつあり、AIのために必要なプラットフォームの各レイヤーにおける事業者間の競争も始まっている。

IBMはその競争に勝つため、「ことば」に強いWatsonを用いて企業が今取り組んでいるビジネスを支援するところから攻めようとしている。また、IBM WatsonのAPIを「Bluemix」というPaaSのなかに組み込んで提供しているのも、企業や開発者にとって利用しやすくするというメリットがある。そして、エンタープライズの領域からAIプラットフォーム競争に勝つことがIBMの本当の狙いなのだろう。

ChromeとSynapticsタッチパッドの相性問題の回避法


VAIO ProなどのSynapitcs製タッチパッドを搭載しているノートPCとGoogle ChromeのVer.34以降で発生している相性問題(タッチパッドで2本指スクロールをするとChromeがキーボードによる操作を受け付けなくなる)について。

Chromeの開発者フォーラムにはすでにIssueとして登録されているものの、Ver.36 Betaに至ってもまだ修正されていない。そこでフォーラムにレジストリ操作による暫定的な回避方法が投稿されていたので、こちらでも紹介しておく。

レジストリエディタを立ち上げ次のkeyを開く。

HKEY_LOCAL_MACHINE\SOFTWARE\Synaptics\SynTPCpl\Controls\2Scrolling\Dialog\1Under pointer

そうすると「Visibility」というvalueがあるので、そのデータを「0」に変更する。

さらに次のkeyを開く。

HKEY_LOCAL_MACHINE\SOFTWARE\Synaptics\SynTPCpl\Controls\2Scrolling\Dialog\2Selected item

こちらも「Visibility」というvalueがあるので、これも「0」にする。

そして「コントロールパネル」から「マウス」の設定を開き、「デバイス設定」のタブから「設定」ボタンをクリックする「デバイス設定:Synaptices ClickPad」が開く。

そこで「スクロール」の項目を開くと、「スクロース速度」の項目に「ポインタで示したアイテムをスクロール」という選択肢が増えている。デフォルトでは「選択したアイテムをスクロール」となっているはずなので、前者を選んで設定ウィンドウを閉じる。

これで、今のところ問題は発生しておらず、使い勝手も以前(Chrome 33より前)と変わらない。

【覚え書き】データ・セントリック社会


物の価値というコンテクストに依存する量を一般化、抽象化することを可能にした

物の価値を決定していたコンテクストは、時と場所と人によって変化していた。相対による物々交換経済は、それ以外の取引方法が不可能だった。それを「貨幣」は、たったひとつのスカラーとして扱うことで、普遍性を獲得した。

抽象化しても、時間だけはすべての人間にとって等しく流れるものだから、それのみをコンテクストとして取り込むことで、利子や割引率などが生まれた。

貨幣自体にベクトルはなくても、各々の商品とその具体的なニーズにはベクトルがある。それを合成することで、ものの市場価値が決まる。

物の価値を抽象化した貨幣は、ものの取引を効率化するためのものだった。抽象化されつつも、実際の物とニーズにはベクトルがあり、市場価値はすべてのベクトル合成によって決まるとするなら、そのベクトルの小さな変化や差異を読み取ることで、利益が生まれる。それが裁定取引。

だが、抽象化された貨幣であっても、時間というコンテクストをはぎ取ることは不可能だったように、国や地域というコンテクストが残った。また、証券や債券という、貨幣に近い価値を持ちながら、貨幣よりもコンテクストを持ったものを生み出すことで、価値を生み出したり操作したりする手法も生まれる。

抽象的なものの操作は人間だからこそ可能なことだが、抽象概念の操作は複雑で理解しにくい。その微妙な理解の差自体もまた、価値の源泉となっている。

それに逆らうかのように、貨幣に強制的にコンテクストを付与することで、価値創造可能な領域を絞って、貨幣操作自体が暴走しないことを目指したのが地域通貨。ただ、実際には価値の操作の領域制限と創造のインセンティブとの設計が、困難であるし、抽象化可能な価値以外の価値を「貨幣」に与えることになるため、その「抽象化不可能な価値」を共有できる範囲内でしか成立できない。

だが、貨幣にもまだコンテクストが残っているということは、さらなる抽象化が可能であると言うことだ。物の価値を徹底的に抽象化していくと、残るのは純粋な量を示すデータでしかなくなる。

物の価値を示す貨幣は、結局あらゆる人と価値を共有するために、バラバラのベクトルというコンテクストを合成したように、「コンテクスト」というベクトルによって量が決定されている。

ならば、コンテクストをすべて把握することができれば、物の価値を性格に把握できる。コンテクストが物の価値を決定するなら、コンテクストそのものが価値であると言える。

コンテクストとは、すなわちデータ。ある物に係わるすべての要因を示すデータ。複雑で多様で大量な要因。従来の経済学や物理学は、複雑な環境要因のパラメータを簡略化することで、公式化したが、数学的手法と機械的計算力の獲得で、環境余韻をざっとデジタル化して扱うことが可能になってきた。

つまり、統計力学的手法がより精度を増したように、経済学的社会学的な分析手法が統計学的により精度を増していく。

データが物の価値を決める。ならば大量に勝つ迅速にデータを集めて処理できれば、それ自体が市場における強さになる。それが今のビジネスで起きている変化だ。

It’s real view on Tokyo 2012


まだ松も取れない晴れた平日に、仕事で出かけた浅草。吾妻橋の交差点に差し掛かったおり、ふと隅田川方向を見た時の景色がおかしかった。

R0014468.JPG

アサヒビール本社(いわゆるウンコビル)と墨田区役所に挟まれた狭い空間の向こうに、スカイツリーが見える。フィリップスタルクのあのオブジェだけでもだいぶおかしな感じなのに、スカイツリーまで加わると、ラスベガス並みに訳のわからない景色になっているw

墨田区近辺は、あちこちでこんな風にランドスケープがおかしなことになってるんだろうな。