皆さん、こんにちは。「もしかしたら現時点で日本一遅いWatson Summit レポート」のお時間です。Watson Summitの開催が4月27日と28日なので、まもなく1か月が過ぎようとしていますが、第1回は基調講演、第2回はS&Iブースやいくつかのセッションを中心にお届けしてきました。そしてこの最終回では、展示会場内で気になった展示について、いくつかご紹介します。
もちろん、この記事よりも後にWatson Summit レポートを書かれる方がいたら、「日本一遅い」の栄冠は喜んでお譲りしますので、そのときはぜひご連絡を(笑)。

「光で感情表現するドレス」ってなんか妖精みたいなんだけど、それもAIなの?

コグニティブ・ドレス Watson トーン・アナライザー

見た目にインパクトがあるので、すでにあちこちの「Watson Summit 2017」関連記事でも紹介され、ご存知の方も多いかと思いますが、意外に詳しく説明されている記事が少ないのであらためて。展示会場の入口で美しい女性が謎のドレスを身にまとい立っていました。カメラを取り出すとキュートな表情でニッコリ微笑んでくれるので撮らないワケがないのですが、脇のモニターにはTwitterの投稿がリアルタイムで表示されています。これはいったい何なんだ?

……と、いうわけで、説明をよーく読んでみたら、これはWatson Tone Analyzerを使った「感情を認識するドレス」なんだそうです。来場者がイベントについてツイートすると、Watsonがそのツイートを五つの感情(喜び、開放感、穏やかさ、人間性、および外向性)に分類してドレスに送信。その感情に応じてLEDの色がピンク、黄色、薄い緑、黄緑、および青の5色に変わるんだそうです。
AIで色が変わるドレスなんてちょっと想像できない分野への応用でしたが、刻々と変わる状況を「視覚的に認知しやすいものに変換して伝える」と捉えれば、さまざまなシーンでニーズがありそうです。ドレスだって、将来はLEDの密度を高めて、周囲の声や表情から感情を読み取って、さらに色鮮やかに変化するものが作れそう。あ、そしたらLEDの放熱対策がいるから、スカートの中にファンを取り付けて空冷にして……いっそ、ホバー機能も付けたら……ドレスが黒くなっちゃいそうなので、この辺にしときます。

カーナビよりも高精度。自動運転やるんだったら、これぐらいじゃなきゃダメ!

コグニティブ・ビークル ~IBM Watson IoT for Automotiveを活用した高精度地図・交通情報配信サービス~

インタストリー分野のブース群では、IBMがカーナビメーカーのアルパインと共同で開発した、カーナビよりも高精度な地図情報と交通情報を配信するサービスのデモを展示していました。
従来のカーナビの地図では、道路の位置情報は分かるものの、その道路が何車線あってどういう形状をしているかという情報までは分かりません。それでは将来の自動運転のためには情報不足ということで、ゼンリンが作っている車線情報まで持った詳細地図を使い、例えば事故で1車線ふさがっているときに、どの車線に乗れば安全なのかをナビしてくれるのだそうです。これは将来の自動運転には欠かせない技術で、今回はそのプロトタイプとして展示しているとのことでした。

具体的には、道路の車線数、各車線の区画線、道路の境界(路肩など)やその幅などのほか、カーブのR(曲がり具合い)や勾配などの情報も持っていて、これらの情報を自動運転ユニットに提供することで、例えば前方に急カーブがあれば、速度を落としてカーブに進入するような安全な自動運転を目指していて、そうした状況の解析とルートの生成にWatson IoT for Automotiveを使っているのだそうです。
また、自動運転の車載センサーだけでは、せいぜい数百メートルぐらい前方までしか測定できないため、たとえば高速道路上で障害物を検知しても、10秒もすればその地点に達してしまいます。そのため、安全に減速や回避ができるよう、センサーで捉えきれない事故や道路の詳細情報を、サーバーから受信して処理したり、さらに、複数のクルマの車載センサーが検知した情報も活用して、より詳細な情報として利用できるそうです。

自動運転は初の事故死者が出たことで、より安全性の高い走行のための研究開発が叫ばれていますが、道路情報についてはここまで細かく把握できるようになっていたのですね。IBMは既に人間と自動運転の切り替えを動的に判断するControlling driving modes of self-driving vehiclesという自動運転の事故回避技術も持っていますので、将来はこうした技術の組み合わせで、ますます進化が加速しそうです。

ビッグデータの記録にいつまでもHDDじゃ、もうモタナイゼー(……寒くてゴメン)

オールフラッシュによる基幹ストレージのモダナイゼーション

グランドセッションのとき、ソフトバンク(株)の宮内社長は、業務でのAI活用をすぐに始めるにせよ将来始めるにせよ、データの蓄積・学習には時間が掛かるので「今すぐに始めるべきだ」という意味で「早くやった者勝ち」と主張しました。しかし、データ収集をすぐに始めるにしても、Watsonのように膨大なデータを処理するソリューションでは、大容量のストレージが必要になるのですが、データが増えれば増えるほど、ストレージのデータ転送量がボトルネックになり、さらに、Software Defined Storage(SDS)を活用した、デバイスに依存しない大量のデータの記録・管理が求められるようになります。
残念なことにSDSだけではボトルネックの解消には至りません。ストレージをHDDから高速なフラッシュメモリーにして、その上でSDSを活用するという、ハード/ソフト両方のテクノロジーがそろっていないと……ということで訪れたのが、IBMのフラッシュストレージのブースです。フラッシュストレージは、容量はまだまだHDDには及びませんが、価格は急激に下がってきていて、圧縮率が高まってくると容量当たりの単価でHDDよりも優位に立つことがあります。

そこで「IBM FlashSystem」!というわけで、ストレージをすべてフラッシュにモダナイゼーション(近代化)するためにピッタリの、IBM FlashSystem 900をたっぷり見せてもらいました。

展示されていた2Uサイズのエンクロージャーから MicroLatencyモジュールを引き抜いてみると、「2.9TB」の文字が。これで1台で2.9TBということは、12台で「34.8TB」。モジュールを変えれば最大「57TB」まで対応でき、さらに最大110万 IOPS。HDDはせいぜい数百IOPSですから、数千倍~1万倍ぐらいの性能差があります。同じIOPSを出すためにHDDを大量に増やすと、Flash以上のコストになってしまうので、モダナイゼーションしないとモッタイナイゼーというわけです。

ハチマキ巻いた売り子ロボットは、顧客の声と顔もデータ化する、見かけによらずスゲえヤツだった

ロボット×デジタルサイネージ×Watsonによるおもてなしの進化

JBCC(株)のブースで見かけた、大型モニターと、野菜と、コミュニケーションロボット「Sota」(ソータ)君の組み合わせ……なんだ、これ???

ソータ「とても新鮮なアスパラなので、バター焼き、アスパラベーコン、ゆでアスパラなどなど、お好きな食べ方で。ゆでたアスパラに塩を付けるだけで、とってもおいしいですよ。でも、一番のオススメは天ぷらです!」

両手を広げて野菜の宣伝をするソータ君。これは「ソータ君が一定のタイミングで周囲の音声を拾って音声認識し、それに関連する広告コンテンツをデジタルサイネージ(電子看板)に表示すると同時に、サイネージのコンテンツに用意されたシナリオに沿って、ソータ君が商品説明をする」という、デジタルサイネージとの連動のデモなんだそうです。

もしかして、ソータ君に喋らせるシナリオをWatsonが作っているのかと期待したのですが、そこまではやっていないそうで、今回は音声認識の部分と、コンテンツを関連付けるための分類の部分のほか、ソータ君の内蔵カメラが写したお客様の顔から性別や年齢を解析する部分でWatsonが活用されているそうです。

担当者「拾った音声から、予期せぬセリフをひねり出してしゃべり始めたら大変ですからね」

そ、そりゃあそうですよね(^ω^;)音声認識やコンテンツとの関連付けなら、既存のソリューションでもできそうですが、そこはWatson Summitですから、既に提供中のWatsonを活用したデジタルサイネージに、ソータ君を連動させて参考出品したのだそうです。そのおかげで、ソータ君のキュートな声としぐさに、なかなかその場を離れ難くなってしまいました(笑)。

レースの途中でドリルとルーターで穴開けて……とかやるのかと思ったら、もう改造済みのミニ四駆でした

IoTミニ四駆グランプリ

WatsonよりはBluemix関連の展示コーナーだったのですが、「ミニ四駆グランプリ」なんて書かれていたら、見ないわけにはいきません。でも、置いてあったのは記者がよく知るオンロード型のミニ四駆ではなく、オフロード型。当然オンロード型のコースもありませんでした。
よく見れば何か黒い箱を背負っているので、ああ、これがIoT絡みなんだろうと思ったら、どうやらただの電池ボックス。あ、あれ~????

で、これはスマホやタブレットをスワイプしてミニ四駆を操作するデモ展示で、タミヤのミニ四駆にCerevoのミニ四駆改造キットを組み込んで「Wi-Fiミニ四駆」というか「Wi-Fiラジコン」というか、とにかくそういう改造をしたものなんだそう。
さらに、Bluemixを経由して操作するタイプと、Wi-Fiのアクセスポイントへアクセスして操作するタイプの2種類を、「IoTを気軽に体感してもらうための応用例」として作ってみたらしいです。気軽に体感と言われても、改造キットを組み込んだら一応そのまま動いちゃうので、それじゃ意味ないですよね。それで、ただのWi-Fiラジコンにならないように、少しアレンジしたようです。
今回はサンプル展示ということで、スマホやタブレットをコントローラーとして使うだけでしたが、今後スマホの音声認識機能でコマンドを送れるようになったらもっと楽しいかも。「グランプリ」っていうぐらいだから、そしたらやっぱりレースを期待するわけで……スマホに向かって「がんばれ!」って叫んだら、どうがんばった走りを見せてくれるのか楽しみなんですよ(わくわく)。

AI、ネットワーク、会話機能を持った鏡の登場に、世界の「魔法の鏡」マニアが歓喜に沸いた(たぶん)

IBM Watsonと連携 デジタル・コンシェルジュ

「デジタル・コンシェルジュ」は、パナソニックとIBMが共同開発した、IBM WatsonとIBM Cloudによって宿泊客にさまざまな情報を提供するサービス。見た目と名前からして、タッチパネルとモニターを兼ねた「鏡」に向かって、音声入力やタッチ操作で、ホテルのサービス、天気、エンターテイメント、ショッピングや観光などの情報を取り出すとか、そんな感じなのかなあ……なんて想像していたら、まさにそのとおりでした。(動画)

表示が全部英語だったので、日本語表示にならないのか尋ねてみたら、昨年3月からヒルトンで試験運用されていたものをそのまま展示していたので、見た目は全部英語になっているけど、日本語にも対応しているので安心してください、とのこと。さっそく音声入力で呼び出してみたら「花子と申します」と日本語で自己紹介してくれました(徳島出身かな?)。

でも、花子さんはコンシェルジュなのに、なぜ鏡なんでしょう?フロントの近くに置くのなら、普通のタッチパネルでいいのでは?……と思って質問してみたら「これは客室内に置くことを想定していますので」という回答。あー納得。これは想像が至らなかった記者が間抜けでした。確かに花子さんがフロント付近にあったら、他人に聞かれたくない質問はしづらいですよね。客室内に置くのなら、スペースの都合上からも「鏡」にした方が便利なわけで、しかもそれが返事をするとなれば、世界で最も美しい記者が誰なのか小一時間問い詰めたところで、誰も何も文句を言いませんし、恥ずかしい思いもしません。そしてAIは(基本的に)ウソつきませんので、正直に答えてくれるはずです。そこまで考えて「鏡」にしたとは、さすがに考えが及びませんでした。脱帽です!

展示ブースにロボットを置くとまもなく取材に行くなんてこと、ないんだからねっ!!

IBM Watson IoT 見守りサービス デモンストレーション

(株)AITのブースに「IoT見守りサービス」と題した展示があったので、一人暮らしのお年寄りの様子をIoTで見守るサービスなんだろう……と思ったら、これが大ハズレ。これからIBM Bluemix Watson IoT Platformを導入して開発を始めようとする企業のための技術サポートをするスターターパックの紹介でした。「サポートのサービスを展示しても訴求力が弱いので、それを使って開発した架空のサービスを、IoTの応用例としてサンプル展示してみた」ということでしたので、この見守りサービスを利用したいと思っても、問い合わせないでくださいね。

でも、サンプルにしてはかなり作り込んでありまして、例えば一人暮らしのお年寄りが、コミュニケーションロボットのBOCCO(ボッコ)やSota(ソータ)に話しかけると、それを解析して意味を理解した上で適切な返事をしてくれます。天気について尋ねられれば、天気の状況をネットで調べて返答しますし、室内の温度や湿度もセンサーで測定して遠隔地からPCやスマートフォンで参照できます。

さらに、お年寄りがロボットに話しかけたときの声の大きさや抑揚も数値化して、元気な声で話しているかどうかを判定し、その結果も遠隔地にいる家族などが簡単に見られるなど、サンプルとは思えないほどの出来栄えでしたが、それらを「簡単に作れます」という同社の開発用スターターパックを紹介しないと、最後まで誤解されそうですね。
同社は、Bluemix Watson IoT Platformの開発における技術サポートのサービスを提供していて、Watson IoT Platformだけをサポートする『マカロン』、Watson IoT PlatformにNode-REDが加わった『シュークリーム』、そしてさらにWatson APIの一部までサポートする『モンブラン』の三つのコースを提供しているそうです。マカロンが最も安く、モンブランがお高いコース(30万円/月)でして、それぞれの環境で可能なIoTサービス開発時の問題について解決のお手伝いをしてくれるそうなのですが……開発しているところのデモはなかったので、どれぐらい簡単なのかは最後まで分かりませんでした(笑)。

おまけの写真

記者が昔、某・PC雑誌の記者だったころ、取材に行くときは「どんな写真が役立つか分からないから」という理由で、記事とは関係なさそうな写真でもたくさん撮っておけと言われたものです。
今回のWatson Summit 2017の取材では、全部で700枚ぐらいの写真を撮りまくったのですが、イベント内容に関係のない写真もたくさん撮っていました。その割には、撮り損ねた写真も多いのですが(笑)。そんなWatsonに関係のない写真の中からいくつかご紹介します。


展示会場のエントランスホールの噴水前では、女性3人組のバンド「Black Venus」による生演奏がありました。ジャズ、ポップスのほか、懐かしいディスコ曲などもあって、ちょっと聞き入ってました。EUB奏者がいるバンドはかなり珍しいですね。私が最後に見たEUBは、いかりや長介だったかな。

画像: おまけの写真

イベント会場では「まい泉」のカツサンドやミニバーガー、クッキーなどが振る舞われ……本当に振る舞われた、って感じでした。一人1個とかじゃなくて、会場内のあちこちに山積みにされていて、そこから好きなだけ持っていけー!!みたいな感じでした。まあ、それはさておき、おいしかったし、昼食代も浮いたので、ちょっと得した気分になりました。


JBCCのブースでもらったノベルティーがなんだかゴッツいなあ、とか思ったら、「俺のクラウド」と書かれたミニサイズのカップうどんが入っていました。ただのダジャレですけど、かさばるという点を除けば、なかなかいいチョイスです。ちょうどお昼に食べるインスタントの味噌汁が切れていたもので……(笑)。


さて、3回にわたってお送りしたWatson Summit 2017のレポ、いかがでしたか?ほとんど記者の個人的な趣味丸出しの取材内容でしたけど、記者自身はものすごく楽しんでしまって、書きたいこともこれで全部じゃないんです。時間が許せば、もっと詳しく、もっともっと感じたことをたくさん綴りたいのですが、残念ながら今回はここまでです。
 
昔、半導体の成長スピードを表現するときに「日進月歩」なんて比喩を使っていましたが、今はAIがまさしく日進月歩の中にあるようで、昨年2016年のWatson Summitと比べると、わずか1年間で急激な進歩を遂げたように感じました。そして、チャットボットのように実用化されたものに触れることで、より身近なところまでAIがやってきたと実感できるようになりました。
来年はもっと、再来年はもっともっと、Watsonは先へ先へと進むのでしょう。そのときに何を見せてくれるのか楽しみで、今にもオラナンダカワクワク病が発症しそうです。

コメントを読む・書く

This article is a sponsored article by
''.