ヒキダスブログ

テック系や最近見たもの感じたことを書いて残す引き出しスペースです

Bonfire Next #1を通じて感じる、次世代インターフェースの行く末

2018年最初の勉強会、Yahooさんが主催の「Bonfire Next」というイベントに行ってまいりました。タイトルの"Bonfire Next"ですが、

Bonfire ... かがり火(新しいトレンドや技術分野)
Next ... それをもとにどういうことを話し合うか

という意味だそうです。

様々な会社の人が登壇し多様な観点のお話が聞けるところと、今回のテーマ「多様化するインターフェースの活用」の2点が気になりました。
Yahooのオープンコラボレーションスペース、 LODGE が会場です。

f:id:pujoru35:20180126014619j:plain

カジュアルでお洒落な空間になっています。

実例から見る VUIアプリの企画から分析まで

最初の登壇者は、株式会社WHITE のプランナー/UXデザイナーの伊東 春菜さんです。WHITEは広告系の企画・開発を軸にExperience Deignを手がけるUXデザインカンパニーで、博報堂グループであるスパイスボックスの子会社でもあります。
WHITEは企画からマーケティングまで担当領域とし、恋人の手の上にプロジェクションマッピングを行うTIFFANYの"Hand meets hand"、世界初触れるVRゴーグルの MilBox Touchドライブレコーダーのデータを使い運転技術を診断する DRIVING! を事例に挙げていました。

2017年AIスピーカー元年という背景から、WHITEはいち早く音声インターフェースのUXデザイン専門組織を設立し、Google Home発売に合わせて2つアプリをリリースしたとのこと。今回は、作られたアプリの一つである、「日本史語呂合わせ」の開発の過程を紹介してくれました。

まず企画段階では、Simple(誰にでもわかりやすい・短い)であることをコアにしていました。スマートスピーカーとは長時間話すのでなく小時間という性質も考慮し、大人から子供まで・家族や友達・お茶の間で ・GoogleHome/スマホでも使えるアプリをユースケースとして設定されました。

次にペルソナ設定として、VUIという音声でやりとりする性質上、アプリの人格を備えるという独特のデザインがあります。ユニークで一貫性がある人格を設定しトンマナを統一するという目的があり、今回の語呂アプリでは戦国武将の「語呂丸くん」というキャラクターを作られました。

それから、シナリオ作成(会話例などのパスを書くこと)、機械らしさを減らすよう会話にバリエーションを持たせる、Actions on google Dialogflow で開発し、テストでは社内で実際にスマートスピーカーで触れて出たフィードバックの修正を繰り返したそうです。アプリ審査では、ユーザが迷子にならないか・アプリを終了したいときに終了できるようになっているかという項目にもクリアをして行きました。

アプリの分析においては、dashbot という海外のツールを使用したそうです。その詳細分析によると、1回の利用あたり平均会話数18回と、きちんとゲームをこなしているユーザが多かったそうです。その一方、ユーザが語呂丸に問題を出してくるケースがありそれにうまく切り返せていない点や、ユーザの「良いぞ」や「はーい」を、[Yes]の意味で認識していない(表記揺れ)点もわかり、それらに対する対応も進めているそうです。

最後に、VUIはまだ新しい領域でもあり、UI・UXデザイナーに限らず、コピーライターやエンジニアなど様々な職種が活躍できるところがあるので、挑戦して武器を増やしてもらいたいということで締めくくられました。

テクノロジーの目的を明確化するためのデザイナーのアクティビティ

www.slideshare.net

次の登壇者は、NEC 事業イノベーション戦略本部ビジネスデザインセンターの安 浩子さんです。今回、NECの事業である顔認証とAIをメインにお話をされました。
NEC は国産コンピュータで有名でありますが、現在はLenovoにPC事業が移っており、一方でNECは社会価値創造型企業、社会ソリューション事業に移行しているのだそうです。例えば、セブンイレブンに設置されたセブン銀行NECが関わっていたり、成田空港の指紋認証や指紋照合、ATM・金融システム、交通情報案内と、PCに関わらず様々な分野の課題解決を手がけていることが伺えました。

本テーマでは、イベント会場の本人確認や出入国審査を例に、運転免許証等の顔写真付き身分証明を人の目で照合するこれまでの作業に着目されました。

確かに、人手を使った照合作業は、確認項目やフローがマニュアル化されていれば、比較的導入やアサインも簡易になるでしょうが、捌く量次第で識別精度が落ちていったり人件コストがかかる面が懸念されます。
そこをNECは、パブリックセーフティ - 顔認識システムでスムーズな本人確認を行えることを実践していきました
特にイベントでは本人確認が大変なところでもあり、顔認識により東京オリンピックへの実用に向けて検証を進めているそうです。また、顔認識を活用して無人店舗への実現も視野に入れているとのこと。

NECでは、「正しい未来になるかどうかを考察する」ことをデザイナーの立ち位置としているようでした。デザイナーというと、見た目のグラフィックを作り上げる人を想像するかと思いますが、そもそも"Design"が"設計"や"ある方向に向ける"ことを示唆することから、それを大局化したポジションなのかもしれません。
社会や顧客のインサイトを探索し、ステークホルダーとともにワークショップを開く。そして、どういう対象者にどんなものを作るのかをインターフェースに落とし込む、という一連の工程をデザイナーが担っており、幅広く立ち回れる裁量と同時に責任の大きさを感じました。

Google Cloudが提供する機械学習API

グーグル合同会社 Google Cloud デベロッパーアドボケイトの佐藤 一憲さんは、Googleが目指す「誰でもできる機械学習」をテーマに、いくつかの機械学習のデモを発表されました。
例えば、りんごとみかんを識別しようとするとこれまでは色や形状と各々の特徴を定義して区別させていたようですが、ニューラルネットワークという技術により高い精度で認識できるようになったそうです。Googleサービスはそうした機械学習を利用しており、最近Gmailでも返信の12%を自動返信できる「スマートリプライ」という機能が導入されました。

次に、Googleが学習済みモデルを提供する「Cloud ML API」にフォーカスを置いて説明されました。

www.youtube.com

こちらの動画が、Googleで具体的に何ができるのかを分かりやすく紹介しています。例として、カメラから撮った画像をクラウドAPIで結果を取得し、顔検知・感情分析・物体認識といったことができるそうです。
また、Vision Explorer というコンテンツからも、GoogleのCloud Vision APIによってクラスタ分析で3D空間上に似た画像を分類して可視化することもできるので、機械学習を一から始めようとすると敷居が高い部分をGoogleのサービスを活用することで作りたいコンテンツに集中できるのがイイですね。

Yahoo!カーナビ 多様化するインターフェイスの活用

最後は、ヤフー株式会社 Yahoo!カーナビ サービス責任者である上永 徹さんの発表です。

www.slideshare.net

これまでカーナビは車載の据え置き型が一般でしたが、近年スマホで自由自在に表現、操作できるデバイスでカーナビを提供するようになってきました。そうした中で、2017年12月時点でYahoo!カーナビは1200万DLもされており、広く使われているように見受けられました。
一方で、「スマホアプリはドライバーの命をお預かりする以上、独自の安心安全ガイドラインを定め、安心安全を第一に考える必要がある」と上永さんは仰っていました。道路交通法でも運転中にスマホを手に持って操作、注視することは禁止であり、運転する側としてはその使い方、提供側もそれが適した機能であるかが強く問われていると言えそうです。ユーザ側のニーズとして経由地の追加ができないことを例に挙げられ、ただ実際運転の集中を妨げないようスマホを操作させたくないことから、使い勝手を追求できない場合どうすれば良いかが検討事項であるそうです。

また、地図のインターフェースについても諸説ありますが男女で読み取り方の傾向に違いがあるそうです。男だとサーベイマップ的知識(俯瞰して道を理解する)に長けており、女性はルートマップ的知識(自分視点の景色で道を理解する)に強いということで、アプリでもどういう見せ方が最適かが難しそうではあります。

他に検討したこととして、音声操作も挙げられました。確かにタップ操作に比べ運転の集中を欠くことは少なくなりそうであるものの、音楽、空調、会話、走行音等の環境音により音声認識が難しくなる、マイクは音声起動か手動起動か、音声対話だとシナリオ作成が複雑と、様々な課題も出てくることから、扱いやすい機能になるかどうかはもう少し先になりそうな気がしました。

今後コネクテッドカーの実用化によっては、運転する必要がない自動運転の可能性も出てくるかと思います。が、導入される車も限定的であることからカーナビの需要は依然残るわけですし、ただ普段スマホを使う状況よりも制約を受けている中でどういう答えを出していくかが今後の課題と言えそうです。

振り返り

VUI(Voice User Interface)でいうと、一般的なものだとAppleのSiriやGoogleの音声アシスタントがスマホに搭載されこれまでのアクセスポイントでした。アニメだと「東のエデン」のジュイス、映画なら「アイアンマン」のジャーヴィスでしょうか。
昨年から、 Google Home やLINEの Clova が家電量販店などの店頭にも並ぶようになり、スマートスピーカーが一気に取り上げられるようになりました。

私の会社でも実験的にGoogle HomeやClovaの展示会が催されましたが、「今日の天気は?」「音楽聞かせて」 のやりとりを拾い上げてレスポンスしてくれる精度面が思っていたよりも良かったのが印象的である一方、他にどういう使い方ができるのかがイメージしづらいところでした(天気を聞くだけの一方向的な使い方だと次第に使われず置き物化してしまいそうで...)。

そうした意味で、最初の発表に上がったWHITEは先行して音声インターフェースのUXデザイン専門組織を立ち上げ、アプリまでリリースする実績を残したのはすごいと思いました。
据え置き型VUIが今後どれだけ普及し伸びていくのか、多少の予測はできるでしょうが作り手として可能性を考察し実践したケースは稀少ですし先行者であればその盛り上がりをリードすることもできますし。
Google機械学習を扱いやすくしたアプローチも、その先行事例の一つと言えるでしょう。普段扱っていない領域であり敷居・学習コストの高い機械学習という分野をAPIを使って誰にでも扱えるようにしたのはさすがGoogleさんですし、一つのビジネスモデルになっていくのだろうと感じました。
Yahoo!カーナビは、ユーザからの需要とサービス側の供給のせめぎ合いを考えさせられました。スマホをカーナビ代わりにできたのは大きい一方、法的な制約下の下スマホを注視しすぎずユーザがやりたいことをいかに達成するかという課題の大変さを感じました。音声が難しいようなら、脳波でなんとかならないかと思いつつ、カーライフを担う役割としてこれからも頑張ってもらいたいなと思いました。
NECが顔認識を扱っているというのは今回初めて知りました。これもまた一つのインターフェースでしょうし、個別認証からもっと広い使い方ができないかなぁと想像しつつ、私もより良いインターフェースのあり方を少しでも考察し形にしていきたいなと考えさせられました。