こんにちは!スマートバンクでUXリサーチャーをしているHarokaです。
今夏、大学の研究の場で実験されているユーザビリティテストのシステムに触れる機会がありました。 私がユーザリビティテストをするときに感じていた”インタビュー時の発話から情報を取っていく限界”について、興味深いアプローチをされていたので、ご紹介したいと思います。
リサーチカンファレンスのポスターセッション登壇時、東京理科大学 国際経営デザイン学部 高島研究室の高島先生と縁あってお話の機会をいただいたことをきっかけに、研究室にお邪魔してきました!
リサーチカンファレンス登壇の様子はこちら blog.smartbank.co.jp
訪問目的は、現在研究されているユーザビリティテストツールのレビューをすること。
UXリサーチャーという立場で普段活動していると、インタビューをする機会があっても受ける機会は少ないものです。 学びの機会になるので、こういったお申し出には積極的にご協力するようにしています。
今回は4年生の学生さん6名が参加、卒業研究である「一人称カメラを起点とした新しいユーザー調査手法」を紹介してもらいました。
「一人称カメラ」を用いたユーザビリティテストツールとは
一人称カメラは、ユーザビリティテストを行う対象者の視点位置にカメラを設置し、視点が動くごとに映像も動くようなものでした。 その動画をもとに、対象者がわかりにくそうなところ、スムーズで心地よいと感じるところを抽出し、調査に役立てることができないか、というものです。
この資料にあるように、対象者がポジティブな感情になった時は、「よし」、ネガティブな感情になった時は「あれ」と発言するようにお願いし、一人称カメラを使って実際にユーザビリティテストを行います。
この動画(=一人称動画)を読み込み、そこにより分析に役立てる視覚的な加工を伝える動画再生ツールとして、CJVツールと名付けて研究しているとのこと。
裏で文字起こし処理が走っていて、発言は画像下部に自動生成されます。同時に、「よし」と発言したところはオレンジ色に色付けがされ、「あれ」と発言したところは青色に色付けがされます。
動画では、B/43を題材にしてくださっており、アプリダウンロードから登録までの一連の流れが撮影されていました。 普段私がユーザビリティテストをする時は実施の場にいることが多く、撮影された動画だけを見るのは新鮮です。
動画では、対象者の方の視点が動く様子が如実にわかり、「あれ」「よし」のポイントも視覚的に伝わりやすく調整されています。AIによる自動書き起こしも正確で、場面の様子が掴みやすい工夫がなされています。
実際に拝見してみての気づきとして、カメラがついていることを対象者が認識した上で操作をするので、「ちゃんとしないと」という気持ちが一定働くとは思いましたが、従来のテスト手法とは違った情報を撮影できているように感じました。
ユーザビリティテストで感じる限界
通常、ユーザビリティテストをする中で難しさを感じるのは、以下の3つです。
調査したい操作について尋ねる際、対象者の発話から当時の状況を事細かに話してもらうのは難しい
加えて、当時のコンテキスト(ユーザーを取り巻く環境、状況)が取りづらい
対象者の視点からどう見えているのか、どこを見ていそうかを推しはかるのが難しい
ユーザーを取り巻く環境や状況がその方の行動に強く影響する(例えば、地図アプリを屋外で歩きながら見る状況と、家で道順を確認している状況とでは、見え方も気にするところも違うので、どんな場面かを明らかにしなければならない)と考えるため、インタビューでは極力たくさん拾えるようにお聞きしています。
一方、私も含め、自分がその時どうだったか、を思い出して鮮明に伝えることというのはなかなかに難しいものです。
インタビューの場でお聞きした際、なんとなくこうだったかな、と思い出したり、場合によっては「聞かれているし何か答えないと!」と無理やり捻り出す、なんてことも起き得ます。
できればその時の状況、例えばお家で仕事帰りに何気なく携帯を開いている場面など横にいて一緒に見られたら...と思ったことは多々あります。
インタビューでは、一定の時間の中でできる限りコンテキストをお聞きし、なるべくその当時の様子を思い出しながら使ってみてください、と再現するようお願いするのですが、実際に思い立ってその時に操作するリアルさとは、やはり離れているのです。 離れていることを認識した上で推し量りながら分析するのが、今時点ではベストエフォートである気もしています。
コンテキストをいかに取っていくか
動画を拝見した後、学生さんからインタビューを受けました。
実際に見てみた感想と、実務において有用そうか?という質問などいくつかお受けする中で印象的だったものがあります。
「もともと、操作の様子がはっきり見えた方がいいかと思って画面を大きく映すようにしていたが、どんな風に操作しているか、その周りには何があるかといった情報を気にしているのに驚いた」
といった趣旨の気づきを共有してくれたことでした。
私が動画で注視していたのは、指の動きや目線の動き、発話やスクロール、スワイプの速さなど。画面だけではなく複合的に見ていることも改めて気づくきっかけにもなりました。
それと同時に、「よし」「あれ」という発言以外でも、これはきっと詰まっていそうだな、とか迷っていそうだな、と感じるシーンもありました。「よし」「あれ」に似たようなシーンがいくつもありそうだったので、そういった際には対象者の表情など発話以外の情報があるとより良さそうです。
高島先生からは、「今回は卒業研究の発表時期の期限もあり、アプリのダウンロードに留まっていたが、本来はB/43の決済シーンを撮影することができたらより役にたつ調査データになるかも」といったコメントもいただきました。
対面で、オフィスの外に出たユーザー体験を知りうる機会は難しく(調査倫理とのバランスが難しいところだと思いますが)そういった機会がもしあればさらなる気づきが得られそうな期待を持てました。
何より、私にインタビューしてくれた学生さんが、はじめはトークスクリプトを中心に質問しておられたのが、「もともとこのように仮説として考えていたんですが...」とか「そうなんですね!そう捉えるのか...」などとても興味を持って話を聞いてくださったことに嬉しくなりました。 モデレーターとしては、相手に対して興味を持って、相手の話を深く理解しようとする姿勢がとても大事なので、それが自然と体現できていて素晴らしかったです。
今回の取り組みについては、卒業研究の発表会にてポスター形式で発表されたとのこと。
実際にレビューを受けた後、学生さんからはこんな感想をいただきました。
周囲の環境情報がいかに重要かを伺えたのは勿論の事、 大学内で留まっていては憶測でしか語り得ない、実務上でのユーザビリティテストの様子を知る事が出来たのが一番の学びだと思っております。
これと自分達の提案手法と比較する中で動画形式だとテスト結果を第三者により分かり易く伝えられそうとFBを頂けた事は自分達が主張する強みとも重なる部分があり、大変うれしく思いました。頂いたFBから次なるアップデートの方向性も見えてきています。
私達のプロジェクトは発表会で一旦、区切りがついてしまいますが、願わくばより洗練されたプロダクトを作っていきたいと考えています!!
研究の場では、実務として取り組む人の視点を取り入れるのが難しかったとのことで、今回そういった機会として伺えたことを大変嬉しく思います。 私も、ユーザビリティテストについてまだまだ磨けるところはありそうなので、引き続き質を高められるよう活動していきます。
スマートバンクで実践しているユーザビリティテスト事例についてはこちらの記事もご覧ください!
スマートバンクでは、一緒に働いてくださる方を募集しています。ユーザー理解を一緒に進めたいとお感じの方は、ぜひお気軽にご応募いただければ幸いです!