旅行好きなソフトエンジニアの備忘録

プログラミングや技術関連のメモを始めました

Eye Tracking The User Experienceのまとめ - Chapter3

アイトラッカーのタイプ

  • アイトラッカーにはリモートタイプとウェアラブルタイプがある
  • リモートタイプは非接触で、被験者の前に固定して置かれる
  • ウェアラブルタイプは被験者の頭に装着して使う
リモート ウェアラブル
セットアップ 被験者の前に固定して置かれる 被験者の頭部に装着する
アプリケーション モニタの前で座る、もしくは一つの場所に立って行われるリサーチで使われる 被験者が動いて物に触れたり人とコミュニケーションを取る必要がある時に使われる
気になる度合い 被験者はあまりアイトラッカーを気にせずに済む 頭部に装着する、視界にアイトラッカーが一部入るため被験者が気にしやすい。衛生面、髪が乱れることから気にする被験者もいる|
動きの自由度 アイトラッカーが測定可能な範囲でしか頭部を動かせない。アイトラッカーと被験者の直線状に障害物があってはならない 被験者は自由に動いて良い。しかし、ほとんどのウェアラブルタイプのアイトラッカーはキャリブレーションを行った距離で最高精度となるため、近い物や離れた物に対しては測定精度が下がる
分析のし易さ ウェアラブルタイプのように次々にシーンが変わるということは無いため、静止画に対する解析は容易。動画やWebサイトのようにシーンが変化する場合は難易度が上がる 頭部の動き等に応じて次々シーンが変化するため難易度が高い

リモートタイプアイトラッカーの種類

  • リモートタイプはビルドインタイプとスタンドアロンタイプがある
  • ビルドインタイプはPCモニタに組み込まれている
  • スタンドアロンタイプはビルドインタイプと同じように使うことも出来るし、雑誌、新聞等の物理媒体に対する視線計測にも使うことができる
  • スタンドアロンの方が柔軟性が高いが、PCモニタに映る映像に対しての視線にしか興味が無ければ、セッティングの手間を考えればビルドインタイプの方が良い

リモート?ウェアラブル?どちらを購入すべき

  • アプリケーションによる。どちらでも問題無い場合はリモートを購入すべき

考慮すべきスペック

サンプリングレート

25 - 2000Hzと幅広いラインナップがある。一般的にUXリサーチでは50 - 120Hzの製品を選択する。これにより固視持続期間測定誤差を±10msec程度に抑えることができる(通常固視持続期間は0.1 - 0.5sec程度)。250Hz以上の製品は神経科学等で用いられるものであり、特殊用途と考えて良い

正確度と精度

正確度は0.5 - 1°のアイトラッカーが多い。1°の誤差とは68.6cmの距離からモニタを見た時に約1.3cmの誤差になる。精度は0.01 - 1°と幅広い。正確度や精度は理想環境下における数値のため、実際の環境下ではある程度下がることを想定した方が良い

頭部ボックスサイズ(リモートタイプのみ)

頭部ボックスサイズ内でしたアイトラッキングできないため、広い方が良い。典型的なスペックはW=30-44cm, H=17-23cm, D=20-30cm

片眼、両眼

両眼測定出来た方が良い。両眼測定できることにより、下記のメリットを享受できる。

  • 右目/左目の測定値の平均値を注視点とする
  • 片眼のトラッキングに失敗しても、もう一方の測定値を利用できる
  • ウェアラブルタイプにおいて、視差を補正する助けとなる
赤外光照射方式

Bright-Pupil Method

  • 比較的暗めの環境が得意
  • 茶色目よりも青色目の検出が得意

Dark-Pupil Method

  • 室内、外等の明るい環境が得意
  • まつ毛に瞳孔検出が邪魔されやすい
  • 青色目よりも茶色目の検出が得意

その他考慮すべきこと

  • 実はスペックは各社似たり寄ったりのため現時点ではそれ程重要ではない
  • 解析ソフトで何が出来るか。ソフトは定期的にアップデートされているか
  • メーカーに他社との差異ポイントやコンサル実績を直接訪ねる
  • 可能であれば購入予定のアイトラッカーを実際に使用している人にコンタクトを取る
  • 購入前にレンタルを頼んでみる

Eye Tracking the User Experience: A Practical Guide to Research

Eye Tracking the User Experience: A Practical Guide to Research

Eye Tracking The User Experienceのまとめ - Chapter2

アイトラッキングすべきか判断するための3つの質問

  1. アイトラッキングにより研究の目的に役立つ実用的な洞察が得られるか?
  2. 目的を達成するための手段としてアイトラッキングは一番単純な方法か?
  3. 研究は支援が必要か? 要は測定結果が次のアクションに繋がるかが重要

アイトラッキングから得られる知見

  • 定性的知見:製品ユーザビリティの問題を検知、説明できる
  • 例えばRVP(測定後に被験者と視線の軌跡を見ながら測定時に何を考えていたか聞く)を用いることで、使い難い箇所を特定できるような場合がある
  • 定量的知見:注視領域、パフォーマンスを測定できる

ユーザビリティの問題の検知

  • アイトラッキングの利点の一つは、他の方法では検知できない問題を検知できる可能性があること。例えばユーザーが正しいリンクをクリックできた場合、普通はUXに問題無しと判定され、被験者も何も報告しないと考えられる。しかし、正しいリンクをクリックする前に異なるリンクに視線が何度か往復していたとしたら、実はユーザーは迷っておりUXに問題があるかもしれないと考えることもできる
  • 上記の問題はアイトラッキングを使わなくても被験者のN数を増やすことで発見できる可能性は高まる。ただし、アイトラッキングを使えばN数がそれ程大きくなくても潜在的なUXの問題を検知できる可能性が高まる

ユーザビリティの問題の説明

アイトラッキングは以下のような質問を回答する助けになる

何故被験者は正しくないアクションを取ったのか

例えば被験者が期待するリンクをクリックしてくれなかったとする。もしアイトラッキングの結果、被験者がリンクを見ていなかった事が判明すれば、リンクの位置を変える、リンクをもっと目立たせる必要がある、等次のステップを考えることができる。被験者がリンクを見ていた場合、ラベリングに問題があるかもしれないと考えることができる

何故被験者は正しいアクションを取るのに時間を要したのか
何故被験者は書かれている情報を読み取れなかったのか

アイトラッキングによりグラフや表の分かりやすさを推定できる

パフォーマンスの違いの測定

  • あるUIと別のUIにおけるユーザーのパフォーマンス評価は例えばタスクを遂行するまでの時間を測る等の従来手法でも評価は可能。しかし、アイトラッキングを併用すれば従来手法で取得した結果のサポートデータとなる。例えば、アイトラッキングから得られた瞳孔径をNASA-TLX等の作業負荷アセスメントツールと併用する等

Attractionの違いの測定

アイトラッキングは以下のような質問に回答するための最適なツールである

  • どのパッケージが最も注意を惹くか?
  • どの広告や製品に一番初めに目が向くか?
  • どのバージョンのホームページが一番興味を惹くか?
  • どのコマーシャルが一番情緒反応を引き起こすか?

アイトラッキングの使いどころ

  • デザインプロセスの序盤ではなく後半の詰め(UIの微調整等)の部分が使いどころとなる
  • アイトラッキングは工数を要する。他の方法では問題を検知できないと思った時に利用する

Eye Tracking the User Experience: A Practical Guide to Research

Eye Tracking the User Experience: A Practical Guide to Research

Eye Tracking The User Experienceのまとめ - Chapter1

眼の動きについて

  • 眼は動く(サッカード)⇒止まる(固視)という動きを繰り返している
  • サッカードは平均3-4回/s発生している
  • 固視は0.1~0.5秒続く傾向がある

人がどこを見ているのか、に注目する理由

  • アイトラッカーは中心窩を捉えるだけで、ユーザーが周辺視でどこまで見ているかは分からない
  • 固視していない箇所は注目していない、というわけではないが、固視と注目は概して一致する

人が見る理由

  • 眼の動きは注意を惹くもの(Bottom-up)、何かを見ようとする意志(Top-down)に影響される
  • Top-downはこれまでの知識や経験、タスクの影響を受ける
  • タスクの影響とは、例えば同じパッケージを同じ人に見せる場合でも、「この商品のメーカーを当てて下さい」というお題が与えられた場合と、「この商品の機能を説明して下さい」というお題が与えられた場合で視線の動きは一致しない

Eye Tracking the User Experience: A Practical Guide to Research

Eye Tracking the User Experience: A Practical Guide to Research

【Python】 KNNによるデータの分類

書籍「PYTHON機械学習プログラミング」のKNNによるデータの分類例をメモします。

# -*- coding: utf-8 -*-

import numpy as np
from matplotlib.colors import ListedColormap
from matplotlib import pyplot as plt
from sklearn.neighbors import KNeighborsClassifier

def plot_decision_regions(X, y, classifier, resolution=0.02):
    # マーカーとカラーマップの準備
    markers = ('s', 'x', 'o', '^', 'v')
    colors = ('red', 'blue', 'lightgreen', 'gray', 'cyan')
    cmap = ListedColormap(colors[:len(np.unique(y))])

    # 領域の最大最小値
    x1_min, x1_max = X[:, 0].min() - 1, X[:, 0].max() + 1
    x2_min, x2_max = X[:, 1].min() - 1, X[:, 1].max() + 1

    # グリッドポイントの生成
    xx1, xx2 = np.meshgrid(np.arange(x1_min, x1_max, resolution), np.arange(x2_min, x2_max, resolution))

    # 予測を実行する
    Z = classifier.predict(np.array([xx1.ravel(), xx2.ravel()]).T)

    # 予測結果をプロットする
    Z = Z.reshape(xx1.shape)
    plt.contourf(xx1, xx2, Z, alpha=0.4, cmap=cmap)

    plt.xlim(xx1.min(), xx1.max())
    plt.ylim(xx2.min(), xx2.max())

    for i, cls in enumerate(np.unique(y)):
        plt.scatter(X[y==cls, 0], X[y==cls, 1], alpha=0.8, c=cmap(i), marker=markers[i], label=cls)

    plt.show()

if __name__ == '__main__':
    # データの生成
    np.random.seed(0)
    X1 = np.random.randn(50, 2)
    y1 = np.ones(50)
    X2 = np.random.randn(50, 2) + 10
    y2 = np.ones(50)*2
    X3 = np.random.randn(50, 2)
    X3[:, 1] += 10
    y3 = np.ones(50)*3
    X4 = np.random.randn(50, 2)
    X4[:, 0] += 10
    y4 = np.ones(50)*4 
    X = np.concatenate((X1, X2, X3, X4))
    y = np.concatenate((y1, y2, y3, y4))

    # KNNによる分類
    knn = KNeighborsClassifier(n_neighbors=4)
    knn.fit(X, y)

    # 分類結果を表示する
    plot_decision_regions(X, y, knn)

f:id:ni4muraano:20170219221457j:plain

【Python】 SVMによるデータの分類

書籍「PYTHON機械学習プログラミング」を読んでいて、SVMによるXORデータの分類例があったのですが、分類結果をグラフ化する部分が勉強になったのでメモします。

# -*- coding: utf-8 -*-

import numpy as np
from matplotlib.colors import ListedColormap
from matplotlib import pyplot as plt
from sklearn.svm import SVC

def plot_decision_regions(X, y, classifier, resolution=0.02):
    # マーカーとカラーマップの準備
    markers = ('s', 'x', 'o', '^', 'v')
    colors = ('red', 'blue', 'lightgreen', 'gray', 'cyan')
    cmap = ListedColormap(colors[:len(np.unique(y))])

    # 領域の最大最小値
    x1_min, x1_max = X[:, 0].min() - 1, X[:, 0].max() + 1
    x2_min, x2_max = X[:, 1].min() - 1, X[:, 1].max() + 1

    # グリッドポイントの生成
    xx1, xx2 = np.meshgrid(np.arange(x1_min, x1_max, resolution), np.arange(x2_min, x2_max, resolution))

    # 予測を実行する
    Z = classifier.predict(np.array([xx1.ravel(), xx2.ravel()]).T)

    # 予測結果をプロットする
    Z = Z.reshape(xx1.shape)
    plt.contourf(xx1, xx2, Z, alpha=0.4, cmap=cmap)

    plt.xlim(xx1.min(), xx1.max())
    plt.ylim(xx2.min(), xx2.max())

    for i, cls in enumerate(np.unique(y)):
        plt.scatter(X[y==cls, 0], X[y==cls, 1], alpha=0.8, c=cmap(i), marker=markers[i], label=cls)

    plt.show()

if __name__ == '__main__':
    # データの生成
    np.random.seed(0)
    X = np.random.randn(200, 2)
    y = np.logical_xor(X[:, 0] > 0, X[:, 1] > 0)
    y = np.where(y, 1, -1)

    # SVMによるフィッティング
    svm = SVC(gamma='auto') # γを大きくし過ぎると過適合してしまう
    svm.fit(X, y)

    # 分類結果を表示する
    plot_decision_regions(X, y, svm)

f:id:ni4muraano:20170219102826j:plain