これまでにある技術:視線の向きをカメラで感知してモニタ上のマウスポインタを移動する。
現在の問題点:視線の動きが大きいため、疲れやすく入力に時間がかかる。
解決方法:視線の移動で、モニタ上の仮想文字盤全体が動く。入力したい文字に視線を移動すると仮想文字盤画面上の特定の文字が中央に移動する。視線が正視状態になり(該当文字が強調される)、次の文字を探すため視線を動かすことで、文字が入力される。
解説など:透明文字盤という、多くの患者さんが実際に利用しているコミュニケーションツールからヒントを得たものです。視線を動かすというよりは、画面上の文字盤が視線がまっすぐになるように動いてくれるため、視線の移動が少なくて済みます。私は、実際には、健常者でも携帯電話などのデバイスに文字入力するのに使えないかと考えています。
詳細は、下記リンク先ブログを見て下さい。
http://blog.livedoor.jp/gha10771/
携帯電話でも上記のような問題が改善されて、この機能をもった機種が出てきそうですね。
特許電子図書館http://www2.ipdl.inpit.go.jp/begin/be_search.cgi
で視線入力をキーワードに検索すると沢山出てきます。
私がイメージしているのは、両目の黒目と白目の相対的な位置を画像処理して、両目の黒目が正視位置にくるように文字盤を動かすプログラムを考えています。
携帯はちょっと難しいかもと思っています。
ハードルは、小さな画面と手ぶれです。
でも、やっぱり出来そうだな。
移動する文字盤は別に全てが表示される必要はない。
手ぶれでも、今考えている視線位置の認識法は黒目とそのまわりの白目の相対位置で決めるので手ぶれは大丈夫そうです。
どのくらいの認識度なのかが気になります。
健常者でもボタンを押すのが苦手な人は重宝するかもしれません。
でも、高齢者だと画面を読むこと自体が難儀なんだよね。
既存技術のようですが、カメラで視線を感知する仕組みはどんな技術なのですか?
タッチタイプほどにとは言いませんが、これだとケータイのボタンでメールを打つよりも時間がかかってしまいますね・・・。
一つの文字を入力してから次の文字を入力するまで1秒以上かかっていてはアウトだと思います。
その為には視線の移動距離や静止時間ではなくて、もっと迅速にどの文字を望んでいるのかを読み取れるものが良いですね。
清水建設のCMのように?