JP5501715B2 - User interface device, control method for user interface device, and program - Google Patents
User interface device, control method for user interface device, and program Download PDFInfo
- Publication number
- JP5501715B2 JP5501715B2 JP2009222215A JP2009222215A JP5501715B2 JP 5501715 B2 JP5501715 B2 JP 5501715B2 JP 2009222215 A JP2009222215 A JP 2009222215A JP 2009222215 A JP2009222215 A JP 2009222215A JP 5501715 B2 JP5501715 B2 JP 5501715B2
- Authority
- JP
- Japan
- Prior art keywords
- finger
- trajectory
- touch panel
- gesture
- contact
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 41
- 230000008569 process Effects 0.000 claims description 12
- 101100328887 Caenorhabditis elegans col-34 gene Proteins 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000010897 surface acoustic wave method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 125000006850 spacer group Chemical group 0.000 description 2
- RRLHMJHRFMHVNM-BQVXCWBNSA-N [(2s,3r,6r)-6-[5-[5-hydroxy-3-(4-hydroxyphenyl)-4-oxochromen-7-yl]oxypentoxy]-2-methyl-3,6-dihydro-2h-pyran-3-yl] acetate Chemical compound C1=C[C@@H](OC(C)=O)[C@H](C)O[C@H]1OCCCCCOC1=CC(O)=C2C(=O)C(C=3C=CC(O)=CC=3)=COC2=C1 RRLHMJHRFMHVNM-BQVXCWBNSA-N 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
本発明は、ユーザインターフェース装置、ユーザインターフェース装置の制御方法、及びプログラムに関する。 The present invention relates to a user interface device, a user interface device control method, and a program.
ユーザがユーザインターフェース装置としてのタッチパネルの画面に指先でタッチすると、その指先でタッチした地点の座標がタッチパネルからジェスチャー解析部へ送られる。ジェスチャー解析部は、その座標及びそれまでに送られた座標の履歴から、何のジェスチャーかを判断し、ジェスチャーの判断結果(ページ送り、回転、ズーム等)とそのパラメータ(ページ送りであれば移動量、回転であれば角度、ズームであれば倍率)をアプリケーションに渡す。それまでの座標の履歴から何のジェスチャーかを判断できない場合は、次のタッチを待つ。ジェスチャーが完了したり、中断したりしたと判断された場合は、それまでの座標の履歴のデータを消去して、次のタッチを待つ。 When the user touches the screen of the touch panel as the user interface device with a fingertip, the coordinates of the point touched with the fingertip are sent from the touch panel to the gesture analysis unit. The gesture analysis unit determines what gesture it is from the coordinates and the history of coordinates sent so far, and the gesture determination result (page feed, rotation, zoom, etc.) and its parameters (if page feed, moves) The amount, the angle for rotation, and the magnification for zoom). If no gesture can be determined from the history of coordinates up to that point, the next touch is awaited. If it is determined that the gesture has been completed or interrupted, the coordinate history data up to that point is erased and the next touch is awaited.
アプリケーションは、受け取ったジェスチャー及びそのパラメータにより動作を行う。例えば、画像表示ソフトでは、ページ送りのジェスチャーにより画面に表示されている写真を切り替えたり、回転のジェスチャーにより表示画像を回転させたり、ズームのジェスチャーにより画像を拡大(縮小)表示させたりする。 The application performs an operation according to the received gesture and its parameters. For example, in the image display software, a photograph displayed on the screen is switched by a page turning gesture, a display image is rotated by a rotation gesture, and an image is enlarged (reduced) by a zoom gesture.
この種のユーザインターフェース装置が特許文献1に開示されている。
特許文献1に記載の発明は、「ユーザインターフェース装置及びユーザインターフェース方法」に関する発明であり、具体的には、「所定のコマンドが割り付けられているジェスチャーを記憶するとともに、そのジェスチャーを誘導する案内軌跡を記憶する記憶手段と、軌跡入力デバイスに対するユーザの操作軌跡を解析する軌跡解析手段と、軌跡解析手段がユーザの操作軌跡を解析する毎に、記憶手段に記憶されているジェスチャーの中から、その操作軌跡に合致する1以上のジェスチャーを検索するジェスチャー検索手段と、記憶手段からジェスチャー検索手段により検索されたジェスチャーの案内軌跡を取得して、その案内軌跡を表示する一方、ジェスチャー検索手段により前回検索されたジェスチャーがユーザの操作軌跡と合致しなくなると、表示しているジェスチャーの案内軌跡を消去する案内軌跡表示手段と、ジェスチャー検索手段により検索されたジェスチャーが1つに絞られると、そのジェスチャーに割り付けられているコマンドを呼び出すコマンド呼出手段とを備えた」ものである。
すなわち、特許文献1に記載の発明は、ユーザの操作軌跡に合致する1以上のジェスチャーを検索し、その案内軌跡を表示する。また、ジェスチャーが1つに絞られると、そのジェスチャーに関連づけられているコマンドを呼び出す。
This type of user interface device is disclosed in
The invention described in
That is, the invention described in
しかしながら、上述した従来技術では、どういうジェスチャー操作ができるかを案内するが、移動量や移動方向に応じた処理を行うジェスチャーに対して、移動量や移動方向に対してどのようなコマンドが関連づけられているかを示すことについては全く考慮されていない。 However, the above-described conventional technique guides what kind of gesture operation can be performed, but what commands are associated with the movement amount and the movement direction with respect to a gesture that performs processing according to the movement amount and the movement direction. It is not considered at all to indicate whether or not
また、従来技術では、1本指で固定の図形等のジェスチャーを案内するため、マルチタッチで両方の指を動かし、かつ両方の指の相対的な移動(量及び方向)に応じた処理を行うジェスチャーの際に、どちらの指をどのくらい移動させたか(1本目を固定して2本目を移動させたのか、両方の指を同程度ずつ移動させたのか)によりジェスチャーの案内を変えることが考慮されておらず、操作性に改善の余地がある。 In addition, in the prior art, in order to guide a gesture such as a fixed figure with one finger, both fingers are moved by multi-touch, and processing according to the relative movement (amount and direction) of both fingers is performed. When gesturing, it is considered to change the guidance of the gesture depending on how much of which finger is moved (whether the first finger is fixed and the second finger is moved, or both fingers are moved by the same amount). There is room for improvement in operability.
そこで、本発明の目的は、上記課題を解決するため、操作性を向上させたユーザインターフェース装置、ユーザインターフェース装置の制御方法、及びプログラムを提供することにある。 Accordingly, an object of the present invention is to provide a user interface device, a user interface device control method, and a program with improved operability in order to solve the above-described problems.
本発明の装置は、接触開始からの指の軌跡を検知するタッチパネルと、所定の規則性を有する前記指の軌跡であるジェスチャーと所定の処理との対応関係を記憶する記憶手段と、前記タッチパネルへの接触開始から接触終了までの指の軌跡が前記ジェスチャーの規則性に対応している場合に、接触終了地点に応じて定められるパラメータに従って前記所定の処理を実行する処理手段と、前記タッチパネルにより検知された接触開始からの指の軌跡が前記ジェスチャーの規則性に対応するか否かを判断し、対応する場合に、前記指の軌跡を前記規則性に従って延長した案内軌跡及び前記案内軌跡上の複数の地点で接触終了したときのそれぞれの予想処理結果を前記タッチパネルに表示するように制御する制御手段と、を備えたことを特徴とする。 The apparatus of the present invention includes a touch panel for detecting a finger trajectory from the start of contact, a storage unit for storing a correspondence between a gesture that is the finger trajectory having a predetermined regularity and a predetermined process, and the touch panel. When the finger trajectory from the start of contact to the end of contact corresponds to the regularity of the gesture, processing means for executing the predetermined process according to a parameter determined according to the contact end point and detected by the touch panel It is determined whether or not the finger trajectory from the start of touching corresponds to the regularity of the gesture, and in this case, a guide trajectory obtained by extending the finger trajectory according to the regularity and a plurality of the trajectories on the guide trajectory characterized by comprising a control means for controlling so that each predicted process results displayed on the touch panel when the touch end at point
本発明によれば、指の軌跡に基づいてタッチパネルに案内軌跡を表示し、案内軌跡上に、ポイントとなる地点と、その地点まで操作したときに予想される結果とを表示することにより、操作性を向上させたユーザインターフェース装置、ユーザインターフェース装置の制御方法、及びプログラムの提供を実現することができる。 According to the present invention, a guidance trajectory is displayed on the touch panel based on the trajectory of the finger, and on the guidance trajectory, a point to be a point and a result expected when operating up to that point are displayed. It is possible to realize provision of a user interface device, a user interface device control method, and a program with improved performance.
次に本発明の実施の形態について図面を参照して説明する。
図1は、本発明に係るユーザインターフェース装置の制御方法の一実施の形態を示すフローチャートである。
図2は、本発明に係るユーザインターフェース装置の一実施の形態を示すブロック図である。
Next, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a flowchart showing an embodiment of a control method for a user interface device according to the present invention.
FIG. 2 is a block diagram showing an embodiment of a user interface device according to the present invention.
<構 成>
図2に示すユーザインターフェース装置は、タッチパネル1、CPU2、ROM3、RAM4、I/Oポート5、及びバスライン6を有する。
<Configuration>
The user interface device shown in FIG. 2 includes a
タッチパネル1は、液晶表示装置とパネルスイッチとが一体化された入力装置であり、パネルスイッチは指がタッチされた地点の信号を発生する機能を有する。
例えば、パネルスイッチは、抵抗膜式、赤外線式、超音波表面弾性波式、音響波照合式、プロジェクテッド・キャパシティブ式のいずれを用いてもよい。
The
For example, the panel switch may use any one of a resistive film type, an infrared type, an ultrasonic surface acoustic wave type, an acoustic wave collation type, and a projected capacitive type.
抵抗膜式のタッチパネルは、ガラス基板上に平行透明電極(センサ・ワイヤ)を設け、平行透明電極の上にスペーサを設け、スペーサの上に透明平行電極と直交するように他の透明平行電極(センサ・ワイヤ)を貼り合わせたものであり、最上層の透明平行電極が押圧されることにより透明電極同士が接触することで交点の座標が分かるようになっている。 The resistive touch panel has a parallel transparent electrode (sensor wire) on a glass substrate, a spacer on the parallel transparent electrode, and another transparent parallel electrode (on the spacer so as to be orthogonal to the transparent parallel electrode ( Sensor wire), and the coordinates of the intersection point can be understood by contacting the transparent electrodes by pressing the uppermost transparent parallel electrode.
赤外線式のタッチパネルは、赤外線のビームを縦横に走らせておき、指で遮光されたことを検知することで交点の座標が分かるようになっている。 An infrared touch panel is configured so that the coordinates of the intersection point can be known by running an infrared beam vertically and horizontally and detecting that the finger is shielded from light.
超音波表面弾性波式のタッチパネルは、物体の表付近に集中して伝播する表面弾性波を利用したものである。 The ultrasonic surface acoustic wave type touch panel utilizes surface acoustic waves that propagate in a concentrated manner near the surface of an object.
音響波式のタッチパネルは、タッチパネル表面に触れたことで発生る音響パルスがタッチパネルを伝わってくるのを検出し、信号解析によってタッチ位置を割り出すものである。 The acoustic wave type touch panel detects an acoustic pulse generated by touching the surface of the touch panel and is transmitted through the touch panel, and determines a touch position by signal analysis.
プロジェクテッド・キャパシティブ式のタッチパネルは、抵抗膜式と同様に縦横に電極が走っている点では同様であるが、抵抗膜のようにタッチされた場所が導通するのではなく、電極間の静電容量の変化をとらえるものである。 The projected capacitive touch panel is the same as the resistive film type in that the electrodes run vertically and horizontally, but the touched location does not conduct like the resistive film, but the electrostatic capacitance between the electrodes It captures changes in capacity.
CPU2は、座標検出部2a、ジェスチャー完了判断部2b、ジェスチャー種類決定判断部2c、及び案内表示タッチ判断部2dを有する機能を有し、例えばマイクロプロセッサが用いられる。
The
座標検出部2aは、タッチパネル1の画面にタッチされた指の地点の座標を検出する機能である。
ジェスチャー完了判断部2bは、タッチパネル1に指がタッチされたまま移動することによるジェスチャーが完了したか否かを判断する機能部である。
ジェスチャー種類決定判断部2cは、タッチパネル1に指がタッチされたまま移動することによるジェスチャーの種類が、ページ送りか、回転か、拡大か、縮小か決定したか否かを判断する機能部である。
案内表示タッチ判断部2dは、タッチパネル1の画面に表示された案内表示がタッチされたか否かを判断する機能部である。
The coordinate detection unit 2 a is a function that detects the coordinates of the point of the finger touched on the screen of the
The gesture
The gesture type determination determination unit 2c is a functional unit that determines whether it is determined whether the type of gesture by moving while the finger is touched on the
The guidance display touch determination unit 2d is a functional unit that determines whether the guidance display displayed on the screen of the
ROM3は、ユーザインターフェース装置を統括制御する制御プログラムやジェスチャーのパターンのデータを格納するメモリである。 The ROM 3 is a memory that stores a control program for overall control of the user interface device and gesture pattern data.
RAM4は、タッチパネル1により入力された座標のデータを格納するメモリである。
The
I/Oポート5は、外部の電子機器、例えばパーソナルコンピュータと接続するためのポートであり、例えばUSB(Universal Serial Bus)やRS232C等が用いられる。
The I /
<動 作>
次に、図2に示したユーザインターフェース装置の動作について図1を参照して説明する。
動作の主体は、CPU2である。
まず、CPU2は、タッチパネル1の画面に指がタッチされた地点の座標を検出する(ステップS1)。
CPU2は、タッチパネル1の画面上の指がタッチされた地点の座標をRAM4に格納する(ステップS2)。
CPU2は、座標履歴からジェスチャーを判断する(ステップS3)。
CPU2は、ジェスチャーが完了したか否かを判断する(ステップS4)。
CPU2は、ジェスチャーが完了したと判断した場合(ステップS4/Y)、ジェスチャーの処理を実行し終了する(ステップS9)。
<Operation>
Next, the operation of the user interface device shown in FIG. 2 will be described with reference to FIG.
The subject of operation is the
First, the
The
The
The
If the
CPU2は、ジェスチャーが完了していないと判断した場合(ステップS4/N)、ジェスチャーの種類が決まっているか否かを判断する(ステップS5)。
CPU2は、ジェスチャーの種類が決まっていると判断した場合(ステップS5/Y)、タッチパネル1の画面に案内軌跡を表示し(ステップS6)、ポイントとなる地点の案内をタッチパネル1の画面に表示する(ステップS7)。
CPU2は、タッチパネル1の画面に表示された案内表示がタッチされたか否かを判断し(ステップS8)、案内表示がタッチされたと判断すると(ステップS8/Y)、ジェスチャーの処理を実行し終了する(ステップS9)。
CPU2は、タッチパネル1の画面上の案内表示がタッチされていないと判断した場合(ステップS8/N)、ステップS1に戻り、以下繰り返す。
If the
When the
The
When the
<プログラム>
以上で説明した本発明にかかるユーザインターフェース装置は、コンピュータで処理を実行させるプログラムによって実現されている。コンピュータとしては、例えばマイクロプロセッサなどの汎用的なものが挙げられるが、本発明はこれに限定されるものではない。よって、一例として、プログラムにより本発明を実現する場合の説明を以下で行う。
<Program>
The user interface device according to the present invention described above is realized by a program that causes a computer to execute processing. Examples of the computer include general-purpose computers such as a microprocessor, but the present invention is not limited to this. Therefore, as an example, a case where the present invention is realized by a program will be described below.
プログラムとしては、コンピュータに、
(1)タッチパネルが、接触した指の動作がジェスチャーであるか否かを判断する手順、
(2)指の動作がジェスチャーである場合に、そのジェスチャーに対応づけられた軌跡に基づいてタッチパネルに案内軌跡を表示する手順、
(3)案内軌跡上に、ポイントとなる地点と、その地点まで操作したときに予想される結果とを表示する手順、
を実行させるプログラムが挙げられる。
As a program, on a computer,
(1) A procedure for determining whether the touched finger is a gesture,
(2) When a finger motion is a gesture, a procedure for displaying a guidance trajectory on the touch panel based on the trajectory associated with the gesture,
(3) On the guidance trajectory, a procedure for displaying the point to be a point and the expected result when operating to that point,
A program that executes
これにより、プログラムが実行可能なコンピュータ環境さえあれば、どこにおいても本発明にかかるユーザインターフェース装置を実現することができる。
このようなプログラムは、コンピュータに読み取り可能な記憶媒体に記憶されていてもよい。
Thus, the user interface device according to the present invention can be realized anywhere as long as there is a computer environment capable of executing the program.
Such a program may be stored in a computer-readable storage medium.
<記憶媒体>
ここで、記憶媒体としては、例えば、CD−ROM(Compact Disc Read Only Memory)、フレキシブルディスク(FD)、CD−R(CD Recordable)、DVD(Digital Versatile Disk)などのコンピュータで読み取り可能な記憶媒体、フラッシュメモリ、RAM(Random Access Memory)、ROM(Read Only Memory)、FeRAM(強誘電体メモリ)等の半導体メモリやHDD(Hard Disc Drive)が挙げられる。
<Storage medium>
Here, examples of the storage medium include computer-readable storage media such as a CD-ROM (Compact Disc Read Only Memory), a flexible disk (FD), a CD-R (CD Recordable), and a DVD (Digital Versatile Disk). , Flash memory, RAM (Random Access Memory), ROM (Read Only Memory), semiconductor memory such as FeRAM (ferroelectric memory), and HDD (Hard Disc Drive).
なお、上述した実施の形態は、本発明の好適な実施の形態の一例を示すものであり、本発明はそれに限定されることなく、その要旨を逸脱しない範囲内において、種々変形実施が可能である。 The above-described embodiment shows an example of a preferred embodiment of the present invention, and the present invention is not limited thereto, and various modifications can be made without departing from the scope of the invention. is there.
図3(a)、(b)は、本発明に係るユーザインターフェース装置の制御方法の一実施例を示す説明図である。
タッチパネル1(図2参照)の画面1aに写真(顔写真)が表示されている際にユーザが指(例えば右手人差し指)10でタッチしたまま矢印11方向になぞることにより(いわゆる、パン)、ジェスチャー種類決定判断部2cはユーザの操作をパンと判断し、画面1aのページ送りが行われる(図3(a))。
FIGS. 3A and 3B are explanatory views showing an embodiment of a control method of the user interface device according to the present invention.
When a photo (face photo) is displayed on the screen 1a of the touch panel 1 (see FIG. 2), the user touches with a finger (for example, the right index finger) 10 and traces in the direction of the arrow 11 (so-called panning), thereby gesturing The type determination determining unit 2c determines that the user's operation is panning, and the page of the screen 1a is paged (FIG. 3A).
指10が画面1aにタッチしたままなぞると、画面1bに切り替わると共に、案内表示としての撮影履歴12が画面1a上に重畳表示される。この場合、指10の位置は撮影履歴12のうちの3月末頃であることが示されている。
When the
画面1a上に案内表示が行われることにより、ユーザは、現在の写真がいつ頃撮影した写真で、目的の撮影日の写真を表示するために指をどの一まで動かせばよいかを把握することができ、また、撮影履歴12の撮影月を直接タッチすることでその撮影月の写真を表示させることができ、従って操作性が向上する。
By displaying guidance on the screen 1a, the user grasps when the current photograph is a photograph taken and to what extent the finger should be moved to display the photograph on the target photographing date. In addition, the photograph of the photographing month can be displayed by directly touching the photographing month of the photographing
図4(a)、(b)は、本発明に係るユーザインターフェース装置の制御方法の他の実施例を示す説明図である。
タッチパネル1の画面1aに顔写真が横向きに表示されている場合に、ユーザが一方の指(例えば左手の指)13で画面1aの中央をタッチすると共に、他方の指(例えば右手の指)10を画面1aの上側をタッチしたまま(マルチタッチ)、矢印14方向に移動すると、ジェスチャー種類決定判断部2cはユーザの操作を回転と判断し、回転に対応付けられた案内軌跡と、案内表示として回転後の縮小画像を表示する(図4(a))。
すなわち、タッチパネル1は、画面1a上に指10の案内軌跡T1を表示し、更に案内軌跡T1上の、画面1aの上側に現在の向きの縮小画像1bを表示し、
画面1aの右側に90度右回転した後の縮小画像(この場合、正立画像)1cを表示し、画面下側に180度回転した後の縮小画像1dを表示し、左側に270度回転した後の縮小画像(この場合、倒立画像)1eを表示する(図4(b))。
4A and 4B are explanatory views showing another embodiment of the control method of the user interface device according to the present invention.
When a face photo is displayed sideways on the screen 1 a of the
That is, the
A reduced image (in this case, an upright image) 1c rotated 90 degrees on the right side of the screen 1a is displayed, a reduced image 1d after 180 degrees rotated is displayed on the lower side of the screen, and rotated 270 degrees on the left side. A later reduced image (inverted image in this case) 1e is displayed (FIG. 4B).
ここで、指13を固定し、指10を案内軌跡T1上の目的の位置まで移動させた場合、移動させた位置の角度まで画像を回転させるが、画面1a上から指10と指13とを離したときに、一定時間(例えば、2〜3秒)案内表示1b〜1eを表示したままにしておき、その間に指で再度画面1aの案内表示1b〜1eのいずれかをタッチすることにより選択され、その選択された状態の回転処理を行うように構成してもよい。
Here, when the
これらの案内表示により、ユーザは、指をどの位置まで回転させるとどのように表示されるかが把握することができ、また、縮小画像1b・1c・1d・1eを直接タッチすることで、タッチした縮小画像の状態になるよう回転させることができ、従って操作性が向上する。 With these guidance displays, the user can grasp how the finger is displayed to what position, and touch the reduced images 1b, 1c, 1d, and 1e by directly touching them. Therefore, the operability is improved.
図5(a)、(b)は、本発明に係るユーザインターフェース装置の制御方法の他の実施例を示す説明図である。
タッチパネル1の画面1aに指10と指13とを同時に矢印16、17方向にほぼ同一速度で離れるように移動させると(図5(a))、ジェスチャー種類決定判断部2cはユーザの操作をズームと判断し、画面1aに案内軌跡T2及び矩形状の枠線L1〜L3及び解説18、19が案内表示として表示される。
すなわち、枠線L1には「画面に収める」の解説表示が連動し、枠線L2は指10、13に連動し、枠線L3は「実寸大」の解説表示(ピクセル等倍)が連動し、指10、13を所望の大きさになるように動かすか、案内表示をタッチすることによりサイズが選択される。
ユーザは、案内表示に基づいて所望するサイズを選択することができるので、操作性が向上する。
FIGS. 5A and 5B are explanatory views showing another embodiment of the control method of the user interface device according to the present invention.
When the
That is, the explanation display of “fit on screen” is linked to the frame line L1, the frame line L2 is linked to the
Since the user can select a desired size based on the guidance display, the operability is improved.
図6(a)、(b)は、本発明に係るユーザインターフェース装置の制御方法の他の実施例を示す説明図である。
図6(a)、(b)に示した実施例の図5(a)、(b)に示した実施例との相違点は、案内表示のうちの解説表示がアイコンである点である。
すなわち、アイコン20が枠線L1に対応し、アイコン21が枠線L3に対応している。
このように構成してもユーザは、案内表示に基づいて所望するサイズを選択することができるので、操作性が向上する。
FIGS. 6A and 6B are explanatory views showing another embodiment of the method for controlling the user interface device according to the present invention.
The difference between the embodiment shown in FIGS. 6A and 6B and the embodiment shown in FIGS. 5A and 5B is that the explanation display in the guidance display is an icon.
That is, the
Even if configured in this way, the user can select a desired size based on the guidance display, so that the operability is improved.
図7(a)〜(c)は、本発明に係るユーザインターフェース装置の制御方法の他の実施例を示す説明図である。
図7(a)〜(c)に示した実施例の図5(a)、(b)に示した実施例との相違点は、指10、13を同時に矢印16、17方向にほぼ同一速度で離れるように移動させる途中、指10を固定したままさらに指13を矢印22方向に離れるように移動させる点である。
この場合には、両方の指の移動量の直近の割合を元に案内表示を行う。すなわち、指10、13を同時に移動している間は、指10と指13の移動する割合が同じため、枠線L1〜L3を図7(b)のように、指10と指13とを同じ距離だけ移動させた場合の位置に表示し、指10を停止すると共に指13を移動させた場合、指13のみが移動するため枠線L1〜L3を表示する位置を図7(c)のように、指13のみが移動した場合の位置に切り替える。
このように構成してもユーザは、案内表示に基づいて所望するサイズを選択することができるので、操作性が向上する。
FIGS. 7A to 7C are explanatory views showing another embodiment of the method for controlling the user interface device according to the present invention.
The difference between the embodiment shown in FIGS. 7A to 7C and the embodiment shown in FIGS. 5A and 5B is that the
In this case, guidance display is performed based on the most recent ratio of the movement amounts of both fingers. That is, while the
Even if configured in this way, the user can select a desired size based on the guidance display, so that the operability is improved.
以上において、本実施例によれば、移動量及び移動方向に応じた処理を行うジェスチャーで、どのくらいの量でどうなるのかの案内表示を行うことができる。
マルチタッチの際に、両方の指を移動する割合に応じた適切な案内を表示できる。
表示された案内を直接タッチしてそのポイント地点の結果となる処理を行うことができる。
As described above, according to the present embodiment, it is possible to perform a guidance display as to how much and in what amount the gesture is performed according to the movement amount and the movement direction.
In the case of multi-touch, it is possible to display an appropriate guidance according to the ratio of moving both fingers.
The displayed guidance can be directly touched to perform processing resulting in the point.
1 タッチパネル
1a 画面
1b〜1e 縮小画像
2 CPU
2a 座標検出部
2b ジェスチャー完了判断部
2c ジェスチャー種類決定判断部
2d 案内表示タッチ判断部
3 ROM
4 RAM
5 I/Oポート
6 バスライン
10、13 指
11、14、16、17、22 矢印
12、18、19 案内表示
20、21 アイコン
L1〜L4 枠線
T1 回転のジェスチャーに対応付けられた案内軌跡
T2 ズームのジェスチャーに対応付けられた案内軌跡
1 Touch Panel 1a Screen 1b-1e Reduced
2a Coordinate
4 RAM
5 I /
Claims (8)
所定の規則性を有する前記指の軌跡であるジェスチャーと所定の処理との対応関係を記憶する記憶手段と、
前記タッチパネルへの接触開始から接触終了までの指の軌跡が前記ジェスチャーの規則性に対応している場合に、接触終了地点に応じて定められるパラメータに従って前記所定の処理を実行する処理手段と、
前記タッチパネルにより検知された接触開始からの指の軌跡が前記ジェスチャーの規則性に対応するか否かを判断し、対応する場合に、前記指の軌跡を前記規則性に従って延長した案内軌跡及び前記案内軌跡上の複数の地点で接触終了したときのそれぞれの予想処理結果を前記タッチパネルに表示するように制御する制御手段と、
を備えたことを特徴とするユーザインターフェース装置。 A touch panel that detects the trajectory of the finger from the start of contact;
Storage means for storing a correspondence relationship between a gesture that is a trajectory of the finger having a predetermined regularity and a predetermined process;
Processing means for executing the predetermined processing according to a parameter determined according to a contact end point when a finger trajectory from the start of contact to the touch panel corresponds to the regularity of the gesture;
It is determined whether or not the finger trajectory detected from the contact start detected by the touch panel corresponds to the regularity of the gesture, and if so, the guide trajectory obtained by extending the finger trajectory according to the regularity and the guidance each expected processing results and control means for controlling so as to display on the touch panel when the touch end by a plurality of points on the trajectory,
A user interface device comprising:
タッチパネルが、接触開始からの指の軌跡を検知する手順、
記憶手段が、所定の規則性を有する前記指の軌跡であるジェスチャーと所定の処理との対応関係を記憶する手順、
処理手段が、前記タッチパネルへの接触開始から接触終了までの指の軌跡が前記ジェスチャーの規則性に対応している場合に、接触終了地点に応じて定められるパラメータに従って前記所定の処理を実行する手順、
制御手段が、前記タッチパネルにより検知された接触開始からの指の軌跡が前記ジェスチャーの規則性に対応するか否かを判断し、対応する場合に、前記指の軌跡を前記規則性に従って延長した案内軌跡及び前記案内軌跡上の複数の地点で接触終了したときのそれぞれの予想処理結果を前記タッチパネルに表示するように制御する手順、
を実行させることを特徴とするプログラム。 On the computer,
The procedure for the touch panel to detect the trajectory of the finger from the start of contact,
A procedure for storing a correspondence relationship between a gesture that is a trajectory of the finger having a predetermined regularity and a predetermined process;
A procedure in which processing means executes the predetermined process according to a parameter determined according to a contact end point when a finger trajectory from the start of contact to the touch panel to the end of contact corresponds to the regularity of the gesture. ,
The control means determines whether or not the finger trajectory detected from the touch start detected by the touch panel corresponds to the regularity of the gesture, and in the case of the guidance, the finger trajectory is extended according to the regularity. procedure for controlling so that each predicted process results when in contact ends a locus and a plurality of points on the guide track displayed on the touch panel,
A program characterized by having executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009222215A JP5501715B2 (en) | 2009-09-28 | 2009-09-28 | User interface device, control method for user interface device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009222215A JP5501715B2 (en) | 2009-09-28 | 2009-09-28 | User interface device, control method for user interface device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011070489A JP2011070489A (en) | 2011-04-07 |
JP5501715B2 true JP5501715B2 (en) | 2014-05-28 |
Family
ID=44015704
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009222215A Active JP5501715B2 (en) | 2009-09-28 | 2009-09-28 | User interface device, control method for user interface device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5501715B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5459720B2 (en) * | 2011-05-13 | 2014-04-02 | ニチユ三菱フォークリフト株式会社 | forklift |
CN102902469B (en) * | 2011-07-25 | 2015-08-19 | 宸鸿光电科技股份有限公司 | Gesture identification method and touch-control system |
JP5880024B2 (en) * | 2011-12-22 | 2016-03-08 | 株式会社バッファロー | Information processing apparatus and program |
JP5565886B2 (en) * | 2012-08-17 | 2014-08-06 | Necシステムテクノロジー株式会社 | Input device, input method, and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11224161A (en) * | 1998-02-04 | 1999-08-17 | Pfu Ltd | Character input device and recording medium |
JP4684745B2 (en) * | 2005-05-27 | 2011-05-18 | 三菱電機株式会社 | User interface device and user interface method |
-
2009
- 2009-09-28 JP JP2009222215A patent/JP5501715B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011070489A (en) | 2011-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8525776B2 (en) | Techniques for controlling operation of a device with a virtual touchscreen | |
JP5506375B2 (en) | Information processing apparatus and control method thereof | |
US8446389B2 (en) | Techniques for creating a virtual touchscreen | |
JP5659586B2 (en) | Display control device, display control method, display control program, and recording medium | |
WO2013094371A1 (en) | Display control device, display control method, and computer program | |
CN110647244A (en) | Terminal and method for controlling the same based on spatial interaction | |
KR20140010003A (en) | Using movement of a computing device to enhance interpretation of input events produced when interacting with the computing device | |
JP6248462B2 (en) | Information processing apparatus and program | |
CN108874284B (en) | Gesture triggering method | |
JP5501715B2 (en) | User interface device, control method for user interface device, and program | |
JP4879933B2 (en) | Screen display device, screen display method and program | |
JP5675484B2 (en) | Display device, display device control method, and program | |
KR20130124061A (en) | Control method of terminal by using spatial interaction | |
US9256360B2 (en) | Single touch process to achieve dual touch user interface | |
KR20130124139A (en) | Control method of terminal by using spatial interaction | |
KR102194778B1 (en) | Control method of terminal by using spatial interaction | |
JP6907368B2 (en) | Electronic devices and their control methods | |
JP5269154B2 (en) | User interface device capable of executing various operations while touching finger, input operation determination method, and program | |
JP2012198855A (en) | Information processor, information processing method, and program | |
KR102061254B1 (en) | Control method of terminal by using spatial interaction | |
US11893229B2 (en) | Portable electronic device and one-hand touch operation method thereof | |
TWI522895B (en) | Interface operating method and portable electronic apparatus using the same | |
US12079393B2 (en) | Tactile feedback | |
KR20130124143A (en) | Control method of terminal by using spatial interaction | |
JP6146510B2 (en) | Display control device, display control method, display control program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20110830 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120924 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130417 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130423 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130624 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130924 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131219 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20131226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140304 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140312 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5501715 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |