JP2011221821A - Information processing system, operation input device, information processor, information processing method, program and information storage medium - Google Patents

Information processing system, operation input device, information processor, information processing method, program and information storage medium Download PDF

Info

Publication number
JP2011221821A
JP2011221821A JP2010090931A JP2010090931A JP2011221821A JP 2011221821 A JP2011221821 A JP 2011221821A JP 2010090931 A JP2010090931 A JP 2010090931A JP 2010090931 A JP2010090931 A JP 2010090931A JP 2011221821 A JP2011221821 A JP 2011221821A
Authority
JP
Japan
Prior art keywords
display
touch sensor
region
detected
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010090931A
Other languages
Japanese (ja)
Other versions
JP5529616B2 (en
JP2011221821A5 (en
Inventor
Masatake Takase
昌毅 高瀬
Hideaki Karasawa
英了 唐澤
Ryota Uchino
亮太 内野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2010090931A priority Critical patent/JP5529616B2/en
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to CN201180028059.6A priority patent/CN102934067B/en
Priority to US13/639,612 priority patent/US20130088450A1/en
Priority to KR1020127029104A priority patent/KR101455690B1/en
Priority to PCT/JP2011/050443 priority patent/WO2011125352A1/en
Priority to EP11765254.5A priority patent/EP2557484B1/en
Publication of JP2011221821A publication Critical patent/JP2011221821A/en
Publication of JP2011221821A5 publication Critical patent/JP2011221821A5/ja
Application granted granted Critical
Publication of JP5529616B2 publication Critical patent/JP5529616B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing system capable of widening the variations of processing executed on the basis of a touch operation.SOLUTION: The information processing system such as a portable game machine 1 includes: a display 12a; a touch sensor 12b that is provided with a detection surface in an area including an inner side area 14 occupying at least a part of a display surface of the display 12a and an outer side area 16 which is an area outside the display surface adjacent to the inner side area 14, and detects the position of an object on the detection surface; and a processing execution part which executes the processing based on the position detected by the touch sensor 12b corresponding to the position inside the inner side area 14 and the position detected by the touch sensor 12b corresponding to the position inside the outer side area 16.

Description

本発明は、情報処理システム、操作入力装置、情報処理装置、情報処理方法、プログラム及び情報記憶媒体に関する。   The present invention relates to an information processing system, an operation input device, an information processing device, an information processing method, a program, and an information storage medium.

表示部とタッチセンサとを含んで構成されるタッチパネル(タッチスクリーン)を操作することでユーザがゲームを楽しむことができる携帯型ゲーム装置などの情報処理システムが存在する。   There is an information processing system such as a portable game device in which a user can enjoy a game by operating a touch panel (touch screen) configured to include a display unit and a touch sensor.

このような情報処理システムには、例えば、ユーザが指やスタイラスを用いてタッチパネルをなぞると、そのなぞられた軌跡に沿って線が表示されるものがある。   In such an information processing system, for example, when a user traces a touch panel using a finger or a stylus, a line is displayed along the traced trace.

また、このような情報処理システムには、例えば、タッチパネルに複数の画像(例えば、アイコンやボタンを示す画像)が表示されている際に、ユーザが指やスタイラスを用いていずれかの画像をタッチすると、タッチされた画像に応じた処理を実行するものもある。特許文献1には、ディスプレイと、当該ディスプレイとは異なるタッチディスプレイとが並置されていて、タッチディスプレイに表示されたメニューをタッチしてディスプレイの表示内容を切り替える技術が記載されている。   Further, in such an information processing system, for example, when a plurality of images (for example, images showing icons and buttons) are displayed on the touch panel, the user touches one of the images using a finger or a stylus. Then, there are some that execute processing according to the touched image. Patent Document 1 describes a technique in which a display and a touch display different from the display are juxtaposed, and a menu displayed on the touch display is touched to switch display contents on the display.

特開2003−87673号公報JP 2003-87673 A

従来の情報処理システムでは、タッチパネルに含まれる表示部の表示面とタッチパネルに含まれるタッチセンサの検出面とが一致していた。そのため、ユーザが指やスタイラスにより、タッチパネルの外側から内側に(あるいは、内側から外側に)なぞる操作を行っても、タッチパネルの縁から内側に(あるいは、内側から縁に)なぞる操作と区別して検出することができなかった。このように、従来の情報処理システムにおいては、タッチパネルにおいて検出できる操作のバリエーションの幅に限界があり、そのため、実行可能な処理のバリエーションの幅にも限界があった。   In the conventional information processing system, the display surface of the display unit included in the touch panel matches the detection surface of the touch sensor included in the touch panel. Therefore, even if the user performs a tracing operation from the outside to the inside of the touch panel (or from the inside to the outside) with a finger or stylus, it is detected separately from the tracing operation from the edge of the touch panel to the inside (or from the inside to the edge). I couldn't. Thus, in the conventional information processing system, there is a limit to the range of operation variations that can be detected on the touch panel, and thus there is a limit to the range of executable process variations.

本発明は上記課題に鑑みてなされたものであって、タッチ操作に基づいて実行される処理のバリエーションの幅を広げることができる情報処理システム、操作入力装置、情報処理装置、情報処理方法、プログラム及び情報記憶媒体を提供することを目的とする。   The present invention has been made in view of the above problems, and is an information processing system, an operation input device, an information processing device, an information processing method, and a program capable of widening the range of variations of processing executed based on a touch operation. And an information storage medium.

上記課題を解決するために、本発明に係る情報処理システムは、表示部と、前記表示部の表示面の少なくとも一部を占める内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサと、前記内側領域内の位置に対応する前記タッチセンサにより検出される位置と、前記外側領域内の位置に対応する前記タッチセンサにより検出される位置と、に基づく処理を実行する処理実行手段と、を含むことを特徴とする。   In order to solve the above-described problem, an information processing system according to the present invention includes a display unit, an inner region that occupies at least a part of a display surface of the display unit, and a region outside the display surface adjacent to the inner region. A touch sensor for detecting a position of an object on the detection surface, and a position detected by the touch sensor corresponding to a position in the inner region, wherein a detection surface is provided in a region including an outer region. And a process execution means for executing a process based on the position detected by the touch sensor corresponding to the position in the outer region.

また、本発明に係る操作入力装置は、表示部と、前記表示部の表示面の少なくとも一部を占める内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサと、を含み、前記タッチセンサが、前記内側領域内の位置に対応する前記タッチセンサにより検出される位置と、前記外側領域内の位置に対応する前記タッチセンサにより検出される位置と、に基づく処理を実行する処理実行手段に、前記タッチセンサによる検出結果に対応するデータを出力することを特徴とする。   The operation input device according to the present invention includes a display unit, an inner region that occupies at least a part of the display surface of the display unit, and an outer region that is an area outside the display surface adjacent to the inner region. A touch sensor for detecting a position of an object on the detection surface, wherein the touch sensor is detected by the touch sensor corresponding to a position in the inner region. Data corresponding to a detection result by the touch sensor is output to a processing execution unit that executes processing based on the position and the position detected by the touch sensor corresponding to the position in the outer region. To do.

また、本発明に係る情報処理装置は、表示部の表示面の少なくとも一部を占める内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される、前記内側領域内の位置に対応する位置と、前記外側領域内の位置に対応する位置と、に基づく処理を実行する処理実行手段、を含むことを特徴とする。   Further, the information processing apparatus according to the present invention has a detection surface in a region including an inner region that occupies at least a part of the display surface of the display unit and an outer region that is an area outside the display surface adjacent to the inner region. Based on a position corresponding to a position in the inner area and a position corresponding to a position in the outer area detected by a touch sensor that detects the position of the object on the detection surface. And a process execution means for executing the process.

また、本発明に係る情報処理方法は、表示部の表示面の少なくとも一部を占める内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される、前記内側領域内の位置に対応する位置と、前記外側領域内の位置に対応する位置と、に基づく処理を実行する処理実行ステップ、を含むことを特徴とする。   Further, the information processing method according to the present invention provides a detection surface in a region including an inner region that occupies at least a part of the display surface of the display unit, and an outer region that is an area outside the display surface adjacent to the inner region. Based on a position corresponding to a position in the inner area and a position corresponding to a position in the outer area detected by a touch sensor that detects the position of the object on the detection surface. A process execution step for executing the process.

また、本発明に係るプログラムは、表示部の表示面の少なくとも一部を占める内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される、前記内側領域内の位置に対応する位置と、前記外側領域内の位置に対応する位置と、に基づく処理を実行する処理実行手段、としてコンピュータを機能させることを特徴とする。   In the program according to the present invention, the detection surface is provided in a region including an inner region that occupies at least a part of the display surface of the display unit and an outer region that is an area outside the display surface adjacent to the inner region. A process based on a position corresponding to a position in the inner area and a position corresponding to a position in the outer area, which is detected by a touch sensor that detects the position of the object on the detection surface. The computer is caused to function as processing execution means to be executed.

また、上記のプログラムはコンピュータ読み取り可能な情報記憶媒体に記憶することもできる。   The above program can also be stored in a computer-readable information storage medium.

本発明によると、表示面内の位置に対応する位置と、表示面外の外側領域内の位置に対応する位置と、に基づく処理を実行することができるようになるので、タッチ操作に基づいて実行される処理のバリエーションの幅を広げることができる。   According to the present invention, it is possible to execute processing based on the position corresponding to the position in the display surface and the position corresponding to the position in the outer region outside the display surface. The range of processing variations to be executed can be expanded.

本発明の一態様では、前記タッチセンサが、前記物体の位置を順次検出し、前記処理実行手段が、前記タッチセンサにより検出される位置の履歴に基づく処理を実行することを特徴とする。こうすれば、内側領域から外側領域への物体の移動操作や外側領域から内側領域への物体の移動操作に応じた処理を行うことができる。   In one aspect of the present invention, the touch sensor sequentially detects the position of the object, and the processing execution unit executes a process based on a history of positions detected by the touch sensor. By doing so, it is possible to perform processing according to the object movement operation from the inner region to the outer region and the object movement operation from the outer region to the inner region.

この態様では、前記処理実行手段が、前記タッチセンサにより検出される位置の履歴に前記内側領域内の位置に対応する位置と前記外側領域内の位置に対応する位置との両方が含まれる場合と、前記タッチセンサにより検出される位置の履歴に前記内側領域内の位置に対応する位置のみが含まれる場合と、で異なる処理を実行してもよい。こうすれば、実行される処理のバリエーションの幅をさらに広げることができる。   In this aspect, the processing execution means includes a case where the position history detected by the touch sensor includes both a position corresponding to a position in the inner area and a position corresponding to a position in the outer area. Different processing may be executed when the position history detected by the touch sensor includes only the position corresponding to the position in the inner region. In this way, the range of processing variations to be executed can be further expanded.

また、この態様では、前記処理実行手段が、前記タッチセンサにより、前記内側領域内の位置又は前記外側領域内の位置の一方に対応する位置が検出された後に、他方に対応する位置が検出された際に、所定の処理を実行してもよい。こうすれば、内側領域と外側領域との境界をまたぐ物体の移動に応じた処理を実行することができる。   Further, in this aspect, the processing execution unit detects a position corresponding to one of the position in the inner region or the position in the outer region after the touch sensor detects the position corresponding to the other. In this case, a predetermined process may be executed. By doing so, it is possible to execute processing according to the movement of the object across the boundary between the inner region and the outer region.

また、本発明の一態様では、前記処理実行手段が、前記タッチセンサにより検出される位置に基づいて特定される前記表示部内の位置に情報を表示する処理を実行することを特徴とする。こうすれば、表示面内の位置に対応する検出位置と、表示面外の外側領域内の位置に対応する検出位置と、に基づく情報を表示することができる。   In one aspect of the present invention, the process execution unit executes a process of displaying information at a position in the display unit specified based on a position detected by the touch sensor. By doing this, it is possible to display information based on the detection position corresponding to the position in the display surface and the detection position corresponding to the position in the outer region outside the display surface.

本実施形態に係る携帯型ゲーム機の外観の一例を示す斜視図である。It is a perspective view which shows an example of the external appearance of the portable game machine which concerns on this embodiment. 図1に示す携帯型ゲーム機の内部構成の一例を示す構成図である。It is a block diagram which shows an example of an internal structure of the portable game machine shown in FIG. 本実施形態に係る携帯型ゲーム機で実現される機能の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the function implement | achieved with the portable game machine which concerns on this embodiment. 本実施形態に係る携帯型ゲーム機の第1の利用例を示す図である。It is a figure which shows the 1st usage example of the portable game machine which concerns on this embodiment. 本実施形態に係る携帯型ゲーム機の第1の利用例を示す図である。It is a figure which shows the 1st usage example of the portable game machine which concerns on this embodiment. 本実施形態に係る携帯型ゲーム機の第2の利用例を示す図である。It is a figure which shows the 2nd usage example of the portable game machine which concerns on this embodiment. 本実施形態に係る携帯型ゲーム機の第2の利用例を示す図である。It is a figure which shows the 2nd usage example of the portable game machine which concerns on this embodiment. 本実施形態に係る携帯型ゲーム機の第2の利用例を示す図である。It is a figure which shows the 2nd usage example of the portable game machine which concerns on this embodiment. 本実施形態に係る携帯型ゲーム機の第3の利用例を示す図である。It is a figure which shows the 3rd usage example of the portable game machine which concerns on this embodiment. 本実施形態に係る携帯型ゲーム機の第4の利用例を示す図である。It is a figure which shows the 4th usage example of the portable game machine which concerns on this embodiment. 本実施形態に係る携帯型ゲーム機を携帯情報端末に応用した応用例を示す図である。It is a figure which shows the application example which applied the portable game machine which concerns on this embodiment to the portable information terminal. 本実施形態に係る携帯型ゲーム機の第5の利用例を示す図である。It is a figure which shows the 5th usage example of the portable game machine which concerns on this embodiment. 本実施形態に係る携帯型ゲーム機の第5の利用例を示す図である。It is a figure which shows the 5th usage example of the portable game machine which concerns on this embodiment. 本実施形態に係る携帯型ゲーム機の第5の利用例を示す図である。It is a figure which shows the 5th usage example of the portable game machine which concerns on this embodiment.

以下、本発明の一実施形態について図面に基づき詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施形態に係る情報処理システム(本実施形態では、例えば、携帯型ゲーム機1)の外観の一例を示す斜視図である。図1に示すように、携帯型ゲーム機1の筐体10は、全体として略矩形の平板状の形状をしており、その表面にはタッチパネル12が設けられている。タッチパネル12は、略矩形の形状をしており、表示部(ディスプレイ12a)とタッチセンサ12bとを含んで構成されている。ディスプレイ12aは、液晶表示パネルや有機EL表示パネル等、各種の画像表示デバイスであってよい。   FIG. 1 is a perspective view showing an example of the appearance of an information processing system according to an embodiment of the present invention (in this embodiment, for example, a portable game machine 1). As shown in FIG. 1, the casing 10 of the portable game machine 1 has a substantially rectangular flat plate shape as a whole, and a touch panel 12 is provided on the surface thereof. The touch panel 12 has a substantially rectangular shape, and includes a display unit (display 12a) and a touch sensor 12b. The display 12a may be various image display devices such as a liquid crystal display panel and an organic EL display panel.

タッチセンサ12bは、ディスプレイ12aに重ねて配置されており、ディスプレイ12aの表示面に対応する形状の略矩形の検出面が設けられている。本実施形態では、タッチセンサ12bは、所定の時間間隔で、この検出面上におけるユーザの指やスタイラス等の物体の接触を順次検出する。タッチセンサ12bは、物体の接触を検出した場合は、その物体の接触位置を検出する。なお、タッチセンサ12bは、例えば静電容量式や感圧式、光学式など、検出面上における物体の位置を検出可能なデバイスであれば、どのような方式のものであってもよい。   The touch sensor 12b is disposed so as to overlap the display 12a, and is provided with a substantially rectangular detection surface having a shape corresponding to the display surface of the display 12a. In the present embodiment, the touch sensor 12b sequentially detects contact of an object such as a user's finger or stylus on the detection surface at a predetermined time interval. When the touch sensor 12b detects the contact of an object, the touch sensor 12b detects the contact position of the object. The touch sensor 12b may be of any type as long as it is a device that can detect the position of an object on the detection surface, such as a capacitance type, a pressure sensitive type, or an optical type.

図1に示すように、本実施形態では、ディスプレイ12aとタッチセンサ12bとの大きさが異なっており、タッチセンサ12bがディスプレイ12aよりも一回り大きくなっている。そして、ディスプレイ12aの中心の位置がタッチセンサ12bの中心の位置よりもやや右下になるようにディスプレイ12a及びタッチセンサ12bは筐体10に配置されている。なお、タッチセンサ12bとディスプレイ12aとは、中心の位置が重なるようにして筐体10に配置されていてもよい。以下、ディスプレイ12aとタッチセンサ12bとが重なっているタッチセンサ領域(ディスプレイ12aの表示面を占める領域)を内側領域14と呼び、内側領域14に隣接する、ディスプレイ12aの表示面外のタッチセンサ領域を外側領域16と呼ぶこととする。   As shown in FIG. 1, in this embodiment, the sizes of the display 12a and the touch sensor 12b are different, and the touch sensor 12b is slightly larger than the display 12a. The display 12a and the touch sensor 12b are arranged in the housing 10 so that the center position of the display 12a is slightly lower right than the center position of the touch sensor 12b. Note that the touch sensor 12b and the display 12a may be arranged in the housing 10 so that the positions of the centers overlap. Hereinafter, the touch sensor area where the display 12a and the touch sensor 12b overlap (area that occupies the display surface of the display 12a) will be referred to as the inner area 14, and the touch sensor area outside the display surface of the display 12a that is adjacent to the inner area 14 will be described. Will be referred to as the outer region 16.

なお、図1には示されていないが、携帯型ゲーム機1は、タッチパネル12以外に、例えばボタンやスイッチなど、ユーザの操作入力を受け付けるための各種の操作部材や、デジタルカメラなどの撮像部が筐体10の表面や裏面、側面などに配置されていてもよい。   Although not shown in FIG. 1, in addition to the touch panel 12, the portable game machine 1 includes various operation members for receiving user operation inputs such as buttons and switches, and an imaging unit such as a digital camera. May be disposed on the front surface, back surface, side surface, or the like of the housing 10.

図2は、図1に示す携帯型ゲーム機1の内部構成の一例を示す構成図である。図2に示すように、携帯型ゲーム機1は、制御部20と、記憶部22と、画像処理部24と、を含んで構成されている。制御部20は、例えばCPU等であって、記憶部22に格納されているプログラムに従って、各種の情報処理を実行する。記憶部22は、例えばRAMやROM等のメモリ素子や、ディスクデバイスなどであって、制御部20によって実行されるプログラムや各種のデータを格納する。また、記憶部22は、制御部20のワークメモリとしても機能する。   FIG. 2 is a block diagram showing an example of the internal configuration of the portable game machine 1 shown in FIG. As shown in FIG. 2, the portable game machine 1 includes a control unit 20, a storage unit 22, and an image processing unit 24. The control unit 20 is a CPU, for example, and executes various types of information processing according to programs stored in the storage unit 22. The storage unit 22 is, for example, a memory element such as a RAM or a ROM, a disk device, and the like, and stores a program executed by the control unit 20 and various data. The storage unit 22 also functions as a work memory for the control unit 20.

画像処理部24は、例えばGPUとフレームバッファメモリとを含んで構成され、制御部20が出力する指示に従って、ディスプレイ12aに表示する画像を描画する。具体例として、画像処理部24はディスプレイ12aの表示領域に対応したフレームバッファメモリを備え、GPUは、制御部20からの指示に従って、所定時間おきにこのフレームバッファメモリに対して画像を書き込む。そして、このフレームバッファメモリに書き込まれた画像が、所定のタイミングでビデオ信号に変換されて、ディスプレイ12aに表示される。   The image processing unit 24 includes, for example, a GPU and a frame buffer memory, and draws an image to be displayed on the display 12a in accordance with an instruction output from the control unit 20. As a specific example, the image processing unit 24 includes a frame buffer memory corresponding to the display area of the display 12a, and the GPU writes an image to the frame buffer memory every predetermined time in accordance with an instruction from the control unit 20. The image written in the frame buffer memory is converted into a video signal at a predetermined timing and displayed on the display 12a.

図3は、本実施形態に係る携帯型ゲーム機1で実現される機能の一例を示す機能ブロック図である。図3に示すように、本実施形態に係る携帯型ゲーム機1は、検出結果受付部26と、処理実行部28と、を含むものとして機能する。検出結果受付部26は、タッチセンサ12b及び制御部20を主として実現される。処理実行部28は、制御部20及び画像処理部24を主として実現される。これらの要素は、コンピュータである携帯型ゲーム機1にインストールされたプログラムを、携帯型ゲーム機1の制御部20で実行することにより実現されている。このプログラムは、例えば、CD−ROM、DVD−ROMなどのコンピュータ可読な情報伝達媒体を介して、あるいは、インターネットなどの通信ネットワークを介して携帯型ゲーム機1に供給される。   FIG. 3 is a functional block diagram illustrating an example of functions realized by the portable game machine 1 according to the present embodiment. As shown in FIG. 3, the portable game machine 1 according to the present embodiment functions as including a detection result receiving unit 26 and a process execution unit 28. The detection result receiving unit 26 is realized mainly by the touch sensor 12b and the control unit 20. The process execution unit 28 is realized mainly by the control unit 20 and the image processing unit 24. These elements are realized by executing a program installed in the portable game machine 1 that is a computer by the control unit 20 of the portable game machine 1. This program is supplied to the portable game machine 1 via a computer-readable information transmission medium such as a CD-ROM or DVD-ROM, or via a communication network such as the Internet.

検出結果受付部26は、タッチセンサ12bによる検出結果を受け付ける。本実施形態では、タッチセンサ12bが、所定の時間間隔で、物体の接触位置に対応する検出結果を検出結果受付部26に出力する。そして、検出結果受付部26は、タッチセンサ12bにより所定時間毎に検出される物体の接触位置に対応する接触位置データを順次受け付ける。   The detection result receiving unit 26 receives a detection result by the touch sensor 12b. In the present embodiment, the touch sensor 12b outputs a detection result corresponding to the contact position of the object to the detection result receiving unit 26 at predetermined time intervals. And the detection result reception part 26 receives sequentially the contact position data corresponding to the contact position of the object detected by the touch sensor 12b for every predetermined time.

処理実行部28は、検出結果受付部26が受け付けた検出結果を用いて各種の処理を実行する。処理実行部28は、具体的には、例えば、タッチセンサ12bによるユーザの指やスタイラス等の物体の位置の検出結果(例えば、接触位置データ)を用いて、ユーザの操作入力の内容を判断する。そして、判断された操作入力の内容に応じた処理を実行し、処理結果をディスプレイ12aに表示することで、ユーザに提示する。   The process execution unit 28 executes various processes using the detection results received by the detection result reception unit 26. Specifically, the process execution unit 28 determines the content of the user's operation input using, for example, the detection result (for example, contact position data) of the position of an object such as the user's finger or stylus by the touch sensor 12b. . And the process according to the content of the determined operation input is performed, and a process result is displayed on the display 12a, and is shown to a user.

本実施形態では、ディスプレイ12aに対応する内側領域14に隣接する外側領域16にタッチセンサ12bの検出面が設けられていることにより、ディスプレイ12aの外側からディスプレイ12aの内側へ、あるいは、ディスプレイ12aの内側からディスプレイ12aの外側へ、タッチセンサ12bの検出面をユーザの指やスタイラス等の物体でなぞる操作(以下、スライド操作と呼ぶ。)が行われたことを検出することが可能となる。このようにして、本実施形態によれば、ディスプレイ12aの表示面とタッチセンサ12bの検出面とが一致している場合よりも、検出可能なタッチ操作のバリエーションの幅が広がることとなる。また、本実施形態に係る携帯型ゲーム機1は、タッチセンサ12bの外側に枠部材が設けられている携帯型ゲーム機1よりも、タッチセンサ12bの縁部の操作を容易に行うことができる。   In this embodiment, the detection surface of the touch sensor 12b is provided in the outer region 16 adjacent to the inner region 14 corresponding to the display 12a, so that the display 12a can be moved from the outer side of the display 12a to the inner side of the display 12a. It is possible to detect that an operation of tracing the detection surface of the touch sensor 12b with an object such as a user's finger or stylus (hereinafter referred to as a slide operation) is performed from the inside to the outside of the display 12a. In this way, according to the present embodiment, the range of touch operation variations that can be detected becomes wider than when the display surface of the display 12a and the detection surface of the touch sensor 12b match. In addition, the portable game machine 1 according to the present embodiment can more easily operate the edge of the touch sensor 12b than the portable game machine 1 in which a frame member is provided outside the touch sensor 12b. .

[第1の利用例]
以下、本実施形態に係る携帯型ゲーム機1の利用例について説明する。
[First use example]
Hereinafter, a usage example of the portable game machine 1 according to the present embodiment will be described.

図4A及び図4Bは、携帯型ゲーム機1の第1の利用例を示す図である。図4Aに示す携帯型ゲーム機1では、ディスプレイ12aにゲーム画面30が表示されている。ユーザが指32等によりゲーム画面30をタッチすると、検出結果受付部26が指32の接触位置に対応する接触位置データを受け付ける。そして、処理実行部28は、その接触位置データに応じた処理を実行する。   4A and 4B are diagrams illustrating a first usage example of the portable game machine 1. In the portable game machine 1 shown in FIG. 4A, a game screen 30 is displayed on the display 12a. When the user touches the game screen 30 with the finger 32 or the like, the detection result receiving unit 26 receives contact position data corresponding to the contact position of the finger 32. And the process execution part 28 performs the process according to the contact position data.

そして、図4Aに示すゲーム画面30の上辺には、ディスプレイ12aの縁に沿って横方向に延伸する帯状のインジケータ画像34が配置されている。ここで、ユーザが、タッチセンサ12bの外側領域16に指32をタッチして、内側領域14に向けた指32のスライド操作を行うと、タッチセンサ12bは、所定時間毎に、そのタイミングに指32が検出面に接触している位置を順次検出する。そして、検出結果受付部26は、検出された接触位置に対応する一連の接触位置データを順次受け付ける。そして、処理実行部28は、受け付けた一連の接触位置データに基づいて、外側領域16から内側領域14への、インジケータ画像34をまたぐような指32のスライド操作が行われたことを判断する。そして、処理実行部28は、この判断に応じて、図4Bに示すように、インジケータ画像34に対応する操作パネル画像36をディスプレイ12aの上側の部分に表示する。操作パネル画像36は所定の処理に対応するボタン38を含んで構成されており、ユーザがいずれかのボタン38を指32等でタッチすると、処理実行部28は、タッチされたボタン38に対応する処理を実行する。このように、第1の利用例では、処理実行部28は、内側領域14内の位置と外側領域16内の位置とに基づく処理を実行する。また、処理実行部28は、タッチセンサ12bにより検出される接触位置の履歴に基づく処理を実行する。   And the strip | belt-shaped indicator image 34 extended | stretched to the horizontal direction along the edge of the display 12a is arrange | positioned at the upper side of the game screen 30 shown to FIG. 4A. Here, when the user touches the finger 32 on the outer region 16 of the touch sensor 12b and performs a slide operation of the finger 32 toward the inner region 14, the touch sensor 12b touches the finger at that timing every predetermined time. The position where 32 touches the detection surface is sequentially detected. And the detection result reception part 26 receives sequentially a series of contact position data corresponding to the detected contact position. Then, the process execution unit 28 determines that the slide operation of the finger 32 across the indicator image 34 from the outer region 16 to the inner region 14 has been performed based on the received series of contact position data. In response to this determination, the process execution unit 28 displays an operation panel image 36 corresponding to the indicator image 34 on the upper portion of the display 12a as shown in FIG. 4B. The operation panel image 36 includes a button 38 corresponding to a predetermined process. When the user touches any button 38 with the finger 32 or the like, the process execution unit 28 corresponds to the touched button 38. Execute the process. Thus, in the first usage example, the process execution unit 28 executes a process based on the position in the inner region 14 and the position in the outer region 16. Moreover, the process execution part 28 performs the process based on the log | history of the contact position detected by the touch sensor 12b.

第1の利用例では、ユーザが、タッチセンサ12bの検出面に指32をタッチして、ディスプレイ12aの縁部に表示されているインジケータ画像34をまたぐよう指32をスライドさせることで、インジケータ画像34が表示されている位置の付近に操作パネル画像36を表示させる操作を行うことができる。このようにして、第1の利用例によれば、操作パネル画像36を表示する際に行うべき操作をインジケータ画像34によりユーザにわかりやすく提示することができる。また、ユーザは、ディスプレイ12aの縁をまたぐよう指32をスライドさせるという直感的にわかりやすい操作により、ゲーム画面30の表示制御を行うことができる。また、第1の利用例によれば、インジケータ画像34の幅を小さくするほど、ゲーム画面30として用いることができるディスプレイ12a内の領域が広くなるので、ディスプレイ12aの表示面を有効に活用することができる。   In the first usage example, the user touches the detection surface of the touch sensor 12b with the finger 32 and slides the finger 32 across the indicator image 34 displayed on the edge of the display 12a, whereby the indicator image is displayed. An operation for displaying the operation panel image 36 in the vicinity of the position where 34 is displayed can be performed. In this way, according to the first usage example, the operation to be performed when the operation panel image 36 is displayed can be presented to the user in an easy-to-understand manner using the indicator image 34. In addition, the user can perform display control of the game screen 30 by an intuitively easy-to-understand operation of sliding the finger 32 across the edge of the display 12a. In addition, according to the first usage example, as the width of the indicator image 34 is reduced, an area in the display 12a that can be used as the game screen 30 is increased. Therefore, the display surface of the display 12a can be effectively used. Can do.

なお、第1の利用例において、処理実行部28は、インジケータ画像34が表示された画面端の外側領域16から内側領域14に向かってユーザが指32をスライドした際に、ユーザが指32をスライドさせる速度と同じ速度で、操作パネル画像36をディスプレイ12aに表示するようにしてもよい。こうすれば、スライド操作と操作パネル画像36が表示されていく様子とが連動するので、ディスプレイ12aの画面端から操作パネル画像36を引き出しているような直感的な操作感覚をユーザに与えることができる。また、第1の利用例において、処理実行部28は、内側領域14から外側領域16への指32のスライド操作に応じて操作パネル画像36をディスプレイ12aに表示するようにしてもよい。また、第1の利用例において、インジケータ画像34がディスプレイ12aの左辺、右辺、あるいは、下辺に配置されていてもよい。そして、操作パネル画像36がインジケータ画像34の表示位置に応じた位置に表示されるようにしてもよい。   In the first usage example, when the user slides the finger 32 from the outer area 16 at the screen edge where the indicator image 34 is displayed toward the inner area 14, the process execution unit 28 moves the finger 32. The operation panel image 36 may be displayed on the display 12a at the same speed as the sliding speed. In this way, since the slide operation and the state in which the operation panel image 36 is displayed are linked, it is possible to give the user an intuitive operation feeling as if the operation panel image 36 is drawn from the screen end of the display 12a. it can. Further, in the first usage example, the process execution unit 28 may display the operation panel image 36 on the display 12 a in accordance with the slide operation of the finger 32 from the inner region 14 to the outer region 16. In the first usage example, the indicator image 34 may be arranged on the left side, the right side, or the lower side of the display 12a. Then, the operation panel image 36 may be displayed at a position corresponding to the display position of the indicator image 34.

[第2の利用例]
図5A、図5B及び図5Cは、携帯型ゲーム機1の第2の利用例を示す図である。図5Aに示す携帯型ゲーム機1では、ディスプレイ12aにゲーム画面30が表示されている。ユーザが指32などによりゲーム画面30をタッチすると、処理実行部28は、タッチされた位置に応じた処理を実行する。なお、図5A、図5B及び図5Cにおいて、横方向右向きをX軸方向、縦方向下向きをY軸方向とする。
[Second use example]
5A, 5B, and 5C are diagrams illustrating a second usage example of the portable game machine 1. In the portable game machine 1 shown in FIG. 5A, the game screen 30 is displayed on the display 12a. When the user touches the game screen 30 with the finger 32 or the like, the process execution unit 28 executes a process according to the touched position. In FIGS. 5A, 5B and 5C, the rightward direction in the horizontal direction is the X-axis direction and the downward direction in the vertical direction is the Y-axis direction.

そして、図5Aに示すゲーム画面30の右辺には、ディスプレイ12aの縁に沿って縦方向に延伸する帯状のインジケータ画像34が配置されている。ここで、ユーザが、インジケータ画像34からの距離が所定の範囲内である位置を指32でタッチして、検出結果受付部26が、その位置に対応する接触位置データを受け付けた場合(例えば、インジケータ画像34のX座標と指32の接触位置のX座標とが所定値以下である場合など)は、処理実行部28が、図5Bに示すように、インジケータ画像34に対応するメニュー画像40をゲーム画面30の右側に表示する。第2の利用例では、メニュー画像40は、ユーザにより選択される対象となる複数の選択肢42(例えば、処理内容を示す文字列)を含んで構成されている。そして、選択肢42はディスプレイ12aの表示面の縁部に沿って並べて表示されている。このように、第2の利用例では、処理実行部28は、各選択肢42をディスプレイ12aの表示面の縁部に沿って並べて表示する。なお、第2の利用例では、メニュー画像40の表示操作に対応する指32のタッチ位置は、内側領域14内の位置でも外側領域16内の位置でも構わない。   And the strip | belt-shaped indicator image 34 extended | stretched to the vertical direction along the edge of the display 12a is arrange | positioned at the right side of the game screen 30 shown to FIG. 5A. Here, when the user touches a position where the distance from the indicator image 34 is within a predetermined range with the finger 32, and the detection result reception unit 26 receives contact position data corresponding to the position (for example, When the X coordinate of the indicator image 34 and the X coordinate of the contact position of the finger 32 are equal to or less than a predetermined value), the processing execution unit 28 displays a menu image 40 corresponding to the indicator image 34 as shown in FIG. 5B. Displayed on the right side of the game screen 30. In the second usage example, the menu image 40 includes a plurality of options 42 (for example, character strings indicating processing contents) to be selected by the user. The options 42 are displayed side by side along the edge of the display surface of the display 12a. Thus, in the second usage example, the process execution unit 28 displays the options 42 side by side along the edge of the display surface of the display 12a. In the second usage example, the touch position of the finger 32 corresponding to the display operation of the menu image 40 may be a position in the inner area 14 or a position in the outer area 16.

そして、処理実行部28は、検出結果受付部26が受け付ける接触位置データに対応する位置からの距離が最短である選択肢42を他の選択肢42とは異なる態様で表示(強調表示)する。図5Bの例では、強調表示の対象となる選択肢42(図5Bの例では、文字列「ブラウザ」)の周りに枠を表示して、強調表示の対象となる選択肢42の右側にその選択肢42が選択されていることを示す選択アイコン44を表示する。なお、強調表示の対象となる選択肢42の色を変化させてもよい。   Then, the process executing unit 28 displays (highlights) the option 42 having the shortest distance from the position corresponding to the contact position data received by the detection result receiving unit 26 in a manner different from the other options 42. In the example of FIG. 5B, a frame is displayed around the option 42 to be highlighted (in the example of FIG. 5B, the character string “browser”), and the option 42 to the right of the option 42 to be highlighted. A selection icon 44 indicating that is selected is displayed. Note that the color of the option 42 to be highlighted may be changed.

第2の利用例では、タッチセンサ12bが所定時間毎に指32の接触位置を検出して、検出結果受付部26が指32の接触位置に対応する接触位置データを順次受け付ける。そして、処理実行部28は、検出結果受付部26が接触位置データを受け付ける毎に、この接触位置データと直前に受け付けた接触位置データとを比較して、指32の移動方向を特定する。そして、指32の移動方向が上下方向(Y軸方向)であることが特定された場合は、処理実行部28は、受け付けた接触位置データに基づいて強調表示の対象となる選択肢42を特定する。そして、処理実行部28は、その選択肢42を強調表示するようメニュー画像40を更新する。図5Cの例では、文字列「中断」に対応する選択肢42が強調表示されている。このようにして、ユーザがディスプレイ12aの右側の縁に沿った指32のスライド操作を行う(例えば、Y軸方向に沿った指32のスライド操作を行う)と、強調表示の対象となる選択肢42が変化することとなる。このように、処理実行部28が、ディスプレイ12aの表示面の縁部に沿う方向の物体の移動に対応する検出結果がタッチセンサ12bにより検出される場合に、その検出結果に応じて強調表示される選択肢42を変化させるようにしてもよい。   In the second usage example, the touch sensor 12b detects the contact position of the finger 32 every predetermined time, and the detection result receiving unit 26 sequentially receives the contact position data corresponding to the contact position of the finger 32. Then, each time the detection result receiving unit 26 receives the contact position data, the process execution unit 28 compares the contact position data with the contact position data received immediately before to specify the moving direction of the finger 32. When it is determined that the moving direction of the finger 32 is the vertical direction (Y-axis direction), the process execution unit 28 specifies the option 42 to be highlighted based on the received contact position data. . Then, the process execution unit 28 updates the menu image 40 so that the option 42 is highlighted. In the example of FIG. 5C, the option 42 corresponding to the character string “interrupt” is highlighted. In this way, when the user performs a slide operation of the finger 32 along the right edge of the display 12a (for example, a slide operation of the finger 32 along the Y-axis direction), the option 42 to be highlighted is displayed. Will change. In this way, when the detection result corresponding to the movement of the object in the direction along the edge of the display surface of the display 12a is detected by the touch sensor 12b, the processing execution unit 28 is highlighted according to the detection result. The option 42 may be changed.

そして、ユーザが、ディスプレイ12aの右側の縁部から中央部に向かう指32のスライド操作を行い(例えば、X軸方向に沿った左方向の指32のスライド操作を行い)、検出結果受付部26が、この操作に対応する一連の接触位置データを受け付けると、処理実行部28は、指32の移動方向が左右方向(X軸方向)であることを特定する。この場合は、処理実行部28は、強調表示されている選択肢42に応じた処理を実行する。図5Cの例では、処理実行部28は、中断処理を実行する。   Then, the user performs a sliding operation of the finger 32 from the right edge of the display 12a toward the center (for example, a sliding operation of the left finger 32 along the X-axis direction), and the detection result receiving unit 26 However, when receiving a series of contact position data corresponding to this operation, the process execution unit 28 specifies that the movement direction of the finger 32 is the left-right direction (X-axis direction). In this case, the process execution unit 28 executes a process according to the highlighted option 42. In the example of FIG. 5C, the process execution unit 28 executes an interruption process.

第2の利用例では、ユーザが、ディスプレイ12aの縁に沿った指32のスライド操作を行う際に、例えば、ディスプレイ12aの縁ぎりぎりまで選択肢42が表示されており、ユーザの指32によって、選択肢42が隠れてしまうような状況において、指32がディスプレイ12aの外側にはみだしたとしても、タッチセンサ12bが外側領域16にも設けられているので、指32の位置の検出を行うことが可能となる。このようにして、第2の利用例では、ユーザによるタッチ操作の操作性を保ちつつ、ディスプレイ12aの表示面を有効に活用することができる。   In the second usage example, when the user performs the slide operation of the finger 32 along the edge of the display 12a, for example, the option 42 is displayed to the edge of the display 12a. Even in the situation where 42 is hidden, even if the finger 32 protrudes outside the display 12a, the position of the finger 32 can be detected because the touch sensor 12b is also provided in the outer region 16. Become. Thus, in the second usage example, it is possible to effectively utilize the display surface of the display 12a while maintaining the operability of the touch operation by the user.

なお、第2の利用例において、処理実行部28は、検出結果受付部26が受け付ける接触位置データに対応する位置からの距離に基づいて特定される選択肢42(例えば、検出結果受付部26が受け付ける接触位置データに対応する位置からの距離が所定の範囲内である選択肢42)を強調表示するようにしてもよい。また、ユーザが、ディスプレイ12aの右側の縁部から中央部から離れる方向の指32のスライド操作を行った際に、処理実行部28が、このタイミングに強調表示されていた選択肢42に応じた処理を実行するようにしてもよい。また、第2の利用例において、メニュー画像40に含まれるクローズアイコン46をユーザが指32でタッチした際に、処理実行部28が、メニュー画像40を消去するようディスプレイ12aの表示内容を更新するようにしてもよい。また、第2の実施例におけるメニュー画像40内の選択肢42の配置や形状等は上述の例には限定されない。例えば、選択肢42はアイコンなどの画像であってもよい。また、第2の利用例を、例えば、ミュージックプレイヤやフォトビューワなどにおける、操作パネルに応用してもよい。この場合は、各選択肢42は、例えば、ミュージックプレイヤやフォトビューワなどにおける操作に対応する文字列やアイコンである。また、第2の利用例を、例えば、各種設定を行うためのコントロールパネルに応用してもよい。この場合は、各選択肢42は、例えば、設定項目に対応する文字列やアイコンである。また、第2の利用例において、処理実行部28が、ユーザの利用頻度が高いメニュー項目をメニュー画像40内の選択肢42として表示出力するようにしてもよい。   In the second usage example, the process execution unit 28 selects the option 42 (for example, the detection result reception unit 26 receives) specified based on the distance from the position corresponding to the contact position data received by the detection result reception unit 26. The option 42) whose distance from the position corresponding to the contact position data is within a predetermined range may be highlighted. Further, when the user performs a sliding operation of the finger 32 in a direction away from the center from the right edge of the display 12a, the processing execution unit 28 performs processing corresponding to the option 42 highlighted at this timing. May be executed. In the second usage example, when the user touches the close icon 46 included in the menu image 40 with the finger 32, the processing execution unit 28 updates the display content of the display 12a so as to erase the menu image 40. You may do it. Further, the arrangement, shape, and the like of the options 42 in the menu image 40 in the second embodiment are not limited to the above example. For example, the option 42 may be an image such as an icon. Further, the second usage example may be applied to an operation panel in, for example, a music player or a photo viewer. In this case, each option 42 is, for example, a character string or icon corresponding to an operation in a music player, a photo viewer, or the like. The second usage example may be applied to, for example, a control panel for performing various settings. In this case, each option 42 is, for example, a character string or icon corresponding to the setting item. In the second usage example, the process execution unit 28 may display and output menu items that are frequently used by the user as options 42 in the menu image 40.

[第3の利用例]
図6は、携帯型ゲーム機1の第3の利用例を示す図である。第3の利用例では、初期状態では、例えば、図5Aと同様のゲーム画面30がディスプレイ12aに表示されている。そして、ユーザが指32などによりゲーム画面30をタッチすると、処理実行部28は、タッチされた位置に応じたゲームに関する処理を実行する。
[Third use example]
FIG. 6 is a diagram illustrating a third usage example of the portable game machine 1. In the third usage example, in the initial state, for example, a game screen 30 similar to that shown in FIG. 5A is displayed on the display 12a. When the user touches the game screen 30 with the finger 32 or the like, the process execution unit 28 executes a process related to the game according to the touched position.

そして、ユーザがディスプレイ12aに対して右側の外側領域16を指32でタッチして、指32を内側領域14に至るまで左へスライドさせる操作を行うと、検出結果受付部26が、この操作に対応する一連の接触位置データを受け付ける。すると、処理実行部28は、この接触位置データに基づいて、図6に示すように、ゲーム画面30を左に移動させ、ディスプレイ12aの右側の領域に携帯型ゲーム機1のシステム設定画面48を表示する。そして、ユーザが指32などによりシステム設定画面48をタッチすると、処理実行部28は、タッチされた位置に応じた、携帯型ゲーム機1のシステムの設定に関する処理を実行する。   When the user touches the right outer region 16 with the finger 32 on the display 12a and slides the finger 32 to the left until reaching the inner region 14, the detection result receiving unit 26 performs this operation. A series of corresponding contact position data is received. Then, based on the contact position data, the process execution unit 28 moves the game screen 30 to the left as shown in FIG. 6, and displays the system setting screen 48 of the portable game machine 1 in the right area of the display 12a. indicate. When the user touches the system setting screen 48 with the finger 32 or the like, the process execution unit 28 executes a process related to the system setting of the portable game machine 1 in accordance with the touched position.

このようにして、第3の利用例によれば、現在実行されているアプリケーションプログラムなどのプログラムの画面をどかせて、他のプログラム(例えば、オペレーションシステムのプログラムなど)の画面を表示させるような演出効果を実現することができる。   In this way, according to the third usage example, the screen of a program such as an application program currently being executed is dismissed and the screen of another program (for example, an operation system program) is displayed. A production effect can be realized.

[第4の利用例]
図7は、携帯型ゲーム機1の第4の利用例を示す図である。図7に示す携帯型ゲーム機1では、ディスプレイ12aに複数のアイコン50を含むアイコン表示画面52が表示されている。
[Fourth use example]
FIG. 7 is a diagram illustrating a fourth usage example of the portable game machine 1. In the portable game machine 1 shown in FIG. 7, an icon display screen 52 including a plurality of icons 50 is displayed on the display 12a.

そして、ユーザがいずれかのアイコン50を指32でタッチして、内側領域14内に指32を移動させると、処理実行部28は、タッチされたアイコン50を指32の移動先の位置に移動(ドラッグアンドドロップ)させる。   When the user touches any one of the icons 50 with the finger 32 and moves the finger 32 into the inner region 14, the process execution unit 28 moves the touched icon 50 to the position to which the finger 32 is moved. (Drag and drop).

また、ユーザが、いずれかのアイコン50を指32でタッチして、ディスプレイ12aの右側の外側領域16に指32を移動させると、処理実行部28は、アイコン表示画面52自体を左へスクロールさせる。ここで、ユーザが、指32を内側領域14に移動させると、処理実行部28は、アイコン表示画面52のスクロールを止める。   When the user touches any icon 50 with the finger 32 and moves the finger 32 to the outer region 16 on the right side of the display 12a, the process execution unit 28 scrolls the icon display screen 52 itself to the left. . Here, when the user moves the finger 32 to the inner region 14, the process execution unit 28 stops scrolling the icon display screen 52.

このように、第4の利用例では、処理実行部28は、タッチセンサ12bにより検出される位置の履歴に内側領域14内の位置に対応する位置と外側領域16内の位置に対応する位置との両方が含まれる場合と、タッチセンサ12bにより検出される位置の履歴に内側領域14内の位置に対応する位置のみが含まれる場合と、で異なる処理を実行する。   Thus, in the fourth usage example, the process execution unit 28 includes a position corresponding to a position in the inner area 14 and a position corresponding to a position in the outer area 16 in the position history detected by the touch sensor 12b. Different processing is executed when both are included, and when only the position corresponding to the position in the inner region 14 is included in the history of positions detected by the touch sensor 12b.

第4の利用例によれば、外側領域16にタッチセンサ12bが設けられていることにより、タッチセンサ12bは、内側領域14内で指32を移動させた場合と、内側領域14から外側領域16へ指32を移動させた場合とで、互いに異なる検出結果を出力することとなる。そのため、処理実行部28は、内側領域14内で指32を移動させた場合と、内側領域14から外側領域16へ指32を移動させた場合とで、異なる処理を実行することが可能となる。   According to the fourth usage example, the touch sensor 12 b is provided in the outer region 16, so that the touch sensor 12 b moves when the finger 32 is moved in the inner region 14 and from the inner region 14 to the outer region 16. Different detection results are output when the finger 32 is moved. Therefore, the process execution unit 28 can execute different processes depending on whether the finger 32 is moved within the inner region 14 or when the finger 32 is moved from the inner region 14 to the outer region 16. .

そして、上述の例では、アイコン表示画面52のスクロール操作をユーザが行いたい場合にユーザが指32をタッチすべき位置をディスプレイ12a内に設ける必要がないので、ディスプレイ12aの表示領域を従来よりも有効に活用することができる。   In the above-described example, when the user wants to perform a scroll operation on the icon display screen 52, it is not necessary to provide a position in the display 12a where the user should touch the finger 32. It can be used effectively.

なお、第4の利用例において、ユーザが、いずれかのアイコン50を指32でタッチして、ディスプレイ12aの右側の外側領域16に指32を移動させると、処理実行部28は、ディスプレイ12aのサイズに対応するページ単位で、アイコン表示画面52自体を左へスクロールさせるようにしてもよい。   In the fourth usage example, when the user touches any one of the icons 50 with the finger 32 and moves the finger 32 to the outer region 16 on the right side of the display 12a, the process execution unit 28 causes the display 12a to The icon display screen 52 itself may be scrolled to the left in units of pages corresponding to the size.

[第1の応用例]
ここでは、本実施形態を携帯電話などの携帯情報端末54に応用した応用例について説明する。図8は、本実施形態の応用例を示す図である。図8に示す携帯情報端末54では、ディスプレイ12aの右側にインデックス情報56が縦方向に一列に並んで配置されている。そして、ディスプレイ12aの右側の外側領域16にマーク58が縦方向に一列に並んで配置されている。本応用例では、インデックス情報56(例えば、文字)とマーク58とは一対一で対応しており、対応するインデックス情報56とマーク58とは横に並んで配置されている。また、図8に示す携帯情報端末54の記憶部には、予め、人の名前や電話番号などを含んで構成される個人情報が複数登録されている。
[First application example]
Here, an application example in which the present embodiment is applied to a portable information terminal 54 such as a mobile phone will be described. FIG. 8 is a diagram illustrating an application example of this embodiment. In the portable information terminal 54 shown in FIG. 8, the index information 56 is arranged in a line in the vertical direction on the right side of the display 12a. The marks 58 are arranged in a line in the vertical direction in the outer region 16 on the right side of the display 12a. In this application example, the index information 56 (for example, characters) and the mark 58 are in one-to-one correspondence, and the corresponding index information 56 and the mark 58 are arranged side by side. In the storage unit of the portable information terminal 54 shown in FIG. 8, a plurality of pieces of personal information including a person's name and telephone number are registered in advance.

そして、ユーザがディスプレイ12aの右側の外側領域16内の位置を指32でタッチすると、処理実行部28は、その位置に最も近いインデックス情報56を強調表示するとともに、強調表示されたインデックス情報56に対応する情報(例えば、強調表示されたアルファベットが名字の頭文字に対応する、携帯情報端末54に登録されている個人情報の一覧など)をディスプレイ12aに表示する。   When the user touches the position in the outer region 16 on the right side of the display 12a with the finger 32, the process execution unit 28 highlights the index information 56 closest to the position, and displays the highlighted index information 56 on the highlighted index information 56. Corresponding information (for example, a list of personal information registered in the portable information terminal 54 in which the highlighted alphabet corresponds to the first letter of the last name) is displayed on the display 12a.

そして、ユーザが指32をマーク58が並べられている方向に沿ってスライドさせる操作を行うと、処理実行部28は、その操作に応じて、指32の位置に最も近いインデックス情報56が強調表示されるようディスプレイ12aに表示される内容を変化させる。   When the user performs an operation of sliding the finger 32 along the direction in which the marks 58 are arranged, the process execution unit 28 highlights the index information 56 closest to the position of the finger 32 according to the operation. The content displayed on the display 12a is changed.

本応用例によれば、ユーザはディスプレイ12aの画面の外でインデックス情報56の選択操作を行うことができるので、ディスプレイ12aの縁付近の領域までインデックス情報56の表示に利用することができる。   According to this application example, the user can perform the selection operation of the index information 56 outside the screen of the display 12a. Therefore, the user can use the index information 56 to display the area near the edge of the display 12a.

なお、本応用例において、ユーザが外側領域16内の位置を指32でタッチした後で、指32をタッチセンサ12bから離して、再度ユーザが指32をタッチセンサ12bに接触させた際に、処理実行部28が、そのタッチされた位置に最も近いインデックス情報56を強調表示するとともに、強調表示されたインデックス情報56に対応する情報をディスプレイ12aに表示するようディスプレイ12aの表示内容を更新するようにしてもよい。また、本応用例において、ディスプレイ12aの右側の外側領域16にマーク58が配置されていなくてもよい。   In this application example, after the user touches the position in the outer region 16 with the finger 32, the finger 32 is moved away from the touch sensor 12b, and the user touches the finger 32 with the touch sensor 12b again. The process execution unit 28 highlights the index information 56 closest to the touched position, and updates the display content of the display 12a so that the information corresponding to the highlighted index information 56 is displayed on the display 12a. It may be. In this application example, the mark 58 may not be disposed in the outer region 16 on the right side of the display 12a.

[第2の応用例]
ここでは、本実施形態を動画像再生機能が付いた携帯情報端末54に応用した応用例について説明する。
[Second application example]
Here, an application example in which the present embodiment is applied to a portable information terminal 54 with a moving image reproduction function will be described.

図9A、図9B及び図9Cは、携帯情報端末54の第5の利用例を示す図である。図9Aに示す携帯情報端末54では、図9Aに示す画面の下辺には、ディスプレイ12aの縁に沿って横方向に延伸する帯状のインジケータ画像34が配置されている。そして、ユーザがインジケータ画像34を指32でタッチして、ディスプレイ12aの下側の縁部から中央部に向かう指32のスライド操作を行うと、処理実行部28は、図9Bに示すように、第1段階部分の操作パネル画像36をディスプレイ12aに表示出力する。本応用例では、処理実行部28は、例えば、インジケータ画像34が縦方向に伸びて操作パネル画像36となるようディスプレイ12aの表示内容を変化させる。そして、ユーザが指32をディスプレイ12aから離さずにさらに中央部にスライドさせると、図9Cに示すように、第1段階部分の下側に第2段階部分が配置された操作パネル画像36をディスプレイ12aに表示出力する。そして、ユーザが指32をディスプレイ12aから離すと、処理実行部28は、操作パネル画像36がディスプレイ12aから消えるようディスプレイ12aを表示制御する。   9A, 9B, and 9C are diagrams illustrating a fifth usage example of the portable information terminal 54. FIG. In the portable information terminal 54 shown in FIG. 9A, a strip-shaped indicator image 34 extending in the horizontal direction along the edge of the display 12a is arranged on the lower side of the screen shown in FIG. 9A. Then, when the user touches the indicator image 34 with the finger 32 and performs a slide operation of the finger 32 from the lower edge of the display 12a toward the center, the process execution unit 28, as shown in FIG. 9B, The operation panel image 36 of the first stage portion is displayed and output on the display 12a. In this application example, the process execution unit 28 changes the display content of the display 12a so that the indicator image 34 extends in the vertical direction to become the operation panel image 36, for example. When the user further slides the finger 32 to the center without releasing the display 12a, an operation panel image 36 in which the second stage portion is arranged below the first stage portion is displayed as shown in FIG. 9C. Display output to 12a. When the user releases the finger 32 from the display 12a, the process execution unit 28 controls the display 12a so that the operation panel image 36 disappears from the display 12a.

なお、この応用例において、インジケータ画像34がタッチされたことを検出結果受付部26が受け付けた際に、処理実行部28が、該インジケータ画像34が配されたディスプレイ12aの一端から操作パネル画像36が現れるよう遷移表示させてもよい。また、この応用例において、例えば、処理実行部28は、1度のスライド操作に応じて第1段階部分の操作パネル画像36をディスプレイ12aに表示出力して、同様のスライド操作を再度受け付けた際に、第1段階部分の操作パネル画像36をディスプレイ12aに表示出力するようにしてもよい。また、処理実行部28は、スライド操作における指32の移動量(あるいは、移動速度)に応じて、第1段階部分の操作パネル画像36をディスプレイ12aに表示出力するか、第2段階部分の操作パネル画像36までディスプレイ12aに表示出力するかを制御するようにしてもよい。   In this application example, when the detection result receiving unit 26 receives that the indicator image 34 has been touched, the processing execution unit 28 starts the operation panel image 36 from one end of the display 12a on which the indicator image 34 is arranged. Transition may be displayed so that appears. In this application example, for example, when the process execution unit 28 outputs the operation panel image 36 of the first stage portion on the display 12a in response to one slide operation and receives the same slide operation again. In addition, the operation panel image 36 of the first stage portion may be displayed and output on the display 12a. In addition, the processing execution unit 28 outputs the operation panel image 36 of the first stage portion on the display 12a or outputs the operation of the second stage portion according to the moving amount (or moving speed) of the finger 32 in the slide operation. It may be controlled whether to display up to the panel image 36 on the display 12a.

第1段階部分の操作パネル画像36として表示される内容と、第2段階部分の操作パネル画像36として表示される内容とは、機能ボタンは予め定められた優先順位に基づいて分けられていてもよい。図9A、図9B及び図9Cでは、動画像コンテンツの再生中における操作例を示しており、第1段階部分の操作パネル画像36として表示される内容も、第2段階部分の操作パネル画像36として表示される内容も、動画再生に関連するものとなっている。そして、この応用例では、第1段階部分には、現在のチャプタ、経過時間、タイムラインなどの現在の動画像再生状況を表す情報が表れ、第2段階部分には、一時停止、再生、停止、早送り、早戻し、リピート、ヘルプなどの機能ボタンが表れる。なお、この応用例の携帯情報端末54が、ユーザから受け付ける設定操作に応じて、第1段階部分及び第2段階部分に表示される内容や機能ボタンの設定を変更してもよい。   The contents displayed as the operation panel image 36 of the first stage part and the contents displayed as the operation panel image 36 of the second stage part may be divided based on a predetermined priority order. Good. 9A, 9B, and 9C show an example of an operation during playback of moving image content. The content displayed as the operation panel image 36 in the first stage portion is also the operation panel image 36 in the second stage portion. The displayed content is also related to the video playback. In this application example, information representing the current moving image playback status such as the current chapter, elapsed time, and timeline appears in the first stage portion, and pause, playback, and stop are displayed in the second stage portion. Function buttons such as fast forward, fast reverse, repeat, and help appear. Note that the portable information terminal 54 of this application example may change the contents displayed in the first stage part and the second stage part and the setting of the function buttons according to the setting operation received from the user.

また、ユーザが操作パネル画像36の右上に表示出力されるバツ印のボタンをタッチした際に、処理実行部28が、操作パネル画像36がディスプレイ12aから消えるようディスプレイ12aを表示制御するようにしてもよい。また、ユーザが操作パネル画像36の外の領域をタッチした際に、処理実行部28が、操作パネル画像36がディスプレイ12aから消えるようディスプレイ12aを表示制御するようにしてもよい。また、ユーザが、操作パネル画像36が表示出力されていく向きとは逆の向きに指32のスライド操作を行った際に、処理実行部28が、操作パネル画像36がディスプレイ12aから消えるようディスプレイ12aを表示制御するようにしてもよい。ここで、処理実行部28は、スライド操作における指32の移動量(あるいは、移動速度)に応じて、第2段階部分、第1段階部分の順に、操作パネル画像36が段階的にディスプレイ12aから消えるようディスプレイ12aを表示制御するようにしてもよい。   In addition, when the user touches the crossed button displayed and output on the upper right of the operation panel image 36, the process execution unit 28 controls the display 12a so that the operation panel image 36 disappears from the display 12a. Also good. Further, when the user touches an area outside the operation panel image 36, the process execution unit 28 may control the display 12a so that the operation panel image 36 disappears from the display 12a. Further, when the user performs a sliding operation of the finger 32 in the direction opposite to the direction in which the operation panel image 36 is displayed and output, the processing execution unit 28 displays the operation panel image 36 so that the operation panel image 36 disappears from the display 12a. You may make it display-control 12a. Here, the process execution unit 28 displays the operation panel image 36 from the display 12a step by step in the order of the second step portion and the first step portion according to the moving amount (or moving speed) of the finger 32 in the slide operation. You may make it display-control the display 12a so that it may disappear.

また、操作パネル画像36がディスプレイ12aに表示出力される際のユーザのスライド操作は、上述の操作に限定されない。処理実行部28は、例えば、ディスプレイ12aの外に設けられたボタンの操作や、インジケータ画像34の外での、ディスプレイ12aの下側の縁部から中央部に向かう指32のスライド操作や、ディスプレイ12の外のタッチセンサ領域からディスプレイ12内へのスライド操作、などに応じて、操作パネル画像36をディスプレイ12aに表示出力するようにしてもよい。   The user's slide operation when the operation panel image 36 is displayed on the display 12a is not limited to the above-described operation. For example, the processing execution unit 28 operates a button provided outside the display 12a, a slide operation of the finger 32 from the lower edge of the display 12a toward the center outside the indicator image 34, a display The operation panel image 36 may be displayed and output on the display 12a in accordance with a slide operation into the display 12 from a touch sensor area outside the display 12.

なお、本発明は上述の実施形態や利用例や応用例に限定されるものではない。もちろん、情報処理システムにおいて、上述の実施形態や利用例や応用例に挙げた機能のいくつかを組み合わせても構わない。例えば、上述の第1の利用例と第2の利用例とを組み合わせることで以下のような操作が可能となる。まず、ディスプレイ12aの右側の外側領域16から左に向かって内側領域14までユーザが指32をスライドさせたことに応じて、処理実行部28が、図5Aに例示する、メニュー画面40をディスプレイ12a内に表示するようにしてもよい。そして、ユーザがそのまま指32を離さずに、指32を上下させることに応じて、処理実行部28が、検出結果受付部26が受け付ける接触位置データに対応する位置からの距離が最短である選択肢42を強調表示するようにしてもよい。そして、ユーザがそのまま指32を離さずに、さらに左に指32をスライドさせることで、処理実行部28が、強調表示されている選択肢42に応じた処理を実行するようにしてもよい。こうすれば、ユーザは、メニュー画面40の表示と選択肢42の選択を指32をディスプレイ12aから離さずに一連の操作として行うことができる。   Note that the present invention is not limited to the above-described embodiments, usage examples, and application examples. Of course, in the information processing system, some of the functions described in the above embodiments, usage examples, and application examples may be combined. For example, the following operations are possible by combining the first usage example and the second usage example. First, in response to the user sliding the finger 32 from the outer region 16 on the right side of the display 12a to the inner region 14 toward the left, the process execution unit 28 displays the menu screen 40 illustrated in FIG. You may make it display within. Then, when the user moves the finger 32 up and down without releasing the finger 32 as it is, the processing execution unit 28 has the shortest distance from the position corresponding to the contact position data received by the detection result receiving unit 26 42 may be highlighted. Then, the user may slide the finger 32 further to the left without releasing the finger 32 as it is, and the process execution unit 28 may execute the process according to the highlighted option 42. In this way, the user can display the menu screen 40 and select the option 42 as a series of operations without releasing the finger 32 from the display 12a.

例えば、処理実行部28が、ユーザによるタッチセンサ12bの検出面に対するスライド操作に応じて、検出結果受付部26が順次受け付けた各接触位置データが示す位置を補間することにより特定される直線や曲線をディスプレイ12aの表示面に表示する処理を実行するようにしてもよい。ここで、処理実行部28が、外側領域16内の位置に対応する接触位置データが示す位置を補完することにより特定される線をディスプレイ12aの表示面に表示するようにしてもよい。   For example, a straight line or a curve specified by the process execution unit 28 interpolating the positions indicated by the contact position data sequentially received by the detection result receiving unit 26 in accordance with the user's slide operation on the detection surface of the touch sensor 12b. May be executed on the display surface of the display 12a. Here, the process execution unit 28 may display a line specified by complementing the position indicated by the contact position data corresponding to the position in the outer region 16 on the display surface of the display 12a.

また、タッチセンサ12bは、物体の接触位置及び押圧の強さを検出してもよい。また、タッチセンサ12bは、必ずしも物体が検出面に接触した場合だけ物体の位置を検出するのではなく、検出面上の検出可能範囲内まで物体が近接した場合に、当該物体の検出面に対する位置を検出してもよい。また、タッチセンサ12bがディスプレイ12aからはみ出している幅が、ディスプレイ12aの各辺について異なっていてもよい。また、ディスプレイ12aのすべての辺についてタッチセンサ12bがディスプレイ12aからはみ出していなくてもよい。また、タッチセンサ12bがディスプレイ12a内の表示面の全領域を覆っていなくてもよい。また、ディスプレイ12aがタッチセンサ12bよりも筐体10側に配置されていても、タッチセンサ12bがディスプレイ12aよりも筐体10側に配置されていてもよい。   The touch sensor 12b may detect the contact position of the object and the strength of pressing. In addition, the touch sensor 12b does not necessarily detect the position of the object only when the object touches the detection surface, but the position of the object with respect to the detection surface when the object approaches within the detectable range on the detection surface. May be detected. Further, the width of the touch sensor 12b protruding from the display 12a may be different for each side of the display 12a. In addition, the touch sensor 12b may not protrude from the display 12a for all sides of the display 12a. Further, the touch sensor 12b may not cover the entire area of the display surface in the display 12a. In addition, the display 12a may be disposed closer to the housing 10 than the touch sensor 12b, or the touch sensor 12b may be disposed closer to the housing 10 than the display 12a.

また、本実施形態を携帯型ゲーム機1以外の情報処理システムに対して応用してもよい。具体的には、例えば、タッチパネル12を含んで構成される操作入力装置と、検出結果受付部26及び処理実行部28として機能する情報処理装置とが別の筐体であり、操作入力装置と情報処理装置とがケーブルなどにより接続されている情報処理システムに対して本実施形態を応用してもよい。   Further, the present embodiment may be applied to an information processing system other than the portable game machine 1. Specifically, for example, the operation input device configured to include the touch panel 12 and the information processing device functioning as the detection result reception unit 26 and the process execution unit 28 are separate cases, and the operation input device and the information The present embodiment may be applied to an information processing system in which a processing device is connected by a cable or the like.

1 携帯型ゲーム機、10 筐体、12 タッチパネル、12a ディスプレイ、12b タッチセンサ、14 内側領域、16 外側領域、20 制御部、22 記憶部、24 画像処理部、26 検出結果受付部、28 処理実行部、30 ゲーム画面、32 指、34 インジケータ画像、36 操作パネル画像、38 ボタン、40 メニュー画像、42 選択肢、44 選択アイコン、46 クローズアイコン、48 システム設定画面、50 アイコン、52 アイコン表示画面、54 携帯情報端末、56 インデックス情報、58 マーク。   DESCRIPTION OF SYMBOLS 1 Portable game machine, 10 housing | casing, 12 touchscreen, 12a display, 12b touch sensor, 14 inner area | region, 16 outer area | region, 20 control part, 22 memory | storage part, 24 image processing part, 26 detection result reception part, 28 process execution Part, 30 game screen, 32 finger, 34 indicator image, 36 operation panel image, 38 button, 40 menu image, 42 options, 44 selection icon, 46 close icon, 48 system setting screen, 50 icon, 52 icon display screen, 54 Mobile information terminal, 56 index information, 58 mark.

Claims (10)

表示部と、
前記表示部の表示面の少なくとも一部を占める内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサと、
前記内側領域内の位置に対応する前記タッチセンサにより検出される位置と、前記外側領域内の位置に対応する前記タッチセンサにより検出される位置と、に基づく処理を実行する処理実行手段と、
を含むことを特徴とする情報処理システム。
A display unit;
On the detection surface, a detection surface is provided in a region including an inner region that occupies at least a part of the display surface of the display unit and an outer region that is an area outside the display surface adjacent to the inner region. A touch sensor for detecting the position of the object in
Processing execution means for executing processing based on a position detected by the touch sensor corresponding to a position in the inner region and a position detected by the touch sensor corresponding to a position in the outer region;
An information processing system comprising:
前記タッチセンサが、前記物体の位置を順次検出し、
前記処理実行手段が、前記タッチセンサにより検出される位置の履歴に基づく処理を実行する、
ことを特徴とする請求項1に記載の情報処理システム。
The touch sensor sequentially detects the position of the object,
The process execution means executes a process based on a history of positions detected by the touch sensor;
The information processing system according to claim 1.
前記処理実行手段が、前記タッチセンサにより検出される位置の履歴に前記内側領域内の位置に対応する位置と前記外側領域内の位置に対応する位置との両方が含まれる場合と、前記タッチセンサにより検出される位置の履歴に前記内側領域内の位置に対応する位置のみが含まれる場合と、で異なる処理を実行する、
ことを特徴とする請求項2に記載の情報処理システム。
A case where the processing execution means includes both a position corresponding to a position in the inner area and a position corresponding to a position in the outer area in the position history detected by the touch sensor; When the position history detected by includes only the position corresponding to the position in the inner region, a different process is executed.
The information processing system according to claim 2.
前記処理実行手段が、前記タッチセンサにより、前記内側領域内の位置又は前記外側領域内の位置の一方に対応する位置が検出された後に、他方に対応する位置が検出された際に、所定の処理を実行する、
ことを特徴とする請求項2又は3に記載の情報処理システム。
When the position corresponding to one of the position in the inner region or the position in the outer region is detected by the touch sensor and the position corresponding to the other is detected by the touch sensor, Execute the process,
The information processing system according to claim 2 or 3,
前記処理実行手段が、前記タッチセンサにより検出される位置に基づいて特定される前記表示部内の位置に情報を表示する処理を実行する、
ことを特徴とする請求項1から4のいずれか一項に記載の情報処理システム。
The process execution means executes a process of displaying information at a position in the display unit specified based on a position detected by the touch sensor;
The information processing system according to claim 1, wherein the information processing system is an information processing system.
表示部と、
前記表示部の表示面の少なくとも一部を占める内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサと、を含み、
前記タッチセンサが、前記内側領域内の位置に対応する前記タッチセンサにより検出される位置と、前記外側領域内の位置に対応する前記タッチセンサにより検出される位置と、に基づく処理を実行する処理実行手段に、前記タッチセンサによる検出結果に対応するデータを出力する、
ことを特徴とする操作入力装置。
A display unit;
On the detection surface, a detection surface is provided in a region including an inner region that occupies at least a part of the display surface of the display unit and an outer region that is an area outside the display surface adjacent to the inner region. A touch sensor for detecting the position of the object in
Processing for executing processing based on a position detected by the touch sensor corresponding to a position in the inner region and a position detected by the touch sensor corresponding to a position in the outer region. Outputting data corresponding to the detection result of the touch sensor to the execution means;
An operation input device characterized by that.
表示部の表示面の少なくとも一部を占める内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される、前記内側領域内の位置に対応する位置と、前記外側領域内の位置に対応する位置と、に基づく処理を実行する処理実行手段、
を含むことを特徴とする情報処理装置。
On the detection surface, a detection surface is provided in a region including an inner region that occupies at least a part of the display surface of the display unit and an outer region that is an area outside the display surface adjacent to the inner region. A process execution means for executing a process based on a position corresponding to a position in the inner area and a position corresponding to a position in the outer area detected by a touch sensor that detects the position of the object;
An information processing apparatus comprising:
表示部の表示面の少なくとも一部を占める内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される、前記内側領域内の位置に対応する位置と、前記外側領域内の位置に対応する位置と、に基づく処理を実行する処理実行ステップ、
を含むことを特徴とする情報処理方法。
On the detection surface, a detection surface is provided in a region including an inner region that occupies at least a part of the display surface of the display unit and an outer region that is an area outside the display surface adjacent to the inner region. A process execution step of executing a process based on a position corresponding to a position in the inner area and a position corresponding to a position in the outer area detected by a touch sensor that detects the position of the object;
An information processing method comprising:
表示部の表示面の少なくとも一部を占める内側領域と、前記内側領域に隣接する前記表示面外の領域である外側領域と、を含む領域に検出面が設けられている、前記検出面上における物体の位置を検出するタッチセンサにより検出される、前記内側領域内の位置に対応する位置と、前記外側領域内の位置に対応する位置と、に基づく処理を実行する処理実行手段、
としてコンピュータを機能させることを特徴とするプログラム。
On the detection surface, a detection surface is provided in a region including an inner region that occupies at least a part of the display surface of the display unit and an outer region that is an area outside the display surface adjacent to the inner region. A process execution means for executing a process based on a position corresponding to a position in the inner area and a position corresponding to a position in the outer area detected by a touch sensor that detects the position of the object;
A program characterized by causing a computer to function.
請求項9に記載のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。   A computer-readable information storage medium storing the program according to claim 9.
JP2010090931A 2010-04-09 2010-04-09 Information processing system, operation input device, information processing device, information processing method, program, and information storage medium Active JP5529616B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2010090931A JP5529616B2 (en) 2010-04-09 2010-04-09 Information processing system, operation input device, information processing device, information processing method, program, and information storage medium
US13/639,612 US20130088450A1 (en) 2010-04-09 2011-01-13 Information processing system, operation input device, information processing device, information processing method, program, and information storage medium
KR1020127029104A KR101455690B1 (en) 2010-04-09 2011-01-13 Information processing system, operation input device, information processing device, information processing method, program and information storage medium
PCT/JP2011/050443 WO2011125352A1 (en) 2010-04-09 2011-01-13 Information processing system, operation input device, information processing device, information processing method, program and information storage medium
CN201180028059.6A CN102934067B (en) 2010-04-09 2011-01-13 Information processing system, operation input equipment, information processor, information processing method
EP11765254.5A EP2557484B1 (en) 2010-04-09 2011-01-13 Information processing system, operation input device, information processing device, information processing method, program and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010090931A JP5529616B2 (en) 2010-04-09 2010-04-09 Information processing system, operation input device, information processing device, information processing method, program, and information storage medium

Publications (3)

Publication Number Publication Date
JP2011221821A true JP2011221821A (en) 2011-11-04
JP2011221821A5 JP2011221821A5 (en) 2012-02-16
JP5529616B2 JP5529616B2 (en) 2014-06-25

Family

ID=45038725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010090931A Active JP5529616B2 (en) 2010-04-09 2010-04-09 Information processing system, operation input device, information processing device, information processing method, program, and information storage medium

Country Status (1)

Country Link
JP (1) JP5529616B2 (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012088805A (en) * 2010-10-15 2012-05-10 Sharp Corp Information processor and information processor control method
JP2014515519A (en) * 2011-05-27 2014-06-30 マイクロソフト コーポレーション Edge gesture
JP2015001786A (en) * 2013-06-13 2015-01-05 富士通株式会社 Portable electronic apparatus and character input support program
JP2015005186A (en) * 2013-06-21 2015-01-08 シャープ株式会社 Picture display unit capable of screen operation and operation method for the same
JP2015504206A (en) * 2012-01-18 2015-02-05 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Method and portable device for switching classified web pages
JP2015512106A (en) * 2012-03-02 2015-04-23 マイクロソフト コーポレーション Detection of user input at the edge of the display area
JP2015125637A (en) * 2013-12-26 2015-07-06 Kddi株式会社 Tool screen control device, mobile terminal device, tool screen control method, and computer program
JP2015228270A (en) * 2015-09-25 2015-12-17 キヤノン株式会社 Electronic device, electronic device control method, program, and storage medium
JP2015227919A (en) * 2014-05-30 2015-12-17 セイコーエプソン株式会社 Image display device, control method of the same, computer program and image display system
US9229918B2 (en) 2010-12-23 2016-01-05 Microsoft Technology Licensing, Llc Presenting an application change through a tile
US9329774B2 (en) 2011-05-27 2016-05-03 Microsoft Technology Licensing, Llc Switching back to a previously-interacted-with application
US9535597B2 (en) 2011-05-27 2017-01-03 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US9606718B2 (en) 2012-06-27 2017-03-28 Canon Kabushiki Kaisha Electronic apparatus and control method thereof
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
JP2017224967A (en) * 2016-06-15 2017-12-21 カシオ計算機株式会社 Output control apparatus, output control method, and program
JP2018025916A (en) * 2016-08-09 2018-02-15 本田技研工業株式会社 On-vehicle operation device
US10254955B2 (en) 2011-09-10 2019-04-09 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US10303325B2 (en) 2011-05-27 2019-05-28 Microsoft Technology Licensing, Llc Multi-application environment
US10451874B2 (en) 2013-09-25 2019-10-22 Seiko Epson Corporation Image display device, method of controlling image display device, computer program, and image display system
US10579250B2 (en) 2011-09-01 2020-03-03 Microsoft Technology Licensing, Llc Arranging tiles
US10969944B2 (en) 2010-12-23 2021-04-06 Microsoft Technology Licensing, Llc Application reporting in an application-selectable user interface
WO2023100584A1 (en) * 2021-12-01 2023-06-08 株式会社東海理化電機製作所 Control device, control method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002055753A (en) * 2000-08-10 2002-02-20 Canon Inc Information processor, function list display method and storage medium
JP2005321964A (en) * 2004-05-07 2005-11-17 Pentax Corp Input device with touch panel
JP2008532185A (en) * 2005-03-04 2008-08-14 アップル インコーポレイテッド Handheld electronic device with multi-touch sensing device
JP2010026834A (en) * 2008-07-22 2010-02-04 Nec Corp Display device, communication terminal, display method of the display device, and program for display control
WO2010017039A2 (en) * 2008-08-04 2010-02-11 Microsoft Corporation A user-defined gesture set for surface computing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002055753A (en) * 2000-08-10 2002-02-20 Canon Inc Information processor, function list display method and storage medium
JP2005321964A (en) * 2004-05-07 2005-11-17 Pentax Corp Input device with touch panel
JP2008532185A (en) * 2005-03-04 2008-08-14 アップル インコーポレイテッド Handheld electronic device with multi-touch sensing device
JP2010026834A (en) * 2008-07-22 2010-02-04 Nec Corp Display device, communication terminal, display method of the display device, and program for display control
WO2010017039A2 (en) * 2008-08-04 2010-02-11 Microsoft Corporation A user-defined gesture set for surface computing

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012088805A (en) * 2010-10-15 2012-05-10 Sharp Corp Information processor and information processor control method
US11126333B2 (en) 2010-12-23 2021-09-21 Microsoft Technology Licensing, Llc Application reporting in an application-selectable user interface
US10969944B2 (en) 2010-12-23 2021-04-06 Microsoft Technology Licensing, Llc Application reporting in an application-selectable user interface
US9229918B2 (en) 2010-12-23 2016-01-05 Microsoft Technology Licensing, Llc Presenting an application change through a tile
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
JP2014515519A (en) * 2011-05-27 2014-06-30 マイクロソフト コーポレーション Edge gesture
US10303325B2 (en) 2011-05-27 2019-05-28 Microsoft Technology Licensing, Llc Multi-application environment
US11698721B2 (en) 2011-05-27 2023-07-11 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US9329774B2 (en) 2011-05-27 2016-05-03 Microsoft Technology Licensing, Llc Switching back to a previously-interacted-with application
US9535597B2 (en) 2011-05-27 2017-01-03 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US10579250B2 (en) 2011-09-01 2020-03-03 Microsoft Technology Licensing, Llc Arranging tiles
US10254955B2 (en) 2011-09-10 2019-04-09 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
JP2015504206A (en) * 2012-01-18 2015-02-05 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Method and portable device for switching classified web pages
JP2015512106A (en) * 2012-03-02 2015-04-23 マイクロソフト コーポレーション Detection of user input at the edge of the display area
US9606718B2 (en) 2012-06-27 2017-03-28 Canon Kabushiki Kaisha Electronic apparatus and control method thereof
JP2015001786A (en) * 2013-06-13 2015-01-05 富士通株式会社 Portable electronic apparatus and character input support program
JP2015005186A (en) * 2013-06-21 2015-01-08 シャープ株式会社 Picture display unit capable of screen operation and operation method for the same
US10451874B2 (en) 2013-09-25 2019-10-22 Seiko Epson Corporation Image display device, method of controlling image display device, computer program, and image display system
JP2015125637A (en) * 2013-12-26 2015-07-06 Kddi株式会社 Tool screen control device, mobile terminal device, tool screen control method, and computer program
JP2015227919A (en) * 2014-05-30 2015-12-17 セイコーエプソン株式会社 Image display device, control method of the same, computer program and image display system
JP2015228270A (en) * 2015-09-25 2015-12-17 キヤノン株式会社 Electronic device, electronic device control method, program, and storage medium
JP2017224967A (en) * 2016-06-15 2017-12-21 カシオ計算機株式会社 Output control apparatus, output control method, and program
US10656826B2 (en) 2016-06-15 2020-05-19 Casio Computer Co., Ltd. Output control apparatus for controlling output of contents, output control method, and storage medium
JP2018025916A (en) * 2016-08-09 2018-02-15 本田技研工業株式会社 On-vehicle operation device
WO2023100584A1 (en) * 2021-12-01 2023-06-08 株式会社東海理化電機製作所 Control device, control method, and program

Also Published As

Publication number Publication date
JP5529616B2 (en) 2014-06-25

Similar Documents

Publication Publication Date Title
JP5529616B2 (en) Information processing system, operation input device, information processing device, information processing method, program, and information storage medium
WO2011125352A1 (en) Information processing system, operation input device, information processing device, information processing method, program and information storage medium
US8775966B2 (en) Electronic device and method with dual mode rear TouchPad
JP5708644B2 (en) Information processing terminal and control method thereof
KR101224588B1 (en) Method for providing UI to detect a multi-point stroke and multimedia apparatus thereof
JP5066055B2 (en) Image display device, image display method, and program
CN108121457B (en) Method and apparatus for providing character input interface
US20110138275A1 (en) Method for selecting functional icons on touch screen
KR20070062911A (en) Mobile device and operation method control available for using touch and drag
JP5780438B2 (en) Electronic device, position designation method and program
KR20110085189A (en) Operation method of personal handheld terminal with touch panel
JP2012079279A (en) Information processing apparatus, information processing method and program
WO2012160829A1 (en) Touchscreen device, touch operation input method, and program
JP2014241030A (en) Graph display device, program, and server device
JP5653062B2 (en) Information processing apparatus, operation input apparatus, information processing system, information processing method, program, and information storage medium
JP6217633B2 (en) Mobile terminal device, control method for mobile terminal device, and program
JP2012174247A (en) Mobile electronic device, contact operation control method, and contact operation control program
JP5414134B1 (en) Touch-type input system and input control method
JP2017140342A (en) User interface program, game program including the program, and control method
JP6106973B2 (en) Information processing apparatus and program
US20150309601A1 (en) Touch input system and input control method
JP6267418B2 (en) Information processing apparatus, information processing system, information processing method, and information processing program
KR20120095155A (en) Operation method of personal portable device having touch panel
KR20120094728A (en) Method for providing user interface and mobile terminal using the same
KR20140036539A (en) Operation method of personal portable device having touch panel

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140417

R150 Certificate of patent or registration of utility model

Ref document number: 5529616

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250