JP5620895B2 - Display control apparatus, method and program - Google Patents
Display control apparatus, method and program Download PDFInfo
- Publication number
- JP5620895B2 JP5620895B2 JP2011206978A JP2011206978A JP5620895B2 JP 5620895 B2 JP5620895 B2 JP 5620895B2 JP 2011206978 A JP2011206978 A JP 2011206978A JP 2011206978 A JP2011206978 A JP 2011206978A JP 5620895 B2 JP5620895 B2 JP 5620895B2
- Authority
- JP
- Japan
- Prior art keywords
- screen
- locus
- image
- indicator
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 26
- 238000001514 detection method Methods 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 description 12
- 239000000284 extract Substances 0.000 description 7
- 238000013500 data storage Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000005484 gravity Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000010365 information processing Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/80—Creating or modifying a manually drawn or painted image using a manual input device, e.g. mouse, light pen, direction keys on keyboard
Landscapes
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
Description
本発明は、表示画像に対して所定の処理を行うための技術に関する。 The present invention relates to a technique for performing predetermined processing on a display image.
表示装置に表示された画像を拡大/縮小する操作技術としては、スライダーの操作で画像を拡大/縮小する技術や、表示画像の一点を指定すると所定倍率に拡大してその指定された一点が画面の中心になるように表示する技術がある。 As an operation technique for enlarging / reducing an image displayed on the display device, a technique for enlarging / reducing the image by operating a slider, or when a point on the display image is designated, the image is enlarged to a predetermined magnification and the designated point is displayed on the screen. There is a technology to display so that
スライダーを用いた技術は、固定点を中心に画像を拡大/縮小するため、画像を画面より大きくすると、所望の箇所が画面からはみ出てしまい表示されないことがあった。また、画像の一点を指定する技術は、所望の箇所を指定すればその箇所が画面から出てしまうことはないが、指定する毎に所定倍率で拡大するため、所望の大きさに拡大するまでに複数回の指定操作が必要な場合があり、ユーザに負担がかかることがあった。 Since the technique using the slider enlarges / reduces the image around a fixed point, if the image is made larger than the screen, a desired portion may protrude from the screen and may not be displayed. In addition, the technique for designating one point of an image does not cause the part to come out of the screen if a desired part is designated. In some cases, a plurality of designation operations are required, which may be burdensome for the user.
一方、タッチスクリーンを備えた装置においては、ピンチアウトジェスチャーに応じて表示画像を拡大する技術がある。このピンチアウトジェスチャーの手法は、マルチタッチの接触点間の距離の変化に応じて画像を拡大/縮小するので、直感的な操作による画像処理を可能にしている。 On the other hand, in a device provided with a touch screen, there is a technique for enlarging a display image according to a pinch-out gesture. This pinch-out gesture technique enlarges / reduces an image in accordance with a change in the distance between multi-touch contact points, thereby enabling image processing by an intuitive operation.
また、特許文献1には、三以上の選択対象項目をサムネール表示する装置においては、タッチパネルを接触した領域が円形状の軌跡を有する場合に、円形状の内側領域に対向する位置に表示された選択対象項目を拡大表示することが開示されている。 Further, in Patent Document 1, in an apparatus that displays thumbnails of three or more selection target items, when a region touching the touch panel has a circular locus, the item is displayed at a position facing a circular inner region. It is disclosed that an item to be selected is enlarged and displayed.
しかし、上記特許文献1に記載された技術は、画面に表示された三以上のサムネール画像の中から選択された画像だけを残して拡大するための技術であり、地図や文書などの一つの画像を拡大するための技術として採用することはできなかった。また、スライダーやピンチアウトジェスチャーによる操作技術では、画像の所望部分を所望の大きさに拡大して画面内に表示するまでには複数工程の操作が必要な場合があるので、ユーザに操作負担がかかっており、この操作負担を軽減する必要があるという課題があった。 However, the technique described in Patent Document 1 is a technique for enlarging leaving only an image selected from three or more thumbnail images displayed on the screen, and is a single image such as a map or a document. Could not be adopted as a technology to expand In addition, with the operation technique using a slider or a pinch-out gesture, there are cases where operations in multiple steps are required until the desired portion of the image is enlarged to a desired size and displayed on the screen. There is a problem that it is necessary to reduce this operational burden.
上記の課題に対し、本発明の目的は、表示画像内の所望の領域を簡単な操作で迅速に指定できる技術を提供することである。 In view of the above problems, an object of the present invention is to provide a technique capable of quickly specifying a desired region in a display image with a simple operation.
本発明の表示制御装置は、画像を画面に表示するための表示制御装置であって、前記画面上の指示体の位置を検知すると共に当該指示体が当該画面上を移動した軌跡を検出する指示操作検出手段と、この検出された軌跡に基づいた位置及び大きさの領域であって、当該画面と同一縦横比の形状の領域を指定領域として抽出する指定領域抽出手段と、を備えたことを特徴とする。 The display control device according to the present invention is a display control device for displaying an image on a screen, and detects the position of the indicator on the screen and detects the locus of the indicator moving on the screen. An operation detection unit, and a specified region extraction unit that extracts a region having a position and size based on the detected trajectory and having the same aspect ratio as that of the screen as the specified region. Features.
本発明の方法は、画像を表示装置の画面に表示するための方法であって、前記画面上の指示体の位置を検知すると共に当該指示体が当該画面上を移動した軌跡を検出する指示操作検出ステップと、前記検出された軌跡に基づいた位置及び大きさの領域であって当該画面と同一縦横比の形状の領域を指定領域として抽出する指定領域抽出ステップと、を表示制御装置が実行する方法。 The method of the present invention is a method for displaying an image on a screen of a display device, and detects the position of the indicator on the screen and detects the locus of movement of the indicator on the screen. The display control device executes a detection step and a designated region extracting step that extracts a region having a position and size based on the detected locus and having the same aspect ratio as that of the screen as the designated region. Method.
本発明のプログラムは、コンピュータに対して画像を表示装置の画面に表示させるためのプログラムであって、前記画面上の指示体の位置を検知すると共に当該指示体が当該画面上を移動した軌跡を検出する指示操作検出ステップと、前記検出された軌跡に基づいた位置及び大きさの領域であって当該画面と同一縦横比の矩形状の領域を指定領域として抽出する指定領域抽出ステップと、を前記コンピュータに実行させるためのプログラム。 A program according to the present invention is a program for causing a computer to display an image on a screen of a display device, and detects a position of an indicator on the screen and detects a trajectory of the indicator moving on the screen. An instruction operation detecting step for detecting, and a designated area extracting step for extracting a rectangular area having the same aspect ratio as that of the screen as a designated area, the area having a position and size based on the detected locus. A program that causes a computer to execute.
なお、方法やプログラムのカテゴリにおいて、個々のステップを実行する装置又はコンピュータは単体でもよいし、ステップごとにもしくはタイミングごとに異なってもよい。 In the category of the method or program, the apparatus or computer that executes each step may be a single unit, or may be different for each step or for each timing.
本発明によれば、表示画像内の指定したい領域を直感的な操作で素早く抽出することが可能になるので、ユーザの操作負担を軽減して利便性を向上させることができる。 According to the present invention, since it is possible to quickly extract a region to be specified in a display image by an intuitive operation, it is possible to reduce a user's operation burden and improve convenience.
本発明を実施するための一形態を図面に基づいて説明する。なお、背景技術や課題などで既に述べた内容と共通の前提事項は適宜省略する。 An embodiment for carrying out the present invention will be described with reference to the drawings. In addition, the assumptions common to the contents already described in the background art and problems are omitted as appropriate.
〔1.構成〕
図1に示すように、本実施形態の表示制御装置1(以下、本装置1とする)は、入力装置2からの入力信号に応じて、画像データを生成し表示装置3に出力して画像を表示させる装置である。ここで、入力装置2は、ユーザに操作される指示体の画面上の位置を示す信号を入力するための装置であり、例えば、画面に表示されるポインタを「指示体」として、ボタンが押された時の当該ポインタの画面上の位置が入力されるマウスや、ユーザの指もしくは専用のペンを「指示体」として、当該指示体が画面に直接触れた位置が入力されるタッチパネルなどの、ポインティングデバイスであればよい。また、表示装置3は、画面を有し、本装置1から出力される画像データに基づいて画面に画像を表示する装置である。
[1. Constitution〕
As shown in FIG. 1, the display control apparatus 1 (hereinafter referred to as the present apparatus 1) according to the present embodiment generates image data in accordance with an input signal from the input apparatus 2, outputs it to the display apparatus 3, and displays an image. It is a device that displays. Here, the input device 2 is a device for inputting a signal indicating the position of the indicator operated by the user on the screen. For example, the pointer displayed on the screen is “indicator” and the button is pressed. Such as a mouse that inputs the position of the pointer on the screen at the time of the touch, or a touch panel that inputs the position of the pointer directly touching the screen using the user's finger or dedicated pen as the `` indicator '' Any pointing device may be used. The display device 3 has a screen and displays an image on the screen based on the image data output from the device 1.
本装置1は、画像を表示装置3の画面に表示するための装置であって、入力装置2から入力された信号に基づいて画面上の指示体の位置を検知すると共に当該指示体が当該画面上を移動した軌跡を検出する指示操作検出手段11と、この検知された位置又は軌跡に応じて画像データを生成し当該画像データを表示装置3へ出力する画像処理手段13を備えている。画像処理手段13は、指示操作検出手段11に検出された指示体の画面上の位置又は軌跡に対応して、通信装置4を介してサーバSから、もしくは、データ記憶手段14から所定のデータを取得し、そのデータを基に画像データを生成して表示装置3へ出力する機能を備えている。 The device 1 is a device for displaying an image on the screen of the display device 3, and detects the position of the indicator on the screen based on a signal input from the input device 2, and the indicator is displayed on the screen. An instruction operation detection unit 11 that detects a trajectory that has moved up and an image processing unit 13 that generates image data according to the detected position or trajectory and outputs the image data to the display device 3 are provided. The image processing unit 13 receives predetermined data from the server S or the data storage unit 14 via the communication device 4 in accordance with the position or locus of the indicator on the screen detected by the instruction operation detection unit 11. It has a function of acquiring, generating image data based on the data, and outputting the image data to the display device 3.
また、本装置1は、指示操作検出手段11に検出された軌跡に基づいた位置及び大きさの領域であって画面と同一縦横比の形状の領域を指定領域として抽出する指定領域抽出手段12を備え、画像処理手段13が、この抽出された指定領域内の表示画像に対して予め定められた内容の処理を行う機能を備えている。 The apparatus 1 further includes a designated area extracting unit 12 that extracts a region having a position and size based on the locus detected by the instruction operation detecting unit 11 and having the same aspect ratio as the screen as the designated region. The image processing means 13 has a function of processing a predetermined content on the display image in the extracted designated area.
図2は、指定領域抽出手段12による指定領域の抽出の一例を表したイメージ図である。図2は、入力装置2がタッチパネルの場合を例にした図であり、本実施形態の指定領域抽出手段12は、指示操作検出手段11によりユーザの指Aの画面100上をスライドした軌跡101が検出されると、軌跡101に基づいた位置及び大きさで画面100と同一縦横比の矩形領域を指定領域102として抽出する。画像処理手段13は、この抽出された指定領域内の表示画像に対して、拡大,切り取り又は切り抜きなどの予め定められた内容の処理を施す機能を備えている。
FIG. 2 is an image diagram showing an example of extraction of the designated area by the designated area extracting means 12. FIG. 2 is a diagram exemplifying a case where the input device 2 is a touch panel. The designated area extracting unit 12 of the present embodiment has a
このような構成の本装置1によれば、直感的な操作で、所望の位置及び大きさの画像領域を抽出することが可能になる。 According to the apparatus 1 having such a configuration, an image region having a desired position and size can be extracted by an intuitive operation.
〔2.動作及び作用〕
次に、上記のように構成された本装置1の動作を図3のフローチャートに基づいて説明する。
[2. Operation and action)
Next, the operation of the apparatus 1 configured as described above will be described based on the flowchart of FIG.
〔2−1.基本動作〕
本装置1では、まず、表示装置3の画面に所定の画像が表示されている状態で、指示操作検出手段11が、入力装置2からの信号に基づいて画面上の指示体の位置を検知した場合(図3のステップS10の「YES」)、その指示体が画面上を移動したか否かを判定し(ステップS20)、移動した場合にその移動軌跡を検出する(ステップS20の「YES」)。そして、指定領域抽出手段12が、この検出された軌跡に基づいた領域であって、当該軌跡に基づく位置及び大きさで画面と同一縦横比の形状の領域を指定領域として抽出する(ステップS30)。続いて、画像処理手段13が、指定領域内の表示画像に対して予め定められた内容の処理を行う(ステップS40)。
[2-1. basic action〕
In the device 1, first, the instruction operation detection unit 11 detects the position of the indicator on the screen based on a signal from the input device 2 in a state where a predetermined image is displayed on the screen of the display device 3. In the case (“YES” in step S10 in FIG. 3), it is determined whether or not the indicator has moved on the screen (step S20), and when it moves, the movement locus is detected (“YES” in step S20). ). Then, the designated area extracting unit 12 extracts an area based on the detected trajectory and having the same aspect ratio as the screen at the position and size based on the trajectory as the designated area (step S30). . Subsequently, the image processing means 13 performs processing of predetermined contents on the display image in the designated area (step S40).
このような構成の本装置1によれば、ユーザは指示体で画面上を直感的になぞる操作を行うだけで、画像処理対象の領域の位置及び大きさを指定することが可能になるので、ユーザの操作負担を軽減し、操作性及び利便性を向上させることができる。 According to the apparatus 1 having such a configuration, the user can specify the position and size of the image processing target area simply by performing an intuitive operation on the screen with the indicator. The operational burden on the user can be reduced and operability and convenience can be improved.
〔2−2.指示軌跡検出〕
指示操作検出手段11は、入力装置2からの信号に基づいて画面上の指示体の位置座標を検知すると共に、その指示体の位置座標の変化を基に、画面上の指示体の移動軌跡を検出する。例えば、入力装置2がタッチパネルを有する場合は、画面上の指示体が触れた位置の座標を検知し、指示体が画面に触れた状態のままスライドし画面から離れるまでのそのスライドした軌跡を検出する。また、入力装置2がマウスを有する場合は、マウスがボタンを押した状態のままスライドされボタンの押下が解放されるまでの画面上のマウスポインタの移動軌跡を検出する。
[2-2. (Indication trajectory detection)
The instruction operation detection means 11 detects the position coordinates of the indicator on the screen based on the signal from the input device 2 and determines the movement locus of the indicator on the screen based on the change in the position coordinates of the indicator. To detect. For example, when the input device 2 has a touch panel, the coordinates of the position touched by the indicator on the screen are detected, and the locus of the slide until the indicator slides away from the screen while touching the screen is detected. To do. When the input device 2 has a mouse, the movement locus of the mouse pointer on the screen until the mouse is slid with the button pressed and the button is released is detected.
また、画面上の指示体の軌跡が途中で途切れた場合、途切れた箇所の軌跡を補完して一つの軌跡として検出するようにすれば、ユーザの操作を補助して、操作性を向上させることができる。この場合、具体的には、指示操作検出手段11は、画面上の指示体の軌跡が途中で途切れている場合、その途切れた間の時間又は距離が予め設定された微小値内であれば、その間の軌跡を補完し一つの軌跡として検出する。このようにすれば、ユーザが指示体を素早く操作したことなどによって指示体の移動軌跡に途切れが生じてしまった場合でも、微小時間内の途切れであれば1つの軌跡に補正して検出するため、操作エラーの発生を抑えて、操作のやり直しが減少し、ユーザの満足度を上げることができる。 In addition, when the locus of the indicator on the screen is interrupted, it is possible to assist the user's operation and improve operability by complementing the locus of the broken portion and detecting it as a single locus. Can do. In this case, specifically, when the trajectory of the indicator on the screen is interrupted in the middle, the instruction operation detection unit 11 is within a minute value set in advance when the time or distance between the interruptions is within the preset value. The trajectory between them is complemented and detected as one trajectory. In this way, even if the moving locus of the indicator is interrupted due to the user operating the indicator quickly or the like, if the interruption is within a minute time, it is corrected to one locus and detected. The occurrence of an operation error can be suppressed, the number of re-executions can be reduced, and the user's satisfaction can be increased.
〔2−3.指定領域抽出〕
指定領域抽出手段12は、予め定められた表示画面形状と同一縦横比の形状の領域であって、指示操作検出手段11に検出された軌跡に基づいた位置及び大きさの領域を指定領域として検出する。この抽出する指定領域は、画面と同一縦横比の矩形形状であれば、例えば、指示操作検出手段11に検出された軌跡を内側に含み、いずれか一方の対向する二辺が軌跡に接し、他方の対向する各辺から軌跡までのそれぞれの距離が同一の領域であればよい。
[2-3. (Specified area extraction)
The designated area extracting means 12 detects an area having the same aspect ratio as that of a predetermined display screen shape and having a position and size based on the locus detected by the instruction operation detecting means 11 as the designated area. To do. If the designated area to be extracted is a rectangular shape having the same aspect ratio as the screen, for example, the locus detected by the pointing operation detection unit 11 is included inside, and one of the two opposite sides touches the locus, and the other It suffices if the distances from the opposing sides to the locus are the same.
このような指定領域を抽出する手法の一例を図4に示している。まず、図4(a)に示す軌跡105が検出された場合、指定領域抽出手段12は、図4(b)に示すように、軌跡105の縦幅a及び横幅bを計測し、表示画面の縦横比に基づいて、この縦幅a及び横幅bのうち、軌跡105を内側に含む矩形領域の縦寸又は横寸として採用する幅を選択し、選択した幅を基準にして矩形領域の寸法を決定し矩形領域の大きさを決定する。
An example of a technique for extracting such a designated area is shown in FIG. First, when the
図4では、軌跡105の縦幅aが指定領域106の縦寸になった場合を示している。そして、図4(c)に示すように、矩形領域の軌跡105と接しない各辺から軌跡105までのそれぞれの距離d1及びd2が同一になるように矩形領域の位置を調整して指定領域106に確定する。
FIG. 4 shows a case where the vertical width a of the
このような領域を指定領域とすることによって、画面上の指示体の移動軌跡に合った大きさで当該軌跡を中央に含む領域を抽出できるため、ユーザの意図により合致した位置及び大きさの画像処理領域を簡単な操作で抽出することができる。 By setting such an area as a designated area, an area including the locus in the center with a size that matches the movement locus of the indicator on the screen can be extracted, so an image with a position and size that matches the intention of the user The processing area can be extracted with a simple operation.
さらに、指定領域は、検出された軌跡の重心を中心とし当該軌跡を内側に含む最小の矩形領域であってもよい。このような指定領域の抽出手法の一例を図5に示している。 Further, the designated area may be a minimum rectangular area that is centered on the center of gravity of the detected trajectory and includes the trajectory inside. An example of such a method for extracting a designated area is shown in FIG.
図5(a)に示す軌跡105が検出された場合、指定領域抽出手段12は、図5(b)のように、軌跡105の重心点Gを算出する。そして、図5(c)のように、重心点Gを中心とした画面と同一縦横比の矩形領域であって軌跡105を内側に含む最小の領域を指定領域107に確定する。
When the
このように、検出された軌跡の重心点と指定領域の中心又は重心を一致させることによって、より少ない工程の情報処理でユーザの意図に合った領域を抽出することが可能になり、指定領域抽出手段12に係る負荷を抑えることができる。 In this way, by matching the center of gravity of the detected locus with the center or center of gravity of the designated area, it is possible to extract an area that matches the user's intention with less information processing, and the designated area extraction. The load related to the means 12 can be suppressed.
なお、指定領域抽出手段12が抽出する指定領域は、検出された軌跡に基づいた領域であって、その軌跡に基づく位置及び大きさの領域であれば、上記例示した各領域に限らず、軌跡を内側に含むが軌跡と接していない領域や、軌跡が外側にはみ出した領域などであってもよい。この指定領域は、画面と同一の縦横比で相似な形状の領域であれば、矩形状に限らず、楕円状などの場合もある。また、この指定領域は、検出された軌跡に基づいて定められる形状であれば、画面形状と完全に相似な形状でなくてもよく、画面と略相似な形状であればよい。 The designated area extracted by the designated area extraction unit 12 is an area based on the detected locus, and is not limited to the above-exemplified areas, as long as the area has a position and size based on the locus. May be a region that is included on the inside but not in contact with the locus, or a region where the locus protrudes outward. The designated area is not limited to a rectangular shape but may be an elliptical shape as long as it is a similar area with the same aspect ratio as the screen. In addition, as long as the designated region has a shape determined based on the detected locus, the designated region may not have a shape that is completely similar to the screen shape, and may have a shape that is substantially similar to the screen.
〔2−4.画像処理〕
画像処理手段13が指定領域内の表示画像に対して実行する処理としては、例えば、指定領域内の表示画像を画面のサイズに拡大して当該画面内に表示する処理や、指定領域内の表示画像のみを切り出して表示する処理などである。
[2-4. Image processing〕
Examples of the process executed by the image processing unit 13 on the display image in the designated area include, for example, a process in which the display image in the designated area is enlarged to the screen size and displayed in the screen, or a display in the designated area. For example, a process of cutting out and displaying only an image.
ここで、指定領域内の表示画像を画面サイズに拡大する処理について、具体例を示して説明する。図6に示すように、画面110にメッシュ画像を表示した場合、指示操作検出手段11が軌跡111を検出すると、指定領域抽出手段12が指定領域112を抽出する。この指定領域112が抽出されると、画像処理手段13は、図7に示すように、指定領域112内の画像が画面いっぱいになるように、メッシュ画像を引き伸ばして拡大する。また、画像処理手段13は、通常の画像処理機能として、画面上の指示体の移動に従って表示画像をスクロールする機能や、指示体のピンチインジェスチャに応じて画像を縮小する機能などを備え、この通常の画像処理機能を作動するモードと上述した画像拡大機能を作動するモードとを切り替える機能を備えた構成であってもよい。
Here, the process of enlarging the display image in the designated area to the screen size will be described with a specific example. As shown in FIG. 6, when the mesh image is displayed on the
このように、画面上の指示体の軌跡に基づいて指定領域を抽出し、その指定領域内の画像を画面サイズに拡大するように構成すれば、画面内の拡大して閲覧したい箇所を直感的に指定操作するのみで、所望の部分を所望の倍率で拡大することができる。 In this way, if the designated area is extracted based on the trajectory of the indicator on the screen and the image in the designated area is enlarged to the screen size, the part of the screen to be enlarged and viewed can be intuitively viewed. The user can enlarge the desired portion at the desired magnification simply by performing the designation operation.
以上のように、本実施形態は、画面上の指示体の移動軌跡を検出すると、この軌跡に基づいた位置及び大きさの矩形領域を指定領域として抽出し、この指定領域内の表示画像に対して所定の処理を行うので、ユーザは画面上の所望の位置をなぞるのみで、所望の位置及び大きさの領域を画像処理対象の領域として指定することができる。
したがって、本実施形態の表示制御装置及びその動作方法によれば、表示画像内の指定したい領域を直感的な操作で素早く抽出することが可能になり、ユーザの操作負担を軽減して利便性を向上させることができる。
As described above, in the present embodiment, when the movement locus of the indicator on the screen is detected, a rectangular region having a position and a size based on the locus is extracted as a designated region, and the display image in the designated region is extracted. Thus, the user can designate a region having a desired position and size as an image processing target region by simply tracing the desired position on the screen.
Therefore, according to the display control apparatus and its operation method of the present embodiment, it is possible to quickly extract an area to be specified in a display image by an intuitive operation, which reduces the operation burden on the user and improves convenience. Can be improved.
なお、本装置1の各手段11,12,13,14の機能又は上記各ステップについては、CPUなどの中央演算装置とメモリとを備えたコンピュータに対し、メモリに予め記憶(インストール)させた所定のプログラムに従って中央演算装置に情報処理を実行させて、実現させるように構成してもよい。 In addition, about the function of each means 11, 12, 13, 14 of this apparatus 1, or said each step, predetermined | prescribed memorize | stored (installed) in memory beforehand with respect to the computer provided with central processing units, such as CPU, and memory. The central processing unit may be configured to execute information processing according to the program.
また、データ記憶手段14は、ファイルなど任意の形式でデータを記憶するが、ネットワークコンピューティング(クラウド)によるリモート記憶であってもよい。また、このデータ記憶手段14は、データの格納領域だけでなく、データの入出力や管理などの機能を含む構成であってもよい。また、本実施形態に示すデータ記憶手段14の単位は説明上の便宜によるもので、適宜、構成を分けたり一体化したりできるものとする。 The data storage unit 14 stores data in an arbitrary format such as a file, but may be remote storage by network computing (cloud). The data storage means 14 may be configured to include not only a data storage area but also functions such as data input / output and management. Further, the unit of the data storage means 14 shown in the present embodiment is for convenience of explanation, and the configuration can be divided or integrated as appropriate.
また、図1の矢印は、データや制御などの流れについて主要な方向を補助的に示すもので、他の流れを否定するものでも、方向の限定を意味するものでもない。例えばデータをある方向に取得する場合、事前のデータリクエストや事後のアクノリッジ(ACK)が逆方向に送信される。また、記憶手段以外の各手段は、以下に説明するような情報処理の機能・作用を実現・実行する処理手段であるが、これらは説明のために整理した機能単位であり、実際のハードウェア要素やソフトウェアモジュールとの一致は問わない。 Also, the arrows in FIG. 1 supplementarily indicate the main direction of the flow of data, control, etc., and do not deny other flows or imply direction limitations. For example, when data is acquired in a certain direction, a prior data request and a subsequent acknowledge (ACK) are transmitted in the reverse direction. In addition, each means other than the storage means is a processing means for realizing and executing the functions and operations of information processing as described below, but these are functional units arranged for explanation, and actual hardware It doesn't matter if it matches elements or software modules.
〔3.他の実施形態〕
上記実施形態は例示に過ぎず、以下に例示するものやそれ以外の他の実施態様も含むものである。例えば、本出願における構成図、データの図、フローチャートなどは例示に過ぎず、各要素の有無、その配置や処理実行などの順序、具体的内容などは適宜変更可能である。
[3. Other embodiments]
The above embodiment is merely an example, and includes the embodiments exemplified below and other embodiments. For example, the configuration diagrams, data diagrams, flowcharts, and the like in the present application are merely examples, and the presence / absence of each element, the order of the arrangement and processing execution, and the specific contents can be changed as appropriate.
また、上記実施形態の表示制御装置1を構成する個々の手段11,12,13,14を、さらにそれぞれ独立した装置で実現する構成であってもよい。また、外部のプラットフォーム等をAPI(アプリケーション・プログラム・インタフェース)やネットワークコンピューティング(いわゆるクラウドなど)で呼び出すことで、上記実施形態の表示制御装置1における各手段11,12,13,14を実現する構成であってもよい。さらに、上記実施形態における各手段11,12,13,14は、コンピュータに限らず物理的な電子回路など他の情報処理機構で実現してもよい。 Moreover, the structure which implement | achieves each means 11, 12, 13, 14 which comprises the display control apparatus 1 of the said embodiment further by an independent apparatus may be sufficient. Further, each means 11, 12, 13, 14 in the display control apparatus 1 of the above embodiment is realized by calling an external platform or the like with an API (application program interface) or network computing (so-called cloud). It may be a configuration. Furthermore, each means 11, 12, 13, and 14 in the said embodiment may be implement | achieved by other information processing mechanisms, such as not only a computer but a physical electronic circuit.
1 表示制御装置
2 入力装置
3 表示装置
4 通信装置
11 指示操作検出手段
12 指定領域抽出手段
13 画像処理手段
14 データ記憶手段
N 通信ネットワーク
S サーバ
DESCRIPTION OF SYMBOLS 1 Display control apparatus 2 Input apparatus 3 Display apparatus 4 Communication apparatus 11 Instruction operation detection means 12 Designated area extraction means 13 Image processing means 14 Data storage means N Communication network S Server
Claims (6)
前記画面上の指示体の位置を検知し、当該指示体が当該画面上を移動した軌跡を検出するとともに、当該軌跡が途切れた場合には、途切れた間の時間に基づき途切れを判定し、途切れた箇所の軌跡を補完して1つの軌跡として検出する指示操作検出手段と、
前記画面と同一縦横比の形状であり、かつ、前記軌跡に囲まれた領域を内側に含む短形形状であって、いずれか一方の対向する二辺が前記軌跡に囲まれた領域に接し、他方の対向する各辺から前記軌跡までのそれぞれの距離が同じである領域を指定領域として抽出する指定領域抽出手段と、
を備えた表示制御装置。 A display control device for displaying an image on a screen,
The position of the indicator on the screen is detected, and the locus of movement of the indicator on the screen is detected. If the locus is interrupted, the interruption is determined based on the time between the interruptions. Instruction operation detecting means for complementing the locus of the detected part and detecting it as one locus,
Wherein the shape of the screen and the same aspect ratio, and a region surrounded by the trajectory a rectangle shape including the inside, one of the two opposing sides in contact with the region surrounded by the trajectory, Designated area extracting means for extracting, as the designated area , an area having the same distance from each of the other opposing sides to the locus ;
A display control device.
前記画面上の指示体の位置を検知し、当該指示体が当該画面上を移動した軌跡を検出するとともに、当該軌跡が途切れた場合には、途切れた間の時間に基づき途切れを判定し、途切れた箇所の軌跡を補完して1つの軌跡として検出する指示操作検出ステップと、
前記画面と同一縦横比の形状であり、かつ、前記軌跡に囲まれた領域を内側に含む短形形状であって、いずれか一方の対向する二辺が前記軌跡に囲まれた領域に接し、他方の対向する各辺から前記軌跡までのそれぞれの距離が同じである領域を指定領域として抽出する指定領域抽出ステップと、
を表示制御装置が実行する方法。 A method for displaying an image on a screen of a display device,
The position of the indicator on the screen is detected, and the locus of movement of the indicator on the screen is detected. If the locus is interrupted, the interruption is determined based on the time between the interruptions. An instruction operation detection step of detecting a single locus by complementing the locus of the selected portion;
Wherein the shape of the screen and the same aspect ratio, and a region surrounded by the trajectory a rectangle shape including the inside, one of the two opposing sides in contact with the region surrounded by the trajectory, A designated region extraction step for extracting a region having the same distance from each of the other opposing sides to the locus as a designated region;
Is executed by the display control device.
前記画面上の指示体の位置を検知し、当該指示体が当該画面上を移動した軌跡を検出するとともに、当該軌跡が途切れた場合には、途切れた間の時間に基づき途切れを判定し、途切れた箇所の軌跡を補完して1つの軌跡として検出する指示操作検出ステップと、
前記画面と同一縦横比の形状であり、かつ、前記軌跡に囲まれた領域を内側に含む短形形状であって、いずれか一方の対向する二辺が前記軌跡に囲まれた領域に接し、他方の対向する各辺から前記軌跡までのそれぞれの距離が同じである領域を指定領域として抽出する指定領域抽出ステップと、
を前記コンピュータに実行させるためのプログラム。 A program for causing a computer to display an image on a screen of a display device,
The position of the indicator on the screen is detected, and the locus of movement of the indicator on the screen is detected. If the locus is interrupted, the interruption is determined based on the time between the interruptions. An instruction operation detection step of detecting a single locus by complementing the locus of the selected portion;
Wherein the shape of the screen and the same aspect ratio, and a region surrounded by the trajectory a rectangle shape including the inside, one of the two opposing sides in contact with the region surrounded by the trajectory, A designated region extraction step for extracting a region having the same distance from each of the other opposing sides to the locus as a designated region;
For causing the computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011206978A JP5620895B2 (en) | 2011-09-22 | 2011-09-22 | Display control apparatus, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011206978A JP5620895B2 (en) | 2011-09-22 | 2011-09-22 | Display control apparatus, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013069104A JP2013069104A (en) | 2013-04-18 |
JP5620895B2 true JP5620895B2 (en) | 2014-11-05 |
Family
ID=48474753
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011206978A Expired - Fee Related JP5620895B2 (en) | 2011-09-22 | 2011-09-22 | Display control apparatus, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5620895B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6126904B2 (en) * | 2013-05-13 | 2017-05-10 | 株式会社Nttドコモ | Electronic device, locus correction method, program |
JP6019000B2 (en) * | 2013-09-26 | 2016-11-02 | 京セラドキュメントソリューションズ株式会社 | Character input device, character input program, and image forming apparatus |
JP6352766B2 (en) * | 2014-10-15 | 2018-07-04 | シャープ株式会社 | Information processing apparatus, information processing program, and information processing method |
CN107977663B (en) * | 2017-11-21 | 2021-12-03 | 武汉中元华电科技股份有限公司 | Pointing type state indicator identification method suitable for electric power robot |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3501032B2 (en) * | 1999-08-30 | 2004-02-23 | トヨタ自動車株式会社 | Map display method and map display device |
JP4781739B2 (en) * | 2005-07-14 | 2011-09-28 | シャープ株式会社 | Data conversion apparatus, map display apparatus, data conversion method, data conversion program, and computer-readable recording medium recording the same |
JP4830651B2 (en) * | 2006-06-12 | 2011-12-07 | 大日本印刷株式会社 | Processing apparatus and program |
JP5554517B2 (en) * | 2009-04-22 | 2014-07-23 | 富士通コンポーネント株式会社 | Touch panel position detection method and touch panel device |
JP2011050038A (en) * | 2009-07-27 | 2011-03-10 | Sanyo Electric Co Ltd | Image reproducing apparatus and image sensing apparatus |
JP2011040896A (en) * | 2009-08-07 | 2011-02-24 | Canon Inc | Image capturing apparatus and method of controlling the same |
-
2011
- 2011-09-22 JP JP2011206978A patent/JP5620895B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013069104A (en) | 2013-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10627990B2 (en) | Map information display device, map information display method, and map information display program | |
EP2657811B1 (en) | Touch input processing device, information processing device, and touch input control method | |
US9612736B2 (en) | User interface method and apparatus using successive touches | |
US20160004373A1 (en) | Method for providing auxiliary information and touch control display apparatus using the same | |
US20140123080A1 (en) | Electrical Device, Touch Input Method And Control Method | |
US9870144B2 (en) | Graph display apparatus, graph display method and storage medium | |
US9430089B2 (en) | Information processing apparatus and method for controlling the same | |
KR20140078629A (en) | User interface for editing a value in place | |
KR102205283B1 (en) | Electro device executing at least one application and method for controlling thereof | |
JP6630669B2 (en) | Adjustment method and adjustment device for widget area | |
US9632697B2 (en) | Information processing apparatus and control method thereof, and non-transitory computer-readable medium | |
JP5620895B2 (en) | Display control apparatus, method and program | |
JP5275429B2 (en) | Information processing apparatus, program, and pointing method | |
EP2610721B1 (en) | Method and device for editing layout of objects | |
KR102040798B1 (en) | User interface method and apparatus using successive touches | |
US20160132478A1 (en) | Method of displaying memo and device therefor | |
US9501210B2 (en) | Information processing apparatus | |
JP2008226097A (en) | Touch panel system | |
TWI607369B (en) | System and method for adjusting image display | |
KR101260016B1 (en) | Method and touch-screen device for implementing pointer interface using skin-type interface | |
US20150046855A1 (en) | Electronic apparatus, control method for electronic apparatus, and program | |
JP2001195170A (en) | Portable electronic equipment, input controller and storage medium | |
US20170131824A1 (en) | Information processing apparatus, information processing method, and information processing program | |
KR101345847B1 (en) | Method of providing mobile graphic user interface | |
JP6036598B2 (en) | Information processing apparatus and information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130828 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130903 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20131018 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140415 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140715 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20140723 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140909 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140919 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5620895 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees | ||
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |