JP2019050018A - Method for controlling display, information processor, and program - Google Patents

Method for controlling display, information processor, and program Download PDF

Info

Publication number
JP2019050018A
JP2019050018A JP2018211420A JP2018211420A JP2019050018A JP 2019050018 A JP2019050018 A JP 2019050018A JP 2018211420 A JP2018211420 A JP 2018211420A JP 2018211420 A JP2018211420 A JP 2018211420A JP 2019050018 A JP2019050018 A JP 2019050018A
Authority
JP
Japan
Prior art keywords
information
display
image
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018211420A
Other languages
Japanese (ja)
Inventor
賢吾 得地
Kengo Tokuchi
賢吾 得地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2018211420A priority Critical patent/JP2019050018A/en
Publication of JP2019050018A publication Critical patent/JP2019050018A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To make display different according to information different from positional information.SOLUTION: The method for controlling display includes the steps of: acquiring, from a portable display device 1, positional information which shows where the portable display device 1 is being used; acquiring first information different from the positional information related to the positional information, from a device different from the display device 1; making a two-dimensional image expressing an object 30 defined three dimensionally displayed in the display unit 2 of the display device 1, from one viewpoint direction, different according to the acquired first information; and displaying the two-dimensional image as a video.SELECTED DRAWING: Figure 6

Description

本発明は、表示制御方法、情報処理装置及びプログラムに関する。   The present invention relates to a display control method, an information processing apparatus and a program.

対象物(いわゆるオブジェクト)を三次元的に表示する技術には、1つの表示画面を用いる方法、立体的に配置された複数の表示画面を用いる方法、三次元ディスプレイを用いる方法等がある。   Techniques for three-dimensionally displaying an object (so-called object) include a method using one display screen, a method using a plurality of stereoscopically arranged display screens, and a method using a three-dimensional display.

特開2014‐110628号公報JP, 2014-110628, A

現在、表示デバイスを有する機器に内蔵された加速度センサの出力は、オブジェクトの全体や全身の動きの制御等に用いられている。   Currently, the output of an acceleration sensor built in a device having a display device is used to control the movement of the entire object or whole body.

本発明は、位置情報とは異なる情報に応じて表示を異ならせることを目的とする。   An object of the present invention is to make display different according to information different from position information.

請求項1に記載の発明は、携帯型の表示装置が使用されている位置を示す位置情報を当該表示装置から取得し、前記位置情報に紐付いた、当該位置情報とは異なる第1の情報を前記表示装置とは異なる装置から取得し、前記表示装置に表示される、三次元で定義されたオブジェクトを1つの視点方向から表現した二次元画像を、取得された前記第1の情報に応じて異ならせるとともに、当該二次元画像を動画として表示させる、表示制御方法である。
請求項2に記載の発明は、前記表示装置に表示させる前記オブジェクトが形態を模する仮想の生物の画像は、少なくとも前記第1の情報と前記位置情報に連動して変化する、請求項1に記載の表示制御方法である。
請求項3に記載の発明は、前記第1の情報と前記位置情報の変化に連動して、前記仮想の生物の画像とは異なる仮想の生物の画像を前記表示装置に追加で表示させる、請求項2に記載の表示制御方法である。
請求項4に記載の発明は、前記第1の情報と前記位置情報に連動して、前記表示装置に表示させる前記オブジェクトが形態を模する仮想の生物の画像の数が異なる、請求項2に記載の表示制御方法である。
請求項5に記載の発明は、前記第1の情報が気象に関する情報であり、当該気象に関する情報を通じて気象の異常が通知される場合、前記二次元画像を異常の内容に応じた態様で表示する、請求項1〜4のいずれか1項に記載の表示制御方法である。
請求項6に記載の発明は、前記第1の情報を通じて気象の異常が通知される場合、警告情報を前記表示装置に表示する、請求項5に記載の表示制御方法である。
請求項7に記載の発明は、前記第1の情報が気象に関する情報である場合、当該気象に関する情報に応じ、前記二次元画像の表示上の変化の大小を変える、請求項1〜4のいずれか1項に記載の表示制御方法である。
請求項8に記載の発明は、前記二次元画像は、前記第1の情報に応じ、前記表示装置上で増加した後に減少する、請求項1〜4のいずれか1項に記載の表示制御方法である。
請求項9に記載の発明は、携帯型の表示装置が使用されている位置を示す位置情報を当該表示装置から取得し、当該位置情報に紐付いた、当該位置情報とは異なる第1の情報を当該表示装置とは異なる装置から取得し、当該表示装置に表示される、三次元で定義されたオブジェクトを1つの視点方向から表現した二次元画像を、取得された当該第1の情報に応じて異ならせるとともに、当該二次元画像を動画として表示させる表示制御手段を有する情報処理装置である。
請求項10に記載の発明は、前記表示装置に表示させる前記オブジェクトが形態を模する仮想の生物の画像は、少なくとも前記第1の情報と前記位置情報に連動して変化する、請求項9に記載の情報処理装置である。
請求項11に記載の発明は、前記第1の情報と前記位置情報の変化に連動して、前記仮想の生物の画像とは異なる仮想の生物の画像を前記表示装置に追加で表示させる、請求項10に記載の情報処理装置である。
請求項12に記載の発明は、前記第1の情報と前記位置情報に連動して、前記表示装置に表示させる前記オブジェクトが形態を模する前記仮想の生物の画像の数が異なる、請求項10に記載の情報処理装置である。
請求項13に記載の発明は、前記第1の情報が気象に関する情報であり、当該気象に関する情報を通じて気象の異常が通知される場合、前記表示制御手段は、前記二次元画像を異常の内容に応じた態様で表示する、請求項9〜12のいずれか1項に記載の情報処理装置である。
請求項14に記載の発明は、前記第1の情報を通じて気象の異常が通知される場合、前記表示制御手段は、警告情報を前記表示装置に表示する、請求項13に記載の情報処理装置である。
請求項15に記載の発明は、前記第1の情報が気象に関する情報である場合、前記表示制御手段は、当該気象に関する情報に応じ、前記二次元画像の表示上の変化の大小を変える、請求項9〜12のいずれか1項に記載の情報処理装置である。
請求項16に記載の発明は、前記表示制御手段は、前記第1の情報に応じ、前記二次元画像を前記表示装置上で増加させた後に減少させる、請求項9〜12のいずれか1項に記載の情報処理装置である。
請求項17に記載の発明は、コンピュータに、携帯型の表示装置が使用されている位置を示す位置情報を当該表示装置から取得し、当該位置情報に紐付いた、当該位置情報とは異なる第1の情報を当該表示装置とは異なる装置から取得し、当該表示装置に表示される、三次元で定義されたオブジェクトを1つの視点方向から表現した二次元画像を、取得された当該第1の情報に応じて異ならせるとともに、当該二次元画像を動画として表示させるためのプログラムである。
The invention according to claim 1 acquires from the display device position information indicating a position at which a portable display device is used, and links first information different from the position information to the position information. A two-dimensional image obtained from a device different from the display device and displayed on the display device and representing an object defined in three dimensions from one viewpoint direction is obtained according to the acquired first information It is a display control method of displaying the two-dimensional image as a moving image while making it different.
The invention according to claim 2 is that the image of a virtual creature in which the object displayed on the display device simulates a form changes in conjunction with at least the first information and the position information. It is a display control method of a statement.
The invention according to claim 3 causes the display to additionally display an image of a virtual creature different from the image of the virtual creature in conjunction with the change of the first information and the position information. It is a display control method given in item 2.
The invention according to claim 4 is that, in conjunction with the first information and the position information, the number of images of virtual creatures in which the object displayed on the display device simulates a form is different. It is a display control method of a statement.
In the invention according to claim 5, when the first information is information on weather and an abnormality of the weather is notified through the information on the weather, the two-dimensional image is displayed in a mode according to the contents of the abnormality. The display control method according to any one of claims 1 to 4.
The invention according to a sixth aspect is the display control method according to the fifth aspect, wherein when abnormal weather is notified through the first information, warning information is displayed on the display device.
The invention according to claim 7 changes the magnitude of the change in display of the two-dimensional image according to the information on the weather when the first information is the information on the weather. Or the display control method described in item 1.
The display control method according to any one of claims 1 to 4, wherein the two-dimensional image is increased after being increased on the display device according to the first information. It is.
The invention according to claim 9 acquires from the display device position information indicating a position at which a portable display device is used, and associates the first information different from the position information linked to the position information. According to the acquired first information, a two-dimensional image obtained from a device different from the display device and displayed on the display device and representing an object defined in three dimensions from one viewpoint direction is obtained It is an information processing apparatus having display control means for displaying the two-dimensional image as a moving image while making it different.
In the invention according to claim 10, the image of a virtual creature in which the object displayed on the display device simulates a form changes in conjunction with at least the first information and the position information. It is an information processor of a statement.
The invention according to claim 11 causes the display to additionally display an image of a virtual creature different from the image of the virtual creature in conjunction with the change of the first information and the position information. It is an information processor given in paragraph 10.
The invention according to claim 12 is that, in conjunction with the first information and the position information, the number of images of the virtual creature that the object displayed on the display device imitates in form is different. It is an information processor given in a.
In the invention according to claim 13, when the first information is information related to the weather and the abnormality of the weather is notified through the information related to the weather, the display control means changes the two-dimensional image to the content of the abnormality. The information processing apparatus according to any one of claims 9 to 12, wherein the information is displayed in a corresponding manner.
The invention according to claim 14 is the information processing apparatus according to claim 13, wherein the display control means displays warning information on the display device when abnormal weather is notified through the first information. is there.
The invention according to claim 15 is that, when the first information is information on weather, the display control means changes magnitude of change in display of the two-dimensional image according to the information on weather. Item 13 is the information processing device according to any one of Items 9 to 12.
The display control means may decrease the two-dimensional image after increasing it on the display device according to the first information. It is an information processor given in a.
The invention according to claim 17 is the computer according to the first, wherein position information indicating the position where the portable display device is used is acquired from the display device, and the position information is linked to the first position information different from the position information. Is acquired from a device different from the display device, and a two-dimensional image representing an object defined in three dimensions, which is displayed on the display device, is represented from one view direction, the acquired first information And a program for displaying the two-dimensional image as a moving image.

請求項1記載の発明によれば、位置情報とは異なる情報に応じて表示を異ならせることができる。
請求項2記載の発明によれば、位置情報とは異なる情報に応じて表示を異ならせることができる。
請求項3記載の発明によれば、位置情報とは異なる情報に応じて表示を異ならせることができる。
請求項4記載の発明によれば、位置情報とは異なる情報に応じて表示を異ならせることができる。
請求項5記載の発明によれば、位置情報とは異なる情報に応じて表示を異ならせることができる。
請求項6記載の発明によれば、位置情報とは異なる情報に応じて表示を異ならせることができる。
請求項7記載の発明によれば、位置情報とは異なる情報に応じて表示を異ならせることができる。
請求項8記載の発明によれば、位置情報とは異なる情報に応じて表示を異ならせることができる。
請求項9記載の発明によれば、位置情報とは異なる情報に応じて表示を異ならせることができる。
請求項10記載の発明によれば、位置情報とは異なる情報に応じて表示を異ならせることができる。
請求項11記載の発明によれば、位置情報とは異なる情報に応じて表示を異ならせることができる。
請求項12記載の発明によれば、位置情報とは異なる情報に応じて表示を異ならせることができる。
請求項13記載の発明によれば、位置情報とは異なる情報に応じて表示を異ならせることができる。
請求項14記載の発明によれば、位置情報とは異なる情報に応じて表示を異ならせることができる。
請求項15記載の発明によれば、位置情報とは異なる情報に応じて表示を異ならせることができる。
請求項16記載の発明によれば、位置情報とは異なる情報に応じて表示を異ならせることができる。
請求項17記載の発明によれば、位置情報とは異なる情報に応じて表示を異ならせることができる。
According to the first aspect of the present invention, the display can be made different depending on the information different from the position information.
According to the second aspect of the invention, the display can be made different according to the information different from the position information.
According to the third aspect of the present invention, the display can be made different depending on the information different from the position information.
According to the fourth aspect of the present invention, the display can be made different depending on the information different from the position information.
According to the fifth aspect of the present invention, the display can be made different depending on the information different from the position information.
According to the sixth aspect of the present invention, the display can be made different depending on the information different from the position information.
According to the seventh aspect of the present invention, the display can be made different according to the information different from the position information.
According to the eighth aspect of the present invention, the display can be made different depending on the information different from the position information.
According to the ninth aspect of the present invention, the display can be made different according to the information different from the position information.
According to the tenth aspect of the present invention, the display can be made different according to the information different from the position information.
According to the invention of claim 11, the display can be made different depending on the information different from the position information.
According to the invention of claim 12, the display can be made different depending on the information different from the position information.
According to the invention as set forth in claim 13, the display can be made different according to the information different from the position information.
According to the invention of claim 14, the display can be made different according to the information different from the position information.
According to the fifteenth aspect of the invention, the display can be made different depending on the information different from the position information.
According to the sixteenth aspect of the present invention, the display can be made different according to the information different from the position information.
According to the seventeenth aspect of the present invention, the display can be made different depending on the information different from the position information.

実施の形態1に係る情報処理装置の外観例を示す図である。FIG. 1 is a diagram showing an example of the appearance of an information processing apparatus according to Embodiment 1; 平面型のセンサの配置例を説明する図である。It is a figure explaining the example of arrangement of a flat type sensor. 他のセンサの配置例を説明する図である。It is a figure explaining the example of arrangement of other sensors. 情報処理装置のハードウェア構成例を説明する図である。It is a figure explaining the example of hardware constitutions of an information processor. 実施の形態1に係る制御部の機能構成の一例を説明する図である。FIG. 7 is a diagram for explaining an example of a functional configuration of a control unit according to the first embodiment. 情報処理装置の表示部に表示される三次元オブジェクトの表示例を説明する図である。It is a figure explaining the example of a display of the three-dimensional object displayed on the display part of an information processing apparatus. 三次元オブジェクトとしてキャラクターが表示されている場合において、情報処理装置の上面に加速度(衝撃)が加えられた場合の表示の変化を説明する図である。When a character is displayed as a three-dimensional object, it is a figure explaining a change of a display when acceleration (shock) is added to the upper surface of an information processor. 三次元オブジェクトとしてキャラクターが表示されている場合において、情報処理装置の上面に加速度(衝撃)が継続的に加えられる場合の表示の変化を説明する図である。When a character is displayed as a three-dimensional object, it is a figure explaining a change of a display when acceleration (shock) is continuously added to the upper surface of an information processor. 三次元オブジェクトとして構造体が表示されている場合において、情報処理装置の上面に加速度(衝撃)が継続的に加えられた場合の表示の変化を説明する図である。When a structure is displayed as a three-dimensional object, it is a figure explaining the change of a display when acceleration (impact) is continuously applied to the upper surface of an information processing apparatus. 三次元オブジェクトとしてキャラクターが表示されている場合において、キャラクターの頭部に圧力が加えられた場合の表示の変化を説明する図である。When a character is displayed as a three-dimensional object, it is a figure explaining a change of a display when pressure is applied to a head of a character. 三次元オブジェクトとしてキャラクターが表示されている場合において、キャラクターの頭部に指先によって圧力が継続的に加えられた場合の表示の変化を説明する図である。When a character is displayed as a three-dimensional object, it is a figure explaining a change of a display when pressure is continuously applied by a finger on a head of a character. 三次元オブジェクトとしてキャラクターが表示されている場合において、キャラクターの胸部に圧力が加えられた場合の表示の変化を説明する図である。When a character is displayed as a three-dimensional object, it is a figure explaining a change of a display when pressure is applied to a chest of a character. 三次元オブジェクトとして構造体が表示されている場合において、情報処理装置に対してねじりが加えられた場合の表示の変化を説明する図である。When a structure is displayed as a three-dimensional object, it is a figure explaining the change of the display when twist is added with respect to the information processing apparatus. 三次元オブジェクトとしてキャラクターが表示されている場合において、温度検知センサを通じて温度の変化が検知された場合の表示の変化を説明する図である。When a character is displayed as a three-dimensional object, it is a figure explaining change of a display when change of temperature is detected through a temperature detection sensor. 三次元オブジェクトとして氷が表示されている場合において、温度検知センサを通じて温度変化が検知された場合の表示の変化を説明する図である。When ice is displayed as a three-dimensional object, it is a figure explaining change of a display when temperature change is detected through a temperature detection sensor. 三次元オブジェクトとしてキャラクターが表示されている場合において、湿度検知センサを通じて湿度の変化が検知された場合の表示の変化を説明する図である。When a character is displayed as a three-dimensional object, it is a figure explaining a change of a display when a change of humidity is detected through a humidity detection sensor. 加速度検知センサが表示部の面内にM行N列に配置された例を説明する図である。It is a figure explaining the example by which the acceleration detection sensor is arrange | positioned in M line N column in the surface of a display part. 加速度検知センサが4行4列に配置された場合において、特定の位置から加速度(衝撃)が検知された回数の変化を表している。When the acceleration detection sensor is arranged in 4 rows and 4 columns, it represents a change in the number of times the acceleration (impact) is detected from a specific position. 正面、側面及び背面の4つの面に表示部を有する情報処理装置の外観例を示す図である。It is a figure which shows the example of an external appearance of the information processing apparatus which has a display part in four surfaces, a front, a side, and a back. 実施の形態2に係る情報処理装置の外観例を示す図である。FIG. 16 is a diagram showing an example of the appearance of the information processing apparatus according to the second embodiment. 情報処理装置のハードウェア構成例を説明する図である。It is a figure explaining the example of hardware constitutions of an information processor. 実施の形態2に係る制御部の機能構成の一例を説明する図である。FIG. 16 is a diagram for explaining an example of a functional configuration of a control unit according to a second embodiment. (a)〜(e)は曲げ位置特定部によって特定される曲げ位置の例を説明する図である。(A)-(e) is a figure explaining the example of the bending position specified by a bending position specification part. 特定された曲げ位置の情報を用いて三次元オブジェクトに画像編集を加える例を説明する図である。It is a figure explaining the example which adds image editing to a three-dimensional object using the information on the specified bending position. 特定された曲げ位置の情報を用いて三次元オブジェクトに画像編集を加える他の例を説明する図である。It is a figure explaining the other example which adds image editing to a three-dimensional object using the information on the specified bending position. 情報処理装置の変形操作を、他の情報処理装置が表示制御する表示装置の表示動作の制御に用いる使用例を説明する図である。It is a figure explaining the example of use which uses modification operation of an information processor for control of display operation of a display which another information processor performs display control. 情報処理装置の変形操作を、他の情報処理装置が表示制御する表示装置の表示動作の制御に用いる他の使用例を説明する図である。FIG. 17 is a diagram for explaining another usage example in which the deformation operation of the information processing apparatus is used to control the display operation of the display apparatus that the other information processing apparatus performs display control. 三次元ディスプレイによる三次元オブジェクトの表示例を示す図である。It is a figure which shows the example of a display of the three-dimensional object by a three-dimensional display. ユーザの特定の動きによって三次元オブジェクトの表示に変化を与える様子を説明する図である。It is a figure explaining a mode that a change is given to a display of a three-dimensional object by a user's specific motion. 壁面や床面に投影された三次元オブジェクトに変化を与える例を説明する図である。It is a figure explaining the example which gives change to the three-dimensional object projected on the wall surface or the floor surface. 変化の対象とするオブジェクトとセンサ値の次元数の組み合わせと変化後の画像との対応関係を示す対応表の例を説明する図である。It is a figure explaining the example of the corresponding | compatible table which shows the correspondence of the combination of the object made into the object of change, and the number of dimensions of a sensor value, and the image after a change.

以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.

<用語>
以下で説明する実施の形態で、対象物(以下「オブジェクト」という)を三次元的に表示するという場合、1つの表示画面、立体的に配置された複数の表示画面、いわゆる三次元ディスプレイなどを用いて、奥行情報を含む形態で表示する意味で使用する。
このうち、1つの表示画面を用いる方法には、実空間に存在するオブジェクトを実際に撮影して得た二次元画像(遠近情報を含む画像)を表示する場合、三次元空間で定義されたオブジェクトを1つの視点方向から表現した二次元画像を表示する場合などが含まれる。ここで、三次元空間で定義されたオブジェクトの例には、仮想空間上のキャラクター、断層画像から再構成された三次元画像などが含まれる。
<Term>
In the embodiment described below, when displaying an object (hereinafter referred to as “object”) in a three-dimensional manner, one display screen, a plurality of three-dimensionally arranged display screens, a so-called three-dimensional display, etc. Used in the sense of displaying in a form that includes depth information.
Among them, in the method of using one display screen, when displaying a two-dimensional image (image including perspective information) obtained by actually photographing an object existing in real space, an object defined in three-dimensional space For example, the case of displaying a two-dimensional image in which the image is expressed from one viewpoint direction is included. Here, examples of an object defined in a three-dimensional space include characters in a virtual space, a three-dimensional image reconstructed from a tomographic image, and the like.

また、立体的に配置した複数の表示画面を用いる方法には、三次元空間で定義されたオブジェクトを複数の視点方向(表示画面の配置位置に対応する)から観察した複数の二次元画像を各表示画面に表示する場合などが含まれる。
また、三次元ディスプレイを用いる方法には、観察者に特別な光学特性を有する眼鏡の着用を要求する眼鏡式、特別な眼鏡の着用を必要としない裸眼式、ヘッドマウントディスプレイを観察者の頭部に装着させる方式などが含まれる。裸眼式の例には、収束されたレーザー光の焦点に位置する空気がプラズマ化して発光する現象を利用する手法がある。
もっとも、オブジェクトを三次元的に表現できればよいので、オブジェクトに対応する情報は、内部情報(ボリュームデータを定義するボクセル)の存在を必須とするものではなく、例えば多面形状で定義された表面(ポリゴンメッシュ)の集合体として与えられてもよい。
Further, in the method using a plurality of display screens arranged in a three-dimensional manner, a plurality of two-dimensional images obtained by observing an object defined in a three-dimensional space from a plurality of viewing directions (corresponding to the arrangement position of the display screen) It includes the case of displaying on the display screen.
In addition, the method of using a three-dimensional display includes a glasses type requiring the observer to wear glasses having special optical characteristics, an naked-eye type not requiring the wearing of special glasses, and a head mounted display And the like. An example of the naked-eye type is a method utilizing a phenomenon in which air located at the focal point of focused laser light is converted to plasma and emitted.
However, since it is only necessary to be able to represent an object three-dimensionally, the information corresponding to the object does not necessarily require the presence of internal information (voxels defining volume data), and for example, a surface (polygon May be given as a collection of meshes).

以下で説明する実施の形態では、オブジェクトを二次元的に表示するとは、1つの表示画面、立体的に配置された複数の表示画面、いわゆる三次元ディスプレイなどを用いて、奥行情報を含まない形態でオブジェクトを表示する意味で使用する。
本実施の形態では、三次元空間で定義されたオブジェクトを三次元オブジェクトといい、二次元空間で定義されたオブジェクトを二次元オブジェクトという。
三次元的な表示は、立体的に配置された複数の表示装置にそれぞれ対応する二次元オブジェクトを表示することによっても可能である。
本実施の形態におけるオブジェクトは静止画像として表示される場合だけでなく動画像として表示されてもよい。
In the embodiment described below, displaying an object in two dimensions means using a single display screen, a plurality of stereoscopically arranged display screens, a so-called three-dimensional display, etc., without including depth information. Used in the sense of displaying the object in.
In the present embodiment, an object defined in a three-dimensional space is called a three-dimensional object, and an object defined in a two-dimensional space is called a two-dimensional object.
Three-dimensional display is also possible by displaying two-dimensional objects respectively corresponding to a plurality of three-dimensionally arranged display devices.
The object in the present embodiment may be displayed not only as a still image but also as a moving image.

<実施の形態1>
<装置構成>
図1は、実施の形態1に係る情報処理装置1の外観例を示す図である。
実施の形態1における情報処理装置1は、例えばタブレット型のコンピュータやスマートフォンなどの携帯型の情報端末を想定する。
図1に示す情報処理装置1は、6つの面の全てが平面であり、そのうちの1つの面に表示部2が配置されている。ただし、情報処理装置1は、必ずしも全ての面が平面であるとは限らない。換言すると、一部の面は曲面でも構わない。
図1の例では、表示部2が設けられている面を正面といい、表示部2の左右に位置する面を側面といい、表示部2と反対側の面を背面又は裏面という。また、表示部2の上側に位置する面を上面といい、下側に位置する面を底面という。
Embodiment 1
<Device configuration>
FIG. 1 is a view showing an example of the appearance of the information processing apparatus 1 according to the first embodiment.
The information processing apparatus 1 according to the first embodiment assumes a portable information terminal such as a tablet computer or a smartphone.
In the information processing apparatus 1 illustrated in FIG. 1, all six surfaces are planes, and the display unit 2 is disposed on one of the surfaces. However, in the information processing apparatus 1, all the surfaces are not necessarily flat. In other words, some surfaces may be curved surfaces.
In the example of FIG. 1, the surface provided with the display unit 2 is referred to as the front, the surfaces located on the left and right of the display unit 2 as the side, and the surface opposite to the display 2 is referred to as the back or back. Moreover, the surface located in the upper side of the display part 2 is called upper surface, and the surface located in lower side is called bottom surface.

図1に示す情報処理装置1の場合、正面側の形状は、Z方向の長さ(高さ)HがX方向の長さ(幅)Wよりも長い長方形状である。また、情報処理装置1の側面を規定するY方向の長さ(奥行)Dは、X方向の長さ(幅)Wよりも短い。
表示部2は、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイなどの薄膜ディスプレイで構成される。なお、液晶ディスプレイの場合には、不図示の光源も配置される。
情報処理装置1の筐体内には、表示部2を含む各部の動作を制御する制御部3や不図示の部品が内蔵されている。
In the case of the information processing apparatus 1 illustrated in FIG. 1, the shape on the front side is a rectangular shape in which the length (height) H in the Z direction is longer than the length (width) W in the X direction. Further, the length (depth) D in the Y direction that defines the side surface of the information processing device 1 is shorter than the length (width) W in the X direction.
The display unit 2 is configured of a thin film display such as a liquid crystal display or an organic EL (Electro Luminescence) display. In the case of a liquid crystal display, a light source (not shown) is also arranged.
In a housing of the information processing apparatus 1, a control unit 3 for controlling the operation of each unit including the display unit 2 and components (not shown) are incorporated.

図2は、平面型のセンサの配置例を説明する図である。
図2には、位置検知センサ4、圧力検知センサ5、捻じれ検知センサ6が示されている。
位置検知センサ4は、ユーザによる操作入力の位置を検知するセンサであり、表示部2の上面に積層される。位置検知センサ4に表示部2を組み合わせた電子デバイスはタッチパネルと呼ばれる。
位置検知センサ4は検知部の一例であり、検知に用いる方式により検知可能な対象物が異なる。例えば検知に静電容量式を用いる場合には人体の一部(例えば指先)が検知可能な対象物となる。例えば検知に赤外線方式を用いる場合には、指先だけでなくペンその他の物体が検知可能な対象物となる。
位置検知センサ4は、検知した対象物の座標を出力する。実施の形態1に係る位置検知センサ4は、複数の操作位置を一度に検知することができる。
FIG. 2 is a view for explaining an arrangement example of a flat type sensor.
The position detection sensor 4, the pressure detection sensor 5, and the torsion detection sensor 6 are shown in FIG. 2.
The position detection sensor 4 is a sensor that detects the position of the operation input by the user, and is stacked on the top surface of the display unit 2. An electronic device in which the display unit 2 is combined with the position detection sensor 4 is called a touch panel.
The position detection sensor 4 is an example of a detection unit, and the detectable objects are different depending on the method used for detection. For example, in the case of using a capacitance type for detection, a part of the human body (for example, a fingertip) is an object that can be detected. For example, in the case of using an infrared method for detection, not only a fingertip but also a pen or other object is an object that can be detected.
The position detection sensor 4 outputs the coordinates of the detected object. The position detection sensor 4 according to the first embodiment can detect a plurality of operation positions at one time.

圧力検知センサ5は、操作入力の際に操作位置に加わった圧力の大きさを検知するセンサであり、例えば表示部2の裏面側に配置される。
本実施の形態における圧力検知センサ5は容量性の圧力センサであり、フィルム状に形成されたセンサ本体に生じた撓みの大きさを圧力の大きさとして検知する。本実施の形態の場合、圧力検知センサ5は、数段階の圧力の違いを検知できる。
捻じれ検知センサ6は、センサ本体に生じた捻じれの大きさを検知するセンサであり、表示部2の裏面側に配置される。
本実施の形態における捻じれ検知センサ6には、例えば株式会社村田製作所により開発されている、ポリ乳酸のずり圧電性を応用した変位センサを使用する。本実施の形態の場合、捻じれ検知センサ6は、捻じれの方向と大きさを検知できる。捻じれは、一般的には直接的な部位の特定を伴わない物理量の一例である。
ここでの位置検知センサ4、圧力検知センサ5、捻じれ検知センサ6は、いずれも検知部の一例である。
The pressure detection sensor 5 is a sensor that detects the magnitude of the pressure applied to the operation position at the time of operation input, and is disposed, for example, on the back surface side of the display unit 2.
The pressure detection sensor 5 in the present embodiment is a capacitive pressure sensor, and detects the magnitude of the deflection generated in the film-like sensor main body as the magnitude of the pressure. In the case of the present embodiment, the pressure detection sensor 5 can detect differences in pressure in several stages.
The twisting detection sensor 6 is a sensor that detects the size of the twisting generated in the sensor main body, and is disposed on the back surface side of the display unit 2.
For the torsion detection sensor 6 in the present embodiment, for example, a displacement sensor to which shear piezoelectricity of polylactic acid is applied, which is developed by Murata Manufacturing Co., Ltd. is used. In the case of the present embodiment, the twisting detection sensor 6 can detect the direction and the size of the twisting. Torsion is an example of a physical quantity that generally does not involve direct site identification.
The position detection sensor 4, the pressure detection sensor 5, and the twist detection sensor 6 in this case are all examples of the detection unit.

図3は、他のセンサの配置例を説明する図である。
図3に示す情報処理装置1の場合、筐体内部には、側面の下部に局所的に加わった圧力の大きさを検知する圧力検知センサ7A、7B、本体に加わった加速度の向きと大きさを検知する加速度検知センサ8、温度を検知する温度検知センサ9A、9B、9C、湿度を検知する湿度検知センサ10A、10B、10Cを有している。
温度検知センサと湿度検知センサはいずれも1つであってもよい。
本実施の形態における圧力検知センサ7A、7Bは、情報処理装置1の側面に加えられた圧力の大きさを数段階で検知することができる。
FIG. 3 is a view for explaining another arrangement example of sensors.
In the case of the information processing apparatus 1 shown in FIG. 3, the pressure detection sensors 7A and 7B for detecting the magnitude of the pressure locally applied to the lower part of the side surface inside the casing, the direction and the magnitude of the acceleration applied to the main body And a temperature detection sensor 9A, 9B, 9C for detecting a temperature, and a humidity detection sensor 10A, 10B, 10C for detecting a humidity.
Both the temperature detection sensor and the humidity detection sensor may be one.
The pressure detection sensors 7A and 7B in the present embodiment can detect the magnitude of the pressure applied to the side surface of the information processing device 1 in several steps.

温度検知センサ9A、9B、9Cは、情報処理装置1が使用される空間の温度(気温)の検知だけでなく、局所的な温度の検知にも使用される。温度は、一般的には直接的な部位の特定を伴わない物理量の一例である。
湿度検知センサ10A、10B、10Cは、情報処理装置1が使用される空間の湿度だけでなく、局所的な湿度の検知にも使用される。湿度は、一般的には直接的な部位の特定を伴わない物理量の一例である。
ここでの圧力検知センサ7A、7B、加速度検知センサ8、温度検知センサ9A、9B、9C、湿度検知センサ10A、10B、10Cは、いずれも検知部の一例である。
The temperature detection sensors 9A, 9B, 9C are used not only for detecting the temperature (air temperature) of the space where the information processing apparatus 1 is used, but also for detecting the local temperature. Temperature is an example of a physical quantity that generally does not involve direct site identification.
The humidity detection sensors 10A, 10B, and 10C are used not only for the humidity of the space where the information processing apparatus 1 is used but also for the detection of the local humidity. Humidity is an example of a physical quantity that generally does not involve direct site identification.
The pressure detection sensors 7A and 7B, the acceleration detection sensor 8, the temperature detection sensors 9A, 9B and 9C, and the humidity detection sensors 10A, 10B and 10C here are all examples of the detection unit.

図4は、情報処理装置1のハードウェア構成例を説明する図である。
本実施の形態における情報処理装置1は、前述したデバイスに加え、データの保存に使用される不揮発性の主記憶装置14と通信部15を有している。これらのデバイスは、バス16を通じてデータを受け渡しする。
なお、制御部3は、データ処理を実行するCPU(Central Processing Unit)11と、BIOS(Basic Input / Output System)やファームウェアなどのプログラム等を記憶するROM(Read Only Memory)12と、作業エリアとして用いられるRAM(Random Access Memory)13を有している。
FIG. 4 is a diagram for explaining an example of the hardware configuration of the information processing apparatus 1.
The information processing apparatus 1 according to the present embodiment includes, in addition to the above-described devices, a non-volatile main storage device 14 used for data storage and a communication unit 15. These devices pass data through the bus 16.
The control unit 3 includes a central processing unit (CPU) 11 that executes data processing, a read only memory (ROM) 12 that stores programs such as a basic input / output system (BIOS) and firmware, and a working area. It has a RAM (Random Access Memory) 13 used.

本実施の形態における主記憶装置14は、例えば半導体メモリやハードディスク装置で構成される。
通信部15は、外部装置との通信に使用される通信手段である。通信に使用する方式は様々である。なお、通信経路は、有線路でも無線路でも構わない。
The main storage device 14 in the present embodiment is configured of, for example, a semiconductor memory or a hard disk device.
The communication unit 15 is communication means used for communication with an external device. There are various methods used for communication. The communication route may be a wired route or a wireless route.

図5は、実施の形態1に係る制御部3の機能構成の一例を説明する図である。
図5に示す機能構成は、プログラムの実行を通じて実現される。
実施の形態1における制御部3は、圧力の強度を特定する圧力強度特定部21と、圧力が加えられた部位を特定する圧力部位特定部22と、操作位置を特定する操作位置特定部23と、温度を特定する温度特定部24と、湿度を特定する湿度特定部25と、加速度の方向を特定する加速度方向特定部26と、加速度の強度を特定する加速度強度特定部27と、捻じれの方向と強度を特定する捻じれ特定部28と、特定された情報を用いて表示内容を決定する表示内容決定部29として機能する。
ここでの表示内容決定部29は表示制御部の一例である。
FIG. 5 is a diagram for explaining an example of a functional configuration of the control unit 3 according to the first embodiment.
The functional configuration shown in FIG. 5 is realized through the execution of a program.
The control unit 3 according to the first embodiment includes a pressure strength specifying unit 21 for specifying the pressure strength, a pressure part specifying unit 22 for specifying a part to which the pressure is applied, and an operation position specifying unit 23 for specifying an operation position. Temperature identification unit 24 for identifying temperature, humidity identification unit 25 for identifying humidity, acceleration direction identification unit 26 for identifying the direction of acceleration, acceleration intensity identification unit 27 for identifying the intensity of acceleration, and distortion It functions as a twist identification unit 28 that identifies the direction and intensity, and a display content determination unit 29 that determines the display content using the identified information.
The display content determination unit 29 here is an example of a display control unit.

圧力強度特定部21には、正面側に配置された圧力検知センサ5から出力される圧力値と、側面側に配置された2つの圧力検知センサ7A、7Bから出力される圧力値とが入力され、予め用意された閾値との比較により各位置に加えられた圧力の強度を出力する。
圧力部位特定部22は、側面側に配置された圧力検知センサ7A、7Bから圧力値が入力されている場合、ユーザの操作によって圧力が加えられている位置は側面であると特定する。一方、圧力部位特定部22は、位置検知センサ4から操作座標が入力されている場合、ユーザの操作によって圧力が加えられている位置は正面であると特定する。本実施の形態の場合、圧力部位特定部22を操作位置特定部23とは別に設けているが、操作位置特定部23と兼用してもよい。
A pressure value output from the pressure detection sensor 5 disposed on the front side and a pressure value output from the two pressure detection sensors 7A and 7B disposed on the side surface are input to the pressure intensity specifying unit 21. The intensity of the pressure applied to each position is output by comparison with a previously prepared threshold value.
When the pressure value is input from the pressure detection sensors 7A and 7B arranged on the side, the pressure site specifying unit 22 specifies that the position to which the pressure is applied by the user operation is the side. On the other hand, when the operation coordinates are input from the position detection sensor 4, the pressure part specifying unit 22 specifies that the position to which the pressure is applied by the user's operation is the front. In the case of the present embodiment, the pressure site specifying unit 22 is provided separately from the operation position specifying unit 23, but may be shared with the operation position specifying unit 23.

操作位置特定部23は、側面側に配置された圧力検知センサ7A、7Bから圧力値が入力されている場合、ユーザは側面を操作していると特定し、位置検知センサ4から操作座標が入力されている場合、ユーザは操作座標で与えられる位置を操作していると特定する。操作位置特定部23は、各時刻の操作位置だけでなく、時間の経過に伴う操作位置の軌跡も特定する。本実施の形態における操作位置特定部23は、複数の操作位置も一度に検知できる。   When the pressure value is input from the pressure detection sensors 7A and 7B arranged on the side surface, the operation position specifying unit 23 specifies that the user is operating the side surface, and the operation coordinates are input from the position detection sensor 4 If it is, it specifies that the user is operating the position given by the operation coordinates. The operation position specifying unit 23 specifies not only the operation position at each time but also the trajectory of the operation position with the passage of time. The operation position specifying unit 23 in the present embodiment can also detect a plurality of operation positions at one time.

温度特定部24は、温度検知センサ9A、9B、9Cから入力される温度値に基づいて、各部位の温度、温度の分布、時間変化などを特定する。
湿度特定部25は、湿度検知センサ10A、10B、10Cから入力される湿度値に基づいて、各部位の湿度、湿度の分布、時間変化などを特定する。
加速度方向特定部26は、加速度検知センサ8から入力される加速度情報に基づいて、筐体に作用した加速度の方向やその時間変化を特定する。
加速度強度特定部27は、加速度検知センサ8から入力される加速度情報に基づいて、筐体に作用した加速度の大きさ(強度)やその時間変化を特定する。
捻じれ特定部28は、捻じれ検知センサ6の出力に基づいて、筐体に生じた捻じれの向きや大きさを特定する。
The temperature specifying unit 24 specifies the temperature of each portion, the distribution of the temperature, the time change, and the like based on the temperature values input from the temperature detection sensors 9A, 9B, and 9C.
The humidity specifying unit 25 specifies the humidity of each part, the distribution of the humidity, the time change, and the like based on the humidity values input from the humidity detecting sensors 10A, 10B, and 10C.
The acceleration direction identification unit 26 identifies the direction of the acceleration acting on the housing and the change thereof with time, based on the acceleration information input from the acceleration detection sensor 8.
The acceleration intensity specifying unit 27 specifies the magnitude (intensity) of the acceleration acting on the housing and the change over time thereof based on the acceleration information input from the acceleration detection sensor 8.
The twist identifying unit 28 identifies the direction and the size of the twist produced in the housing based on the output of the twist detecting sensor 6.

表示内容決定部29は、前述した各特定部からの情報に基づいて、表示部2に三次元的に表示されるオブジェクトの表示に変化を与える。具体的な変化の内容については後述する。
なお、筐体に設けられるセンサの種類や配置により、検知対象とする物理量は異なる。
因みに、前述したセンサを全て筐体に設ける必要はない。
The display content determination unit 29 changes the display of the object three-dimensionally displayed on the display unit 2 based on the information from each of the identification units described above. The contents of the specific change will be described later.
The physical quantity to be detected differs depending on the type and arrangement of the sensors provided in the housing.
By the way, it is not necessary to provide all the sensors described above in the housing.

<表示制御の例>
以下では、実施の形態1に係る表示内容決定部29がセンサ入力を用いて実行する制御動作の例を説明する。
<Example of display control>
Hereinafter, an example of a control operation performed by the display content determination unit 29 according to the first embodiment using a sensor input will be described.

図6は、情報処理装置1の表示部2に表示される三次元オブジェクトの表示例を説明する図である。
図6に示す三次元オブジェクトはヒト型のキャラクター30を表しており、三次元的な表示の一例である。
図7は、三次元オブジェクトとしてキャラクター30が表示されている場合において、情報処理装置1の上面に加速度(衝撃)が加えられた場合の表示の変化を説明する図である。ここでの加速度(衝撃)は、一般的には直接的な部位の特定を伴わない物理量の一例である。
図7に示す例では、時刻t1において、情報処理装置1に対して下向き(−Z方向)に加速度が加えられた場合を示している。この事象は、例えば情報処理装置1の上面に衝撃が与えられた場合に、加速度方向特定部26(図5参照)により特定される。
FIG. 6 is a view for explaining a display example of a three-dimensional object displayed on the display unit 2 of the information processing device 1.
The three-dimensional object shown in FIG. 6 represents a human-shaped character 30, and is an example of a three-dimensional display.
FIG. 7 is a diagram for explaining a change in display when acceleration (impact) is applied to the upper surface of the information processing apparatus 1 when the character 30 is displayed as a three-dimensional object. The acceleration (impact) here is an example of a physical quantity that generally does not involve direct specification of a part.
The example shown in FIG. 7 shows the case where acceleration is applied downward (in the -Z direction) to the information processing apparatus 1 at time t1. This event is identified by the acceleration direction identifying unit 26 (see FIG. 5), for example, when an impact is applied to the upper surface of the information processing apparatus 1.

このとき、表示内容決定部29(図5参照)は、特定された加速度の方向の情報に基づいて、三次元オブジェクトのどの部位に外力が作用するかを特定する。
図7の例では、キャラクター30の頭部の位置が他の部位よりも高い。このため、表示内容決定部29は、キャラクター30の頭部に外力が作用すると特定する。
なお、時刻t1では、加速度の大きさも加速度強度特定部27(図5参照)により特定される。加速度強度特定部27は、加速度検知センサ8(図4参照)から入力される数値と閾値とを比較し、情報処理装置1に作用した外力の強度を特定する。
At this time, the display content determination unit 29 (see FIG. 5) specifies which part of the three-dimensional object the external force acts on, based on the specified information on the direction of the acceleration.
In the example of FIG. 7, the position of the head of the character 30 is higher than that of the other part. For this reason, the display content determination unit 29 specifies that an external force acts on the head of the character 30.
At time t1, the magnitude of the acceleration is also specified by the acceleration intensity specifying unit 27 (see FIG. 5). The acceleration strength specifying unit 27 compares the numerical value input from the acceleration detection sensor 8 (see FIG. 4) with the threshold value, and specifies the strength of the external force acting on the information processing device 1.

特定された加速度の強度が弱い場合、表示内容決定部29は、時刻t2(>t1)における表示内容を、頭部から少量の血31が流れる内容に変化させる。ここでの頭部は、特定の部位の一例である。なお、特定の部位は1つである必要はなく、複数でもよい。また、特定の部位は、基本的に三次元オブジェクトの一部分をいう。
一方、特定された加速度の強度が強い場合、表示内容決定部29は、時刻t2(>t1)における表示内容を、加速度の強度が弱い場合よりも多くの血32が頭部から流れる内容に変化させる。
When the intensity of the identified acceleration is weak, the display content determination unit 29 changes the display content at time t2 (> t1) into content in which a small amount of blood 31 flows from the head. The head here is an example of a specific part. In addition, the specific part does not need to be one and may be plural. Also, a specific part basically refers to a part of a three-dimensional object.
On the other hand, when the intensity of the identified acceleration is strong, the display content determination unit 29 changes the display content at time t2 (> t1) to a content in which more blood 32 flows from the head than when the acceleration intensity is weak. Let

図7の例では、加速度の検知をきっかけとして、キャラクター30の頭部から血が流れる内容に表示が変化しているが、外力が作用した部位に青あざ(内出血)を表示してもよい。この際、作用した外力の強度に応じて青あざの面積を変化させてもよい。
この他、外力が作用した部位にたんこぶを表示してもよい。この際、作用した外力の強度に応じてたんこぶの大きさを変化させてもよい。
また、図7の例では、情報処理装置1に作用した加速度の向きに対して位置が高い部位の例としてキャラクター30の頭が特定されているが、加速度の向きが表示部2の左右方向である場合には表示に変化を与える部位としてキャラクター30の腕が特定されてもよい。
また、図7の例では、三次元オブジェクトの例としてヒト型のキャラクターを30を想定しているが、例えば構造体でもよい。構造体の場合、特定された強度の大きさに応じた傷やヒビ割れが生じる表示に変化させてもよい。
In the example of FIG. 7, the display changes to the content where blood flows from the head of the character 30 triggered by the detection of the acceleration, but a bruise (inner hemorrhage) may be displayed at the site where the external force is applied. At this time, the area of the bruises may be changed according to the strength of the applied external force.
In addition to this, a bump may be displayed at a site where an external force is applied. At this time, the size of the bump may be changed according to the strength of the applied external force.
Further, in the example of FIG. 7, although the head of the character 30 is specified as an example of a portion whose position is high with respect to the direction of acceleration acting on the information processing device 1, the direction of acceleration is the horizontal direction of the display unit 2 In some cases, the arm of the character 30 may be identified as a site that changes the display.
Further, in the example of FIG. 7, a human-shaped character of 30 is assumed as an example of the three-dimensional object, but it may be, for example, a structure. In the case of a structure, it may be changed to a display in which a scratch or a crack occurs depending on the magnitude of the specified strength.

図8は、三次元オブジェクトとしてキャラクター30が表示されている場合において、情報処理装置1の上面に加速度(衝撃)が継続的に加えられる場合の表示の変化を説明する図である。
継続的に加速度(衝撃)を加える方法には、情報処理装置1で他の物体を叩く、他の物体で情報処理装置1を叩く、情報処理装置1を把持したまま振るなどの方法がある。図8に示す例では、ユーザが、情報処理装置1の端面(上面)を指などで継続的に叩く場合を想定している。
このため、図8に示す棒グラフの横軸は時間を示し、縦軸は各時刻に与えられた衝撃の回数を示している。
なお、図8に示す例とは異なり、表示されている画像の一部分を指先で叩くことで、特定の部位に対して加速度(衝撃)を加えてもよい。この場合、加速度(衝撃)が加えられる位置は、位置検知センサ4(図4参照)によって特定されることになる。加速度の大きさについては、加速度検知センサ8(図4参照)が検知する。
FIG. 8 is a diagram for explaining a change in display when acceleration (impact) is continuously applied to the upper surface of the information processing apparatus 1 when the character 30 is displayed as a three-dimensional object.
As a method of continuously applying acceleration (impact), there are methods such as hitting another object with the information processing device 1, hitting the information processing device 1 with another object, and shaking while holding the information processing device 1. In the example illustrated in FIG. 8, it is assumed that the user continuously strikes the end surface (upper surface) of the information processing device 1 with a finger or the like.
For this reason, the horizontal axis of the bar graph shown in FIG. 8 shows time, and the vertical axis shows the number of impacts given at each time.
Note that, unlike the example shown in FIG. 8, an acceleration (impact) may be applied to a specific part by tapping a part of the displayed image with a fingertip. In this case, the position where acceleration (impact) is applied is specified by the position detection sensor 4 (see FIG. 4). The acceleration detection sensor 8 (see FIG. 4) detects the magnitude of the acceleration.

図8の例では、時刻t1からt2にかけて衝撃の回数が増加し、その後、減少している。個々の衝撃の強さは等しいとは限らないが、一般には、特定の部位に作用する衝撃の累積強度は衝撃の回数に比例する。もっとも、1回の衝撃の強さが「2」で表される場合の5回の累積強度と1回の衝撃の強さが「5」で表される場合の2回の累積強度は同じである。
このため、図8の例では、時刻t1からt2にかけて血33が流れる面積が増加し、衝撃の回数が減少に転じた時刻t2以降はキャラクター30の頭部に流れる血33の面積も縮小し(時刻t3)、やがて無くなっている(時刻t4)。
なお、ここでの累積強度は複数回の検知結果の累積値の一例である。
In the example of FIG. 8, the number of impacts increases from time t1 to t2, and then decreases. Although the strength of individual impacts is not always equal, in general, the cumulative strength of impacts acting on a specific site is proportional to the number of impacts. However, when the strength of one impact is represented by "2", the accumulated strength of 5 times is the same as when the intensity of one impact is represented by "5". is there.
Therefore, in the example of FIG. 8, the area through which the blood 33 flows increases from time t1 to t2, and the area of the blood 33 flowing to the head of the character 30 also decreases after time t2 when the number of impacts turns to decrease ( Time t3), it disappears soon (time t4).
The accumulated intensity here is an example of the accumulated value of the detection results of a plurality of times.

図9は、三次元オブジェクトとして構造体34が表示されている場合において、情報処理装置1の上面に加速度(衝撃)が継続的に加えられた場合の表示の変化を説明する図である。
図9では、構造体34が円柱である場合について表している。
図9に示す例の場合も、時刻t1において、情報処理装置1に対して下向き(−Z方向)に加速度が加えられている。この時刻で、情報処理装置1の表示は、円柱の上面に傷35が形成され、円柱の内部にひび割れ36が成長する内容に変化する。なお、図9では説明のために内部に生じたひび割れ36を破線で記しているが、情報処理装置1には外部から観察可能な傷35だけを表示してもよい。
FIG. 9 is a diagram for explaining a change in display when acceleration (impact) is continuously applied to the upper surface of the information processing apparatus 1 when the structure 34 is displayed as a three-dimensional object.
FIG. 9 shows the case where the structure 34 is a cylinder.
Also in the case of the example shown in FIG. 9, the acceleration is applied downward (in the −Z direction) to the information processing apparatus 1 at time t1. At this time, in the display of the information processing apparatus 1, the flaw 35 is formed on the upper surface of the cylinder, and the content of the crack 36 changes inside the cylinder. In FIG. 9, the crack 36 generated inside is described by a broken line for the sake of explanation, but the information processing apparatus 1 may display only the scratch 35 which can be observed from the outside.

図9では、時刻t2(t2>t1)でも、情報処理装置1の上面に引き続き加速度(衝撃)が加えられている。時刻t2に加えられた加速度の大きさは、時刻t1に加えられた加速度の大きさと同じでも異なってもよい。
時刻t2の表示では、時刻t1の表示よりも傷35の幅が広がり、ひび割れ36が深さ方向に成長している。
さらに、時刻t3(t3>t2)でも、情報処理装置1の上面に引き続き加速度(衝撃)が加えられている。時刻t3に加えられた加速度の大きさは、時刻t1や時刻t2に加えられた加速度と同じ大きさでも異なる大きさでもよい。
時刻t3の表示では、時刻t2の表示よりも更に傷35の幅が広がり、ひび割れ36も更に深くなっている。
In FIG. 9, acceleration (impact) is continuously applied to the upper surface of the information processing device 1 even at time t2 (t2> t1). The magnitude of the acceleration applied at time t2 may be the same as or different from the magnitude of the acceleration applied at time t1.
In the display at time t2, the width of the scratch 35 is wider than the display at time t1, and the crack 36 grows in the depth direction.
Furthermore, at time t3 (t3> t2), the acceleration (impact) is continuously applied to the upper surface of the information processing device 1. The magnitude of the acceleration applied at time t3 may be the same as or different from the acceleration applied at times t1 and t2.
In the display at time t3, the width of the scratch 35 is wider than in the display at time t2, and the crack 36 is also deeper.

図10は、三次元オブジェクトとしてキャラクター30が表示されている場合において、キャラクター30の頭部に圧力が加えられた場合の表示の変化を説明する図である。
図10に示す例では、時刻t1において、情報処理装置1の正面側から背面側(Y方向)に圧力が加えられた場合を示している。
このときの圧力が作用した位置は、位置検知センサ4(図4参照)からの出力信号を入力する圧力部位特定部22(図5参照)により特定される。圧力が加えられる位置と指先37が接触している位置は同じであるためである。
FIG. 10 is a diagram for explaining a change in display when pressure is applied to the head of the character 30 when the character 30 is displayed as a three-dimensional object.
In the example shown in FIG. 10, a case where pressure is applied from the front side to the back side (Y direction) of the information processing device 1 at time t1 is shown.
The position where the pressure is applied at this time is specified by the pressure part specifying part 22 (refer to FIG. 5) which receives the output signal from the position detection sensor 4 (refer to FIG. 4). This is because the position where the pressure is applied and the position where the fingertip 37 is in contact are the same.

この際の圧力の強度は、圧力検知センサ5(図4参照)からの出力信号を入力する圧力強度特定部21(図5参照)により特定される。圧力強度特定部21は、圧力検知センサ5から入力される数値を予め定めた閾値と比較し、情報処理装置1に作用した圧力の強度を特定する。強度は数段階で特定される。
特定された圧力の強度が弱い場合、表示内容決定部29は、時刻t2(t2>t1)における表示内容を、頭部から少量の血31が流れる内容に変化させる。
一方、特定された圧力の強度が強い場合、表示内容決定部29は、時刻t2における表示内容を、加速度の強度が弱い場合よりも多くの血32が頭部から流れる内容に変化させる。
この例の場合、表示に変化を与える部位をユーザが直接特定することができる。また、この例の場合、圧力の大きさに応じて特定の部位に与える変化の量を調整できる。
The strength of the pressure at this time is specified by the pressure strength specifying unit 21 (refer to FIG. 5) that receives the output signal from the pressure detection sensor 5 (refer to FIG. 4). The pressure strength specifying unit 21 compares the numerical value input from the pressure detection sensor 5 with a predetermined threshold value, and specifies the strength of the pressure acting on the information processing device 1. The intensity is identified in several steps.
When the strength of the specified pressure is weak, the display content determination unit 29 changes the display content at time t2 (t2> t1) into content in which a small amount of blood 31 flows from the head.
On the other hand, when the strength of the specified pressure is strong, the display content determination unit 29 changes the display content at time t2 into content in which more blood 32 flows from the head than when the intensity of the acceleration is weak.
In the case of this example, the user can directly specify a site that causes a change in display. Also, in this case, the amount of change given to a specific site can be adjusted according to the magnitude of pressure.

なお、図10では、表示部2に表示されているキャラクター30の表示位置のうち圧力が加えられた位置を圧力検知センサ5の出力を用いて特定しているが、局所的な圧力を検知するために用意されている圧力検知センサ7A、7B(図3参照)からの出力を用いてキャラクター30の表示に変化を与える部位を特定してもよい。
例えば情報処理装置1の左右側面の下部に位置する圧力検知センサ7A、7Bで圧力が検知された場合、検知された圧力の強度に応じて、図10と同じく、頭部から血を流してもよいし、他の部位、例えば手、足、胸などの表示に変化を与えてもよい。
このように圧力検知センサ7A、7Bの出力値を用いる場合、変化を与える部位を予め表示内容決定部29に設定してもよい。
In FIG. 10, among the display positions of the character 30 displayed on the display unit 2, the position to which pressure is applied is specified using the output of the pressure detection sensor 5, but local pressure is detected. The output from the pressure detection sensors 7A and 7B (see FIG. 3) prepared for the purpose may be used to specify a part that changes the display of the character 30.
For example, when the pressure is detected by the pressure detection sensors 7A and 7B located at the lower portions of the left and right side surfaces of the information processing apparatus 1, even if blood flows from the head as in FIG. 10 according to the intensity of the detected pressure. It is also possible to change the display of other parts such as hands, feet and chest.
Thus, when using the output value of pressure detection sensor 7A, 7B, you may set the site | part which gives a change to the display content determination part 29 previously.

図11は、三次元オブジェクトとしてキャラクター30が表示されている場合において、キャラクター30の頭部に指先37によって圧力が継続的に加えられた場合の表示の変化を説明する図である。
勿論、圧力は指先以外の物体、例えばペン先を用いて加えてもよい。また、指先37は、表示部2の表面に接触し続ける必要はなく、加速度(衝撃)を加える例の場合のように、特定の部位を断続的に叩いてもよい。
図11に示す例では、時刻t1〜t3の間、キャラクター30の頭部が指先37で押さえ付けられたままである。この場合、表示内容決定部29は、頭部からの出血が続いているものとして判断し、時刻t2では血31の画像を頭部に追加し、時刻t3では血32の面積を拡大している。
ここで、出血量は圧力の大きさに比例してもよい。例えば圧力が大きい場合には出血量が多いと判定し、圧力が小さい場合には出血量が小さいと判定してもよい。もっとも、圧力の大きさとは関係なく、予め定めた閾値を超える圧力が加えられている時間の長さに比例して出血量を増減してもよい。
FIG. 11 is a diagram for explaining a change in display when pressure is continuously applied to the head of the character 30 by the fingertip 37 when the character 30 is displayed as a three-dimensional object.
Of course, pressure may be applied using an object other than a fingertip, such as a pen tip. Further, the finger tip 37 does not have to be kept in contact with the surface of the display unit 2 and may be hit on a specific part intermittently as in the example of applying the acceleration (impact).
In the example shown in FIG. 11, the head of the character 30 is kept pressed with the fingertip 37 during the time t1 to t3. In this case, the display content determination unit 29 determines that bleeding from the head continues, adds an image of the blood 31 to the head at time t2, and enlarges the area of the blood 32 at time t3. .
Here, the amount of bleeding may be proportional to the magnitude of pressure. For example, when the pressure is large, it may be determined that the amount of bleeding is large, and when the pressure is small, it may be determined that the amount of bleeding is small. However, regardless of the magnitude of the pressure, the amount of bleeding may be increased or decreased in proportion to the length of time during which the pressure exceeds a predetermined threshold.

前述の例では、表示部2に表示されている三次元オブジェクトの違いにより、画面上に生じる変化が出血又は傷(ひび割れ)である場合について説明したが、外力が作用する部位に応じて変化の内容が異なっていてもよい。なお、変化は、例えば表示の追加、削除、変形、分割など、特定の部位の表示の形態を変える内容であればよい。
図12は、三次元オブジェクトとしてキャラクター30が表示されている場合において、キャラクター30の胸部に圧力が加えられた場合の表示の変化を説明する図である。
図12に示す例では、時刻t1において、頭部ではなく胸部が指先37で押されている。この例では、胸部に加えられた圧力の強度の違いにより衣服に変化を与えている。
特定された圧力の強度が弱い場合、表示内容決定部29は、時刻t2(t2>t1)におけるキャラクター30の衣服がめくれた画像やよじれた画像に変化させる。
一方、特定された圧力の強度が強い場合、表示内容決定部29は、時刻t2におけるキャラクター30の衣服が破れた画像に変化させる。
また例えば特定された圧力の強弱によって、着せ替える衣服の種類や内容を変化させてもよい。
In the above-described example, the case where the change generated on the screen is bleeding or a crack (crack) due to the difference of the three-dimensional object displayed on the display unit 2 has been described. The contents may be different. The change may be, for example, addition, deletion, modification, division of display, etc. as long as the content changes the display form of a specific part.
FIG. 12 is a diagram for explaining a change in display when pressure is applied to the chest of the character 30 when the character 30 is displayed as a three-dimensional object.
In the example shown in FIG. 12, the chest, not the head, is pushed by the fingertip 37 at time t1. In this example, the difference in the strength of the pressure applied to the chest changes the clothes.
If the strength of the specified pressure is weak, the display content determination unit 29 changes the image of the character 30 at time t2 (t2> t1) into a flipped image or a distorted image.
On the other hand, when the strength of the specified pressure is strong, the display content determination unit 29 changes the image of the character 30 at time t2 into a torn clothes.
Further, for example, the type and content of the clothes to be changed may be changed according to the strength of the specified pressure.

図13は、三次元オブジェクトとして構造体34が表示されている場合において、情報処理装置1に対してねじりが加えられた場合の表示の変化を説明する図である。
図13では、構造体34として円柱を示している。円柱の外周面には縦縞を付している。縦縞は、回転対称である円柱の軸方向に対して平行である。
図13に示す例では、平板状の情報処理装置1の上部に反時計回りの力を作用させる一方、情報処理装置1の下部には時計回りの力を作用させている。すなわち、図13では、情報処理装置1の上部側と下部側とで逆向きの力を作用させている。
このとき、情報処理装置1に作用する捻じれの向きと大きさは、捻じれ特定部28(図5参照)から表示内容決定部29に与えられる。
表示内容決定部29は、時刻t1で特定された捻じれの向きと大きさに応じて構造体34に捻じりを加えた画像を生成し、表示部2に表示する。
FIG. 13 is a diagram for explaining a change in display when a twist is applied to the information processing apparatus 1 when the structure 34 is displayed as a three-dimensional object.
In FIG. 13, a cylinder is shown as the structure 34. Vertical stripes are attached to the outer peripheral surface of the cylinder. The longitudinal stripes are parallel to the axial direction of the cylinder, which is rotationally symmetric.
In the example shown in FIG. 13, a counterclockwise force is applied to the upper part of the flat-plate-like information processing apparatus 1, while a clockwise force is applied to the lower part of the information processing apparatus 1. That is, in FIG. 13, forces in opposite directions are applied to the upper side and the lower side of the information processing apparatus 1.
At this time, the direction and the size of the twist acting on the information processing apparatus 1 are given to the display content determination unit 29 from the twist specification unit 28 (see FIG. 5).
The display content determination unit 29 generates an image in which the structure 34 is twisted in accordance with the direction and size of the twist specified at time t 1, and displays the image on the display unit 2.

図13の例では、情報処理装置1に捻じりが加えられている時刻t1ではなく、捻じりが終わった時刻t2において構造体34に変化を加えている。もっとも、捻じりが加えられている時刻t1に、構造体34の表示を変化させてもよい。
なお、図13の例では、変化の内容を情報処理装置1に加えられた捻じりの操作と連動させているが、特定された捻じりの方向と大きさの情報を用いて表示対象である三次元オブジェクトに他の変化を与えてもよい。例えば表示部2に表示されているキャラクターを出血させたり、傷を与えたり、衣服を変化させたりしてもよい。
In the example of FIG. 13, the structure 34 is changed not at the time t1 at which the information processing apparatus 1 is being twisted but at the time t2 at which the twisting is finished. However, the display of the structure 34 may be changed at time t1 at which twisting is applied.
In the example of FIG. 13, the content of the change is linked to the operation of twisting applied to the information processing apparatus 1, but the display target is the information of the identified twisting direction and size. Other changes may be given to the three-dimensional object. For example, the character displayed on the display unit 2 may be bled, scratched, or changed in clothes.

図14は、三次元オブジェクトとしてキャラクター30が表示されている場合において、温度検知センサ9A、9B、9C(図3参照)を通じて温度の変化が検知された場合の表示の変化を説明する図である。
この例の場合、表示内容決定部29は、特定された温度を予め定めた閾値と比較した結果や複数の温度検知センサ9A、9B、9Cで検出された温度の分布の情報に基づいて、表示されているキャラクター30の特定の部位に変化を与える。
FIG. 14 is a diagram for explaining a change in display when a change in temperature is detected through the temperature detection sensors 9A, 9B, 9C (see FIG. 3) when the character 30 is displayed as a three-dimensional object. .
In the case of this example, the display content determination unit 29 performs display based on the result of comparing the specified temperature with a predetermined threshold or the information of the temperature distribution detected by the plurality of temperature detection sensors 9A, 9B, 9C. Make a change to a specific part of the character 30 being played.

例えば時刻t1で検出された情報処理装置1の周囲の気温が予め定めた閾値より低い場合、表示内容決定部29は、時刻t2における表示の内容をキャラクター30の首にマフラー38を巻きつけた状態に変化させる。ここでのキャラクター30の首は特定の部位の一例である。
例えば時刻t1で検出された情報処理装置1の周囲の気温が予め定めた閾値より高い場合、表示内容決定部29は、時刻t2における表示の内容をキャラクター30の額に汗39が流れる状態に変化させる。ここでのキャラクター30の額は特定の部位の一例である。
For example, when the ambient temperature around the information processing apparatus 1 detected at time t1 is lower than a predetermined threshold, the display content determination unit 29 wraps the content of the display at time t2 around the neck of the character 30 with the muffler 38 Change to The neck of the character 30 here is an example of a specific part.
For example, when the ambient temperature around the information processing apparatus 1 detected at time t1 is higher than a predetermined threshold, the display content determination unit 29 changes the content of the display at time t2 to a state where sweat 39 flows to the forehead of the character 30 Let The amount of the character 30 here is an example of a specific part.

図15は、三次元オブジェクトとして氷40が表示されている場合において、温度検知センサ9A、9B、9C(図3参照)を通じて温度変化が検知された場合の表示の変化を説明する図である。
この例の場合、表示内容決定部29は、特定された温度を予め定めた閾値と比較した結果や複数の温度検知センサ9A、9B、9Cで検出された温度の分布の情報に基づいて、表示されているキャラクター30の特定の部位に変化を与える。
図15の例は、情報処理装置1の周囲の気温が予め定めた閾値より高い場合の例である。この場合、表示内容決定部29は、氷40が溶けて小さくなり、氷40の周囲に溶けた水41が溜まった状態に表示を変化させる。ここでの氷40は特定の部位の一例である。
FIG. 15 is a diagram for explaining a change in display when temperature change is detected through the temperature detection sensors 9A, 9B, 9C (see FIG. 3) when the ice 40 is displayed as a three-dimensional object.
In the case of this example, the display content determination unit 29 performs display based on the result of comparing the specified temperature with a predetermined threshold or the information of the temperature distribution detected by the plurality of temperature detection sensors 9A, 9B, 9C. Make a change to a specific part of the character 30 being played.
The example of FIG. 15 is an example in the case where the temperature around the information processing device 1 is higher than a predetermined threshold. In this case, the display content determination unit 29 changes the display so that the ice 40 melts and becomes smaller and the water 41 melted around the ice 40 is collected. The ice 40 here is an example of a specific part.

図16は、三次元オブジェクトとしてキャラクター30が表示されている場合において、湿度検知センサ10A、10B、10C(図3参照)を通じて湿度の変化が検知された場合の表示の変化を説明する図である。
この例の場合、表示内容決定部29は、特定された湿度を予め定めた閾値と比較した結果や複数の湿度検知センサ10A、10B、10Cで検出された湿度の分布の情報に基づいて、表示されているキャラクター30の特定の部位に変化を与える。
図16の例は、情報処理装置1の周囲の湿度が予め定めた閾値より高い場合の例である。この場合、表示内容決定部29は、キャラクター30の衣服をレインコート43に変化させると共に、履物をレインブーツ42に変化させる。
ここでのキャラクター30の胴体や脚部は特定の部位の一例である。また、レインコート43やレインブーツ42への変化は雨天仕様の変化である。なお、衣服や履物の変化には川、海などの水辺仕様への変化があってもよい。
FIG. 16 is a diagram for explaining a change in display when a change in humidity is detected through the humidity detection sensors 10A, 10B and 10C (see FIG. 3) when the character 30 is displayed as a three-dimensional object. .
In the case of this example, the display content determination unit 29 performs display based on the result of comparing the specified humidity with a predetermined threshold or the information of the distribution of the humidity detected by the plurality of humidity detection sensors 10A, 10B, and 10C. Make a change to a specific part of the character 30 being played.
The example of FIG. 16 is an example in the case where the humidity around the information processing device 1 is higher than a predetermined threshold. In this case, the display content determination unit 29 changes the clothes of the character 30 into the raincoat 43 and changes the footwear into the rain boot 42.
The torso and legs of the character 30 here are an example of a specific part. Further, changes to the rain coat 43 and the rain boot 42 are changes in the rainy weather specifications. In addition, changes in clothes and footwear may have changes to waterside specifications such as rivers and seas.

<実施の形態1の効果>
各種のセンサが出力する情報に基づいて三次元的に表示されるオブジェクトの特定の部位に変化が生じる情報処理装置1を用いれば、ユーザに提供できる表現を増やすことができる。
例えば情報処理装置1に衝撃(加速度)を加える、圧力を加える、捻じりを加えるといった直感的な操作やその際の大きさに連動して、三次元的に表示されるオブジェクトの特定の部位の表示が変化するので、ユーザの年齢や性別、障害の有無を問わない、操作と表示上の効果との新しい関係を提供できる。
また例えば情報処理装置1が使用される環境や使用中の情報処理装置1の状態に連動して、三次元的に表示されるオブジェクトの特定の部位の表示が変化するので、環境や使用の状態と表示上の効果との新しい関係を提供できる。
<Effect of Embodiment 1>
By using the information processing apparatus 1 in which a change occurs in a specific part of an object three-dimensionally displayed based on information output from various sensors, expressions that can be provided to the user can be increased.
For example, a specific part of an object displayed three-dimensionally in conjunction with an intuitive operation of applying an impact (acceleration) to the information processing apparatus 1, applying a pressure, applying a twist, or the size at that time. Because the display changes, it is possible to provide a new relationship between the operation and the display effect regardless of the user's age and gender, and whether there is a disability.
In addition, for example, the display of a specific part of an object displayed three-dimensionally changes in conjunction with the environment in which the information processing apparatus 1 is used or the state of the information processing apparatus 1 in use. And provide a new relationship with display effects.

<他の構成>
実施の形態1においては、1つの加速度検知センサ8を用いて表示部2(図1参照)に加えられた加速度の大きさを検知しているが、図17に示すように、複数の加速度検知センサ8を表示部2の面内に配置してもよい。
図17は、加速度検知センサ8が表示部2の面内にM行N列に配置された例を説明する図である。図17に示す加速度検知センサ8の配置例の場合には、局所的な加速度の大きさの分布を加速度検知センサ8の位置情報から特定できる。
<Other configuration>
In the first embodiment, although one acceleration detecting sensor 8 is used to detect the magnitude of the acceleration applied to the display unit 2 (see FIG. 1), as shown in FIG. The sensor 8 may be disposed in the plane of the display unit 2.
FIG. 17 is a diagram for explaining an example in which the acceleration detection sensor 8 is arranged in M rows and N columns in the plane of the display unit 2. In the case of the arrangement example of the acceleration detection sensor 8 shown in FIG. 17, it is possible to specify the distribution of the magnitude of the local acceleration from the position information of the acceleration detection sensor 8.

図18は、加速度検知センサ8が4行4列に配置された場合において、特定の位置から加速度(衝撃)が検知された回数の変化を表している。
図18の場合、時刻t1は衝撃が加えられていない状態を示す。時刻t1の場合、いずれの加速度検知センサ8においても検知回数は0(ゼロ)である。時刻t2は、1行目の2列目と3列目に位置する2つの加速度検知センサ8に衝撃が1回加えられた状態を示している。時刻t3は、1行目の2列目と3列目に位置する2つの加速度検知センサ8に衝撃が10回加えられ、その過程で振動の伝搬により同列にある2行目と3行目の加速度検知センサ8の出力に変化が表れている様子を表している。図18では、濃度の濃い加速度検知センサ8ほど累積された衝撃の検知回数が多いことを示している。
時刻t3の例では、予め定めた期間内に複数の加速度検知センサ8で検知された衝撃の回数の分布から1行目から2行目、3行目の方向に加速度が伝搬したことが分かる。この伝搬の方向の情報を用いて特定の部位に与える変化の内容を制御することもできる。
時刻t4は、衝撃がなくなってから5分経過した状態を示す。この状態では、衝撃の検知回数がいずれも0(ゼロ)にリセットされている。
FIG. 18 shows a change in the number of times that acceleration (impact) is detected from a specific position when the acceleration detection sensor 8 is arranged in four rows and four columns.
In the case of FIG. 18, time t1 shows a state where no impact is applied. At time t1, the number of times of detection is 0 (zero) in any acceleration detection sensor 8. Time t2 shows a state in which an impact is applied once to the two acceleration detection sensors 8 located in the second column and the third column of the first row. At time t3, an impact is applied 10 times to the two acceleration detection sensors 8 located in the second column and the third column in the first row, and in the process, the second and third rows in the same column are transmitted by the propagation of vibration. A state in which a change appears in the output of the acceleration detection sensor 8 is shown. FIG. 18 shows that the higher the density of the acceleration detection sensor 8 is, the more the number of times of accumulated impact detection is.
In the example of time t3, it is known from the distribution of the number of impacts detected by the plurality of acceleration detection sensors 8 within a predetermined period that the acceleration has propagated in the direction from the first line to the second line and the third line. Information on the direction of propagation can also be used to control the content of the change given to a particular site.
Time t4 indicates a state in which 5 minutes have elapsed since there was no impact. In this state, the number of shock detections is reset to 0 (zero).

なお、圧力検知センサ5についても同様である。実施の形態1では、表示部2と概略同形状の位置検知センサ4と圧力検知センサ5(図4参照)を組み合わせて圧力を加えた位置とその強度を検知しているが、複数の圧力検知センサ5を表示部2の面内に沿って整列させ、圧力を検知した圧力検知センサ5の位置情報を用いて圧力を加えた位置、外力としての圧力が加えられた方向、その強度などを計算してもよい。
また、各圧力検知センサ5で検知された圧力の大きさの変化や分布に基づいて表示を変化させる部位を特定してもよい。
The same applies to the pressure detection sensor 5. In the first embodiment, the position detection sensor 4 and the pressure detection sensor 5 (see FIG. 4) having substantially the same shape as the display unit 2 are combined to detect the position to which pressure is applied and the strength thereof. The sensor 5 is aligned along the surface of the display unit 2, and the position where pressure is applied, the direction in which pressure is applied as an external force, and the strength thereof are calculated using the position information of the pressure detection sensor 5 that detects pressure. You may
Further, a portion to be changed in display may be specified based on a change or distribution of the magnitude of pressure detected by each pressure detection sensor 5.

また、実施の形態1の場合には、情報処理装置1(図1参照)が有する1つの表示部2(図1参照)に三次元オブジェクトを表示しているが、図19に示すように、1つのオブジェクトに対応する複数の2次元オブジェクトを表示することで三次元的に表示する情報処理装置1Aにおける制御部3の処理動作にも応用できる。
図19は、正面、側面及び背面の4つの面に表示部2A〜2Dを有する情報処理装置1Aの外観例を示す図である。
Further, in the case of Embodiment 1, a three-dimensional object is displayed on one display unit 2 (see FIG. 1) of the information processing apparatus 1 (see FIG. 1), but as shown in FIG. By displaying a plurality of two-dimensional objects corresponding to one object, the present invention can also be applied to the processing operation of the control unit 3 in the information processing apparatus 1A that displays three-dimensionally.
FIG. 19 is a view showing an example of the appearance of the information processing apparatus 1A having the display portions 2A to 2D on four faces of front, side and back.

図19では、正面に配置された表示部2Aにキャラクターの正面像30Aが表示され、紙面に向かって右側の側面に配置された表示部2Bにキャラクターの右側面像30Bが表示され、左側の側面に配置された表示部2Cにキャラクターの左側面像が表示され、背面に配置された表示部2Dにキャラクターの背面像が表示されている。
なお、表示部は、正面と背面の2面に配置されてもよいし、上面や底面に配置されてもよい。
このように、立体的に複数の表示部2を配置することによりオブジェクトを三次元的に表示する場合にも、センサ出力に基づいてオブジェクトの特定の部位の表示に変化を加えることで、ユーザに対して新たな表現を提供することが可能になる。
In FIG. 19, the front image 30A of the character is displayed on the display unit 2A disposed in front, and the right side image 30B of the character is displayed on the display unit 2B disposed on the right side toward the paper surface. The left side surface image of the character is displayed on the display unit 2C arranged in the, and the rear surface image of the character is displayed on the display unit 2D arranged on the back side.
The display unit may be disposed on the front and back surfaces, or may be disposed on the top and bottom surfaces.
As described above, even in the case where an object is three-dimensionally displayed by arranging the plurality of display units 2 in a three-dimensional manner, the user can change the display of a specific part of the object based on the sensor output. It is possible to provide new expressions for

<実施の形態2>
<装置構成>
図20は、実施の形態2に係る情報処理装置1Bの外観例を示す図である。
図20には図1との対応部分に対応する符号を付して示している。
情報処理装置1Bは、実施の形態1に係る情報処理装置1と同じく、概略板状の外観を有している。
ただし、実施の形態2に係る情報処理装置1Bは、任意の位置で筐体を変形することが可能であり、筐体が変形した位置を検知する変形検知センサ51を有する点で、実施の形態1に係る情報処理装置1と相違する。
変形検知センサ51は、筐体の外縁に沿うように複数配置される。変形検知センサ51の配置箇所や配置間隔(配置密度)は、変形検知センサ51のサイズや仕様に応じて決まる。なお、変形検知センサ51は、表示部2と重なるように配置してもよい。
Second Embodiment
<Device configuration>
FIG. 20 is a diagram showing an example of the appearance of the information processing apparatus 1B according to the second embodiment.
In FIG. 20, reference numerals corresponding to those in FIG. 1 are shown.
The information processing apparatus 1B has a substantially plate-like appearance as the information processing apparatus 1 according to the first embodiment.
However, the information processing apparatus 1B according to the second embodiment can deform the housing at any position, and has a deformation detection sensor 51 for detecting the position where the housing is deformed. This is different from the information processing device 1 according to 1.
A plurality of deformation detection sensors 51 are arranged along the outer edge of the housing. The arrangement location and arrangement interval (arrangement density) of the deformation detection sensor 51 are determined according to the size and specification of the deformation detection sensor 51. The deformation detection sensor 51 may be disposed to overlap the display unit 2.

変形検知センサ51は、いわゆる歪センサで構成され、例えば村田製作所により開発されているポリ乳酸のずり圧電性を応用した変位センサを使用する。歪センサは、折り曲げ量(角度)に応じた大きさのセンサ出力を出力する。このように、歪センサは、付着された部材の変形を検知できるデバイスである。従って、変形検知センサ51は、折り畳み状態に至る前の湾曲による変形も検知する。
なお、実施の形態2では、情報処理装置1Bの筐体が平面形状にある状態を変形前の状態又は初期状態という。
The deformation detection sensor 51 is a so-called strain sensor, and uses, for example, a displacement sensor to which shear piezoelectricity of polylactic acid developed by Murata Manufacturing Co., Ltd. is applied. The strain sensor outputs a sensor output of a size corresponding to the amount of bending (angle). Thus, the strain sensor is a device capable of detecting the deformation of the attached member. Therefore, the deformation detection sensor 51 also detects deformation due to bending before reaching the folded state.
In the second embodiment, a state in which the housing of the information processing apparatus 1B is in a planar shape is referred to as a state before deformation or an initial state.

制御部3は、曲げを検知した複数の変形検知センサ51の位置関係に基づいて、表示部2の曲げ位置を推定する。
また、本実施の形態では、変形検知センサ51は、筐体の片面側(例えば表示部2を配置した面)に配置する。もっとも、変形検知センサ51を筐体の両面に配置してもよい。
ここでの曲げ位置は変形位置の一例である。
The control unit 3 estimates the bending position of the display unit 2 based on the positional relationship between the plurality of deformation detection sensors 51 that have detected bending.
Further, in the present embodiment, the deformation detection sensor 51 is disposed on one side (for example, the surface on which the display unit 2 is disposed) of the housing. However, the deformation detection sensors 51 may be disposed on both sides of the housing.
The bending position here is an example of a deformation position.

情報処理装置1Bは、プラスチックなどで形成された柔軟性を有する筐体に、画像の表示に用いられる表示部2や装置全体を制御する制御部3などを配置している。情報処理装置1Bのうち表示に特化した装置は、フレキシブルディスプレイとも呼ばれる。
図21は、情報処理装置1Bのハードウェア構成例を説明する図である。
図21には図4との対応部分に対応する符号を付している。情報処理装置1Bでは、複数の変形検知センサ51がバス16に接続されている点で、実施の形態1の情報処理装置1と相違する。
In the information processing apparatus 1B, a display unit 2 used for displaying an image, a control unit 3 for controlling the entire apparatus, and the like are disposed in a flexible case formed of plastic or the like. An apparatus specialized for display among the information processing apparatuses 1B is also called a flexible display.
FIG. 21 is a diagram for explaining an example of the hardware configuration of the information processing apparatus 1B.
Reference numerals corresponding to those in FIG. 4 are attached to FIG. The information processing apparatus 1B is different from the information processing apparatus 1 of the first embodiment in that a plurality of deformation detection sensors 51 are connected to the bus 16.

図22は、実施の形態2に係る制御部3の機能構成の一例を説明する図である。
図22には図5との対応部分に対応する符号を付して示している。情報処理装置1Bは、複数の変形検知センサ51からの出力を入力して筐体に生じた曲げ位置を特定する曲げ位置特定部52を有する点で実施の形態1で説明した情報処理装置1と相違する。
本実施の形態における表示内容決定部29は、曲げ位置特定部52で特定された筐体の曲げ位置の情報を用い、三次元的に表示されているオブジェクトの特定の位置に変化を与えたり、表示の内容を変化させたりする。
FIG. 22 is a diagram for explaining an example of a functional configuration of the control unit 3 according to the second embodiment.
In FIG. 22, reference numerals corresponding to those in FIG. 5 are shown. The information processing apparatus 1B receives the output from the plurality of deformation detection sensors 51 and specifies the bending position generated in the housing, and the information processing apparatus 1 described in the first embodiment in that the information processing apparatus 1B includes the bending position specifying unit 52. It is different.
The display content determination unit 29 in the present embodiment uses the information of the bending position of the housing specified by the bending position specifying unit 52 to change the specific position of the object displayed three-dimensionally, or Change the contents of the display.

図23は、曲げ位置特定部52によって特定される曲げ位置の例を説明する図である。
(a)は、情報処理装置1Bにおける短辺の中点付近に位置する2つの変形検知センサ51で変形が検知された場合に、曲げ位置特定部52が特定する曲げ位置を説明する図である。(a)の場合、曲げ位置特定部52は、情報処理装置1Bの長辺と平行な線L1が折り目となるように表示部2が曲げられていると判定する。なお、図における折り目は説明のためであり、折り目は必要としない。
FIG. 23 is a diagram for explaining an example of the bending position specified by the bending position specifying unit 52. As shown in FIG.
(A) is a figure explaining the bending position which bending position specific part 52 specifies, when modification is detected by two deformation detection sensors 51 located near the middle point of the short side in information processor 1B . In the case of (a), the bending position specifying unit 52 determines that the display unit 2 is bent such that a line L1 parallel to the long side of the information processing device 1B is a fold. The folds in the figure are for explanation and the folds are not necessary.

(b)は、情報処理装置1Bにおける長辺の中点付近に位置する2つの変形検知センサ51で変形が検知された場合に、曲げ位置特定部52が特定する曲げ位置を説明する図である。(b)の場合、曲げ位置特定部52は、情報処理装置1Bの短辺と平行な線L2が折り目となるように表示部2が曲げられていると判定する。   (B) is a figure explaining the bending position which bending position specific part 52 specifies, when modification is detected by two deformation detection sensors 51 located near the middle point of the long side in information processor 1B . In the case of (b), the bending position specifying unit 52 determines that the display unit 2 is bent such that a line L2 parallel to the short side of the information processing device 1B is a fold.

(c)は、情報処理装置1Bの右上隅と左下隅に位置する2つの変形検知センサ51で変形が検知された場合に、曲げ位置特定部52が特定する曲げ位置を説明する図である。(c)の場合、曲げ位置特定部52は、右上がりの対角線方向の線L3が折り目となるように表示部2が曲げられていると判定する。   (C) is a figure explaining the bending position which bending position specific part 52 specifies, when modification is detected by two deformation detection sensors 51 located in the upper right corner and the lower left corner of information processor 1B. In the case of (c), the bending position specifying unit 52 determines that the display unit 2 is bent such that the diagonally upward line L3 rising to the right is a fold.

(d)は、情報処理装置1Bの右上隅と左上隅から2番目に位置する2つの変形検知センサ51で変形が検知された場合に、曲げ位置特定部52が特定する曲げ位置を説明する図である。(d)の場合、曲げ位置特定部52は、左上隅を直角とする三角形の斜辺を形成する線L4が折り目となるように、表示部2が曲げられていると判定する。   (D) illustrates a bending position specified by the bending position specifying unit 52 when deformation is detected by two deformation detection sensors 51 positioned second from the upper right corner and the upper left corner of the information processing apparatus 1B. It is. In the case of (d), the bending position specifying unit 52 determines that the display unit 2 is bent such that a line L4 forming an oblique side of a triangle having the upper left corner at a right angle is a fold.

(e)は、上辺(長辺)の3か所と下辺(長辺)の3か所に位置する6つの変形検知センサ51で変形が検知された場合に、曲げ位置特定部52が特定する曲げ位置を説明する図である。(e)の場合、曲げ位置特定部52は、左側から右側の方向に、谷折りを形成する線L5、山折りを形成する線L6、谷折りを形成する線L7が並ぶように、表示部2が変形されていると判定する。   In (e), the bending position specifying unit 52 specifies when deformation is detected by six deformation detection sensors 51 located at three places on the upper side (long side) and three places on the lower side (long side) It is a figure explaining a bending position. In the case of (e), the bending position specifying unit 52 displays the display unit so that the line L5 forming a valley fold, the line L6 forming a mountain fold, and the line L7 forming a valley fold are arranged in the direction from left to right It is determined that 2 is deformed.

<表示制御の例>
以下では、実施の形態2に係る表示内容決定部29がセンサ入力を用いて実行する制御動作の例を説明する。
図24は、特定された曲げ位置の情報を用いて三次元オブジェクトに画像編集を加える例を説明する図である。
図24では、情報処理装置1Bが変形される前の時刻t1において、表示部2に三次元オブジェクトの立体像53が表示されている。ここでの立体像53はりんごである。また、時刻t1における情報処理装置1Bの形状は第1の形状の一例である。
次の時刻t2において、情報処理装置1Bは、画面中央に対してやや右側の位置で表示面2が内側になるように折り曲げられる。この時刻でも、三次元オブジェクトの立体像53の表示に変化はない。ここで、時刻t2における情報処理装置1Bの形状は第2の形状の一例である。
<Example of display control>
Hereinafter, an example of a control operation performed by the display content determination unit 29 according to the second embodiment using a sensor input will be described.
FIG. 24 is a diagram for explaining an example in which image editing is added to a three-dimensional object using information of the specified bending position.
In FIG. 24, at time t1 before the information processing apparatus 1B is deformed, a stereoscopic image 53 of a three-dimensional object is displayed on the display unit 2. The three-dimensional image 53 here is an apple. The shape of the information processing apparatus 1B at time t1 is an example of a first shape.
At the next time t2, the information processing apparatus 1B is bent so that the display surface 2 is inward at a position slightly to the right of the screen center. Even at this time, there is no change in the display of the three-dimensional image 53 of the three-dimensional object. Here, the shape of the information processing apparatus 1B at time t2 is an example of a second shape.

続く時刻t3において、情報処理装置1Bは、元の平坦な状態に戻っているが、三次元オブジェクトの立体像53には時刻t2の曲げ位置に相当する部位(リンゴの表面に当たる曲面部分)に線分54が追加されている。換言すると、曲げ位置を跨いで表示されている三次元オブジェクトの立体像53(すなわち画像自体)に画像編集の一例として線分が追加されている。
図24の場合、ユーザによる情報処理装置1Bを曲げる操作は、表示内容決定部29による線分54の追加のために使用される。なお、図24の例では、線分54の表示は、情報処理装置1Bが元の平坦な状態に戻った後(時刻t3以降)に開始されているが、情報処理装置1Bが曲げられている状態(時刻t2)に開始されてもよい。この場合、線分54の表示は情報処理装置1Bが曲げられている間に限ってもよい。
ここでは、曲げ位置に対応する破線と三次元オブジェクトの立体像53とが交差する部位が、特定の部位に当たる。
Subsequently, at time t3, the information processing apparatus 1B returns to the original flat state, but in the three-dimensional image 53 of the three-dimensional object, a line is drawn to a portion (curved portion corresponding to the surface of apple) corresponding to the bending position at time t2. The minute 54 has been added. In other words, a line segment is added as an example of image editing to the three-dimensional image 53 of the three-dimensional object (that is, the image itself) displayed across the bending position.
In the case of FIG. 24, the operation of bending the information processing apparatus 1B by the user is used for the addition of the line segment 54 by the display content determination unit 29. In the example of FIG. 24, the display of the line segment 54 is started after the information processing device 1B returns to the original flat state (after time t3), but the information processing device 1B is bent. It may be started in the state (time t2). In this case, the display of the line segment 54 may be limited while the information processing apparatus 1B is bent.
Here, a portion where the broken line corresponding to the bending position intersects with the three-dimensional image 53 of the three-dimensional object corresponds to a specific portion.

図25は、特定された曲げ位置の情報を用いて三次元オブジェクトに画像編集を加える他の例を説明する図である。
図25においても、時刻t1、t2では、情報処理装置1Bの曲げ状態によらず、表示部2に表示される三次元オブジェクトの立体像53の表示に変化はない。
ただし、図25の場合、情報処理装置1Bが元の平坦な状態に戻った後に、三次元オブジェクトの立体像53には時刻t2の曲げ位置に相当する部位で三次元オブジェクトの立体像53を切断した画像が表示される。すなわち、切断面55が追加されている。
FIG. 25 is a diagram for explaining another example of applying image editing to a three-dimensional object using information of the specified bending position.
Also in FIG. 25, at times t1 and t2, there is no change in the display of the three-dimensional image 53 of the three-dimensional object displayed on the display unit 2 regardless of the bending state of the information processing apparatus 1B.
However, in the case of FIG. 25, after the information processing apparatus 1B returns to the original flat state, the three-dimensional image 53 of the three-dimensional object is cut at the portion corresponding to the bending position at time t2. The displayed image is displayed. That is, the cut surface 55 is added.

図25の例では、三次元オブジェクトの立体像53を切断した後の画像のみが表示されているが、切断開始から切断後に至るまでの過程が動画として表示されてもよい。
切断面が表示されることで、画像処理の臨場感が高まる。本実施の形態の場合、実行される特殊効果処理の内容は、予め利用者によって指定される。
なお、画像処理の際には、処理の内容に応じた効果音を付加してもよい。例えば図25の例であれば、不図示のスピーカを通じてリンゴが切断される音(例えば「ザクッ」)という効果音を付加してもよい。効果音の付加により、画像処理の臨場感が高まる。
Although only the image after cutting the three-dimensional image 53 of the three-dimensional object is displayed in the example of FIG. 25, the process from the cutting start to the cutting after cutting may be displayed as a moving image.
The display of the cut surface enhances the sense of reality of the image processing. In the case of the present embodiment, the content of the special effect process to be executed is specified by the user in advance.
At the time of image processing, sound effects may be added according to the content of the processing. For example, in the example of FIG. 25, an effect sound may be added such as a sound (for example, “Zaku”) in which an apple is cut through a speaker (not shown). The addition of sound effects enhances the realism of image processing.

<実施の形態2の効果>
本実施の形態によれば、任意の位置で変形可能な情報処理装置1Bの変形操作を通じ、表示部2に表示されている三次元オブジェクトの立体像53の特定の部位に変化を加えることができる。
これにより、情報処理装置1Bを用いてユーザに提供できる表現や操作入力の手法を増やすことができる。また、効果音を組み合わせれば、表示の変化に対して臨場感を高めることができる。
<Effect of Second Embodiment>
According to the present embodiment, it is possible to apply a change to a specific part of the three-dimensional image 53 of the three-dimensional object displayed on the display unit 2 through the deformation operation of the information processing apparatus 1B that can be deformed at any position. .
As a result, it is possible to increase the number of expressions and operation input methods that can be provided to the user using the information processing apparatus 1B. Also, by combining sound effects, it is possible to enhance the sense of reality with respect to changes in display.

<他の構成>
情報処理装置1Bの変形は、他の情報処理装置における処理動作の制御に用いることもできる。
図26は、情報処理装置1Bの変形操作を、他の情報処理装置56が表示制御する表示装置57の表示動作の制御に用いる使用例を説明する図である。
図26の場合、任意の位置で変形可能な情報処理装置1Bにおいて検知された変形の情報は、通信手段を通じて情報処理装置56に伝達され、情報処理装置56に設けられた又は接続された表示装置57に表示される画面の制御に用いられる。
<Other configuration>
The modification of the information processing apparatus 1B can also be used to control the processing operation in another information processing apparatus.
FIG. 26 is a view for explaining a usage example in which the deformation operation of the information processing device 1B is used for controlling the display operation of the display device 57 that the other information processing device 56 performs display control.
In the case of FIG. 26, the information on the deformation detected in the information processing apparatus 1B which can be deformed at any position is transmitted to the information processing apparatus 56 through the communication means, and the display apparatus provided or connected to the information processing apparatus 56 It is used to control the screen displayed at 57.

ここで、情報処理装置56は、いわゆるコンピュータとして構成されており、操作手段として用いられる情報処理装置1Bに表示されている画像の内容と、情報処理装置56を通じて表示装置57に表示される画像の内容とは同じでも異なっていてもよい。
図26の場合には、時刻t1から時刻t2の間に情報処理装置1Bで検知された変形の情報に基づいて、表示装置57に表示される三次元オブジェクトの立体像53の一部に切断面55が表示されている。換言すると、立体像53の一部が削除されている。
Here, the information processing device 56 is configured as a so-called computer, and the contents of the image displayed on the information processing device 1 B used as the operation means and the image displayed on the display device 57 through the information processing device 56 The content may be the same or different.
In the case of FIG. 26, based on the information of the deformation detected by the information processing apparatus 1B between time t1 and time t2, a cut surface of a part of the three-dimensional image 53 of the three-dimensional object displayed on the display device 57 55 is displayed. In other words, part of the three-dimensional image 53 is deleted.

図27は、情報処理装置1Bの変形操作を、他の情報処理装置56が表示制御する表示装置57の表示動作の制御に用いる他の使用例を説明する図である。
図27は、操作入力手段としての情報処理装置1Bの変形を検知した情報処理装置56は表示装置57に表示されるスライドショーの開始や頁めくりの指示に用いられる例を示している。図27の場合、時刻t1から時刻t2の間に情報処理装置1Bで検知された変形の情報に基づいて、スライドショーの画面が1頁目から2頁目に切り替わっている。換言すると、表示画像が差し替えられている。
FIG. 27 is a view for explaining another usage example in which the deformation operation of the information processing device 1B is used to control the display operation of the display device 57 that the other information processing device 56 performs display control.
FIG. 27 shows an example in which the information processing device 56 that has detected the deformation of the information processing device 1B as the operation input means is used for the start of the slide show displayed on the display device 57 and the instruction of page turning. In the case of FIG. 27, the slide show screen is switched from the first page to the second page based on the information of the deformation detected by the information processing apparatus 1B between time t1 and time t2. In other words, the display image is replaced.

<実施の形態3>
本実施の形態では、オブジェクトの三次元的な表示に三次元ディスプレイを用いる場合について説明する。
図28は、三次元ディスプレイによる三次元オブジェクトの表示例を示す図である。
図28に示す情報処理システム61は、ユーザを撮影する撮像装置64と、情報処理装置65と、三次元空間描画装置66とを有している。
Embodiment 3
In this embodiment, the case where a three-dimensional display is used for three-dimensional display of an object will be described.
FIG. 28 is a view showing a display example of a three-dimensional object by a three-dimensional display.
An information processing system 61 illustrated in FIG. 28 includes an imaging device 64 for photographing a user, an information processing device 65, and a three-dimensional space drawing device 66.

撮像装置64は、被写体としてのユーザ63の動きを撮像する装置であり、センサの一種である。
情報処理装置65は、表示対象である三次元オブジェクトのデータを三次元空間描画装置66に出力する処理、撮像された画像を処理してユーザ63の動きを判定する処理、判定結果に応じた画像処理を三次元オブジェクトに加える処理などを実行する装置である。情報処理装置65は、いわゆるコンピュータによって構成され、前述した各種の処理はプログラムの実行を通じて実現される。
The imaging device 64 is a device that images the movement of the user 63 as a subject, and is a type of sensor.
The information processing device 65 outputs data of the three-dimensional object to be displayed to the three-dimensional space drawing device 66, processes the captured image to determine the movement of the user 63, and an image according to the determination result It is an apparatus that executes processing such as adding processing to a three-dimensional object. The information processing device 65 is configured by a so-called computer, and the various processes described above are realized through the execution of a program.

三次元空間描画装置66は、例えば赤外線パルスレーザー、レーザー光を結像させる焦点位置の調整に用いるレンズ、レーザー光を空間内で面走査するのに用いるガルバノミラーなどで構成され、与えられた三次元オブジェクトのデータに基づいて空気中に立体像を描画する。図28の例では、空気のプラズマ発光によって三次元オブジェクトとしてのリンゴの立体像62が空気中に浮かび上がっている。
なお、本実施の形態では、画像処理を通じてユーザ63の動きを検知しているが、空気の動きを検知するセンサの出力を用いてユーザ63の動きを検知してもよい。なお、ユーザの動きではなく、サーモグラフィを通じてユーザ63の体温やその変化、ユーザ63の周囲の気温や湿度やその変化を検知してもよい。
The three-dimensional space drawing apparatus 66 includes, for example, an infrared pulse laser, a lens used to adjust the focal position for forming an image of laser light, a galvano mirror used to scan the surface of the laser light in space, etc. A stereo image is drawn in the air based on the data of the original object. In the example of FIG. 28, the solid-state image 62 of the apple as a three-dimensional object floats in the air by plasma emission of air.
In the present embodiment, the movement of the user 63 is detected through image processing, but the movement of the user 63 may be detected using the output of a sensor that detects the movement of air. Note that not the movement of the user but the temperature of the user 63 or the change thereof, the temperature or the humidity around the user 63 or the change thereof may be detected through thermography.

図29は、ユーザの特定の動きによって三次元オブジェクトの表示に変化を与える様子を説明する図である。
図29には図28との対応部分に対応する符号を付して示している。
図29では、ユーザが立体像62の特定の部位を縦方向に切るような動作を行った場合を描いている。ユーザの動きを検知した情報処理装置65は、ユーザの動きを通じて立体像62の表示に変化を与える位置を特定し、変化の内容を決定する。図29の場合、特定された位置を境にリンゴの立体像62を切断する場合の各体積を三次元オブジェクトのデータから計算し、体積が大きい方を空間中に描画するように描画データを生成する。
このため、図27では、リンゴの立体像62のうち体積の大きい方が残るように切断面67が描画されている。
この例では、切断面67を描画しているが、実施の形態1の場合のように、描画されている三次元オブジェクトに応じて変化の内容を制御すればよい。
FIG. 29 is a diagram for explaining how a display of a three-dimensional object is changed by a specific motion of the user.
In FIG. 29, reference numerals corresponding to those in FIG. 28 are attached.
FIG. 29 depicts the case where the user performs an operation to cut a specific part of the stereoscopic image 62 in the longitudinal direction. The information processing apparatus 65 that has detected the movement of the user specifies the position at which the display of the stereoscopic image 62 is changed through the movement of the user, and determines the content of the change. In the case of FIG. 29, each volume in the case of cutting the solid image 62 of the apple at the specified position is calculated from the data of the three-dimensional object, and drawing data is generated so as to draw the larger volume in space. Do.
For this reason, in FIG. 27, the cut surface 67 is drawn so that the larger one of the three-dimensional image 62 of the apple remains.
In this example, the cut surface 67 is drawn, but as in the case of the first embodiment, the contents of the change may be controlled according to the three-dimensional object being drawn.

図30は、壁面や床面に投影された三次元オブジェクトに変化を与える例を説明する図である。
図30には図28との対応部分に対応する符号を付して示している。
図30に示す情報処理システム61Aは、三次元空間描画装置66に代えて投影装置68を用いる点で、情報処理システム61と異なる。
図30の場合、投影装置68は、2次元空間である壁面に三次元オブジェクトの立体像69を投影している。図30に示すユーザは、投影面である壁面に沿うように右手を上から下に(−Z方向)に動かしている。情報処理装置65は、不図示の赤外線センサや画像処理を通じてユーザの動きを検知して、投影される立体像69に変化を与える。図30の場合には、切断面70を表示させている。
FIG. 30 is a diagram for explaining an example in which a change is given to a three-dimensional object projected on a wall surface or a floor surface.
In FIG. 30, reference numerals corresponding to those in FIG. 28 are attached.
An information processing system 61A shown in FIG. 30 differs from the information processing system 61 in that a projection device 68 is used instead of the three-dimensional space drawing device 66.
In the case of FIG. 30, the projection device 68 projects the three-dimensional image 69 of the three-dimensional object on the wall surface which is a two-dimensional space. The user shown in FIG. 30 moves the right hand from the top to the bottom (-Z direction) along the wall surface which is the projection plane. The information processing device 65 detects the movement of the user through an infrared sensor (not shown) or image processing to change the projected three-dimensional image 69. In the case of FIG. 30, the cut surface 70 is displayed.

<他の実施の形態>
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
例えば三次元的に表示されるオブジェクトの特定の部位の色を変化させてもよい。
<Other Embodiments>
As mentioned above, although embodiment of this invention was described, the technical scope of this invention is not limited to the range as described in said embodiment. It is also apparent from the scope of the claims that the embodiments described above with various changes or improvements are included in the technical scope of the present invention.
For example, the color of a specific part of an object displayed three-dimensionally may be changed.

前述の実施の形態では、センサとしてユーザが操作する表示画面上の位置を検知するセンサ(位置検知センサ4)、ユーザの操作を圧力として検知するセンサ(圧力検知センサ5、7A、7B)、筐体の捻じれを検知するセンサ(捻じれ検知センサ6(図4参照))などを用いて、表示部に三次元的に表示されているオブジェクトの特定の部位を変化させているが、前述以外のセンサを用いてもよい。   In the embodiment described above, a sensor (position detection sensor 4) that detects a position on the display screen operated by the user as a sensor, a sensor (pressure detection sensor 5, 7A, 7B) that detects a user operation as a pressure, a housing Although a specific part of an object three-dimensionally displayed on the display unit is changed using a sensor (torsion detection sensor 6 (see FIG. 4)) or the like that detects body torsion, the other than the above Sensors may be used.

例えば情報処理装置1を使用している標高を測位するセンサを用いてもよい。この種のセンサには、気圧を測定して標高を計算する高度計、GPS(Global Positioning System)信号を使用して標高を計算するGPS受信機等がある。なお、GPS信号には、屋内での使用を前提としたものもある。
また例えば情報処理装置1を使用している場所の気圧を測定するセンサ、照度を測定するセンサ、水圧を測定するセンサ、水深を測定するセンサなどを用いてもよい。
For example, a sensor that measures the altitude using the information processing device 1 may be used. Such sensors include an altimeter that measures atmospheric pressure and calculates elevation, and a GPS receiver that calculates elevation using a GPS (Global Positioning System) signal. Some GPS signals are premised on indoor use.
For example, a sensor that measures the air pressure at a location where the information processing apparatus 1 is used, a sensor that measures the illuminance, a sensor that measures the water pressure, and a sensor that measures the water depth may be used.

ここで、標高を測定するセンサを用いる場合には、情報処理装置1を使用している標高に応じて表示部2に表示されているオブジェクトの特定の部位やオブジェクトの背景を変化させてもよいし、表示部2に表示される画面自体を変化させてもよい。例えば標高の高い場所においては、オブジェクトの一部(例えばキャラクターの背中や腕)に羽や翼を追加したり、オブジェクトの背景に雲を追加したり、画面を高所から周囲の景観を眺める画像や空の画像に切り替えてもよい。   Here, when using a sensor for measuring the elevation, the specific part of the object displayed on the display unit 2 or the background of the object may be changed according to the elevation at which the information processing apparatus 1 is used. Alternatively, the screen itself displayed on the display unit 2 may be changed. For example, at high elevations, add feathers or wings to part of the object (eg character's back and arms), add clouds to the object's background, or view the surrounding landscape from a high elevation on the screen You may switch to an empty image.

気圧を測定するセンサを用いる場合には、気圧値の変化に応じてオブジェクトの一部(例えばキャラクターの腹部や頬っぺた)を膨張させるように又は収縮させるように変化させてもよい。また、密封された袋や風船などを表すオブジェクトの体積を気圧が下がるほど大きくなるように画像を変化させ、気圧が上がるほど小さくなるように画像を変化させてもよい。   When a sensor for measuring air pressure is used, it may be changed to expand or contract a part of the object (e.g., the abdomen or cheek of the character) according to a change in air pressure value. Alternatively, the image may be changed such that the volume of the sealed object such as a bag or a balloon increases as the air pressure decreases, and the image may change as the air pressure increases.

照度センサを用いる場合には、照度値の変化に応じてオブジェクトの一部を変化させてもよい。例えば明るい場所では、オブジェクトとしてのキャラクターにサングラスを装着させ、暗い場所では、オブジェクトとしてのキャラクターに懐中電灯を持たせてもよい。また、周囲の明るさに応じて、オブジェクトの表示形態や画面の表示内容を、夜用と昼用とで切り替えてもよい。
この他、センサにはGPSセンサを用いてもよい。例えばオブジェクトとして機器の操作マニュアルが表示される場合において、その記述言語が検知された国や地域における第1言語に変化させるようにしてもよい。
When using an illuminance sensor, a part of the object may be changed according to the change of the illuminance value. For example, in a bright place, a character as an object may be worn with sunglasses, and in a dark place, a character as an object may have a flashlight. Further, the display form of the object or the display content of the screen may be switched between night use and day use according to the surrounding brightness.
Besides this, a GPS sensor may be used as the sensor. For example, when the operation manual of the device is displayed as an object, the language may be changed to the first language in the country or region in which the description language is detected.

また、操作マニュアルに掲載される問答集や操作に関する注意事項に関する内容を、情報処理装置1の使用環境に応じて変化するセンサ出力の値に基づいて変化させてもよい。ここでの変化には、例えばセンサ出力によって特定される環境下で発生し易い内容を上位に配置する等の記載位置の変更を含む。
例えば情報処理装置1が高温多湿な地点で使用されていると判定される場合には、オブジェクトとして表示される操作マニュアルの上位箇所に高温多湿な環境下に対応する注意事項が配置されるように表示を変化させてもよい。
また例えば操作マニュアルで用いられる挿絵の内容を高温多湿な環境に応じてローカライズ(カスタマイズ)してもよい。
Further, the contents of questions and answers written in the operation manual and the notes on the operation may be changed based on the value of the sensor output which changes in accordance with the use environment of the information processing apparatus 1. The change here includes, for example, a change in the description position, such as disposing content that is likely to occur under the environment specified by the sensor output to a higher rank.
For example, when it is determined that the information processing apparatus 1 is being used at a high temperature and humidity, a warning corresponding to the high temperature and humidity environment is disposed at the upper part of the operation manual displayed as an object. The display may be changed.
Further, for example, the contents of the illustration used in the operation manual may be localized (customized) in accordance with the hot and humid environment.

前述の実施の形態においては、センサは情報処理装置1に設けられている場合について説明したが、センサは、情報処理装置1とは独立した装置として存在し、センサの出力値が通信手段を通じて情報処理装置1に与えられてもよい。
また、情報処理装置1は、外部から取得される環境情報に基づいてオブジェクトの表示を変化させてもよい。ここでの環境情報とは、情報処理装置1の位置情報に関連する外部から取得可能な情報をいい、例えば天気予報などの気象に関する情報、犯罪の発生などの防犯に関する情報、事故や渋滞などの交通に関する情報が含まれる。
In the above embodiment, although the case where the sensor is provided in the information processing apparatus 1 has been described, the sensor is present as an apparatus independent of the information processing apparatus 1 and the output value of the sensor is information through the communication means It may be provided to the processing device 1.
Further, the information processing apparatus 1 may change the display of the object based on environment information acquired from the outside. Here, environmental information refers to information that can be acquired from the outside related to the position information of the information processing apparatus 1, for example, information on weather such as weather forecast, information on crime prevention such as occurrence of crime, information such as accident or traffic jam Contains information about traffic.

例えば情報処理装置1の表示画面に地図が表示され、その地図上にユーザの位置(すなわち情報処理装置1の位置)を示すキャラクターの画像が表示されている状態で、ユーザの位置に関連付けられた高温注意情報が受信された場合、キャラクターの画像の袖の長さや裾野長さを短くし(半袖と短パンに変化させ)、かつ、体から汗が流れる状態に変化させてもよい。   For example, in a state in which a map is displayed on the display screen of the information processing apparatus 1 and an image of a character indicating the position of the user (that is, the position of the information processing apparatus 1) is displayed on the map When the high temperature caution information is received, the sleeve length and the foot length of the character image may be shortened (changed to short sleeve and short pan), and sweat may flow from the body.

例えば情報処理装置1の表示画面に地図が表示され、その地図上にユーザの位置(すなわち情報処理装置1の位置)を示すキャラクターの画像が表示されている状態で、ユーザの位置に関連付けられた地域に犯罪が発生したとの通知が受信された場合、キャラクターの表情を怯えた表情に変化させたり、体が震えている表示に変化させたりしてもよい。
例えば交通事故の発生が通知された場合も同様の表示を用いてもよい。
なお、複数の環境情報が重複して取得された場合には、表示の変化も、これら複数の環境情報に対応する変化を組み合わせた内容としてもよい。例えば前述した高温注意情報と犯罪の発生とが重複して取得された場合には、キャラクターの画像を薄着に変化させ、かつ、汗を流し、かつ、おびえる様子の画像に変化させてもよい。
また、センサによって取得された情報と環境情報とを組み合わせてオブジェクトの表示に変化を与えてもよい。
For example, in a state in which a map is displayed on the display screen of the information processing apparatus 1 and an image of a character indicating the position of the user (that is, the position of the information processing apparatus 1) is displayed on the map When a notification indicating that a crime has occurred in the area is received, the expression of the character may be changed to an upset expression, or it may be changed to a display in which the body is shaking.
For example, the same display may be used even when the occurrence of a traffic accident is notified.
When a plurality of pieces of environmental information are acquired in duplicate, the change in display may also be a combination of the changes corresponding to the plurality of pieces of environmental information. For example, when the above-described high temperature caution information and the occurrence of a crime are acquired in an overlapping manner, the image of the character may be changed to be light, and it may be changed to an image of sweating and being scared.
Moreover, the display of an object may be changed by combining information acquired by the sensor and environmental information.

前述の実施の形態においては、基本的に個々のセンサが測定する物理量を用いて表示に特定の変化を与えているが、複数のセンサの出力を組み合わせて表示に変化を与えてもよい。ここでの物理量は、測定対象である圧力、加速度、温度、湿度、気圧、標高、水深、磁極、音、位置情報などの他、センサに現れる電気信号(電流や電圧)の変化を含んでもよい。
例えば時刻の情報と、標高値と、温度値と、照度値の4つを組み合わせて情報処理装置1の使用環境を特定し、特定された使用環境(例えば夏山)に応じてオブジェクトの一部や画面に変化を与えてもよい。
また例えばオブジェクトとしてのキャラクターを避暑地の服装や夏山登山の服装に変更してもよいし、表示部2に表示される画像を夏の空の画像に変化させてもよい。
また、水深と、温度値とを組み合わせて表示部2に特定された水深と水温を満たす水域に生息する生物を表示してもよいし、オブジェクトの表示形態に変化を与えてもよい。
In the above-mentioned embodiment, although the display is specifically changed using the physical quantities measured by the individual sensors basically, the outputs of a plurality of sensors may be combined to change the display. The physical quantity here may include changes in the electric signal (current or voltage) appearing at the sensor, in addition to the pressure, acceleration, temperature, humidity, barometric pressure, altitude, water depth, magnetic pole, sound, position information, etc. .
For example, the use environment of the information processing apparatus 1 is specified by combining time information, elevation value, temperature value, and illumination value, and a part of the object or the like according to the specified use environment (for example, Natsuyama) You may change the screen.
For example, the character as the object may be changed to a dress of summer resort or a dress for mountain climbing, or the image displayed on the display unit 2 may be changed to a sky image of summer.
Further, the living thing that inhabits the water area satisfying the specified water depth and water temperature may be displayed on the display unit 2 by combining the water depth and the temperature value, or the display form of the object may be changed.

前述の実施の形態では、三次元オブジェクトの例としてキャラクターやりんご等を用いて説明したが、三次元的に表示されるオブジェクトはこれらに限らない。例えば時間の経過を表現する砂時計や電波の強度を表す一組のアンテナも三次元オブジェクトの一例である。
また、表示対象としての三次元オブジェクトは、ファームウェア等のソフトウェアに基づいて動作する組み込み機器、器具や機械等の製品であってもよい。この場合において、製品の設計情報(例えばCADデータ、構成する部品の性能情報等)の利用が可能であれば、これらの情報とセンサの出力値とを組み合わせた表示も可能になる。
Although the above-mentioned embodiment explained using a character, an apple, etc. as an example of a three-dimensional object, an object displayed three-dimensionally is not restricted to these. For example, an hourglass representing the passage of time and a pair of antennas representing the intensity of radio waves are also examples of three-dimensional objects.
Also, the three-dimensional object to be displayed may be a built-in device that operates based on software such as firmware, or a product such as an appliance or a machine. In this case, if it is possible to use design information of the product (for example, CAD data, performance information of the component to be configured, etc.), a display combining these information with the output value of the sensor becomes possible.

例えば組み立てられる部品や着脱される個々の部材の熱膨張率などを情報処理装置1が取得可能な場合において、センサから温度の情報が得られる場合、表示されているオブジェクトの個々の部品の形状を取得された情報に応じて変形させることもできる。この場合、変形を強調した表示とすることも可能である。
この表示機能を用いれば、情報処理装置1の周囲が高温であれば、一部の部品の形状を膨張させた表示に変化させることができる。この表示は、現在の環境下で製品がどのようになるかをシミュレーションするのと同じである。一般的なシミュレーションでは、温度条件などの入力を必要とするが、この表示機能により、現地や現場で対象製品を画面に表示するだけで、製品に生じる変化を確認することができる。
また、この表示機能を用いれば、情報処理装置1の周囲が低温の場合における潤滑油の硬化を予測して画面に表示される製品の動きにハードウェア上の変化を与えることもできる。
For example, in the case where the information processing apparatus 1 can obtain the temperature expansion information from the sensor when the information processing apparatus 1 can obtain the parts to be assembled and the individual members to be attached and detached, the shapes of the individual parts of the displayed object It can also be deformed according to the acquired information. In this case, it is also possible to make a display emphasizing deformation.
If this display function is used, if the temperature around the information processing device 1 is high, it is possible to change the shape of a part of the components to an expanded display. This display is the same as simulating what the product would be under the current environment. In a general simulation, input such as temperature conditions is required. With this display function, it is possible to confirm a change occurring in a product simply by displaying the target product on the screen at the site or site.
In addition, if this display function is used, it is possible to predict the curing of the lubricating oil when the temperature around the information processing apparatus 1 is low, and to provide a change in hardware to the movement of the product displayed on the screen.

また、この表示機能は、使用環境がソフトウェアに与える影響やソフトウェアの異常に起因するハードウェア上の動きの異変を、オブジェクトの表示に対する変化として表現することもできる。例えば情報処理装置1の周囲が多湿や高温の場合には、オブジェクトを構成する電気回路のショートやCPUの熱暴走を予測し、表示画面上におけるオブジェクトの動きを異常時に特有の動作(例えば画面の消灯、異常メッセージの表示等)に変化させることもできる。   In addition, this display function can also express a change in hardware movement caused by an influence of the use environment on software or an abnormality in the software as a change to the display of the object. For example, when the periphery of the information processing apparatus 1 is humid or high temperature, a short circuit of an electric circuit constituting the object or thermal runaway of the CPU is predicted, and the movement of the object on the display screen is It can also be changed to turn off, display an abnormal message, etc.).

なお、各種のセンサから取得された情報に基づいたオブジェクトの表示上の変化は、例えば図31に示す対応表60を用いて実現することができる。
図31は、変化の対象とするオブジェクトとセンサ値の次元数の組み合わせと変化後の画像との対応関係を示す対応表60の例を説明する図である。
対応表60では、変化の対象とするオブジェクトが3次元の画像(3次元画像)として表示される場合だけでなく、1次元の画像(1次元画像)や2次元の画像(2次元画像)として表示される場合にも備えた構成となっている。すなわち、前述の実施例では、3次元オブジェクトの表示を変化させる場合を主に説明しているが、表示対象とするオブジェクトの次元は表示部が対応できる次元であれば任意であり、各次元に応じた変化画像が用意されていれば、各種のセンサの出力等に基づいて表示上の画像を変化させることができる。
In addition, the change on the display of the object based on the information acquired from various sensors can be implement | achieved using the corresponding | compatible table 60 shown, for example in FIG.
FIG. 31 is a view for explaining an example of the correspondence table 60 showing the correspondence between the combination of the object to be changed and the number of dimensions of the sensor value and the image after the change.
In the correspondence table 60, not only when an object to be changed is displayed as a three-dimensional image (three-dimensional image), but also as a one-dimensional image (one-dimensional image) or a two-dimensional image (two-dimensional image) It is configured to be provided even when it is displayed. That is, although the foregoing embodiment mainly describes the case of changing the display of the three-dimensional object, the dimension of the object to be displayed is arbitrary as long as the display unit can cope with it. If a corresponding change image is prepared, the image on the display can be changed based on the outputs of various sensors.

一方、センサ値については、取得される情報の次元に応じた区分が用意されている。具体的には、センサ値が1次元である場合に対応する1次元センサ値62、センサ値が2次元である場合に対応する2次元センサ値63、センサ値が3次元である場合に対応する3次元センサ値64が用意されている。
ここでの1次元センサ値62、2次元センサ値63、3次元センサ値64の区分は、例えば3次元空間上の次元の数を基準に行ってもよい。
例えば1つのセンサが検知する物理量が3次元空間内の1つの次元(例えばX軸方向)に対応する場合、このセンサの出力値は1次元センサ値62である。なお、2つのセンサがそれぞれ異なる物理量を検知する場合でも、各物理量が共通の次元(例えばX軸方向)に対応する場合、これら2つのセンサの出力値は1次元センサ値62である。
On the other hand, with regard to the sensor value, a division corresponding to the dimension of the acquired information is prepared. Specifically, it corresponds to one-dimensional sensor value 62 corresponding to one-dimensional sensor value, two-dimensional sensor value 63 corresponding to two-dimensional sensor value, and three-dimensional sensor value Three-dimensional sensor values 64 are prepared.
The division of the one-dimensional sensor value 62, the two-dimensional sensor value 63, and the three-dimensional sensor value 64 here may be performed based on, for example, the number of dimensions in the three-dimensional space.
For example, when the physical quantity detected by one sensor corresponds to one dimension (for example, the X-axis direction) in the three-dimensional space, the output value of this sensor is the one-dimensional sensor value 62. Even when two sensors detect different physical quantities, when the physical quantities correspond to a common dimension (for example, the X-axis direction), the output values of these two sensors are one-dimensional sensor values 62.

同様に、例えば1つのセンサが検知する物理量が3次元空間内の2つの次元(例えばX軸方向とY軸方向)に対応する場合、このセンサの出力値は2次元センサ値63である。また、2つのセンサがそれぞれ検知する1次元の物理量の方向が異なる場合(例えば一方はX軸方向であり、他方はY軸方向である場合)、これら2つのセンサの出力値は2次元センサ値63である。
同様に、例えば1つのセンサが検知する物理量が3次元空間内の3つの次元(例えばX軸方向とY軸方向とZ軸方向)に対応する場合、このセンサの出力値は3次元センサ値64である。また、3つのセンサがそれぞれ検知する1次元の物理量の方向が異なる場合(例えば1つはX軸方向であり、1つはY軸方向であり、1つはZ軸方向である場合)、これら3つのセンサの出力値は3次元センサ値64である。
Similarly, for example, when the physical quantity detected by one sensor corresponds to two dimensions (for example, the X-axis direction and the Y-axis direction) in the three-dimensional space, the output value of this sensor is the two-dimensional sensor value 63. Also, when the directions of one-dimensional physical quantities detected by the two sensors are different (for example, when one is the X-axis direction and the other is the Y-axis direction), the output values of these two sensors are two-dimensional sensor values 63.
Similarly, for example, when the physical quantity detected by one sensor corresponds to three dimensions (for example, the X-axis direction, the Y-axis direction, and the Z-axis direction) in three-dimensional space, the output value of this sensor is a three-dimensional sensor value 64 It is. In addition, when the directions of the one-dimensional physical quantities detected by the three sensors are different (for example, when one is the X axis direction, one is the Y axis direction, and one is the Z axis direction), The output values of the three sensors are three-dimensional sensor values 64.

また、ここでの1次元センサ値62、2次元センサ値63、3次元センサ値64の区分は、例えば情報の次元の数を基準に行ってもよい。
例えば1つの値を出力するセンサが2つ存在する場合、オブジェクトの表示がそれら2つのセンサの出力値の組み合わせで変化するのであれば、これら2つのセンサ値は2次元センサ値63である。また、1つのセンサが2つの値を出力する場合、1つのセンサから出力される2つのセンサ値は2次元センサ値63である。ここでの複数の出力値は、いずれも同じ物理量に対応するものでもよいし、異なる物理量に対応するものでもよい。
また、1次元センサ値62、2次元センサ値63、3次元センサ値64の区分は、例えば3次元空間上の次元の数と情報の次元の数との組み合わせを基準に行ってもよい。
Further, the division of the one-dimensional sensor value 62, the two-dimensional sensor value 63, and the three-dimensional sensor value 64 here may be performed based on, for example, the number of dimensions of information.
For example, if there are two sensors that output one value, these two sensor values are two-dimensional sensor values 63 if the display of the object changes with the combination of the output values of the two sensors. Also, when one sensor outputs two values, the two sensor values output from one sensor are two-dimensional sensor values 63. The plurality of output values here may all correspond to the same physical quantity, or may correspond to different physical quantities.
The division of the one-dimensional sensor value 62, the two-dimensional sensor value 63, and the three-dimensional sensor value 64 may be performed based on, for example, a combination of the number of dimensions in the three-dimensional space and the number of information dimensions.

図31の例では、各次元の画像に対して複数の変化画像1〜Nが、各次元のセンサ値の大きさに対応付けられている。
例えば1次元センサ値62については、大きさの違いに応じ、N個の変化画像1が1次元画像に対応付けられており、N個の変化画像4が2次元画像に対応付けられており、N個の変化画像7が3次元画像に対応付けられている。
例えば2次元センサ値63については、大きさの組み合わせの違いに応じ、M個の変化画像2が1次元画像に対応付けられており、M個の変化画像5が2次元画像に対応付けられており、M個の変化画像8が3次元画像に対応付けられている。
同様に、3次元センサ値64については、大きさの組み合わせの違いに応じ、L個の変化画像3が1次元画像に対応付けられており、L個の変化画像6が2次元画像に対応付けられており、L個の変化画像9が3次元画像に対応付けられている。
なお、図31の例では、センサ値の次元数ごとに、同じ数の変化画像が画像の次元数によらず対応付けられているが、各組み合わせに応じて異なる数の変化画像が割り当てられていてもよい。また、センサ値の次元数ではなく、画像の次元数に応じて各変化画像の数が定められていてもよい。
In the example of FIG. 31, a plurality of change images 1 to N are associated with the magnitudes of the sensor values of each dimension with respect to the image of each dimension.
For example, for the one-dimensional sensor value 62, N change images 1 are associated with the one-dimensional image, and N change images 4 are associated with the two-dimensional image, according to the difference in size. N change images 7 are associated with the three-dimensional image.
For example, for the two-dimensional sensor value 63, M change images 2 are associated with a one-dimensional image, and M change images 5 are associated with a two-dimensional image, according to the difference in combination of sizes. And M change images 8 are associated with the three-dimensional image.
Similarly, for the three-dimensional sensor value 64, L variation images 3 are associated with a one-dimensional image, and L variation images 6 are associated with a two-dimensional image, according to the difference in combination of sizes. The L change images 9 are associated with the three-dimensional image.
In the example of FIG. 31, although the same number of changed images are associated regardless of the number of dimensions of the image for each of the number of dimensions of the sensor value, different numbers of changed images are assigned according to each combination. May be In addition, the number of change images may be determined according to the number of dimensions of the image, not the number of dimensions of the sensor value.

また、前述の実施の形態では、説明を簡略化するために、画面上には、1つのオブジェクトが表示されている場合について説明したが、複数のオブジェクトが表示される場合も考えられる。この場合において、複数のオブジェクトをいずれも同じ次元で描画することも可能であるが、それぞれ異なる次元で描画することもできる。例えば3次元で画像を描画できる場合に、一部のオブジェクトは3次元で表示する一方、他の画像は2次元や1次元で表示してもよい。なお、全てのオブジェクトを、描画可能な次元よりも低い次元で表示することも可能である。
この場合、各画像には、個々の画像の描画に用いられている次元に応じた変化を与えてもよい。
また、センサ値に応じた変化は、複数のオブジェクトに対応する個々の画像に与えることも可能であるが、複数のオブジェクトのうちユーザによって指定された特定のオブジェクトや特定の次元に対応する画像につてのみ変化を与えるようにしてもよい。例えば3次元で描画されるオブジェクトの画像と2次元で描画されるオブジェクトの画像が混在する場合に、ユーザの指定した3次元で描画されるオブジェクトの画像に対してのみ変化を与えてもよい。
Moreover, in the above-mentioned embodiment, although the case where one object was displayed on the screen was demonstrated in order to simplify description, the case where several objects are displayed is also considered. In this case, although it is possible to draw a plurality of objects in the same dimension, it is also possible to draw them in different dimensions. For example, when an image can be drawn in three dimensions, some objects may be displayed in three dimensions while other images may be displayed in two or one dimensions. Note that it is also possible to display all objects in a dimension lower than the drawable dimension.
In this case, each image may be changed in accordance with the dimension used for drawing the individual image.
In addition, although a change according to the sensor value can be given to individual images corresponding to a plurality of objects, it is possible to change an image corresponding to a specific object or a specific dimension designated by the user among the plurality of objects. Only change may be given. For example, when an image of an object drawn in three dimensions and an image of an object drawn in two dimensions are mixed, a change may be given only to the image of the object drawn in three dimensions specified by the user.

前述の実施の形態では、情報処理装置1による表示を変化させる場合について説明したが、この表示上の変化を画像形成装置(いわゆるプリンター)への出力にも反映させてもよい。例えばセンサの出力値に応じて三次元オブジェクトの表示に変化が生じている状態で印刷が指示されたとき、変化後の内容に対応する印刷データを生成して画像を印刷してもよい。すなわち、センサの出力値は画像の表示だけでなく、印刷にも反映させることができる。   In the above-mentioned embodiment, although the case where the display by the information processing apparatus 1 is changed has been described, this change in display may be reflected also on the output to the image forming apparatus (so-called printer). For example, when printing is instructed in a state in which a change occurs in the display of the three-dimensional object according to the output value of the sensor, print data corresponding to the changed content may be generated to print an image. That is, the output value of the sensor can be reflected not only on the display of the image but also on printing.

なお、表示上の変化と印刷する画像の内容とは独立としてもよい。すなわち、表示上のオブジェクトが変化している場合でも、印刷される内容はセンサの出力値によって変化が生じる前の三次元オブジェクトの内容としてもよい。この際、センサの出力値によって変化した後の表示の内容で画像を印刷するか、センサの出力値によって変化が生じる前の内容で画像を印刷するかはユーザインタフェース画面において選択できることが望ましい。
ここでのユーザインタフェースは、設定画面として用意されてもよいし、印刷が指示されるたびにポップアップ表示される確認画面の一部として用意されてもよい。
The change in display and the content of the image to be printed may be independent. That is, even when the object on the display is changing, the content to be printed may be the content of the three-dimensional object before the change is caused by the output value of the sensor. At this time, it is desirable that it is possible to select on the user interface screen whether to print an image with the contents of the display after changing with the output value of the sensor or to print the contents with the contents before the change occurs with the output of the sensor.
The user interface here may be prepared as a setting screen, or may be prepared as part of a confirmation screen that pops up each time printing is instructed.

画像を用紙に印刷する場合、情報処理装置1は、三次元オブジェクトを規定する三次元情報を二次元情報に変換する。ここでの二次元情報は、例えば三次元オブジェクトの表面を観察した画像であってもよいし、図24等のように三次元オブジェクトの内部構造の変化を反映した画像でもよい。
なお、いわゆるプリンターは用紙などの記録材に二次元像を印刷する装置の他、立体像(三次元像)を形成する三次元プリンターであってもよい。出力先が三次元プリンターである場合、三次元オブジェクトを二次元情報に変換することなく、立体物で出力する。
When printing an image on paper, the information processing apparatus 1 converts three-dimensional information defining a three-dimensional object into two-dimensional information. The two-dimensional information here may be, for example, an image obtained by observing the surface of a three-dimensional object, or an image reflecting a change in the internal structure of the three-dimensional object as shown in FIG.
The so-called printer may be a device for printing a two-dimensional image on a recording material such as paper, or a three-dimensional printer for forming a three-dimensional image (three-dimensional image). When the output destination is a three-dimensional printer, the three-dimensional object is output as a three-dimensional object without being converted to two-dimensional information.

前述の実施の形態においては、情報処理装置1としてタブレット型のコンピュータやスマートフォンなどの携帯型の情報端末を想定したが、表示部(投影機能を含む)とセンサを有する情報端末であれば、時計、ゲーム機などの玩具、テレビジョン受像機、プロジェクタ、ヘッドマウントディスプレイ、画像形成装置(いわゆるプリンタ)、電子黒板、コミュニケーション用のロボット等にも利用できる。   In the above embodiment, a portable information terminal such as a tablet computer or a smartphone is assumed as the information processing apparatus 1, but in the case of an information terminal having a display unit (including a projection function) and a sensor, a clock The present invention can also be used for toys such as game machines, television receivers, projectors, head mounted displays, image forming apparatuses (so-called printers), electronic blackboards, robots for communication, and the like.

<まとめ>
手段1は、オブジェクトの画像を三次元的に表示する表示部と、検知対象とする物理量を検知する検知部と、前記検知部の出力に応じ、前記表示部に表示されるオブジェクトにおける特定の部位の表示に変化を加える表示制御部とを有する情報処理装置である。
手段2は、前記表示制御部は、前記検知部が圧力を検知した位置に基づいて表示に変化が加えられる部位を特定する、手段1に記載の情報処理装置である。
手段3は、前記表示制御部は、検知された圧力の大きさに応じて前記オブジェクトに与える変化の大きさを変える、手段2に記載の情報処理装置である。
手段4は、前記大きさは、複数回の検知結果の累積値として与えられる、手段3に記載の情報処理装置である。
手段5は、前記大きさの時間変化に応じて前記特定の部位の表示の内容が変化する、手段3に記載の情報処理装置である。
手段6は、前記表示制御部は、複数の前記検知部で検知された圧力の大きさの分布に基づいて前記オブジェクトに作用する外力の方向を計算する、手段2に記載の情報処理装置である。
手段7は、計算された外力の方向に基づいて、前記表示部に表示されている前記オブジェクトのうち表示を変化させる部位を特定する、手段6に記載の情報処理装置である。
手段8は、前記表示制御部は、前記検知部が検知した加速度の方向に基づいて、前記表示部に表示されている前記オブジェクトのうち表示を変化させる部位を特定する、手段1に記載の情報処理装置である。
手段9は、検知された加速度の大きさに応じて前記オブジェクトに与える変化の大きさを変える、手段8に記載の情報処理装置である。
手段10は、前記表示制御部は、異なる部位の前記検知部が検知した湿度に基づいて、前記表示部に表示されている前記オブジェクトの表示を変化させる部位を特定する、手段1に記載の情報処理装置である。
手段11は、前記表示制御部は、予め定めた閾値を超える湿度が検知された場合、前記オブジェクトのうち特定された部位の表示を濡れた状態に変化させる、手段10に記載の情報処理装置である。
手段12は、前記表示制御部は、予め定めた閾値を超える湿度が検知された場合、特定された部位の衣服又は履物を雨天又は水辺仕様に変化させる、手段10に記載の情報処理装置である。
手段13は、前記表示制御部は、異なる部位の前記検知部が検知した温度に基づいて、前記表示部に表示されている前記オブジェクトの表示を変化させる部位を特定する、手段1に記載の情報処理装置である。
手段14は、前記表示制御部は、異なる部位の前記検知部の出力に基づいて特定されたねじれの情報に基づいて、前記表示部に表示されている前記オブジェクトの表示を変化させる部位を特定する、手段1に記載の情報処理装置である。
手段15は、前記表示制御部は、検知されたねじれの大きさに応じて前記オブジェクトに与える変化の大きさを変える、手段14に記載の情報処理装置である。
手段16は、前記表示制御部は、前記検知部で検知された標高に基づいて表示に変化を加える、手段1に記載の情報処理装置である。
手段17は、前記表示制御部は、前記検知部で検知された気圧に基づいて表示に変化を加える、手段1に記載の情報処理装置である。
手段18は、前記表示制御部は、前記検知部で検知された照度値に基づいて表示に変化を加える、手段1に記載の情報処理装置である。
手段19は、前記表示制御部は、複数種類の前記検知部からの出力の組み合わせに応じ、前記表示部に表示される前記オブジェクトにおける前記特定の部位の表示に変化を加える、手段1に記載の情報処理装置である。
手段20は、前記表示制御部は、外部から取得される環境情報と前記検知部の出力との組み合わせに応じ、前記表示部に表示される前記オブジェクトにおける前記特定の部位の表示に変化を加える、手段1に記載の情報処理装置である。
手段21は、前記表示制御部は、前記表示部に表示されている変化後の前記オブジェクトに対応する印刷データを画像形成装置に出力する、手段1に記載の情報処理装置である。
手段22は、前記表示制御部は、前記表示部に変化後の前記オブジェクトが表示されている場合でも、表示の状態とは無関係に当該オブジェクトについて予め用意されている印刷データを画像形成装置に出力する、手段1に記載の情報処理装置である。
手段23は、前記表示制御部は、前記オブジェクトに対応する現実の製品を、前記検知部の出力により特定される環境下で使用する場合の状態を予測して表示に反映させる、手段1に記載の情報処理装置である。
手段24は、前記検知部は、変形可能な前記表示部の変形位置を検知し、前記表示制御部は、検知された変形位置に基づいて表示に変化が加えられる部位を特定する、手段1に記載の情報処理装置である。
手段25は、前記表示制御部は、前記表示部が曲がる前の第1の形状から曲げた後の第2の形状に変形された状態で、曲げ位置を跨いで当該表示部に表示されているオブジェクト自体の画像に画像の編集を加えず、当該表示部が当該第2の形状から当該第1の形状に戻った後、当該オブジェクト自体の画像と当該曲げ位置との重なり部分に線分を表示する、手段24に記載の情報処理装置である。
手段26は、前記表示制御部は、前記表示部が曲がる前の第1の形状から曲げた後の第2の形状に変形された状態で、曲げ位置を跨いで当該表示部に表示されているオブジェクトの画像自体に画像の編集を加えず、当該表示部が当該第2の形状から当該第1の形状に戻った後、当該曲げ位置を境に当該オブジェクトの画像自体を三次元的に切断した画像を生成して表示する、手段24に記載の情報処理装置である。
手段27は、コンピュータに、オブジェクトの画像を三次元的に表示する機能と、検知対象とする物理量を検知する検知部の出力に応じ、表示部に表示される前記オブジェクトにおける特定の部位の表示に変化を加える機能とを実行させるためのプログラムである。
<Summary>
The means 1 comprises a display unit for three-dimensionally displaying an image of an object, a detection unit for detecting a physical quantity to be detected, and a specific part of the object displayed on the display unit according to the output of the detection unit. And a display control unit that adds a change to the display of.
The means 2 is the information processing apparatus according to the means 1, wherein the display control unit specifies a portion to which a change is applied to the display based on the position at which the detection unit detects the pressure.
The means 3 is the information processing apparatus according to the means 2, wherein the display control unit changes the magnitude of the change given to the object in accordance with the magnitude of the detected pressure.
The means 4 is the information processing apparatus according to the means 3, wherein the size is given as an accumulated value of a plurality of detection results.
The means 5 is the information processing apparatus according to the means 3 in which the content of the display of the specific part changes in accordance with the time change of the size.
The means 6 is the information processing apparatus according to the means 2, wherein the display control unit calculates the direction of the external force acting on the object based on the distribution of magnitudes of pressure detected by the plurality of detection units. .
The means 7 is the information processing apparatus according to the means 6, which specifies a part of the objects displayed on the display unit to be changed on the basis of the calculated direction of the external force.
The means 8 is the information according to the means 1, wherein the display control unit specifies a portion of the object displayed on the display unit to be changed in display based on the direction of acceleration detected by the detection unit. It is a processing device.
The means 9 is the information processing apparatus according to the means 8 for changing the magnitude of the change given to the object in accordance with the magnitude of the detected acceleration.
The information according to the means 1 according to the means 1, wherein the display control unit specifies a part to which the display of the object displayed on the display part is to be changed based on the humidity detected by the detection part of the different part. It is a processing device.
The means 11 is the information processing apparatus according to the means 10, wherein the display control unit changes the display of the specified part of the object to a wet state when humidity exceeding a predetermined threshold is detected. is there.
The means 12 is the information processing apparatus according to the means 10, wherein the display control unit changes the clothes or footwear of the specified portion to wet weather or waterside specification when humidity exceeding a predetermined threshold is detected. .
The information according to the means 1 according to the means 1, wherein the display control unit specifies the part to which the display of the object displayed on the display part is to be changed based on the temperatures detected by the detection parts of different parts. It is a processing device.
The means 14 specifies the part to which the display of the object displayed on the display part is to be changed based on the information of the twist specified based on the output of the detection part of the different part. An information processing apparatus according to the first aspect.
The means 15 is the information processing apparatus according to the means 14, wherein the display control unit changes the magnitude of the change given to the object in accordance with the magnitude of the detected twist.
The means 16 is the information processing apparatus according to the means 1, wherein the display control unit changes the display based on the altitude detected by the detection unit.
The means 17 is the information processing apparatus according to the means 1, wherein the display control unit changes the display based on the atmospheric pressure detected by the detection unit.
The means 18 is the information processing apparatus according to the means 1, wherein the display control unit changes the display based on the illuminance value detected by the detection unit.
The means 19 is the means 1 according to the means 1, wherein the display control unit changes the display of the specific part of the object displayed on the display unit according to a combination of outputs from a plurality of types of detection units. It is an information processing apparatus.
The means 20 causes the display control unit to change the display of the specific part of the object displayed on the display unit according to a combination of environmental information acquired from the outside and the output of the detection unit. 7 is an information processing apparatus according to the first aspect.
The means 21 is the information processing apparatus according to the means 1, wherein the display control unit outputs print data corresponding to the changed object displayed on the display unit to an image forming apparatus.
Even when the changed object is displayed on the display unit, the display control unit outputs, to the image forming apparatus, print data prepared in advance for the object regardless of the display state of the display control unit The information processing apparatus according to the first aspect.
The means 23 describes in the means 1 that the display control unit predicts the state in the case of using the actual product corresponding to the object under the environment specified by the output of the detection unit and reflects it on the display. Information processing apparatus.
The means 24 detects the deformation position of the deformable display portion, and the display control portion specifies the portion where the display is to be changed based on the detected deformation position. It is an information processor of a statement.
Means 25 is displayed on the display unit across the bending position in a state where the display control unit is deformed from the first shape before the display unit is bent to the second shape after the display unit is bent. After the display unit returns from the second shape to the first shape without editing the image in the image of the object itself, a line segment is displayed at the overlapping portion of the image of the object itself and the bending position The information processing apparatus according to the means 24.
The display control unit is displayed on the display unit across the bending position in a state where the display control unit is deformed into a second shape after being bent from the first shape before the display unit is bent. After the display unit returns from the second shape to the first shape without editing the image itself, the image itself of the object is three-dimensionally cut off at the bending position. The information processing apparatus according to the means 24, which generates and displays an image.
The means 27 displays the specific part of the object displayed on the display unit according to the function of displaying the image of the object three-dimensionally on the computer and the output of the detection unit for detecting the physical quantity to be detected. It is a program for executing the function of making a change.

手段1によれば、ユーザに提供できる表現を増やすことができる。
手段2によれば、部位を容易に特定できる。
手段3によれば、特定の部位に与える変化の大きさを容易に調整できる。
手段4によれば、特定の部位に与える変化の大きさを容易に調整できる。
手段5によれば、特定の部位に与える変化が時間的に変化できる。
手段6によれば、特定の部位に与える変化を容易に調整できる。
手段7によれば、部位を容易に特定できる。
手段8によれば、部位を容易に特定できる。
手段9によれば、特定の部位に与える変化の大きさを容易に調整できる。
手段10によれば、部位を容易に特定できる。
手段11によれば、部位を容易に特定できる。
手段12によれば、ユーザに提供できる表現を増やすことができる。
手段13によれば、部位を容易に特定できる。
手段14によれば、部位を容易に特定できる。
手段15によれば、特定の部位に与える変化の大きさを容易に調整できる。
手段16によれば、ユーザに提供できる表現を増やすことができる。
手段17によれば、ユーザに提供できる表現を増やすことができる。
手段18によれば、ユーザに提供できる表現を増やすことができる。
手段19によれば、ユーザに提供できる表現を増やすことができる。
手段20によれば、ユーザに提供できる表現を増やすことができる。
手段21によれば、ユーザに提供できる表現を増やすことができる。
手段22によれば、ユーザに提供できる表現を増やすことができる。
手段23によれば、ユーザに提供できる表現を増やすことができる。
手段24によれば、部位を容易に特定できる。
手段25によれば、ユーザに提供できる表現を増やすことができる。
手段26によれば、ユーザに提供できる表現を増やすことができる。
手段27によれば、ユーザに提供できる表現を増やすことができる。
According to the means 1, the expressions that can be provided to the user can be increased.
According to the means 2, the site can be easily identified.
According to the means 3, it is possible to easily adjust the magnitude of change given to a specific site.
According to the means 4, the magnitude of the change given to the specific site can be easily adjusted.
According to the means 5, the change given to the specific site can be temporally changed.
According to the means 6, the change given to the specific site can be easily adjusted.
According to the means 7, the site can be easily identified.
According to the means 8, the site can be easily identified.
According to the means 9, the magnitude of the change given to the specific site can be easily adjusted.
According to the means 10, the site can be easily identified.
According to the means 11, the site can be easily identified.
According to the means 12, the expressions that can be provided to the user can be increased.
According to the means 13, the site can be easily identified.
According to the means 14, the site can be easily identified.
According to the means 15, it is possible to easily adjust the magnitude of the change given to the specific site.
The means 16 can increase the expressions that can be provided to the user.
The means 17 can increase the expressions that can be provided to the user.
The means 18 can increase the expressions that can be provided to the user.
The means 19 can increase the expressions that can be provided to the user.
According to the means 20, the expressions that can be provided to the user can be increased.
The means 21 can increase the expressions that can be provided to the user.
The means 22 can increase the expressions that can be provided to the user.
The means 23 can increase the expressions that can be provided to the user.
According to the means 24, the site can be easily identified.
The means 25 can increase the expressions that can be provided to the user.
According to the means 26, the expressions that can be provided to the user can be increased.
The means 27 can increase the expressions that can be provided to the user.

1、1A、1B、56、65…情報処理装置、2、2A、2B、2C、2D…表示部、3…制御部、4…位置検知センサ、5、7A、7B…圧力検知センサ、6…捻じれ検知センサ、8…加速度検知センサ、9A、9B、9C…温度検知センサ、10A、10B、10C…湿度検知センサ、14…主記憶装置、15…通信部、21…圧力強度特定部、22…圧力部位特定部、23…操作位置特定部、24…温度特定部、25…湿度特定部、26…加速度方向特定部、27…加速度強度特定部、28…捻じれ特定部、29…表示内容決定部、51…変形検知センサ、52…曲げ位置特定部、57…表示装置、61、61A…情報処理システム、64…撮像装置、66…三次元空間描画装置   DESCRIPTION OF SYMBOLS 1, 1A, 1B, 56, 65 ... Information processing apparatus, 2, 2A, 2B, 2C, 2D ... Display part, 3 ... Control part, 4 ... Position detection sensor, 5, 7A, 7B ... Pressure detection sensor, 6 ... Twist detection sensor 8 Acceleration detection sensor 9A 9B 9C Temperature detection sensor 10A 10B 10C Humidity detection sensor 14 Main storage device 15 Communication unit 21 Pressure intensity identification unit 22 ... Pressure part identification part, 23 ... Operation position identification part, 24 ... Temperature identification part, 25 ... Humidity identification part, 26 ... Acceleration direction identification part, 27 ... Acceleration strength identification part, 28 ... Twisting identification part, 29 ... Display contents Determining part, 51: deformation detection sensor, 52: bending position specifying part, 57: display device, 61, 61A: information processing system, 64: imaging device, 66: three-dimensional space drawing device

Claims (17)

携帯型の表示装置が使用されている位置を示す位置情報を当該表示装置から取得し、
前記位置情報に紐付いた、当該位置情報とは異なる第1の情報を前記表示装置とは異なる装置から取得し、
前記表示装置に表示される、三次元で定義されたオブジェクトを1つの視点方向から表現した二次元画像を、取得された前記第1の情報に応じて異ならせるとともに、当該二次元画像を動画として表示させる、表示制御方法。
Obtaining position information indicating a position at which the portable display device is used from the display device;
Acquiring, from a device different from the display device, first information linked to the position information and different from the position information;
A two-dimensional image which is displayed on the display device and which represents an object defined in three dimensions from one viewpoint direction is differentiated according to the acquired first information, and the two-dimensional image is used as a moving image. Display control method to display.
前記表示装置に表示させる前記オブジェクトが形態を模する仮想の生物の画像は、少なくとも前記第1の情報と前記位置情報に連動して変化する、請求項1に記載の表示制御方法。   The display control method according to claim 1, wherein an image of a virtual creature in which the object displayed on the display simulates a form changes in conjunction with at least the first information and the position information. 前記第1の情報と前記位置情報の変化に連動して、前記仮想の生物の画像とは異なる仮想の生物の画像を前記表示装置に追加で表示させる、請求項2に記載の表示制御方法。   The display control method according to claim 2, wherein an image of a virtual creature different from the image of the virtual creature is additionally displayed on the display device in conjunction with the change of the first information and the position information. 前記第1の情報と前記位置情報に連動して、前記表示装置に表示させる前記オブジェクトが形態を模する仮想の生物の画像の数が異なる、請求項2に記載の表示制御方法。   The display control method according to claim 2, wherein the number of virtual creature images in which the object displayed on the display device simulates a form is different in conjunction with the first information and the position information. 前記第1の情報が気象に関する情報であり、当該気象に関する情報を通じて気象の異常が通知される場合、前記二次元画像を異常の内容に応じた態様で表示する、請求項1〜4のいずれか1項に記載の表示制御方法。   5. The two-dimensional image according to any one of claims 1 to 4, wherein the first information is information on weather, and when the abnormality of the weather is notified through the information on the weather, the two-dimensional image is displayed in a mode according to the contents of the abnormality. The display control method according to item 1. 前記第1の情報を通じて気象の異常が通知される場合、警告情報を前記表示装置に表示する、請求項5に記載の表示制御方法。   The display control method according to claim 5, wherein when abnormal weather is notified through the first information, warning information is displayed on the display device. 前記第1の情報が気象に関する情報である場合、当該気象に関する情報に応じ、前記二次元画像の表示上の変化の大小を変える、請求項1〜4のいずれか1項に記載の表示制御方法。   The display control method according to any one of claims 1 to 4, wherein when the first information is information on weather, the magnitude of change in display of the two-dimensional image is changed according to the information on weather. . 前記二次元画像は、前記第1の情報に応じ、前記表示装置上で増加した後に減少する、請求項1〜4のいずれか1項に記載の表示制御方法。   The display control method according to any one of claims 1 to 4, wherein the two-dimensional image is decreased after being increased on the display device according to the first information. 携帯型の表示装置が使用されている位置を示す位置情報を当該表示装置から取得し、当該位置情報に紐付いた、当該位置情報とは異なる第1の情報を当該表示装置とは異なる装置から取得し、当該表示装置に表示される、三次元で定義されたオブジェクトを1つの視点方向から表現した二次元画像を、取得された当該第1の情報に応じて異ならせるとともに、当該二次元画像を動画として表示させる表示制御手段
を有する情報処理装置。
Position information indicating a position where a portable display device is used is acquired from the display device, and first information different from the position information, which is associated with the position information, is acquired from a device different from the display device And changing the two-dimensional image, which is displayed on the display device, expressing the three-dimensional defined object from one viewpoint direction according to the acquired first information, and An information processing apparatus having display control means for displaying as a moving image.
前記表示装置に表示させる前記オブジェクトが形態を模する仮想の生物の画像は、少なくとも前記第1の情報と前記位置情報に連動して変化する、請求項9に記載の情報処理装置。   The information processing apparatus according to claim 9, wherein an image of a virtual creature that the object displayed on the display device imitates a form changes in conjunction with at least the first information and the position information. 前記第1の情報と前記位置情報の変化に連動して、前記仮想の生物の画像とは異なる仮想の生物の画像を前記表示装置に追加で表示させる、請求項10に記載の情報処理装置。   The information processing apparatus according to claim 10, wherein an image of a virtual creature different from the image of the virtual creature is additionally displayed on the display device in conjunction with the change of the first information and the position information. 前記第1の情報と前記位置情報に連動して、前記表示装置に表示させる前記オブジェクトが形態を模する前記仮想の生物の画像の数が異なる、請求項10に記載の情報処理装置。   11. The information processing apparatus according to claim 10, wherein the number of images of the virtual creature that the object displayed on the display device imitates in form is different in interlocking with the first information and the position information. 前記第1の情報が気象に関する情報であり、当該気象に関する情報を通じて気象の異常が通知される場合、前記表示制御手段は、前記二次元画像を異常の内容に応じた態様で表示する、請求項9〜12のいずれか1項に記載の情報処理装置。   The display control means displays the two-dimensional image in a mode according to the content of the abnormality when the first information is information on the weather and the abnormality of the weather is notified through the information on the weather. The information processing apparatus according to any one of 9 to 12. 前記第1の情報を通じて気象の異常が通知される場合、前記表示制御手段は、警告情報を前記表示装置に表示する、請求項13に記載の情報処理装置。   The information processing apparatus according to claim 13, wherein the display control means displays warning information on the display device when an abnormality of the weather is notified through the first information. 前記第1の情報が気象に関する情報である場合、前記表示制御手段は、当該気象に関する情報に応じ、前記二次元画像の表示上の変化の大小を変える、請求項9〜12のいずれか1項に記載の情報処理装置。   The display control means changes magnitude of a change in display of the two-dimensional image according to the information on the weather when the first information is the information on the weather. The information processing apparatus according to claim 1. 前記表示制御手段は、前記第1の情報に応じ、前記二次元画像を前記表示装置上で増加させた後に減少させる、請求項9〜12のいずれか1項に記載の情報処理装置。   The information processing apparatus according to any one of claims 9 to 12, wherein the display control means decreases the two-dimensional image after increasing it on the display device according to the first information. コンピュータに、
携帯型の表示装置が使用されている位置を示す位置情報を当該表示装置から取得し、当該位置情報に紐付いた、当該位置情報とは異なる第1の情報を当該表示装置とは異なる装置から取得し、当該表示装置に表示される、三次元で定義されたオブジェクトを1つの視点方向から表現した二次元画像を、取得された当該第1の情報に応じて異ならせるとともに、当該二次元画像を動画として表示させるためのプログラム。
On the computer
Position information indicating a position where a portable display device is used is acquired from the display device, and first information different from the position information, which is associated with the position information, is acquired from a device different from the display device And changing the two-dimensional image, which is displayed on the display device, expressing the three-dimensional defined object from one viewpoint direction according to the acquired first information, and Program for displaying as a movie.
JP2018211420A 2018-11-09 2018-11-09 Method for controlling display, information processor, and program Pending JP2019050018A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018211420A JP2019050018A (en) 2018-11-09 2018-11-09 Method for controlling display, information processor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018211420A JP2019050018A (en) 2018-11-09 2018-11-09 Method for controlling display, information processor, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018031846 Division 2017-08-24

Publications (1)

Publication Number Publication Date
JP2019050018A true JP2019050018A (en) 2019-03-28

Family

ID=65905692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018211420A Pending JP2019050018A (en) 2018-11-09 2018-11-09 Method for controlling display, information processor, and program

Country Status (1)

Country Link
JP (1) JP2019050018A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021047274A (en) * 2019-09-18 2021-03-25 スカパーJsat株式会社 Display control device, display device, and display control method, and program
CN113760117A (en) * 2020-06-04 2021-12-07 富士胶片商业创新有限公司 Information processing apparatus, information processing method, and computer-readable medium

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0523185U (en) * 1991-09-10 1993-03-26 株式会社精工舎 Clock with weather forecast function
JP2002090326A (en) * 2000-09-20 2002-03-27 Tdk Corp Portable electronic equipment
JP2002314649A (en) * 2001-04-12 2002-10-25 Kyocera Corp Portable terminal
JP2005174155A (en) * 2003-12-15 2005-06-30 Dainippon Printing Co Ltd Real world virtualizing system, real-world virtualizing method, server, program, and recording medium
JP2006520053A (en) * 2003-03-03 2006-08-31 アメリカ オンライン インコーポレイテッド How to use an avatar to communicate
JP2008142426A (en) * 2006-12-12 2008-06-26 Konami Digital Entertainment:Kk Game system
JP2008546981A (en) * 2005-06-23 2008-12-25 エルジー エレクトロニクス インコーポレイティド refrigerator
CN101414455A (en) * 2007-10-17 2009-04-22 索尼株式会社 Information providing system, equipment and method, terminal apparatus and display method
US20090158184A1 (en) * 2003-03-03 2009-06-18 Aol Llc, A Delaware Limited Liability Company (Formerly Known As Ameria Online, Inc.) Reactive avatars
JP2011138215A (en) * 2009-12-25 2011-07-14 Sharp Corp Display device, television set, display method, program and recording medium
WO2012157015A1 (en) * 2011-05-13 2012-11-22 三菱電機株式会社 Navigation device
WO2016052501A1 (en) * 2014-09-29 2016-04-07 株式会社Nttドコモ User interface device, program, and content notification method
JP2016511852A (en) * 2012-12-18 2016-04-21 サムスン エレクトロニクス カンパニー リミテッド Display device and image processing method thereof

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0523185U (en) * 1991-09-10 1993-03-26 株式会社精工舎 Clock with weather forecast function
JP2002090326A (en) * 2000-09-20 2002-03-27 Tdk Corp Portable electronic equipment
JP2002314649A (en) * 2001-04-12 2002-10-25 Kyocera Corp Portable terminal
US20090158184A1 (en) * 2003-03-03 2009-06-18 Aol Llc, A Delaware Limited Liability Company (Formerly Known As Ameria Online, Inc.) Reactive avatars
JP2006520053A (en) * 2003-03-03 2006-08-31 アメリカ オンライン インコーポレイテッド How to use an avatar to communicate
JP2005174155A (en) * 2003-12-15 2005-06-30 Dainippon Printing Co Ltd Real world virtualizing system, real-world virtualizing method, server, program, and recording medium
JP2008546981A (en) * 2005-06-23 2008-12-25 エルジー エレクトロニクス インコーポレイティド refrigerator
JP2008142426A (en) * 2006-12-12 2008-06-26 Konami Digital Entertainment:Kk Game system
CN101414455A (en) * 2007-10-17 2009-04-22 索尼株式会社 Information providing system, equipment and method, terminal apparatus and display method
JP2009098446A (en) * 2007-10-17 2009-05-07 Sony Corp Information providing system, information providing device, information providing method, terminal unit, and display method
JP2011138215A (en) * 2009-12-25 2011-07-14 Sharp Corp Display device, television set, display method, program and recording medium
WO2012157015A1 (en) * 2011-05-13 2012-11-22 三菱電機株式会社 Navigation device
JP2016511852A (en) * 2012-12-18 2016-04-21 サムスン エレクトロニクス カンパニー リミテッド Display device and image processing method thereof
WO2016052501A1 (en) * 2014-09-29 2016-04-07 株式会社Nttドコモ User interface device, program, and content notification method
EP3203362A1 (en) * 2014-09-29 2017-08-09 NTT DoCoMo, Inc. User interface device, program, and content notification method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021047274A (en) * 2019-09-18 2021-03-25 スカパーJsat株式会社 Display control device, display device, and display control method, and program
CN113760117A (en) * 2020-06-04 2021-12-07 富士胶片商业创新有限公司 Information processing apparatus, information processing method, and computer-readable medium

Similar Documents

Publication Publication Date Title
US10101585B2 (en) Stereoscopic display device and control method
JP6946857B2 (en) Information processing equipment and programs
US9632314B2 (en) Head mounted display device displaying thumbnail image and method of controlling the same
EP3389020B1 (en) Information processing device, information processing method, and program
JP6662914B2 (en) Mediation reality
RU2016120976A (en) DEVICE, METHOD AND SYSTEM FOR ENHANCING AN ENLARGED DISPLAY USING A HELMET-DISPLAY
CN106095089A (en) A kind of method obtaining interesting target information
CN106383587A (en) Augmented reality scene generation method, device and equipment
JP6679523B2 (en) Image processing program, image processing system, image processing apparatus, and image processing method
US11902677B2 (en) Patch tracking image sensor
US11620792B2 (en) Fast hand meshing for dynamic occlusion
KR20230028532A (en) Creation of ground truth datasets for virtual reality experiences
CN111108462A (en) Ranging and accessory tracking for head-mounted display systems
WO2017169273A1 (en) Information processing device, information processing method, and program
CN108021227B (en) Method for rapidly moving in virtual reality and virtual reality device
CN108090968B (en) Method and device for realizing augmented reality AR and computer readable storage medium
JP2019050018A (en) Method for controlling display, information processor, and program
JP2015149032A (en) Extended reality providing system, program, and extended reality providing method
TW201903563A (en) Virtual reality system with outside-in tracking and inside-out tracking and controlling method thereof
JP4986543B2 (en) Information processing method and information processing apparatus
US11494997B1 (en) Augmented reality system with display of object with real world dimensions
JP2014072570A (en) Display device and control method
CN109426419A (en) Interface display method and related equipment
JP7278341B2 (en) Information provision system and information provision program
JP2005296478A (en) Information presentation system and 3-d marker

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200714