JP2020098381A - Positioning method and reality presentation apparatus - Google Patents

Positioning method and reality presentation apparatus Download PDF

Info

Publication number
JP2020098381A
JP2020098381A JP2018235246A JP2018235246A JP2020098381A JP 2020098381 A JP2020098381 A JP 2020098381A JP 2018235246 A JP2018235246 A JP 2018235246A JP 2018235246 A JP2018235246 A JP 2018235246A JP 2020098381 A JP2020098381 A JP 2020098381A
Authority
JP
Japan
Prior art keywords
image
images
virtual position
environment
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018235246A
Other languages
Japanese (ja)
Inventor
永明 周
yong ming Zhou
永明 周
上欽 蘇
Shang-Chin Su
上欽 蘇
孟豪 ▲呉▼
孟豪 ▲呉▼
Meng-Hau Wu
峰森 朱
feng sen Zhu
峰森 朱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XRspace Co Ltd
Original Assignee
XRspace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XRspace Co Ltd filed Critical XRspace Co Ltd
Priority to JP2018235246A priority Critical patent/JP2020098381A/en
Publication of JP2020098381A publication Critical patent/JP2020098381A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To provide a positioning method applied to a reality presentation apparatus.SOLUTION: A positioning method applied to a reality presentation apparatus includes: a step that collects a plurality of first images of a reality environment and constructs a virtual environment corresponding to the reality environment according to the plurality of first images; a step that acquires a second image of the reality environment with the reality presentation apparatus; a step that calculates an initial virtual position in the virtual environment corresponding to the second image according to the plurality of first images and the second image; and a step that displays the virtual environment from the perspective of the initial virtual position when starting a specified application of the reality presentation apparatus with the realty presentation apparatus. The initial virtual position corresponds to an initial reality location in the reality environment where the reality presentation apparatus acquires the second image.SELECTED DRAWING: Figure 1

Description

本開示は、測位方法及び現実感提示装置に関し、より詳細には、現実の場所に対応する初期仮想位置を計算できる測位方法及び現実感提示装置に関する。 The present disclosure relates to a positioning method and a reality presentation device, and more particularly to a positioning method and a reality presentation device that can calculate an initial virtual position corresponding to a real place.

技術の進化及び発展により、コンピュータゲーム及びユーザの間の対話の需要は増加している。人間‐コンピュータ対話技術、例えば、体性感覚ゲーム、仮想現実(VR)環境、拡張現実(AR)環境、複合現実(MR)環境、及び拡大現実(XR)環境は、その生理学的及び娯楽的機能のため人気となっている。 As technology evolves and develops, the demand for interaction between computer games and users is increasing. Human-computer interaction techniques, such as somatosensory games, virtual reality (VR) environments, augmented reality (AR) environments, mixed reality (MR) environments, and augmented reality (XR) environments, have their physiological and entertainment functions. It has become popular because of it.

ユーザ又はプレーヤは、仮想環境においてゲームをプレーすることがあり、仮想環境は、現実環境をエミュレートするように構築されることがある。従来技術では、現実環境をエミュレートする仮想環境を伴うゲームについて、ユーザ/プレーヤは、ゲームを開始するために予め定義された場所にとどまる必要があり、これは、ユーザ/プレーヤに対して不便をもたらす。すなわち、ユーザ/プレーヤは、現実環境において任意の現実の場所でゲームを開始することができず、ユーザ/プレーヤは、自分が望む任意の場所でゲームを開始する自分の自由を失っている。 A user or player may play a game in a virtual environment, which may be constructed to emulate a real environment. In the prior art, for games involving virtual environments that emulate real-world environments, the user/player has to stay in a predefined location to start the game, which is inconvenient for the user/player. Bring That is, the user/player is unable to start the game anywhere in the real environment, and the user/player is losing his freedom to start the game anywhere he wants.

ゆえに、本開示の目的は、測位(positioning)方法及び現実感提示装置を提供することである。 Therefore, an object of the present disclosure is to provide a positioning method and a reality presentation device.

本開示の実施例は、測位方法を開示する。測位方法は、現実環境の複数の第1の画像を収集し、複数の第1の画像に従って現実環境に対応する仮想環境を構築するステップと、現実感提示装置により、現実環境の第2の画像を取得するステップと、複数の第1の画像及び第2の画像に従って、第2の画像に対応する仮想環境における初期仮想位置を計算するステップと、現実感提示装置により、現実感提示装置の特定アプリケーションが開始されるときに初期仮想位置からの視点で仮想環境を表示するステップとを含み、初期仮想位置は、現実感提示装置が第2の画像を捕捉する現実環境における初期現実場所に対応する。 The embodiment of the present disclosure discloses a positioning method. The positioning method includes a step of collecting a plurality of first images of the real environment and constructing a virtual environment corresponding to the real environment according to the plurality of first images, and a second image of the real environment by the reality presentation device. And calculating the initial virtual position in the virtual environment corresponding to the second image according to the plurality of first images and the second image, and specifying the reality presentation device by the reality presentation device. Displaying the virtual environment from the perspective of the initial virtual position when the application is started, the initial virtual position corresponding to the initial physical location in the physical environment in which the reality presentation device captures the second image. ..

本開示の別の実施例は、ユーザに対する仮想環境を表示できる現実感提示装置を開示し、仮想環境は、現実環境、現実感提示装置から捕捉された複数の第1の画像に基づいて構築される。当該現実感提示装置は、現実環境から第2の画像を捕捉するように構成された画像捕捉モジュールと、複数の第1の画像に従って現実環境に対応する仮想環境を構築するステップ、及び複数の第1の画像及び第2の画像に従って第2の画像に対応する仮想環境における初期仮想位置を計算するステップを実行するように構成された処理ユニットと、当該現実感提示装置の特定アプリケーションが開始されるときに初期仮想位置からの視点で仮想環境を表示するように構成された表示画面とを含み、初期仮想位置は、当該現実感提示装置が第2の画像を捕捉する現実環境における初期現実場所に対応する。 Another embodiment of the present disclosure discloses a reality presentation device capable of displaying a virtual environment for a user, and the virtual environment is constructed based on the real environment and a plurality of first images captured from the reality presentation device. It The reality presentation device includes an image capturing module configured to capture a second image from the real environment, a step of constructing a virtual environment corresponding to the real environment according to the plurality of first images, and a plurality of first image capture modules. A processing unit configured to perform a step of calculating an initial virtual position in a virtual environment corresponding to the second image according to the first image and the second image, and a specific application of the reality presentation device are started. And a display screen configured to display the virtual environment from the viewpoint from the initial virtual position, the initial virtual position being the initial physical location in the physical environment in which the reality presentation device captures the second image. Correspond.

本開示の別の実施例は、ユーザに対する仮想環境を表示できるシステムを開示し、仮想環境は、現実環境、現実感提示装置から捕捉された複数の第1の画像に基づいて構築される。当該システムは、現実感提示装置であって、現実環境から第2の画像を捕捉するように構成された画像捕捉モジュール、及び、現実感提示装置の特定アプリケーションが開始されるときに初期仮想位置からの視点で仮想環境を表示するように構成された表示画面、を含む現実感提示装置と、複数の第1の画像に従って現実環境に対応する仮想環境を構築するステップ、及び、複数の第1の画像及び第2の画像に従って第2の画像に対応する仮想環境における初期仮想位置を計算するステップを実行するように構成されたリモートコンピューティング装置とを含み、初期仮想位置は、現実感提示装置が第2の画像を捕捉する現実環境における初期現実場所に対応する。 Another embodiment of the present disclosure discloses a system capable of displaying a virtual environment to a user, and the virtual environment is constructed based on a real environment and a plurality of first images captured from a reality presentation device. The system is a reality presentation device, an image capture module configured to capture a second image from a real environment, and an initial virtual position when a specific application of the reality presentation device is started. And a step of constructing a virtual environment corresponding to the real environment according to the plurality of first images, the reality presenting apparatus including a display screen configured to display the virtual environment from the viewpoint of the plurality of first images. A remote computing device configured to perform the step of calculating an initial virtual position in the virtual environment corresponding to the second image according to the image and the second image, wherein the initial virtual position is Corresponds to the initial physical location in the physical environment capturing the second image.

本発明の上記及び他の目的が、様々な図表及び図面に例示される好適な実施例の下記詳細な説明を読んだ当業者に疑いなく明らかになるであろう。 These and other objects of the invention will no doubt become apparent to those skilled in the art upon reading the following detailed description of the preferred embodiments illustrated in the various charts and drawings.

本開示の実施例による現実感提示装置の概略図である。1 is a schematic diagram of a reality presentation device according to an embodiment of the present disclosure. 図1に示される現実感提示装置の外観図である。It is an external view of the reality presentation apparatus shown by FIG. 本開示の実施例による処理の概略図である。FIG. 7 is a schematic diagram of a process according to an embodiment of the present disclosure. 本開示の実施例によるシステムの概略図である。1 is a schematic diagram of a system according to an embodiment of the present disclosure.

図1は、本開示の実施例による現実感提示装置(reality presenting device)10の機能ブロック図である。図2は、現実感提示装置10の例示的な外観図である。現実感提示装置10は、仮想現実(virtual reality;VR)装置、拡張現実(augmented reality;AR)装置、複合現実(mixed reality;MR)装置、又は拡大現実(extended reality;XR)装置でもよい。従来技術における現実感提示装置と異なり、現実感提示装置10は、仮想環境を単に構築することに追加で、現実の環境における現実の場所に対応する仮想環境における仮想位置を計算することができる。現実感提示装置10は、画像捕捉モジュール12、処理ユニット14、及び表示画面16を含む。画像捕捉モジュール12は、レンズ及び光感知画素アレイを含んでもよく、画像を捕捉するように構成される。画像捕捉モジュール12により生成される画像は、2次元(2D)画像、例えばRGB画像、及び/又は、赤外線(IR)を介して取得できる深度情報を含む3次元(3D)画像を含んでもよい。処理ユニット14は、例えば、アプリケーションプロセッサ、マイクロコントローラ、又は特定用途向け集積回路(ASIC)でもよく、これらに限定されない。表示画面は、ユーザ/プレーヤに対する現実感又は仮想環境を表示するように構成される。 FIG. 1 is a functional block diagram of a reality presenting device 10 according to an embodiment of the present disclosure. FIG. 2 is an exemplary external view of the reality presentation device 10. The reality presentation device 10 may be a virtual reality (VR) device, an augmented reality (AR) device, a mixed reality (MR) device, or an extended reality (XR) device. Unlike the reality presentation device in the related art, the reality presentation device 10 can calculate a virtual position in the virtual environment corresponding to a real place in the real environment in addition to simply constructing the virtual environment. The reality presentation device 10 includes an image capturing module 12, a processing unit 14, and a display screen 16. The image capture module 12 may include a lens and a light sensitive pixel array and is configured to capture an image. The images produced by the image capture module 12 may include two-dimensional (2D) images, such as RGB images, and/or three-dimensional (3D) images that include depth information that can be acquired via infrared (IR). The processing unit 14 may be, for example, without limitation, an application processor, a microcontroller, or an application specific integrated circuit (ASIC). The display screen is configured to display a sense of reality or virtual environment for the user/player.

図3は、本発明の実施例による処理30の概略図である。処理30は以下のステップを含む。 FIG. 3 is a schematic diagram of a process 30 according to an embodiment of the invention. The process 30 includes the following steps.

ステップ302:現実環境の複数の第1の画像を捕捉する。 Step 302: Capture a plurality of first images of the real environment.

ステップ304:複数の第1の画像に従って現実環境に対応する仮想環境を構築する。 Step 304: Build a virtual environment corresponding to the real environment according to the plurality of first images.

ステップ306:現実環境の第2の画像を捕捉する。 Step 306: Capture a second image of the real environment.

ステップ308:複数の第1の画像及び第2の画像に従って、第2の画像に対応する仮想環境における初期仮想位置を計算する。 Step 308: Calculate an initial virtual position in the virtual environment corresponding to the second image according to the plurality of first images and the second image.

ステップ310:現実感提示装置の特定アプリケーションが開始されるときに初期仮想位置からの視点で仮想環境を表示する。 Step 310: Display a virtual environment from a viewpoint from an initial virtual position when a specific application of the reality presentation device is started.

ステップ302及びステップ304(これらはオフライン段階でもよい)において、画像捕捉モジュール12は、現実環境RENから複数の第1の画像IMGを捕捉し、現実環境RENに対応する仮想環境VENが、複数の第1の画像IMGに基づいて構築される。実施例において、仮想環境VENは、処理ユニット14により構築されてもよい。現実環境RENは、例えば、現実の生活におけるオフィス、リビングルーム、会議室などでもよい。仮想環境VENは、現実感提示装置10により表示される複数のVR画像、例えば、VR360°画像を含んでもよく、それにより、ユーザ/プレーヤが図2に示される現実感提示装置10を装着したとき、ユーザ/プレーヤは複数のVR画像を知覚し、自分が仮想環境VENに没入しているように感じることになる。別の実施例において、複数の第1の画像IMGのうち全部又は一部が、画像捕捉モジュール12とは別のソース、例えば、クラウドデータベース又はインターネットから収集できる。 In step 302 and step 304 (which may be in the offline phase), the image capturing module 12 captures a plurality of first images IMG 1 from the real environment REN, and the virtual environment VEN corresponding to the real environment REN has a plurality of virtual environments VEN. Constructed based on the first image IMG 1 . In the example, the virtual environment VEN may be constructed by the processing unit 14. The real environment REN may be, for example, an office, a living room, a conference room in a real life. The virtual environment VEN may include a plurality of VR images displayed by the reality presentation device 10, for example, VR 360° images, so that when the user/player wears the reality presentation device 10 shown in FIG. The user/player perceives a plurality of VR images and feels as if he/she is immersed in the virtual environment VEN. In another example, all or some of the plurality of first images IMG 1 can be collected from a source other than the image capture module 12, such as a cloud database or the Internet.

実施例において、ユーザ/プレーヤは、現実環境RENを歩き回ってもよく、画像捕捉装置12は、様々なピクチャ、すなわち複数の第1の画像IMGを撮影し、それにより、処理ユニット14は、複数の第1の画像IMGに従って現実環境RENに対応する仮想環境VENを構築することができる。実施例において、ユーザ/プレーヤは、現実環境RENにおける複数の予め定義された場所に立ってもよく、画像捕捉装置12は、異なる視点でピクチャを撮影してもよく、それにより、複数の第1の画像IMGが捕捉される。そして、処理ユニット14は、複数の第1の画像IMGに従って現実環境RENに対応する仮想環境VENを構築することができる。現実環境RENから捕捉された複数の第1の画像IMGに従って現実環境RENに対応する仮想環境VENを構築する詳細は当該分野で知られており、これは簡潔さのため述べられない。 In an embodiment, the user/player may roam the real environment REN and the image capture device 12 captures different pictures, ie a plurality of first images IMG 1 , so that the processing unit 14 makes a plurality of images. The virtual environment VEN corresponding to the real environment REN can be constructed according to the first image IMG 1 of In an embodiment, the user/player may stand in a plurality of predefined locations in the real environment REN and the image capture device 12 may take pictures from different perspectives, thereby providing a plurality of first images. Image IMG 1 of is captured. Then, the processing unit 14 can construct the virtual environment VEN corresponding to the real environment REN according to the plurality of first images IMG 1 . The details of constructing the virtual environment VEN corresponding to the real environment REN according to the plurality of first images IMG 1 captured from the real environment REN are known in the art and are not mentioned for the sake of brevity.

ステップ306において、仮想環境VENが構築された後、画像捕捉モジュール12は現実環境RENの第2の画像IMGを捕捉し、これはリアルタイム段階であり得る。ステップ306は、ユーザ/プレーヤが仮想環境VENに入るのを開始するとき/前、例えば、ユーザ/プレーヤが現実感提示装置10をオンにする(電源オンする)とき、あるいは、特定のソフトウェアアプリケーション、例えば、仮想現実を伴うゲームが開始されるとき/前に実行されてもよい。 In step 306, after the virtual environment VEN is constructed, the image capture module 12 captures the second image IMG 2 of the real environment REN, which may be a real time phase. Step 306 is when/before the user/player starts entering the virtual environment VEN, eg, when the user/player turns on (powers on) the reality presentation device 10, or a particular software application, For example, it may be run when/before the game with virtual reality is started.

ステップ308において、第2の画像IMGに対応する仮想環境VENにおける初期仮想位置VPが、複数の第1の画像IMG及び第2の画像IMGに従って計算される。 In step 308, an initial virtual position VP I in a virtual environment VEN corresponding to the second image IMG 2 is calculated according to a plurality of first image IMG 1 and the second image IMG 2.

実施例において、ステップ308は処理ユニット14により実行されてもよい。 In an embodiment, step 308 may be performed by processing unit 14.

ステップ308の詳細は当該分野で知られている。例えば、第2の画像IMGを複数の第1の画像IMGと比較することが実行されてもよく、複数の第1の画像IMGの、第2の画像IMGに対する複数の相関係数cが取得されてもよい。 Details of step 308 are known in the art. For example, comparing the second image IMG 2 with the plurality of first images IMG 1 may be performed, wherein a plurality of correlation coefficients of the plurality of first images IMG 1 with the second image IMG 2. c may be acquired.

例えば、複数の第1の画像IMGは、第1の画像IMG1,1、・・・、IMG1,Nを含んでもよく、複数の相関係数cは、相関係数c、・・・、cを含んでもよい。各相関係数cは、第2の画像IMG及び/に対する第1の画像IMG1,nの、定量化された相関を表す。相関係数cがより高いほど、第1の画像IMG1,nと第2の画像IMGとの間の相関がより大きい。すなわち、相関係数cがより高いことは、第1の画像IMG1,nと第2の画像IMGとがより相関していることを示す。 For example, the plurality of first images IMG 1 may include the first images IMG 1,1 ,..., IMG 1,N , and the plurality of correlation coefficients c are the correlation coefficients c 1 ,... ., c N may be included. Each correlation coefficient c n represents a quantified correlation of the first image IMG 1,n with respect to the second image IMG 2 and/or. The higher the correlation coefficient c n, greater correlation between the first image IMG 1, n and the second image IMG 2 is. That is, it is a higher correlation coefficient c n indicates that the first image IMG 1, n and the second image IMG 2 is more correlated.

複数の相関係数cを取得する詳細は限定されない。例えば、複数の第1の画像IMGに対しての、及び同様に第2の画像IMGに対しての特徴抽出演算(feature extraction operation)が実行されてもよい。当該分野で知られる特徴抽出演算には特徴識別及び出現数累算を含む。特定の特徴について、特定の特徴が、特定の幾何学形状に従っているとして識別されてもよい。特定の特徴が画像内に出現するかどうか(すなわち、特徴識別)が決定されてもよく、さらに、特定の特徴が画像内に何回出現するか(すなわち、出現数累算)が累算されてもよい。累算結果は、特定の特徴の出現回数又は出現数である。具体的に、特定の特徴が画像内に出現するかどうかを決定することは、画像内の画像の一部又は画像オブジェクトが特定の幾何学形状に従うかどうかを決定することでもよく、これは、何らかの機械学習又はコンピュータビジョン方法を使用することにより達成されてもよい。これらがする場合、特定の特徴が1回出現したと認識される。 The details of acquiring the plurality of correlation coefficients c are not limited. For example, a feature extraction operation may be performed on the plurality of first images IMG 1 and also on the second image IMG 2 . Feature extraction operations known in the art include feature identification and appearance count accumulation. For a particular feature, the particular feature may be identified as following a particular geometry. It may be determined whether a particular feature occurs in the image (ie, feature identification), and how many times the particular feature appears in the image (ie, cumulative count) is accumulated. May be. The accumulation result is the number of appearances or the number of appearances of a particular feature. Specifically, determining whether a particular feature appears in an image may also be determining whether a portion of the image in the image or an image object conforms to a particular geometry, which It may be achieved by using some machine learning or computer vision method. If these do, it is recognized that the particular feature has occurred once.

別の視点において、複数の特徴に関しての特徴識別(すなわち、或る特徴が画像内に出現するかどうかを決定するための)及び出現数累算(すなわち、或る特徴が画像内に何回出現するかを累算するための)が、定量化ベクトルを取得するために実行されてもよい。定量化ベクトルは、複数の特徴に対応する複数の出現数を含む。例えば、画像上の第1の特徴、第2の特徴、及び第3の特徴に対する特徴識別及び出現数累算を実行した後、画像に対応する定量化ベクトルが取得されてもよい。定量化ベクトルは、例えば、[2,3,1]であり得る。これは、第1の特徴が画像内に2回出現し、第2の特徴が画像内に3回出現し、第1の特徴が画像内に1回出現することを意味する。例示的に、第1の特徴は円形形状に従ってもよく、第2の特徴は三角形形状に従ってもよく、第3の特徴は長方形形状に従ってもよい。 In another aspect, feature identification (ie, to determine if a feature appears in an image) and cumulative number of occurrences (ie, how many times a feature appears in an image) for multiple features. May be performed to obtain the quantification vector. The quantification vector includes a plurality of occurrence numbers corresponding to a plurality of features. For example, the quantification vector corresponding to the image may be obtained after performing the feature identification and the cumulative number of appearances for the first feature, the second feature, and the third feature on the image. The quantification vector can be, for example, [2,3,1]. This means that the first feature appears twice in the image, the second feature appears three times in the image, and the first feature appears once in the image. Illustratively, the first feature may follow a circular shape, the second feature may follow a triangular shape, and the third feature may follow a rectangular shape.

特徴抽出演算の詳細は当該分野で知られており、これは簡潔さのためここで述べられない。 Details of the feature extraction operation are known in the art and are not mentioned here for the sake of brevity.

手短に言えば、複数の特徴、例えばK個の特徴に関して、特徴抽出演算が複数の第1の画像IMGに対して実行されて複数の第1の定量化ベクトルQVを取得してもよく、これはオフラインで行うことができ、さらに、第2の画像IMGに対して特徴抽出演算を実行して第2の定量化ベクトルQVを取得し、これはリアルタイムで行うことができる。 Briefly, for a plurality of features, for example K features, a feature extraction operation may be performed on the plurality of first images IMG 1 to obtain a plurality of first quantification vectors QV 1. , this can be done off-line, further, the second acquired quantification vector QV 2 running feature extraction operation on the second image IMG 2, which can be done in real time.

具体的に、複数の第1の定量化ベクトルQVは、第1の画像IMG1,1、・・・、IMG1,Nに対応する第1の定量化ベクトルQV1,1、・・・、QV1,nを含んでもよく、各々の第1の定量化ベクトルQV1,nは、K個の特徴に対応する複数の出現数appnn,1、・・・、appnn,Kを含み、出現数appnn,kは、特徴kが第1の画像IMG1,n内にappnn,k回出現することを示す。数学的に、第1の定量化ベクトルQVは、QV1,n=[appnn,1,・・・,appnn,K]として表されてもよい。 Specifically, the plurality of first quantification vectors QV 1, are the first quantification vectors QV 1,1 ,... Corresponding to the first images IMG 1,1 ,..., IMG 1,N. , QV 1,n , each first quantification vector QV 1,n including a plurality of occurrences appn n,1 ,...,Appn n,K corresponding to K features. , The number of appearances appn n,k indicates that the feature k appears appn n,k times in the first image IMG 1,n . Mathematically, the first quantification vector QV 1 may be represented as QV 1,n =[appn n,1 ,..., Appn n,K ].

同様に、第2の定量化ベクトルQVは、K個の特徴に対応する複数の出現数apn、・・・、apnを含み、QV=[apn1,・・・,apn]と表すことができ、出現数apnは、特徴kが第2の画像IMG内にapn回出現することを示す。 Similarly, the second quantification vector QV 2 includes a plurality of appearance numbers apn 1 ,..., Apn K corresponding to K features, and QV 2 =[apn 1, ..., Apn K ]. The number of appearances apn k indicates that the feature k appears apn k times in the second image IMG 2 .

実施例において、第1の画像IMG1,1、・・・、IMG1,Nに対応する相関係数c、・・・、cが計算されてもよい。実施例において、第2の画像IMG及び/に対する第1の画像IMG1,nの間の相関係数cは、c=(QV1,n ・QV)/(|QV1,n|・|QV|)として計算されてもよく、(・)は転置演算であり、|・|はノルム演算である。相関係数cがより大きいほど、第1の画像IMG1,nと第2の画像IMGとはより相関している。 In the example, the correlation coefficients c 1 ,..., C N corresponding to the first images IMG 1,1 ,..., IMG 1,N may be calculated. In an embodiment, the correlation coefficients c n between the first image IMG 1, n for the second image IMG 2 and / is, c n = (QV 1, n T · QV 2) / (| QV 1, n |·|QV 2 |), where (·) T is the transpose operation and |·| is the norm operation. The larger the correlation coefficient c n Gayori, the first image IMG 1, n and the second image IMG 2 are more correlated.

実施例において、第1の画像IMG1,1、・・・、IMG1,N内の少なくとも一のフィルタされた画像IMGが選択される。フィルタされた画像IMGは、フィルタされた画像IMGに対応する少なくとも一のフィルタされた相関係数cが特定の閾TH値より大きい(例えば、相関係数cが0.8より大きい)ように選択され、フィルタされた画像IMGは、仮想環境VENにおける少なくとも一の仮想位置VPに対応し、仮想位置VPは、現実感提示装置10がフィルタされた画像IMGを捕捉する現実環境RENにおける少なくとも一の現実場所に対応する。 In an embodiment, at least one filtered image IMG k in the first images IMG 1,1 ,..., IMG 1,N is selected. The filtered image IMG k has at least one filtered correlation coefficient c k corresponding to the filtered image IMG k greater than a certain threshold TH value (eg, the correlation coefficient c k is greater than 0.8). ) Selected and filtered image IMG k corresponds to at least one virtual position VP k in the virtual environment VEN, which virtual position VP k captures the filtered image IMG k by the reality presentation device 10. Corresponds to at least one real place in the real environment REN.

さらに、1つの特定のフィルタされた画像IMG がフィルタされた画像IMGの中から選択され、特定のフィルタされた画像IMG に対応する特定の仮想位置VP が計算される。仮想位置VP は、現実感提示装置10又は画像捕捉モジュール12が第1の画像IMG を捕捉する現実環境RENにおける現実場所RL に対応する。さらに、(仮想位置VP内の)仮想位置VP に相対する相対仮想位置RVP が、(フィルタされた画像IMG内の)特定のフィルタされた画像IMG 及び第2の画像IMGに従って計算される。特定のフィルタされた画像IMG 及び第2の画像IMGに従い、特定のフィルタされた画像IMG に対応する相対仮想位置RVP が計算される。フィルタされた画像IMGから特定のフィルタされた画像IMG を選択することは、インライア(inliers)の数及びアウトライア(outlier)の数を数え、比較することにより達成でき、これに限定されない。相対仮想位置RVP を計算することは当該分野で知られており、これは簡潔さのためここで述べられない。ゆえに、初期仮想位置VPIは、VPI=VP +RVP として計算されてもよい。 Furthermore, one particular filter image IMG k * is selected from the image IMG k the filtered, the specific virtual position VP k * corresponding to the particular filter image IMG k * is computed. The virtual position VP k * corresponds to the real location RL k * in the real environment REN where the reality presentation device 10 or the image capture module 12 captures the first image IMG k * . Furthermore, the relative virtual position RVP k * relative to the virtual position VP k * (in the virtual position VP * ) is determined by the specific filtered image IMG k * and the second image (in the filtered image IMG * ). Calculated according to IMG 2 . According image IMG k * and the second image IMG 2 specified filter, the relative virtual positions RVP k * corresponding to the particular filter image IMG k * is computed. Selecting a particular filter image IMG k * from the filtered image IMG k counts the number of number and outliers (outlier) of inliers (inliers), can be achieved by comparison, but not limited to .. Computing the relative virtual position RVP k * is known in the art and is not mentioned here for the sake of brevity. Therefore, the initial virtual position VP I may be calculated as VP I =VP k * +RVP k * .

別の実施例において、第1の画像IMG1,1、・・・、IMG1,N内のフィルタされた画像IMG を取得してもよく、フィルタされた画像IMG に対応する相関係数c が相関係数c、・・・、cの中の最大相関係数であるように、取得されてもよい。具体的に、相関係数c、・・・、cが計算された後、処理ユニット14は、相関係数c、・・・、cに対してソート演算を実行し、相関係数c が相関係数c、・・・、cの最大値であるように相関係数c を選択してもよく、すなわち、相関係数c は、c =max(c,・・・,c)として表されてもよい。手短に言えば、相関係数c に対応するフィルタされた画像IMG が取得でき、フィルタされた画像IMG は、第1の画像IMG1,1、・・・、IMG1,Nの中で第2の画像IMGに対して最も相関している第1の画像である。 In another example, the filtered image IMG n * in the first image IMG 1,1 ,..., IMG 1,N may be obtained and the phase corresponding to the filtered image IMG n *. correlation coefficients c n * correlation coefficients c 1, · · ·, as is the maximum correlation coefficient in the c n, it may be obtained. Specifically, after the correlation coefficients c 1, · · ·, c N is calculated, the processing unit 14 performs a sort operation on the correlation coefficients c 1, · · ·, c N, correlation The correlation coefficient c n * may be chosen such that the number c n * is the maximum of the correlation coefficients c 1 ,..., C N , ie the correlation coefficient c n * is c n *. =max(c 1 ,..., C N ). Briefly, a filtered image IMG n * corresponding to the correlation coefficient c n * can be obtained and the filtered image IMG n * is the first image IMG 1,1 ,..., IMG 1, It is the first image of N which is the most correlated with the second image IMG 2 .

別の視点において、第1の画像IMG に対応する/従った仮想環境VENにおける仮想位置VP が取得されてもよい。仮想位置VP は、現実感提示装置10又は画像捕捉モジュール12が第1の画像IMG を捕捉する現実環境RENにおける現実場所RL に対応する。処理ユニット14が仮想位置VP を取得する方法は限定されない。実施例において、ユーザ/プレーヤは予め定義された現実場所RL’に立ってもよく、現実場所RL’に対応する仮想位置VP’が計算されてもよい。現実場所RL’で捕捉された第1の画像IMG が最も第2の画像IMGに相関した第1の画像である場合、仮想位置VP が仮想位置VP’として取得される。 In another perspective, the virtual position VP n * in the virtual environment VEN corresponding/following the first image IMG n * may be obtained. The virtual position VP n * corresponds to the real location RL n * in the real environment REN where the reality presentation device 10 or the image capture module 12 captures the first image IMG n * . The method by which the processing unit 14 acquires the virtual position VP n * is not limited. In an embodiment, the user/player may stand at a predefined physical location RL′ and a virtual position VP′ corresponding to the physical location RL′ may be calculated. If the first image IMG n * captured at the real location RL′ is the first image most correlated with the second image IMG 2 , the virtual position VP n * is acquired as the virtual position VP′.

第2の画像IMGに対応する仮想環境VENにおける初期仮想位置VPが、第1の画像IMG 及び第2の画像IMGに従って計算されてもよい。初期仮想位置VPを計算する方法は限定されない。実施例において、仮想位置VP に関連した相対仮想位置RVPが、第1の画像IMG 及び第2の画像IMGに従って計算されてもよく、さらに、仮想位置VP 及び相対仮想位置RVPに従って初期仮想位置VPを計算する。仮想位置VP 、相対仮想位置RVP、及び初期仮想位置VPがベクトル形式で表され、2D空間における座標を表すと仮定し、初期仮想位置VPは、VP=VP +RVPとして表されてもよい。 Initial virtual position VP I in a virtual environment VEN corresponding to the second image IMG 2 may be calculated in accordance with the first image IMG n * and the second image IMG 2. The method of calculating the initial virtual position VP I is not limited. In an example, the relative virtual position RVP associated with the virtual position VP n * may be calculated according to the first image IMG n * and the second image IMG 2 , and further the virtual position VP n * and the relative virtual position. Calculate the initial virtual position VP I according to RVP. Assuming that the virtual position VP n * , the relative virtual position RVP, and the initial virtual position VP I are represented in a vector format and represent coordinates in 2D space, the initial virtual position VP I is represented as VP I =VP n * +RVP. May be done.

換言すると、ユーザ/プレーヤが現実環境RENにおいてどこに位置するとしても、現実感提示装置10は、現実環境RENにおける現実場所に対応する仮想環境VENにおける仮想位置を取得することができる。 In other words, no matter where the user/player is located in the real environment REN, the reality presentation device 10 can acquire the virtual position in the virtual environment VEN corresponding to the real place in the real environment REN.

ユーザ/プレーヤが現実環境RENに対応する仮想環境VENを伴うゲームをプレーする実施例において、ユーザ/プレーヤは、現実環境RENにおいて任意の所で現実感提示装置10を電源オンすることができ、処理ユニット14は、ユーザ/プレーヤ及び現実感提示装置10が位置する現実場所RLに対応する初期仮想位置VPを計算することになる。現実感提示装置10は、初期仮想位置VPに従ってVR360°画像を生成してもよく、それにより、ユーザ/プレーヤは、仮想環境VENにおける初期仮想位置VPからの視点を見ることになり、これは、現実環境RENにおける現実場所RLからの視点と同様(又は同一)である。 In the embodiment where the user/player plays a game with a virtual environment VEN corresponding to the real environment REN, the user/player can power on the reality presentation device 10 anywhere in the real environment REN, The unit 14 will calculate an initial virtual position VP I corresponding to the physical location RL where the user/player and the reality presentation device 10 are located. The reality presenting device 10 may generate a VR360° image according to the initial virtual position VP I , so that the user/player sees the viewpoint from the initial virtual position VP I in the virtual environment VEN, Is the same (or the same) as the viewpoint from the real place RL in the real environment REN.

ステップ310において、表示画面16は、ユーザ/プレーヤが特定のソフトウェアアプリケーションを開始したときに、初期仮想位置VPからの視点で、仮想環境VENを表示する。特定のソフトウェアアプリケーションは、仮想現実を伴うゲームでもよい。換言すると、表示画面16は、初期仮想位置VPの視点における仮想環境VENに対応する複数のVR画像を表示してもよい。初期仮想位置VPは、現実感提示装置10又は画像捕捉モジュール12が第2の画像IMGを捕捉する現実環境RENにおける現実場所RLに対応する。ユーザ/プレーヤが特定のソフトウェアアプリケーションを開始したとき、ユーザ/プレーヤは仮想環境VENの複数のVR画像を知覚することになり、ユーザ/プレーヤは仮想環境VENに没入し、ちょうど自分が現実環境RENにおける現実場所RLにいるように仮想環境VENを体験する。 In step 310, the display screen 16 displays the virtual environment VEN from the perspective of the initial virtual position VP I when the user/player starts a particular software application. The particular software application may be a game involving virtual reality. In other words, the display screen 16 may display a plurality of VR images corresponding to the virtual environment VEN at the viewpoint of the initial virtual position VP I. The initial virtual position VP I corresponds to the physical location RL I in the physical environment REN at which the reality presentation device 10 or the image capture module 12 captures the second image IMG 2 . When a user/player launches a particular software application, the user/player will perceive multiple VR images of the virtual environment VEN and the user/player will be immersed in the virtual environment VEN, just as if in the real environment REN. to experience the virtual environment VEN like being in the real place RL I.

処理30を実行することにより、ユーザ/プレーヤにより体験される仮想環境VENと現実環境RENとの間に有意な差が存在しない。ゆえに、ユーザ/プレーヤにより体験される没入感がさらに強化される。 By performing the process 30, there is no significant difference between the virtual environment VEN experienced by the user/player and the real environment REN. Therefore, the immersive experience experienced by the user/player is further enhanced.

上記で述べられた実施例は、とりわけ、本発明の概念を例示するために利用される。当業者は、このことに応じて及び本明細書で限定されない修正及び変更を行うことができる。例えば、処理30は、現実感提示装置10により単に実行されてもよい。すなわち、ステップ304及びステップ308は、現実感提示装置10の処理ユニット14により実行されてもよく、これはここで限定されない。処理30は、システムにより実行されてもよい。 The embodiments described above are used, inter alia, to illustrate the inventive concept. Persons of ordinary skill in the art may make modifications and variations accordingly and not limited herein. For example, the process 30 may simply be executed by the reality presentation device 10. That is, step 304 and step 308 may be executed by the processing unit 14 of the reality presentation device 10, and this is not limited here. Process 30 may be performed by the system.

図4は、本開示の実施例によるシステム41の概略図である。システム41は、現実感提示装置40及びリモートコンピューティング装置43を含む。現実感提示装置40及びリモートコンピューティング装置43は、無線接続又は無線インターフェースを通して接続されてもよい。現実感提示装置40は、画像捕捉モジュール42及び表示画面46を含む。リモートコンピューティング装置43は、クラウドコンピューティング装置、エッジコンピューティング装置、又はクラウドコンピューティング装置及びエッジコンピューティング装置の組み合わせでもよく、これらは、コンピュータ又はサーバでもよい。処理30はシステム41により実行されてもよく、その場合、ステップ302及びステップ306は画像捕捉モジュール42により実行されてもよく、ステップ304及びステップ308はリモートコンピューティング装置43により実行されてもよく、ステップ310は表示画面46により実行されてもよく、このこともまた本開示の範囲内である。 FIG. 4 is a schematic diagram of a system 41 according to an embodiment of the present disclosure. The system 41 includes a reality presentation device 40 and a remote computing device 43. The reality presentation device 40 and the remote computing device 43 may be connected via a wireless connection or a wireless interface. The reality presentation device 40 includes an image capturing module 42 and a display screen 46. The remote computing device 43 may be a cloud computing device, an edge computing device, or a combination of cloud computing devices and edge computing devices, which may be computers or servers. Process 30 may be performed by system 41, in which case steps 302 and 306 may be performed by image capture module 42 and steps 304 and 308 may be performed by remote computing device 43. Step 310 may be performed by display screen 46, which is also within the scope of this disclosure.

要約すると、本開示は、ユーザ/プレーヤ及び現実感提示装置が位置する現実の場所に対応する初期仮想位置を計算することができる。従来技術と比較して、ユーザ/プレーヤは、現実の環境における任意の現実の場所で仮想環境を伴うゲームを開始することができる。ユーザ/プレーヤにより体験される仮想環境VENと現実環境RENとの間に有意な差がない。ゆえに、ユーザ/プレーヤにより体験される没入感がさらに強化される。 In summary, the present disclosure can calculate an initial virtual position that corresponds to the actual location where the user/player and the reality presentation device are located. Compared to the prior art, the user/player can start a game with a virtual environment at any real place in the real environment. There is no significant difference between the virtual environment VEN experienced by the user/player and the real environment REN. Therefore, the immersive experience experienced by the user/player is further enhanced.

当業者は、本発明の教示を保有する間、装置及び方法についての多数の修正及び変更がなされ得ることを容易に観察するであろう。したがって、上記開示は、別記の請求項の範囲及び境界によってのみ限定されるとみなされるべきである。 One of ordinary skill in the art will readily observe that numerous modifications and variations to the apparatus and method may be made while retaining the teachings of the invention. Accordingly, the above disclosure should be construed as limited only by the metes and bounds of the appended claims.

Claims (18)

現実環境の複数の第1の画像を収集し、前記複数の第1の画像に従って前記現実環境に対応する仮想環境を構築するステップと、
現実感提示装置により、前記現実環境の第2の画像を取得するステップと、
前記複数の第1の画像及び前記第2の画像に従って、前記第2の画像に対応する前記仮想環境における初期仮想位置を計算するステップと、
前記現実感提示装置により、前記現実感提示装置の特定アプリケーションが開始されるときに前記初期仮想位置からの視点で前記仮想環境を表示するステップと、
を含み、
前記初期仮想位置は、前記現実感提示装置が前記第2の画像を捕捉する前記現実環境における初期現実場所に対応する、測位方法。
Collecting a plurality of first images of the real environment and constructing a virtual environment corresponding to the real environment according to the plurality of first images;
Acquiring a second image of the real environment with a reality presentation device;
Calculating an initial virtual position in the virtual environment corresponding to the second image according to the plurality of first images and the second image;
A step of displaying the virtual environment from the viewpoint from the initial virtual position when the specific application of the reality presentation device is started by the reality presentation device;
Including,
The positioning method, wherein the initial virtual position corresponds to an initial physical location in the physical environment in which the reality presentation device captures the second image.
前記第2の画像を前記複数の第1の画像と比較し、前記第2の画像に対する前記複数の第1の画像の複数の相関係数を取得するステップと、
前記複数の第1の画像内の少なくとも一のフィルタされた画像を、前記少なくとも一のフィルタされた画像に対応する少なくとも一のフィルタされた相関係数が特定の閾値より大きいように、取得するステップであって、前記少なくとも一のフィルタされた画像は、前記仮想環境における少なくとも一の仮想位置に対応し、前記少なくとも一の仮想位置は、前記現実感提示装置が前記少なくとも一のフィルタされた画像を捕捉する前記現実環境における少なくとも一の現実場所に対応する、ステップと、
前記少なくとも一のフィルタされた画像及び前記第2の画像に従って前記初期仮想位置を計算するステップと、
をさらに含む請求項1に記載の測位方法。
Comparing the second image with the plurality of first images to obtain a plurality of correlation coefficients of the plurality of first images with respect to the second image;
Obtaining at least one filtered image in the plurality of first images such that at least one filtered correlation coefficient corresponding to the at least one filtered image is greater than a certain threshold. The at least one filtered image corresponds to at least one virtual position in the virtual environment, and the at least one virtual position is the at least one filtered image for the reality presentation device. Corresponding to at least one real location in the real environment to capture, and
Calculating the initial virtual position according to the at least one filtered image and the second image;
The positioning method according to claim 1, further comprising:
前記第2の画像を前記複数の第1の画像と比較し、前記第2の画像に対する前記複数の第1の画像の複数の相関係数を取得するステップは、
前記複数の第1の画像に対応する複数の第1の定量化ベクトルを取得するステップと、
前記第2の画像に対応する第2の定量化ベクトルを取得するステップと、
前記第2の定量化ベクトルに対する前記複数の第1の定量化ベクトルの複数の第1の相関係数を計算するステップと、
前記複数の相関係数を前記複数の第1の相関係数として取得するステップと、
を含む、請求項2に記載の測位方法。
Comparing the second image with the plurality of first images and obtaining a plurality of correlation coefficients of the plurality of first images with respect to the second image,
Obtaining a plurality of first quantification vectors corresponding to the plurality of first images;
Obtaining a second quantification vector corresponding to the second image;
Calculating a plurality of first correlation coefficients of the plurality of first quantification vectors with respect to the second quantification vector;
Obtaining the plurality of correlation coefficients as the plurality of first correlation coefficients,
The positioning method according to claim 2, further comprising:
前記複数の第1の画像に対応する複数の第1の定量化ベクトルを取得するステップは、
前記複数の第1の画像に対して特徴抽出演算を実行して前記複数の第1の定量化ベクトルを取得するステップ、を含み、
前記複数の第1の画像内の第1の画像に対応する定量化ベクトルは、前記第1の画像内の複数の特徴に対応する複数の出現数を示す、請求項3に記載の測位方法。
Obtaining a plurality of first quantification vectors corresponding to the plurality of first images,
Performing a feature extraction operation on the plurality of first images to obtain the plurality of first quantification vectors,
The positioning method according to claim 3, wherein the quantification vector corresponding to the first image in the plurality of first images indicates a plurality of appearance numbers corresponding to the plurality of features in the first image.
前記第2の画像に対応する第2の定量化ベクトルを取得するステップは、
前記第2の画像に対して特徴抽出演算を実行して前記第2の定量化ベクトルを取得するステップ、を含み、
前記第2の定量化ベクトルは、前記第2の画像内の複数の特徴に対応する複数の出現数を示す、請求項3に記載の測位方法。
Acquiring a second quantification vector corresponding to the second image,
Performing a feature extraction operation on the second image to obtain the second quantification vector,
The positioning method according to claim 3, wherein the second quantification vector indicates a plurality of appearance numbers corresponding to a plurality of features in the second image.
前記少なくとも一のフィルタされた画像及び前記第2の画像に従って、前記仮想環境における前記第2の画像に対応する前記初期仮想位置を計算するステップは、
前記少なくとも一のフィルタされた画像及び前記第2の画像に従って、前記少なくとも一の仮想位置内の仮想位置に関連した相対仮想位置を計算するステップと、
前記仮想位置及び前記相対仮想位置に従って前記第2の画像に対応する前記初期仮想位置を計算するステップと、
を含む、請求項2に記載の測位方法。
Calculating the initial virtual position corresponding to the second image in the virtual environment according to the at least one filtered image and the second image,
Calculating a relative virtual position associated with a virtual position within the at least one virtual position according to the at least one filtered image and the second image;
Calculating the initial virtual position corresponding to the second image according to the virtual position and the relative virtual position;
The positioning method according to claim 2, further comprising:
ユーザに対する仮想環境を表示できる現実感提示装置であって、前記仮想環境は、現実環境から捕捉された複数の第1の画像に基づいて構築され、当該現実感提示装置は、
前記現実環境から第2の画像を捕捉するように構成された画像捕捉モジュールと、
前記複数の第1の画像に従って前記現実環境に対応する前記仮想環境を構築するステップ、及び
前記複数の第1の画像及び前記第2の画像に従って前記第2の画像に対応する前記仮想環境における初期仮想位置を計算するステップ
を実行するように構成された処理ユニットと、
当該現実感提示装置の特定アプリケーションが開始されるときに前記初期仮想位置からの視点で前記仮想環境を表示するように構成された表示画面と、を含み、
前記初期仮想位置は、当該現実感提示装置が前記第2の画像を捕捉する前記現実環境における初期現実場所に対応する、現実感提示装置。
A reality presentation device capable of displaying a virtual environment for a user, wherein the virtual environment is constructed based on a plurality of first images captured from the real environment, and the reality presentation device comprises:
An image capture module configured to capture a second image from the real environment;
Constructing the virtual environment corresponding to the real environment according to the plurality of first images, and initializing in the virtual environment corresponding to the second image according to the plurality of first images and the second images A processing unit configured to perform the step of calculating a virtual position,
A display screen configured to display the virtual environment from the viewpoint from the initial virtual position when a specific application of the reality presentation device is started,
The reality presentation device, wherein the initial virtual position corresponds to an initial reality location in the real environment in which the reality presentation device captures the second image.
前記処理ユニットは、
前記第2の画像を前記複数の第1の画像と比較し、前記第2の画像に対する前記複数の第1の画像の複数の相関係数を取得するステップと、
前記複数の第1の画像内の少なくとも一のフィルタされた画像を、前記少なくとも一のフィルタされた画像に対応する少なくとも一のフィルタされた相関係数が特定の閾値より大きいように、取得するステップであって、前記少なくとも一のフィルタされた画像は、前記仮想環境における少なくとも一の仮想位置に対応し、前記少なくとも一の仮想位置は、前記現実感提示装置が前記少なくとも一のフィルタされた画像を捕捉する前記現実環境における少なくとも一の現実場所に対応する、ステップと、
前記少なくとも一のフィルタされた画像及び前記第2の画像に従って前記初期仮想位置を計算するステップと、
を実行するようにさらに構成される、請求項7に記載の現実感提示装置。
The processing unit is
Comparing the second image with the plurality of first images to obtain a plurality of correlation coefficients of the plurality of first images with respect to the second image;
Obtaining at least one filtered image in the plurality of first images such that at least one filtered correlation coefficient corresponding to the at least one filtered image is greater than a certain threshold. The at least one filtered image corresponds to at least one virtual position in the virtual environment, and the at least one virtual position is the at least one filtered image for the reality presentation device. Corresponding to at least one real location in the real environment to capture, and
Calculating the initial virtual position according to the at least one filtered image and the second image;
The reality presentation device according to claim 7, further configured to perform.
前記処理ユニットは、前記第2の画像を前記複数の第1の画像と比較し、前記第2の画像に対する前記複数の第1の画像の複数の相関係数を取得するために、
前記複数の第1の画像に対応する複数の第1の定量化ベクトルを取得するステップと、
前記第2の画像に対応する第2の定量化ベクトルを取得するステップと、
前記第2の定量化ベクトルに対する前記複数の第1の定量化ベクトルの複数の第1の相関係数を計算するステップと、
前記複数の相関係数を前記複数の第1の相関係数として取得するステップと、
を実行するようにさらに構成される、請求項8に記載の現実感提示装置。
The processing unit compares the second image with the plurality of first images to obtain a plurality of correlation coefficients of the plurality of first images with respect to the second image;
Obtaining a plurality of first quantification vectors corresponding to the plurality of first images;
Obtaining a second quantification vector corresponding to the second image;
Calculating a plurality of first correlation coefficients of the plurality of first quantification vectors with respect to the second quantification vector;
Obtaining the plurality of correlation coefficients as the plurality of first correlation coefficients,
The reality presentation device according to claim 8, further configured to perform.
前記処理ユニットは、前記複数の第1の画像に対応する複数の第1の定量化ベクトルを取得するために、
前記複数の第1の画像に対して特徴抽出演算を実行して前記複数の第1の定量化ベクトルを取得するステップ、を実行するようにさらに構成され、
前記複数の第1の画像内の第1の画像に対応する定量化ベクトルは、前記第1の画像内の複数の特徴に対応する複数の出現数を示す、請求項9に記載の現実感提示装置。
The processing unit obtains a plurality of first quantification vectors corresponding to the plurality of first images;
Performing a feature extraction operation on the plurality of first images to obtain the plurality of first quantification vectors, the method further comprising:
The realism presentation according to claim 9, wherein the quantification vector corresponding to the first image in the plurality of first images indicates a plurality of appearance numbers corresponding to the plurality of features in the first image. apparatus.
前記処理ユニットは、前記第2の画像に対応する第2の定量化ベクトルを取得するために、
前記第2の画像に対して特徴抽出演算を実行して前記第2の定量化ベクトルを取得するステップ、を実行するようにさらに構成され、
前記第2の定量化ベクトルは、前記第2の画像内の複数の特徴に対応する複数の出現数を示す、請求項9に記載の現実感提示装置。
The processing unit obtains a second quantification vector corresponding to the second image;
Performing a feature extraction operation on the second image to obtain the second quantification vector, the method further comprising:
The reality presentation device according to claim 9, wherein the second quantification vector indicates a plurality of appearance numbers corresponding to a plurality of features in the second image.
前記処理ユニットは、前記少なくとも一のフィルタされた画像及び前記第2の画像に従って、前記仮想環境における前記第2の画像に対応する前記初期仮想位置を計算するために、
前記少なくとも一のフィルタされた画像及び前記第2の画像に従って、前記少なくとも一の仮想位置内の仮想位置に関連した相対仮想位置を計算するステップと、
前記仮想位置及び前記相対仮想位置に従って前記第2の画像に対応する前記初期仮想位置を計算するステップと、
を実行するようにさらに構成される、請求項8に記載の現実感提示装置。
The processing unit calculates the initial virtual position corresponding to the second image in the virtual environment according to the at least one filtered image and the second image;
Calculating a relative virtual position associated with a virtual position within the at least one virtual position according to the at least one filtered image and the second image;
Calculating the initial virtual position corresponding to the second image according to the virtual position and the relative virtual position;
The reality presentation device according to claim 8, further configured to perform.
ユーザに対する仮想環境を表示できるシステムであって、前記仮想環境は、現実環境から捕捉された複数の第1の画像に基づいて構築され、当該システムは、
現実感提示装置であって、
前記現実環境から第2の画像を捕捉するように構成された画像捕捉モジュール、及び、
前記現実感提示装置の特定アプリケーションが開始されるときに初期仮想位置からの視点で前記仮想環境を表示するように構成された表示画面、
を含む現実感提示装置と、
前記複数の第1の画像に従って前記現実環境に対応する前記仮想環境を構築するステップ、及び、
前記複数の第1の画像及び前記第2の画像に従って前記第2の画像に対応する前記仮想環境における前記初期仮想位置を計算するステップ
を実行するように構成されたリモートコンピューティング装置と、を含み、
前記初期仮想位置は、前記現実感提示装置が前記第2の画像を捕捉する前記現実環境における初期現実場所に対応する、システム。
A system capable of displaying a virtual environment for a user, the virtual environment being constructed based on a plurality of first images captured from a real environment, the system comprising:
A reality presentation device,
An image capture module configured to capture a second image from the real environment, and
A display screen configured to display the virtual environment from a viewpoint from an initial virtual position when a specific application of the reality presentation device is started,
A reality presenting device including
Constructing the virtual environment corresponding to the real environment according to the plurality of first images; and
A remote computing device configured to perform the step of calculating the initial virtual position in the virtual environment corresponding to the second image according to the plurality of first images and the second image. ,
The initial virtual position corresponds to an initial physical location in the physical environment in which the reality presentation device captures the second image.
前記リモートコンピューティング装置は、
前記第2の画像を前記複数の第1の画像と比較し、前記第2の画像に対する前記複数の第1の画像の複数の相関係数を取得するステップと、
前記複数の第1の画像内の少なくとも一のフィルタされた画像を、前記少なくとも一のフィルタされた画像に対応する少なくとも一のフィルタされた相関係数が特定の閾値より大きいように、取得するステップであって、前記少なくとも一のフィルタされた画像は、前記仮想環境における少なくとも一の仮想位置に対応し、前記少なくとも一の仮想位置は、前記現実感提示装置が前記少なくとも一のフィルタされた画像を捕捉する前記現実環境における少なくとも一の現実場所に対応する、ステップと、
前記少なくとも一のフィルタされた画像及び前記第2の画像に従って前記初期仮想位置を計算するステップと、
を実行するようにさらに構成される、請求項13に記載のシステム。
The remote computing device is
Comparing the second image with the plurality of first images to obtain a plurality of correlation coefficients of the plurality of first images with respect to the second image;
Obtaining at least one filtered image in the plurality of first images such that at least one filtered correlation coefficient corresponding to the at least one filtered image is greater than a certain threshold. Where the at least one filtered image corresponds to at least one virtual position in the virtual environment, the at least one virtual position being the at least one filtered image by the reality presentation device. Corresponding to at least one real location in the real environment to capture, and
Calculating the initial virtual position according to the at least one filtered image and the second image;
14. The system of claim 13, further configured to perform.
前記リモートコンピューティング装置は、前記第2の画像を前記複数の第1の画像と比較し、前記第2の画像に対する前記複数の第1の画像の複数の相関係数を取得するために、
前記複数の第1の画像に対応する複数の第1の定量化ベクトルを取得するステップと、
前記第2の画像に対応する第2の定量化ベクトルを取得するステップと、
前記第2の定量化ベクトルに対する前記複数の第1の定量化ベクトルの複数の第1の相関係数を計算するステップと、
前記複数の相関係数を前記複数の第1の相関係数として取得するステップと、
を実行するようにさらに構成される、請求項14に記載のシステム。
The remote computing device compares the second image with the plurality of first images and obtains a plurality of correlation coefficients of the plurality of first images with respect to the second image,
Obtaining a plurality of first quantification vectors corresponding to the plurality of first images;
Obtaining a second quantification vector corresponding to the second image;
Calculating a plurality of first correlation coefficients of the plurality of first quantification vectors with respect to the second quantification vector;
Obtaining the plurality of correlation coefficients as the plurality of first correlation coefficients,
15. The system of claim 14, further configured to perform.
前記リモートコンピューティング装置は、前記複数の第1の画像に対応する複数の第1の定量化ベクトルを取得するために、
前記複数の第1の画像に対して特徴抽出演算を実行して前記複数の第1の定量化ベクトルを取得するステップ、を実行するようにさらに構成され、
前記複数の第1の画像内の第1の画像に対応する定量化ベクトルは、前記第1の画像内の複数の特徴に対応する複数の出現数を示す、請求項15に記載のシステム。
The remote computing device obtains a plurality of first quantification vectors corresponding to the plurality of first images;
Performing a feature extraction operation on the plurality of first images to obtain the plurality of first quantification vectors, the method further comprising:
The system of claim 15, wherein the quantification vector corresponding to a first image in the plurality of first images indicates a plurality of occurrences corresponding to a plurality of features in the first image.
前記リモートコンピューティング装置は、前記第2の画像に対応する第2の定量化ベクトルを取得するために、
前記第2の画像に対して特徴抽出演算を実行して前記第2の定量化ベクトルを取得するステップ、を実行するようにさらに構成され、
前記第2の定量化ベクトルは、前記第2の画像内の複数の特徴に対応する複数の出現数を示す、請求項15に記載のシステム。
The remote computing device obtains a second quantification vector corresponding to the second image;
Performing a feature extraction operation on the second image to obtain the second quantification vector, the method further comprising:
The system of claim 15, wherein the second quantification vector indicates a plurality of occurrences corresponding to a plurality of features in the second image.
前記リモートコンピューティング装置は、前記少なくとも一のフィルタされた画像及び前記第2の画像に従って、前記仮想環境における前記第2の画像に対応する前記初期仮想位置を計算するために、
前記少なくとも一のフィルタされた画像及び前記第2の画像に従って、前記少なくとも一の仮想位置内の仮想位置に関連した相対仮想位置を計算するステップと、
前記仮想位置及び前記相対仮想位置に従って前記第2の画像に対応する前記初期仮想位置を計算するステップと、
を実行するようにさらに構成される、請求項14に記載のシステム。
The remote computing device calculates, according to the at least one filtered image and the second image, the initial virtual position corresponding to the second image in the virtual environment;
Calculating a relative virtual position associated with a virtual position within the at least one virtual position according to the at least one filtered image and the second image;
Calculating the initial virtual position corresponding to the second image according to the virtual position and the relative virtual position;
15. The system of claim 14, further configured to perform.
JP2018235246A 2018-12-17 2018-12-17 Positioning method and reality presentation apparatus Pending JP2020098381A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018235246A JP2020098381A (en) 2018-12-17 2018-12-17 Positioning method and reality presentation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018235246A JP2020098381A (en) 2018-12-17 2018-12-17 Positioning method and reality presentation apparatus

Publications (1)

Publication Number Publication Date
JP2020098381A true JP2020098381A (en) 2020-06-25

Family

ID=71106848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018235246A Pending JP2020098381A (en) 2018-12-17 2018-12-17 Positioning method and reality presentation apparatus

Country Status (1)

Country Link
JP (1) JP2020098381A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017227975A (en) * 2016-06-20 2017-12-28 株式会社Cygames System for creating mixed reality environment
WO2018031621A1 (en) * 2016-08-11 2018-02-15 Magic Leap, Inc. Automatic placement of a virtual object in a three-dimensional space
WO2018064627A1 (en) * 2016-09-30 2018-04-05 Sony Interactive Entertainment Inc. Wireless head mounted display with differential rendering and sound localization
WO2018116790A1 (en) * 2016-12-22 2018-06-28 株式会社Cygames Inconsistency detection system, mixed reality system, program, and inconsistency detection method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017227975A (en) * 2016-06-20 2017-12-28 株式会社Cygames System for creating mixed reality environment
WO2018031621A1 (en) * 2016-08-11 2018-02-15 Magic Leap, Inc. Automatic placement of a virtual object in a three-dimensional space
WO2018064627A1 (en) * 2016-09-30 2018-04-05 Sony Interactive Entertainment Inc. Wireless head mounted display with differential rendering and sound localization
WO2018116790A1 (en) * 2016-12-22 2018-06-28 株式会社Cygames Inconsistency detection system, mixed reality system, program, and inconsistency detection method

Similar Documents

Publication Publication Date Title
JP6644833B2 (en) System and method for rendering augmented reality content with albedo model
US10460512B2 (en) 3D skeletonization using truncated epipolar lines
CN107340870B (en) Virtual reality display system fusing VR and AR and implementation method thereof
CN109615703B (en) Augmented reality image display method, device and equipment
US20190371072A1 (en) Static occluder
US9654734B1 (en) Virtual conference room
CN108282648B (en) VR rendering method and device, wearable device and readable storage medium
JP7423683B2 (en) image display system
Tomioka et al. Approximated user-perspective rendering in tablet-based augmented reality
CN111448568B (en) Environment-based application presentation
KR20170031733A (en) Technologies for adjusting a perspective of a captured image for display
CN112950751B (en) Gesture action display method and device, storage medium and system
KR20170134513A (en) How to Display an Object
CN111679742A (en) Interaction control method and device based on AR, electronic equipment and storage medium
CN109840946B (en) Virtual object display method and device
Khattak et al. A real-time reconstructed 3D environment augmented with virtual objects rendered with correct occlusion
CN113795863A (en) Processing of depth maps for images
CN112905014A (en) Interaction method and device in AR scene, electronic equipment and storage medium
US20200184675A1 (en) Positioning Method and Reality Presenting Device
CN109426336A (en) A kind of virtual reality auxiliary type selecting equipment
JP2020098381A (en) Positioning method and reality presentation apparatus
EP3506629A1 (en) Multi-camera display
EP3671658A1 (en) Positioning method and reality presenting device
KR20220083552A (en) Method for estimating and correcting 6 DoF of multiple objects of wearable AR device and AR service method using the same
CN111354087A (en) Positioning method and reality presentation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200525

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201027