JP2020098381A - Positioning method and reality presentation apparatus - Google Patents
Positioning method and reality presentation apparatus Download PDFInfo
- Publication number
- JP2020098381A JP2020098381A JP2018235246A JP2018235246A JP2020098381A JP 2020098381 A JP2020098381 A JP 2020098381A JP 2018235246 A JP2018235246 A JP 2018235246A JP 2018235246 A JP2018235246 A JP 2018235246A JP 2020098381 A JP2020098381 A JP 2020098381A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- virtual position
- environment
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本開示は、測位方法及び現実感提示装置に関し、より詳細には、現実の場所に対応する初期仮想位置を計算できる測位方法及び現実感提示装置に関する。 The present disclosure relates to a positioning method and a reality presentation device, and more particularly to a positioning method and a reality presentation device that can calculate an initial virtual position corresponding to a real place.
技術の進化及び発展により、コンピュータゲーム及びユーザの間の対話の需要は増加している。人間‐コンピュータ対話技術、例えば、体性感覚ゲーム、仮想現実(VR)環境、拡張現実(AR)環境、複合現実(MR)環境、及び拡大現実(XR)環境は、その生理学的及び娯楽的機能のため人気となっている。 As technology evolves and develops, the demand for interaction between computer games and users is increasing. Human-computer interaction techniques, such as somatosensory games, virtual reality (VR) environments, augmented reality (AR) environments, mixed reality (MR) environments, and augmented reality (XR) environments, have their physiological and entertainment functions. It has become popular because of it.
ユーザ又はプレーヤは、仮想環境においてゲームをプレーすることがあり、仮想環境は、現実環境をエミュレートするように構築されることがある。従来技術では、現実環境をエミュレートする仮想環境を伴うゲームについて、ユーザ/プレーヤは、ゲームを開始するために予め定義された場所にとどまる必要があり、これは、ユーザ/プレーヤに対して不便をもたらす。すなわち、ユーザ/プレーヤは、現実環境において任意の現実の場所でゲームを開始することができず、ユーザ/プレーヤは、自分が望む任意の場所でゲームを開始する自分の自由を失っている。 A user or player may play a game in a virtual environment, which may be constructed to emulate a real environment. In the prior art, for games involving virtual environments that emulate real-world environments, the user/player has to stay in a predefined location to start the game, which is inconvenient for the user/player. Bring That is, the user/player is unable to start the game anywhere in the real environment, and the user/player is losing his freedom to start the game anywhere he wants.
ゆえに、本開示の目的は、測位(positioning)方法及び現実感提示装置を提供することである。 Therefore, an object of the present disclosure is to provide a positioning method and a reality presentation device.
本開示の実施例は、測位方法を開示する。測位方法は、現実環境の複数の第1の画像を収集し、複数の第1の画像に従って現実環境に対応する仮想環境を構築するステップと、現実感提示装置により、現実環境の第2の画像を取得するステップと、複数の第1の画像及び第2の画像に従って、第2の画像に対応する仮想環境における初期仮想位置を計算するステップと、現実感提示装置により、現実感提示装置の特定アプリケーションが開始されるときに初期仮想位置からの視点で仮想環境を表示するステップとを含み、初期仮想位置は、現実感提示装置が第2の画像を捕捉する現実環境における初期現実場所に対応する。 The embodiment of the present disclosure discloses a positioning method. The positioning method includes a step of collecting a plurality of first images of the real environment and constructing a virtual environment corresponding to the real environment according to the plurality of first images, and a second image of the real environment by the reality presentation device. And calculating the initial virtual position in the virtual environment corresponding to the second image according to the plurality of first images and the second image, and specifying the reality presentation device by the reality presentation device. Displaying the virtual environment from the perspective of the initial virtual position when the application is started, the initial virtual position corresponding to the initial physical location in the physical environment in which the reality presentation device captures the second image. ..
本開示の別の実施例は、ユーザに対する仮想環境を表示できる現実感提示装置を開示し、仮想環境は、現実環境、現実感提示装置から捕捉された複数の第1の画像に基づいて構築される。当該現実感提示装置は、現実環境から第2の画像を捕捉するように構成された画像捕捉モジュールと、複数の第1の画像に従って現実環境に対応する仮想環境を構築するステップ、及び複数の第1の画像及び第2の画像に従って第2の画像に対応する仮想環境における初期仮想位置を計算するステップを実行するように構成された処理ユニットと、当該現実感提示装置の特定アプリケーションが開始されるときに初期仮想位置からの視点で仮想環境を表示するように構成された表示画面とを含み、初期仮想位置は、当該現実感提示装置が第2の画像を捕捉する現実環境における初期現実場所に対応する。 Another embodiment of the present disclosure discloses a reality presentation device capable of displaying a virtual environment for a user, and the virtual environment is constructed based on the real environment and a plurality of first images captured from the reality presentation device. It The reality presentation device includes an image capturing module configured to capture a second image from the real environment, a step of constructing a virtual environment corresponding to the real environment according to the plurality of first images, and a plurality of first image capture modules. A processing unit configured to perform a step of calculating an initial virtual position in a virtual environment corresponding to the second image according to the first image and the second image, and a specific application of the reality presentation device are started. And a display screen configured to display the virtual environment from the viewpoint from the initial virtual position, the initial virtual position being the initial physical location in the physical environment in which the reality presentation device captures the second image. Correspond.
本開示の別の実施例は、ユーザに対する仮想環境を表示できるシステムを開示し、仮想環境は、現実環境、現実感提示装置から捕捉された複数の第1の画像に基づいて構築される。当該システムは、現実感提示装置であって、現実環境から第2の画像を捕捉するように構成された画像捕捉モジュール、及び、現実感提示装置の特定アプリケーションが開始されるときに初期仮想位置からの視点で仮想環境を表示するように構成された表示画面、を含む現実感提示装置と、複数の第1の画像に従って現実環境に対応する仮想環境を構築するステップ、及び、複数の第1の画像及び第2の画像に従って第2の画像に対応する仮想環境における初期仮想位置を計算するステップを実行するように構成されたリモートコンピューティング装置とを含み、初期仮想位置は、現実感提示装置が第2の画像を捕捉する現実環境における初期現実場所に対応する。 Another embodiment of the present disclosure discloses a system capable of displaying a virtual environment to a user, and the virtual environment is constructed based on a real environment and a plurality of first images captured from a reality presentation device. The system is a reality presentation device, an image capture module configured to capture a second image from a real environment, and an initial virtual position when a specific application of the reality presentation device is started. And a step of constructing a virtual environment corresponding to the real environment according to the plurality of first images, the reality presenting apparatus including a display screen configured to display the virtual environment from the viewpoint of the plurality of first images. A remote computing device configured to perform the step of calculating an initial virtual position in the virtual environment corresponding to the second image according to the image and the second image, wherein the initial virtual position is Corresponds to the initial physical location in the physical environment capturing the second image.
本発明の上記及び他の目的が、様々な図表及び図面に例示される好適な実施例の下記詳細な説明を読んだ当業者に疑いなく明らかになるであろう。 These and other objects of the invention will no doubt become apparent to those skilled in the art upon reading the following detailed description of the preferred embodiments illustrated in the various charts and drawings.
図1は、本開示の実施例による現実感提示装置(reality presenting device)10の機能ブロック図である。図2は、現実感提示装置10の例示的な外観図である。現実感提示装置10は、仮想現実(virtual reality;VR)装置、拡張現実(augmented reality;AR)装置、複合現実(mixed reality;MR)装置、又は拡大現実(extended reality;XR)装置でもよい。従来技術における現実感提示装置と異なり、現実感提示装置10は、仮想環境を単に構築することに追加で、現実の環境における現実の場所に対応する仮想環境における仮想位置を計算することができる。現実感提示装置10は、画像捕捉モジュール12、処理ユニット14、及び表示画面16を含む。画像捕捉モジュール12は、レンズ及び光感知画素アレイを含んでもよく、画像を捕捉するように構成される。画像捕捉モジュール12により生成される画像は、2次元(2D)画像、例えばRGB画像、及び/又は、赤外線(IR)を介して取得できる深度情報を含む3次元(3D)画像を含んでもよい。処理ユニット14は、例えば、アプリケーションプロセッサ、マイクロコントローラ、又は特定用途向け集積回路(ASIC)でもよく、これらに限定されない。表示画面は、ユーザ/プレーヤに対する現実感又は仮想環境を表示するように構成される。
FIG. 1 is a functional block diagram of a reality presenting
図3は、本発明の実施例による処理30の概略図である。処理30は以下のステップを含む。
FIG. 3 is a schematic diagram of a
ステップ302:現実環境の複数の第1の画像を捕捉する。 Step 302: Capture a plurality of first images of the real environment.
ステップ304:複数の第1の画像に従って現実環境に対応する仮想環境を構築する。 Step 304: Build a virtual environment corresponding to the real environment according to the plurality of first images.
ステップ306:現実環境の第2の画像を捕捉する。 Step 306: Capture a second image of the real environment.
ステップ308:複数の第1の画像及び第2の画像に従って、第2の画像に対応する仮想環境における初期仮想位置を計算する。 Step 308: Calculate an initial virtual position in the virtual environment corresponding to the second image according to the plurality of first images and the second image.
ステップ310:現実感提示装置の特定アプリケーションが開始されるときに初期仮想位置からの視点で仮想環境を表示する。 Step 310: Display a virtual environment from a viewpoint from an initial virtual position when a specific application of the reality presentation device is started.
ステップ302及びステップ304(これらはオフライン段階でもよい)において、画像捕捉モジュール12は、現実環境RENから複数の第1の画像IMG1を捕捉し、現実環境RENに対応する仮想環境VENが、複数の第1の画像IMG1に基づいて構築される。実施例において、仮想環境VENは、処理ユニット14により構築されてもよい。現実環境RENは、例えば、現実の生活におけるオフィス、リビングルーム、会議室などでもよい。仮想環境VENは、現実感提示装置10により表示される複数のVR画像、例えば、VR360°画像を含んでもよく、それにより、ユーザ/プレーヤが図2に示される現実感提示装置10を装着したとき、ユーザ/プレーヤは複数のVR画像を知覚し、自分が仮想環境VENに没入しているように感じることになる。別の実施例において、複数の第1の画像IMG1のうち全部又は一部が、画像捕捉モジュール12とは別のソース、例えば、クラウドデータベース又はインターネットから収集できる。
In
実施例において、ユーザ/プレーヤは、現実環境RENを歩き回ってもよく、画像捕捉装置12は、様々なピクチャ、すなわち複数の第1の画像IMG1を撮影し、それにより、処理ユニット14は、複数の第1の画像IMG1に従って現実環境RENに対応する仮想環境VENを構築することができる。実施例において、ユーザ/プレーヤは、現実環境RENにおける複数の予め定義された場所に立ってもよく、画像捕捉装置12は、異なる視点でピクチャを撮影してもよく、それにより、複数の第1の画像IMG1が捕捉される。そして、処理ユニット14は、複数の第1の画像IMG1に従って現実環境RENに対応する仮想環境VENを構築することができる。現実環境RENから捕捉された複数の第1の画像IMG1に従って現実環境RENに対応する仮想環境VENを構築する詳細は当該分野で知られており、これは簡潔さのため述べられない。
In an embodiment, the user/player may roam the real environment REN and the
ステップ306において、仮想環境VENが構築された後、画像捕捉モジュール12は現実環境RENの第2の画像IMG2を捕捉し、これはリアルタイム段階であり得る。ステップ306は、ユーザ/プレーヤが仮想環境VENに入るのを開始するとき/前、例えば、ユーザ/プレーヤが現実感提示装置10をオンにする(電源オンする)とき、あるいは、特定のソフトウェアアプリケーション、例えば、仮想現実を伴うゲームが開始されるとき/前に実行されてもよい。
In
ステップ308において、第2の画像IMG2に対応する仮想環境VENにおける初期仮想位置VPIが、複数の第1の画像IMG1及び第2の画像IMG2に従って計算される。
In
実施例において、ステップ308は処理ユニット14により実行されてもよい。
In an embodiment,
ステップ308の詳細は当該分野で知られている。例えば、第2の画像IMG2を複数の第1の画像IMG1と比較することが実行されてもよく、複数の第1の画像IMG1の、第2の画像IMG2に対する複数の相関係数cが取得されてもよい。
Details of
例えば、複数の第1の画像IMG1は、第1の画像IMG1,1、・・・、IMG1,Nを含んでもよく、複数の相関係数cは、相関係数c1、・・・、cNを含んでもよい。各相関係数cnは、第2の画像IMG2及び/に対する第1の画像IMG1,nの、定量化された相関を表す。相関係数cnがより高いほど、第1の画像IMG1,nと第2の画像IMG2との間の相関がより大きい。すなわち、相関係数cnがより高いことは、第1の画像IMG1,nと第2の画像IMG2とがより相関していることを示す。 For example, the plurality of first images IMG 1 may include the first images IMG 1,1 ,..., IMG 1,N , and the plurality of correlation coefficients c are the correlation coefficients c 1 ,... ., c N may be included. Each correlation coefficient c n represents a quantified correlation of the first image IMG 1,n with respect to the second image IMG 2 and/or. The higher the correlation coefficient c n, greater correlation between the first image IMG 1, n and the second image IMG 2 is. That is, it is a higher correlation coefficient c n indicates that the first image IMG 1, n and the second image IMG 2 is more correlated.
複数の相関係数cを取得する詳細は限定されない。例えば、複数の第1の画像IMG1に対しての、及び同様に第2の画像IMG2に対しての特徴抽出演算(feature extraction operation)が実行されてもよい。当該分野で知られる特徴抽出演算には特徴識別及び出現数累算を含む。特定の特徴について、特定の特徴が、特定の幾何学形状に従っているとして識別されてもよい。特定の特徴が画像内に出現するかどうか(すなわち、特徴識別)が決定されてもよく、さらに、特定の特徴が画像内に何回出現するか(すなわち、出現数累算)が累算されてもよい。累算結果は、特定の特徴の出現回数又は出現数である。具体的に、特定の特徴が画像内に出現するかどうかを決定することは、画像内の画像の一部又は画像オブジェクトが特定の幾何学形状に従うかどうかを決定することでもよく、これは、何らかの機械学習又はコンピュータビジョン方法を使用することにより達成されてもよい。これらがする場合、特定の特徴が1回出現したと認識される。 The details of acquiring the plurality of correlation coefficients c are not limited. For example, a feature extraction operation may be performed on the plurality of first images IMG 1 and also on the second image IMG 2 . Feature extraction operations known in the art include feature identification and appearance count accumulation. For a particular feature, the particular feature may be identified as following a particular geometry. It may be determined whether a particular feature occurs in the image (ie, feature identification), and how many times the particular feature appears in the image (ie, cumulative count) is accumulated. May be. The accumulation result is the number of appearances or the number of appearances of a particular feature. Specifically, determining whether a particular feature appears in an image may also be determining whether a portion of the image in the image or an image object conforms to a particular geometry, which It may be achieved by using some machine learning or computer vision method. If these do, it is recognized that the particular feature has occurred once.
別の視点において、複数の特徴に関しての特徴識別(すなわち、或る特徴が画像内に出現するかどうかを決定するための)及び出現数累算(すなわち、或る特徴が画像内に何回出現するかを累算するための)が、定量化ベクトルを取得するために実行されてもよい。定量化ベクトルは、複数の特徴に対応する複数の出現数を含む。例えば、画像上の第1の特徴、第2の特徴、及び第3の特徴に対する特徴識別及び出現数累算を実行した後、画像に対応する定量化ベクトルが取得されてもよい。定量化ベクトルは、例えば、[2,3,1]であり得る。これは、第1の特徴が画像内に2回出現し、第2の特徴が画像内に3回出現し、第1の特徴が画像内に1回出現することを意味する。例示的に、第1の特徴は円形形状に従ってもよく、第2の特徴は三角形形状に従ってもよく、第3の特徴は長方形形状に従ってもよい。 In another aspect, feature identification (ie, to determine if a feature appears in an image) and cumulative number of occurrences (ie, how many times a feature appears in an image) for multiple features. May be performed to obtain the quantification vector. The quantification vector includes a plurality of occurrence numbers corresponding to a plurality of features. For example, the quantification vector corresponding to the image may be obtained after performing the feature identification and the cumulative number of appearances for the first feature, the second feature, and the third feature on the image. The quantification vector can be, for example, [2,3,1]. This means that the first feature appears twice in the image, the second feature appears three times in the image, and the first feature appears once in the image. Illustratively, the first feature may follow a circular shape, the second feature may follow a triangular shape, and the third feature may follow a rectangular shape.
特徴抽出演算の詳細は当該分野で知られており、これは簡潔さのためここで述べられない。 Details of the feature extraction operation are known in the art and are not mentioned here for the sake of brevity.
手短に言えば、複数の特徴、例えばK個の特徴に関して、特徴抽出演算が複数の第1の画像IMG1に対して実行されて複数の第1の定量化ベクトルQV1を取得してもよく、これはオフラインで行うことができ、さらに、第2の画像IMG2に対して特徴抽出演算を実行して第2の定量化ベクトルQV2を取得し、これはリアルタイムで行うことができる。 Briefly, for a plurality of features, for example K features, a feature extraction operation may be performed on the plurality of first images IMG 1 to obtain a plurality of first quantification vectors QV 1. , this can be done off-line, further, the second acquired quantification vector QV 2 running feature extraction operation on the second image IMG 2, which can be done in real time.
具体的に、複数の第1の定量化ベクトルQV1は、第1の画像IMG1,1、・・・、IMG1,Nに対応する第1の定量化ベクトルQV1,1、・・・、QV1,nを含んでもよく、各々の第1の定量化ベクトルQV1,nは、K個の特徴に対応する複数の出現数appnn,1、・・・、appnn,Kを含み、出現数appnn,kは、特徴kが第1の画像IMG1,n内にappnn,k回出現することを示す。数学的に、第1の定量化ベクトルQV1は、QV1,n=[appnn,1,・・・,appnn,K]として表されてもよい。 Specifically, the plurality of first quantification vectors QV 1, are the first quantification vectors QV 1,1 ,... Corresponding to the first images IMG 1,1 ,..., IMG 1,N. , QV 1,n , each first quantification vector QV 1,n including a plurality of occurrences appn n,1 ,...,Appn n,K corresponding to K features. , The number of appearances appn n,k indicates that the feature k appears appn n,k times in the first image IMG 1,n . Mathematically, the first quantification vector QV 1 may be represented as QV 1,n =[appn n,1 ,..., Appn n,K ].
同様に、第2の定量化ベクトルQV2は、K個の特徴に対応する複数の出現数apn1、・・・、apnKを含み、QV2=[apn1,・・・,apnK]と表すことができ、出現数apnkは、特徴kが第2の画像IMG2内にapnk回出現することを示す。 Similarly, the second quantification vector QV 2 includes a plurality of appearance numbers apn 1 ,..., Apn K corresponding to K features, and QV 2 =[apn 1, ..., Apn K ]. The number of appearances apn k indicates that the feature k appears apn k times in the second image IMG 2 .
実施例において、第1の画像IMG1,1、・・・、IMG1,Nに対応する相関係数c1、・・・、cNが計算されてもよい。実施例において、第2の画像IMG2及び/に対する第1の画像IMG1,nの間の相関係数cnは、cn=(QV1,n T・QV2)/(|QV1,n|・|QV2|)として計算されてもよく、(・)Tは転置演算であり、|・|はノルム演算である。相関係数cnがより大きいほど、第1の画像IMG1,nと第2の画像IMG2とはより相関している。 In the example, the correlation coefficients c 1 ,..., C N corresponding to the first images IMG 1,1 ,..., IMG 1,N may be calculated. In an embodiment, the correlation coefficients c n between the first image IMG 1, n for the second image IMG 2 and / is, c n = (QV 1, n T · QV 2) / (| QV 1, n |·|QV 2 |), where (·) T is the transpose operation and |·| is the norm operation. The larger the correlation coefficient c n Gayori, the first image IMG 1, n and the second image IMG 2 are more correlated.
実施例において、第1の画像IMG1,1、・・・、IMG1,N内の少なくとも一のフィルタされた画像IMGkが選択される。フィルタされた画像IMGkは、フィルタされた画像IMGkに対応する少なくとも一のフィルタされた相関係数ckが特定の閾TH値より大きい(例えば、相関係数ckが0.8より大きい)ように選択され、フィルタされた画像IMGkは、仮想環境VENにおける少なくとも一の仮想位置VPkに対応し、仮想位置VPkは、現実感提示装置10がフィルタされた画像IMGkを捕捉する現実環境RENにおける少なくとも一の現実場所に対応する。
In an embodiment, at least one filtered image IMG k in the first images IMG 1,1 ,..., IMG 1,N is selected. The filtered image IMG k has at least one filtered correlation coefficient c k corresponding to the filtered image IMG k greater than a certain threshold TH value (eg, the correlation coefficient c k is greater than 0.8). ) Selected and filtered image IMG k corresponds to at least one virtual position VP k in the virtual environment VEN, which virtual position VP k captures the filtered image IMG k by the
さらに、1つの特定のフィルタされた画像IMGk *がフィルタされた画像IMGkの中から選択され、特定のフィルタされた画像IMGk *に対応する特定の仮想位置VPk *が計算される。仮想位置VPk *は、現実感提示装置10又は画像捕捉モジュール12が第1の画像IMGk *を捕捉する現実環境RENにおける現実場所RLk *に対応する。さらに、(仮想位置VP*内の)仮想位置VPk *に相対する相対仮想位置RVPk *が、(フィルタされた画像IMG*内の)特定のフィルタされた画像IMGk *及び第2の画像IMG2に従って計算される。特定のフィルタされた画像IMGk *及び第2の画像IMG2に従い、特定のフィルタされた画像IMGk *に対応する相対仮想位置RVPk *が計算される。フィルタされた画像IMGkから特定のフィルタされた画像IMGk *を選択することは、インライア(inliers)の数及びアウトライア(outlier)の数を数え、比較することにより達成でき、これに限定されない。相対仮想位置RVPk *を計算することは当該分野で知られており、これは簡潔さのためここで述べられない。ゆえに、初期仮想位置VPIは、VPI=VPk *+RVPk *として計算されてもよい。
Furthermore, one particular filter image IMG k * is selected from the image IMG k the filtered, the specific virtual position VP k * corresponding to the particular filter image IMG k * is computed. The virtual position VP k * corresponds to the real location RL k * in the real environment REN where the
別の実施例において、第1の画像IMG1,1、・・・、IMG1,N内のフィルタされた画像IMGn *を取得してもよく、フィルタされた画像IMGn *に対応する相関係数cn *が相関係数c1、・・・、cNの中の最大相関係数であるように、取得されてもよい。具体的に、相関係数c1、・・・、cNが計算された後、処理ユニット14は、相関係数c1、・・・、cNに対してソート演算を実行し、相関係数cn *が相関係数c1、・・・、cNの最大値であるように相関係数cn *を選択してもよく、すなわち、相関係数cn *は、cn *=max(c1,・・・,cN)として表されてもよい。手短に言えば、相関係数cn *に対応するフィルタされた画像IMGn *が取得でき、フィルタされた画像IMGn *は、第1の画像IMG1,1、・・・、IMG1,Nの中で第2の画像IMG2に対して最も相関している第1の画像である。
In another example, the filtered image IMG n * in the first image IMG 1,1 ,..., IMG 1,N may be obtained and the phase corresponding to the filtered image IMG n *. correlation coefficients c n * correlation coefficients c 1, · · ·, as is the maximum correlation coefficient in the c n, it may be obtained. Specifically, after the correlation coefficients c 1, · · ·, c N is calculated, the
別の視点において、第1の画像IMGn *に対応する/従った仮想環境VENにおける仮想位置VPn *が取得されてもよい。仮想位置VPn *は、現実感提示装置10又は画像捕捉モジュール12が第1の画像IMGn *を捕捉する現実環境RENにおける現実場所RLn *に対応する。処理ユニット14が仮想位置VPn *を取得する方法は限定されない。実施例において、ユーザ/プレーヤは予め定義された現実場所RL’に立ってもよく、現実場所RL’に対応する仮想位置VP’が計算されてもよい。現実場所RL’で捕捉された第1の画像IMGn *が最も第2の画像IMG2に相関した第1の画像である場合、仮想位置VPn *が仮想位置VP’として取得される。
In another perspective, the virtual position VP n * in the virtual environment VEN corresponding/following the first image IMG n * may be obtained. The virtual position VP n * corresponds to the real location RL n * in the real environment REN where the
第2の画像IMG2に対応する仮想環境VENにおける初期仮想位置VPIが、第1の画像IMGn *及び第2の画像IMG2に従って計算されてもよい。初期仮想位置VPIを計算する方法は限定されない。実施例において、仮想位置VPn *に関連した相対仮想位置RVPが、第1の画像IMGn *及び第2の画像IMG2に従って計算されてもよく、さらに、仮想位置VPn *及び相対仮想位置RVPに従って初期仮想位置VPIを計算する。仮想位置VPn *、相対仮想位置RVP、及び初期仮想位置VPIがベクトル形式で表され、2D空間における座標を表すと仮定し、初期仮想位置VPIは、VPI=VPn *+RVPとして表されてもよい。 Initial virtual position VP I in a virtual environment VEN corresponding to the second image IMG 2 may be calculated in accordance with the first image IMG n * and the second image IMG 2. The method of calculating the initial virtual position VP I is not limited. In an example, the relative virtual position RVP associated with the virtual position VP n * may be calculated according to the first image IMG n * and the second image IMG 2 , and further the virtual position VP n * and the relative virtual position. Calculate the initial virtual position VP I according to RVP. Assuming that the virtual position VP n * , the relative virtual position RVP, and the initial virtual position VP I are represented in a vector format and represent coordinates in 2D space, the initial virtual position VP I is represented as VP I =VP n * +RVP. May be done.
換言すると、ユーザ/プレーヤが現実環境RENにおいてどこに位置するとしても、現実感提示装置10は、現実環境RENにおける現実場所に対応する仮想環境VENにおける仮想位置を取得することができる。
In other words, no matter where the user/player is located in the real environment REN, the
ユーザ/プレーヤが現実環境RENに対応する仮想環境VENを伴うゲームをプレーする実施例において、ユーザ/プレーヤは、現実環境RENにおいて任意の所で現実感提示装置10を電源オンすることができ、処理ユニット14は、ユーザ/プレーヤ及び現実感提示装置10が位置する現実場所RLに対応する初期仮想位置VPIを計算することになる。現実感提示装置10は、初期仮想位置VPIに従ってVR360°画像を生成してもよく、それにより、ユーザ/プレーヤは、仮想環境VENにおける初期仮想位置VPIからの視点を見ることになり、これは、現実環境RENにおける現実場所RLからの視点と同様(又は同一)である。
In the embodiment where the user/player plays a game with a virtual environment VEN corresponding to the real environment REN, the user/player can power on the
ステップ310において、表示画面16は、ユーザ/プレーヤが特定のソフトウェアアプリケーションを開始したときに、初期仮想位置VPIからの視点で、仮想環境VENを表示する。特定のソフトウェアアプリケーションは、仮想現実を伴うゲームでもよい。換言すると、表示画面16は、初期仮想位置VPIの視点における仮想環境VENに対応する複数のVR画像を表示してもよい。初期仮想位置VPIは、現実感提示装置10又は画像捕捉モジュール12が第2の画像IMG2を捕捉する現実環境RENにおける現実場所RLIに対応する。ユーザ/プレーヤが特定のソフトウェアアプリケーションを開始したとき、ユーザ/プレーヤは仮想環境VENの複数のVR画像を知覚することになり、ユーザ/プレーヤは仮想環境VENに没入し、ちょうど自分が現実環境RENにおける現実場所RLIにいるように仮想環境VENを体験する。
In
処理30を実行することにより、ユーザ/プレーヤにより体験される仮想環境VENと現実環境RENとの間に有意な差が存在しない。ゆえに、ユーザ/プレーヤにより体験される没入感がさらに強化される。
By performing the
上記で述べられた実施例は、とりわけ、本発明の概念を例示するために利用される。当業者は、このことに応じて及び本明細書で限定されない修正及び変更を行うことができる。例えば、処理30は、現実感提示装置10により単に実行されてもよい。すなわち、ステップ304及びステップ308は、現実感提示装置10の処理ユニット14により実行されてもよく、これはここで限定されない。処理30は、システムにより実行されてもよい。
The embodiments described above are used, inter alia, to illustrate the inventive concept. Persons of ordinary skill in the art may make modifications and variations accordingly and not limited herein. For example, the
図4は、本開示の実施例によるシステム41の概略図である。システム41は、現実感提示装置40及びリモートコンピューティング装置43を含む。現実感提示装置40及びリモートコンピューティング装置43は、無線接続又は無線インターフェースを通して接続されてもよい。現実感提示装置40は、画像捕捉モジュール42及び表示画面46を含む。リモートコンピューティング装置43は、クラウドコンピューティング装置、エッジコンピューティング装置、又はクラウドコンピューティング装置及びエッジコンピューティング装置の組み合わせでもよく、これらは、コンピュータ又はサーバでもよい。処理30はシステム41により実行されてもよく、その場合、ステップ302及びステップ306は画像捕捉モジュール42により実行されてもよく、ステップ304及びステップ308はリモートコンピューティング装置43により実行されてもよく、ステップ310は表示画面46により実行されてもよく、このこともまた本開示の範囲内である。
FIG. 4 is a schematic diagram of a
要約すると、本開示は、ユーザ/プレーヤ及び現実感提示装置が位置する現実の場所に対応する初期仮想位置を計算することができる。従来技術と比較して、ユーザ/プレーヤは、現実の環境における任意の現実の場所で仮想環境を伴うゲームを開始することができる。ユーザ/プレーヤにより体験される仮想環境VENと現実環境RENとの間に有意な差がない。ゆえに、ユーザ/プレーヤにより体験される没入感がさらに強化される。 In summary, the present disclosure can calculate an initial virtual position that corresponds to the actual location where the user/player and the reality presentation device are located. Compared to the prior art, the user/player can start a game with a virtual environment at any real place in the real environment. There is no significant difference between the virtual environment VEN experienced by the user/player and the real environment REN. Therefore, the immersive experience experienced by the user/player is further enhanced.
当業者は、本発明の教示を保有する間、装置及び方法についての多数の修正及び変更がなされ得ることを容易に観察するであろう。したがって、上記開示は、別記の請求項の範囲及び境界によってのみ限定されるとみなされるべきである。 One of ordinary skill in the art will readily observe that numerous modifications and variations to the apparatus and method may be made while retaining the teachings of the invention. Accordingly, the above disclosure should be construed as limited only by the metes and bounds of the appended claims.
Claims (18)
現実感提示装置により、前記現実環境の第2の画像を取得するステップと、
前記複数の第1の画像及び前記第2の画像に従って、前記第2の画像に対応する前記仮想環境における初期仮想位置を計算するステップと、
前記現実感提示装置により、前記現実感提示装置の特定アプリケーションが開始されるときに前記初期仮想位置からの視点で前記仮想環境を表示するステップと、
を含み、
前記初期仮想位置は、前記現実感提示装置が前記第2の画像を捕捉する前記現実環境における初期現実場所に対応する、測位方法。 Collecting a plurality of first images of the real environment and constructing a virtual environment corresponding to the real environment according to the plurality of first images;
Acquiring a second image of the real environment with a reality presentation device;
Calculating an initial virtual position in the virtual environment corresponding to the second image according to the plurality of first images and the second image;
A step of displaying the virtual environment from the viewpoint from the initial virtual position when the specific application of the reality presentation device is started by the reality presentation device;
Including,
The positioning method, wherein the initial virtual position corresponds to an initial physical location in the physical environment in which the reality presentation device captures the second image.
前記複数の第1の画像内の少なくとも一のフィルタされた画像を、前記少なくとも一のフィルタされた画像に対応する少なくとも一のフィルタされた相関係数が特定の閾値より大きいように、取得するステップであって、前記少なくとも一のフィルタされた画像は、前記仮想環境における少なくとも一の仮想位置に対応し、前記少なくとも一の仮想位置は、前記現実感提示装置が前記少なくとも一のフィルタされた画像を捕捉する前記現実環境における少なくとも一の現実場所に対応する、ステップと、
前記少なくとも一のフィルタされた画像及び前記第2の画像に従って前記初期仮想位置を計算するステップと、
をさらに含む請求項1に記載の測位方法。 Comparing the second image with the plurality of first images to obtain a plurality of correlation coefficients of the plurality of first images with respect to the second image;
Obtaining at least one filtered image in the plurality of first images such that at least one filtered correlation coefficient corresponding to the at least one filtered image is greater than a certain threshold. The at least one filtered image corresponds to at least one virtual position in the virtual environment, and the at least one virtual position is the at least one filtered image for the reality presentation device. Corresponding to at least one real location in the real environment to capture, and
Calculating the initial virtual position according to the at least one filtered image and the second image;
The positioning method according to claim 1, further comprising:
前記複数の第1の画像に対応する複数の第1の定量化ベクトルを取得するステップと、
前記第2の画像に対応する第2の定量化ベクトルを取得するステップと、
前記第2の定量化ベクトルに対する前記複数の第1の定量化ベクトルの複数の第1の相関係数を計算するステップと、
前記複数の相関係数を前記複数の第1の相関係数として取得するステップと、
を含む、請求項2に記載の測位方法。 Comparing the second image with the plurality of first images and obtaining a plurality of correlation coefficients of the plurality of first images with respect to the second image,
Obtaining a plurality of first quantification vectors corresponding to the plurality of first images;
Obtaining a second quantification vector corresponding to the second image;
Calculating a plurality of first correlation coefficients of the plurality of first quantification vectors with respect to the second quantification vector;
Obtaining the plurality of correlation coefficients as the plurality of first correlation coefficients,
The positioning method according to claim 2, further comprising:
前記複数の第1の画像に対して特徴抽出演算を実行して前記複数の第1の定量化ベクトルを取得するステップ、を含み、
前記複数の第1の画像内の第1の画像に対応する定量化ベクトルは、前記第1の画像内の複数の特徴に対応する複数の出現数を示す、請求項3に記載の測位方法。 Obtaining a plurality of first quantification vectors corresponding to the plurality of first images,
Performing a feature extraction operation on the plurality of first images to obtain the plurality of first quantification vectors,
The positioning method according to claim 3, wherein the quantification vector corresponding to the first image in the plurality of first images indicates a plurality of appearance numbers corresponding to the plurality of features in the first image.
前記第2の画像に対して特徴抽出演算を実行して前記第2の定量化ベクトルを取得するステップ、を含み、
前記第2の定量化ベクトルは、前記第2の画像内の複数の特徴に対応する複数の出現数を示す、請求項3に記載の測位方法。 Acquiring a second quantification vector corresponding to the second image,
Performing a feature extraction operation on the second image to obtain the second quantification vector,
The positioning method according to claim 3, wherein the second quantification vector indicates a plurality of appearance numbers corresponding to a plurality of features in the second image.
前記少なくとも一のフィルタされた画像及び前記第2の画像に従って、前記少なくとも一の仮想位置内の仮想位置に関連した相対仮想位置を計算するステップと、
前記仮想位置及び前記相対仮想位置に従って前記第2の画像に対応する前記初期仮想位置を計算するステップと、
を含む、請求項2に記載の測位方法。 Calculating the initial virtual position corresponding to the second image in the virtual environment according to the at least one filtered image and the second image,
Calculating a relative virtual position associated with a virtual position within the at least one virtual position according to the at least one filtered image and the second image;
Calculating the initial virtual position corresponding to the second image according to the virtual position and the relative virtual position;
The positioning method according to claim 2, further comprising:
前記現実環境から第2の画像を捕捉するように構成された画像捕捉モジュールと、
前記複数の第1の画像に従って前記現実環境に対応する前記仮想環境を構築するステップ、及び
前記複数の第1の画像及び前記第2の画像に従って前記第2の画像に対応する前記仮想環境における初期仮想位置を計算するステップ
を実行するように構成された処理ユニットと、
当該現実感提示装置の特定アプリケーションが開始されるときに前記初期仮想位置からの視点で前記仮想環境を表示するように構成された表示画面と、を含み、
前記初期仮想位置は、当該現実感提示装置が前記第2の画像を捕捉する前記現実環境における初期現実場所に対応する、現実感提示装置。 A reality presentation device capable of displaying a virtual environment for a user, wherein the virtual environment is constructed based on a plurality of first images captured from the real environment, and the reality presentation device comprises:
An image capture module configured to capture a second image from the real environment;
Constructing the virtual environment corresponding to the real environment according to the plurality of first images, and initializing in the virtual environment corresponding to the second image according to the plurality of first images and the second images A processing unit configured to perform the step of calculating a virtual position,
A display screen configured to display the virtual environment from the viewpoint from the initial virtual position when a specific application of the reality presentation device is started,
The reality presentation device, wherein the initial virtual position corresponds to an initial reality location in the real environment in which the reality presentation device captures the second image.
前記第2の画像を前記複数の第1の画像と比較し、前記第2の画像に対する前記複数の第1の画像の複数の相関係数を取得するステップと、
前記複数の第1の画像内の少なくとも一のフィルタされた画像を、前記少なくとも一のフィルタされた画像に対応する少なくとも一のフィルタされた相関係数が特定の閾値より大きいように、取得するステップであって、前記少なくとも一のフィルタされた画像は、前記仮想環境における少なくとも一の仮想位置に対応し、前記少なくとも一の仮想位置は、前記現実感提示装置が前記少なくとも一のフィルタされた画像を捕捉する前記現実環境における少なくとも一の現実場所に対応する、ステップと、
前記少なくとも一のフィルタされた画像及び前記第2の画像に従って前記初期仮想位置を計算するステップと、
を実行するようにさらに構成される、請求項7に記載の現実感提示装置。 The processing unit is
Comparing the second image with the plurality of first images to obtain a plurality of correlation coefficients of the plurality of first images with respect to the second image;
Obtaining at least one filtered image in the plurality of first images such that at least one filtered correlation coefficient corresponding to the at least one filtered image is greater than a certain threshold. The at least one filtered image corresponds to at least one virtual position in the virtual environment, and the at least one virtual position is the at least one filtered image for the reality presentation device. Corresponding to at least one real location in the real environment to capture, and
Calculating the initial virtual position according to the at least one filtered image and the second image;
The reality presentation device according to claim 7, further configured to perform.
前記複数の第1の画像に対応する複数の第1の定量化ベクトルを取得するステップと、
前記第2の画像に対応する第2の定量化ベクトルを取得するステップと、
前記第2の定量化ベクトルに対する前記複数の第1の定量化ベクトルの複数の第1の相関係数を計算するステップと、
前記複数の相関係数を前記複数の第1の相関係数として取得するステップと、
を実行するようにさらに構成される、請求項8に記載の現実感提示装置。 The processing unit compares the second image with the plurality of first images to obtain a plurality of correlation coefficients of the plurality of first images with respect to the second image;
Obtaining a plurality of first quantification vectors corresponding to the plurality of first images;
Obtaining a second quantification vector corresponding to the second image;
Calculating a plurality of first correlation coefficients of the plurality of first quantification vectors with respect to the second quantification vector;
Obtaining the plurality of correlation coefficients as the plurality of first correlation coefficients,
The reality presentation device according to claim 8, further configured to perform.
前記複数の第1の画像に対して特徴抽出演算を実行して前記複数の第1の定量化ベクトルを取得するステップ、を実行するようにさらに構成され、
前記複数の第1の画像内の第1の画像に対応する定量化ベクトルは、前記第1の画像内の複数の特徴に対応する複数の出現数を示す、請求項9に記載の現実感提示装置。 The processing unit obtains a plurality of first quantification vectors corresponding to the plurality of first images;
Performing a feature extraction operation on the plurality of first images to obtain the plurality of first quantification vectors, the method further comprising:
The realism presentation according to claim 9, wherein the quantification vector corresponding to the first image in the plurality of first images indicates a plurality of appearance numbers corresponding to the plurality of features in the first image. apparatus.
前記第2の画像に対して特徴抽出演算を実行して前記第2の定量化ベクトルを取得するステップ、を実行するようにさらに構成され、
前記第2の定量化ベクトルは、前記第2の画像内の複数の特徴に対応する複数の出現数を示す、請求項9に記載の現実感提示装置。 The processing unit obtains a second quantification vector corresponding to the second image;
Performing a feature extraction operation on the second image to obtain the second quantification vector, the method further comprising:
The reality presentation device according to claim 9, wherein the second quantification vector indicates a plurality of appearance numbers corresponding to a plurality of features in the second image.
前記少なくとも一のフィルタされた画像及び前記第2の画像に従って、前記少なくとも一の仮想位置内の仮想位置に関連した相対仮想位置を計算するステップと、
前記仮想位置及び前記相対仮想位置に従って前記第2の画像に対応する前記初期仮想位置を計算するステップと、
を実行するようにさらに構成される、請求項8に記載の現実感提示装置。 The processing unit calculates the initial virtual position corresponding to the second image in the virtual environment according to the at least one filtered image and the second image;
Calculating a relative virtual position associated with a virtual position within the at least one virtual position according to the at least one filtered image and the second image;
Calculating the initial virtual position corresponding to the second image according to the virtual position and the relative virtual position;
The reality presentation device according to claim 8, further configured to perform.
現実感提示装置であって、
前記現実環境から第2の画像を捕捉するように構成された画像捕捉モジュール、及び、
前記現実感提示装置の特定アプリケーションが開始されるときに初期仮想位置からの視点で前記仮想環境を表示するように構成された表示画面、
を含む現実感提示装置と、
前記複数の第1の画像に従って前記現実環境に対応する前記仮想環境を構築するステップ、及び、
前記複数の第1の画像及び前記第2の画像に従って前記第2の画像に対応する前記仮想環境における前記初期仮想位置を計算するステップ
を実行するように構成されたリモートコンピューティング装置と、を含み、
前記初期仮想位置は、前記現実感提示装置が前記第2の画像を捕捉する前記現実環境における初期現実場所に対応する、システム。 A system capable of displaying a virtual environment for a user, the virtual environment being constructed based on a plurality of first images captured from a real environment, the system comprising:
A reality presentation device,
An image capture module configured to capture a second image from the real environment, and
A display screen configured to display the virtual environment from a viewpoint from an initial virtual position when a specific application of the reality presentation device is started,
A reality presenting device including
Constructing the virtual environment corresponding to the real environment according to the plurality of first images; and
A remote computing device configured to perform the step of calculating the initial virtual position in the virtual environment corresponding to the second image according to the plurality of first images and the second image. ,
The initial virtual position corresponds to an initial physical location in the physical environment in which the reality presentation device captures the second image.
前記第2の画像を前記複数の第1の画像と比較し、前記第2の画像に対する前記複数の第1の画像の複数の相関係数を取得するステップと、
前記複数の第1の画像内の少なくとも一のフィルタされた画像を、前記少なくとも一のフィルタされた画像に対応する少なくとも一のフィルタされた相関係数が特定の閾値より大きいように、取得するステップであって、前記少なくとも一のフィルタされた画像は、前記仮想環境における少なくとも一の仮想位置に対応し、前記少なくとも一の仮想位置は、前記現実感提示装置が前記少なくとも一のフィルタされた画像を捕捉する前記現実環境における少なくとも一の現実場所に対応する、ステップと、
前記少なくとも一のフィルタされた画像及び前記第2の画像に従って前記初期仮想位置を計算するステップと、
を実行するようにさらに構成される、請求項13に記載のシステム。 The remote computing device is
Comparing the second image with the plurality of first images to obtain a plurality of correlation coefficients of the plurality of first images with respect to the second image;
Obtaining at least one filtered image in the plurality of first images such that at least one filtered correlation coefficient corresponding to the at least one filtered image is greater than a certain threshold. Where the at least one filtered image corresponds to at least one virtual position in the virtual environment, the at least one virtual position being the at least one filtered image by the reality presentation device. Corresponding to at least one real location in the real environment to capture, and
Calculating the initial virtual position according to the at least one filtered image and the second image;
14. The system of claim 13, further configured to perform.
前記複数の第1の画像に対応する複数の第1の定量化ベクトルを取得するステップと、
前記第2の画像に対応する第2の定量化ベクトルを取得するステップと、
前記第2の定量化ベクトルに対する前記複数の第1の定量化ベクトルの複数の第1の相関係数を計算するステップと、
前記複数の相関係数を前記複数の第1の相関係数として取得するステップと、
を実行するようにさらに構成される、請求項14に記載のシステム。 The remote computing device compares the second image with the plurality of first images and obtains a plurality of correlation coefficients of the plurality of first images with respect to the second image,
Obtaining a plurality of first quantification vectors corresponding to the plurality of first images;
Obtaining a second quantification vector corresponding to the second image;
Calculating a plurality of first correlation coefficients of the plurality of first quantification vectors with respect to the second quantification vector;
Obtaining the plurality of correlation coefficients as the plurality of first correlation coefficients,
15. The system of claim 14, further configured to perform.
前記複数の第1の画像に対して特徴抽出演算を実行して前記複数の第1の定量化ベクトルを取得するステップ、を実行するようにさらに構成され、
前記複数の第1の画像内の第1の画像に対応する定量化ベクトルは、前記第1の画像内の複数の特徴に対応する複数の出現数を示す、請求項15に記載のシステム。 The remote computing device obtains a plurality of first quantification vectors corresponding to the plurality of first images;
Performing a feature extraction operation on the plurality of first images to obtain the plurality of first quantification vectors, the method further comprising:
The system of claim 15, wherein the quantification vector corresponding to a first image in the plurality of first images indicates a plurality of occurrences corresponding to a plurality of features in the first image.
前記第2の画像に対して特徴抽出演算を実行して前記第2の定量化ベクトルを取得するステップ、を実行するようにさらに構成され、
前記第2の定量化ベクトルは、前記第2の画像内の複数の特徴に対応する複数の出現数を示す、請求項15に記載のシステム。 The remote computing device obtains a second quantification vector corresponding to the second image;
Performing a feature extraction operation on the second image to obtain the second quantification vector, the method further comprising:
The system of claim 15, wherein the second quantification vector indicates a plurality of occurrences corresponding to a plurality of features in the second image.
前記少なくとも一のフィルタされた画像及び前記第2の画像に従って、前記少なくとも一の仮想位置内の仮想位置に関連した相対仮想位置を計算するステップと、
前記仮想位置及び前記相対仮想位置に従って前記第2の画像に対応する前記初期仮想位置を計算するステップと、
を実行するようにさらに構成される、請求項14に記載のシステム。 The remote computing device calculates, according to the at least one filtered image and the second image, the initial virtual position corresponding to the second image in the virtual environment;
Calculating a relative virtual position associated with a virtual position within the at least one virtual position according to the at least one filtered image and the second image;
Calculating the initial virtual position corresponding to the second image according to the virtual position and the relative virtual position;
15. The system of claim 14, further configured to perform.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018235246A JP2020098381A (en) | 2018-12-17 | 2018-12-17 | Positioning method and reality presentation apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018235246A JP2020098381A (en) | 2018-12-17 | 2018-12-17 | Positioning method and reality presentation apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020098381A true JP2020098381A (en) | 2020-06-25 |
Family
ID=71106848
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018235246A Pending JP2020098381A (en) | 2018-12-17 | 2018-12-17 | Positioning method and reality presentation apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020098381A (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017227975A (en) * | 2016-06-20 | 2017-12-28 | 株式会社Cygames | System for creating mixed reality environment |
WO2018031621A1 (en) * | 2016-08-11 | 2018-02-15 | Magic Leap, Inc. | Automatic placement of a virtual object in a three-dimensional space |
WO2018064627A1 (en) * | 2016-09-30 | 2018-04-05 | Sony Interactive Entertainment Inc. | Wireless head mounted display with differential rendering and sound localization |
WO2018116790A1 (en) * | 2016-12-22 | 2018-06-28 | 株式会社Cygames | Inconsistency detection system, mixed reality system, program, and inconsistency detection method |
-
2018
- 2018-12-17 JP JP2018235246A patent/JP2020098381A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017227975A (en) * | 2016-06-20 | 2017-12-28 | 株式会社Cygames | System for creating mixed reality environment |
WO2018031621A1 (en) * | 2016-08-11 | 2018-02-15 | Magic Leap, Inc. | Automatic placement of a virtual object in a three-dimensional space |
WO2018064627A1 (en) * | 2016-09-30 | 2018-04-05 | Sony Interactive Entertainment Inc. | Wireless head mounted display with differential rendering and sound localization |
WO2018116790A1 (en) * | 2016-12-22 | 2018-06-28 | 株式会社Cygames | Inconsistency detection system, mixed reality system, program, and inconsistency detection method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6644833B2 (en) | System and method for rendering augmented reality content with albedo model | |
US10460512B2 (en) | 3D skeletonization using truncated epipolar lines | |
CN107340870B (en) | Virtual reality display system fusing VR and AR and implementation method thereof | |
CN109615703B (en) | Augmented reality image display method, device and equipment | |
US20190371072A1 (en) | Static occluder | |
US9654734B1 (en) | Virtual conference room | |
CN108282648B (en) | VR rendering method and device, wearable device and readable storage medium | |
JP7423683B2 (en) | image display system | |
Tomioka et al. | Approximated user-perspective rendering in tablet-based augmented reality | |
CN111448568B (en) | Environment-based application presentation | |
KR20170031733A (en) | Technologies for adjusting a perspective of a captured image for display | |
CN112950751B (en) | Gesture action display method and device, storage medium and system | |
KR20170134513A (en) | How to Display an Object | |
CN111679742A (en) | Interaction control method and device based on AR, electronic equipment and storage medium | |
CN109840946B (en) | Virtual object display method and device | |
Khattak et al. | A real-time reconstructed 3D environment augmented with virtual objects rendered with correct occlusion | |
CN113795863A (en) | Processing of depth maps for images | |
CN112905014A (en) | Interaction method and device in AR scene, electronic equipment and storage medium | |
US20200184675A1 (en) | Positioning Method and Reality Presenting Device | |
CN109426336A (en) | A kind of virtual reality auxiliary type selecting equipment | |
JP2020098381A (en) | Positioning method and reality presentation apparatus | |
EP3506629A1 (en) | Multi-camera display | |
EP3671658A1 (en) | Positioning method and reality presenting device | |
KR20220083552A (en) | Method for estimating and correcting 6 DoF of multiple objects of wearable AR device and AR service method using the same | |
CN111354087A (en) | Positioning method and reality presentation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200525 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20201027 |