JP-2024158242-A5 -
Dates
- Publication Date
- 20260513
- Application Date
- 20230427
Description
実施形態1に係るXR体験を説明する図である。実施形態1に係るシステムの構成図である。実施形態1に係る情報処理装置のハードウェア構成図である。実施形態1に係る描画範囲の変更処理のフローチャートである。実施形態1に係る距離が大きい場合の複合現実空間を説明する図である。実施形態1に係る距離が小さい場合の複合現実空間を説明する図である。実施形態2に係る複合現実空間を説明する図である。実施形態2に係るシステムの構成図である。実施形態2に係る描画範囲の変更処理のフローチャートである。実施形態3に係るシステムの構成図である。実施形態3に係る仮想物体の描画処理のフローチャートである。実施形態3に係る仮想物体を示す図である。実施形態4に係るシステムの構成図である。実施形態4に係る描画範囲の描画処理のフローチャートである。 ステップS904において、指定部801は、アバターを描画しないと指定する。 (変形例4) 実施形態4では、情報処理装置200は、観察ユーザの部位とアバター(動的仮想物体)の部位が干渉しているか否かを、3次元形状データと位置姿勢に基づき判定したが、これに限定されない。 上記の実施形態の開示は、以下の構成、方法、およびプログラムを含む。 (構成1) ユーザの頭部に装着する表示装置に表示する画像であって、仮想物体を配置した空間の画像を生成する情報処理装置であって、 位置および姿勢が動的に変化する第1の仮想物体を配置する位置を取得する第1の取得手段と、 前記空間における前記ユーザの位置を取得する第2の取得手段と、 前記空間における前記ユーザの位置と前記第1の仮想物体の位置に基づき、前記第1の仮想物体のうち前記空間に描画する範囲である第1の範囲を指定する指定手段と、 前記第1の仮想物体のうち前記第1の範囲を描画した前記空間の画像を生成する生成手段と、 を有することを特徴とする情報処理装置。 (構成2) 前記生成手段は、前記第1の仮想物体のうち前記第1の範囲以外を描画しない、 ことを特徴とする構成1に記載の情報処理装置。 (構成3) 前記指定手段は、前記ユーザと前記第1の仮想物体との前記空間における距離が閾値より大きいか否かに基づき、前記第1の範囲を指定する、 ことを特徴とする構成1または2に記載の情報処理装置。 (構成4) 前記指定手段は、複数の閾値と前記距離との大小関係に基づき、前記第1の範囲を指定する、 ことを特徴とする構成3に記載の情報処理装置。 (構成5) 前記第1の仮想物体は、前記ユーザとは異なる特定の人物の身体の動きに追従して動くアバターである、 ことを特徴とする構成1から4のいずれかに記載の情報処理装置。 (構成6) 前記指定手段は、前記アバターの上半身、下半身、指、手、および足のいずれかを前記第1の範囲として指定する、 ことを特徴とする構成5に記載の情報処理装置。 (構成7) 前記空間は、現実空間と融合する仮想空間、または、前記現実空間と前記仮想空間とが融合した複合現実空間であり、 前記指定手段は、前記現実空間と前記仮想空間とが融合する場合において、前記ユーザ と前記第1の仮想物体が重なり合うか否かに基づき、前記第1の範囲を指定する、 ことを特徴とする構成1から6のいずれかに記載の情報処理装置。 (構成8) 前記指定手段は、前記ユーザと前記第1の仮想物体との間で同じ部位同士が重なり合う場合に、前記第1の仮想物体において前記ユーザと重なり合う当該部位を含まないように前記第1の範囲を指定する、 ことを特徴とする構成7に記載の情報処理装置。 (構成9) 前記指定手段は、前記ユーザの3次元モデルと前記第1の仮想物体の3次元モデルとに基づき、前記ユーザと前記第1の仮想物体が重なり合うか否かを判定する、 ことを特徴とする構成7または8に記載の情報処理装置。 (構成10) 前記現実空間における前記ユーザを撮像した現実画像を取得する画像取得手段をさらに有し、 前記指定手段は、前記第1の仮想物体を配置した前記仮想空間の画像と前記現実画像とに基づき、前記ユーザと前記第1の仮想物体が重なり合うか否かを判定する、 ことを特徴とする構成7または8に記載の情報処理装置。 (構成11) 前記空間における複数の領域それぞれに、前記第1の仮想物体のうちの1つの範囲が対応付けられており、 前記指定手段は、前記第1の仮想物体を配置する領域に対応する前記第1の仮想物体の範囲に基づき、前記第1の範囲を指定する、 ことを特徴とする構成1から10のいずれかに記載の情報処理装置。 (構成12) ユーザの頭部に装着する表示装置に表示する画像であって、位置および姿勢が動的に変化するアバターを配置可能な空間の画像を生成する情報処理装置であって、 前記空間において前記アバターが注視する位置を示す第1の仮想物体を生成する第1の生成手段と、 前記第1の仮想物体を描画した前記空間の画像を生成する第2の生成手段と、 を有することを特徴とする情報処理装置。 (構成13) 前記空間は、第2の仮想物体を含み、 前記第1の生成手段は、前記アバターの視線と前記第2の仮想物体とが交差する場合には、前記アバターの視線と前記第2の仮想物体との交点を前記アバターが注視する位置として、前記第1の仮想物体を生成する、 ことを特徴とする構成12に記載の情報処理装置。 (構成14) 前記第1の仮想物体は、前記アバターの視線の方向と前記アバターが注視する位置とに応じた視錐台の形状の仮想物体である、 ことを特徴とする構成12または13に記載の情報処理装置。 (構成15) 前記アバターは、前記ユーザとは異なる特定の人物の位置姿勢に応じて動く仮想物体である、 ことを特徴とする構成12から14のいずれかに記載の情報処理装置。 (方法1) ユーザの頭部に装着する表示装置に表示する画像であって、仮想物体を配置した空間の画像を生成する情報処理方法であって、 位置および姿勢が動的に変化する第1の仮想物体を配置する位置を取得する第1の取得ステップと、 前記空間における前記ユーザの位置を取得する第2の取得ステップと、 前記空間における前記ユーザの位置と前記第1の仮想物体の位置に基づき、前記第1の仮想物体のうち前記空間に描画する範囲である第1の範囲を指定する指定ステップと、 前記第1の仮想物体のうち前記第1の範囲を描画した前記空間の画像を生成する生成ステップと、 を有することを特徴とする情報処理方法。 (方法2) ユーザの頭部に装着する表示装置に表示する画像であって、位置および姿勢が動的に変化するアバターを配置可能な空間の画像を生成する情報処理方法であって、 前記空間において前記アバターが注視する位置を示す第1の仮想物体を生成する第1の生成ステップと、 前記第1の仮想物体を描画した前記空間の画像を生成する第2の生成ステップと、 を有する情報処理方法。 (プログラム) コンピュータを、構成1から15のいずれかに記載の情報処理装置の各手段として機能させるためのプログラム。