JP-2025528022-A5 -
Dates
- Publication Date
- 20260513
- Application Date
- 20230531
Description
[0135] 本明細書で使用されている要素、行為、又は命令はいずれも、そのように明示的に説明されていない限り、不可欠又は必須であるとして解釈されるべきではない。また、本明細書で使用される場合、冠詞「a」及び「an」は、1つ又は複数の項目を含むことも意図されており、「1つ又は複数の」と互換的に使用される場合がある。更には、本明細書で使用される場合、冠詞「the」は、その冠詞「the」に関連して言及されている1つ又は複数の項目を含むことが意図されており、「1つ又は複数の」と互換的に使用される場合がある。更には、本明細書で使用される場合、「セット(set)」及び「グループ(group)」という用語は、1つ又は複数の項目を含むことが意図されており、「1つ又は複数」と互換的に使用される場合がある。1つのみの項目が意図されている場合、「1つのみ」という語句、又は同様の言葉が使用される。また、本明細書で使用される場合、「有する(has)」、「有する(have)」、「有する(having)」などの用語は、それらの用語が修飾している要素を限定しない、オープンエンドの用語であることも意図されている(例えば、Aを「有する」要素は、Bもまた有し得る)。更には、「~に基づいて」という語句は、別段に明記されていない限り、「~に少なくとも部分的に基づいて」を意味することが意図されている。また、本明細書で使用される場合、「又は(or)」という用語は、一連の中で使用されている場合には、包括的であることも意図されており、別段に明記されている場合(例えば、「いずれかの(either)」又は「~のうちの1つのみ(only one of)」と組み合わせて使用されている場合)を除いて、「及び/又は(and/or)」と互換的に使用される場合がある。 以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。 [C1] デバイスによって、前記デバイスに関連付けられた特性を検出するように構成されたセンサから第1のセンサデータを取得することと、 前記デバイスによって、ユーザによって制御可能である前記デバイスの機能の第1の設定であって、前記第1のセンサデータに少なくとも部分的に基づく、第1の設定の自動実施を引き起こすことと、 前記デバイスによって、前記第1の設定の前記自動実施後の閾値時間内に、前記機能の前記第1の設定に対するユーザ制御された変更を検出することと、 前記デバイスによって、前記センサから第2のセンサデータを取得することと、 前記デバイスによって、前記第2のセンサデータに少なくとも部分的に基づいて機械学習モデルによって識別された前記機能の第2の設定の自動実施を引き起こすことと、 を含み、 前記機械学習モデルが、前記第1の設定に対する前記ユーザ制御された変更に関する情報に少なくとも部分的に基づいて、前記機能の設定を識別するように訓練されている、 方法。 [C2] 前記機能が、前記デバイスのディスプレイの輝度、前記ディスプレイの回転向き、前記デバイスのスピーカの音量、又は前記デバイスのカメラのモードである、C1に記載の方法。 [C3] 前記第1の設定に対する前記ユーザ制御された変更に関する前記情報が、 前記第1の設定に対する前記ユーザ制御された変更の値、 前記第1のセンサデータ、 前記第1のセンサデータが収集された時間、又は 前記第1のセンサデータが収集された前記時間における前記デバイスのロケーション、 のうちの1つ又は複数を示す、 C1に記載の方法。 [C4] 前記機械学習モデルが、 前記第2のセンサデータ、 前記第2のセンサデータが収集された時間、又は 前記第2のセンサデータが収集された前記時間における前記デバイスのロケーション、 のうちの1つ又は複数に少なくとも部分的に基づいて、前記機能の前記第2の設定を識別するように訓練されている、 C1に記載の方法。 [C5] 前記機械学習モデルが、回帰モデル又は分類器モデルである、C1に記載の方法。 [C6] 前記第1のセンサデータに少なくとも部分的に基づいて前記第1の設定を決定することと、 前記機械学習モデルを使用して、前記第2のセンサデータに少なくとも部分的に基づいて前記第2の設定を決定することと、 を更に含む、C1に記載の方法。 [C7] 前記第1の設定が、前記機械学習モデルを使用して決定される、C6に記載の方法。 [C8] 前記第2のセンサデータのタイプを識別することと、 前記デバイスによる使用のために、前記第2のセンサデータの前記タイプに少なくとも部分的に基づいて、複数の機械学習モデルから前記機械学習モデルを選択することと、 を更に含む、C1に記載の方法。 [C9] デバイスであって、 メモリと、 前記メモリに結合された1つ又は複数のプロセッサであって、 前記デバイスに関連付けられた特性を検出するように構成されたセンサから第1のセンサデータを取得し、 ユーザによって制御可能である前記デバイスの機能の第1の設定であって、前記第1のセンサデータに少なくとも部分的に基づく、第1の設定の自動実施を引き起こし、 前記第1の設定の前記自動実施後の閾値時間内に、前記機能の前記第1の設定に対するユーザ制御された変更を検出し、 前記センサから第2のセンサデータを取得し、 前記第2のセンサデータに少なくとも部分的に基づいて機械学習モデルによって識別された前記機能の第2の設定の自動実施を引き起こす、 ように構成された、1つ又は複数のプロセッサと、 を備え、 前記機械学習モデルが、前記第1の設定に対する前記ユーザ制御された変更に関する前記情報に少なくとも部分的に基づいて、前記機能の設定を識別するように訓練されている、 デバイス。 [C10] 前記機能が、前記デバイスのディスプレイの輝度、前記ディスプレイの回転向き、前記デバイスのスピーカの音量、又は前記デバイスのカメラのモードである、C9に記載のデバイス。 [C11] 前記第1の設定に対する前記ユーザ制御された変更に関する前記情報が、 前記第1の設定に対する前記ユーザ制御された変更の値、 前記第1のセンサデータ、 前記第1のセンサデータが収集された時間、又は 前記第1のセンサデータが収集された前記時間における前記デバイスのロケーション、 のうちの1つ又は複数を示す、 C9に記載のデバイス。 [C12] 前記機械学習モデルが、 前記第2のセンサデータ、 前記第2のセンサデータが収集された時間、又は 前記第2のセンサデータが収集された前記時間における前記デバイスのロケーション、 のうちの1つ又は複数に少なくとも部分