JP-2026077275-A - 継続学習システム
Abstract
【課題】破滅的忘却や個人/機密情報の漏洩リスクを回避しつつ、学習データの保存容量や学習時間などの学習コストを抑制し、予測モデルを精度よく学習できるようにする。 【解決手段】継続学習システムは、取得部12、学習部14、圧縮部16および記憶部30を備える。記憶部には、予測モデル32と、過去データの情報34が記憶され、学習部および圧縮部は、その記憶された予測モデルおよび過去データの情報と、取得部12にて取得された追加データを用いて、予測モデルおよび過去データの情報を計算する。圧縮部は、過去データの情報として、学習部が次段での学習時に次段での追加データを合わせて学習した際に、取得部にて過去に取得された過去データそのものを使った場合と同等の学習結果を得ることができる、過去データの統計量を算出する。 【選択図】図1
Inventors
- 村山 太朗
Assignees
- 株式会社デンソー
Dates
- Publication Date
- 20260513
- Application Date
- 20241025
Claims (10)
- 入力されたデータに対する予測を行う予測モデル(32)を学習する継続学習システムであって、 追加データ(36)を取得するよう構成された取得部(12)と、 前記追加データと、前段での学習に用いられた過去データの情報と、前段で学習された前記予測モデルとに基づき、前記予測モデルを学習するよう構成された学習部(14)と、 前記追加データと、前記過去データの情報と、前記学習部にて前段で学習された前記予測モデルとに基づき、前記学習部にて次段の学習に用いられる前記過去データの情報を算出するよう構成された圧縮部(16)と、 前記学習部にて学習された前記予測モデルと、前記圧縮部にて算出された前記過去データの情報をそれぞれ記憶するよう構成された記憶部(30)と、 を備え、 前記学習部および前記圧縮部は、前記追加データと、前記記憶部に記憶された前記予測モデルおよび前記過去データの情報を用いて、前記予測モデルおよび前記過去データの情報を計算し、 前記圧縮部は、前記過去データの情報として、前記学習部が次段での学習時に次段での前記追加データを合わせて学習した際に、前記取得部にて前記追加データとして過去に取得された過去データそのものを使った場合と同等の学習結果を得ることができる、前記過去データの統計量(34)を算出する、 よう構成されている、継続学習システム。
- 請求項1に記載の継続学習システムであって、 前記圧縮部は、前記過去データの統計量として、過去データの十分統計量を算出するように構成されている、継続学習システム。
- 請求項1または請求項2に記載の継続学習システムであって、 前記予測モデルは、固定特徴抽出器と線形予測器とを備える、継続学習システム。
- 請求項2に記載の継続学習システムであって、 前記学習部は、前記圧縮部にて算出された前記過去データの十分統計量と前記追加データを合わせて前記予測モデルを学習するよう構成されている、継続学習システム。
- 請求項1または請求項2に記載の継続学習システムであって、 前記過去データに対する前記追加データの重要度比を入力する入力部(20)を備え、 前記圧縮部は、 前記入力部を介して入力された前記重要度比に応じて、前記過去データの情報を算出する際の前記過去データと前記追加データとの比率を設定するように構成されている、継続学習システム。
- 請求項2に記載の継続学習システムであって、 前記圧縮部は、前記過去データの十分統計量として、行列形式、特徴空間における合成データ形式、および、入力空間における合成データ形式の何れかの形式の十分統計量を算出するよう構成されている、継続学習システム。
- 請求項6に記載の継続学習システムであって、 前記圧縮部は、前記予測モデルが固定特徴抽出器を含む線形回帰モデルであるとき、前記過去データの十分統計量として、前記行列形式または前記特徴空間における合成データ形式の厳密な十分統計量を算出するように構成されている、継続学習システム。
- 請求項6に記載の継続学習システムであって、 前記圧縮部は、前記予測モデルが固定特徴抽出器を含む線形モデルであるとき、前記過去データの十分統計量として、前記行列形式の近似的な十分統計量を算出するように構成されている、継続学習システム。
- 請求項6に記載の継続学習システムであって、 前記圧縮部は、前記予測モデルがカーネルモデルであるとき、前記過去データの十分統計量として、前記入力空間における合成データ形式の近似的な十分統計量を算出するように構成されている、継続学習システム。
- 請求項1または請求項2に記載の継続学習システムであって、 前記入力データのクラスに応じて、前記予測モデルのモデル構成を変更するよう構成されたモデル修正部を備えている、継続学習システム。
Description
本開示は、予測モデルを学習する継続学習システムに関する。 例えば、特許文献1に記載のように、継続学習システムにおいては、学習データの数を制限しつつ、予測モデルの学習精度を上げるために、学習の度に学習データとして追加される追加データの中から、有用なデータを選択して、保存することが開示されている。 この種の継続学習システムによれば、保存する学習データの数が制限されることから、継続学習で予測モデルを学習する際の学習時間を短くすることができる。また、学習データを保存する記憶装置の容量を少なくすることもできる。 特開2019-144872号公報 実施形態の継続学習システム全体の構成を表すブロック図である。実施形態の予測モデルの構成を表すブロック図である。実施形態の継続学習システムにおける継続学習の動作を表す説明図である。第1実施形態の学習部での処理動作を表す説明図である。第1実施形態の圧縮部で算出される十分統計量を保持した場合と全ての過去データを保持した場合の記憶部のデータ量を比較して表す説明図である。第2実施形態の学習部での処理動作を表す説明図である。第3実施形態の学習部での処理動作を表す説明図である。 以下、図面を参照しながら、本開示の実施形態を説明する。 [継続学習システムの構成] 本実施形態の継続学習システム1は、パソコン等の汎用コンピュータと周辺機器とで実現されるコンピュータシステムである。図1に示すように、継続学習システム1は、制御部10、入力部20、出力部22、通信制御部24、および、記憶部30を備える。 入力部20は、キーボードやマウス等の入力デバイスを用いて実現され、操作者による入力操作に対応して、制御部10に対して処理開始などの各種指示情報を入力する。なお、入力部20は、後述の過去データに対する追加データの重要度比γtを入力する機能を備える。 また、出力部22は、液晶ディスプレイなどの表示装置、プリンター等の印刷装置等によって実現される。また、通信制御部24は、NIC(Network Interface Card)等で実現され、ネットワークを介したサーバ等の外部装置と制御部10との通信を制御する。 次に、記憶部30は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、或いは、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部30には、継続学習を実施するための処理プログラムや、処理プログラムの実行中に使用される各種データが記憶される。 また、記憶部30には、継続学習処理で生成された予測モデル32や、その予測モデル32を生成するのに用いられた過去データの十分統計量34も記憶される。 制御部10は、CPU(Central Processing Unit)等を用いて実現され、記憶部30に記憶された処理プログラムを実行する。これにより、制御部10は、取得部12、学習部14、圧縮部16、および、モデル修正部18として機能し、継続学習処理を実行する。なお、これらの各機能部は、それぞれあるいは一部が異なるハードウェアに実装されてもよい。例えば、学習部14や圧縮部16は、他の機能部とは別の装置として実装されてもよい。 ここで、取得部12は、入力部20或いは通信制御部24から入力される学習データを学習用の追加データとして取得し、学習部14および圧縮部16に転送する。 学習部14は、取得部12にて取得された追加データと、前段で学習された予測モデル32と、過去データの十分統計量34とを用いて、予測モデル32を学習する。 図2に示すように、学習部14にて生成される予測モデル32は、特徴抽出器φ(またはφt)と、学習済みパラメータを含む線形予測器gtとを備える周知のものである。そして、予測モデル32においては、学習時に入力部20或いは通信制御部24から入力される入力データが、特徴抽出器φ(またはφt)および線形予測器gtを通り、予測結果として出力される。 なお、学習部14での予測モデル32の学習には、記憶部30に記憶された予測モデル32と過去データの十分統計量34が使用される。そして、記憶部30に記憶される予測モデル32は、学習部14にて予測モデル32が学習される度に、その学習された予測モデル32に更新される。 次に、圧縮部16は、取得部12にて取得された追加データと、前段で学習された予測モデル32と、前段の学習で用いられた学習データである過去データの十分統計量34とを用いて、追加データを含む過去データの十分統計量34を算出する。 なお、圧縮部16での十分統計量34の算出には、学習部14での予測モデル32の学習と同様、記憶部30に記憶された予測モデル32と過去データの十分統計量34が使用される。また、記憶部30に記憶される過去データの十分統計量34は、圧縮部16にて十分統計量34が算出される度に、その算出された十分統計量34に更新される。 また、モデル修正部18は、予測モデル32における線形予測器gtの構成を変更する機能を有する。つまり、例えば、学習部14で予測モデル32を学習する際に用いられる後述の損失関数が二乗誤差で、予測モデル32が、任意の特徴抽出器を持つ線形回帰モデルの場合、学習データのクラス数が1からK(ただし、K≧2)に増えるときは、以下のように線形予測器gtを修正する。 [継続学習処理] 次に、制御部10での継続学習処理は、図3に示すように、前段の学習時刻t、次段の学習時刻t+1、・・・というように、学習時刻毎に予測モデル32を繰り返し学習することにより実施される。 つまり、時刻tの継続学習処理では、学習部14は、予測モデル32(t)を、前段の学習時に追加データを含む過去データに基づき生成された予測モデル32(t-1)と、その過去データの十分統計量34(t-1)と、今回の追加データ36(t)とに基づき算出する。 また、圧縮部16は、前段の学習時に算出した、追加データを含む過去データの統計量34(t-1)と、前段の学習時に生成された予測モデル32(t-1)と、今回の追加データ36(t)とに基づき、過去データの十分統計量34(t)を算出する。 次に、時刻t+1の継続学習処理では、学習部14は、予測モデル32(t+1)を、前段の学習時に追加データを含む過去データに基づき生成された予測モデル32(t)と、その過去データの十分統計量34(t)と、今回の追加データ36(t+1)とに基づき算出する。 また、圧縮部16は、前段の学習時に算出した、追加データを含む過去データの統計量34(t)と、前段の学習時に生成された予測モデル32(t)と、今回の追加データ36(t+1)とに基づき、過去データの十分統計量34(t+1)を算出する。 従って、本実施形態の継続学習システム1においては、記憶部30内の予測モデル32および過去データの十分統計量34が、継続学習処理の学習時刻t、t+1、・・・毎に、繰り返し算出されて、更新されることになる。 [効果] 上記のように、本実施形態の継続学習処理において用いられる過去データは、過去の継続学習で用いられた全ての学習データではなく、その学習データの十分統計量である。 このため、過去の継続学習で用いられた全ての学習データを過去データとして記憶部30に記憶するようにしたときのように、予測モデル32の学習の度に、記憶部30に記憶される過去データのデータ量が増加することはない。 従って、本実施形態の継続学習システム1によれば、過去データを保存するための記憶部30の保存容量を少なくすることができる。また、継続学習処理での処理負荷を軽減して、継続学習処理に要する時間を短くすることができる。よって、本実施形態の継続学習システム1によれば、これらの学習コストを低減することができる。 また、十分統計量は、周知の通り、モデルの学習において、生のデータセットと全く同じ情報を提供する統計量である。このため、学習部14において、記憶部30に記憶された過去データの十分統計量34を用いることで、過去データとして生のデータセットを利用した場合と、同等の精度で予測モデル32を学習することができる。よって、本実施形態の継続学習システム1によれば、破滅的忘却や個人/機密情報の漏洩リスクを回避しつつ、予測モデル32を精度よく学習することが可能となる。 また、本実施形態の継続学習システム1には、予測モデル32における線形予測器gtの構成を変更可能なモデル修正部18が備えられているので、学習データの追加される状況だけでなく、クラスが追加される状況にも対応することができる。 次に、本実施形態の学習部14および圧縮部16のより詳細な構成例について、下記の第1~第3実施形態にて説明する。 なお、以下の第1~第3実施形態の説明において使用する用語および記号の定義は、下記の表1および表2に記載の通りである。 なお、表1に記載の固定特徴抽出器、時刻tでのL2正則化係数、カーネル、および、表2に記載の特徴空間の次元は、入力部20或いは通信制御部24を介して、使用者により事前に指定される。ただし、これらは、デフォルト値を予め設定しておくことで、使用者が与えなくても、継続学習システム1を動作させることはできる。 ここで、固定特徴抽出器のデフォルト値としては、後述の第1、第2実施形態において、例えば、Random Fourier Featureとすることができる。また、時刻tでのL2正則化係数のデフォルト値としては、例えば、1e-6~1e6でグリッドサーチとすることができる。また、カーネルのデフォルト値としては、後述の第3実施形態において、例えば、RBFカーネルとすることができる。また、特徴空間の次元のデフォルト値としては、後述の第1、第2実施形態において、例えば、10000とすることができる。 [第1実施形態] 第1実施形態では、過去データの十分統計量34が表1に示す行列形式である場合の、学習部14および圧縮部16の処理動作について説明する。 図4に示すように、学習部14にて実行される本実施形態の学習処理では、過去データの十分統計量34:Sxx,t-1、Sxy,t-1は、損失関数Ltへ入力される。追加データ36:Xt、ytは、特徴抽出器φおよび線形予測器gtを通ったあと、損失関数Ltへ入力される。そして、損失関数Ltを最小化するように線形予測器gtのパラメータβを反復的に更新し、学習済みパラメータβtを算出する。 特徴抽出器φ、線形予測器gt、損失関数Ltの具体的な形は、予測モデル32によって決まる。 例えば、損失関数Ltが二乗誤差で、予測モデル32が、任意の特徴抽出器φを持つ線形回帰モデルの場合、予測モデル32は、下記のように記述される。 この場合、学習部14では、下記の損失関数Ltを最小化するようなパラメータを求める。ここではリッジ回帰の例を示す。 また、圧縮部16では、表1に示した第1実施形態での過去データの十分統計量、追加データXt、yt、過去データに対する追加データの重要度比γtを入力として受け取り、下記の過去+追加データの十分統計量を算出する。 なお、追加データの重要度比γtは、入力部20を介して外部から入力されるパラメータである。このため、操作者は、入力部20を操作して、過去・追加データの重要視する比率を指定できるようになり、例えば、追加データをより重要視した圧縮を行えるようになる。 <実験結果> 図5に本実施形態の効果を確認するために行った実験結果を示す。 図5に示すように、上記のように圧縮部16にて算出される過去データの十分統計量は、過去データとして全ての学習データを蓄積するようにしたときのように、継続学習処理を実施する度にデータ量が増加することはなく、一定のデータ量となる。 また、過去データとして全ての学習デー