Search

DE-102024210684-A1 - Verfahren und Vorrichtung zur Verarbeitung von mit einem Radarsystem assoziierten Daten

DE102024210684A1DE 102024210684 A1DE102024210684 A1DE 102024210684A1DE-102024210684-A1

Abstract

Verfahren zur Verarbeitung von mit einem Radarsystem, beispielsweise für ein Fahrzeug oder eine Infrastruktureinrichtung, assoziierten Daten, zur Minderung von Interferenzen, aufweisend: Bereitstellen eines generativen Modells vom Typ variational autoencoder, wobei das generative Modell ein erstes künstliches neuronales Netz und ein zweites künstliches neuronales Netz aufweist, Bereitstellen von mehrere unterschiedliche Trainingsdatensätze aufweisenden Trainingsdaten für ein Training des generativen Modells, Trainieren des ersten künstlichen neuronalen Netzes und des zweiten künstlichen neuronalen Netzes mit einer ersten Menge der Trainingsdaten, weiteres Trainieren des zweiten künstlichen neuronalen Netzes mit einer zweiten Menge der Trainingsdaten.

Inventors

  • Frank Schmidt
  • Aya Mostafa Ahmed

Assignees

  • Robert Bosch Gesellschaft mit beschränkter Haftung

Dates

Publication Date
20260507
Application Date
20241107

Claims (16)

  1. Verfahren, beispielsweise computerimplementiertes Verfahren, zur Verarbeitung von mit einem Radarsystem (12, 22), beispielsweise für ein Fahrzeug (10) oder eine Infrastruktureinrichtung (20), assoziierten Daten, zur Minderung von Interferenzen, aufweisend: Bereitstellen (100) eines generativen Modells (MOD-VAE) vom Typ variational autoencoder, wobei das generative Modell (MOD-VAE) ein erstes künstliches neuronales Netz (ANN-1) und ein zweites künstliches neuronales Netz (ANN-2) aufweist, Bereitstellen (102) von mehrere unterschiedliche Trainingsdatensätze (D 0 , D 1 , D 2 ) aufweisenden Trainingsdaten (TD) für ein Training des generativen Modells (MOD-VAE), Trainieren (104) des ersten künstlichen neuronalen Netzes (ANN-1) und des zweiten künstlichen neuronalen Netzes (ANN-2) mit einer ersten Menge (D 1 , D 2 ) der Trainingsdaten (TD), weiteres Trainieren (106) des zweiten künstlichen neuronalen Netzes (ANN-2) mit einer zweiten Menge (D 0 ) der Trainingsdaten (TD).
  2. Verfahren nach Anspruch 1 , wobei das erste künstliche neuronale Netz (ANN-1) eine erste Netzwerkarchitektur φ aufweist und dazu ausgebildet ist, ein, beispielsweise potentiell fehlerhaftes, beispielsweise interferenzbehaftetes, erstes Radarsignal (S), beispielsweise in Form eines Spektrums, beispielsweise in Form einer Abstands-Doppler-Repräsentation, beispielsweise als erste Eingangsdaten (ED-1), zu empfangen und basierend auf den ersten Eingangsdaten (ED-1) erste Ausgangsdaten (AD-1) zu erzeugen, die eine mit einer Wahrscheinlichkeitsverteilung assoziierte Merkmalsdarstellung r, beispielsweise gemäß r = (µ r , σ r ) = φ θ (S) ∈ R n × R n , charakterisieren, wobei θ trainierbare Parameter, beispielsweise Gewichte, der ersten Netzwerkarchitektur φ repräsentiert, wobei µ r einen Mittelwert der Wahrscheinlichkeitsverteilung repräsentiert und wobei σ r eine Standardabweichung der Wahrscheinlichkeitsverteilung repräsentiert, wobei beispielsweise das Verfahren aufweist: Empfangen (110) des ersten Radarsignals (S), Erzeugen (112), mittels des ersten künstlichen neuronalen Netzes (ANN-1), der ersten Ausgangsdaten (AD-1).
  3. Verfahren nach Anspruch 2 , wobei das erste künstliche neuronale Netz (ANN-1) mehrere Schichten aufweist, wobei wenigstens manche Schichten wenigstens eines der folgenden Elemente aufweisen und/oder repräsentieren: a) linearen Schicht, oder b) faltende Schicht, oder c) nichtlineare Aktivierungs- und/oder Selbstaufmerksamkeitsschicht, beispielsweise self-attention layer.
  4. Verfahren nach wenigstens einem der Ansprüche 2 bis 3 , wobei das zweite künstliche neuronale Netz (ANN-2) eine zweite Netzwerkarchitektur ψ Trainingsdatensätzen D 0 , D 1 , D 2 aufweist und dazu ausgebildet ist, basierend auf einer aus der durch den Mittelwert µ r und die Standardabweichung σ r charakterisierten Wahrscheinlichkeitsverteilung gezogenen Stichprobe x zweite Ausgangsdaten (AD-2) zu erzeugen, die ein zweites Radarsignal (S̃, beispielsweise in Form eines Spektrums, beispielsweise in Form einer Abstands-Doppler-Repräsentation, charakterisieren, beispielsweise gemäß S̃ = ψ η (x), wobei beispielsweise η trainierbare Parameter, beispielsweise Gewichte, der zweiten Netzwerkarchitektur ψ repräsentiert, wobei beispielsweise das Verfahren aufweist: Bereitstellen (114) der Stichprobe x, beispielsweise gemäß x ~ N ( μ r , diag ( σ r 2 ) ) , Erzeugen (116), mittels des zweiten künstlichen neuronalen Netzes (ANN-2), der zweiten Ausgangsdaten (AD-2).
  5. Verfahren nach wenigstens einem der vorstehenden Ansprüche, wobei das Trainieren (104) und/oder das weitere Trainieren (106) ein Verwenden (120) eines vollständig überwachten, z.B. fully supervised, Trainingsverfahrens (TV) aufweist, beispielsweise basierend auf wenigstens einem nicht interferenzbehafteten Signal (S 0 und wenigstens einem, beispielsweise potentiell, interferenzbehafteten Signal, beispielsweise dem ersten Radarsignal (S).
  6. Verfahren nach wenigstens einem der vorstehenden Ansprüche, wobei das Trainieren (104) und/oder das weitere Trainieren (106) ein Verwenden (122) einer Verlustfunktion (LF) gemäß L ( S , S 0 ) = ‖ S ˜ − S 0 ‖ 2 2 + λ ⋅ ( ‖ μ r ‖ 2 + 〈 σ r ,1 〉 − 〈 ln ( σ r 2 ) ,1 〉 − n ) ︸ KL aufweist, wobei L(S,S 0 ) die Verlustfunktion (LF) charakterisiert, mit (µ r , σ r ) = φ θ (S), wobei S̃ = f θ,η (S) ein gesamtes mit dem Modell (MOD-VAE) assoziiertes nichtdeterministisches Netz charakterisiert, wobei λ, mit λ>0, einen Hyperparameter charakterisiert, wobei KL eine Kullback-Leibler-Divergenz gemäß K L [ N ( μ r , diag ( σ r 2 ) ) ‖ N ( 0, diag ( 1 ) ) ] charakterisiert, wobei N(0,diag(1)) eine vorgebbare Verteilung, beispielsweise „Zielverteilung“, z.B. eine Verteilung des Merkmalsraums für Radarsignale, charakterisiert, wobei beispielsweise die Verlustfunktion (LF) an eine vorgebbare andere Zielverteilung anpassbar (124) ist, beispielsweise durch Ersetzen von N(0,diag(1)) durch eine andere, beispielsweise gleichmäßige, Verteilung, beispielsweise über einem n-dimensionalen Hyperwürfel mit Kantenlänge 1.
  7. Verfahren nach wenigstens einem der vorstehenden Ansprüche, aufweisend: Ermitteln (130) wenigstens eines Trainingsdatensatzes (D 1 , D 2 ) der Trainingsdaten (TD) mittels Simulation, beispielsweise unter Verwendung (130a) einer Simulationsumgebung (SU), beispielsweise Ermitteln (130b) dreier unterschiedlicher Trainingsdatensätze (D 0 , D 1 , D 2 ) mittels der Simulation, wobei beispielsweise die unterschiedlichen Trainingsdatensätze (D 0 , D 1 , D 2 ) eine jeweils unterschiedliche Komplexität, beispielsweise in Bezug auf eine mögliche Interferenz, aufweisen.
  8. Verfahren nach wenigstens einem der vorstehenden Ansprüche, aufweisend: Erzeugen (140) einer Anzahl, beispielsweise eines Stapels, (BATCH) von Paaren bestehend aus einem potenziell gestörten Signal und einem ungestörten Signal basierend auf den Trainingsdaten (TD), Austauschen (142), mit einer vorgebbaren Wahrscheinlichkeit, von wenigstens manchen, beispielsweise allen, gestörten Signalen der Anzahl (BATCH) durch ein jeweiliges ungestörtes Signal, Aktualisieren (144) von trainierbaren Parametern wenigstens eines der beiden künstlichen neuronalen Netze (ANN-1, ANN-2) basierend auf einem Gradienten einer, beispielsweise der, Verlustfunktion, (LF), wobei die Verlustfunktion (LF) eine Übereinstimmung zwischen einem Ausgangssignal des generativen Modells (MOD-VAE) und einem ungestörten Signal bewertet, und optional Wiederholen (146) wenigstens eines der Aspekte a) Erzeugen (140), oder b) Austauschen (142), oder c) Aktualisieren (144), beispielsweise Wiederholen (146a) solange, bis ein Konvergenzkriterium, beispielsweise basierend auf einem Validierungsdatensatz erfüllt ist, wobei beispielsweise ein bzw. das Trainingsverfahren (TV) wenigstens einen der Aspekte Erzeugen (140), oder b) Austauschen (142), oder c) Aktualisieren (144), oder Wiederholen (146a) aufweist.
  9. Verfahren nach Anspruch 8 , aufweisend wenigstens eines der folgenden Elemente: a) Initialisieren (150) von Parametern, beispielsweise Gewichten, des generativen Modells (MOD-VAE), oder b) Trainieren (152), unter Verwendung des Trainingsverfahrens (TV) und eines ersten Trainingsdatensatzes (D 2 ), der trainierbaren Parameter θ der ersten Netzwerkarchitektur φ und der trainierbaren Parameter η der zweiten Netzwerkarchitektur ψ, oder c) weiteres Trainieren (154), unter Verwendung des Trainingsverfahrens (TV) und eines zweiten Trainingsdatensatzes (D 1 ), der trainierbaren Parameter θ der ersten Netzwerkarchitektur φ und der trainierbaren Parameter η der zweiten Netzwerkarchitektur ψ, oder d) weiteres Trainieren (156), unter Verwendung des Trainingsverfahrens (TV) und eines dritten Trainingsdatensatzes (D 0 ), beispielsweise allein, der trainierbaren Parameter η der zweiten Netzwerkarchitektur ip.
  10. Vorrichtung (200; 200'), die zur Ausführung des Verfahrens nach wenigstens einem der vorstehenden Ansprüche ausgebildet ist.
  11. Fahrzeug (10) aufweisend wenigstens eine Vorrichtung (200) nach der Anspruch 10 .
  12. Einrichtung (20), beispielsweise Infrastruktureinrichtung, beispielsweise Straßeninfrastruktureinrichtung, beispielsweise roadside unit, aufweisend wenigstens eine Vorrichtung (200') nach Anspruch 10 .
  13. Computerlesbares Speichermedium (SM), umfassend Befehle (PRG), die bei der Ausführung durch einen Computer (202) diesen veranlassen, das Verfahren nach wenigstens einem der Ansprüche 1 bis 9 auszuführen.
  14. Computerprogramm (PRG), umfassend Befehle, die bei der Ausführung des Programms (PRG) durch einen Computer (202) diesen veranlassen, das Verfahren nach wenigstens einem der Ansprüche 1 bis 9 auszuführen.
  15. Datenträgersignal (DCS), das das Computerprogramm (PRG) nach Anspruch 14 überträgt und/oder charakterisiert.
  16. Verwendung (300) des Verfahrens nach wenigstens einem der Ansprüche 1 bis 9 und/oder der Vorrichtung (200; 200') nach Anspruch 10 und/oder des Fahrzeugs (10) nach Anspruch 11 und/oder der Einrichtung (20) nach Anspruch 12 und/oder des computerlesbaren Speichermediums (SM) nach Anspruch 13 und/oder des Computerprogramms (PRG) nach Anspruch 14 und/oder des Datenträgersignals (DCS) nach Anspruch 15 für wenigstens eines der folgenden Elemente: a) Betreiben (301) eines Radarsystems, beispielsweise für ein Fahrzeug (10), oder b) Minderung (302) einer Interferenz, beispielsweise interference healing, oder c) Steigern (303) einer Effizienz eines Trainings, oder d) Reduzieren (304) einer für ein Training erforderlichen Informationsmenge.

Description

Stand der Technik Die Offenbarung betrifft ein Verfahren zur Verarbeitung von mit einem Radarsystem assoziierten Daten. Die Offenbarung betrifft ferner eine Vorrichtung zur Verarbeitung von mit einem Radarsystem assoziierten Daten. Offenbarung der Erfindung Manche Beispiele beziehen sich auf ein Verfahren, beispielsweise ein computerimplementiertes Verfahren, zur Verarbeitung von mit einem Radarsystem, beispielsweise für ein Fahrzeug oder eine Infrastruktureinrichtung, assoziierten Daten, zur Minderung von Interferenzen, aufweisend: Bereitstellen eines generativen Modells vom Typ variational autoencoder, wobei das generative Modell ein erstes künstliches neuronales Netz und ein zweites künstliches neuronales Netz aufweist, Bereitstellen von mehrere unterschiedliche Trainingsdatensätze aufweisenden Trainingsdaten für ein Training des generativen Modells, Trainieren des ersten künstlichen neuronalen Netzes und des zweiten künstlichen neuronalen Netzes mit einer ersten Menge der Trainingsdaten, weiteres Trainieren des zweiten künstlichen neuronalen Netzes mit einer zweiten Menge der Trainingsdaten. Bei manchen Beispielen ermöglicht dies eine z.B. im Vergleich zu manchen konventionellen Ansätzen effizientere Minderung von Interferenzen bezüglich Radarsignalen des Radarsystems. Bei manchen Beispielen ist vorgesehen, dass das erste künstliche neuronale Netz eine erste Netzwerkarchitektur φ aufweist und dazu ausgebildet ist, ein, beispielsweise potentiell fehlerhaftes, beispielsweise interferenzbehaftetes, erstes Radarsignal, beispielsweise in Form eines Spektrums, beispielsweise in Form einer Abstands-Doppler-Repräsentation, beispielsweise als erste Eingangsdaten, zu empfangen und basierend auf den ersten Eingangsdaten erste Ausgangsdaten zu erzeugen, die eine mit einer Wahrscheinlichkeitsverteilung assoziierte Merkmalsdarstellung r, beispielsweise gemäß r = (µr, σr) = φθ(S) ∈ Rn × Rn, charakterisieren, wobei θ trainierbare Parameter, beispielsweise Gewichte, der ersten Netzwerkarchitektur φ repräsentiert, wobei µr einen Mittelwert der Wahrscheinlichkeitsverteilung repräsentiert und wobei σr eine Standardabweichung der Wahrscheinlichkeitsverteilung repräsentiert, wobei beispielsweise das Verfahren aufweist: Empfangen des ersten Radarsignals, Erzeugen, mittels des ersten künstlichen neuronalen Netzes, der ersten Ausgangsdaten. Beispielseise weist das erste künstliche neuronale Netz mehrere Schichten auf, wobei wenigstens manche Schichten wenigstens eines der folgenden Elemente aufweisen und/oder repräsentieren: a) linearen Schicht, oder b) faltende Schicht, oder c) nichtlineare Aktivierungs- und/oder Selbstaufmerksamkeitsschicht, beispielsweise self-attention layer. Vergleichbares kann bei weiteren Beispielen auch für das zweite künstliche neuronale Netz gelten. Bei manchen Beispielen weist das zweite künstliche neuronale Netz eine zweite Netzwerkarchitektur ψ auf und ist dazu ausgebildet, basierend auf einer aus der durch den Mittelwert µr und die Standardabweichung σr charakterisierten Wahrscheinlichkeitsverteilung gezogenen Stichprobe x zweite Ausgangsdaten zu erzeugen, die ein zweites Radarsignal, beispielsweise in Form eines Spektrums, beispielsweise in Form einer Abstands-Doppler-Repräsentation, charakterisieren, beispielsweise gemäß S̃ = ψη(x), wobei beispielsweise η trainierbare Parameter, beispielsweise Gewichte, der zweiten Netzwerkarchitektur ψ repräsentiert, wobei beispielsweise das Verfahren aufweist: Bereitstellen der Stichprobe x, beispielsweise gemäßx~N(μr,diag(σr2)),Erzeugen, mittels des zweiten künstlichen neuronalen Netzes, der zweiten Ausgangsdaten. Dadurch kann bei weiteren Beispielen ein synthetisches Radarsignal erzeugt werden, das z.B. ein geringeres Maß an Interferenzen aufweist als das erste Radarsignal. Bei manchen Beispielen weist das Trainieren und/oder das weitere Trainieren ein Verwenden eines vollständig überwachten, z.B. fully supervised, Trainingsverfahrens auf, beispielsweise basierend auf wenigstens einem nicht interferenzbehafteten Signal und wenigstens einem, beispielsweise potentiell, interferenzbehafteten Signal, beispielsweise dem ersten Radarsignal. Bei manchen Beispielen weist das Trainieren und/oder das weitere Trainieren ein Verwenden einer Verlustfunktion gemäßL(S,S0)=‖S˜−S0‖22+λ⋅(‖μr‖2+〈σr,1〉−〈ln(σr2),1〉−n)︸KLauf, wobei L(S, S0) die Verlustfunktion charakterisiert, mit (µr, σr) = φθ(S), wobei S̃ = fθ,η(S) ein gesamtes mit dem Modell assoziiertes nichtdeterministisches Netz charakterisiert, wobei λ, mit λ>0, einen Hyperparameter charakterisiert, wobei KL eine Kullback-Leibler-Divergenz gemäßKL[N(μr,diag(σr2))‖N(0,diag(1))]charakterisiert, wobei N(0,diag(1)) eine vorgebbare Verteilung, beispielsweise „Zielverteilung“, z.B. eine Verteilung des Merkmalsraums für Radarsignale, charakterisiert, wobei beispielsweise die Verlustfunktion an eine vorgebbare andere Zielverteilung anpassbar ist, beispielsweise durch Ersetzen von N(0,diag(1)) durch eine andere, beispielsweise glei