Search

DE-102013226244-B4 - Medizintechnische Steuerung

DE102013226244B4DE 102013226244 B4DE102013226244 B4DE 102013226244B4DE-102013226244-B4

Abstract

Verfahren (Z) zur Steuerung eines medizintechnischen Bildgebungsgeräts (1) und/oder eines Informationsanzeigegeräts (7), das einem Benutzer (13) mit dem medizintechnischen Bildgebungsgerät (1) generierte Daten (BD) anzeigt, mittels einer Benutzereingabe (EI, AI), wobei die Benutzereingabe (EI, AI) mindestens auf Basis einer Augenpositions- und/oder -bewegungsdetektion (Y) in Kombination mit einer weiteren berührungslosen Benutzereingabe-Erkennungslogik (X) durchgeführt wird, - wobei die Benutzereingabe (EI, AI) eine Auswahleingabe umfasst, wobei der Benutzer (13) ein auszuwählendes Objekt und/oder eine auszuwählende Region mit dem Auge (15) ansieht und mittels eines Willensbezeugungssignals eine. Auswahl des angesehenen Objekts initiiert und die Auswähleingabe dadurch fortgesetzt wird, dass der Benutzer (13) das ausgewählte Objekt mittels eines Verschiebungssignals an einen Ort verschiebt, auf den er nach der Initiierung der Auswahl sieht, und/oder - die auf einer Augenpositions- und/oder -bewegungsdetektion (Y) in Kombination mit einer weiteren berührungslosen Benutzereingabe-Erkennungslogik (X) basierende Benutzereingabe (EI, AI) eine grafische Eingabe eines Objekts umfasst.

Inventors

  • Gerhard Krämer

Assignees

  • Siemens Healthineers Ag

Dates

Publication Date
20260507
Application Date
20131217

Claims (12)

  1. Verfahren (Z) zur Steuerung eines medizintechnischen Bildgebungsgeräts (1) und/oder eines Informationsanzeigegeräts (7), das einem Benutzer (13) mit dem medizintechnischen Bildgebungsgerät (1) generierte Daten (BD) anzeigt, mittels einer Benutzereingabe (EI, AI), wobei die Benutzereingabe (EI, AI) mindestens auf Basis einer Augenpositions- und/oder -bewegungsdetektion (Y) in Kombination mit einer weiteren berührungslosen Benutzereingabe-Erkennungslogik (X) durchgeführt wird, - wobei die Benutzereingabe (EI, AI) eine Auswahleingabe umfasst, wobei der Benutzer (13) ein auszuwählendes Objekt und/oder eine auszuwählende Region mit dem Auge (15) ansieht und mittels eines Willensbezeugungssignals eine. Auswahl des angesehenen Objekts initiiert und die Auswähleingabe dadurch fortgesetzt wird, dass der Benutzer (13) das ausgewählte Objekt mittels eines Verschiebungssignals an einen Ort verschiebt, auf den er nach der Initiierung der Auswahl sieht, und/oder - die auf einer Augenpositions- und/oder -bewegungsdetektion (Y) in Kombination mit einer weiteren berührungslosen Benutzereingabe-Erkennungslogik (X) basierende Benutzereingabe (EI, AI) eine grafische Eingabe eines Objekts umfasst.
  2. Verfahren gemäß Anspruch 1 , dadurch gekennzeichnet , dass die weitere berührungslose Benutzereingabe-Erkennungslogik eine Bewegungsdetektion von Extremitäten des Benutzers (13) umfasst.
  3. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet , dass die weitere berührungslose Benutzereingabe-Erkennungslogik eine Erkennung von akustischen Signalen, insbesondere Sprachsignalen, des Benutzers (13) umfasst.
  4. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet , dass die Benutzereingabe (EI, AI) in demselben Raum (R) erfolgt, in dem sich das medizintechnische Bildgebungsgerät (1) und/oder das Informationsanzeigegerät (7) befindet.
  5. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet , dass es während eines interventionellen Eingriffs in ein Untersuchungsobjekt durchgeführt wird, welcher durch vom medizintechnischen Bildgebungsgerät (1) akquirierte Bilder (BD) unterstützt· wird.
  6. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet , dass die Benutzereingabe (EI, AI) eine Auslösungseingabe zur Auslösung einer Durchführung einer Bildgebung durch das medizintechnische Bildgebungsgerät (1) umfasst.
  7. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet , dass die Verschiebung mittels des Verschiebungssignals durch ein Verschiebungsbestätigungssignal des Benutzers (13) beendet wird.
  8. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet , dass die Benutzereingabe (EI, AI) eine Vorwärts- und/oder Rückwärtsbewegung und/oder eine Aufwärts- und/oder Abwärtsbewegung und/oder ein Scrollen innerhalb der angezeigten Daten (BD) umfasst.
  9. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet , dass die Benutzereingabe (EI, AI) ein Bestätigungssignal umfasst, dasvorher getätigte Benutzereingaben (EI, AI) freigibt und/oder ein Löschsignal umfasst, das vorher getätigte Benutzereingaben (EI, AI), insbesondere zeitlich vor einem Bestätigungssignal, rückgängig macht.
  10. Steuerungssystem (21) zur Steuerung eines medizintechnischen Bildgebungsgeräts (1) und/oder eines Informationsanzeigegeräts (7), das einem Benutzer (13) mit dem medizintechnischen Bildgebungsgerät (1) generierte Daten (BD) anzeigt, umfassend eine Steuerbefehlgenerierungseinheit (33) zur Generierüng von Steuerbefehlen (SB) aus einer Benutzereingabe (EI, AI), wobei die Steuerbefehlgenerierungseinheit (33) so realisiert ist, dass sie im Betrieb die Benutzereingabe (EI, AI) mindestens auf Basis einer Augenpositions- und/oder -bewegungsdetektion (Y) in Kombination mit einer weiteren berührungslosen Benutzereingabe-Erkennungslogik (X) durchführt, - wobei die Benutzereingabe (EI, AI) eine Auswahleingabe umfasst, wobei der Benutzer (13) ein auszuwählendes Objekt und/oder eine auszuwählende Region mit dem Auge (15) ansieht und mittels einem Willensbezeugungssignal eine Auswahl des angesehenen Objekts initiiert und die Auswahleingabe dadurch fortgesetzt wird, dass der Benutzer (13) das ausgewählte Objekt mittels eines Verschiebungssignals an einen Ort verschiebt, auf den er nach der Initiierung der Auswahl sieht, und/oder - die auf einer Augenpositions- und/oder -bewegungsdetektion (Y) in Kombination mit einer weiteren berührungslosen Benutzereingabe-Erkennungslogik (X) basierende Benutzereingabe (EI, AI) eine grafische Eingabe eines Objekts umfasst.
  11. Medizintechnisches Bildgebungsgerät (1) mit einer Aufnahmeeinheit (5) und einem Steuerungssystem (21) gemäß Anspruch 10 .
  12. Computerprogrammprodukt, das direkt in einen Prozessor eines programmierbaren Steuerungssystems (21) ladbar ist, mit Programmcode-Mitteln, um alle Schritte eines Verfahrens gemäß einem der Ansprüche 1 bis 9 auszuführen, wenn das Programmprodukt auf dem Steuerungssystem (21) ausgeführt wird.

Description

Die vorliegende Erfindung betrifft ein Verfahren zur Steuerung eines medizintechnischen Bildgebungsgeräts und/oder eines Informationsanzeigegeräts, das einem Benutzer mit dem medizintechnischen Bildgebungsgerät generierte Daten anzeigt, mittels einer Benutzereingabe. Sie betrifft außerdem ein Steuerungssystem zur Steuerung eines medizintechnischen Bildgebungsgeräts und/oder, eines Informationsanzeigegeräts, das einem Benutzer mit dem medizintechnischen Bildgebungsgerät generierte Daten anzeigt. Die Steuerungmedizintechnischer Bildgebungsgeräte wie von Computertomographen (CT), Ultraschallgeräten, Magnetresonanztomographen (MR), Röntgenapparaten, Angiographen, Einzelprotonenemissionscomputertomographen (SPECT) und Positronenemissionstomographen (PET)uvm. erfolgt bisher üblicherweise mittels Berührungssteuerung, d. h. über eine Eingabe auf einer Tastatur, Touch-Oberfläche, Maus bzw. Joystick. Um eine solche Steuerung auszuführen, muss ein Benutzer, d. h. ein Radiologe bzw. eine Radiologie-Fachkraft, in der Regel den Raum verlassen, in dem sich das betreffende medizintechnische Bildgebungsgerät befindet oder sich zumindest vom Untersuchungsobjekt (meist also einem menschlichen Patienten) abwenden und dann abgewandt seine Eingabe tätigen. Die US 2006 / 0 109 237 A1 zeigt bereits ein System, bei dem zusätzliche Informationen zum Bild berührungslos angezeigt werden können. Aufgabe der vorliegenden Erfindung ist es, eine alternative Steuerungsmöglichkeit für medizintechnische Bildgebungsgeräte bzw. für die eingangs genannten Informationsanzeigegeräte bereitzustellen, die insbesondere bevorzugt einfacher bzw. unkomplizierter bzw. komfortabler für den Benutzer (und/oder das Untersuchungsobjekt) zu bedienen sind. Diese Aufgabe wird durch ein Verfahren gemäß Anspruch 1 und durch ein Steuerungssystem gemäß Anspruch 10 gelöst. Erfindungsgemäß wird bei einem Verfahren der eingangs genannten Art die Benutzereingabe mindestens auf Basis einer Augenpositions- und/oder -bewegungsdetektion in Kombination mit einer weiteren berührungslosen Benutzereingabe-Erkennungslogik durchgeführt. Die Erfindung bedient sich also erstens des sogenannten „Eye-Trackings“ (Augendetektion), .einer Technologie, bei der die Augenposition (d. h. die Blickrichtung und/oder die Fokussierung eines menschlichen Auges) und/oder die Bewegung des Auges detektiert wird. Diese Technologie wird derzeit zur Aufmerksamkeitsforschung in der Werbung ebenso eingesetzt wie bei der Kommunikation mit schwerstbehinderten Menschen. Die Fixierung von Punkten (Fixation) im Raum ist ein willentlich steuerbarer Vorgang, wohingegen Augenbewegungen (Sakkaden) ballistisch und damit geradlinig sind und in der Regel nicht komplett absichtlich steuerbar (vgl. Khazaeli, C. D.: Systemisches Design. Hamburg 2005. S. 68). Sowohl die Fixierung von Punkten als auch die Augenbewegung kann heute mithilfe von Eye-Tracking ermittelt werden, und beide Informationskomponenten können für eine Benutzereingabeerkennung genutzt werden - die erstere als Wiedergabe willentlicher Prozesse, die letztere zur Verifikation solcher Willensbezeugung durch, Untersuchung unterbewusster Reaktionen. Eye-Tracking-Geräte für Computer werden beispielsweise von der Firma Tobii aus Danderyd, Schweden, angeboten. Andere Eye-Tracking-Algorithmen sind prinzipiell jedoch auch im Rahmen der Erfindung verwendbar. Zusätzlich zum Eye-Tracking wird die Benutzereingabe nun mit einer weiteren berührungslosen Benutzereingabe-Erkennungslogik kombiniert. Beispiele für weitere berührungslose Benutzereingabesysteme werden weiter unten ausgeführt. Allen berührungslosen Benutzereingabetechnologien ist gemein, dass ein Benutzer zur Benutzereingabe nicht in haptischen Kontakt bzw. in unmittelbare Nähe zu einer Eingabehardware treten muss, sondern stattdessen eine Art Fernabfrage seiner Benutzereingabe durch eine Sensortechnologie erfolgt. Dabei kann sich der Benutzer insbesondere in verschiedenen Positionen (meist in praktisch allen, denkbaren Raumpositionen) befinden, d. h. er ist nicht auf eine einzelne bestimmte Positionierung bei der Benutzereingabe beschränkt. Diese Kombination aus zwei berührungslosen Benutzereingaben zu einer kombinierten Benutzereingabe hat mindestens zwei Effekte: Erstens bietet sie den Vorteil redundanter Systeme. Es wird daher bevorzugt, dass Benutzerbefehle nur dann als solche gewertet werden, wenn beide Benutzereingaben ein in sich sinnhaltig konsistentes Gesamtergebnis liefern. Zweitens können sich unterschiedliche Informationen aus den beiden Benutzereingaben auf unterschiedliche Sachverhalte, Bewegungen und Willensbezeugungen beziehen, die dann miteinander kombiniert das Gesamtbild, der Benutzereingabe definieren. Das Eye-Tracking bietet beispielsweise den Vorteil, dass mit seiner Hilfe eine genaue Ortung eines vom Benutzer anvisierten Punkts, etwa auf einem Display möglichist. Andere berührungslose Benutzereingabe-Erkennungslogiken können dann Zusatzinformationen zum anvisierten Ort abfragen, etw