next up previous contents
Next: 2. 2-D-Kalibration des Systems Up: 1. Einführung Previous: 1.4 Motivation der VOG-Methode

Unterabschnitte

1.5 Augenbewegungsmessung mittels Videookulographie

1.5.1 Apparative Mittel

1.5.1.0.1 Übersicht

Für die Messung von Augenbewegungen mit einem Videookulographiesystem wird dem Probanden eine Video-Meßbrille aufgesetzt1.15, an der die Kameras angebracht sind. Die von diesen erfaßten Bilder der Augen werden zur weiteren Bearbeitung auf einem Videorekorder aufgezeichnet und anschließend offline von einem PC ausgewertet.

1.5.1.0.2 Meßbrille

Die Brille wird am Kopf des Probanden mit Bändern möglichst rutschfest fixiert (siehe Abbildung 1.5). Diese Fixierung ist besonders wichtig, da beim gegenwärtigen System Translationen und Rotationen der Brille nach der Kalibration nicht mehr berücksichtigt werden können und einer Verschiebung des Bildes von 1 mm eine gemessene Augenbewegung von etwa 8 entspricht. An der Brille ist vor jedem Auge ein halbdurchlässiger Spiegel montiert. Die Augen werden durch Infrarot-Leuchtdioden in der Fassung der Brille beleuchtet. Das Infrarot-Bild des Auges wird nun über die Spiegel und eine Linse auf eine seitlich an der Brille befestigte CCD-Kamera abgebildet.


  
Abbildung: Meßbrille des SMI-VOG-Gerätes
\includegraphics[height=5cm]{Bilder/3Dffov.eps}

1.5.1.0.3 Optische Abbildung

Die Abbildung auf die Kamera bedeutet dabei eine Transformation der in Gleichung 1.7 beschriebenen dreidimensionalen Koordinaten auf eine zweidimensionale Bildebene, wie in Abbildung 1.6 dargestellt. Dabei werden Linsenfehler ebenso wie das Verlassen der Fokalebene bei Drehungen des Auges - das zu einem leicht unscharfen Bild bei großen Winkelauslenkungen führt - vernachlässigt. Es handelt sich dann um eine einfache Zentralprojektion, deren Projektionszentrum im Zentrum der Linse liegt.

Die x- und y-Koordinaten in der Bildebene werden aus den entsprechenden Koordinaten im kopffesten Koordinatensystem durch eine Skalierung berechnet, deren Maßstab abhängig von Gegenstandsweite und Bildweite ist. Die Spiegelung der Koordinaten wird dadurch ausgeglichen, daß die Kamera auf dem Kopf steht, so daß das Auge im Videobild richtig herum erscheint.


  
Abbildung 1.6: Abbildung auf die Kameraebene durch Zentralprojektion, aus Gründen der Übersichtlichkeit ohne die Drehachsenverschiebung d
\includegraphics[width=10cm]{Bilder/auge.eps}

Diese Abbildung läßt sich durch


 \begin{displaymath}\vec{\tilde{x}}_{bild} = \left( \begin{array}{ccc}
\mathcal{F...
... 0 \end{array} \right)
\vec{x}_{kopf}
+ \vec{\tilde{x}}_{ref}
\end{displaymath} (1.23)

mit $\mathcal{F}(z_{kopf})$ als Skalierungsfaktor darstellen.1.16

Wenn g nun der Abstand der Kameralinse vom Ursprung des kopffesten Koordinatensystems und b der Abstand des Referenzpunktes im Videobild vom Projektionspunkt ist, so ist der Skalierungsfaktor $s=\frac{g-z}{b}$ (die Gegenstandsweite also g-zkopf) und die gesamte Abbildung damit:


 \begin{displaymath}\vec{\tilde{x}}_{bild}=\left( \begin{array}{c}
x_{kopf}\\
...
...}{c}
\tilde{x}_{ref} \\
\tilde{y}_{ref} \end{array} \right)
\end{displaymath} (1.24)

Dies ergibt insbesondere für die Position des Pupillenmittelpunktes nach Gleichung 1.8 im Kamerabild:


 \begin{displaymath}\vec{\tilde{x}}_{pupille,bild}= \left( \begin{array}{c}
\sin...
...- d]
\end{array} \right)
\mathcal{F}
+ \vec{\tilde{x}}_{ref}
\end{displaymath} (1.25)

mit


\begin{displaymath}\mathcal{F} = \frac{g - \cos(\phi) \cos(\theta) R_{auge} - d (1 - \cos(\phi))} {b}
\end{displaymath} (1.26)

Da der Verschiebungsparameter d um eine Größenordnung kleiner ist als der Augenradius, hängt die relative Änderung der Gegenstandsweite g-zkopf vor allem vom Verhältnis von g zur Änderung der z-Komponente von $\vec{x}_{kopf}$ ab. Beim hier betrachteten VOG-System hat die Linse eine Brennweite fvon 30 mm, die Bildweite b beträgt 40 mm und damit ergibt sich nach der Gleichung für Gegenstands- und Bildweiten aus der geometrischen Optik


\begin{displaymath}\frac{1}{f}=\frac{1}{b} + \frac{1}{g-R_{auge}}
\end{displaymath} (1.27)

die Gegenstandsweite g-Rauge, die wir erhalten, wenn das Auge in Referenzposition und das Pupillenzentrum im Kamerafokus sind, zu


\begin{displaymath}g-R_{auge}=\frac{1}{ \frac{1}{3\,cm} - \frac{1}{4\,cm}} = 12\,cm
\end{displaymath} (1.28)

Diese Gegenstandsweite schwankt bei gleichzeitiger Auslenkung von $\gamma$ in Richtung der Winkel $\phi $ und $\theta $ größenordnungsmäßig um $\sin^2(\gamma)\,R_{auge}$, und damit für Auslenkungen von 10 um etwa $0.03\,R_{auge}$. Mit einem durchschnittlichen Augenradius von etwa 15 mm beträgt damit die relative Schwankung der Gegenstandsweite - und damit näherungsweise der durch Vernachlässigung dieser Schwankung entstehende Fehler1.17 - etwa 0,3%. Für Auslenkungen von 20 beträgt die Schwankung etwa 1,4%.

1.5.1.0.4 Videoaufzeichnung

Beim gegenwärtigen Stand der Digitaltechnik ist eine Online-Auswertung der aufgezeichneten Bilder unüblich, es werden daher meist die auf einem Videoband gespeicherten Bilder in mehreren Durchläufen ausgelesen und nach dem in den folgenden Abschnitten beschriebenen Verfahren analysiert.

1.5.1.0.5 Verdrehung der Kamerabrille

Eine zusätzliche Komplikation der Abbildung entsteht dadurch, daß in der Regel die Kamerabrille nicht gerade auf dem Kopf des Probanden sitzt, wodurch die Achsen im Kamerabild nicht mit den Bildern der entsprechenden kopffesten Koordinatenachsen zur Deckung kommen. Zusätzlich zur bisher geschilderten Abbildung tritt also noch eine Drehung der Kameraebene um einen Winkel $\alpha$ und einen Drehpunkt $\vec{x}_{rot}$, die für positives $\alpha$ in mathematisch positiver Richtung erfolge.

Damit ist die Drehmatrix


\begin{displaymath}\mathcal{S}_\alpha = \left( \begin{array}{cc}
\cos{\alpha} & -\sin(\alpha)\\
\sin{\alpha} & \cos(\alpha) \end{array} \right)
\end{displaymath} (1.29)

und die gesamte Abbildung:


$\displaystyle \vec{x}_{bild}$ = $\displaystyle \vec{x}_{rot} + \mathcal{S}_\alpha
(\vec{\tilde{x}}_{bild} - \vec{x}_{rot})$ (1.30)
       
  = $\displaystyle \mathcal{S}_\alpha \vec{\tilde{x}}_{bild} - [\mathcal{S}_\alpha \vec{x}_{rot}
- \vec{x}_{rot}]$ (1.31)
       
  = $\displaystyle \mathcal{S}_\alpha
\left( \begin{array}{c} x_{kopf} \\  y_{kopf} ...
...f})
+ [\mathcal{S}_\alpha (\vec{\tilde{x}}_{ref}-\vec{x}_{rot}) +\vec{x}_{rot}]$ (1.32)

Die eckige Klammer stellt hier den Ort des Blickreferenzpunktes im gedrehten Kamerabild und damit im von der Kamera aufgezeichneten Bild dar. Seine Koordinaten sind, im Unterschied zu den in der Klammer auftauchenden $\vec{\tilde{x}}_{ref}$ und $\vec{x}_{rot}$ einer Messung über den Kalibrationsalgorithmus zugänglich. Die vollständige Form der Abbildung lautet damit:


 \begin{displaymath}\vec{x}_{bild} = \mathcal{S}_\alpha
\left( \begin{array}{c} ...
...opf} \end{array} \right)
\mathcal{F}(z_{kopf}) + \vec{x}_{ref}
\end{displaymath} (1.33)

Die komplette Abbildung aus den Helmholtz'schen Winkeln in Kamerakoordinaten sieht also schematisch folgendermaßen aus:


\begin{displaymath}(\theta, \phi) \stackrel{Augen-Rot.}\longrightarrow
(\vec{x...
...ild}) \stackrel{Kamera-Rot.}\longrightarrow
(\vec{x}_{bild})
\end{displaymath} (1.34)

1.5.2 Messung von 2-D-Augenbewegungen durch Pupillenfindung

Wir haben oben gesehen, wie die Bewegung des Auges im Kopf modelliert wird. Die Aufgabe für ein System zur Messung von Augenbewegungen besteht nun darin, die zwei Winkel $\theta $ und $\phi $, die die Lage des Auges im Kopf beschreiben, aus den experimentell gewonnenen Bilddaten zu gewinnen.

Es liegt, wie im vorigen Abschnitt dargestellt, eine zweidimensionale Ansicht des Auges vor, in der nun über bestimmte Bildbearbeitungsverfahren1.18 die Pupille aufgesucht wird. Nach dem Auffinden der Pixelkoordinaten des Zentrums der Pupille und einer ordnungsgemäßen Kalibration (vgl. Abschnitt 2.1) läßt sich prinzipiell über die Rücktransformation die horizontale und vertikale Augenposition errechnen.

Dazu muß zunächst aus den in der Messung erhaltenen Koordinaten $\vec{x}_{bild}$die Position im ungedrehten Kamerabild errechnet werden. Dies erfolgt durch eine Rückrotation des Kamerabildes um den Winkel $\alpha$ und den als Drehpunkt verwendeten Referenzpunkt $\vec{x}_{ref}$. Da die Kamerarotation in mathematisch positiver Richtung gedacht wird, erfolgt die Rückrotation in mathematisch negativer Richtung.

Mit der Inversen von $\mathcal{S}_\alpha$


\begin{displaymath}\mathcal{S}_\alpha^{-1}=\left( \begin{array}{cc}
\cos(\alpha...
...n(\alpha)\\
-\sin(\alpha) & \cos(\alpha) \end{array} \right)
\end{displaymath} (1.35)

schreibt sich die Rückdrehung dann in Übereinstimmung mit den Gleichungen 1.23 und 1.33


 
$\displaystyle \vec{\tilde{x}}_{bild} - \vec{\tilde{x}}_{ref}$ = $\displaystyle \left( \begin{array}{c}
x_{kopf} \\  y_{kopf} \end{array} \right) \mathcal{F}$ (1.36)
       
  = $\displaystyle \mathcal{S}_\alpha^{-1} (\vec{x}_{bild}-\vec{x}_{ref})$ (1.37)
       
  = $\displaystyle \left( \begin{array}{c}
\cos(\alpha) (x_{bild}-x_{ref}) + \sin(\a...
...(\alpha)(y_{bild}-y_{ref}) -\sin(\alpha) (x_{bild}-x_{ref})
\end{array} \right)$ (1.38)

Dabei sind $\vec{x}_{bild}$ und $\vec{x}_{ref}$ direkt aus der Messung bewziehungsweise der Kalibration zugänglich. Wir haben also einen direkten Zusammenhang zwischen diesen Größen und den Drehwinkeln $\phi $ und $\theta $ abgeleitet, der, setzen wir die Kopfkoordinaten aus Gleichung 1.25 hier ein, folgendermaßen aussieht:


\begin{displaymath}\left( \begin{array}{c}
\sin(\theta) R_{auge} \\
\sin(\phi) ...
...F} = \mathcal{S}_{\alpha}^{-1} (\vec{x}_{bild}-
\vec{x}_{ref})
\end{displaymath} (1.39)

1.5.3 Geometrische Näherung bei der Messung

 

Auf unserem Weg zurück zur Winkeldarstellung der Augenposition kehren wir nun als nächstes diese optische Abbildung aus den kopffesten in die Kamerakoordinaten um. Im einzelnen ist diese Rücktransformation allerdings durch das komplizierte Aussehen des Skalierungsparameters $\mathcal{F}$ etwas unhandlich.1.19 Im Augenblick wird daher in der Praxis die tatsächliche Transformation dadurch angenähert, daß man $\mathcal{F}$ konstant setzt und also davon ausgeht, daß das Pupillenzentrum die hintere Fokalebene der Linse während der Bewegung nicht verläßt (siehe Abbildung 1.7).


  
Abbildung: Die genäherte Abbildung aus den Kopf- in die Kamerakoordinaten. Die Näherung besteht dabei in einer Projektion des Punktes in Kopfkoordinaten auf die eingezeichnete Tangentialebene mit konstantem z. Die verbleibende Aufgabe für die Messung besteht dann im Schnitt der eingezeichneten Projektionsgerade durch Linse und Bildpunkt mit dieser Tangentialebene. Die Kinematik des Auges ist erneut ohne die axiale Verschiebung dargestellt.
\includegraphics[width=11cm]{Bilder/nahrung.eps}

Für den hierbei gemachten Fehler gilt größenordnungsmäßig das im vorigen Abschnitt über die Schwankung des Parameters $\mathcal{F}$ Gesagte. Für eine numerische Berechnung des Fehlers verweise ich auf Anhang B.

Mit der genannten Näherung1.20 ergibt sich


\begin{displaymath}\mathcal{F}=\frac{g - R_{auge}}{b}
\end{displaymath} (1.40)

und, da $\mathcal{F}$ nun nicht mehr von zkopf und damit nicht mehr von $\theta $ und $\phi $ abhängt, die gesuchte Rücktransformation zu:


 
  $\textstyle \theta = \sin^{-1} \left( \displaystyle
\frac{\cos(\alpha) (x_{bild}-x_{ref}) + \sin(\alpha) (y_{bild}-y_{ref})}
{\mathcal{F} R_{auge}} \right)$   (1.41)
       
  $\textstyle \phi = \sin^{-1} \left( \displaystyle
\frac{\cos(\alpha) (y_{bild}-y...
...- \sin(\alpha)(x_{bild}-x_{ref})}
{\mathcal{F}(\cos(\theta)R_{auge}-d)} \right)$   (1.42)

1.5.4 Messung der torsionellen Komponente über Segmentanalyse

Für die Messung der torsionellen Komponente der Augenbewegung zieht man bei der Video-Okulographie im Bild erkennbare Irismuskelstrukturen heran. In einem definierten Referenzbild werden ein oder mehrere Irissegmente ausgewählt und die Grauwerte entlang dieser um den Pupillenmittelpunkt zentrierten Segmente ausgelesen (siehe dazu Abbildung 1.8). Es werden also in Iriskoordinaten die N Einzelpunkte des Kreisbogens


\begin{displaymath}\vec{x}_{seg} = \left( \begin{array}{c}
r_{reg} \\ \varphi_0 + \frac{n}{N} \Delta\varphi \end{array} \right)
\end{displaymath} (1.43)

mit


\begin{displaymath}n \in [0,1,2,...N]
\end{displaymath} (1.44)

aus dem Bild extrahiert. Dabei wird, um die Auflösung zu verbessern, zwischen den Pixelpositionen interpoliert, indem aus je neun Pixelfarbwerten ein mit dem Abstand vom genauen Meßpunkt gewichteter Mittelwert berechnet wird.


  
Abbildung 1.8: Lage der für die Torsionsmessung verwendeten Segmente. Diese Frontalansicht wurde auch für die Simulationen in Kapitel 3 verwendet. Das Bild stammt direkt aus dem VOG-System der Firma SMI und stellt eine typische Aufnahme dar. Eingezeichnet ist eine kreisförmige Näherung für den Pupillenrand sowie ein Irissegment und das zugehörige Irismuster.
\includegraphics[width=11cm]{Bilder/aukreis.eps}

Für die spätere Messung werden zunächst mit den vorgestellten 2-D-Methoden die horizontale und vertikale Augenposition bestimmt. Anschließend wird der geometrische Ort der zuvor ausgewählten Irissegmente im Bild für eine theoretische Torsion von 0 berechnet und auch hier ein Grauwertmuster ausgelesen1.21.

Die Verschiebung dieser Muster gegeneinander entspricht nun der torsionellen Drehung und kann wie folgt aus der Bildung der Kreuzkorrelationskurve der beiden Muster bestimmt werden.

Die Muster liegen als digitale Samples R und M vor, die Formel zur Berechnung der Kreuzkorrelation cR,M(m) lautet für reellwertige Daten mit N Samples:


\begin{displaymath}c_{R,M}(m) = \sum_{n=0}^{N-\vert m\vert-1} R(n) \cdot M(n+\vert m\vert+1)
\end{displaymath} (1.45)

Diese Kreuzkorrelation hat ihr Maximum an der Stelle, die der Verschiebung der beiden Muster gegeneinander entspricht (Vergleiche Abbildung 1.9).

Die Auffindung dieses Maximums ist also gleichbedeutend mit der Messung der Torsion. Um die Auflösung der Maximumsfindung zu verbessern, wird in der Umgebung des Maximums eine Parabel an die Kreuzkorrelationskurve gefittet, und ihr Scheitelpunkt mit dem Maximum identifiziert.

   
1.5.4.1 Komplikationen der Kreuzkorrelationsmethode

Erschwert wird die Messung der Torsion mit diesem Verfahren durch einige Komplikationen. Zunächst ist das Verfahren sehr empfindlich gegen Fehler in der 2-D-Messung. Ein auch nur um ein geringes falsch erkanntes Pupillenzentrum führt nicht nur zu inkorrekter Berechnung der Augenposition, sondern in der Folge auch zu einer Fehlberechnung der Position des Segmentes. Dadurch wird schlimmstenfalls ein ganz falsches Segment ausgelesen; die Bildung der Kreuzkorrelation kann dann kein sinnvolles Ergebnis liefern.1.22

Ein weiteres Problem ist, daß durch die torsionelle Verdrehung des Auges Irismusterteile in das Meßsegment wandern, die im Referenzmuster nicht enthalten waren. Dadurch entstehen in der Kreuzkorrelationsfunktion Artefakte, die mitunter dazu führen, daß eines der Nebenmaxima das Hauptmaximum übersteigt und die Messung zusammenbricht.

Schließlich werden Messungen der Torsion bei bewegten Augen durch die endliche Belichtungszeit erschwert. In Kapitel 3 wird die Auswirkung der Bewegungsverwischung auf die torsionale Messung genauer untersucht.

Zuletzt zeigt es sich, daß die Auswahl der Muster für die torsionale Messung, die bislang noch von Hand erfolgt, recht großen Einfluß auf die Qualität der mit diesen Mustern durchgeführten Messung hat. Daher wird in Kapitel 4 ein Verfahren entwickelt, daß die Auswahl des zur Messung herangezogenen Irissegmentes automatisiert.


  
Abbildung 1.9: Schema der Messung der Musterverschiebung und damit der Torsion durch Bildung der Kreuzkorrelationskurve. Im oberen Rahmen ist durchgezogen das ursprüngliche Muster und durchbrochen das verschobene Muster dargestellt, im unteren ist durchgezogen die Autokorrelationskurve des ursprünglichen Musters und durchbrochen die Kreuzkorrelation der beiden Muster zu sehen. Gut zu erkennen ist die Verschiebung des Maximums der Kreuzkorrelation gegen das der Autokorrelation entsprechend der Verschiebung des Musters.
\includegraphics[width=12cm]{Bilder/xkorr.eps}

1.5.4.1.1 Schlußbemerkung

Damit ist die Darstellung der allgemeinen Gründe für die Okulographie und der speziellen Verfahren der Video-Okulographie beendet. In den folgenden Kapiteln werden drei Bereiche des VOG-Meßverfahrens genauer untersucht. In Kapitel 2 wird ein neuer Algorithmus zur Kalibration von VOG-Systemen vorgeschlagen, in Kapitel 3 wird die Auswirkung der endlichen Belichtungszeit auf die Meßgenauigkeit bei torsionellen Messungen untersucht. Kapitel 4 beschäftigt sich mit der Auffindung optimal für die torsionelle Messung geeigneter Segmente. In Kapitel 5 schließlich werden die Ergebnisse diskutiert und Folgerungen für die Praxis der VOG dargestellt.

Für jedes Kapitel finden sich die genaue Darstellung der Implementierung der erstellten Algorithmen sowie der Programmtext in Anhang A, die vollständige und genaue Darstellung der Ergebnisse in Anhang B. In den Kapiteln selbst wird über die Ergebnisse nur ein Überblick gegeben.


next up previous contents
Next: 2. 2-D-Kalibration des Systems Up: 1. Einführung Previous: 1.4 Motivation der VOG-Methode
root
1999-04-24