Die x- und y-Koordinaten in der Bildebene werden aus den entsprechenden Koordinaten im kopffesten Koordinatensystem durch eine Skalierung berechnet, deren Maßstab abhängig von Gegenstandsweite und Bildweite ist. Die Spiegelung der Koordinaten wird dadurch ausgeglichen, daß die Kamera auf dem Kopf steht, so daß das Auge im Videobild richtig herum erscheint.
![]() |
Diese Abbildung läßt sich durch
mit
als Skalierungsfaktor darstellen.1.16
Wenn g nun der Abstand der Kameralinse vom Ursprung des kopffesten
Koordinatensystems und b der Abstand des Referenzpunktes im Videobild vom
Projektionspunkt ist, so ist der Skalierungsfaktor
(die Gegenstandsweite
also
g-zkopf) und die gesamte Abbildung damit:
Dies ergibt insbesondere für die Position des Pupillenmittelpunktes nach Gleichung 1.8 im Kamerabild:
mit
![]() |
(1.26) |
Da der Verschiebungsparameter d um eine Größenordnung kleiner ist als der Augenradius,
hängt die relative Änderung der Gegenstandsweite
g-zkopf vor allem vom Verhältnis von
g zur Änderung der z-Komponente von
ab. Beim hier
betrachteten VOG-System hat die Linse eine Brennweite fvon 30 mm, die Bildweite b beträgt 40 mm und damit ergibt sich nach
der Gleichung für Gegenstands- und Bildweiten aus der geometrischen Optik
![]() |
(1.27) |
die Gegenstandsweite g-Rauge, die wir erhalten, wenn das Auge in Referenzposition und das Pupillenzentrum im Kamerafokus sind, zu
![]() |
(1.28) |
Diese Gegenstandsweite schwankt bei gleichzeitiger Auslenkung von
in Richtung
der Winkel
und
größenordnungsmäßig um
,
und damit für Auslenkungen
von 10 um etwa
.
Mit einem durchschnittlichen Augenradius von etwa
15 mm beträgt damit die relative Schwankung der Gegenstandsweite - und damit näherungsweise
der durch Vernachlässigung dieser Schwankung entstehende Fehler1.17 - etwa 0,3%. Für
Auslenkungen von 20 beträgt die Schwankung etwa 1,4%.
Damit ist die Drehmatrix
![]() |
(1.29) |
und die gesamte Abbildung:
![]() |
= | ![]() |
(1.30) |
= | ![]() |
(1.31) | |
= | ![]() |
(1.32) |
Die eckige Klammer stellt hier den Ort des Blickreferenzpunktes im gedrehten
Kamerabild und damit im von der Kamera aufgezeichneten Bild dar. Seine Koordinaten
sind, im Unterschied zu den in der Klammer auftauchenden
und
einer Messung über den Kalibrationsalgorithmus zugänglich. Die
vollständige Form der Abbildung lautet damit:
Die komplette Abbildung aus den Helmholtz'schen Winkeln in Kamerakoordinaten sieht also schematisch folgendermaßen aus:
![]() |
(1.34) |
Es liegt, wie im vorigen Abschnitt dargestellt, eine zweidimensionale Ansicht des Auges vor, in der nun über bestimmte Bildbearbeitungsverfahren1.18 die Pupille aufgesucht wird. Nach dem Auffinden der Pixelkoordinaten des Zentrums der Pupille und einer ordnungsgemäßen Kalibration (vgl. Abschnitt 2.1) läßt sich prinzipiell über die Rücktransformation die horizontale und vertikale Augenposition errechnen.
Dazu muß zunächst aus den in der Messung erhaltenen Koordinaten
die Position im ungedrehten Kamerabild errechnet werden. Dies erfolgt durch eine
Rückrotation des Kamerabildes um den Winkel
und den als Drehpunkt
verwendeten Referenzpunkt
.
Da die Kamerarotation in mathematisch positiver Richtung gedacht wird, erfolgt die
Rückrotation in mathematisch negativer Richtung.
Mit der Inversen von
![]() |
(1.35) |
schreibt sich die Rückdrehung dann in Übereinstimmung mit den Gleichungen 1.23 und 1.33
Dabei sind
und
direkt aus der Messung bewziehungsweise
der Kalibration zugänglich. Wir haben also einen direkten Zusammenhang zwischen diesen
Größen und den Drehwinkeln
und
abgeleitet, der, setzen wir die
Kopfkoordinaten aus Gleichung 1.25 hier ein, folgendermaßen aussieht:
![]() |
(1.39) |
Auf unserem Weg zurück zur Winkeldarstellung der Augenposition kehren wir nun
als nächstes diese optische Abbildung aus den kopffesten in die
Kamerakoordinaten um.
Im einzelnen ist diese Rücktransformation allerdings durch das komplizierte
Aussehen des Skalierungsparameters
etwas
unhandlich.1.19
Im Augenblick wird daher in der Praxis die tatsächliche Transformation
dadurch angenähert, daß man
konstant setzt und
also davon ausgeht, daß das Pupillenzentrum die hintere Fokalebene der Linse
während der Bewegung nicht verläßt (siehe Abbildung 1.7).
![]() |
Für den hierbei gemachten Fehler gilt größenordnungsmäßig
das im vorigen Abschnitt über die Schwankung des Parameters
Gesagte. Für
eine numerische Berechnung des Fehlers verweise ich auf Anhang B.
Mit der genannten Näherung1.20 ergibt sich
![]() |
(1.40) |
und, da
nun nicht mehr von zkopf und damit nicht mehr von
und
abhängt, die gesuchte Rücktransformation zu:
![]() |
(1.43) |
mit
![]() |
(1.44) |
aus dem Bild extrahiert. Dabei wird, um die Auflösung zu verbessern, zwischen den Pixelpositionen interpoliert, indem aus je neun Pixelfarbwerten ein mit dem Abstand vom genauen Meßpunkt gewichteter Mittelwert berechnet wird.
![]() |
Für die spätere Messung werden zunächst mit den vorgestellten 2-D-Methoden die horizontale und vertikale Augenposition bestimmt. Anschließend wird der geometrische Ort der zuvor ausgewählten Irissegmente im Bild für eine theoretische Torsion von 0 berechnet und auch hier ein Grauwertmuster ausgelesen1.21.
Die Verschiebung dieser Muster gegeneinander entspricht nun der torsionellen Drehung und kann wie folgt aus der Bildung der Kreuzkorrelationskurve der beiden Muster bestimmt werden.
Die Muster liegen als digitale Samples R und M vor, die Formel zur Berechnung der Kreuzkorrelation cR,M(m) lautet für reellwertige Daten mit N Samples:
![]() |
(1.45) |
Diese Kreuzkorrelation hat ihr Maximum an der Stelle, die der Verschiebung der beiden Muster gegeneinander entspricht (Vergleiche Abbildung 1.9).
Die Auffindung dieses Maximums ist also gleichbedeutend mit der Messung der Torsion. Um die Auflösung der Maximumsfindung zu verbessern, wird in der Umgebung des Maximums eine Parabel an die Kreuzkorrelationskurve gefittet, und ihr Scheitelpunkt mit dem Maximum identifiziert.
Erschwert wird die Messung der Torsion mit diesem Verfahren durch einige Komplikationen. Zunächst ist das Verfahren sehr empfindlich gegen Fehler in der 2-D-Messung. Ein auch nur um ein geringes falsch erkanntes Pupillenzentrum führt nicht nur zu inkorrekter Berechnung der Augenposition, sondern in der Folge auch zu einer Fehlberechnung der Position des Segmentes. Dadurch wird schlimmstenfalls ein ganz falsches Segment ausgelesen; die Bildung der Kreuzkorrelation kann dann kein sinnvolles Ergebnis liefern.1.22
Ein weiteres Problem ist, daß durch die torsionelle Verdrehung des Auges Irismusterteile in das Meßsegment wandern, die im Referenzmuster nicht enthalten waren. Dadurch entstehen in der Kreuzkorrelationsfunktion Artefakte, die mitunter dazu führen, daß eines der Nebenmaxima das Hauptmaximum übersteigt und die Messung zusammenbricht.
Schließlich werden Messungen der Torsion bei bewegten Augen durch die endliche Belichtungszeit erschwert. In Kapitel 3 wird die Auswirkung der Bewegungsverwischung auf die torsionale Messung genauer untersucht.
Zuletzt zeigt es sich, daß die Auswahl der Muster für die torsionale Messung, die bislang noch von Hand erfolgt, recht großen Einfluß auf die Qualität der mit diesen Mustern durchgeführten Messung hat. Daher wird in Kapitel 4 ein Verfahren entwickelt, daß die Auswahl des zur Messung herangezogenen Irissegmentes automatisiert.
![]() |
Für jedes Kapitel finden sich die genaue Darstellung der Implementierung der erstellten Algorithmen sowie der Programmtext in Anhang A, die vollständige und genaue Darstellung der Ergebnisse in Anhang B. In den Kapiteln selbst wird über die Ergebnisse nur ein Überblick gegeben.