EyeControl

Das EyeControl-Projekt entwickelte ein innovatives Interaktionssystem, das auf der Nutzung des Blicks basiert, um effiziente und intuitive Mensch-Maschine-Interaktionen zu ermöglichen. Dabei kamen mobile Eye-Tracking-Sensoren zum Einsatz, um technologische Überfrachtung zu reduzieren und die Blicksteuerung in verschiedene Anwendungssysteme zu integrieren.

Kurzbeschreibung

Um eine effiziente Interaktion mit zukünftigen intelligenten Systemen zu ermöglichen, bedarf es innovativer Interaktionsmodalitäten, die dem zunehmenden Bedarf an schneller, nahtloser Integration der Informationsverarbeitung in das alltägliche Leben und die alltäglichen Interaktionen gerecht werden. Eine mit der digitalen Transformation einhergehende Herausforderung ist die zunehmende Verschmelzung der digitalen mit der physischen Welt. Auf der Seite der Mensch-Maschine Interaktion wird dieser Herausforderung mit Augmented Reality, Mixed Reality und Virtual Reality-Lösungen begegnet. Dafür werden zunehmend Interaktionsmodalitäten benötigt, die über traditionelle Eingabemedien (Maus, Tastatur, Spracheingabe) hinausgehen.

Das EyeControl-Projekt verfolgte einen unkoventionellen, aber sehr vielversprechenden (Eingabe-)gerätefreien Ansatz zur expliziten und impliziten Interaktionen zwischen Menschen und Maschinen, der auf der Nutzung des Blicks als jener menschlichen Interaktionsmodalität basieren, die der Wahrnehmung, Informationsverarbeitung und damit auch der Kognition am nächsten kommt. Der menschliche Blick ist geradezu prädestiniert für die Realisierung schneller, effizienter und komfortabler Benutzerinteraktion, da

  • der Blick ein einerseits das wichtigste Sensorium für die Informationswahrnehmung darstellt,
  • auf Blicken basierende Dienste ein natürliches Nutzerverhalten ermöglichen (nutzerzentriertes Interaktionsdesign) und
  • vielseitiger einsetzbar sind als gerätebasierte Interaktionsmodalitäten. Darüber hinaus ist blickbasierte Interaktion
  • abnützungs- und wartungsfrei und
  • hygienisch, ermöglicht
  • Fernzugriffe und Interaktion auf Distanz, was Komfort und die Sicherheit erhöht, bietet
  • tiefe Einblicke in die Aktivitäten des Benutzers und hält
  • die Hände für die Ausführung zeitgleicher manueller Tätigkeiten frei.

EyeControl hat ein natürliches, intuitives System zur Blicksteuerung entwickelt, das auf der Auswertung und Interpretation des Blickverhaltens hinsichtlich der zugrundeliegenden Aufmerksamkeits- und Intentionsmechanismen basiert. Ziel war nicht, herkömmliche Zeige- und Auswahlmodalitäten und -geräte zu ersetzen, sondern neue, kognitions- und wahrnehmungsbasierte Interaktionsmöglichkeiten zu schaffen.

Das EyeControl-Projekt

  • verwendete mobile Eye-Tracking-Sensoren, um die technologische Überfrachtung zu reduzieren
  • identifizierte charakteristische Blickeigenschaften (Blickverhalten, somatische Indikatoren, Blickmodellierung), um ein eigenständiges Blicksteuerungssystem zu realisieren
  • ergänzte konventionelle technische Ansätze mit Ergebnissen aus der Kognitionspsychologie und HCI zur Unterscheidung zwischen bewusster und unbewusster Verarbeitung und Wahrnehmung, um das Midas-Touch-Problem zu überwinden
  • entwickelte ein allgemeines Eye-Tracking-Toolkit, das an verschiedene Anwendungssysteme angepasst werden kann.

In Zusammenarbeit mit voestalpine fand das EyeControl-System Anwendung im Bereich der Qualitätssicherung in cyber-physischen Systemen in zwei Anwendungsfällen (visuelle Inspektion & komplexe Workflow-Unterstützung). Die entwickelten Technologien wurden von ersten Laborrealisierungen über iterative Vor-Ort-Feldstudien bis hin zu einer abschließenden Vor-Ort-Installation und Evaluierung des entwickelten Systems transferiert.

Publikationen

Broschüre: Digitale Technologien (2024)

Intelligent, grün und souverän in die Zukunft - Projekthighlights aus den Jahren 2016-2021. Redaktionsteam FFG: Olaf Hartmann, Anita Hipfinger, Peter Kerschl
Herausgeber: Bundesministerium für Klimaschutz, Umwelt, Energie, Mobilität, Innovation und Technologie
Deutsch, 72 Seiten

Downloads zur Publikation

Projektbeteiligte

Konsortialführung

  • Johannes Kepler Universität Linz/Institut für Pervasive Computing

Weitere Konsortialpartner

  • Research Studios Austria FG – Pervasive Computing Applications
  • voestalpine Stahl GmbH
  • voestalpine Automotive Components Schwäbisch Gmünd GmbH & Co KG