Interaktives Multiscreening | Kooperation mit Zeiss Meditec

header_im

Wie erkläre ich dem Patienten gewisse Sachverhalte und wie können sich beide Parteien (Arzt und Patient) auf einer Ebene verständigen?
Mit meinem Projekt und interaktivem Multiscreening habe ich versucht diesen Fragen eine zukunftsorientierte Antwort zu geben. Sowohl der Arzt, als auch die Patienten und Familie sollen aus den Ideen profitieren und so Diagnoseergebnissse und wichtige Sachverhalte verstehen.
 

 

Ausgangspunkt/Problemstellung

Situation beim Augenarzt

Der Patient kommt zur Untersuchung (Erst- oder Nachuntersuchung). Es wird eine Sichtfeldmessung durchgeführt und anschließend das Auge auch mit der Spaltlampe untersucht.
Die Daten aus beiden Geräten (Diagramme/Fotos etc.) werden an die Datenverarbeitunssoftware oder einfach per Netzwerkschnittstelle weitergeleitet. Von hier kann der Arzt dann die Werte und Datenblätter des jeweiligen Patienten chronologisch einsehen, vergleichen und Rückschlüsse zum Krankheitsbild ziehen.

Problemstellung

Alle Daten, die erhoben werden, können bisher nur vom Arzt eingesehen werden. Die Datenblätter sind sehr detailliert und die Darstellung ist für den Patienten nur im geringen Maße aufschlussreich. Die Menge an Informationen ist jedoch für den Arzt nötig.
Wie können also Arzt und Patient sich auf einer Ebene verständigen, sodass auch der Patient die Diagnoseergebnisse verstehen kann?

Ein weiteres Problem ist die Zeit. Bei der Menge an Patienten pro Tag, bleibt nur wenig Zeit für ausführliche Gespräche und Rückfragen. Wie kann das Zeitproblem entspannter angegangen werden?

 

Konzept/Lösungsansatz

Um dem Patienten die Einsicht und das Verständnis in die Testergebnisse zu gewährleisten, muss eine Möglichkeit gegeben sein, die Werte und Daten visuell für den Patienten nachvollziehbar darzustellen. Auch ohne viel Hintergrundwissen sollte der Patient in der Lage sein, das Krankheitsbild und dessen Verlauf zu verstehen.

Der Einsatz von mehreren Bildschirmen, ermöglicht es dass jede Partei die Inhalte sehen kann, die für sie relevant ist.

Mit Hilfe des Surface-Touchtables und einem Tablet habe ich das Projekt versucht umzusetzen. So kann der Arzt und der Patient interaktiv und visuell Informationen veranschaulichen.

 

Software/Hardware

Software

  • Processing
  • TUIO-Library
  • oscP5-Library

Hardware

  • Microsoft Surface (Touchtable)
  • Samsung Galaxy Tab (Tablet mit Android)
  • Samsung Galaxy Nexus (Smartphone mit Android)

 

Umsetzung

Das Projekt wurde komplett mit Processing umgesetzt.
Mit der TUIO-Library wurde das Multitouch am Surface-Table ermöglicht und auch die Byte-Tags von Microsoft erkannt, die dann in Processing jeweilige Funktionen ausführen.
Ein kleines Programm im Hintergrund übermittelt die Eingabewerte an Tuio, damit diese dann in Processing verarbeitet werden können (Danke an Michael Zöllner). Die verwendeten Tangibles, haben die oben genannten Byte-Tags an der Unterseite angeklebt.

Um mit dem Tablet und dem Touchtable zu kommunizieren, habe ich das Open Sound Control-Protokoll (OSC) benutzt bzw. die verfügbare Library für Processing (oscP5) verwendet. Die Geräte befinden sich alle im selben Netzwerk und können so die OSC-Messages senden und empfangen.

Sowohl auf dem Touchtable, als auch auf dem Tablet laufen mit Processing erstellte Javaanwendungen.

 

Projektergebnis

Nachdem der Patient bei der Untersuchung war, kann ihm anschließend der Arzt die Diagnose verständlich darstellen. Mit dem Tablet kann der Arzt sich nun in den Account des anwesenden Patienten einloggen.
Sowohl am Tablet, als auch am Touchtable ändert sich die Anzeige entsprechend.
Am Tablet (für den Arzt bestimmt), werden die verfügbaren Datenblätter (Untersuchungsergebnisse) angezeigt. Möchte man ein bestimmtes Datenblatt bzw. eine Diagnose zeigen, kann einfach das entsprechende Blatt oben aus dem Tablet geschoben werden – sofort erscheint das Untersuchungsergebnis in visueller Form (angewendet auf ein Bild).
Sind mehrere Datenblätter/Bilder aktiviert kann man bereits schon die Unterschiede und den Verlauf sehen. Für eine feinere Ansicht, können die Bilder einfach mit den Fingern zu einem Stapel zusammengeschoben werden. Wenn alle Bilder übereinander liegen, signalisiert der vorhandene Dreher (Tangible), visuell und auditiv, dass er benutzt werden kann. Durch Drehen kann nun nahtlos vom Normalzustand über die angezeigten Untersuchungen hindurchgescrollt werden. Der Patient kann so erkennen, wie sich der Krankheitsverlauf in Detail verändert hat.

Im rechten Eck des Touchtables befinden sich zwei Buttons: Einer zum Auffächern des Stapels und einer, mit dem das Anfangsraster der Bilder wiederhergestellt werden kann.
Die Bilder können übrigens auch vergrößert und gedreht werden (mit den gängigen Gesten). So kann man alles individuell nach seinen Bedürfnissen anpassen.

Neben der Visualisierung der Perimetrieergebnisse, gibt es noch die Darstellung eines Augenmodells. Mit dem Tangible kann man durch die Schichten des Auges navigieren. Der Arzt kann anhand des Modells mögliche Eingriffe oder den aktuellen Stand verständlich vermitteln.

Auch später kann der Patient ohne die Anwesenheit des Arztes sich mit seiner Krankenkarte oder dem Smartphone einloggen und mit den vom Arzt vorher freigegebenen Inhalten interagieren. Alle gezeigten und oben erklärten Interaktionen sind auch dann möglich. So kann der Patient auch Familienmitglieder oder Bekannte hinzuziehen und diesen anhand der visuellen Eindrücke, den Krankheitsverlauf erklären – so wie es der Arzt nach der Untersuchung getan hat. Entsprechende Touchtische können zum Beispiel im Wartebereich oder im Aufenthaltsbereich eines Krankenhauses stehen, so dass auch mehrere Leute unkompliziert Zugriff darauf haben.

Weil der Patient mit diesem Ansatz auch selbst über seine Untersuchungsergebnisse informieren kann, spart der Arzt wertvolle Zeit und kann sich wiederum um andere Patienten kümmern.

 

Projektvideo


 

Projekt von Andreas Zapf | 00043911 | Mediendesign 4 | Hochschule Hof
Interactiondesign bei Prof. Michael Zöllner