Predictive Prototyping mit Antetype
Sven Fackert Christine Gottlieb

Predictive Prototyping mit Antetype

Sven Fackert UX Researcher, UX Software Engineer

Christine Gottlieb Head of Corporate Communication

23.07.2019 • 8 Minuten Lesezeit

Design-Prototypen in empirischen Usability-Tests mit menschlichen Nutzern zu evaluieren erfordert viel Zeit, Organisation und Geld. Was wäre, wenn wir die Bedienung eines interaktiven Prototyps mithilfe eines Computers simulieren könnten? Diese und weitere Fragen aus dem Bereich modellbasierter Usability-Evaluationen stellten wir uns bei Ergosign im Rahmen des Forschungsprojekts SiBed.

Sven, wofür steht SiBed?

Sven: SiBed ist eine Abkürzung und steht für die 'Simulation der Bedienung von Nutzerschnittstellen auf Basis eines kognitiven Modells zur prädiktiven Analyse der Gebrauchstauglichkeit'. Kurz gesagt versuchen Dieter Wallach, Vladimir Albach und ich eine Software zu entwickeln, die einen interaktiven Design-Prototypen so bedienen kann, wie ein routinierter menschlicher Nutzer es tun würde. Mit dieser Simulationssoftware können wir Vorhersagen über wesentliche Usability-Attribute des untersuchten Prototyps treffen.

Wie werden Design-Prototypen denn bislang evaluiert?

Sven: Die Evaluation von Design-Prototypen erfolgt heute meist in Form von analytischen Verfahren, wie Expertenreviews und heuristischen Analysen. Eine weitere, weit verbreitete Art, Prototypen zu testen, sind empirische Verfahren, die beispielsweise - im Fall von Usability Tests - repräsentative Nutzer miteinbeziehen. Im Rahmen des Forschungsprojekts SiBed, erkunden wir bei Ergosign die Möglichkeiten einer dritten, bislang meist eher spärlich eingesetzten Kategorie zur Analyse: Modellbasierte Evaluation.

Was genau sind „modellbasierte Evaluationen“?

Sven: Hierunter werden Analyseverfahren verstanden, die wissenschaftliche Modelle des Nutzerverhaltens verwenden, um Vorhersagen über die Usability eines Systems zu treffen. Solche Modelle können von spezifischen Teilleistungen, wie beispielsweise der Vorhersage der Dauer einer gezielten Mausbewegung (Fitts’ Law) bis hin zu sehr komplexen Themen, wie der Modellierung menschlichen Lernens reichen.

Kannst Du uns Beispiele für modellbasierte Evaluationen nennen?

Sven: Das wohl bekannteste Beispiel modellbasierter Evaluationen ist das Keystroke-Level-Model (KLM) von Card, Moran und Newell (1983). Es ist die einfachste Variante einer ganzen Reihe von GOMS-Techniken. Die Abkürzung GOMS steht dabei für die vier Hauptbestandteile einer solchen Analyse: Ziele (Goals), Operatoren, Methoden und Selektionsregeln. Bei einer GOMS-Analyse wird die zu betrachtende Interaktion in ihnen zugrunde liegenden Ziele eines hypothetischen Nutzers zerlegt. Anschließend werden diese Ziele in einzelne Nutzeraktionen (Operatoren) aufgeteilt, die zur Zielerreichung notwendig sind. Methoden ergeben sich aus unterschiedlichen Abfolgen der Operatoren zum selben Ziel. Selektionsregeln geben schließlich an, welche Methoden unter welchen Umständen angewendet werden sollen. Die KLM-Variation der GOMS-Familie beschränkt sich auf die Angabe konkreter Operatoren in der Größenordnung von Tastenanschlägen.

Mit dieser Technik lassen sich Vorhersagen über die Performanz von Nutzerschnittstellen treffen — d.h. wir können Aussagen zur Bedieneffizienz einer Nutzerschnittstelle machen. Designer können ein KLM-Modell anwenden, um eine bestimmte Aufgabe in kleinere Schritte zu zerlegen, für die GOMS/KLM dann empirisch ermittelte Zeitwerte bereithält. Die Summe dieser Zeiten liefert dann die Dauer, die ein routinierter Nutzer benötigen würde, um die Aufgabe fehlerfrei durchzuführen. Die Nutzer sind jedoch keine Maschinen, sondern eben Menschen, die auch mal Fehler machen. Deshalb sind wir als UX Designer daran interessiert, wie lange es für einen „echten“ Nutzer dauert, das Interface zu bedienen und welche Fehler dabei auftreten können. Nur so kann das UX Design möglichst optimal auf die Nutzerbedürfnisse ausgerichtet werden.

Das klingt spannend... und wie löst ihr das bei SiBed?

Sven: Eine GOMS-Analyse muss manuell durchgeführt werden, das ist umständlich. Einfacher ist da bereits das Programm CogTool. Mithilfe einer graphischen Oberfläche bietet es Anwendern die Möglichkeit, Klickpfade mit einem Interface zu demonstrieren. Allerdings müssen hierzu Screens in diesem Programm nachgebaut und mit erheblichem Aufwand annotiert werden. Wir hingegen möchten eine modellbasierte Evaluation nahtlos in den Design-Prozess integrieren — ohne großen Mehraufwand zu generieren. Darum haben wir ein prototypisches Plugin für Antetype - unser hauseigenes Prototyping Tool - entwickelt und Antetype P/M genannt. Mit nur wenigen Anpassungen kann so ein bestehender interaktiver Antetype-Prototyp automatisch evaluiert werden.
Herzstück unseres Ansatzes ist ein kognitives Modell eines Nutzers. Hinter dem Begriff «Kognitives Modell» steckt eine wissenschaftlich fundierte Vorstellung davon, wie sich ein menschlicher Nutzer verhalten würde, wenn er einen Prototyp bedient. Dieses Modell haben wir auf der Grundlage des ACT-R Frameworks implementiert. ACT-R basiert auf zahlreichen psychologischen Struktur- und Prozessannahmen zum Aufbau und der Funktionsweise des menschlichen Denkapparates. Der Vorteil dabei ist, dass wir wir unsere ACT-R Modelle direkt auf einem Computer simulieren können. Dieses Modell binden wir in Antetype P/M ein und ermöglichen es somit, den interaktiven Prototypen „wahrzunehmen“ und Aktionen wie Mausklicks ausführen zu können.

Wie funktioniert eine Evaluation mit Antetype P/M?

Sven: Designer erstellen einen interaktiven Prototyp wie gewohnt in Antetype. Anschließend „zeigen“ sie dem Modell: der Klickpfad eines zu evaluierenden Szenarios mit dem Prototyp wird sozusagen „vorgemacht“. Interaktionen, die sich nicht einfach „vorführen“ lassen, können dabei in einem Dialog spezifiziert werden. Das könnte zum Beispiel das Vergleichen zweier Preise sein - denn bei der Beobachtung eines Klickpfades sieht das Modell ja nur, dass ich den günstigeren Artikel angeklickt habe, nicht jedoch, dass ich beide Preise verglichen und mich für den günstigeren entschieden habe.

Abbildung 1: Visualisierung der simulierten Bedienung in Antetype P/M (rechts) und Ausgaben des ACT-R-Modells (links)
Abbildung 1: Visualisierung der simulierten Bedienung in Antetype P/M (rechts) und Ausgaben des ACT-R-Modells (links)

Jetzt kommt der spannendste Teil der Evaluation mit Antetype P/M. Mit dem gelernten Wissen über die Aufgabe und seinem mitgebrachten allgemeinen Wissen darüber, wie Menschen mit Nutzerschnittstellen interagieren, kann der simulierte Nutzer einen Prototypen bedienen.

Ich kann dabei sogar zusehen, denn Antetype P/M visualisiert beispielsweise Blickbewegungen des simulierten Nutzers und zeigt, wie der Mauszeiger über den Bildschirm wandert. Designer können also in Echtzeit mitverfolgen, was dieser virtuelle Testteilnehmer tut und bereits dabei wichtige Usability-Probleme erkennen. Abbildung 1 zeigt, wie eine solche Visualisierung an einem Interface einer Nietmaschine für Flugzeugtragwerke aussieht.

Als Zusammenfassung gibt Antetype P/M eine Übersicht der Ergebnisse aus: Darunter vor allem die Zeit, die bis zum Abschluss der betrachteten Aufgabe und aller einzelnen Interaktionen bis dorthin benötigt wurde. Diese Werte können beispielsweise genutzt werden, um Design-Alternativen oder Bestandssysteme zu vergleichen. Insbesondere bei der Gestaltung von Nutzeroberflächen für hochroutinierte Aufgaben können bereits kleine Verbesserungen der Performanz enorme Kosteneinsparungen bedeuten.

Wo genau liegt der Unterschied zu GOMS oder CogTool?

Sven: Performanzvorhersagen für routinierte und fehlerfreie Bedienung erhalten wir mithilfe von GOMS oder CogTool. Bei Antetype P/M nimmt mir die Integration in ein umfassendes Prototyping-Tool wie Antetype jedoch nicht nur enorm viel Arbeit ab. Wenn wir genauer hinschauen, simulieren wir im ersten Durchlauf einen Anfänger, der das Interface zum ersten Mal sieht und nur mit der Beschreibung, was er tun soll, ausgestattet ist. Wir können dann dieselbe Aufgabe mehrmals vom gleichen Modell nacheinander durchführen zu lassen und beobachten, welche Auswirkungen unser Interface auf die Lernkurve hat. So können wir vorhersagen, wie lange es dauert, bis der Nutzer zum Experten wird.

Wie gut sind denn diese Vorhersagen überhaupt? Lässt sich eine Bewertung zur Qualität der Vorhersagen machen?

Sven: Genau diese Frage stellte sich uns natürlich auch mit der Fertigstellung erster Prototypen von Antetype P/M. Deshalb führten wir mehrere Studien durch, in denen wir die Vorhersagen unserer Software mit den Zeiten realer Nutzer verglichen. In zwei wissenschaftlichen Arbeiten berichten wir über das das beeindruckende Ergebnis dieses Vergleichs.

Das klingt alles total interessant... und wie kann ich Antetype P/M jetzt verwenden?

Sven: Bei dem aktuellen Entwicklungsstand handelt es sich um einen ‚Proof of Concept‘, an dem wir aktuell weiterarbeiten. Wir konnten bislang zeigen, dass Performanzvorhersagen à la GOMS mit Antetype P/M erheblich komfortabler durchgeführt werden können und wir darüber hinaus Aussagen über die Erlernbarkeit einer Nutzerschnittstelle treffen können. Antetype P/M ermöglicht dafür bislang die Simulation motorischer Interaktionen wie Blick- und Mausbewegungen und die Simulation kognitiver Prozesse wie das Vergleichen von Zahlen im Interface oder das Erkennen von Gruppierungen. Aktuell arbeiten wir daran, dem kognitiven Modell mehr allgemeines Wissen über die Bedienung von Nutzerschnittstellen einzupflanzen, um auch komplexere Interaktionen simulieren zu können. Außerdem experimentieren wir mit der Simulation von Fehlern während der Bedienung.

Wo kann ich mehr erfahren über das Forschungsprojekt?

Sven: Eine umfassende Übersicht über die Funktionsweise und Details von Antetype P/M stellten wir vergangenes Jahr auf der Human Computer Interaction International (HCII) Konferenz in Las Vegas vor. Darüber gibt es auch eine Veröffentlichung im Tagungsband der Konferenz. Die neuesten Erkenntnisse stellten wir auf der Designing Interactive Systems-Konferenz in San Diego vor. Das Paper dazu wurde gerade veröffentlicht.

Prof. Dr. Jan Conrad, Prof. Dr. Dieter Wallach and Sven Fackert at the HCI 2019 in Las Vegas

Letzte Worte?

Sven: Wir möchten uns an dieser Stelle für die Förderung des Projektes SiBed durch das Bundesministerium für Bildung und Forschung (BMBF) unter dem Förderkennzeichen 01IS16037A bedanken.

Vielen Dank Sven für das nette Gespräch!

Als UX Researcher und Software Engineer bei Ergosign ist Sven stets auf der Suche nach neuen Wegen, die Interaktion zwischen Mensch und Maschine zu verbessern.

Im Rahmen des Forschungsprojekts SiBed erkundete er die Möglichkeiten modellbasierter Usability-Evaluationen mithilfe kognitiver Modelle in Antetype.
Eine Weiterentwicklung des intern entstandenen Prototypen könnte auch in Zukunft möglich sein, und das auch bis hin zur Veröffentlichung als Antetype-Plugin.

Sven Fackert

Sven Fackert UX Researcher, UX Software Engineer

Let's shape the future together! Kommen Sie in unsere Offices in Deutschland und der Schweiz, um gemeinsam innovativ zu sein.

Get in touch

Ergosign verwendet Cookies, um Ihnen den bestmöglichen Service zu gewährleisten. Bitte stimmen Sie unserer Cookie-Nutzung zu. Ich stimme nicht zu Ich stimme zu.