erdfisch Blog

Mein Rückblick auf die UX-Days 2017 in Mannheim

Single image: 
Body: 

Es war mal wieder eine Premiere für mich: Das erste Mal auf dem UX-Day Mannheim. Ein Event, welches mich trotz seiner kürze (nur einen Tag Konferenz, ansonsten Workshops) voll überzeugt hat.

Ankunft

Am Morgen kam ich an der Venue an, und mir stieg direkt der Duft von Waffeln in die Nase. Das Team von Adobe, welches vor Ort Adobe Xd (Experience Designer) promotete, da dieser nun in der Beta angekommen ist, machte passende Waffeln in der Form des Logos. Dazu gab es Marmelade, um auch die Farbe des Logos zu treffen. Das ganze lief unter dem netten Motto "Waffles & Wireframes".

Keynote

Das Event startete, gestärkt von Kaffee und Waffeln, mit der Keynote von We are the Human Machine Interface". Dean Johnson ist bekannt dafür, die physischen, technologischen und kreativen Grenzen von User Interaction auszutesten und dabei immer einer der ersten zu sein, der neue Technologien und Konzepte testet. Er teilte seine Erfahrungen aus den letzten 30 Jahren mit uns und gab dabei einen umfassenden Überblick auf vergangenes, aktuelles und das, was gerade mit VR, Mixed Reality usw. auf uns zu kommt.

Adobe Xd

Nach der ersten Kaffeepause war ich dann recht gespannt auf den Vortrag von Carmen Ruse aus dem Adobe Xd Team mit "Designing the design tool I love. Ich warte schon seit längerem darauf, dass Adobe Xd an einen Punkt kommt, wo man das Tool im Arbeitsalltag einsetzen kann und muss sagen, es hat sich einiges getan.

In Ihrem Vortrag ging es allerdings mehr um die Probleme, die ein UI-Designer hat, wenn er sein Tool auf die Windows Universal Plattform (WUP) anpassen möchte, als um neue Features. Da der Designer vorher nicht weiß, wie viel Platz Ihm auf dem Screen zur Verfügung steht - Stichwort Smartphone - und ob der User eine Maus oder Touch verwendet (zumindest im Windows-Umfeld), bedeutet dies, dass alles möglichst Responsive und Touch-Optimiert sein muss. Dies führt jedoch dazu, dass dem User weniger Bedienelemente angezeigt werden können, weil die vorhandenen um einiges größer sein müssen.

Ich persönlich weiß zwar nicht, warum man auf einem Smartphone oder kleinen Tablet Wireframes und Prototypen erstellen sollte, bzw. warum Touch dabei angenehmer wäre als die präzise Maus, jedoch wird es bestimmt User geben, die dies bevorzugen. Zumal der Anteil an Desktop-Geräten immer weiter schrumpft.

Um die Schwierigkeiten mit der Bedienung zu beheben, hat Adobe in diesem Fall einen anderen Ansatz gewählt als bei seinen vorherigen Pro-Tools: Statt Oberflächen mit vielen Optionen, Buttons und ausklappbaren Fenstern zu entwickeln, wurde die UI stark reduziert und funktioniert kontextabhängig.

Bedeutet: Man hat eine Sidebar für die Werkzeuge und eine für die Optionen, der Inhalt der rechten Sidebar und der Kontextmenüs ändern sich jedoch je nach aktuell ausgewähltem Element und bieten dem User nur die dafür zuständigen Optionen an. Vielleicht etwas verwirrend am Anfang, wenn man Indesign, Photoshop & Co. gewohnt ist, jedoch ein kluger Ansatz, der auch neue User nicht direkt mit Buttons und Dialogen erschlägt.

Ich habe mir danach auch einmal die aktuelle Version des Tools installiert und muss sagen: Es hat sich einiges getan! Vielleicht ist das erste Stable-Release ja doch nicht mehr so weit entfernt. Man könnte das Tool sicher schon für erste Projekte einsetzen, jedoch fehlen aktuell leider noch die Plugins von populären Drittanbieter-Plattformen und etwas Verzahnung mit dem Rest der Adobe-Suite, um wirklich einen angenehmen Workflow zu erhalten.

Ich bleibe auf jeden Fall gespannt und werde nun regelmäßiger mal die aktuelle Version anschauen.

Bye-Bye Photoshop?

Nach einer Mittagspause mit leckeren Pulled-Pork Burger (die Veranstalter hatten diverse Food-Trucks zur Venue bestellt) und einigen interessanten Gesprächen ging es dann mit dem Vortrag "Bye-Bye Photoshop?" von Fabian Ziegler (Team23) weiter. Obwohl er den Vortrag sehr kurz halten musste (normalerweise ist es ein dreistündiger Workshop) und sich deshalb auf das wesentliche beschränken musste, war er äußerst interessant.

Es ging um Design-Workflows in großen Webprojekten, Atomic Design und Tools, welche die Kommunikation zwischen Kunden, Designern und Entwicklern streamlinen können. Er sprach sich gegen den altbackenen Prozess aus, ganze Seiten in Photoshop & Co. zu gestalten und diese als PDFs an den Kunden zu geben. Stattdessen solle man nach Atomic Design Prinzipien vorgehen und bedienbare Prototypen mit living Styleguide erstellen.

Um die Kommunikation zwischen Kunden, Designern und Entwicklern zu verbessern, werden über die Cloud-Services alle beteiligten in das Projekt geholt und können direkt am Prototypen oder am Styleguide kommentieren, kollaborieren (Web-Editoren, an denen mehrere Personen gleichzeitig arbeiten können) und Elemente freigeben.

Hier eine exemplarische Auflistung von Tools, die für die Kollaboration erwähnt wurden und einen Blick wert sind:

Ich fand den Vortrag auf jeden Fall sehr interessant und werde mir bei Gelegenheit mal einige der Tools anschauen. Natürlich kosten diese ein wenig da es Cloud-Services sind, aber die Reibungsverluste in der Kommunikation die vermieden werden, sollten die Kosten ohne Probleme aufwiegen.

Da der Speaker der nächsten Session nicht auftauchte, hat Fabian Ziegler sogar noch spontan den nächsten Session-Slot gefüllt, wobei es dann weniger um die technischen Tools ging, sondern um die Kommunikationsprozesse und Workflows zwischen Designern, Entwicklern und Kunden an sich.

Alles in Allem waren dies zwei sehr interessante Vorträge und ich hoffe darauf, dass ich bei Gelegenheit in Zukunft noch dazu komme, am vollen dreistündigen Workshop teilzunehmen. Ich werde einiges von dem Input, den ich dort erhalten habe in meinen eigenen Design-Prozess zu integrieren, konnte also richtig was mitnehmen.

Conversional Interfaces

Als nächstes schaute ich mir "Conversional Interfaces von Alper Çugun von der Delft University of Technology an. Er hat die letzten Jahre viel Erfahrung im Erstellen von Chatbots und deren Interfaces gesammelt und konnte so einen guten Überblick über die aktuelle Lage von Chatbots in unserer Gesellschaft geben.

Interessante Beispiele waren z.B. ein Schallplattenversand, der über SMS Bestellungen aufnimmt, eine Chat-Applikation, die über ein eigenes Interface die Kommunikation vereinfacht, indem Sie vorgefertigte Antworten als Buttons zur Verfügung stellt und natürlich die Sprach-Interfaces wie Amazon Alexa oder Google Home.

Unter Anderem ging es um das chinesische WeChat, welches sich langsam von einem Messenger zu einem immer größer werdenden Service-Provider u.a. für Zahlungen entwickelt hat und auch Chatbot-Integrationen anbietet, die in China wohl recht beliebt sind.

Chatbots haben zwar noch einen langen Weg vor sich, bis sie wirklich auf dem Niveau eines Menschen kommunizieren können und dabei so hilfreich sind, dass man nicht mehr weiß, ob ein Mensch oder eine Maschine antwortet.

Ein Interessanter Ansatz für die Weiterentwicklung der Bots in diese Richtung ist, dass ein menschliches Team den Bot begleitet, sodass dieser von ihnen lernen kann. Wenn der Bot nicht weiß, wie er antworten soll oder unpassende Antworten gibt, kann das Team eingreifen und der Bot lernt dadurch immer wieder etwas und wird besser.

Die abschließende These von Alper "Chat is the UI for AI" fand ich ebenfalls sehr faszinierend, da sie herausstellt, dass AIs welche Chat als Interface verwenden, als viel persönlicher wahrgenommen werden. Vor allem wenn man dem Bot beibringt, Emojis zu benutzen. Ab diesem Punkt wird die AI gefühlt wirklich zu einem Gegenüber mit (wenn auch simulierten) Emotionen.

Beispielhafter Erfolg & Beispiellose Niederlage

Nachdem ich mich in der folgenden Pause und folgenden Session etwas mit anderen Teilnehmern des UX-Days verquatscht hatte, ging es zu "Beispielhafter Erfolg & Beispiellose Niederlage" von Dr. Marcus Trapp vom Fraunhofer IESE.

Es ging darum, wie man in der Kommunikation mit dem Kunden und bei der Entwicklung von Produkten gute Beispiele findet, welche Substanz haben. Diese sollten nicht zu kompliziert und abgefahren sein, sondern sollten praktikabel für die Masse der User einer Plattform sein. Man kann nicht jeden potenziellen User zufrieden stellen, jedoch kann man für 80% der User Beispiele finden, welche Ihre Lebensrealität betreffen und dies sollte das Ziel sein.

Außerdem ging es um Lorem Ipsum Texte. Diese sollten vermieden werden, weil selbst in der Darstellung von Prototypen und Designs der Kunde direkt erkennt, dass es sich um einen Blindtext handelt und ihn deswegen geistig ausblendet. Dadurch erfasst er nicht mehr die Lesbarkeit des Elementes und kann auch nicht spüren, wie Gestaltung und Inhalt miteinander fusionieren um eine gute UX zu erschaffen.

Man nimmt sich also qualitatives Feedback, indem man Lorem-Ipsum Texte verwendet. Als Alternative schlug Dr. Trapp vor, freie Texte aus z.B. Wikipedia oder aus Online-Handbüchern zu verwenden.

Außerdem ging er auf S.M.A.R.T.e Zieldefinition ein, eine Methodologie um die Anforderungen und Ziele des Kunden mit guten Beispielen und einer Messbaren Einheit zu verbinden, damit man nach einer Änderung auch erfassen kann, ob diese Erfolg hatte. Wer sich tiefer mit dem Thema beschäftigen möchte, kann eine einfache Erklärung z.B. auf dem Blog von Projekte leicht gemacht" finden.

HoloLens - Hands On

"<a href="http://ux-day.de/hololens-just-a-hype-or-real-epic-shitvr-mr-ar-wheres-…" title="HoloLens - just a hype or epic shit?"</aHoloLens - just a hype or epic shit?" wäre der nächste Vortrag von Alexandra Mennes (Microsoft) gewesen. Doch statt mir von Microsoft erklären zu lassen, was an der HoloLens so toll ist, dachte ich "probieren geht über studieren".

Es gab nämlich die super Möglichkeit, auf dem UX-Day mal eine HoloLens auszuprobieren, um selbst zu erleben wie ausgereift die Technik ist und für welche Einsatzgebiete sie sich eignen würde. Nachdem ich etwas warten musste um dran zu kommen (es gab natürlich immer eine kleine Schlange aus interessierten vor dem Vorführraum), hatte ich endlich den Helm auf dem Kopf und konnte mir ein eigenes Bild machen. Man konnte aus einer Reihe von Demos wählen, wobei ich mich für "RoboRaid" entschied, Ein Action-Shooter-Game, welches mit Augmented Reality eine Roboter-Invasion simuliert.

Es hat einen Heidenspaß gemacht, wie der Raum in dem ich mich befand immer wieder durch Löcher in der Wand angegriffen wurde und mich durch Körpereinsatz zu verteidigen musste. Was mich echt umgehauen hat, ist das präzise Tracking der HoloLens im Raum, das ohne Hilfmittel wie Laser auskommt. Ich habe mich mit dem Kopf an die Wände gelehnt und in Ecken gestellt, aber das schien den Helm gar nicht zu verwirren.

Die Objekte waren immer Perfekt auf meiner Umgebung platziert ohne zu flickern, sich zu bewegen oder zu springen wie man es bei anderen Augmented-Reality Apps kennt. Ein kleines Manko ist evtl. der schmale Sichtbereich, der durch die HoloLens überblendet wird.

Nur ungefähr ein Drittel des Sichtfeldes wurde mit den Überlagerungen versehen, was für die Immersion etwas hinderlich war, aber die HoloLens ist ja auch nicht zum spielen, sondern als Hilfstool für die Industrie und Lehre gedacht. Und dafür reicht es auf jeden Fall aus.

Ebenfalls interessant ist, dass das Gerät komplett ohne externe Recheneinheit auskommt. Man hat zwar somit nur die begrenzte Leistung eines Intel Atom Prozessors mit Grafikeinheit im Helm, doch dieser schafft erstaunliches, wenn man nicht zu viele Polygone verwendet.

KI ist das neue Bio!

Sobald mein HoloLens-Test beendet war, begab ich mich zur Closing-Session, die leider schon zur Hälfte rum war. Unter dem Motto "KI ist das neue Bio!" hat Reinhard Karger (DFKI GmbH) den Hype um AI, Chatbots und Co. auseinander genommen und gezeigt, dass der Hype zwar nicht grundlos stattfindet, man allerdings noch einen weiten Weg vor sich hat um die Hoffnungen der User wirklich zufriedenstellend zu erfüllen.

An einigen praktischen Beispielen zeigte er die Grenzen von z.B. Siri auf, die viel Kontext- und Dialogabhängiger funktionieren könnte um einen wirklichen Mehrwert zu bieten. Ein weiteres Beispiel waren Bilderkennungen durch neuronale Netzwerke und ihre Grenzen, z.B. wenn ein Windspiel in Form eines Flamingos auf einem Fahrrad vom neuronalen Netz als Mensch auf einem Fahrrad erkannt wird.

Der Stil des Vortrags war sehr belebend und geprägt von der Stimmung "Hier sind die Fehler - fangt an sie zu korrigieren, jeder kann etwas beisteuern, z.B. indem man die Service-Provider darauf hinweist".

Fazit

Alles in Allem war es ein sehr inspirierender Tag auf dem UX-Day in Mannheim. Ich habe einiges an Input und neuen Tools, welche ich jetzt für den eigenen Einsatz analysiere, mitnehmen können, konnte die HoloLens ausprobieren und mich mit einem Entwickler für diese Plattform unterhalten, habe einige neue Best-Practices kennen gelernt und eine Menge interessanter Gespräche mit Entwicklern, Designern und UX-Experten geführt.

Danke an alle Veranstalter, Speaker und Sponsoren für dieses tolle Event und ich bin mir fast schon sicher: Wir sehen uns auch nächstes Jahr auf dem UX-Day!

Files: 
File

Kommentare

Comments