Benutzeroberflächen an Computern, Kiosksystemen, Smartphones und Tablets werden sich erneut grundlegend verändern. Ein Blick zurück zeigt, dass sich UI-Konzepte stets in Wellen entwickeln: Frühe Computersysteme arbeiteten ausschließlich mit textbasierten Eingabeaufforderungen, etwa unter MS-DOS. Mit der Verbreitung grafischer Benutzeroberflächen hielten Fenster-Systeme Einzug, wie sie zunächst auf dem Apple II und später in den frühen Versionen von Microsoft Windows zu finden waren.
Mit diesen grafischen Elementen etablierte sich ein Gestaltungsprinzip, das lange prägend war: der Skeuomorphismus. Darunter versteht man einen Ansatz in der UI- und UX-Gestaltung, bei dem digitale Oberflächen bewusst Anleihen aus der physischen Welt nehmen. Ordner sehen aus wie Ordner, Notizen wie Papier, Schreibtische wie Schreibtische. Diese Metaphern erleichterten den Einstieg in eine neue, abstrakte Technologie, weil sie an vertraute Objekte und Handlungen anknüpften.
Mit „Liquid Glass“ versucht Apple im Jahr 2025 erneut, eine neue Spielart dieser Entwicklung zu etablieren. Flüssiges Glas existiert physisch nicht, dient hier aber als Metapher für eine zusätzliche, digitale Informationsschicht zwischen Nutzer und den zu bearbeitenden Daten. Starre Menüs treten in den Hintergrund, stattdessen dominieren halbtransparente, fließende Oberflächen. Dieses Konzept funktioniert nicht nur auf klassischen Bildschirmen, sondern lässt sich auch auf Spatial Computing übertragen – etwa in der Apple Vision oder in künftigen Smart-Brillen.
Die eigentliche Zäsur wird jedoch weniger durch neue visuelle Metaphern entstehen, sondern durch Large Language Models. Benutzeroberflächen müssen künftig nicht mehr so gestaltet sein, dass alle Funktionen sichtbar, erklärbar oder intuitiv „erlernbar“ sind. LLMs ermöglichen eine Abkehr vom klassischen Skeuomorphismus und von expliziten Bedienkonzepten. Funktionalität kann im Hintergrund bleiben und situationsabhängig verfügbar werden.
Zukünftige UI- und UX-Konzepte werden sich zunehmend als Assistenzsysteme verstehen. Gute Programme werden versuchen zu erfassen, was Nutzerinnen und Nutzer erreichen wollen, und sie dabei aktiv unterstützen – sei es durch Dialoge, durch Kontextverständnis oder durch beobachtendes Lernen. Wie genau diese Interaktion aussehen wird, ist offen. Wahrscheinlich wird sie weniger geplant als entdeckt.
Sicher ist jedoch: UI- und UX-Designer werden ihre Rolle neu definieren müssen. Es geht weniger um das Entwerfen von Oberflächen und mehr um das Gestalten von Verhalten, Intentionserkennung und Vertrauen. Die kommende Phase der Mensch-Maschine-Interaktion verspricht spannend zu werden.

Schreibe einen Kommentar