In unserer Rubrik work@#TeamInreal erklärt Daniel Kremin, unser Head of Product und UX-Nerd, was die Entwicklung einer iPad-Steuerung für unsere Kunden bedeutet.
Daniel, woran arbeitest du gerade?
Gemeinsam mit meinem Team arbeite ich im Augenblick daran, die Steuerung der virtuellen Begehungen und die Auswahl der Konfigurationsmöglichkeiten für die Objekte vom Präsentationsrechner auf ein Touch Device, also beispielsweise ein iPad, zu verlagern. Diese sogenannte Touch Remote Control wird mehrere Effekte haben: Die Inreal-Nutzeroberfläche mit den Bedienungselementen verschwindet aus der Bildschirmpräsentation, und die Endkunden können sich voll auf die Immobilie und die unterschiedlichen Einrichtungsvarianten konzentrieren. Das führt zu einem intensiveren Erlebnis. Außerdem kann der Präsentierende mit einem iPad in der Hand viel freier und natürlicher agieren, da er nicht mehr an den Laptop, die Tastatur und die Maus gebunden ist. Da wir auf eine einfache Steuerung und intuitive Menüführung setzen und den Nutzer schrittweise durch die Konfiguration eines Objektes führen, ist er dazu auch noch entspannter. Im Ergebnis geben wir unseren Kunden über diese Weiterentwicklung der Inreal-Technologie die Möglichkeit, ihre Immobilien noch besser zu präsentieren.
Was ist dabei die größte Herausforderung?
Technisch ist die Umsetzung anspruchsvoll. Wir integrieren einen zusätzlichen Programmlayer, also einen Programmteil, der über einen Webserver die Kommunikation des iPads mit dem Computer ermöglicht, auf dem die virtuelle Welt installiert ist. Auf diesem Weg machen wir die Übertragung der Steuerungsbefehle für die Begehung und der Informationen zu neu gewählten Konfigurationen möglich. Wir arbeiten gleichzeitig von zwei Seiten an dieser Aufgabe: Wir müssen für das iPad und für unsere Software zu Generierung der virtuellen Welt entsprechende Services programmieren. Beide sind ohne diese Anpassungen nicht dafür ausgelegt, als Einheit zu funktionieren. Dazu wollen wir die Reaktionszeit minimal halten, also die Verzögerung, mit der die Aktionen vom iPad an den Rechner gesendet und auf dem Bildschirm sichtbar werden. Die Aktionen müssen, wie bei jeder anderen Fernsteuerung auch, adhoc zu sehen sein.
Was macht dir besonders Spaß an dieser Aufgabe?
Wir sind gerade ein einem Punkt, an dem die Fäden zusammenlaufen. Wir sehen, dass unser Plan aufgeht. Am Anfang standen ja nur erste Ideen und ein paar Layouts. Dann haben wir viel auf der Softwareseite gearbeitet. Jetzt ist es ein tolles Gefühl, wie gut der aktuelle Stand funktioniert. Wir heben unser Inreal-Produkt auf ein ganz neues Niveau und schaffen einen Monster-Mehrwert für unsere Kunden. Dazu kommt, dass auch unsere Kollegen in der Visualisierung von unserer Entwicklung profitieren. Die Arbeitsabläufe in der Erstellung der virtuellen Welten werden der komplexen Anforderung der Konfigurationen gerechter. Das macht tatsächlich viel Spaß.
Gibt es schon Gedanken für eine weitere Entwicklung?
Ja, wir denken noch weiter. Mit der iPad-Steuerung sind wir bereits auf dem Weg zu einer dialogorientierten, emotionalen Produktpräsentation. Binden unsere Kunden vor dem Start einer virtuellen Tour noch Bildergalerien oder Filme ein, lässt sich gezielt eine passende Stimmung erzeugen. Uns schwebt außerdem vor, unseren Video-Service deutlich zu verbessern. Es wird möglich sein, schon kurz nach der Präsentation eines Objektes einen Film mit den individuellen Konfigurationen zur Verfügung zu stellen. Dieser Film wird automatisch erzeugt und auf einer Online-Plattform bereitgestellt. Unsere Kunden müssen nur noch einen Link versenden – und können mit überzeugendem Service punkten.
Comments are closed.