Status Quo: Spatial Computing / Metaverse - Thomas Riedel - #107

Shownotes

In der Episode 107 sprechen wir über Spatial Computing und das Metaverse mit dem Experten Thomas Riedel. Thomas erklärt, wie VR- und XR-Technologien eine nachhaltige Alternative zu Flugreisen oder Team-Meetings bieten und Unternehmen dabei helfen, Ressourcen zu sparen. Wir diskutieren ausserdem die Bedeutung von KI und Large Language Models im Zusammenhang mit Augmented Reality und dem Metaverse. Thomas Riedel betont, dass Unternehmen nicht nur auf den Hype um das Metaverse reagieren sollten, sondern die Technologien verstehen und sinnvolle Lösungen entwickeln müssen. Es wird zudem auf Use Cases für XR sowie die Entwicklung abstrakterer UX-Designs eingegangen.

LinkedIn Profil: Thomas Riedel Webseite: Spatial Realities

Host: Thomas Besmer Produktion: Hutter Consult AG

Hutter Consult AG

Transkript anzeigen

00:00:10: Hallo und herzlich willkommen zu Digital Marketing Upgrade, präsentiert von der

00:00:14: Hutter Consult. Mein Name ist Thomas Bessmer. In der heutigen

00:00:17: Talk-Episode geht es den Status quo im

00:00:21: Thema Spatial Computing und Metaverse. Ein Thema,

00:00:25: das seit der KI oder insbesondere seit JetGBT

00:00:28: auf dem Markt ist, deutlich in den Hintergrund

00:00:32: geraten ist und trotzdem faktisch noch

00:00:35: da ist, immer noch sehr relevant ist. Auch

00:00:39: die Zukunft beschreibt Apple mit der Apple Vision

00:00:42: Pro, die den Begriff Spatial Computing in den Vordergrund

00:00:46: gerückt haben. Da habe ich mir heute einen Experten

00:00:50: geholt. Er ist freier Tech-Journalist, schreibt hauptsächlich

00:00:54: über Themen der digitalen Wirtschaft und über die Start-up-Ökonomie.

00:00:59: Er wurde Von der Keynote von Mark Zuckerberg im Jahr 2022

00:01:03: vom Metaverse angefixt wurde, ist selbst Podcaster

00:01:07: bei Gründerzeit und betreibt den grössten Podcast zum

00:01:11: Thema Metaverse, XR und Spatial Computing.

00:01:15: Er lebt in Köln, ist Vater einer Tochter und

00:01:19: ist gerne mit dem Fahrrad unterwegs. Man trifft ihn auch immer wieder in

00:01:23: unterschiedlichen Locations oder in Coworkings in Köln.

00:01:27: Er hat früher mal einen Android-Blog gestartet in Deutschland, hat

00:01:31: das dann nicht weiterverfolgt, was er ein bisschen bereut, so wie ich

00:01:34: das aus seiner Vita lese. Hallo und herzlich

00:01:38: willkommen, Thomas Riddel. Hallo, danke für die Einladung.

00:01:42: Ich freue mich, dass du die Zeit gefunden hast. Du

00:01:46: bist Podcaster, Spatial Computing heisst der Podcast,

00:01:50: früher Metaverse Podcast. Da hast du eine Umbenennung gemacht im letzten

00:01:53: Jahr mit der Ankündigung der Apple Vision Pro.

00:01:58: Für mich eine sehr vertraute Stimme, weil ich dich regelmässig

00:02:02: höre, insbesondere, wenn ich mit dem Auto unterwegs bin oder

00:02:06: während des Lauftrainings. Daher freue ich mich umso mehr und bin auch

00:02:09: leicht nervös, dass ich dich im Podcast haben darf. Sehr

00:02:13: gerne. Ich bin auch nervös, wenn ich im Gast und im Podcast bin.

00:02:17: Ich freue mich sehr, dass ich hier sein darf. Sehr schön. Bevor wir

00:02:21: zum Thema Status Quo, Spatial Computing und Metaverse kommen,

00:02:25: stelle ich meinen Gästen immer zwei Fragen.

00:02:29: Die geneigten Zuhörerinnen und Zuhörer kennen die Fragen schon. Und zwar die

00:02:32: erste Frage ist, auf welche Tools kannst du in deinem Arbeitsalltag

00:02:36: nicht verzichten? Ja, ein Tool, auf das ich überhaupt nicht

00:02:39: verzichten kann, ist die Rechtschreibekorrektur als Plugin im

00:02:43: Browser. Und zwar sowohl auf deutsch als auch auf englisch,

00:02:47: denn ich schreibe ziemlich viel ins internet rein, in sämtlichen

00:02:50: sozialen netzwerken, threads und bluesky und mastodon und linkedin und

00:02:54: facebook und wie sie nicht alle heißen und hätte ich da nicht

00:02:58: meine autokorrektur eingeschaltet, dann wäre die

00:03:01: voller Fehler, weil ich schreibe meistens ziemlich schnell. Also ich schreibe immer sehr

00:03:05: schnell, ich tippe sehr viel und da muss ich, da

00:03:08: brauche ich eine Korrektur, die mir da ein bisschen unter die Arme greift. Also mit

00:03:12: dem, ohne das geht gar nichts. Und dann natürlich

00:03:15: mein Smartphone, das ich immer und überall dabei habe, weil ich quasi

00:03:19: alles fotografiere, was mir in den Weg kommt. Ja, ich

00:03:22: habe quasi ein optisches Tagebuch, wenn man so möchte, ein

00:03:26: visuelles Tagebuch und ja, ich fotografiere alles. Also

00:03:30: Wenn man mit mir unterwegs ist, dann muss man das über sich ergehen lassen, dass

00:03:33: ständig mein Telefon auf irgendwas gerichtet ist. Oder die Brille

00:03:37: plötzlich läuft. Also ich habe ja hier diese Meta Ray-Ban, die

00:03:40: Smartglasses von Meta. Da kann ich auch mal ein Foto

00:03:44: machen. So. Ja, jetzt hätte ich sie einschalten sollen

00:03:48: vielleicht auch. Aber mit der mache ich auch immer Fotos. Also ja,

00:03:51: die zwei Sachen sind super wichtig und dann gibt es natürlich ganz viele kleine

00:03:55: Tools, aber ja, das soll es erstmal gewesen sein. Sehr

00:03:58: schön. Und wenn du auf einem Magazincover erscheinen könntest,

00:04:02: welches Magazin würdest du dir aussuchen? Ja, ich

00:04:06: glaube, das verknüpfe ich jetzt so ein bisschen mit so einem Wunsch, den ich

00:04:09: noch habe, etwas auf der Bucketlist, was ich noch zu Ende bringen möchte, nämlich mal

00:04:13: ein Buch zu veröffentlichen. Ich weiß noch nicht, ob es ein

00:04:17: Sachbuch sein soll, also es könnte natürlich was zum Thema Metaverse oder

00:04:21: Immersive Media oder so sein, dann wäre es ein Sachbuch oder ob es

00:04:24: natürlich Fiction ist, da leap-orgel ich auch so ein bisschen mit und

00:04:28: dann wäre das natürlich auf dem Cover eines Büchermagazins,

00:04:34: das sagt, ihr müsst dieses Buch lesen, weil ich mit diesem

00:04:37: Buch was geschafft habe. Ich veröffentliche ein Buch und die Leute sagen, es müsst ihr

00:04:41: lesen. Das ist ein Traum, den ich habe. Das würde ich mir

00:04:44: wünschen, dass das eines Tages passiert. Sehr schön, Das

00:04:48: ist ein schönes Ziel oder ein schöner Plan. Ich weiss auch,

00:04:52: dass drei, vier Zuhörerinnen und Zuhörer in

00:04:55: Verlagen in Deutschland arbeiten. Falls ihr ein Buch in

00:04:59: eurem Sortiment haben möchtet über das Metaverse, Spatial Computing

00:05:03: oder auch ein Fiktionbuch, dann gerne direkt bei Thomas

00:05:07: Riddell melden.

00:05:11: Das LinkedIn-Profil ist in den Show Notes oder auch im Blog

00:05:15: auf thomashutter.com verlinkt. Ja, sehr

00:05:18: cool. Jetzt werde ich nervös. Ich werde es wahrscheinlich gleich anfragen.

00:05:24: Genau. Status quo, spatial computing, Metaverse ist das Thema.

00:05:29: Und von daher Für mich war insbesondere

00:05:33: VR am Anfang, also Virtual Reality,

00:05:37: auch mit den Brillen. Ich weiss noch, 2018, ich

00:05:41: glaube im Mai oder Juni, habe ich mir die Oculus Go gekauft. Das

00:05:45: war die erste Brille, die man nicht am PC anschliessen

00:05:48: musste. Es war noch von Oculus, das neu von Meta

00:05:52: übernommen wurde, von Facebook übernommen wurde. Es hatte einen

00:05:55: Controller, die Auflösung war eher schlecht.

00:06:00: Cases gab es noch nicht wirklich. Später kam dann die Quest

00:06:04: 2 und seit letztem Jahr, oder Ende letztes Jahr, die

00:06:07: Quest 3, die ich persönlich regelmässig

00:06:11: nutze und auch da einige Cases habe, insbesondere im Business-Umfeld. Wir

00:06:17: haben es im Vorgespräch schon besprochen, dass ich die Brille oft mitnehme,

00:06:21: wenn ich unterwegs bin, damit ich dann weiterhin auf zwei,

00:06:24: drei Bildschirmen arbeiten kann, auch wenn ich im Restaurant sitze und

00:06:28: trotzdem meine Umgebung sehe. Da zielt

00:06:32: die erste Frage ab, und zwar Spatial Computing,

00:06:36: ist das eher eine Spielerei für Technikbegeisterte,

00:06:40: also ist das eine Spielerei für Technikbegeisterte, oder gibt es da bereits

00:06:44: ernst zu nehmende Business Cases? Ja, also du hast jetzt

00:06:47: gerade mit VR angefangen und die Frage mit

00:06:51: Spatial Computing beendet. Das könnte

00:06:55: man ein bisschen aufdröseln, was das eigentlich alles separat ist.

00:06:58: Also ich würde sagen, Virtual Reality ist tatsächlich etwas anderes wie

00:07:02: Spatial Computing. Virtual Reality bezeichnet das

00:07:06: Headset, also ist oft ein Headset, das damit

00:07:10: bezeichnet wird und da assoziieren wir sofort,

00:07:13: wie Virtual Reality technisch umgesetzt wird, nämlich man zieht sich ein Headset

00:07:17: auf und auf diesem Headset werden dann Dinge angezeigt und man ist in einer anderen

00:07:21: Welt, in dieser Virtual World und dann vielleicht auch

00:07:24: im Metaverse. Das ist eine damit verbundene Zukunftserzählung.

00:07:29: Und dieses Spatial Computing geht dann nochmal ein bisschen anders ran. Das muss nicht unbedingt

00:07:33: mit einem Headset sein und geht das Ganze sozusagen, die

00:07:36: Blickrichtung von der das kommt, ist eine andere. Also

00:07:40: wenn man sich bisher vorgestellt hat, dass die Menschen eigentlich lernen, wie so

00:07:44: das Interface eines Computers funktioniert, geht es beim Spatial

00:07:48: Computing eher darum, dass der Mensch seine natürlichen Ausgabemethoden

00:07:52: benutzen kann, also seine Hände, seine Stimme, seine Augen, seinen

00:07:56: Körper, allein dadurch, dass er sich irgendwie im Raum bewegt. Und

00:07:59: alle möglichen Computer und Sensoren nehmen auf, was ich

00:08:03: mache und verarbeiten das und geben mir dann Feedback.

00:08:06: Und das ist so ganz grob das, was man unter Spatial Computing

00:08:10: bezeichnen könnte und der eine oder andere wird jetzt aufmerkt und sagen, ja

00:08:13: das kommt mir bekannt vor, das haben wir doch eigentlich schon die ganze Zeit.

00:08:17: Genau, also die ganzen Audio Assistants, die wir

00:08:21: haben, also Alexa oder Google Assistant zum Beispiel, das kann

00:08:24: man durchaus schon als Spatial Computing verstehen, weil unsere natürliche

00:08:28: Ausgabe, die Stimme, wird dort schon genommen und ein

00:08:32: Computer verarbeitet das Signal und reagiert dort

00:08:35: einigermaßen clever, hoffentlich. Bei Siri bisher noch nicht

00:08:39: so, da arbeitet Apple ja gerade auch dran, aber genau, das

00:08:43: war praktisch die erste Form gewesen und was Apple jetzt mit

00:08:46: der Apple Vision Pro gemacht hat, ist so ein bisschen den neuen

00:08:50: Ansatz zu fahren und nicht sozusagen einfach nur ein Virtual Reality

00:08:54: Headset zu kopieren und zu sagen okay wir haben ja diese komplizierten

00:08:57: Eingabemethoden die wir bisher hatten mit diesen Controllern und das fühlt

00:09:01: sich alles so ein bisschen old-fashioned virtual reality mäßig

00:09:05: an, sondern wir setzen uns hin und überlegen uns, wie

00:09:08: müsste das Interface eigentlich optimalerweise aussehen,

00:09:12: damit das für Nutzende tatsächlich auch gut benutzt werden kann. Und wenn man sich so

00:09:15: die Geschichte bei Apple anschaut, dann ist es ja genau das, was sie eigentlich mit

00:09:18: jedem neuen Gerät machen. Also sich zu überlegen, wie kann man die

00:09:22: Nutzererfahrung neu gestalten. Das war bei Mac die Maus, die

00:09:26: sie zwar von Menlo Park ein bisschen geklaut haben, aber dann tatsächlich in

00:09:30: ein kommerzielles Produkt gegossen haben. Das war

00:09:34: beim iPod, war das sozusagen dieses Clickwheel und 1000

00:09:38: Songs in your Pocket sozusagen. Das war später beim

00:09:41: iPhone diese revolutionäre Multi-Touch-Screen, genauso wie beim

00:09:45: iPad und dann der Stift noch dabei und das ist jetzt praktisch

00:09:48: wieder eine neue Stufe beim Spatial Computing. Also wir haben

00:09:52: Personal Computing, Mobile Computing und Spatial Computing. Und beim

00:09:55: Spatial Computing wieder eine neue Eingabemethode, wobei das ja eigentlich

00:09:59: eine Mischung ist. Also man hat eine Mischung aus

00:10:03: Augentracking und Handtracking und man kann auch die Stimme verwenden,

00:10:07: dann im Raum sich Sachen anzeigen zu lassen. Das ist überraschenderweise

00:10:11: erstmal ziemlich 2D eigentlich, denn was man auf der Apple Vision Pro ja

00:10:15: vor allem sehen kann, sind die 2D-Apps, die ich schon vom iPad her

00:10:18: kenne und die kann ich dann dort anzeigen lassen. Aber die

00:10:21: Eingabemethode ist neu, das Interface. Ja, also man braucht eben keine

00:10:25: Controller mehr, sondern man kann das einfach mit hingucken und mit den

00:10:29: Fingern klicken, aktivieren und das ist so ein bisschen das was Spatial

00:10:33: Computing jetzt bringt. Okay, das ist neu durch die Apple Vision

00:10:36: Pro. Meta hat das natürlich mit seinen Brillen auch im Laufe der Zeit

00:10:40: schon immer auch so ein bisschen gehabt. Also Hand Tracking ist ja auch nichts Neues

00:10:43: für alle, die eine Meta-Quest haben. Aber so wie es Apple

00:10:47: umgesetzt hat, war es nochmal auf einem anderen Level. Und jetzt ist so die Frage,

00:10:51: okay, kann Apples Approach für diese Technologie

00:10:55: tatsächlich nochmal mehr User heranführen? Weil es war

00:10:58: es auch nicht so, dass selbst nach

00:11:02: dem großen Metaverse-Hype und selbst nachdem wir alle durch die Corona-Pandemie

00:11:06: zu Hause saßen, nicht alle plötzlich eine VR-Brille

00:11:10: auf der Nase hatten. Es gibt

00:11:13: insgesamt ungefähr, spekuliert man so an, die 25 Millionen

00:11:17: Headsets, die von Meta auf den Markt geworfen wurden in den letzten vier, fünf Jahren.

00:11:21: Das sind natürlich im Vergleich zu Handys immer noch verdammt viel weniger.

00:11:25: Zu Spielekonsolen ist das gar nicht mal so schlecht. Also so eine Xbox, die

00:11:29: gibt es nur ein paar Millionen mal da draußen im Markt. Von dem her ist

00:11:32: das schon mal nicht schlecht, aber es ist noch nicht Mainstream geworden und jetzt ist

00:11:36: die Hoffnung, dass durch Apples Ansatz, Spatial Computing zu machen

00:11:39: und die Technologie über Spatial Computing erfahrbarer und

00:11:43: zugänglicher zu machen, dass dann der große Durchbruch kommt. Der ist noch nicht

00:11:47: erfolgt und das ist auch gar nicht verwunderlich, wenn man sich ein bisschen die Geschichte

00:11:51: des Apple iPhones anschaut, denn auch da war es so,

00:11:54: dass die ersten zwei iPhones sozusagen

00:11:58: Entwicklungsgeräte waren, wo man ein bisschen herausgefunden hat,

00:12:02: okay, die Leute wollen tatsächlich direkten Zugriff auf die Kamera haben, die

00:12:05: Leute wollen einen eigenen Store haben, die wollen mehr APIs haben

00:12:09: und so weiter und erst dann kam ja mit dem dritten Gerät eigentlich der

00:12:13: Hockeystick los. Und das ist jetzt so ein bisschen das Spannende

00:12:17: nach Apples Release der Apple Vision Pro. Schafft es Apple,

00:12:21: eine Plattform zu bauen, wo sie nach ein paar Iterationen, wir wissen noch

00:12:24: nicht, wie viele, dass sie es schaffen, dass für diese

00:12:28: Technologie ein Hockeystick anfängt? Da befinden wir uns.

00:12:33: Das ist etwas, was viele Expertinnen und Experten gesagt haben. Mit der

00:12:36: Apple Vision Pro wird Apple versuchen, einen neuen

00:12:40: Standard zu setzen. Das ist ja auch ein Thema, ist ja bei der

00:12:44: KI ein Thema, ist aber auch bei Spatial Computing

00:12:48: oder auch bei Metaverse, was ja wieder etwas anderes ist als Spatial

00:12:51: Computing, ein Thema, was wir zukünftig

00:12:56: den Standard ausmachen bzw. Was wird Standard sein?

00:12:59: Gibt es überhaupt einen Standard? Also Wie früher bei der DVD,

00:13:03: wo die DVD zum Standard wurde, obwohl es andere

00:13:08: Datenträger auf dem Markt gab. Da ist

00:13:11: jetzt auch Meta wie auch Apple wirklich

00:13:16: in der Startposition, beziehungsweise sind schon gestartet,

00:13:20: aus ihren Plattformen möglichst einen Standard zu machen.

00:13:23: Ja. Wobei, da muss man sagen, wir sollten

00:13:27: eigentlich hoffen, dass keine der Plattformen ein Standard

00:13:31: wird. Dann haben wir wieder das gleiche, wie wir es gerade auch im

00:13:35: Mobile Markt haben, nämlich eigentlich nur zwei Standards Android und

00:13:39: iOS und sonst gibt es nichts und die können komplett den Markt regulieren

00:13:43: und teilen das unter sich auf und die EU tritt da jetzt zwar

00:13:46: an, das abzuschaffen und ein bisschen aufzulockern

00:13:50: und mehr für die Rechte der NutzerInnen an sich einzusetzen,

00:13:54: aber das ist eigentlich kein guter, tatsächlich keine gute,

00:13:57: ja keine gute Situation, in der wir uns gerade befinden, weil wir

00:14:01: gerade auch so merken, wenn wir wenige Teilgeber eines solchen

00:14:05: Marktes haben, dann ist innovativ nicht mehr so viel los. Also die

00:14:09: letzten iPhones waren jetzt nicht so, dass wir dachten, wow, ich brauche dringend ein

00:14:12: neues iPhone, sondern da war es eher so, ach ihr habt jetzt auch den knopf

00:14:16: den wir bei android haben super so okay die kameras

00:14:20: die sind immer fantastisch da gibt es gar keine diskussion aber muss man

00:14:24: schon sagen da passiert es nicht mehr so viel und das passiert wenn sich etwa

00:14:27: plattform etabliert haben und ja dann brauchen sie nicht mehr

00:14:31: innovieren, dann können sie nur noch den markt ausquetschen. Okay das wollen wir

00:14:34: also nicht, dass das passiert und da sind

00:14:38: wir im prinzip auch noch nicht, also die märkte selber im vr

00:14:42: im xr bereich die sind noch so klein, dass

00:14:46: das noch lange nicht passiert. Also da ist auch noch viel Bewegung drin, da

00:14:49: passiert auch noch einiges und da sind wir noch ein bisschen von

00:14:53: entfernt. Aber Standards ist tatsächlich ein gutes Thema, weil

00:14:57: wenn wir über das Metaverse sprechen, geht es im Grunde etwas,

00:15:01: was außerhalb dieser Plattform stattfindet und sich entwickeln

00:15:04: muss. Das Internet ist nicht auf apple.com entstanden

00:15:08: oder auf android.de, sondern das ist natürlich schon zum

00:15:12: einen davor da gewesen und zum anderen ist etwas entstanden,

00:15:16: ist es entstanden dadurch, dass es offen war und es jeder benutzen

00:15:19: konnte. Das heißt, jeder konnte sich einfach einen Computer in sein Zimmer stellen,

00:15:23: hat sich eine IP-Adresse besorgt, hat seinen Computer angeschlossen,

00:15:27: hat eine Punkt HTML, eine Index Punkt HTML

00:15:30: verfügbar im Root-Verzeichnis seines Computers gemacht und plötzlich hatte

00:15:34: der eine Webseite im Internet und das sollte

00:15:38: eigentlich auch passieren, wenn wir über das Metaverse sprechen. Also das Metaverse

00:15:42: als ein Netzwerk aus

00:15:45: VR oder XR Experiences, die so

00:15:49: miteinander verbunden sind, dass man da wie im Internet

00:15:52: surfen kann, ja wie auch immer das dann letztendlich aussehen wird, also dass man mit

00:15:56: seinem Avatar von einer Experience zu einer anderen rüberlaufen

00:16:00: kann, dass wir im Prinzip oder rüberfahren kann, das wäre im Prinzip das coolste.

00:16:04: Das sind wir noch lange nicht und das liegt auch tatsächlich daran, dass wir noch

00:16:07: nicht das HTML des Metaverse haben. Wir arbeiten dabei

00:16:11: tatsächlich dran. Also da gibt es zum Beispiel die OpenUSD,

00:16:15: das OpenUSD-Konsortium, in dem so ziemlich alle

00:16:19: Teilgeber drin sind, die wir so kennen und wo alle auch

00:16:23: mitarbeiten. Und USD ist ein sehr spannendes Dateiformat, das ursprünglich von

00:16:26: Pixar erfunden wurde. Pixar, wir erinnern uns, eine Firma von

00:16:31: Steve Jobs tatsächlich auch. Und die haben dieses

00:16:34: Format erfunden, ihre Filme kollaborativ

00:16:38: erstellen zu können und weil die so groß

00:16:42: wurden, dynamisch Inhalte reinladen und wieder rausschubsen zu

00:16:45: können. Und das erinnert uns vielleicht an einen Browser von

00:16:49: der Art und Weise wie das passiert. Also ein Browser ist ja auch im Prinzip

00:16:52: etwas was dynamisch eine Webseite reinlädt und wenn die Webseite geschlossen wird, dann schmeißt es

00:16:56: wieder raus. Und so kann man durch Webseiten, durch

00:17:00: das Internet surfen und so könnte vielleicht auch dann eines Tages

00:17:03: mal das Metaverse funktionieren, dass wir praktisch über USD, wenn sich

00:17:07: herausstellt, dass das das richtige Format ist, via durch das Metaverse

00:17:11: surfen. Also da wird dran gearbeitet, es gibt da auch

00:17:14: Metaverse Standards Forum zum Beispiel, das ist so was ein bisschen wie

00:17:18: das World Wide Web Konsortium, die auch an Standards

00:17:22: arbeiten. Da gibt es noch viel mehr als sozusagen USD. Da

00:17:25: geht es auch Audio, da geht es auch Sicherheitsstandards

00:17:29: und so weiter. Da wird viel daran gearbeitet, aber wir

00:17:33: befinden uns da am Anfang. Und kleiner Funfact, HTML war

00:17:37: der zweite Versuch, so einen Standard für das Internet zu entwickeln. Also es kann sein,

00:17:40: dass tatsächlich USD es nicht wird und es ein anderes wird. Oder wir haben es

00:17:44: gleich mit USD geschafft. Das wird sich im Laufe der Zeit zeigen.

00:17:48: Sehr spannend. Man merkt, es wird daran gearbeitet. Das

00:17:52: Thema, ich fasse es unter dem Begriff XR zusammen,

00:17:56: ist bei Weitem nicht tot, wie das teilweise prognostiziert

00:18:00: wurde oder wie das auch teilweise in den Medien

00:18:04: aufgegriffen wurde, insbesondere im Metaverse ist tot, da

00:18:08: keine Zukunft für Meta im Bereich Metaverse. Dann

00:18:11: kamen noch Informationen bzw. Nachrichten dazu, dass

00:18:15: auch Mark Zuckerberg die Investitionen ins

00:18:18: Metaverse reduziert hat. Er ist immer noch auf einem sehr hohen

00:18:22: Niveau unterwegs, aber das Ganze reduziert hat. Dann noch verstärkt

00:18:26: in KI investiert. Das gab ja bei vielen auch zum

00:18:29: Anlass, dass das nur eine Spielerei ist,

00:18:33: die jetzt mal aufgekommen ist, so ein Hype, und der wird bald

00:18:37: wieder vorbei sein. Aber das ist es ja definitiv nicht. Nee, also man

00:18:41: könnte vielleicht sogar sagen, ich habe die Zahlen jetzt nicht parat,

00:18:46: aber das kann man wahrscheinlich historisch auch mal belegen, dass eigentlich noch

00:18:49: nie so viel in XR und damit auch ins Metaverse

00:18:53: investiert wird wie aktuell. Also Apple ist

00:18:56: dazu getreten und hat sein Gerät entwickelt, das hat auch

00:19:00: einige Milliarden gekostet das zu entwickeln. Wir haben Nvidia,

00:19:04: die so viel in Technologie investieren wie noch nie zuvor,

00:19:08: jetzt zur größten Firma der Welt geworden ist.

00:19:12: Nicht nur, weil sie in KI investieren, sondern natürlich auch, weil

00:19:16: da natürlich auch die ganze Grafikpower dahinter sein

00:19:19: muss. Und ja, das kann man natürlich nur

00:19:23: bestätigen, dass die Firmen sehr

00:19:27: intensiv daran arbeiten. Ja, es ist tatsächlich so, dass

00:19:30: nach dem Metaverse Hype so eine gewisse Konsolidierung stattgefunden hat.

00:19:34: Warum? Es war auch die Corona-Zeit und da wurde

00:19:38: einfach heftig eingestellt. Und nach der Corona-Zeit

00:19:42: und auch natürlich aufgrund der Ukraine-Krise bzw. Des Krieges

00:19:46: und jetzt dem Nahost-Kram, den wir da haben,

00:19:50: findet sozusagen eine Reinigung statt in den Unternehmen und es wird immer mal wieder

00:19:54: was entlassen. Das ist aber, sage ich mal, jetzt innerhalb der natürlichen

00:19:58: Wellenbewegungen zu verstehen und hat erstmal nichts mit der Sache selbst zu

00:20:01: tun. Und ja, widerspricht sich das

00:20:05: eigentlich KI und Metaverse überhaupt nicht? Also es ist

00:20:08: sogar geradezu so, dass das sogar sich

00:20:12: eigentlich gegenseitig bedingt. Also viele Features, die wir überhaupt,

00:20:16: die wir brauchen, etwas wie ein Metaverse zu bauen und überhaupt diese

00:20:19: Geräte zum Laufen zu bringen, basieren auf maschinellem Lernen, basieren

00:20:23: auf KI und wären ohne das gar nicht denkbar. Das Augentracking,

00:20:27: das ist predictive, ja, das wird über einen maschinell

00:20:31: gelernten Algorithmus gesteuert, Ja, man guckt wohin und im

00:20:34: Prinzip weiß der Chip schon, wo ich hingucke und kann dann sagen,

00:20:38: da mache ich es schärfer wie woanders. Das nennt sich 4-VTED-Rendering,

00:20:42: spart Rechenkapazitäten, spart Akku und erhöht

00:20:47: den Komfort für den Benutzer. Und da gibt es viele Komponenten, die man

00:20:50: braucht für XR, die schon lange auf KI basieren. Und

00:20:54: je mehr KI wir zur Verfügung haben, desto besser wird die Metaverse-Erfahrung,

00:20:58: wird XR. Und als Mark Zuckerberg sagte, wir machen

00:21:02: jetzt auch viel mit KI, war mir das völlig klar. Wir haben

00:21:05: schon immer was mit KI gemacht und dass sie jetzt was mit Large Language

00:21:09: Models machen, das liegt natürlich auf der Hand,

00:21:13: denn das offensichtlichste Interface für Large

00:21:16: Language Models ist Augmented Reality.

00:21:20: Also ich habe so eine Brille zum Beispiel gerade auf der Nase, das

00:21:24: ist die Meta Ray-Ban, da ist ein Sprachassistent

00:21:27: eingebaut und über den Sprach-, ein multimodaler

00:21:31: Sprachassistent sogar, das heißt ich kann da auch auf die Kamera und die Mikrofone

00:21:34: zugreifen und kann sagen, was ist das? Und kann mir das analysieren

00:21:38: lassen oder übersetzen lassen. Und das braucht die

00:21:42: multimodale KI und macht es sehr viel benutzerfreundlicher,

00:21:45: wie es jemals zuvor war. Und auch innerhalb eines Metaverse

00:21:49: ist natürlich so eine sprachbasierte Eingabe die Multimodales

00:21:54: natürlich perfekt geeignet. Also das geht Hand

00:21:57: in Hand und widerspricht sich gar nicht und zeigt eigentlich nur

00:22:01: wie weitsichtig Mark Zuckerberg da eigentlich war zu sagen und jetzt

00:22:05: geben wir Vollgas mit generativer KI. Denn er wusste

00:22:08: ganz genau, wie wichtig das eigentlich ist, auch für die Entwicklung des Metaverse.

00:22:14: Und außerdem hat es den Aktienkurs erhöht, was natürlich auch schlau war.

00:22:17: Ja, definitiv.

00:22:21: Von den Ausführungen her, man sieht die Tech-Unternehmen,

00:22:25: die an diesen Technologien arbeiten,

00:22:28: versuchen die Technologien auch miteinander zu befruchten. Das eine

00:22:32: schliesst das andere nicht aus. KI, Metaverse, Spatial Computing

00:22:36: hängt schlussendlich zusammen. Schlussendlich auch mit Augmented Reality,

00:22:40: wie deine Brille das schon aufzeigt. Oder beispielsweise

00:22:44: bei mir die Meta-Quest, die dann Objekte im Raum

00:22:48: erkennt und die entsprechend darstellen kann bzw.

00:22:51: Räumlich integrieren kann, so

00:22:55: nicht dagegen zu laufen oder so auch gewisse

00:22:59: Animationen auf diesen Objekten ausführen zu lassen.

00:23:04: Was müssen Unternehmen machen, den Anschluss im

00:23:07: Bereich XR, also Spatial Computing, aber auch

00:23:11: Metaverse, nicht zu verpassen? Sie

00:23:15: müssen unbedingt ihr ganzes Headquarter

00:23:19: nachbauen. Stuhl für Stuhl. Und Fenster

00:23:22: für Fenster. Und Arbeitsplatz für Arbeitsplatz. Nee, natürlich

00:23:26: nicht, ist natürlich ein Scherz. Das ist so das Erste, woran man irgendwie denkt. Also,

00:23:30: man müsste sich jetzt seine Immobilie kaufen und dann muss man da sein

00:23:33: Headquarter nachbauen und es noch größer und noch shinier machen, weil dann ist

00:23:37: man ja ein Metaverse. Ich würde sagen, das ist das allerallerletzte, was man tun

00:23:41: sollte. Das ist tatsächlich gar nicht so wichtig. Das

00:23:44: offensichtlichste, was man tun kann, ist tatsächlich Team-Meetings einfach in

00:23:48: XR zu machen. Also du machst das schon so ein bisschen, ja du hast dein

00:23:52: Office teilweise schon in VR gelegt, in

00:23:55: XR gelegt, indem du deine virtuellen Monitore aufmachen kannst, wenn du

00:23:59: die VR-Brille an hast. Das ist so der erste Schritt, aber das geht

00:24:03: natürlich auch sozial. Metaverse bedeutet Social VR,

00:24:07: also dass man sozial eigentlich unterwegs ist. Das ist

00:24:11: eigentlich eine Art soziales Netzwerk. Das heißt, Teammeetings und Workshops

00:24:15: in verteilten Teams schon in VR zu machen, das

00:24:19: ist so ein erster ganz ganz einfacher Schritt. Ja, das ist wie der Schritt

00:24:22: vom Telefonieren zu Zoom. Ja, das was wir alle gelernt haben

00:24:26: während Metaverse, das könnte man jetzt im Prinzip tun, indem man

00:24:29: jedem eine quest 3 kauft, kostet nur 500 euro,

00:24:33: was tatsächlich relativ günstig ist und dann

00:24:37: kann man die kostenlosen apps verwenden, die es schon gibt, nämlich

00:24:41: horizon workrooms von meta selber, da kann man bis

00:24:44: zu Vier Personen oder sind es schon sechs? Ich weiß es gar nicht. Da

00:24:48: kennst du dich wahrscheinlich noch. Bis zu 15 Personen. Bis zu 15 Personen sogar?

00:24:51: Ja. Schau an. Bis zu 15 Personen kann man in Horizon Workrooms

00:24:55: arbeiten, also das ist schon ganz toll. Und da gibt es natürlich auch bezahlbare

00:24:59: Suites, wenn man tatsächlich auch so ein bisschen Nutzerverwaltung

00:25:03: haben will, Dokumente verwalten will, zum Beispiel wenn man zusammen

00:25:07: in VR, in einem Whiteboard arbeitet, dass man das gut abrufen und

00:25:10: speichern kann. Da gibt es zum Beispiel so Lösungen wie Raum, die kommen hier auch

00:25:14: aus Köln, sind die schönste Metaverse App, die es

00:25:18: gibt, würde ich mal behaupten. Da kann man ganz leicht

00:25:22: einsteigen. Aber eigentlich muss man da nochmal ein bisschen einen Schritt

00:25:25: zurück machen, glaube ich. Also wenn wir über das

00:25:29: Metaverse sprechen, wenn wir über xr sprechen, dann sprechen wir über eine gewisse

00:25:33: Komponente der Digitalisierung und ich mache mal ein schönes

00:25:36: Beispiel, das wird die ganzen SEO Leute da draußen interessieren und auch natürlich

00:25:40: Marketing Leute und alle die da so ein bisschen in der Gestaltung

00:25:43: unterwegs sind. Nehmen wir mal an, wir haben einen

00:25:47: Stand mittlerweile, dass jeder eigentlich eine Augmented Reality Brille

00:25:51: auf der Nase haben kann. Also wenn jetzt hier noch ein

00:25:54: Wellenleiter eingebaut wäre, ist es noch nicht. Stellt Meta vielleicht

00:25:58: Ende des Jahres vor, diese Brille wird Wellenleiter. Angenommen, wir hätten die

00:26:02: alles schon und wir könnten rumlaufen und uns zusätzliche Informationen anzeigen

00:26:06: lassen und stellen wir uns auch vor, ich gehe in den Supermarkt, in einen ganz

00:26:09: normalen Supermarkt, wie wir ihn kennen, Rewe, Lidl, Aldi, was auch immer ihr gerade habt

00:26:13: in eurer Stadt und meine Mission ist es Schokolade zu

00:26:17: kaufen. Gehe ich in einen Laden, gehe zum Schokoladenregal und

00:26:20: dann kann die Brille mir helfen Entscheidungen zu treffen. Ja das heißt

00:26:24: sie scannt natürlich das Regal, weil die Kamera aktiv ist

00:26:28: und hat die Möglichkeit zum Beispiel auf

00:26:32: meine Kontakte zuzugreifen und zeigt mir alle Schokoladen an,

00:26:36: die in letzter Zeit von meiner Verwandtschaft oder meinen Freunden gekauft wurde. Es ist dann

00:26:39: so ein schöner grüner Rahmen außenrum. Da sehe ich so, ach so, das haben die

00:26:43: gekauft, ist ja interessant. Oder ich habe zum Beispiel Einstellungen

00:26:46: gemacht, dass ich weniger Zucker zu mir nehmen möchte, also werden

00:26:50: mir Varianten von Schokoladen angezeigt, die zum Beispiel einfach sehr dunkel

00:26:54: sind. Dunkle Schokolade hat weniger Zucker, also ist da auch ein Pfeil

00:26:58: auf eine dunkle Schokolade und sagt hier ist besonders wenig Zucker drin,

00:27:01: danach suchst du doch. Oder

00:27:05: es kann sein, dass ich sage, okay, ich hätte gern besonders faire Schokolade, die

00:27:09: fair trade ist, zeig mir doch mal die Schokolade an, wird erkannt und

00:27:13: angezeigt. Und dann letztendlich durch meine ganzen Auswahlkriterien

00:27:16: suche ich mir die raus, die der Thomas Besmer, weil sie mir empfohlen

00:27:21: hat, letztes Jahr sich selber gekauft hat, nehme ich auch die

00:27:24: Schokolade und kaufe sie ein. Was ist passiert? Ich habe

00:27:28: vielleicht die Schokolade gekauft, die wirklich für mich nicht gekauft,

00:27:32: die wirklich für mich am besten wäre und zwar deswegen, weil sie

00:27:35: nicht durch meine Brille hervorgehoben wurde. Das heißt, wir haben hier

00:27:39: schon so eine Art Käuferbeeinflussung, so eine Art SEO und Marketing,

00:27:46: Marketing Engine Optimization sozusagen

00:27:50: und die Schokolade, die ich eigentlich kaufen wollte, ist da unten, war aber komplett

00:27:54: außerhalb meiner Wahrnehmung, weil sie nicht hervorgehoben wurde, weil sie vielleicht

00:27:57: sogar ausgegraut wurde Und

00:28:01: ja, das lag unter anderem daran, dass diese Firma kein

00:28:05: Metaverse Engine Optimization gemacht hat.

00:28:08: Also sie hat ihre Produkte nicht ordentlich digitalisiert,

00:28:12: hatte die Daten nicht zur Verfügung, hatte die 3D Daten vielleicht nicht zur Verfügung,

00:28:16: Hatte keine Ahnung davon, dass man jetzt neuerdings bei Rewe sein Produkt

00:28:20: auch in 3D einstellen kann und zusätzliche Daten eingeben kann. Hat

00:28:24: da die Schnittstelle nicht benutzt. Vielleicht gibt es da sogar eine automatische Schnittstelle,

00:28:27: maschinenlesbare, eine API, wo ich meine Produkte automatisch updaten

00:28:31: kann. Und das führt letztendlich dazu, dass ich dann später mal, wenn wir

00:28:35: im Metaverse-Zeitalter sind, meine Produkte nicht mehr gefunden werden,

00:28:39: weil ich bei diesem Spiel nicht mitspiele. So wie wir es auch kennen, Webseiten,

00:28:43: die wir heute sichtbar machen wollen, da machen wir SEO, da gehen wir auf Social

00:28:46: Media und so weiter und so fort. Und das ist etwas, was gerne

00:28:50: außer Acht gelassen wird, wenn man ans Metaverse von morgen denkt,

00:28:53: nämlich, dass im Prinzip eine gewisse Digitalisierung erwartet

00:28:57: wird von einem. Und diese Digitalisierung, die ist im Prinzip das

00:29:01: Grundgerüst. Das heißt, wer heute schon ein bisschen

00:29:04: strategischer ans Metaverse denken möchte, der muss im Grunde dafür

00:29:08: sorgen, dass er einfach top-notch digitalisiert ist. Und das

00:29:12: hilft ihm ja aber auch in jedem anderen Gebiet. Also nicht nur für das

00:29:16: Metaverse, sondern auch für AI. Ja, auch wenn ich meine ganze

00:29:19: Datenbank an verschiedenen Produkten, an Zulieferern mit AI managen

00:29:23: und optimieren will. Auch dann brauche ich ja eine gute Digitalisierung mit

00:29:27: stabilen Datenbanken, die sinnvoll gegliedert und strukturiert sind,

00:29:31: die sinnvoll geupdated werden und so weiter. Auch da

00:29:35: hilft mir eine gute Digitalisierung und deswegen ist mein Tipp an der

00:29:38: Stelle, Unternehmen digitalisiert euch ordentlich und das ist im Prinzip

00:29:42: immer der Aufruf, sobald wir irgendeine Hypewelle haben, nochmal darauf

00:29:46: zu gucken, wenn das jetzt heute tatsächlich schon da wäre, das

00:29:49: Metaverse, oder wenn wir alles nur noch mit Large Language Models suchen würden,

00:29:53: was wir nicht tun, aber angenommen, das wäre so, wäre ich da schon darauf

00:29:56: vorbereitet? Und da muss man oft sagen, es ist halt noch nicht so.

00:30:02: Sehr spannende Frage, vor allem auch, wäre ich da

00:30:06: präsent schlussendlich, wenn alles nur noch über die

00:30:09: Large Language Models geht? Also JGPT, Gemini,

00:30:13: GLOT, Mistral etc.

00:30:18: Wäre ich Das würde ich da gefunden werden. Von daher sicherlich

00:30:21: für alle, und das sind ja die meisten, die hier zuhören, aus

00:30:25: dem Marketing, eine Frage, die man am nächsten

00:30:29: Meeting in den Raum werfen kann.

00:30:32: Ja, absolut. Wenn die Frage in den Raum geworfen wurde und man

00:30:36: erkennt, man hat Defizite, wie würdest du

00:30:40: Unternehmen empfehlen, vorzugehen? Ist das eher das

00:30:44: Hiring von neuen Personen das Bilden

00:30:47: einer neuen Abteilung? Ist das eher eine Taskforce

00:30:51: oder was gibt es da für mögliche Vorgehensweisen aus

00:30:55: deiner Sicht? Ja, das Beste wäre natürlich gewesen, man hat schon

00:30:59: Menschen, die sich mit solchen Zukunftsthemen beschäftigen. Ab einer bestimmten

00:31:02: Größe eines Unternehmens gehört das so ein bisschen zur Pflichteinrichtung,

00:31:06: würde ich mal behaupten, dass man so eine kleine aber feine Einheit hat, die

00:31:10: solche Themen auf dem Schirm haben, die sofort bemerken, okay, hier passiert

00:31:14: was, hier müssen wir was tun und zwar, weil man ansonsten

00:31:17: eventuell ja von seinem Mitbewerbern

00:31:22: ja weggespült wird vom Markt, einfach weil sie Produkte

00:31:25: anbieten die auf der Höhe der Zeit sind und man selber so ein bisschen hinterher

00:31:29: hinkt. Nicht jedes Produkt ist gleich empfindlich, nicht jeder Markt ist gleich volatil,

00:31:33: aber das muss eben immer jeder Geschäftsführer auch

00:31:37: selber haben oder entscheiden und spüren,

00:31:40: aber tatsächlich halte ich das für eine Frage der Ehre, dass man sich mit solchen

00:31:44: Themen immer auseinandersetzt. Also das hat man ja auch getan, als man die

00:31:48: Firma damals gegründet hat. Also da hat man sich umgeguckt und hat gesagt,

00:31:52: okay, wo bekomme ich jetzt meine Informationen her?

00:31:55: Wer ist der beste Maschinenbauer da draußen, den ich für mein Geld engagieren kann

00:31:59: und der hier verfügbar ist? Wo sind die besten Materialien?

00:32:03: Was ist der beste Vertriebskanal? Was sind meine Kursen, meine

00:32:07: Kunden? Wie komme ich am besten an die ran? Und so weiter und so fort.

00:32:10: Und das ist eigentlich eine Frage der Ehre, ständig auch auf der Hut zu

00:32:14: sein und zu gucken, Inwiefern können diese neuen Technologien dazu

00:32:17: beitragen, dass ich der Beste bleibe, dass ich die beste Qualität

00:32:21: liefere, dass ich meine Kunden zufrieden stelle. Und deswegen ist das tatsächlich total

00:32:24: wichtig, es zu tun. Und zwar nicht einfach nur, weil Digitalisierung irgendwie

00:32:28: wichtig ist und das alle sagen, sondern weil es eine Frage der Ehre ist als

00:32:31: Unternehmer, da am Ball zu bleiben. Und wie

00:32:35: mache ich das jetzt? Ja, das ist natürlich eine schwierige Frage und das ist auch

00:32:38: immer eine Einzelfallentscheidung. Da müsste ich jetzt in die Unternehmen reingucken

00:32:42: und sagen, ja, also bei euch ist das dringend notwendig, Oder ja gut, bei dir

00:32:46: reicht das, wenn du einen Nerd hast, der sich da so ein bisschen drum kümmert.

00:32:49: Aber da muss man einfach dann, also was wichtig ist,

00:32:53: ist vor allem nicht auf, ich sag immer

00:32:57: so etwas, ja, ketzerisch auf

00:33:00: Rattenfänger reinzufallen. Also ich hab's schon so ein bisschen angedeutet, der

00:33:04: falsche Weg wäre jetzt sein Headquarter in Decentraland

00:33:08: nachzubauen. Das ist so das Schlimmste, was man dann tun kann, weil das

00:33:12: im Prinzip ein Luftschloss ist, sprichwörtlich, dass man da baut. Da hat man

00:33:15: dann irgendeinem Metaverse-Berater, schlimmstenfalls

00:33:19: Krypto-Berater vertraut und der hat einem dann so ein Ding

00:33:23: aufgequatscht, weil man dachte, das wäre total wichtig.

00:33:26: Sondern es geht tatsächlich darum, zu erkennen, was tatsächlich

00:33:30: notwendig ist und das auch zu reflektieren. Also es geht nicht

00:33:33: darum, jedem Quatsch nachzumachen, sondern es geht darum, die Technologien wirklich

00:33:37: zu verstehen, den Rattenfängern zu entkommen und dann

00:33:41: die Dinge zu bauen, die wirklich für meine NutzerInnen, für

00:33:44: meine Konsumenten, für meine Menschen, die ich

00:33:48: da habe, auch fürs Team sinnvoll sind. Und da muss

00:33:52: man ein bisschen tiefer einsteigen, wie einfach nur dem Hype hinterherlaufen

00:33:56: oder Sätzen glauben, wie in Zukunft werden wir alle.

00:34:00: Ja, das sind so Markensätze, ja, wenn, Wenn man das hört, müssen

00:34:04: sich sofort alle Alarmglocken einschalten. Ja, wenn jemand kommt und

00:34:07: sagt, in Zukunft werden wir alle nur noch Bananen essen.

00:34:11: So, ne? Dann wissen wir, das ist Quatsch. Und bei Bananen ist das völlig

00:34:15: offensichtlich. Außer man ist ein Minion, dass

00:34:18: das ein Teil der Quatsch ist, oder ein Affe. Ähm, aber

00:34:22: Also, in Zukunft werden wir nicht alles im Metaverse machen oder wird alles aus KI

00:34:26: bestehen, sondern muss ich ganz genau immer anschauen, was für Cases das sind.

00:34:30: Und Ja, manchmal lohnt es sich dafür jemanden einzustellen,

00:34:34: manchmal lohnt es sich ein ganzes Team zu machen,

00:34:37: aber man sollte eigentlich nicht in Aktionismus verfallen und dann

00:34:41: meinen, man muss ein Luftschloss bauen oder man braucht jetzt unbedingt

00:34:45: eine App. Wir erinnern uns an das App-Zeitalter, das wir ja nie wirklich

00:34:48: verlassen haben, aber die Welle an, wir brauchen auch eine

00:34:52: App, Thomas, ja, und dann gab es plötzlich

00:34:55: 100.000 Apps, die kein Mensch benutzt hat, weil niemand verstanden hat, wieso wir sie eigentlich

00:34:59: da sind. Heute wissen wir, die meisten Apps sind

00:35:02: Webseiten und eine Webseite ist vollkommen ausreichend und sie ist

00:35:06: einfach mobil erreichbar und das passt dann schon.

00:35:10: Und so ähnlich muss man sich das jetzt im Prinzip auch mit Metaverse oder mit

00:35:13: KI vorstellen. Die meisten Dinge sind tatsächlich

00:35:17: einfach nur Webseiten oder Apps

00:35:21: und nicht ein neues KI-Gadget. Du erinnerst dich vielleicht an diesen Rabbit,

00:35:25: diese orangene Companion. Das ist zum Beispiel auch so ein ganz klassisches

00:35:29: Luftschloss. Da hat jemand einfach sehr gutes Marketing gemacht

00:35:33: und meinte, er müsste eine Aluminiumhülle für eine App bauen,

00:35:37: die aber eigentlich auf dem Smartphone Platz hat und hat das Ding dann Rabbit

00:35:41: genannt, hat eine schwenkbare Kamera eingebaut, hat eine tolle Webseite für aufgesetzt

00:35:44: und kompletter Flop. Ja, Ja,

00:35:48: okay, lange Antwort für eine kurze Frage, aber ja, es ist kompliziert,

00:35:52: muss man sich immer anschauen, welche Firma, welches Unternehmen was tatsächlich

00:35:56: braucht, aber grundsätzlich kann man sagen, habt die Themen auf dem

00:35:59: Schirm und behandelt sie professionell, lasst euch nix in die

00:36:03: Tasche labern, glaubt nicht den Rattenfängern, sondern guckt

00:36:07: wie damals, ja, als ihr Unternehmer wart. Brauche ich das wirklich

00:36:10: und kann ich mir jemanden besorgen, der wirklich Ahnung

00:36:14: davon hat? Eben, also das Spannende ist ja

00:36:17: wirklich dabei, dass man sich nicht in ein Luftschloss

00:36:21: aufbinden lässt, sondern in eine

00:36:25: eigene Headquarter oder Spatial baut. Es gibt auch noch viele

00:36:28: andere Plattformen, wo da

00:36:32: eine eigene Präsenz aufbaut, die dann niemand besucht. Das hat, glaube ich, die

00:36:36: deutsche Bundesregierung auch mal ausprobiert, was ja dann

00:36:39: flop wurde im letzten oder im vorletzten Jahr.

00:36:43: Das war die EU, glaube ich. Die haben für ein paar Millionen ein

00:36:47: Metaverse-Ding gebaut, wo dann 17 Leute da waren.

00:36:51: Ja, sondern dass man sich eher die Frage stellt, und ich glaube, das ist eine

00:36:55: sehr treffende Frage, wenn XR und

00:36:58: KI oder Wenn alle Menschen nur noch über

00:37:02: XR und KI nach Produkten, nach Dienstleistungen

00:37:06: suchen, sind wir da sichtbar? Und wenn nein, wie können

00:37:10: wir da schrittweise sichtbarer werden? Da ist dann meistens

00:37:13: schon die Antwort Nicht, dass man da ein eigenes

00:37:17: Headquarter digital oder virtuell aufbaut, sondern dass man

00:37:21: seine Produkte in den digitalen Raum

00:37:24: bringt, indem man beispielsweise die Schokoladenverpackung

00:37:28: oder auch andere klassische Staubsauger,

00:37:33: die mit 3D-Teilen dargestellt werden, wo man auseinandernehmen

00:37:37: und einzelne Teile anschauen kann, vielleicht noch Erklärungen

00:37:41: erhält, indem man mit der Brille, ob das Ray-Ban

00:37:44: von Meta ist oder andere, im Point

00:37:48: of Sales steht und dort durch die Brille beraten wird.

00:37:52: Ja, absolut. Also da sind auch alltägliche Dinge,

00:37:56: die wir heute haben, total super. Also wir sehen es jetzt mit der Appavision

00:38:00: Pro, da wird das immer mehr so sein, dass man natürlich erstmal in den

00:38:03: Luxusläden wie Porsche und Co, dass man da sich sein Auto konfiguriert,

00:38:08: aber auch was Unterhaltung angeht, wandert die App Vision Pro gerade bei der

00:38:11: Lufthansa in die Kabinen, da die Leute zu bespaßen.

00:38:15: Das sind ganz triviale Dinge erstmal, aber die funktionieren tatsächlich schon ganz

00:38:19: gut. Oder Ikea mit seiner AR-App, die hervorragend

00:38:22: funktioniert. Im Fashion-Bereich gibt es einiges, was man

00:38:26: ausprobieren kann. So Fitting-Sachen, Körpergröße-Scannen,

00:38:31: verschiedene modelle ausprobieren und so weiter funktionieren sehr

00:38:34: gut einer der größten es gibt einen hersteller aus

00:38:38: österreich die praktisch der 1 stop shop sind

00:38:42: für worldpools also wenn ihr euch überlegt ein worldpool anzuschaffen

00:38:45: dann könnt ihr den erstmal mit Augmented Reality in den

00:38:49: Raum stellen und gucken, passt der überhaupt rein ins Wohnzimmer oder

00:38:53: da, wo ihr den hinhaben wollt. Und so gibt es ganz viele, viele Use

00:38:57: Cases. Also das ist mittlerweile tatsächlich sehr mannigfaltig

00:39:00: unterwegs. Auch bei Amazon ist es mittlerweile fast schon Standard, dass die Produkte auch in

00:39:04: 3D angeguckt werden können. Das sind so Kleinigkeiten. Das ist jetzt

00:39:08: noch nicht so, dass man denkt, wow, das Metaverse ist da. Aber

00:39:12: das sind eben die Steps, die man jetzt schon auf dem Schirm haben musste oder

00:39:15: muss, tatsächlich, wenn dann irgendwann mal dieser Step kommt, auch

00:39:18: tatsächlich verfügbar zu sein und dann nicht erst noch sehr viele kleine

00:39:22: Schritte machen zu müssen, da hinzukommen, sondern ja, man war dabei und man hat

00:39:26: das mit aufgebaut und ja, manchmal erkennt man dann auch

00:39:29: Möglichkeiten und kann auch neue Dinge kreieren. Also

00:39:33: das ist ja tatsächlich auch das Spannende. Die Unvorhersagbarkeit

00:39:37: technologischer Entwicklungen, die ist ja tatsächlich ein Problem.

00:39:41: Also selbst Apple kann ja eigentlich nicht wirklich wissen, wie das

00:39:44: Metaverse aussieht in Zukunft. Ich mache mal ein einfaches Beispiel. Als das iPhone

00:39:48: rauskam, da war da eine E-Book App drauf. Wie

00:39:52: sah die E-Book App aus? Die E-Book App sah aus wie ein Bücherregal. Warum?

00:39:56: Naja, weil wir wussten, wie ein Bücherregal funktioniert. Aber eigentlich ist das nicht

00:40:00: wirklich notwendig, das Ding wie ein Bücherregal aussehen zu lassen, weil man

00:40:04: klickt da halt drauf und dann öffnet sich das und dann kann man Buchstaben lesen.

00:40:07: Aber was die Usability anging, war das eben so, dass das

00:40:11: funktioniert. Das war der klassische Geomorphismus,

00:40:14: ja, Und da befinden wir uns im Grunde auch

00:40:18: gerade am Anfang, wo wir versuchen durch neues Medium

00:40:21: irgendwie da rein zu kommen. Und die Bücher-App sieht

00:40:25: heute ganz anders aus. Sie kann viel abstrakter sein. Warum? Weil wir gelernt haben,

00:40:29: damit umzugehen. Für uns ist das, ist diese Abstraktionsebene keine Abstraktionsebene

00:40:33: mehr, sondern das kann im Prinzip nur noch ein Titelbild sein.

00:40:37: Da muss nichts mehr 3D sein. Ich klicke da einfach drauf, zack sind die Buchstaben

00:40:40: da. Ich brauche kein Bücherregal mehr aus Holz, das tatsächlich wie Holz

00:40:44: aussieht, sondern das ist einfach eine cool designete UX, die sehr

00:40:47: minimalistisch ist. Das funktioniert. Da haben wir praktisch einen Prozess durchgemacht.

00:40:52: Und das kann man immer, also wenn man das weiterdenkt,

00:40:56: dann war es auch unvorhersehbar, dass wir mal eines

00:41:00: Tages mit der Uhr bezahlen werden. Als Apple das iPhone rausbrachte,

00:41:04: haben die glaube ich nicht gewusst, ja völlig klar, wir werden in Zukunft alle

00:41:08: mit der Apple Watch irgendwie am Kiosk bezahlen. Das konnte man

00:41:11: vielleicht schon irgendwie ahnen oder das war vielleicht eine Zukunftsvision,

00:41:15: aber wirklich, wenn das jemand vorhergesagt hätte, hätte der gesagt, ich glaube du

00:41:19: spinnst ein bisschen. Und weil das eben unvorhersagbar ist. Und ähnlich

00:41:23: verhält sich es mit dem Metaverse. Heute denken wir daran, ich muss sofort

00:41:26: mein Headquarter nachbauen oder ich muss den Supermarkt in VR nachbauen.

00:41:31: Und das ist gar nicht mal so eine gute Idee, weil das letztendlich

00:41:35: nicht das ist, was wir dann irgendwann tun werden. Also wie wird

00:41:38: Shopping im Metaverse eines Tages aussehen? Ich hoffe auf gar keinen Fall

00:41:42: ist es eine 1 zu 1 Kopie der Realität, weil die hat ja im prinzip

00:41:46: lauter nachteil und die vorteile die wir in vr haben dass wir jetzt

00:41:50: uns zum beispiel hin beamen können dass wir uns schnell wohin teleportieren

00:41:54: können dass wir wie beim matrix ganze regale an uns

00:41:57: vorbeischießen lassen können oder viele dinge oder

00:42:01: auch eine sache haben aber die ihre Eigenschaften verändert und ich die nicht immer

00:42:04: tauschen muss. Ja diese ganzen Vorteile, die will ich ja eigentlich nutzen, wenn

00:42:08: ich so ein neues Medium benutze und deswegen ist wie das Meta, wie das in

00:42:12: Zukunft aussieht unvorhersagbar und das ist der einzige

00:42:16: Weg, wie man das tatsächlich herausfinden kann, ist, indem man es benutzt. Also

00:42:19: ich bin ein Unternehmen, ich möchte Vorreiter sein, ich habe

00:42:23: die Kapazitäten, das zu tun, ich habe den Cash, das zu

00:42:26: tun. Also was mache ich? Na ja, ich baue ein Lab und ich versuche herauszufinden,

00:42:30: wie könnte tatsächlich das Shopping in Zukunft aussehen und mach das, indem ich

00:42:34: anfange zu bauen und zu basteln. Und dann kann es sein, dass ich tatsächlich mal

00:42:37: den Killer Case für etwas baue. Das ist

00:42:41: ja das, was Apple auch gerade macht. Stellen die Plattform zur Verfügung und hoffentlich

00:42:45: benutzen das jetzt genügend Leute, probieren Sachen aus, testen

00:42:49: Dinge und bringen uns da vorwärts in der Usability, in der Art, wie wir

00:42:53: das Medium nutzen, eines Tages dann das herauszufinden,

00:42:56: was dann zum Beispiel mal das, die Amazon App

00:43:00: fürs Metaverse wird oder das Instagram

00:43:04: des Metaverse. Genau. Und bezüglich

00:43:07: Basteln, eine Überleitung. Du veranstaltest ja

00:43:11: Ende August ein Hackathlon in Köln, also vor der

00:43:14: Gamescom ist, wo es genau ja auch diese Themen

00:43:18: geht. Möchtest du da noch kurz was ausführen?

00:43:22: Ja klar. Also normalerweise bin ich ja ein Journalist, der

00:43:26: sich eher auf der theoretischen Ebene damit beschäftigt, auch wenn ich mir ganz praktisch an

00:43:30: die Brille aufsetze und das alles auch teste und mache. Aber da

00:43:34: habt ihr die Möglichkeit am 18. 19. Und 20.

00:43:38: August. Das ist das Wochenende vor der

00:43:41: Gamescom in Köln bei einem Hackerfond teilzunehmen

00:43:46: und zwar sponsert bei Meta. Da gibt es dann 100.000 Dollar

00:43:50: Preisgeld und ja, da werden wir versuchen im Bereich

00:43:53: Mixed Reality viele, viele neue Cases zu entwickeln.

00:43:57: Das heißt, wenn ihr selber Lust habt daran teilzunehmen oder ihr ein Team

00:44:01: habt oder ihr Leute kennt, die daran teilnehmen wollen, seid ihr ganz herzlich

00:44:04: eingeladen, euch da anzumelden auf xrhack.com.

00:44:08: Findet das Ganze statt, könnt euch anmelden. Findet dann in Köln im Media Park

00:44:12: statt. Das sind 3 Minuten S-Bahn von der Köln-Messe weg. D.h.

00:44:16: Ihr seid auch ruckzuck dann wieder bei der DEF CON und bei der Gamescom.

00:44:20: Kann ich nur sehr empfehlen. Und na ja, tolle Preisgelder. Es werden auch Leute

00:44:24: von Meta da sein. Es werden tolle XR-Leute, internationale

00:44:27: XR-Professionals da sein. Also alles in allem ein supertolles

00:44:31: Angebot. Ja, und wir arbeiten da schon kräftig dran.

00:44:35: Christian Steiner, Grüße gehen raus, und ich, und das ganze Team von

00:44:38: dem XR-Hack-Team. Ja, das wird eine fantastische Veranstaltung. Und

00:44:42: endlich mal wieder, sag ich mal, in Köln, zur Gamescom eine XR-Veranstaltung.

00:44:46: Das gab's nämlich die letzten Jahre sehr wenig, muss man sagen. Also, man könnte ja

00:44:50: denken, zu Gamescom, ja klar, da laufen alle mit Brillen rum, da passiert

00:44:53: total viel VR. Das war es aber gar nicht. Da war eher eine

00:44:57: große Zurückhaltung und als XR-Entwickler wusste man auch nicht so richtig, wohin.

00:45:01: Und die Zeiten sind jetzt vorbei. Also am Dienstagabend, am

00:45:05: Ende des Hackathons wird es eine große Party geben. Da solltet ihr auf jeden

00:45:08: Fall vorbeischauen. Das ist jetzt vorabend zur Gamescom. Da findet im

00:45:12: Startplatz dann eine riesengroße XR-Party statt. Kostenloser

00:45:16: Eintritt, Essen und Trinken. Wer mehr Informationen möchte, gerne auf

00:45:20: xrhack.com gucken. Sehr gut, vielen Dank

00:45:24: Thomas. Also da an alle Zuhörerinnen und Zuhörer, wenn ihr in

00:45:27: eurem Unternehmen Entwickler habt, die sich für diese

00:45:31: Themen interessieren, dann gerne den Link

00:45:36: weiterleiten, xrhack.com.

00:45:40: Dort finden eure Entwickler weitere Informationen, am

00:45:43: Hackathlon oder an der Party

00:45:47: teilzunehmen. Am besten bei weitem.

00:45:54: Ein Thema möchte ich noch ansprechen. Das ist die Nachhaltigkeit

00:46:00: solchen Applikationen bzw. Von solchen Initiativen.

00:46:05: KI Weissmann verbraucht eine

00:46:09: enorme Ressource an Energie. XR, das

00:46:12: ebenfalls stark ressourcenabhängig ist, insbesondere

00:46:16: Rechenleistungen. Wie können

00:46:20: Unternehmen vereinbaren, dass sie sich auf der einen

00:46:24: Seite Nachhaltigkeit auf die Fahne schreiben und

00:46:28: versuchen, nachhaltig unterwegs zu sein, auf der anderen Seite aber

00:46:32: an so ressourcenfressenden

00:46:36: Massnahmen oder Initiativen arbeiten. Ja,

00:46:39: also das kann man insofern mit seinem Gewissen vereinbaren,

00:46:43: indem man eben keine Luftschlösser baut. Also ich erinnere

00:46:47: mal an eine Phase während des Metaverse Hypes, da

00:46:50: wurden NFTs ausgegeben und da gab es den

00:46:54: Fall, dass die gleichen, die diese Crazy Monkeys gemacht haben, diese Crazy

00:46:58: Apes, ein neues Projekt gestartet haben, das hieß Other Side

00:47:01: Project und da haben die innerhalb von vier Tagen so ein CO2

00:47:05: Äquivalent verbraucht von 10.600 Flügen von London nach New

00:47:09: York, Bildchen auf einer Blockchain zu speichern.

00:47:13: Das ist zum Beispiel etwas, wo ich sage, Da hat man jegliche Glaubwürdigkeit,

00:47:16: was das Thema Nachhaltigkeit angeht, verloren. Es gab da

00:47:20: leider auch regelrechte NFT-Partys, zum Beispiel auf der

00:47:24: Online-Marketing-Rockstars. Da habe ich einfach nur mit dem Kopf geschüttelt und

00:47:27: gesagt, das geht einfach in diesem Jahrtausend nicht mehr. Ja, also wir stehen vor

00:47:31: einer existenziellen Herausforderung. Selbst

00:47:35: wenn man das sehr konservativ ansieht, muss man sagen, ja

00:47:39: wir müssen vorsichtig mit unserer Umwelt umgehen

00:47:43: und deswegen ist das eigentlich völlig unhaltbar. Aber

00:47:46: letztendlich sind diese Technologien ja nicht dafür da, einfach nur Quatsch zu machen,

00:47:50: sondern dahinter stehen ja schon die Überlegungen, inwiefern können sie

00:47:54: Prozesse ersetzen, können sie effizienter machen, können sie besser machen

00:47:58: und gerade im XR-Bereich geht das tatsächlich auch ziemlich einfach.

00:48:01: Also statt mit dem Flugzeug 10.600 mal von London nach

00:48:05: New York zu fliegen, irgendein Team-Meeting zu machen, kann man eben heute die

00:48:09: XR-Brille aufziehen, die VR-Brille und kann sich das halt sparen und hat

00:48:12: eine so gut wie realistische, ziemlich gute soziale

00:48:16: Erfahrung. Also man hat eine räumliche Erfahrung, man hat eine

00:48:20: soziale Erfahrung, also man verhält sich tatsächlich da auch sozial

00:48:24: im Raum, man stellt sich zueinander, man geht nicht, man kommt nicht zu

00:48:27: nah. Also das ist tatsächlich eine gültige soziale Erfahrung, die man da

00:48:31: macht. Und da lassen sich dann tatsächlich auch Vorstellungsgespräche, da lassen

00:48:34: sich Kundengespräche, da lassen sich Teamworkshops mit

00:48:38: verteilten Teams oder mit Kunden und

00:48:41: Gesprächspartnern auf der ganzen Welt führen, ohne erst

00:48:45: wirklich einen sehr großen CO2-Fußabdruck zu machen und dann ist das

00:48:49: natürlich cool. Ja, dafür brauchen wir das. Oder wenn wir in der Lage sind,

00:48:52: Dinge zu automatisieren, die vielleicht vorher sehr aufwendig waren.

00:48:56: Dadurch, dass wir durch maschinell erlernte Algorithmen in der

00:49:00: Lage sind, etwas effizienter zu machen. Dann gibt die Investition in diese

00:49:04: Technologie, dann ergibt die Sinn. Wenn es

00:49:07: einfach nur dafür da ist, dass wir irgendwie fancy Bildchen

00:49:11: machen und die dann am Ende noch auf eine Blockchain knallen, dann ergibt das nicht

00:49:15: so viel Sinn, aber da muss man auch, ich meine das ist jedermann

00:49:18: selber Entscheidung, aber da muss man einfach dann auch mal den Taschenrechner ausholen und

00:49:22: gucken, wie viele Liter Wasser werden jetzt gerade verbraucht für diesen Server und

00:49:26: ist das, was ich da mache, nicht einfach nur was, was ich für das Image

00:49:29: so ein bisschen mache, damit ich auch dabei bin oder optimiert das meine Prozesse

00:49:33: wirklich. Spare ich Zeit und Ressourcen dadurch, lohnt sich

00:49:37: das. Und manchmal ist es eine Nullsummenrechnung.

00:49:40: Ja, also man hat zum Beispiel dann ein Training, das man

00:49:44: in VR macht für Mitarbeitende, die Sicherheit zu verbessern,

00:49:48: da lässt sich jetzt nicht so unbedingt sagen, das ist so viel besser wie ein

00:49:51: alternatives Training. Also ich kann zum Beispiel die

00:49:55: Bestückung eines Hochsicherheitskasten sicherer machen,

00:49:58: wenn ich sie in VR mache und kann das dann auch besser üben, ja, und

00:50:01: kann mein Muscle Memory trainieren und so. Was sagt das jetzt über meinen

00:50:05: CO2 Fußabdruck, ja, wenn ich jetzt aber

00:50:09: mit dem Auto zur Arbeit fahre, zu meiner Ausbildungsstelle und das dann dort

00:50:13: mache, na das wird sich ungefähr aufheben so.

00:50:18: Wenn man da was tun will, dann kann man sich eben überlegen, okay, kann ich

00:50:21: das zurückzahlen? Kann ich da eben gucken, dass ich da die

00:50:26: CO2 ausgleiche mit guten Projekten? Da muss man da eben ein

00:50:30: bisschen Gas geben. Ja, also da gibt es ja auch die Möglichkeiten.

00:50:34: Wenn man Dinge tun will, muss man auch was investieren, das ist schon so.

00:50:37: Aber mit dem gesunden Menschenverstand sollte man das immer beurteilen und ich glaube, das ist

00:50:41: eigentlich einigermaßen möglich, wenn einem es nicht völlig egal ist.

00:50:46: Sehr gut, Vielen Dank für die Ausführungen.

00:50:50: Das beschreibt sehr gut, dass eine oder andere

00:50:54: unter Umständen einen Nullsummen

00:50:58: spielen, z.B. Meetings in VR machen,

00:51:03: als nach New York oder über See zu fliegen.

00:51:08: Wir von der Hutte Consulting sind auch sehr gut in Deutschland

00:51:11: unterwegs mit unseren Kunden. Wir fliegen nicht

00:51:15: jedes Mal zum Kunden, sondern machen VR-Meetings,

00:51:20: wo man das räumliche Erlebnis auch hat. Beispielsweise

00:51:24: bei Meta mit Workrooms,

00:51:29: wo ich sehe, wo die Menschen im Raum sitzen. Je nachdem,

00:51:33: wie ich meine Brille abdrehe, kommt die Stimme

00:51:36: von unterschiedlichen Orten, bis hin, dass man bei Personen, bei denen

00:51:40: man nebenan sitzt, virtuell flüstern kann, ohne dass

00:51:44: das andere im Meeting mitbekommen oder hörbar

00:51:47: mitbekommen. Das ist eine fantastische

00:51:51: Technologie, nicht nur

00:51:55: Zoom-Meetings zu machen, wo man die Menschen 2D vor sich hat,

00:51:59: sondern mit solchen Möglichkeiten

00:52:02: im virtuellen Raum unterhalten kann.

00:52:06: Ein weiterer Vorteil, den ich sehe, ist, dass man da 0

00:52:10: % Ablenkung hat. Bei Teammeetings hat man immer noch

00:52:13: weitere Bildschirme oder Fenster

00:52:17: offen. Andere Bildschirme sind teilweise abwesend.

00:52:21: Das Handy. Wenn ich die Brille aufhabe, muss ich mich 100

00:52:25: % auf das fokussieren. Natürlich kann ich mein Laptop

00:52:28: virtuell in die Brille integrieren.

00:52:33: Aber wenn jemand einen Kopf runter hat, wird er mit der Zeit grau, wenn

00:52:37: er inaktiv ist. Was dann auch ein Zeichen ist, dass er nicht beim

00:52:40: Meeting dabei ist. Also das auch kleine

00:52:44: Schritte in der Effizienzgewinnung. Ja,

00:52:48: total. Also gerade das spatial audio macht richtig viel Spaß. Also

00:52:51: man hört, wo jemand ist und das ist tatsächlich ja auch so in

00:52:55: Meetings, dass man sehr viel über die Tonspur geht. Ja,

00:52:58: also das ist schon auch wichtig, dass man dann zusammensitzt, weil man sich ja dann

00:53:02: auch zueinander verhält, aber über die Tonspur, das macht dann

00:53:06: eigentlich erst, fängt an richtig Spaß zu machen, ja und da kann man auch sehr

00:53:09: viel bewirken, also mit der Stimme kann man viel tun und wenn die

00:53:13: gut transportiert wird und die nicht, sag ich mal, so monomäßig ist, wie jetzt hier

00:53:16: in so einem Meeting. Also für einen Podcast ist das super, was wir gerade

00:53:20: machen, aber wenn ich mich tatsächlich im Raum auch bewegen kann und dann

00:53:24: kommt die Dynamik rein, das bleibt am Leben, man bleibt aktiv, man bleibt

00:53:27: aufmerksam, das ist schon sehr sehr hilfreich und funktioniert

00:53:31: wirklich, wie du es beschrieben hast, einfach perfekt. Noch ein Vorteil gibt es, man

00:53:35: befindet sich ja bereits in einem digitalen Medium, das heißt Dinge, die man

00:53:38: dort erstellt, sind schon digital. Da kann ich dann also

00:53:42: ein, ja, irgendwas erarbeiten, einem Whiteboard und dann muss ich

00:53:46: das nicht erst digitalisieren, sondern es ist schon digital und kann direkt in mein

00:53:50: System einfließen. Ich kann es direkt runterladen, ins Trello packen oder wo auch immer

00:53:53: und muss da nicht erst digitalisiert werden. In Zukunft

00:53:57: wahrscheinlich auch so ein bisschen Zusammenfassungen von Besprechungen

00:54:01: kann man da machen und noch vieles mehr, was uns auch einfallen wird.

00:54:05: Also dadurch, dass es ein nativ digitales Medium ist, kann

00:54:08: man damit natürlich auch sehr viele Dinge tun, wie auch Objekte einbauen,

00:54:13: ja, eine ganze Journey bauen, was ich auch mal sehr gerne mache.

00:54:17: Also wer PowerPoint in VR einsetzt, das ist ein bisschen so eine

00:54:20: Notlösung. Am coolsten ist es eigentlich tatsächlich, wenn man so eine Art Parcours

00:54:24: baut. Also statt ein PowerPoint bauen, benutze Klötzchen

00:54:28: und baue ein Parcours in einem Raum. Und Dann kann man von

00:54:32: Punkt zu Punkt gehen und sagen, guck mal, hier ist das, guck mal, hier ist

00:54:35: das. Sehr viel schöner, sehr viel angenehmer, als irgendeine Powerpoint tatsächlich

00:54:39: zu machen, wenn es geht. Sehr gut. Zum

00:54:42: Schluss noch, viele Zuhörerinnen und Zuhörer

00:54:46: haben ja mehr darüber erfahren, über XR, Special

00:54:50: Computing, Metaverse, was man als Unternehmen machen kann. Jetzt gibt

00:54:54: es vielleicht die einen oder anderen, die sagen,

00:54:58: für unser Unternehmen, Unser Produkt oder unsere

00:55:01: Dienstleistung lassen sich nicht in diesen

00:55:05: Räumen, in diesem Umfeld bewerben oder umsetzen.

00:55:10: Also, die noch zögern, bei XR einzusteigen.

00:55:14: Welchen Ratschlag würdest du denen mit auf den Weg geben?

00:55:18: Ja, also das kann tatsächlich sein und das

00:55:21: ist auch okay. Also es muss nicht immer alles sofort maximal

00:55:25: digitalisiert werden und alle müssen sofort ins Metaverse

00:55:29: und alles mit KI machen und so. Davon darf man sich nicht unter Druck setzen

00:55:33: lassen, sondern das ist ja eher eine Aufforderung zum Spaß haben. Ja, also

00:55:37: da erstmal große Entwarnung, ich kann meine Eisdiele

00:55:41: einfach richtig schlecht digitalisieren. Ja, das so, die Abrechnung vielleicht, die

00:55:44: Kassenzettel und so kann ich digitalisieren, Aber das Eis, da müssen

00:55:48: Leute im Park sein, das ist einfach Quatsch, wenn ich das digitalisiere. Niemand

00:55:51: will im Metaverse ein Eis essen. Das geht auch gar nicht.

00:55:56: Aber was man natürlich schon machen kann, ist Mitarbeiter zu

00:56:00: schulen oder, also zu schulen, und das ist tatsächlich einer der

00:56:03: größten Punkte im B2B-Bereich auch, dass man

00:56:07: tatsächlich guckt, inwiefern kann ich den mitarbeitenden über vr

00:56:11: befähigen dinge schneller besser und einfacher zu machen

00:56:15: und das passiert unentwickelt also das ist tatsächlich

00:56:18: auch da muss man auch oft gar nicht viel bauen, weil es eben eher Team

00:56:22: Dynamik ist oder Abfolgen üben. Und jetzt nicht

00:56:25: praktisch. Man braucht einen OP-Saal irgendwie nachgebaut, sondern geht es eher

00:56:29: Abläufe oder wie man sich verhält gegenüber Kunden oder

00:56:33: gegenüber Patienten oder so. Und da kann man eben im

00:56:36: Trainingsbereich unfassbar viel machen. Also ich würde sagen, neben dem

00:56:40: Gaming und Fitness ist das Training von Mitarbeitenden

00:56:44: genau das, wo man eigentlich genauer hingucken sollte, wenn man heute schon was in

00:56:48: VR machen möchte. Inwiefern kann ich

00:56:51: dafür sorgen, dass meine Mitarbeitenden schneller und besser werden und sicherer arbeiten?

00:56:56: Und wenn es nur ein Feuerlöschtraining in VR ist, es gibt ein Bonner

00:56:59: Startup, die machen das. Die haben, Die kommen auch gerne mal persönlich vorbei

00:57:03: oder man lässt sich schicken, die schicken einem

00:57:08: einen Feuerlöscher mit Sensoren dran und eine Brille und dann kann man in

00:57:11: VR lernen, wie man Feuer richtig löscht. Das ist ein mega Teamspaß,

00:57:15: danach gibt es Pizza und alle können ein Ölfeuer

00:57:18: löschen und verschiedene Arten von Feuer löschen,

00:57:23: weil sie es in VR geübt haben. Und allein schon solche kleinen Sachen sind

00:57:27: einfach toll. Ja und da muss man dann auch nicht immer speziell

00:57:31: perfekt das alles einbauen, aber ja, also diese Cases

00:57:35: werden immer mehr und im Prinzip braucht man da einfach nur ein bisschen googeln. Also

00:57:38: Branche plus XR googeln und mal gucken, was da schon alles passiert

00:57:42: und dann findet man eigentlich immer was. Weiss ich nicht, beim Eisverkauf, weiss ich

00:57:46: nicht so richtig, aber vielleicht auch. Ich gucke es gleich

00:57:49: mal. Das ist eine Überraschung. Vielleicht gibt es eine

00:57:53: App, wie ich mit Kunden interagieren kann. Ich habe

00:57:56: auf der Quest 3 eine App, die meine Speaker-Kompetenzen

00:58:01: optimiert. Ich ziehe die Brille an und kann wählen,

00:58:05: vor welchem Publikum, wie gross der Saal sein soll. Vor zehn

00:58:08: Menschen, vor 100, vor 1'000,

00:58:12: vor deutlich mehr. Ich stehe virtuell auf der

00:58:16: Bühne, die Menschen sind vor mir, ich spreche und sie interagieren,

00:58:20: je nachdem, was ich gesprochen habe. Auch da gibt es einen gewissen Einsatz

00:58:23: von Large-Language-Models, Reaktionen

00:58:27: festzulegen. Am Ende kommt ein Speaker-Coach, der

00:58:30: mir sagt, wie meine Sprechgeschwindigkeit,

00:58:35: meine Sprechdynamik, mein Auftritt bezüglich

00:58:39: Händen war. Die Beinstellung kann nicht analysiert werden, aber wie habe ich mit

00:58:43: den Händen zu fest artikuliert, zu wenig artikuliert, wie

00:58:46: war die Stimmvariante etc. Sehr spannend,

00:58:51: selbst im eigenen Wohnzimmer seine nächste Keynote

00:58:54: zu trainieren. Ja, absolut.

00:59:00: Da Einige Anwendungsfälle, die man

00:59:03: da bereits nutzen kann. Und eben die Mitarbeiterschulung. Die Lufthans hat

00:59:07: ja auch, glaube ich, kürzlich vor etwa zwei, drei Wochen

00:59:12: kommuniziert, dass sie da auf die MetaQuest 3 setzen, was

00:59:16: die Schulung des Kabinenpersonals anbelangt.

00:59:20: Auch da spannende Cases, die Effizienz zu

00:59:24: steigern und auch die CO2-Bilanz

00:59:28: zu verbessern. Statt alle Mitarbeitenden

00:59:32: nach Frankfurt einfliegen oder antraben zu lassen, damit

00:59:36: sie dort im Flugzeug trainieren können, das neben dem Rollfeld

00:59:39: steht, können sie jetzt zu Hause mit der Brille virtuell

00:59:43: trainieren. Ja, oder es gibt tatsächlich sogar eine

00:59:46: professionelle Piloten-Trainings-App, wo

00:59:52: man Flüge simulieren kann und Flugsimulatoren, die großen

00:59:56: Kisten, in denen die dann manchmal sitzen, sind ziemlich teuer, da wenn man da die

01:00:00: buchen will, das kann sehr teuer sein und dann setzt man sich halt einfach eine

01:00:03: VR-Brille auf und kann dort die ganzen Abfolgen lernen. Also auch das

01:00:07: Pilotieren eines Flugzeuges ist auch ein Prozess, wo man

01:00:10: bestimmte Prozessschritte bei bestimmten Cases einhalten muss und auch die

01:00:14: lassen sich dann auch aus dem Hotelzimmer heraus lernen, ohne erst in einen

01:00:18: Flugsimulator einsteigen zu müssen. Ja, da gibt es wirklich richtig

01:00:21: viele, viele Cases. Also kann ich jeden nur ermutigen, mal zu

01:00:25: gucken. Wer schon immer mal ein Pilot sein möchte, der kann diese App auch kostenlos

01:00:28: runterladen und das mal trainieren. Vielleicht eines Tages, wenn beide

01:00:32: Piloten durch einen unglücklichen Zufall den plötzlichen

01:00:35: Herztod erleiden, kannst du dann, weil du in VR

01:00:39: trainiert hast, dieses Flugzeug landen. Genau. Lass mich durch, ich

01:00:43: habe es in der Brille trainiert. Ja, genau. Ich habe den

01:00:47: Microsoft-Flugsimulator auf NVR gespielt.

01:00:51: Sehr schön. Thomas, vielen, vielen Dank für das

01:00:55: Gespräch bzw. Für auch deine Ausführungen, für deine

01:00:59: Einsichten in das Thema. Ich könnte noch eine Stunde länger

01:01:03: zuhören. Ich glaube, auch unsere Zuhörerinnen und Zuhörer

01:01:07: könnten das noch. Aber da muss ich leider Schluss machen,

01:01:11: weil unsere Episoden meist nicht länger als eine Stunde dauern.

01:01:15: Ich bin aber überzeugt, oder ich hoffe sehr, dass wir in einem

01:01:19: halben Jahr nochmals über das Thema sprechen können. Dann

01:01:23: vielleicht ein Update, was sich seit der heutigen Episode

01:01:27: getan hat, welche Geräte neu auf dem Markt sind, welche

01:01:31: Entwicklungen. Von daher

01:01:34: würde ich mich sehr freuen, dich später oder zukünftig

01:01:38: nochmals im Podcast begrüssen zu dürfen. Aber jetzt schon

01:01:42: mal ein riesen Dankeschön. Du hast die Zeit gefunden, mit

01:01:45: mir über dieses Thema zu sprechen. Sehr, sehr gerne.

01:01:49: Vielen Dank für deine tollen Fragen und das schöne Gespräch. Ich komme

01:01:53: auch gerne wieder. Wenn es dann heisst, lass uns über die

01:01:57: Metaquest 3S sprechen, die vielleicht im

01:02:00: September angekündigt wird. Ja. Sehr gut.

01:02:04: Vielen herzlichen Dank. Liebe Zuhörer, hat dir die

01:02:08: Episode gefallen? Dann bewerte uns auf iTunes und Spotify

01:02:11: und folge uns im Podcastplayer deines Vertrauens.

01:02:15: Feedback zur Episode gerne via Instagram, LinkedIn,

01:02:19: Facebook oder per E-Mail an dmu.hutter-consult.com.

01:02:24: Vielen Dank fürs Zuhören und ich freue mich, wenn du bereits am Montag bei den

01:02:28: Social Advertising News des Digital Marketing Upgrade Podcasts der

01:02:32: Hutter Consult wieder mit dabei bist. Vielen Dank und

01:02:36: tschüss. Tschüss.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.