Status Quo: Spatial Computing / Metaverse - Thomas Riedel - #107
Shownotes
In der Episode 107 sprechen wir über Spatial Computing und das Metaverse mit dem Experten Thomas Riedel. Thomas erklärt, wie VR- und XR-Technologien eine nachhaltige Alternative zu Flugreisen oder Team-Meetings bieten und Unternehmen dabei helfen, Ressourcen zu sparen. Wir diskutieren ausserdem die Bedeutung von KI und Large Language Models im Zusammenhang mit Augmented Reality und dem Metaverse. Thomas Riedel betont, dass Unternehmen nicht nur auf den Hype um das Metaverse reagieren sollten, sondern die Technologien verstehen und sinnvolle Lösungen entwickeln müssen. Es wird zudem auf Use Cases für XR sowie die Entwicklung abstrakterer UX-Designs eingegangen.
LinkedIn Profil: Thomas Riedel Webseite: Spatial Realities
Host: Thomas Besmer Produktion: Hutter Consult AG
Transkript anzeigen
00:00:10: Hallo und herzlich willkommen zu Digital Marketing Upgrade, präsentiert von der
00:00:14: Hutter Consult. Mein Name ist Thomas Bessmer. In der heutigen
00:00:17: Talk-Episode geht es den Status quo im
00:00:21: Thema Spatial Computing und Metaverse. Ein Thema,
00:00:25: das seit der KI oder insbesondere seit JetGBT
00:00:28: auf dem Markt ist, deutlich in den Hintergrund
00:00:32: geraten ist und trotzdem faktisch noch
00:00:35: da ist, immer noch sehr relevant ist. Auch
00:00:39: die Zukunft beschreibt Apple mit der Apple Vision
00:00:42: Pro, die den Begriff Spatial Computing in den Vordergrund
00:00:46: gerückt haben. Da habe ich mir heute einen Experten
00:00:50: geholt. Er ist freier Tech-Journalist, schreibt hauptsächlich
00:00:54: über Themen der digitalen Wirtschaft und über die Start-up-Ökonomie.
00:00:59: Er wurde Von der Keynote von Mark Zuckerberg im Jahr 2022
00:01:03: vom Metaverse angefixt wurde, ist selbst Podcaster
00:01:07: bei Gründerzeit und betreibt den grössten Podcast zum
00:01:11: Thema Metaverse, XR und Spatial Computing.
00:01:15: Er lebt in Köln, ist Vater einer Tochter und
00:01:19: ist gerne mit dem Fahrrad unterwegs. Man trifft ihn auch immer wieder in
00:01:23: unterschiedlichen Locations oder in Coworkings in Köln.
00:01:27: Er hat früher mal einen Android-Blog gestartet in Deutschland, hat
00:01:31: das dann nicht weiterverfolgt, was er ein bisschen bereut, so wie ich
00:01:34: das aus seiner Vita lese. Hallo und herzlich
00:01:38: willkommen, Thomas Riddel. Hallo, danke für die Einladung.
00:01:42: Ich freue mich, dass du die Zeit gefunden hast. Du
00:01:46: bist Podcaster, Spatial Computing heisst der Podcast,
00:01:50: früher Metaverse Podcast. Da hast du eine Umbenennung gemacht im letzten
00:01:53: Jahr mit der Ankündigung der Apple Vision Pro.
00:01:58: Für mich eine sehr vertraute Stimme, weil ich dich regelmässig
00:02:02: höre, insbesondere, wenn ich mit dem Auto unterwegs bin oder
00:02:06: während des Lauftrainings. Daher freue ich mich umso mehr und bin auch
00:02:09: leicht nervös, dass ich dich im Podcast haben darf. Sehr
00:02:13: gerne. Ich bin auch nervös, wenn ich im Gast und im Podcast bin.
00:02:17: Ich freue mich sehr, dass ich hier sein darf. Sehr schön. Bevor wir
00:02:21: zum Thema Status Quo, Spatial Computing und Metaverse kommen,
00:02:25: stelle ich meinen Gästen immer zwei Fragen.
00:02:29: Die geneigten Zuhörerinnen und Zuhörer kennen die Fragen schon. Und zwar die
00:02:32: erste Frage ist, auf welche Tools kannst du in deinem Arbeitsalltag
00:02:36: nicht verzichten? Ja, ein Tool, auf das ich überhaupt nicht
00:02:39: verzichten kann, ist die Rechtschreibekorrektur als Plugin im
00:02:43: Browser. Und zwar sowohl auf deutsch als auch auf englisch,
00:02:47: denn ich schreibe ziemlich viel ins internet rein, in sämtlichen
00:02:50: sozialen netzwerken, threads und bluesky und mastodon und linkedin und
00:02:54: facebook und wie sie nicht alle heißen und hätte ich da nicht
00:02:58: meine autokorrektur eingeschaltet, dann wäre die
00:03:01: voller Fehler, weil ich schreibe meistens ziemlich schnell. Also ich schreibe immer sehr
00:03:05: schnell, ich tippe sehr viel und da muss ich, da
00:03:08: brauche ich eine Korrektur, die mir da ein bisschen unter die Arme greift. Also mit
00:03:12: dem, ohne das geht gar nichts. Und dann natürlich
00:03:15: mein Smartphone, das ich immer und überall dabei habe, weil ich quasi
00:03:19: alles fotografiere, was mir in den Weg kommt. Ja, ich
00:03:22: habe quasi ein optisches Tagebuch, wenn man so möchte, ein
00:03:26: visuelles Tagebuch und ja, ich fotografiere alles. Also
00:03:30: Wenn man mit mir unterwegs ist, dann muss man das über sich ergehen lassen, dass
00:03:33: ständig mein Telefon auf irgendwas gerichtet ist. Oder die Brille
00:03:37: plötzlich läuft. Also ich habe ja hier diese Meta Ray-Ban, die
00:03:40: Smartglasses von Meta. Da kann ich auch mal ein Foto
00:03:44: machen. So. Ja, jetzt hätte ich sie einschalten sollen
00:03:48: vielleicht auch. Aber mit der mache ich auch immer Fotos. Also ja,
00:03:51: die zwei Sachen sind super wichtig und dann gibt es natürlich ganz viele kleine
00:03:55: Tools, aber ja, das soll es erstmal gewesen sein. Sehr
00:03:58: schön. Und wenn du auf einem Magazincover erscheinen könntest,
00:04:02: welches Magazin würdest du dir aussuchen? Ja, ich
00:04:06: glaube, das verknüpfe ich jetzt so ein bisschen mit so einem Wunsch, den ich
00:04:09: noch habe, etwas auf der Bucketlist, was ich noch zu Ende bringen möchte, nämlich mal
00:04:13: ein Buch zu veröffentlichen. Ich weiß noch nicht, ob es ein
00:04:17: Sachbuch sein soll, also es könnte natürlich was zum Thema Metaverse oder
00:04:21: Immersive Media oder so sein, dann wäre es ein Sachbuch oder ob es
00:04:24: natürlich Fiction ist, da leap-orgel ich auch so ein bisschen mit und
00:04:28: dann wäre das natürlich auf dem Cover eines Büchermagazins,
00:04:34: das sagt, ihr müsst dieses Buch lesen, weil ich mit diesem
00:04:37: Buch was geschafft habe. Ich veröffentliche ein Buch und die Leute sagen, es müsst ihr
00:04:41: lesen. Das ist ein Traum, den ich habe. Das würde ich mir
00:04:44: wünschen, dass das eines Tages passiert. Sehr schön, Das
00:04:48: ist ein schönes Ziel oder ein schöner Plan. Ich weiss auch,
00:04:52: dass drei, vier Zuhörerinnen und Zuhörer in
00:04:55: Verlagen in Deutschland arbeiten. Falls ihr ein Buch in
00:04:59: eurem Sortiment haben möchtet über das Metaverse, Spatial Computing
00:05:03: oder auch ein Fiktionbuch, dann gerne direkt bei Thomas
00:05:07: Riddell melden.
00:05:11: Das LinkedIn-Profil ist in den Show Notes oder auch im Blog
00:05:15: auf thomashutter.com verlinkt. Ja, sehr
00:05:18: cool. Jetzt werde ich nervös. Ich werde es wahrscheinlich gleich anfragen.
00:05:24: Genau. Status quo, spatial computing, Metaverse ist das Thema.
00:05:29: Und von daher Für mich war insbesondere
00:05:33: VR am Anfang, also Virtual Reality,
00:05:37: auch mit den Brillen. Ich weiss noch, 2018, ich
00:05:41: glaube im Mai oder Juni, habe ich mir die Oculus Go gekauft. Das
00:05:45: war die erste Brille, die man nicht am PC anschliessen
00:05:48: musste. Es war noch von Oculus, das neu von Meta
00:05:52: übernommen wurde, von Facebook übernommen wurde. Es hatte einen
00:05:55: Controller, die Auflösung war eher schlecht.
00:06:00: Cases gab es noch nicht wirklich. Später kam dann die Quest
00:06:04: 2 und seit letztem Jahr, oder Ende letztes Jahr, die
00:06:07: Quest 3, die ich persönlich regelmässig
00:06:11: nutze und auch da einige Cases habe, insbesondere im Business-Umfeld. Wir
00:06:17: haben es im Vorgespräch schon besprochen, dass ich die Brille oft mitnehme,
00:06:21: wenn ich unterwegs bin, damit ich dann weiterhin auf zwei,
00:06:24: drei Bildschirmen arbeiten kann, auch wenn ich im Restaurant sitze und
00:06:28: trotzdem meine Umgebung sehe. Da zielt
00:06:32: die erste Frage ab, und zwar Spatial Computing,
00:06:36: ist das eher eine Spielerei für Technikbegeisterte,
00:06:40: also ist das eine Spielerei für Technikbegeisterte, oder gibt es da bereits
00:06:44: ernst zu nehmende Business Cases? Ja, also du hast jetzt
00:06:47: gerade mit VR angefangen und die Frage mit
00:06:51: Spatial Computing beendet. Das könnte
00:06:55: man ein bisschen aufdröseln, was das eigentlich alles separat ist.
00:06:58: Also ich würde sagen, Virtual Reality ist tatsächlich etwas anderes wie
00:07:02: Spatial Computing. Virtual Reality bezeichnet das
00:07:06: Headset, also ist oft ein Headset, das damit
00:07:10: bezeichnet wird und da assoziieren wir sofort,
00:07:13: wie Virtual Reality technisch umgesetzt wird, nämlich man zieht sich ein Headset
00:07:17: auf und auf diesem Headset werden dann Dinge angezeigt und man ist in einer anderen
00:07:21: Welt, in dieser Virtual World und dann vielleicht auch
00:07:24: im Metaverse. Das ist eine damit verbundene Zukunftserzählung.
00:07:29: Und dieses Spatial Computing geht dann nochmal ein bisschen anders ran. Das muss nicht unbedingt
00:07:33: mit einem Headset sein und geht das Ganze sozusagen, die
00:07:36: Blickrichtung von der das kommt, ist eine andere. Also
00:07:40: wenn man sich bisher vorgestellt hat, dass die Menschen eigentlich lernen, wie so
00:07:44: das Interface eines Computers funktioniert, geht es beim Spatial
00:07:48: Computing eher darum, dass der Mensch seine natürlichen Ausgabemethoden
00:07:52: benutzen kann, also seine Hände, seine Stimme, seine Augen, seinen
00:07:56: Körper, allein dadurch, dass er sich irgendwie im Raum bewegt. Und
00:07:59: alle möglichen Computer und Sensoren nehmen auf, was ich
00:08:03: mache und verarbeiten das und geben mir dann Feedback.
00:08:06: Und das ist so ganz grob das, was man unter Spatial Computing
00:08:10: bezeichnen könnte und der eine oder andere wird jetzt aufmerkt und sagen, ja
00:08:13: das kommt mir bekannt vor, das haben wir doch eigentlich schon die ganze Zeit.
00:08:17: Genau, also die ganzen Audio Assistants, die wir
00:08:21: haben, also Alexa oder Google Assistant zum Beispiel, das kann
00:08:24: man durchaus schon als Spatial Computing verstehen, weil unsere natürliche
00:08:28: Ausgabe, die Stimme, wird dort schon genommen und ein
00:08:32: Computer verarbeitet das Signal und reagiert dort
00:08:35: einigermaßen clever, hoffentlich. Bei Siri bisher noch nicht
00:08:39: so, da arbeitet Apple ja gerade auch dran, aber genau, das
00:08:43: war praktisch die erste Form gewesen und was Apple jetzt mit
00:08:46: der Apple Vision Pro gemacht hat, ist so ein bisschen den neuen
00:08:50: Ansatz zu fahren und nicht sozusagen einfach nur ein Virtual Reality
00:08:54: Headset zu kopieren und zu sagen okay wir haben ja diese komplizierten
00:08:57: Eingabemethoden die wir bisher hatten mit diesen Controllern und das fühlt
00:09:01: sich alles so ein bisschen old-fashioned virtual reality mäßig
00:09:05: an, sondern wir setzen uns hin und überlegen uns, wie
00:09:08: müsste das Interface eigentlich optimalerweise aussehen,
00:09:12: damit das für Nutzende tatsächlich auch gut benutzt werden kann. Und wenn man sich so
00:09:15: die Geschichte bei Apple anschaut, dann ist es ja genau das, was sie eigentlich mit
00:09:18: jedem neuen Gerät machen. Also sich zu überlegen, wie kann man die
00:09:22: Nutzererfahrung neu gestalten. Das war bei Mac die Maus, die
00:09:26: sie zwar von Menlo Park ein bisschen geklaut haben, aber dann tatsächlich in
00:09:30: ein kommerzielles Produkt gegossen haben. Das war
00:09:34: beim iPod, war das sozusagen dieses Clickwheel und 1000
00:09:38: Songs in your Pocket sozusagen. Das war später beim
00:09:41: iPhone diese revolutionäre Multi-Touch-Screen, genauso wie beim
00:09:45: iPad und dann der Stift noch dabei und das ist jetzt praktisch
00:09:48: wieder eine neue Stufe beim Spatial Computing. Also wir haben
00:09:52: Personal Computing, Mobile Computing und Spatial Computing. Und beim
00:09:55: Spatial Computing wieder eine neue Eingabemethode, wobei das ja eigentlich
00:09:59: eine Mischung ist. Also man hat eine Mischung aus
00:10:03: Augentracking und Handtracking und man kann auch die Stimme verwenden,
00:10:07: dann im Raum sich Sachen anzeigen zu lassen. Das ist überraschenderweise
00:10:11: erstmal ziemlich 2D eigentlich, denn was man auf der Apple Vision Pro ja
00:10:15: vor allem sehen kann, sind die 2D-Apps, die ich schon vom iPad her
00:10:18: kenne und die kann ich dann dort anzeigen lassen. Aber die
00:10:21: Eingabemethode ist neu, das Interface. Ja, also man braucht eben keine
00:10:25: Controller mehr, sondern man kann das einfach mit hingucken und mit den
00:10:29: Fingern klicken, aktivieren und das ist so ein bisschen das was Spatial
00:10:33: Computing jetzt bringt. Okay, das ist neu durch die Apple Vision
00:10:36: Pro. Meta hat das natürlich mit seinen Brillen auch im Laufe der Zeit
00:10:40: schon immer auch so ein bisschen gehabt. Also Hand Tracking ist ja auch nichts Neues
00:10:43: für alle, die eine Meta-Quest haben. Aber so wie es Apple
00:10:47: umgesetzt hat, war es nochmal auf einem anderen Level. Und jetzt ist so die Frage,
00:10:51: okay, kann Apples Approach für diese Technologie
00:10:55: tatsächlich nochmal mehr User heranführen? Weil es war
00:10:58: es auch nicht so, dass selbst nach
00:11:02: dem großen Metaverse-Hype und selbst nachdem wir alle durch die Corona-Pandemie
00:11:06: zu Hause saßen, nicht alle plötzlich eine VR-Brille
00:11:10: auf der Nase hatten. Es gibt
00:11:13: insgesamt ungefähr, spekuliert man so an, die 25 Millionen
00:11:17: Headsets, die von Meta auf den Markt geworfen wurden in den letzten vier, fünf Jahren.
00:11:21: Das sind natürlich im Vergleich zu Handys immer noch verdammt viel weniger.
00:11:25: Zu Spielekonsolen ist das gar nicht mal so schlecht. Also so eine Xbox, die
00:11:29: gibt es nur ein paar Millionen mal da draußen im Markt. Von dem her ist
00:11:32: das schon mal nicht schlecht, aber es ist noch nicht Mainstream geworden und jetzt ist
00:11:36: die Hoffnung, dass durch Apples Ansatz, Spatial Computing zu machen
00:11:39: und die Technologie über Spatial Computing erfahrbarer und
00:11:43: zugänglicher zu machen, dass dann der große Durchbruch kommt. Der ist noch nicht
00:11:47: erfolgt und das ist auch gar nicht verwunderlich, wenn man sich ein bisschen die Geschichte
00:11:51: des Apple iPhones anschaut, denn auch da war es so,
00:11:54: dass die ersten zwei iPhones sozusagen
00:11:58: Entwicklungsgeräte waren, wo man ein bisschen herausgefunden hat,
00:12:02: okay, die Leute wollen tatsächlich direkten Zugriff auf die Kamera haben, die
00:12:05: Leute wollen einen eigenen Store haben, die wollen mehr APIs haben
00:12:09: und so weiter und erst dann kam ja mit dem dritten Gerät eigentlich der
00:12:13: Hockeystick los. Und das ist jetzt so ein bisschen das Spannende
00:12:17: nach Apples Release der Apple Vision Pro. Schafft es Apple,
00:12:21: eine Plattform zu bauen, wo sie nach ein paar Iterationen, wir wissen noch
00:12:24: nicht, wie viele, dass sie es schaffen, dass für diese
00:12:28: Technologie ein Hockeystick anfängt? Da befinden wir uns.
00:12:33: Das ist etwas, was viele Expertinnen und Experten gesagt haben. Mit der
00:12:36: Apple Vision Pro wird Apple versuchen, einen neuen
00:12:40: Standard zu setzen. Das ist ja auch ein Thema, ist ja bei der
00:12:44: KI ein Thema, ist aber auch bei Spatial Computing
00:12:48: oder auch bei Metaverse, was ja wieder etwas anderes ist als Spatial
00:12:51: Computing, ein Thema, was wir zukünftig
00:12:56: den Standard ausmachen bzw. Was wird Standard sein?
00:12:59: Gibt es überhaupt einen Standard? Also Wie früher bei der DVD,
00:13:03: wo die DVD zum Standard wurde, obwohl es andere
00:13:08: Datenträger auf dem Markt gab. Da ist
00:13:11: jetzt auch Meta wie auch Apple wirklich
00:13:16: in der Startposition, beziehungsweise sind schon gestartet,
00:13:20: aus ihren Plattformen möglichst einen Standard zu machen.
00:13:23: Ja. Wobei, da muss man sagen, wir sollten
00:13:27: eigentlich hoffen, dass keine der Plattformen ein Standard
00:13:31: wird. Dann haben wir wieder das gleiche, wie wir es gerade auch im
00:13:35: Mobile Markt haben, nämlich eigentlich nur zwei Standards Android und
00:13:39: iOS und sonst gibt es nichts und die können komplett den Markt regulieren
00:13:43: und teilen das unter sich auf und die EU tritt da jetzt zwar
00:13:46: an, das abzuschaffen und ein bisschen aufzulockern
00:13:50: und mehr für die Rechte der NutzerInnen an sich einzusetzen,
00:13:54: aber das ist eigentlich kein guter, tatsächlich keine gute,
00:13:57: ja keine gute Situation, in der wir uns gerade befinden, weil wir
00:14:01: gerade auch so merken, wenn wir wenige Teilgeber eines solchen
00:14:05: Marktes haben, dann ist innovativ nicht mehr so viel los. Also die
00:14:09: letzten iPhones waren jetzt nicht so, dass wir dachten, wow, ich brauche dringend ein
00:14:12: neues iPhone, sondern da war es eher so, ach ihr habt jetzt auch den knopf
00:14:16: den wir bei android haben super so okay die kameras
00:14:20: die sind immer fantastisch da gibt es gar keine diskussion aber muss man
00:14:24: schon sagen da passiert es nicht mehr so viel und das passiert wenn sich etwa
00:14:27: plattform etabliert haben und ja dann brauchen sie nicht mehr
00:14:31: innovieren, dann können sie nur noch den markt ausquetschen. Okay das wollen wir
00:14:34: also nicht, dass das passiert und da sind
00:14:38: wir im prinzip auch noch nicht, also die märkte selber im vr
00:14:42: im xr bereich die sind noch so klein, dass
00:14:46: das noch lange nicht passiert. Also da ist auch noch viel Bewegung drin, da
00:14:49: passiert auch noch einiges und da sind wir noch ein bisschen von
00:14:53: entfernt. Aber Standards ist tatsächlich ein gutes Thema, weil
00:14:57: wenn wir über das Metaverse sprechen, geht es im Grunde etwas,
00:15:01: was außerhalb dieser Plattform stattfindet und sich entwickeln
00:15:04: muss. Das Internet ist nicht auf apple.com entstanden
00:15:08: oder auf android.de, sondern das ist natürlich schon zum
00:15:12: einen davor da gewesen und zum anderen ist etwas entstanden,
00:15:16: ist es entstanden dadurch, dass es offen war und es jeder benutzen
00:15:19: konnte. Das heißt, jeder konnte sich einfach einen Computer in sein Zimmer stellen,
00:15:23: hat sich eine IP-Adresse besorgt, hat seinen Computer angeschlossen,
00:15:27: hat eine Punkt HTML, eine Index Punkt HTML
00:15:30: verfügbar im Root-Verzeichnis seines Computers gemacht und plötzlich hatte
00:15:34: der eine Webseite im Internet und das sollte
00:15:38: eigentlich auch passieren, wenn wir über das Metaverse sprechen. Also das Metaverse
00:15:42: als ein Netzwerk aus
00:15:45: VR oder XR Experiences, die so
00:15:49: miteinander verbunden sind, dass man da wie im Internet
00:15:52: surfen kann, ja wie auch immer das dann letztendlich aussehen wird, also dass man mit
00:15:56: seinem Avatar von einer Experience zu einer anderen rüberlaufen
00:16:00: kann, dass wir im Prinzip oder rüberfahren kann, das wäre im Prinzip das coolste.
00:16:04: Das sind wir noch lange nicht und das liegt auch tatsächlich daran, dass wir noch
00:16:07: nicht das HTML des Metaverse haben. Wir arbeiten dabei
00:16:11: tatsächlich dran. Also da gibt es zum Beispiel die OpenUSD,
00:16:15: das OpenUSD-Konsortium, in dem so ziemlich alle
00:16:19: Teilgeber drin sind, die wir so kennen und wo alle auch
00:16:23: mitarbeiten. Und USD ist ein sehr spannendes Dateiformat, das ursprünglich von
00:16:26: Pixar erfunden wurde. Pixar, wir erinnern uns, eine Firma von
00:16:31: Steve Jobs tatsächlich auch. Und die haben dieses
00:16:34: Format erfunden, ihre Filme kollaborativ
00:16:38: erstellen zu können und weil die so groß
00:16:42: wurden, dynamisch Inhalte reinladen und wieder rausschubsen zu
00:16:45: können. Und das erinnert uns vielleicht an einen Browser von
00:16:49: der Art und Weise wie das passiert. Also ein Browser ist ja auch im Prinzip
00:16:52: etwas was dynamisch eine Webseite reinlädt und wenn die Webseite geschlossen wird, dann schmeißt es
00:16:56: wieder raus. Und so kann man durch Webseiten, durch
00:17:00: das Internet surfen und so könnte vielleicht auch dann eines Tages
00:17:03: mal das Metaverse funktionieren, dass wir praktisch über USD, wenn sich
00:17:07: herausstellt, dass das das richtige Format ist, via durch das Metaverse
00:17:11: surfen. Also da wird dran gearbeitet, es gibt da auch
00:17:14: Metaverse Standards Forum zum Beispiel, das ist so was ein bisschen wie
00:17:18: das World Wide Web Konsortium, die auch an Standards
00:17:22: arbeiten. Da gibt es noch viel mehr als sozusagen USD. Da
00:17:25: geht es auch Audio, da geht es auch Sicherheitsstandards
00:17:29: und so weiter. Da wird viel daran gearbeitet, aber wir
00:17:33: befinden uns da am Anfang. Und kleiner Funfact, HTML war
00:17:37: der zweite Versuch, so einen Standard für das Internet zu entwickeln. Also es kann sein,
00:17:40: dass tatsächlich USD es nicht wird und es ein anderes wird. Oder wir haben es
00:17:44: gleich mit USD geschafft. Das wird sich im Laufe der Zeit zeigen.
00:17:48: Sehr spannend. Man merkt, es wird daran gearbeitet. Das
00:17:52: Thema, ich fasse es unter dem Begriff XR zusammen,
00:17:56: ist bei Weitem nicht tot, wie das teilweise prognostiziert
00:18:00: wurde oder wie das auch teilweise in den Medien
00:18:04: aufgegriffen wurde, insbesondere im Metaverse ist tot, da
00:18:08: keine Zukunft für Meta im Bereich Metaverse. Dann
00:18:11: kamen noch Informationen bzw. Nachrichten dazu, dass
00:18:15: auch Mark Zuckerberg die Investitionen ins
00:18:18: Metaverse reduziert hat. Er ist immer noch auf einem sehr hohen
00:18:22: Niveau unterwegs, aber das Ganze reduziert hat. Dann noch verstärkt
00:18:26: in KI investiert. Das gab ja bei vielen auch zum
00:18:29: Anlass, dass das nur eine Spielerei ist,
00:18:33: die jetzt mal aufgekommen ist, so ein Hype, und der wird bald
00:18:37: wieder vorbei sein. Aber das ist es ja definitiv nicht. Nee, also man
00:18:41: könnte vielleicht sogar sagen, ich habe die Zahlen jetzt nicht parat,
00:18:46: aber das kann man wahrscheinlich historisch auch mal belegen, dass eigentlich noch
00:18:49: nie so viel in XR und damit auch ins Metaverse
00:18:53: investiert wird wie aktuell. Also Apple ist
00:18:56: dazu getreten und hat sein Gerät entwickelt, das hat auch
00:19:00: einige Milliarden gekostet das zu entwickeln. Wir haben Nvidia,
00:19:04: die so viel in Technologie investieren wie noch nie zuvor,
00:19:08: jetzt zur größten Firma der Welt geworden ist.
00:19:12: Nicht nur, weil sie in KI investieren, sondern natürlich auch, weil
00:19:16: da natürlich auch die ganze Grafikpower dahinter sein
00:19:19: muss. Und ja, das kann man natürlich nur
00:19:23: bestätigen, dass die Firmen sehr
00:19:27: intensiv daran arbeiten. Ja, es ist tatsächlich so, dass
00:19:30: nach dem Metaverse Hype so eine gewisse Konsolidierung stattgefunden hat.
00:19:34: Warum? Es war auch die Corona-Zeit und da wurde
00:19:38: einfach heftig eingestellt. Und nach der Corona-Zeit
00:19:42: und auch natürlich aufgrund der Ukraine-Krise bzw. Des Krieges
00:19:46: und jetzt dem Nahost-Kram, den wir da haben,
00:19:50: findet sozusagen eine Reinigung statt in den Unternehmen und es wird immer mal wieder
00:19:54: was entlassen. Das ist aber, sage ich mal, jetzt innerhalb der natürlichen
00:19:58: Wellenbewegungen zu verstehen und hat erstmal nichts mit der Sache selbst zu
00:20:01: tun. Und ja, widerspricht sich das
00:20:05: eigentlich KI und Metaverse überhaupt nicht? Also es ist
00:20:08: sogar geradezu so, dass das sogar sich
00:20:12: eigentlich gegenseitig bedingt. Also viele Features, die wir überhaupt,
00:20:16: die wir brauchen, etwas wie ein Metaverse zu bauen und überhaupt diese
00:20:19: Geräte zum Laufen zu bringen, basieren auf maschinellem Lernen, basieren
00:20:23: auf KI und wären ohne das gar nicht denkbar. Das Augentracking,
00:20:27: das ist predictive, ja, das wird über einen maschinell
00:20:31: gelernten Algorithmus gesteuert, Ja, man guckt wohin und im
00:20:34: Prinzip weiß der Chip schon, wo ich hingucke und kann dann sagen,
00:20:38: da mache ich es schärfer wie woanders. Das nennt sich 4-VTED-Rendering,
00:20:42: spart Rechenkapazitäten, spart Akku und erhöht
00:20:47: den Komfort für den Benutzer. Und da gibt es viele Komponenten, die man
00:20:50: braucht für XR, die schon lange auf KI basieren. Und
00:20:54: je mehr KI wir zur Verfügung haben, desto besser wird die Metaverse-Erfahrung,
00:20:58: wird XR. Und als Mark Zuckerberg sagte, wir machen
00:21:02: jetzt auch viel mit KI, war mir das völlig klar. Wir haben
00:21:05: schon immer was mit KI gemacht und dass sie jetzt was mit Large Language
00:21:09: Models machen, das liegt natürlich auf der Hand,
00:21:13: denn das offensichtlichste Interface für Large
00:21:16: Language Models ist Augmented Reality.
00:21:20: Also ich habe so eine Brille zum Beispiel gerade auf der Nase, das
00:21:24: ist die Meta Ray-Ban, da ist ein Sprachassistent
00:21:27: eingebaut und über den Sprach-, ein multimodaler
00:21:31: Sprachassistent sogar, das heißt ich kann da auch auf die Kamera und die Mikrofone
00:21:34: zugreifen und kann sagen, was ist das? Und kann mir das analysieren
00:21:38: lassen oder übersetzen lassen. Und das braucht die
00:21:42: multimodale KI und macht es sehr viel benutzerfreundlicher,
00:21:45: wie es jemals zuvor war. Und auch innerhalb eines Metaverse
00:21:49: ist natürlich so eine sprachbasierte Eingabe die Multimodales
00:21:54: natürlich perfekt geeignet. Also das geht Hand
00:21:57: in Hand und widerspricht sich gar nicht und zeigt eigentlich nur
00:22:01: wie weitsichtig Mark Zuckerberg da eigentlich war zu sagen und jetzt
00:22:05: geben wir Vollgas mit generativer KI. Denn er wusste
00:22:08: ganz genau, wie wichtig das eigentlich ist, auch für die Entwicklung des Metaverse.
00:22:14: Und außerdem hat es den Aktienkurs erhöht, was natürlich auch schlau war.
00:22:17: Ja, definitiv.
00:22:21: Von den Ausführungen her, man sieht die Tech-Unternehmen,
00:22:25: die an diesen Technologien arbeiten,
00:22:28: versuchen die Technologien auch miteinander zu befruchten. Das eine
00:22:32: schliesst das andere nicht aus. KI, Metaverse, Spatial Computing
00:22:36: hängt schlussendlich zusammen. Schlussendlich auch mit Augmented Reality,
00:22:40: wie deine Brille das schon aufzeigt. Oder beispielsweise
00:22:44: bei mir die Meta-Quest, die dann Objekte im Raum
00:22:48: erkennt und die entsprechend darstellen kann bzw.
00:22:51: Räumlich integrieren kann, so
00:22:55: nicht dagegen zu laufen oder so auch gewisse
00:22:59: Animationen auf diesen Objekten ausführen zu lassen.
00:23:04: Was müssen Unternehmen machen, den Anschluss im
00:23:07: Bereich XR, also Spatial Computing, aber auch
00:23:11: Metaverse, nicht zu verpassen? Sie
00:23:15: müssen unbedingt ihr ganzes Headquarter
00:23:19: nachbauen. Stuhl für Stuhl. Und Fenster
00:23:22: für Fenster. Und Arbeitsplatz für Arbeitsplatz. Nee, natürlich
00:23:26: nicht, ist natürlich ein Scherz. Das ist so das Erste, woran man irgendwie denkt. Also,
00:23:30: man müsste sich jetzt seine Immobilie kaufen und dann muss man da sein
00:23:33: Headquarter nachbauen und es noch größer und noch shinier machen, weil dann ist
00:23:37: man ja ein Metaverse. Ich würde sagen, das ist das allerallerletzte, was man tun
00:23:41: sollte. Das ist tatsächlich gar nicht so wichtig. Das
00:23:44: offensichtlichste, was man tun kann, ist tatsächlich Team-Meetings einfach in
00:23:48: XR zu machen. Also du machst das schon so ein bisschen, ja du hast dein
00:23:52: Office teilweise schon in VR gelegt, in
00:23:55: XR gelegt, indem du deine virtuellen Monitore aufmachen kannst, wenn du
00:23:59: die VR-Brille an hast. Das ist so der erste Schritt, aber das geht
00:24:03: natürlich auch sozial. Metaverse bedeutet Social VR,
00:24:07: also dass man sozial eigentlich unterwegs ist. Das ist
00:24:11: eigentlich eine Art soziales Netzwerk. Das heißt, Teammeetings und Workshops
00:24:15: in verteilten Teams schon in VR zu machen, das
00:24:19: ist so ein erster ganz ganz einfacher Schritt. Ja, das ist wie der Schritt
00:24:22: vom Telefonieren zu Zoom. Ja, das was wir alle gelernt haben
00:24:26: während Metaverse, das könnte man jetzt im Prinzip tun, indem man
00:24:29: jedem eine quest 3 kauft, kostet nur 500 euro,
00:24:33: was tatsächlich relativ günstig ist und dann
00:24:37: kann man die kostenlosen apps verwenden, die es schon gibt, nämlich
00:24:41: horizon workrooms von meta selber, da kann man bis
00:24:44: zu Vier Personen oder sind es schon sechs? Ich weiß es gar nicht. Da
00:24:48: kennst du dich wahrscheinlich noch. Bis zu 15 Personen. Bis zu 15 Personen sogar?
00:24:51: Ja. Schau an. Bis zu 15 Personen kann man in Horizon Workrooms
00:24:55: arbeiten, also das ist schon ganz toll. Und da gibt es natürlich auch bezahlbare
00:24:59: Suites, wenn man tatsächlich auch so ein bisschen Nutzerverwaltung
00:25:03: haben will, Dokumente verwalten will, zum Beispiel wenn man zusammen
00:25:07: in VR, in einem Whiteboard arbeitet, dass man das gut abrufen und
00:25:10: speichern kann. Da gibt es zum Beispiel so Lösungen wie Raum, die kommen hier auch
00:25:14: aus Köln, sind die schönste Metaverse App, die es
00:25:18: gibt, würde ich mal behaupten. Da kann man ganz leicht
00:25:22: einsteigen. Aber eigentlich muss man da nochmal ein bisschen einen Schritt
00:25:25: zurück machen, glaube ich. Also wenn wir über das
00:25:29: Metaverse sprechen, wenn wir über xr sprechen, dann sprechen wir über eine gewisse
00:25:33: Komponente der Digitalisierung und ich mache mal ein schönes
00:25:36: Beispiel, das wird die ganzen SEO Leute da draußen interessieren und auch natürlich
00:25:40: Marketing Leute und alle die da so ein bisschen in der Gestaltung
00:25:43: unterwegs sind. Nehmen wir mal an, wir haben einen
00:25:47: Stand mittlerweile, dass jeder eigentlich eine Augmented Reality Brille
00:25:51: auf der Nase haben kann. Also wenn jetzt hier noch ein
00:25:54: Wellenleiter eingebaut wäre, ist es noch nicht. Stellt Meta vielleicht
00:25:58: Ende des Jahres vor, diese Brille wird Wellenleiter. Angenommen, wir hätten die
00:26:02: alles schon und wir könnten rumlaufen und uns zusätzliche Informationen anzeigen
00:26:06: lassen und stellen wir uns auch vor, ich gehe in den Supermarkt, in einen ganz
00:26:09: normalen Supermarkt, wie wir ihn kennen, Rewe, Lidl, Aldi, was auch immer ihr gerade habt
00:26:13: in eurer Stadt und meine Mission ist es Schokolade zu
00:26:17: kaufen. Gehe ich in einen Laden, gehe zum Schokoladenregal und
00:26:20: dann kann die Brille mir helfen Entscheidungen zu treffen. Ja das heißt
00:26:24: sie scannt natürlich das Regal, weil die Kamera aktiv ist
00:26:28: und hat die Möglichkeit zum Beispiel auf
00:26:32: meine Kontakte zuzugreifen und zeigt mir alle Schokoladen an,
00:26:36: die in letzter Zeit von meiner Verwandtschaft oder meinen Freunden gekauft wurde. Es ist dann
00:26:39: so ein schöner grüner Rahmen außenrum. Da sehe ich so, ach so, das haben die
00:26:43: gekauft, ist ja interessant. Oder ich habe zum Beispiel Einstellungen
00:26:46: gemacht, dass ich weniger Zucker zu mir nehmen möchte, also werden
00:26:50: mir Varianten von Schokoladen angezeigt, die zum Beispiel einfach sehr dunkel
00:26:54: sind. Dunkle Schokolade hat weniger Zucker, also ist da auch ein Pfeil
00:26:58: auf eine dunkle Schokolade und sagt hier ist besonders wenig Zucker drin,
00:27:01: danach suchst du doch. Oder
00:27:05: es kann sein, dass ich sage, okay, ich hätte gern besonders faire Schokolade, die
00:27:09: fair trade ist, zeig mir doch mal die Schokolade an, wird erkannt und
00:27:13: angezeigt. Und dann letztendlich durch meine ganzen Auswahlkriterien
00:27:16: suche ich mir die raus, die der Thomas Besmer, weil sie mir empfohlen
00:27:21: hat, letztes Jahr sich selber gekauft hat, nehme ich auch die
00:27:24: Schokolade und kaufe sie ein. Was ist passiert? Ich habe
00:27:28: vielleicht die Schokolade gekauft, die wirklich für mich nicht gekauft,
00:27:32: die wirklich für mich am besten wäre und zwar deswegen, weil sie
00:27:35: nicht durch meine Brille hervorgehoben wurde. Das heißt, wir haben hier
00:27:39: schon so eine Art Käuferbeeinflussung, so eine Art SEO und Marketing,
00:27:46: Marketing Engine Optimization sozusagen
00:27:50: und die Schokolade, die ich eigentlich kaufen wollte, ist da unten, war aber komplett
00:27:54: außerhalb meiner Wahrnehmung, weil sie nicht hervorgehoben wurde, weil sie vielleicht
00:27:57: sogar ausgegraut wurde Und
00:28:01: ja, das lag unter anderem daran, dass diese Firma kein
00:28:05: Metaverse Engine Optimization gemacht hat.
00:28:08: Also sie hat ihre Produkte nicht ordentlich digitalisiert,
00:28:12: hatte die Daten nicht zur Verfügung, hatte die 3D Daten vielleicht nicht zur Verfügung,
00:28:16: Hatte keine Ahnung davon, dass man jetzt neuerdings bei Rewe sein Produkt
00:28:20: auch in 3D einstellen kann und zusätzliche Daten eingeben kann. Hat
00:28:24: da die Schnittstelle nicht benutzt. Vielleicht gibt es da sogar eine automatische Schnittstelle,
00:28:27: maschinenlesbare, eine API, wo ich meine Produkte automatisch updaten
00:28:31: kann. Und das führt letztendlich dazu, dass ich dann später mal, wenn wir
00:28:35: im Metaverse-Zeitalter sind, meine Produkte nicht mehr gefunden werden,
00:28:39: weil ich bei diesem Spiel nicht mitspiele. So wie wir es auch kennen, Webseiten,
00:28:43: die wir heute sichtbar machen wollen, da machen wir SEO, da gehen wir auf Social
00:28:46: Media und so weiter und so fort. Und das ist etwas, was gerne
00:28:50: außer Acht gelassen wird, wenn man ans Metaverse von morgen denkt,
00:28:53: nämlich, dass im Prinzip eine gewisse Digitalisierung erwartet
00:28:57: wird von einem. Und diese Digitalisierung, die ist im Prinzip das
00:29:01: Grundgerüst. Das heißt, wer heute schon ein bisschen
00:29:04: strategischer ans Metaverse denken möchte, der muss im Grunde dafür
00:29:08: sorgen, dass er einfach top-notch digitalisiert ist. Und das
00:29:12: hilft ihm ja aber auch in jedem anderen Gebiet. Also nicht nur für das
00:29:16: Metaverse, sondern auch für AI. Ja, auch wenn ich meine ganze
00:29:19: Datenbank an verschiedenen Produkten, an Zulieferern mit AI managen
00:29:23: und optimieren will. Auch dann brauche ich ja eine gute Digitalisierung mit
00:29:27: stabilen Datenbanken, die sinnvoll gegliedert und strukturiert sind,
00:29:31: die sinnvoll geupdated werden und so weiter. Auch da
00:29:35: hilft mir eine gute Digitalisierung und deswegen ist mein Tipp an der
00:29:38: Stelle, Unternehmen digitalisiert euch ordentlich und das ist im Prinzip
00:29:42: immer der Aufruf, sobald wir irgendeine Hypewelle haben, nochmal darauf
00:29:46: zu gucken, wenn das jetzt heute tatsächlich schon da wäre, das
00:29:49: Metaverse, oder wenn wir alles nur noch mit Large Language Models suchen würden,
00:29:53: was wir nicht tun, aber angenommen, das wäre so, wäre ich da schon darauf
00:29:56: vorbereitet? Und da muss man oft sagen, es ist halt noch nicht so.
00:30:02: Sehr spannende Frage, vor allem auch, wäre ich da
00:30:06: präsent schlussendlich, wenn alles nur noch über die
00:30:09: Large Language Models geht? Also JGPT, Gemini,
00:30:13: GLOT, Mistral etc.
00:30:18: Wäre ich Das würde ich da gefunden werden. Von daher sicherlich
00:30:21: für alle, und das sind ja die meisten, die hier zuhören, aus
00:30:25: dem Marketing, eine Frage, die man am nächsten
00:30:29: Meeting in den Raum werfen kann.
00:30:32: Ja, absolut. Wenn die Frage in den Raum geworfen wurde und man
00:30:36: erkennt, man hat Defizite, wie würdest du
00:30:40: Unternehmen empfehlen, vorzugehen? Ist das eher das
00:30:44: Hiring von neuen Personen das Bilden
00:30:47: einer neuen Abteilung? Ist das eher eine Taskforce
00:30:51: oder was gibt es da für mögliche Vorgehensweisen aus
00:30:55: deiner Sicht? Ja, das Beste wäre natürlich gewesen, man hat schon
00:30:59: Menschen, die sich mit solchen Zukunftsthemen beschäftigen. Ab einer bestimmten
00:31:02: Größe eines Unternehmens gehört das so ein bisschen zur Pflichteinrichtung,
00:31:06: würde ich mal behaupten, dass man so eine kleine aber feine Einheit hat, die
00:31:10: solche Themen auf dem Schirm haben, die sofort bemerken, okay, hier passiert
00:31:14: was, hier müssen wir was tun und zwar, weil man ansonsten
00:31:17: eventuell ja von seinem Mitbewerbern
00:31:22: ja weggespült wird vom Markt, einfach weil sie Produkte
00:31:25: anbieten die auf der Höhe der Zeit sind und man selber so ein bisschen hinterher
00:31:29: hinkt. Nicht jedes Produkt ist gleich empfindlich, nicht jeder Markt ist gleich volatil,
00:31:33: aber das muss eben immer jeder Geschäftsführer auch
00:31:37: selber haben oder entscheiden und spüren,
00:31:40: aber tatsächlich halte ich das für eine Frage der Ehre, dass man sich mit solchen
00:31:44: Themen immer auseinandersetzt. Also das hat man ja auch getan, als man die
00:31:48: Firma damals gegründet hat. Also da hat man sich umgeguckt und hat gesagt,
00:31:52: okay, wo bekomme ich jetzt meine Informationen her?
00:31:55: Wer ist der beste Maschinenbauer da draußen, den ich für mein Geld engagieren kann
00:31:59: und der hier verfügbar ist? Wo sind die besten Materialien?
00:32:03: Was ist der beste Vertriebskanal? Was sind meine Kursen, meine
00:32:07: Kunden? Wie komme ich am besten an die ran? Und so weiter und so fort.
00:32:10: Und das ist eigentlich eine Frage der Ehre, ständig auch auf der Hut zu
00:32:14: sein und zu gucken, Inwiefern können diese neuen Technologien dazu
00:32:17: beitragen, dass ich der Beste bleibe, dass ich die beste Qualität
00:32:21: liefere, dass ich meine Kunden zufrieden stelle. Und deswegen ist das tatsächlich total
00:32:24: wichtig, es zu tun. Und zwar nicht einfach nur, weil Digitalisierung irgendwie
00:32:28: wichtig ist und das alle sagen, sondern weil es eine Frage der Ehre ist als
00:32:31: Unternehmer, da am Ball zu bleiben. Und wie
00:32:35: mache ich das jetzt? Ja, das ist natürlich eine schwierige Frage und das ist auch
00:32:38: immer eine Einzelfallentscheidung. Da müsste ich jetzt in die Unternehmen reingucken
00:32:42: und sagen, ja, also bei euch ist das dringend notwendig, Oder ja gut, bei dir
00:32:46: reicht das, wenn du einen Nerd hast, der sich da so ein bisschen drum kümmert.
00:32:49: Aber da muss man einfach dann, also was wichtig ist,
00:32:53: ist vor allem nicht auf, ich sag immer
00:32:57: so etwas, ja, ketzerisch auf
00:33:00: Rattenfänger reinzufallen. Also ich hab's schon so ein bisschen angedeutet, der
00:33:04: falsche Weg wäre jetzt sein Headquarter in Decentraland
00:33:08: nachzubauen. Das ist so das Schlimmste, was man dann tun kann, weil das
00:33:12: im Prinzip ein Luftschloss ist, sprichwörtlich, dass man da baut. Da hat man
00:33:15: dann irgendeinem Metaverse-Berater, schlimmstenfalls
00:33:19: Krypto-Berater vertraut und der hat einem dann so ein Ding
00:33:23: aufgequatscht, weil man dachte, das wäre total wichtig.
00:33:26: Sondern es geht tatsächlich darum, zu erkennen, was tatsächlich
00:33:30: notwendig ist und das auch zu reflektieren. Also es geht nicht
00:33:33: darum, jedem Quatsch nachzumachen, sondern es geht darum, die Technologien wirklich
00:33:37: zu verstehen, den Rattenfängern zu entkommen und dann
00:33:41: die Dinge zu bauen, die wirklich für meine NutzerInnen, für
00:33:44: meine Konsumenten, für meine Menschen, die ich
00:33:48: da habe, auch fürs Team sinnvoll sind. Und da muss
00:33:52: man ein bisschen tiefer einsteigen, wie einfach nur dem Hype hinterherlaufen
00:33:56: oder Sätzen glauben, wie in Zukunft werden wir alle.
00:34:00: Ja, das sind so Markensätze, ja, wenn, Wenn man das hört, müssen
00:34:04: sich sofort alle Alarmglocken einschalten. Ja, wenn jemand kommt und
00:34:07: sagt, in Zukunft werden wir alle nur noch Bananen essen.
00:34:11: So, ne? Dann wissen wir, das ist Quatsch. Und bei Bananen ist das völlig
00:34:15: offensichtlich. Außer man ist ein Minion, dass
00:34:18: das ein Teil der Quatsch ist, oder ein Affe. Ähm, aber
00:34:22: Also, in Zukunft werden wir nicht alles im Metaverse machen oder wird alles aus KI
00:34:26: bestehen, sondern muss ich ganz genau immer anschauen, was für Cases das sind.
00:34:30: Und Ja, manchmal lohnt es sich dafür jemanden einzustellen,
00:34:34: manchmal lohnt es sich ein ganzes Team zu machen,
00:34:37: aber man sollte eigentlich nicht in Aktionismus verfallen und dann
00:34:41: meinen, man muss ein Luftschloss bauen oder man braucht jetzt unbedingt
00:34:45: eine App. Wir erinnern uns an das App-Zeitalter, das wir ja nie wirklich
00:34:48: verlassen haben, aber die Welle an, wir brauchen auch eine
00:34:52: App, Thomas, ja, und dann gab es plötzlich
00:34:55: 100.000 Apps, die kein Mensch benutzt hat, weil niemand verstanden hat, wieso wir sie eigentlich
00:34:59: da sind. Heute wissen wir, die meisten Apps sind
00:35:02: Webseiten und eine Webseite ist vollkommen ausreichend und sie ist
00:35:06: einfach mobil erreichbar und das passt dann schon.
00:35:10: Und so ähnlich muss man sich das jetzt im Prinzip auch mit Metaverse oder mit
00:35:13: KI vorstellen. Die meisten Dinge sind tatsächlich
00:35:17: einfach nur Webseiten oder Apps
00:35:21: und nicht ein neues KI-Gadget. Du erinnerst dich vielleicht an diesen Rabbit,
00:35:25: diese orangene Companion. Das ist zum Beispiel auch so ein ganz klassisches
00:35:29: Luftschloss. Da hat jemand einfach sehr gutes Marketing gemacht
00:35:33: und meinte, er müsste eine Aluminiumhülle für eine App bauen,
00:35:37: die aber eigentlich auf dem Smartphone Platz hat und hat das Ding dann Rabbit
00:35:41: genannt, hat eine schwenkbare Kamera eingebaut, hat eine tolle Webseite für aufgesetzt
00:35:44: und kompletter Flop. Ja, Ja,
00:35:48: okay, lange Antwort für eine kurze Frage, aber ja, es ist kompliziert,
00:35:52: muss man sich immer anschauen, welche Firma, welches Unternehmen was tatsächlich
00:35:56: braucht, aber grundsätzlich kann man sagen, habt die Themen auf dem
00:35:59: Schirm und behandelt sie professionell, lasst euch nix in die
00:36:03: Tasche labern, glaubt nicht den Rattenfängern, sondern guckt
00:36:07: wie damals, ja, als ihr Unternehmer wart. Brauche ich das wirklich
00:36:10: und kann ich mir jemanden besorgen, der wirklich Ahnung
00:36:14: davon hat? Eben, also das Spannende ist ja
00:36:17: wirklich dabei, dass man sich nicht in ein Luftschloss
00:36:21: aufbinden lässt, sondern in eine
00:36:25: eigene Headquarter oder Spatial baut. Es gibt auch noch viele
00:36:28: andere Plattformen, wo da
00:36:32: eine eigene Präsenz aufbaut, die dann niemand besucht. Das hat, glaube ich, die
00:36:36: deutsche Bundesregierung auch mal ausprobiert, was ja dann
00:36:39: flop wurde im letzten oder im vorletzten Jahr.
00:36:43: Das war die EU, glaube ich. Die haben für ein paar Millionen ein
00:36:47: Metaverse-Ding gebaut, wo dann 17 Leute da waren.
00:36:51: Ja, sondern dass man sich eher die Frage stellt, und ich glaube, das ist eine
00:36:55: sehr treffende Frage, wenn XR und
00:36:58: KI oder Wenn alle Menschen nur noch über
00:37:02: XR und KI nach Produkten, nach Dienstleistungen
00:37:06: suchen, sind wir da sichtbar? Und wenn nein, wie können
00:37:10: wir da schrittweise sichtbarer werden? Da ist dann meistens
00:37:13: schon die Antwort Nicht, dass man da ein eigenes
00:37:17: Headquarter digital oder virtuell aufbaut, sondern dass man
00:37:21: seine Produkte in den digitalen Raum
00:37:24: bringt, indem man beispielsweise die Schokoladenverpackung
00:37:28: oder auch andere klassische Staubsauger,
00:37:33: die mit 3D-Teilen dargestellt werden, wo man auseinandernehmen
00:37:37: und einzelne Teile anschauen kann, vielleicht noch Erklärungen
00:37:41: erhält, indem man mit der Brille, ob das Ray-Ban
00:37:44: von Meta ist oder andere, im Point
00:37:48: of Sales steht und dort durch die Brille beraten wird.
00:37:52: Ja, absolut. Also da sind auch alltägliche Dinge,
00:37:56: die wir heute haben, total super. Also wir sehen es jetzt mit der Appavision
00:38:00: Pro, da wird das immer mehr so sein, dass man natürlich erstmal in den
00:38:03: Luxusläden wie Porsche und Co, dass man da sich sein Auto konfiguriert,
00:38:08: aber auch was Unterhaltung angeht, wandert die App Vision Pro gerade bei der
00:38:11: Lufthansa in die Kabinen, da die Leute zu bespaßen.
00:38:15: Das sind ganz triviale Dinge erstmal, aber die funktionieren tatsächlich schon ganz
00:38:19: gut. Oder Ikea mit seiner AR-App, die hervorragend
00:38:22: funktioniert. Im Fashion-Bereich gibt es einiges, was man
00:38:26: ausprobieren kann. So Fitting-Sachen, Körpergröße-Scannen,
00:38:31: verschiedene modelle ausprobieren und so weiter funktionieren sehr
00:38:34: gut einer der größten es gibt einen hersteller aus
00:38:38: österreich die praktisch der 1 stop shop sind
00:38:42: für worldpools also wenn ihr euch überlegt ein worldpool anzuschaffen
00:38:45: dann könnt ihr den erstmal mit Augmented Reality in den
00:38:49: Raum stellen und gucken, passt der überhaupt rein ins Wohnzimmer oder
00:38:53: da, wo ihr den hinhaben wollt. Und so gibt es ganz viele, viele Use
00:38:57: Cases. Also das ist mittlerweile tatsächlich sehr mannigfaltig
00:39:00: unterwegs. Auch bei Amazon ist es mittlerweile fast schon Standard, dass die Produkte auch in
00:39:04: 3D angeguckt werden können. Das sind so Kleinigkeiten. Das ist jetzt
00:39:08: noch nicht so, dass man denkt, wow, das Metaverse ist da. Aber
00:39:12: das sind eben die Steps, die man jetzt schon auf dem Schirm haben musste oder
00:39:15: muss, tatsächlich, wenn dann irgendwann mal dieser Step kommt, auch
00:39:18: tatsächlich verfügbar zu sein und dann nicht erst noch sehr viele kleine
00:39:22: Schritte machen zu müssen, da hinzukommen, sondern ja, man war dabei und man hat
00:39:26: das mit aufgebaut und ja, manchmal erkennt man dann auch
00:39:29: Möglichkeiten und kann auch neue Dinge kreieren. Also
00:39:33: das ist ja tatsächlich auch das Spannende. Die Unvorhersagbarkeit
00:39:37: technologischer Entwicklungen, die ist ja tatsächlich ein Problem.
00:39:41: Also selbst Apple kann ja eigentlich nicht wirklich wissen, wie das
00:39:44: Metaverse aussieht in Zukunft. Ich mache mal ein einfaches Beispiel. Als das iPhone
00:39:48: rauskam, da war da eine E-Book App drauf. Wie
00:39:52: sah die E-Book App aus? Die E-Book App sah aus wie ein Bücherregal. Warum?
00:39:56: Naja, weil wir wussten, wie ein Bücherregal funktioniert. Aber eigentlich ist das nicht
00:40:00: wirklich notwendig, das Ding wie ein Bücherregal aussehen zu lassen, weil man
00:40:04: klickt da halt drauf und dann öffnet sich das und dann kann man Buchstaben lesen.
00:40:07: Aber was die Usability anging, war das eben so, dass das
00:40:11: funktioniert. Das war der klassische Geomorphismus,
00:40:14: ja, Und da befinden wir uns im Grunde auch
00:40:18: gerade am Anfang, wo wir versuchen durch neues Medium
00:40:21: irgendwie da rein zu kommen. Und die Bücher-App sieht
00:40:25: heute ganz anders aus. Sie kann viel abstrakter sein. Warum? Weil wir gelernt haben,
00:40:29: damit umzugehen. Für uns ist das, ist diese Abstraktionsebene keine Abstraktionsebene
00:40:33: mehr, sondern das kann im Prinzip nur noch ein Titelbild sein.
00:40:37: Da muss nichts mehr 3D sein. Ich klicke da einfach drauf, zack sind die Buchstaben
00:40:40: da. Ich brauche kein Bücherregal mehr aus Holz, das tatsächlich wie Holz
00:40:44: aussieht, sondern das ist einfach eine cool designete UX, die sehr
00:40:47: minimalistisch ist. Das funktioniert. Da haben wir praktisch einen Prozess durchgemacht.
00:40:52: Und das kann man immer, also wenn man das weiterdenkt,
00:40:56: dann war es auch unvorhersehbar, dass wir mal eines
00:41:00: Tages mit der Uhr bezahlen werden. Als Apple das iPhone rausbrachte,
00:41:04: haben die glaube ich nicht gewusst, ja völlig klar, wir werden in Zukunft alle
00:41:08: mit der Apple Watch irgendwie am Kiosk bezahlen. Das konnte man
00:41:11: vielleicht schon irgendwie ahnen oder das war vielleicht eine Zukunftsvision,
00:41:15: aber wirklich, wenn das jemand vorhergesagt hätte, hätte der gesagt, ich glaube du
00:41:19: spinnst ein bisschen. Und weil das eben unvorhersagbar ist. Und ähnlich
00:41:23: verhält sich es mit dem Metaverse. Heute denken wir daran, ich muss sofort
00:41:26: mein Headquarter nachbauen oder ich muss den Supermarkt in VR nachbauen.
00:41:31: Und das ist gar nicht mal so eine gute Idee, weil das letztendlich
00:41:35: nicht das ist, was wir dann irgendwann tun werden. Also wie wird
00:41:38: Shopping im Metaverse eines Tages aussehen? Ich hoffe auf gar keinen Fall
00:41:42: ist es eine 1 zu 1 Kopie der Realität, weil die hat ja im prinzip
00:41:46: lauter nachteil und die vorteile die wir in vr haben dass wir jetzt
00:41:50: uns zum beispiel hin beamen können dass wir uns schnell wohin teleportieren
00:41:54: können dass wir wie beim matrix ganze regale an uns
00:41:57: vorbeischießen lassen können oder viele dinge oder
00:42:01: auch eine sache haben aber die ihre Eigenschaften verändert und ich die nicht immer
00:42:04: tauschen muss. Ja diese ganzen Vorteile, die will ich ja eigentlich nutzen, wenn
00:42:08: ich so ein neues Medium benutze und deswegen ist wie das Meta, wie das in
00:42:12: Zukunft aussieht unvorhersagbar und das ist der einzige
00:42:16: Weg, wie man das tatsächlich herausfinden kann, ist, indem man es benutzt. Also
00:42:19: ich bin ein Unternehmen, ich möchte Vorreiter sein, ich habe
00:42:23: die Kapazitäten, das zu tun, ich habe den Cash, das zu
00:42:26: tun. Also was mache ich? Na ja, ich baue ein Lab und ich versuche herauszufinden,
00:42:30: wie könnte tatsächlich das Shopping in Zukunft aussehen und mach das, indem ich
00:42:34: anfange zu bauen und zu basteln. Und dann kann es sein, dass ich tatsächlich mal
00:42:37: den Killer Case für etwas baue. Das ist
00:42:41: ja das, was Apple auch gerade macht. Stellen die Plattform zur Verfügung und hoffentlich
00:42:45: benutzen das jetzt genügend Leute, probieren Sachen aus, testen
00:42:49: Dinge und bringen uns da vorwärts in der Usability, in der Art, wie wir
00:42:53: das Medium nutzen, eines Tages dann das herauszufinden,
00:42:56: was dann zum Beispiel mal das, die Amazon App
00:43:00: fürs Metaverse wird oder das Instagram
00:43:04: des Metaverse. Genau. Und bezüglich
00:43:07: Basteln, eine Überleitung. Du veranstaltest ja
00:43:11: Ende August ein Hackathlon in Köln, also vor der
00:43:14: Gamescom ist, wo es genau ja auch diese Themen
00:43:18: geht. Möchtest du da noch kurz was ausführen?
00:43:22: Ja klar. Also normalerweise bin ich ja ein Journalist, der
00:43:26: sich eher auf der theoretischen Ebene damit beschäftigt, auch wenn ich mir ganz praktisch an
00:43:30: die Brille aufsetze und das alles auch teste und mache. Aber da
00:43:34: habt ihr die Möglichkeit am 18. 19. Und 20.
00:43:38: August. Das ist das Wochenende vor der
00:43:41: Gamescom in Köln bei einem Hackerfond teilzunehmen
00:43:46: und zwar sponsert bei Meta. Da gibt es dann 100.000 Dollar
00:43:50: Preisgeld und ja, da werden wir versuchen im Bereich
00:43:53: Mixed Reality viele, viele neue Cases zu entwickeln.
00:43:57: Das heißt, wenn ihr selber Lust habt daran teilzunehmen oder ihr ein Team
00:44:01: habt oder ihr Leute kennt, die daran teilnehmen wollen, seid ihr ganz herzlich
00:44:04: eingeladen, euch da anzumelden auf xrhack.com.
00:44:08: Findet das Ganze statt, könnt euch anmelden. Findet dann in Köln im Media Park
00:44:12: statt. Das sind 3 Minuten S-Bahn von der Köln-Messe weg. D.h.
00:44:16: Ihr seid auch ruckzuck dann wieder bei der DEF CON und bei der Gamescom.
00:44:20: Kann ich nur sehr empfehlen. Und na ja, tolle Preisgelder. Es werden auch Leute
00:44:24: von Meta da sein. Es werden tolle XR-Leute, internationale
00:44:27: XR-Professionals da sein. Also alles in allem ein supertolles
00:44:31: Angebot. Ja, und wir arbeiten da schon kräftig dran.
00:44:35: Christian Steiner, Grüße gehen raus, und ich, und das ganze Team von
00:44:38: dem XR-Hack-Team. Ja, das wird eine fantastische Veranstaltung. Und
00:44:42: endlich mal wieder, sag ich mal, in Köln, zur Gamescom eine XR-Veranstaltung.
00:44:46: Das gab's nämlich die letzten Jahre sehr wenig, muss man sagen. Also, man könnte ja
00:44:50: denken, zu Gamescom, ja klar, da laufen alle mit Brillen rum, da passiert
00:44:53: total viel VR. Das war es aber gar nicht. Da war eher eine
00:44:57: große Zurückhaltung und als XR-Entwickler wusste man auch nicht so richtig, wohin.
00:45:01: Und die Zeiten sind jetzt vorbei. Also am Dienstagabend, am
00:45:05: Ende des Hackathons wird es eine große Party geben. Da solltet ihr auf jeden
00:45:08: Fall vorbeischauen. Das ist jetzt vorabend zur Gamescom. Da findet im
00:45:12: Startplatz dann eine riesengroße XR-Party statt. Kostenloser
00:45:16: Eintritt, Essen und Trinken. Wer mehr Informationen möchte, gerne auf
00:45:20: xrhack.com gucken. Sehr gut, vielen Dank
00:45:24: Thomas. Also da an alle Zuhörerinnen und Zuhörer, wenn ihr in
00:45:27: eurem Unternehmen Entwickler habt, die sich für diese
00:45:31: Themen interessieren, dann gerne den Link
00:45:36: weiterleiten, xrhack.com.
00:45:40: Dort finden eure Entwickler weitere Informationen, am
00:45:43: Hackathlon oder an der Party
00:45:47: teilzunehmen. Am besten bei weitem.
00:45:54: Ein Thema möchte ich noch ansprechen. Das ist die Nachhaltigkeit
00:46:00: solchen Applikationen bzw. Von solchen Initiativen.
00:46:05: KI Weissmann verbraucht eine
00:46:09: enorme Ressource an Energie. XR, das
00:46:12: ebenfalls stark ressourcenabhängig ist, insbesondere
00:46:16: Rechenleistungen. Wie können
00:46:20: Unternehmen vereinbaren, dass sie sich auf der einen
00:46:24: Seite Nachhaltigkeit auf die Fahne schreiben und
00:46:28: versuchen, nachhaltig unterwegs zu sein, auf der anderen Seite aber
00:46:32: an so ressourcenfressenden
00:46:36: Massnahmen oder Initiativen arbeiten. Ja,
00:46:39: also das kann man insofern mit seinem Gewissen vereinbaren,
00:46:43: indem man eben keine Luftschlösser baut. Also ich erinnere
00:46:47: mal an eine Phase während des Metaverse Hypes, da
00:46:50: wurden NFTs ausgegeben und da gab es den
00:46:54: Fall, dass die gleichen, die diese Crazy Monkeys gemacht haben, diese Crazy
00:46:58: Apes, ein neues Projekt gestartet haben, das hieß Other Side
00:47:01: Project und da haben die innerhalb von vier Tagen so ein CO2
00:47:05: Äquivalent verbraucht von 10.600 Flügen von London nach New
00:47:09: York, Bildchen auf einer Blockchain zu speichern.
00:47:13: Das ist zum Beispiel etwas, wo ich sage, Da hat man jegliche Glaubwürdigkeit,
00:47:16: was das Thema Nachhaltigkeit angeht, verloren. Es gab da
00:47:20: leider auch regelrechte NFT-Partys, zum Beispiel auf der
00:47:24: Online-Marketing-Rockstars. Da habe ich einfach nur mit dem Kopf geschüttelt und
00:47:27: gesagt, das geht einfach in diesem Jahrtausend nicht mehr. Ja, also wir stehen vor
00:47:31: einer existenziellen Herausforderung. Selbst
00:47:35: wenn man das sehr konservativ ansieht, muss man sagen, ja
00:47:39: wir müssen vorsichtig mit unserer Umwelt umgehen
00:47:43: und deswegen ist das eigentlich völlig unhaltbar. Aber
00:47:46: letztendlich sind diese Technologien ja nicht dafür da, einfach nur Quatsch zu machen,
00:47:50: sondern dahinter stehen ja schon die Überlegungen, inwiefern können sie
00:47:54: Prozesse ersetzen, können sie effizienter machen, können sie besser machen
00:47:58: und gerade im XR-Bereich geht das tatsächlich auch ziemlich einfach.
00:48:01: Also statt mit dem Flugzeug 10.600 mal von London nach
00:48:05: New York zu fliegen, irgendein Team-Meeting zu machen, kann man eben heute die
00:48:09: XR-Brille aufziehen, die VR-Brille und kann sich das halt sparen und hat
00:48:12: eine so gut wie realistische, ziemlich gute soziale
00:48:16: Erfahrung. Also man hat eine räumliche Erfahrung, man hat eine
00:48:20: soziale Erfahrung, also man verhält sich tatsächlich da auch sozial
00:48:24: im Raum, man stellt sich zueinander, man geht nicht, man kommt nicht zu
00:48:27: nah. Also das ist tatsächlich eine gültige soziale Erfahrung, die man da
00:48:31: macht. Und da lassen sich dann tatsächlich auch Vorstellungsgespräche, da lassen
00:48:34: sich Kundengespräche, da lassen sich Teamworkshops mit
00:48:38: verteilten Teams oder mit Kunden und
00:48:41: Gesprächspartnern auf der ganzen Welt führen, ohne erst
00:48:45: wirklich einen sehr großen CO2-Fußabdruck zu machen und dann ist das
00:48:49: natürlich cool. Ja, dafür brauchen wir das. Oder wenn wir in der Lage sind,
00:48:52: Dinge zu automatisieren, die vielleicht vorher sehr aufwendig waren.
00:48:56: Dadurch, dass wir durch maschinell erlernte Algorithmen in der
00:49:00: Lage sind, etwas effizienter zu machen. Dann gibt die Investition in diese
00:49:04: Technologie, dann ergibt die Sinn. Wenn es
00:49:07: einfach nur dafür da ist, dass wir irgendwie fancy Bildchen
00:49:11: machen und die dann am Ende noch auf eine Blockchain knallen, dann ergibt das nicht
00:49:15: so viel Sinn, aber da muss man auch, ich meine das ist jedermann
00:49:18: selber Entscheidung, aber da muss man einfach dann auch mal den Taschenrechner ausholen und
00:49:22: gucken, wie viele Liter Wasser werden jetzt gerade verbraucht für diesen Server und
00:49:26: ist das, was ich da mache, nicht einfach nur was, was ich für das Image
00:49:29: so ein bisschen mache, damit ich auch dabei bin oder optimiert das meine Prozesse
00:49:33: wirklich. Spare ich Zeit und Ressourcen dadurch, lohnt sich
00:49:37: das. Und manchmal ist es eine Nullsummenrechnung.
00:49:40: Ja, also man hat zum Beispiel dann ein Training, das man
00:49:44: in VR macht für Mitarbeitende, die Sicherheit zu verbessern,
00:49:48: da lässt sich jetzt nicht so unbedingt sagen, das ist so viel besser wie ein
00:49:51: alternatives Training. Also ich kann zum Beispiel die
00:49:55: Bestückung eines Hochsicherheitskasten sicherer machen,
00:49:58: wenn ich sie in VR mache und kann das dann auch besser üben, ja, und
00:50:01: kann mein Muscle Memory trainieren und so. Was sagt das jetzt über meinen
00:50:05: CO2 Fußabdruck, ja, wenn ich jetzt aber
00:50:09: mit dem Auto zur Arbeit fahre, zu meiner Ausbildungsstelle und das dann dort
00:50:13: mache, na das wird sich ungefähr aufheben so.
00:50:18: Wenn man da was tun will, dann kann man sich eben überlegen, okay, kann ich
00:50:21: das zurückzahlen? Kann ich da eben gucken, dass ich da die
00:50:26: CO2 ausgleiche mit guten Projekten? Da muss man da eben ein
00:50:30: bisschen Gas geben. Ja, also da gibt es ja auch die Möglichkeiten.
00:50:34: Wenn man Dinge tun will, muss man auch was investieren, das ist schon so.
00:50:37: Aber mit dem gesunden Menschenverstand sollte man das immer beurteilen und ich glaube, das ist
00:50:41: eigentlich einigermaßen möglich, wenn einem es nicht völlig egal ist.
00:50:46: Sehr gut, Vielen Dank für die Ausführungen.
00:50:50: Das beschreibt sehr gut, dass eine oder andere
00:50:54: unter Umständen einen Nullsummen
00:50:58: spielen, z.B. Meetings in VR machen,
00:51:03: als nach New York oder über See zu fliegen.
00:51:08: Wir von der Hutte Consulting sind auch sehr gut in Deutschland
00:51:11: unterwegs mit unseren Kunden. Wir fliegen nicht
00:51:15: jedes Mal zum Kunden, sondern machen VR-Meetings,
00:51:20: wo man das räumliche Erlebnis auch hat. Beispielsweise
00:51:24: bei Meta mit Workrooms,
00:51:29: wo ich sehe, wo die Menschen im Raum sitzen. Je nachdem,
00:51:33: wie ich meine Brille abdrehe, kommt die Stimme
00:51:36: von unterschiedlichen Orten, bis hin, dass man bei Personen, bei denen
00:51:40: man nebenan sitzt, virtuell flüstern kann, ohne dass
00:51:44: das andere im Meeting mitbekommen oder hörbar
00:51:47: mitbekommen. Das ist eine fantastische
00:51:51: Technologie, nicht nur
00:51:55: Zoom-Meetings zu machen, wo man die Menschen 2D vor sich hat,
00:51:59: sondern mit solchen Möglichkeiten
00:52:02: im virtuellen Raum unterhalten kann.
00:52:06: Ein weiterer Vorteil, den ich sehe, ist, dass man da 0
00:52:10: % Ablenkung hat. Bei Teammeetings hat man immer noch
00:52:13: weitere Bildschirme oder Fenster
00:52:17: offen. Andere Bildschirme sind teilweise abwesend.
00:52:21: Das Handy. Wenn ich die Brille aufhabe, muss ich mich 100
00:52:25: % auf das fokussieren. Natürlich kann ich mein Laptop
00:52:28: virtuell in die Brille integrieren.
00:52:33: Aber wenn jemand einen Kopf runter hat, wird er mit der Zeit grau, wenn
00:52:37: er inaktiv ist. Was dann auch ein Zeichen ist, dass er nicht beim
00:52:40: Meeting dabei ist. Also das auch kleine
00:52:44: Schritte in der Effizienzgewinnung. Ja,
00:52:48: total. Also gerade das spatial audio macht richtig viel Spaß. Also
00:52:51: man hört, wo jemand ist und das ist tatsächlich ja auch so in
00:52:55: Meetings, dass man sehr viel über die Tonspur geht. Ja,
00:52:58: also das ist schon auch wichtig, dass man dann zusammensitzt, weil man sich ja dann
00:53:02: auch zueinander verhält, aber über die Tonspur, das macht dann
00:53:06: eigentlich erst, fängt an richtig Spaß zu machen, ja und da kann man auch sehr
00:53:09: viel bewirken, also mit der Stimme kann man viel tun und wenn die
00:53:13: gut transportiert wird und die nicht, sag ich mal, so monomäßig ist, wie jetzt hier
00:53:16: in so einem Meeting. Also für einen Podcast ist das super, was wir gerade
00:53:20: machen, aber wenn ich mich tatsächlich im Raum auch bewegen kann und dann
00:53:24: kommt die Dynamik rein, das bleibt am Leben, man bleibt aktiv, man bleibt
00:53:27: aufmerksam, das ist schon sehr sehr hilfreich und funktioniert
00:53:31: wirklich, wie du es beschrieben hast, einfach perfekt. Noch ein Vorteil gibt es, man
00:53:35: befindet sich ja bereits in einem digitalen Medium, das heißt Dinge, die man
00:53:38: dort erstellt, sind schon digital. Da kann ich dann also
00:53:42: ein, ja, irgendwas erarbeiten, einem Whiteboard und dann muss ich
00:53:46: das nicht erst digitalisieren, sondern es ist schon digital und kann direkt in mein
00:53:50: System einfließen. Ich kann es direkt runterladen, ins Trello packen oder wo auch immer
00:53:53: und muss da nicht erst digitalisiert werden. In Zukunft
00:53:57: wahrscheinlich auch so ein bisschen Zusammenfassungen von Besprechungen
00:54:01: kann man da machen und noch vieles mehr, was uns auch einfallen wird.
00:54:05: Also dadurch, dass es ein nativ digitales Medium ist, kann
00:54:08: man damit natürlich auch sehr viele Dinge tun, wie auch Objekte einbauen,
00:54:13: ja, eine ganze Journey bauen, was ich auch mal sehr gerne mache.
00:54:17: Also wer PowerPoint in VR einsetzt, das ist ein bisschen so eine
00:54:20: Notlösung. Am coolsten ist es eigentlich tatsächlich, wenn man so eine Art Parcours
00:54:24: baut. Also statt ein PowerPoint bauen, benutze Klötzchen
00:54:28: und baue ein Parcours in einem Raum. Und Dann kann man von
00:54:32: Punkt zu Punkt gehen und sagen, guck mal, hier ist das, guck mal, hier ist
00:54:35: das. Sehr viel schöner, sehr viel angenehmer, als irgendeine Powerpoint tatsächlich
00:54:39: zu machen, wenn es geht. Sehr gut. Zum
00:54:42: Schluss noch, viele Zuhörerinnen und Zuhörer
00:54:46: haben ja mehr darüber erfahren, über XR, Special
00:54:50: Computing, Metaverse, was man als Unternehmen machen kann. Jetzt gibt
00:54:54: es vielleicht die einen oder anderen, die sagen,
00:54:58: für unser Unternehmen, Unser Produkt oder unsere
00:55:01: Dienstleistung lassen sich nicht in diesen
00:55:05: Räumen, in diesem Umfeld bewerben oder umsetzen.
00:55:10: Also, die noch zögern, bei XR einzusteigen.
00:55:14: Welchen Ratschlag würdest du denen mit auf den Weg geben?
00:55:18: Ja, also das kann tatsächlich sein und das
00:55:21: ist auch okay. Also es muss nicht immer alles sofort maximal
00:55:25: digitalisiert werden und alle müssen sofort ins Metaverse
00:55:29: und alles mit KI machen und so. Davon darf man sich nicht unter Druck setzen
00:55:33: lassen, sondern das ist ja eher eine Aufforderung zum Spaß haben. Ja, also
00:55:37: da erstmal große Entwarnung, ich kann meine Eisdiele
00:55:41: einfach richtig schlecht digitalisieren. Ja, das so, die Abrechnung vielleicht, die
00:55:44: Kassenzettel und so kann ich digitalisieren, Aber das Eis, da müssen
00:55:48: Leute im Park sein, das ist einfach Quatsch, wenn ich das digitalisiere. Niemand
00:55:51: will im Metaverse ein Eis essen. Das geht auch gar nicht.
00:55:56: Aber was man natürlich schon machen kann, ist Mitarbeiter zu
00:56:00: schulen oder, also zu schulen, und das ist tatsächlich einer der
00:56:03: größten Punkte im B2B-Bereich auch, dass man
00:56:07: tatsächlich guckt, inwiefern kann ich den mitarbeitenden über vr
00:56:11: befähigen dinge schneller besser und einfacher zu machen
00:56:15: und das passiert unentwickelt also das ist tatsächlich
00:56:18: auch da muss man auch oft gar nicht viel bauen, weil es eben eher Team
00:56:22: Dynamik ist oder Abfolgen üben. Und jetzt nicht
00:56:25: praktisch. Man braucht einen OP-Saal irgendwie nachgebaut, sondern geht es eher
00:56:29: Abläufe oder wie man sich verhält gegenüber Kunden oder
00:56:33: gegenüber Patienten oder so. Und da kann man eben im
00:56:36: Trainingsbereich unfassbar viel machen. Also ich würde sagen, neben dem
00:56:40: Gaming und Fitness ist das Training von Mitarbeitenden
00:56:44: genau das, wo man eigentlich genauer hingucken sollte, wenn man heute schon was in
00:56:48: VR machen möchte. Inwiefern kann ich
00:56:51: dafür sorgen, dass meine Mitarbeitenden schneller und besser werden und sicherer arbeiten?
00:56:56: Und wenn es nur ein Feuerlöschtraining in VR ist, es gibt ein Bonner
00:56:59: Startup, die machen das. Die haben, Die kommen auch gerne mal persönlich vorbei
00:57:03: oder man lässt sich schicken, die schicken einem
00:57:08: einen Feuerlöscher mit Sensoren dran und eine Brille und dann kann man in
00:57:11: VR lernen, wie man Feuer richtig löscht. Das ist ein mega Teamspaß,
00:57:15: danach gibt es Pizza und alle können ein Ölfeuer
00:57:18: löschen und verschiedene Arten von Feuer löschen,
00:57:23: weil sie es in VR geübt haben. Und allein schon solche kleinen Sachen sind
00:57:27: einfach toll. Ja und da muss man dann auch nicht immer speziell
00:57:31: perfekt das alles einbauen, aber ja, also diese Cases
00:57:35: werden immer mehr und im Prinzip braucht man da einfach nur ein bisschen googeln. Also
00:57:38: Branche plus XR googeln und mal gucken, was da schon alles passiert
00:57:42: und dann findet man eigentlich immer was. Weiss ich nicht, beim Eisverkauf, weiss ich
00:57:46: nicht so richtig, aber vielleicht auch. Ich gucke es gleich
00:57:49: mal. Das ist eine Überraschung. Vielleicht gibt es eine
00:57:53: App, wie ich mit Kunden interagieren kann. Ich habe
00:57:56: auf der Quest 3 eine App, die meine Speaker-Kompetenzen
00:58:01: optimiert. Ich ziehe die Brille an und kann wählen,
00:58:05: vor welchem Publikum, wie gross der Saal sein soll. Vor zehn
00:58:08: Menschen, vor 100, vor 1'000,
00:58:12: vor deutlich mehr. Ich stehe virtuell auf der
00:58:16: Bühne, die Menschen sind vor mir, ich spreche und sie interagieren,
00:58:20: je nachdem, was ich gesprochen habe. Auch da gibt es einen gewissen Einsatz
00:58:23: von Large-Language-Models, Reaktionen
00:58:27: festzulegen. Am Ende kommt ein Speaker-Coach, der
00:58:30: mir sagt, wie meine Sprechgeschwindigkeit,
00:58:35: meine Sprechdynamik, mein Auftritt bezüglich
00:58:39: Händen war. Die Beinstellung kann nicht analysiert werden, aber wie habe ich mit
00:58:43: den Händen zu fest artikuliert, zu wenig artikuliert, wie
00:58:46: war die Stimmvariante etc. Sehr spannend,
00:58:51: selbst im eigenen Wohnzimmer seine nächste Keynote
00:58:54: zu trainieren. Ja, absolut.
00:59:00: Da Einige Anwendungsfälle, die man
00:59:03: da bereits nutzen kann. Und eben die Mitarbeiterschulung. Die Lufthans hat
00:59:07: ja auch, glaube ich, kürzlich vor etwa zwei, drei Wochen
00:59:12: kommuniziert, dass sie da auf die MetaQuest 3 setzen, was
00:59:16: die Schulung des Kabinenpersonals anbelangt.
00:59:20: Auch da spannende Cases, die Effizienz zu
00:59:24: steigern und auch die CO2-Bilanz
00:59:28: zu verbessern. Statt alle Mitarbeitenden
00:59:32: nach Frankfurt einfliegen oder antraben zu lassen, damit
00:59:36: sie dort im Flugzeug trainieren können, das neben dem Rollfeld
00:59:39: steht, können sie jetzt zu Hause mit der Brille virtuell
00:59:43: trainieren. Ja, oder es gibt tatsächlich sogar eine
00:59:46: professionelle Piloten-Trainings-App, wo
00:59:52: man Flüge simulieren kann und Flugsimulatoren, die großen
00:59:56: Kisten, in denen die dann manchmal sitzen, sind ziemlich teuer, da wenn man da die
01:00:00: buchen will, das kann sehr teuer sein und dann setzt man sich halt einfach eine
01:00:03: VR-Brille auf und kann dort die ganzen Abfolgen lernen. Also auch das
01:00:07: Pilotieren eines Flugzeuges ist auch ein Prozess, wo man
01:00:10: bestimmte Prozessschritte bei bestimmten Cases einhalten muss und auch die
01:00:14: lassen sich dann auch aus dem Hotelzimmer heraus lernen, ohne erst in einen
01:00:18: Flugsimulator einsteigen zu müssen. Ja, da gibt es wirklich richtig
01:00:21: viele, viele Cases. Also kann ich jeden nur ermutigen, mal zu
01:00:25: gucken. Wer schon immer mal ein Pilot sein möchte, der kann diese App auch kostenlos
01:00:28: runterladen und das mal trainieren. Vielleicht eines Tages, wenn beide
01:00:32: Piloten durch einen unglücklichen Zufall den plötzlichen
01:00:35: Herztod erleiden, kannst du dann, weil du in VR
01:00:39: trainiert hast, dieses Flugzeug landen. Genau. Lass mich durch, ich
01:00:43: habe es in der Brille trainiert. Ja, genau. Ich habe den
01:00:47: Microsoft-Flugsimulator auf NVR gespielt.
01:00:51: Sehr schön. Thomas, vielen, vielen Dank für das
01:00:55: Gespräch bzw. Für auch deine Ausführungen, für deine
01:00:59: Einsichten in das Thema. Ich könnte noch eine Stunde länger
01:01:03: zuhören. Ich glaube, auch unsere Zuhörerinnen und Zuhörer
01:01:07: könnten das noch. Aber da muss ich leider Schluss machen,
01:01:11: weil unsere Episoden meist nicht länger als eine Stunde dauern.
01:01:15: Ich bin aber überzeugt, oder ich hoffe sehr, dass wir in einem
01:01:19: halben Jahr nochmals über das Thema sprechen können. Dann
01:01:23: vielleicht ein Update, was sich seit der heutigen Episode
01:01:27: getan hat, welche Geräte neu auf dem Markt sind, welche
01:01:31: Entwicklungen. Von daher
01:01:34: würde ich mich sehr freuen, dich später oder zukünftig
01:01:38: nochmals im Podcast begrüssen zu dürfen. Aber jetzt schon
01:01:42: mal ein riesen Dankeschön. Du hast die Zeit gefunden, mit
01:01:45: mir über dieses Thema zu sprechen. Sehr, sehr gerne.
01:01:49: Vielen Dank für deine tollen Fragen und das schöne Gespräch. Ich komme
01:01:53: auch gerne wieder. Wenn es dann heisst, lass uns über die
01:01:57: Metaquest 3S sprechen, die vielleicht im
01:02:00: September angekündigt wird. Ja. Sehr gut.
01:02:04: Vielen herzlichen Dank. Liebe Zuhörer, hat dir die
01:02:08: Episode gefallen? Dann bewerte uns auf iTunes und Spotify
01:02:11: und folge uns im Podcastplayer deines Vertrauens.
01:02:15: Feedback zur Episode gerne via Instagram, LinkedIn,
01:02:19: Facebook oder per E-Mail an dmu.hutter-consult.com.
01:02:24: Vielen Dank fürs Zuhören und ich freue mich, wenn du bereits am Montag bei den
01:02:28: Social Advertising News des Digital Marketing Upgrade Podcasts der
01:02:32: Hutter Consult wieder mit dabei bist. Vielen Dank und
01:02:36: tschüss. Tschüss.
Neuer Kommentar