Apple & OpenAI’s Partnerschaft, das Ende von Workplace & Business Cases mit Meta Quest - mit Thomas Hutter #103

Shownotes

Die Episode 103 des «Digital Marketing Upgrade»-Podcast steht ganz im Zeichen des Monthly Talks Mai. Somit ist wie gewohnt Agenturinhaber Thomas Hutter wieder als Gast dabei. Zusammen mit dem Gastgeber Thomas Besmer werfen die beiden einen Blick auf brandaktuelle Themen wie die Einstellung von Meta's Kollaborationsplattform Workplace, die neuesten Entwicklungen im Bereich der VR-Brillen von Meta, die sprachgesteuerte AI-Technologie ChattGPT 4.o. Zudem sprechen die Protagonisten über die mögliche Partnerschaft zwischen Apple und OpenAI.

Takeaways

Workplace von Meta wird bis 2025 eingestellt: Thomas Hutter bedauert das Ende einer kostengünstigen und funktionsreichen Plattform, die von grossen Unternehmen genutzt wurde.

Metas Quest-Brille in der Luftfahrt: Thomas Hutter diskutiert die vielfältigen Anwendungsmöglichkeiten, einschliesslich Schulungen, Wartungsarbeiten und potenzieller Anwendungen für Entertainment an Bord.

ChatGPT 4.o und generative KI-Modelle: Thomas Besmer und Thomas Hutter diskutieren die Vor- und Nachteile von ChattGPT 4.o Omni, sowie technische Herausforderungen und Potenziale in Spracherkennung und Sprachenlernen.

Apple's KI-Entwicklung und Fokus auf Chip-Entwicklung: Die Auswirkungen auf die Geschwindigkeit von AI-Modellen und die potenzielle Integration von OpenAI's ChatGPT auf Apple-Geräten werden erörtert. Zudem werden die Spekulationen über eine Partnerschaft zwischen Apple und OpenAI sowie die Weiterentwicklung von Amazon und Alexa durch KI-Technologie diskutiert.

Virtual Reality-Erfahrungen mit Oculus und Google Earth: Thomas Hutter betont den Lerneffekt beim Erkunden von Städten und Ländern über VR und teilt persönliche Erfahrungen mit frühen Oculus-Versionen.

Host: Thomas Besmer Produktion: Hutter Consult AG

LinkedIn-Profil Bastian Schütz

Hutter Consult AG

Transkript anzeigen

00:00:10: Hallo und herzlich willkommen zu Digital Marketing Upgrade, präsentiert von der

00:00:14: Hutter Consult. Mein Name ist Thomas Besmer. In der heutigen

00:00:17: Episode schauen wir wieder zurück, was im letzten Monat

00:00:21: alles passiert, denn wir sind im Montag und mit

00:00:24: mir am Tisch sitzt Thomas Hutter. Hallo und herzlich

00:00:28: willkommen, Thomas. Hallo Thomas. Vielen Dank, bist du wieder

00:00:32: mit dabei. Wir haben ja wieder einige Themen zusammengefasst

00:00:36: oder notiert, über die wir sprechen wollen.

00:00:39: Einerseits das Thema ChattGPT

00:00:43: 4.0, welches neu veröffentlicht wurde.

00:00:47: Dann auch Apple mit ChattGPT, eine allfällige

00:00:50: Partnerschaft, die sich abzeichnet und was das für Google bedeutet oder

00:00:54: eben was das für OpenAI bedeutet. Und zum Schluss ein

00:00:58: Thema, das wir schon länger nicht mehr hatten, nicht direkt über das

00:01:01: Metaverse, sondern über die Meta-Quest,

00:01:06: also die VR- und Mixed Reality Brille aus dem

00:01:09: Hause Meta. Das sind die Themen vom

00:01:13: Monthly Talk. Und Einsteigen möchte ich direkt mit

00:01:17: dem Thema JGPT 4 Omni. JGPT

00:01:20: 4 Omni wurde ja im Mai veröffentlicht. Ein Modell,

00:01:24: was aus meiner Sicht... Ich

00:01:28: nutze nur noch JGPT 4 Omni, also weder JGPT

00:01:32: 4 Turbo noch die anderen Versionen, weil es halt einfach

00:01:35: am schnellsten ist und ich habe endlich das Gefühl, dass JET

00:01:39: GPT mir nicht mehr einfach nur so oberflächliche

00:01:43: Antworten gibt, sondern wirklich auch aufs Thema eingeht. Wie siehst du das

00:01:47: bei dir, Thomas? Also ich nutze auch relativ viel die

00:01:51: Omni-Variante, habe aber ein paar Vergleiche

00:01:54: gemacht mit Vier und teilweise, was so die

00:01:58: Tiefe der Antworten anbelangt, wenn es dann Details

00:02:02: geht, ist tatsächlich die Vierer-Variante nach wie vor

00:02:05: stärker als die Omni-Variante. Die Omni-Variante ist unheimlich

00:02:09: schnell. Ich habe sie jetzt bei einem Chatbot für einen

00:02:13: Kunden hinterlegt, wo man auch merkt, dass die Antworten

00:02:17: wesentlich mehr dementsprechend, was ich erwarten würde als

00:02:21: Antwort, als jetzt beispielsweise bei der Vierer-Variante und

00:02:25: Spann natürlich auch. Es

00:02:28: braucht im Hintergrund massiv weniger Tokens,

00:02:33: was gerade wenn natürlich relativ viele Nachrichten

00:02:37: anfallen, dann irgendwo auch ein bisschen eine Preisfrage ist. Also

00:02:41: spricht hier vom halben Preis gegenüber dem Turbo-Modell und das

00:02:44: Turbo-Modell ist ja glaube ich schon Faktor 10 günstiger als das

00:02:48: GPT-4 Modell und von dem her natürlich sehr sehr

00:02:51: spannend und wie gesagt die Qualität des Outputs

00:02:55: ist sehr sehr flüssig. Für

00:02:59: mich wirklich auch so ein Zeichen oder was ich gemerkt habe,

00:03:03: ich habe bevor 4 Omni gekommen, habe ich immer wieder mal

00:03:06: Anfragen gemacht, insbesondere wenn ich PDFs hochgeladen habe und dann gesagt habe,

00:03:10: fass mir das zusammen oder gib mir die wichtigsten Punkte, dann kam

00:03:14: dann irgendwie drei, vier Zeilen Text und am Schluss sagte mir

00:03:17: Jettjy Pitti noch, ja und eben falls du da vertiefter was wissen

00:03:21: möchtest, dann liest das Dokument. Und mit Omni habe ich das

00:03:24: wirklich nicht mehr. Jetzt auch am Wochenende gibt da so eine Studie,

00:03:29: Grund, digitale Grundkompetenz mit Zahlen drin, Die habe ich

00:03:33: mir hochgeladen, habe dort Fragen gestellt, habe gesagt, wie sieht das

00:03:36: aus für Personen ab

00:03:40: einem gewissen Alter, was ist überhaupt digitale Grundkompetenz.

00:03:44: Ich habe das PDF nie geöffnet, sondern wirklich direkt in Omni

00:03:48: geladen. Das hat es mir analysiert. Ich habe da alle

00:03:51: Studienresultate, alles Wichtige, für mich erhalten, sodass

00:03:55: ich damit auch arbeiten kann oder mir vor allem auch die Zahlen

00:03:59: merken kann. Das heisst, im umgekehrten Stuss, dass wir in

00:04:02: Zukunft wesentlich weniger Zeit aufwenden müssen für die konkrete

00:04:06: Gestaltung und Ausformulierung von Dokumente, weil das die KI

00:04:10: dann für unsere Kunden ja sowieso wieder zusammenfasst.

00:04:13: Aber ja, es ist relativ spannend, was rauskommt. Gerade auch bei

00:04:17: Omni diese Sprachfähigkeit, was man auf der

00:04:21: Handyversion im Moment sieht mit diesem doch sehr sehr

00:04:24: flüssigen Dialog. Ich habe gerade zum Wochenende mit

00:04:28: der älteren Tochter ein bisschen herumgespielt im Zusammenhang mit

00:04:32: dem Sprachdialog, auch die Simulation

00:04:36: mit Fremdsprachen, also als 1 zu 1

00:04:40: Übersetzer, was sehr, sehr gut funktioniert hat.

00:04:44: Und ich finde auch die Sprachausgabe, die klingt mittlerweile so

00:04:47: natürlich, dass es Spass macht zuzuhören.

00:04:52: Bei der letzten Variante, wenn gerade etwas vorgelesen wurde,

00:04:56: war das dann doch bei längeren Texten recht eintönig.

00:04:59: Jetzt hat man das Gefühl, es hat gewisse

00:05:03: Emotionen mit drin, was es spannend macht. Das

00:05:07: andere, was du gesagt hast, im Zusammenhang mit dem Dokumentenhochladen,

00:05:11: auch die Data-Analyse-Möglichkeiten,

00:05:15: massive Verbesserungen gegenüber vorher. Trotzdem finde

00:05:19: ich es spannend, wenn man dann wieder Beiträge liest, so ersetzt Excel

00:05:23: oder wie auch immer. Nein,

00:05:27: im Endeffekt das ersetzt nicht Excel, sondern es kann an gewisse

00:05:31: Dinge davon abnehmen. Im Endeffekt möchte ich dann immer noch

00:05:34: irgendwo Herr meiner Daten sein und selber bestimmen können, was in welcher Spalte

00:05:38: steht. Aber es zeigt, in welche Richtung diese

00:05:42: Modelle gehen, dass Interpretieren von Dingen automatisiert

00:05:46: stattfindet und gleichzeitig aber auch die

00:05:49: visuelle Analyse natürlich wesentlich besser wird. Gerade

00:05:53: auch das Beschreiben eines Bildes. Ich habe

00:05:57: mir schon ein paar mal den Spass gemacht, wenn ich im

00:06:00: Restaurant das Essen bekomme, das zu fotografieren, dann mal

00:06:04: GPD zu fragen, was auf dem Teller ist. Also

00:06:08: das gäbe, glaube ich, die lustigsten Google-Bewertungen, wenn man

00:06:11: das entsprechend eins zu eins in die Rezension reinschreibt. Aber

00:06:15: wo man halt auch schon sieht, die Beschreibungen sind sehr detailliert, also

00:06:19: nicht nur Tisch, Essen, Teller, sondern

00:06:24: Spaghetti mit Tomatensoße, schön dekoriert

00:06:28: auf einem teuren Teller. Es lässt sich daraus schliessen, dass es in einem

00:06:32: teureren Restaurant stattgefunden hat, wo

00:06:36: halt auch der ganze Kontext mitgeliefert wird. Und das macht es unheimlich

00:06:39: spannend. Insbesondere die Spracheingabe hat mich beeindruckt,

00:06:43: eben einerseits, weil es mehr Varianz auch

00:06:47: in der Stimme hat und auch von der Geschwindigkeit,

00:06:51: wie sie etwas abfragt. Also bis hin zu dem, dass

00:06:54: du mein Übersetzer bist, übersetze bitte alles in

00:06:58: Spanisch und das Spanische in Deutsch. Ich beginne mit

00:07:02: Deutsch. Das funktioniert unheimlich gut. Ich habe am Wochenende herumgespielt mit

00:07:05: Schweizerdeutsch. Das heisst, Spracherkennung auf

00:07:09: Schweizerdeutsch, die funktioniert ja schon recht gut. Also ich würde jetzt mal

00:07:13: sagen, 80, 90 Prozent wird erkannt. Wenn ich denke,

00:07:17: wie viel Mühe, das ich teilweise mit anderen Dialekten habe in der Schweiz,

00:07:21: dann alles zu verstehen, dann ist die Trefferquote mit 80-90

00:07:24: Prozent eigentlich ähnlich hoch wie bei mir.

00:07:28: Ich habe ihn dann auch angewiesen, dass er mir auf Schweizerdeutsch Antworten gibt. Er macht

00:07:32: dann auch so typisch die Dinge, die wir immer wieder so dafür

00:07:35: bekannt sind, mit Lie am Schluss, also die Dinge kleiner machen

00:07:39: oder lieblicher machen, das funktioniert gut, aber wenn

00:07:43: er Schweizerdeutsch spricht, Also ich hatte da den männlichen Bot, der

00:07:47: gesprochen hat. Es klingt halt, wie wenn

00:07:50: die Kollegen aus dem grossen Kanton versuchen, Schweizerdeutsch zu

00:07:54: sprechen. Also besser sein lassen. Ja,

00:07:58: neben der Spracheingabe, was da auch spannend ist, ich kann ja hingehen, also Ich habe

00:08:02: mehrere Versuche gemacht. Ich habe mal gesagt, du bist jetzt ein

00:08:05: Podcaster, der über digitale Marketing spricht, insbesondere

00:08:09: Performance Marketing. Führe mit mir ein

00:08:12: Interview, wo es eben Performance Marketing mit

00:08:16: Meta-Ads geht. Und dann hat sie angefangen, ich habe die

00:08:19: Frau eingestellt, das kann man ja auch noch einstellen, ich habe die Frau eingestellt,

00:08:23: hat sie dann angefangen zu fragen, wie ich etwas verstehe,

00:08:27: wie ich vorgehe, hat dann geantwortet und sie hat dann auch wieder auf meine

00:08:31: Antwort die Folgefrage gestellt. Das

00:08:35: hat mich auf die Idee gebracht, dass ich jetzt mein

00:08:38: Lehrbuch oder die

00:08:42: Dokumente, die ich in einer Weiterbildung erhalten habe, hochladen kann. Kann

00:08:45: ich hochladen und sagen, du bist mein Prüfungsexperte, stell

00:08:49: mir jetzt zehn Fragen, die im Dokument beantwortet

00:08:53: werden, die ich wie an einer mündlichen

00:08:56: Prüfung beantworten muss und bewerte die Antwort. Und

00:09:00: so könnte ich ja dann, dass ich nicht mehr einen Lernkreis machen muss, wo

00:09:04: ich dann Freunde oder Schulkolleginnen und

00:09:07: Kollegen nach Hause einlade, die wir uns irgendwo treffen oder das

00:09:11: virtuell machen, sondern dass ich das jederzeit in der Bahn,

00:09:14: Bus, wo auch immer, oder sogar während dem Autofahren

00:09:18: machen kann, weil auch da kann ich ja die Spracheingabe ohne weiteres

00:09:22: nutzen. Also ich habe die Stimme extra auf männlich eingestellt, weil

00:09:26: ich habe bereits eine Freundin, die laufend das Gefühl hat, alles

00:09:29: besser zu wissen. Also darum, dass da ein bisschen Gegengewicht

00:09:33: da ist. Aber jetzt bei ihr gerade spannend ist, sie ist englischer

00:09:37: Muttersprache. Sie lernt gerade Deutsch, nimmt

00:09:40: JGPT zur Hilfe. Das heisst, dort

00:09:44: gibt ihr gewisse Dinge vor. Sie spricht das nach und

00:09:47: korrigiert dann aber auch, was nicht gut war oder in der Satzstellung nicht gut

00:09:51: war. Wenn man das ein bisschen weiter denkt, Babel

00:09:55: und Co. Brauche ich das in Zukunft

00:09:59: noch, mein Sprachlernprogramm? Oder habe ich vielleicht daneben

00:10:02: halt eine generative KI, wo

00:10:06: mir Übungsschritte vorgibt, analysiert, dann haben meiner

00:10:10: Stimme und der Aussprache ob das

00:10:13: stimmt oder nicht, mich entsprechend korrigiert und das sind nochmals ganz

00:10:17: ganz andere Möglichkeiten als ich bis jetzt hatte in diesem Bereich

00:10:21: Sprachen lernen und ich glaube das kann man ja beim Thema

00:10:24: Lernen auf unterschiedlichste Bereiche erweitern. Ich habe mir auch

00:10:28: am Wochenende überlegt, es gibt bei uns, ich weiss nicht ob es das in Deutschland

00:10:31: auch gibt. Es gibt die Firma Get Abstract, die ja Bücher

00:10:35: zusammenfasst. Das ist ja eigentlich auch so ein

00:10:38: Businessmodell, was mit Chat GPT obsolet ist.

00:10:42: Weil ich kann ein Foto machen von einem Buch, das ich in der Buchhandlung sehe

00:10:46: oder dass ich online sehe und sage, hey, Chetjibiti, erstell mir eine

00:10:50: Zusammenfassung des Buchs und die sechs wichtigsten Punkte, die ich

00:10:54: als Werbetreibender beachten muss und ich bekomme da wirklich eine

00:10:58: perfekte Zusammenfassung. Also Sie ist mal perfekt formuliert.

00:11:02: Fachlich müsste es mal so sein. Die Problematik dürfte hier wahrscheinlich noch sein, dass

00:11:05: das von bekannten Dingen geht, weil es halt schon

00:11:09: gelernt ist, aber die Problematik jetzt gerade

00:11:13: 200-seitiges PDF-Dokument, da scheitern wir dann

00:11:17: irgendwo noch an der Anzahl der Tokens, das zu verarbeiten.

00:11:21: Aber grundsätzlich von der Idee her absolut eine

00:11:24: Möglichkeit in diese Richtung, wo es gehen kann. Das ist auch

00:11:28: spannend. Der zweite Punkt, den wir auf der Liste

00:11:32: haben, ist Apple mit JetGPT. Es wird ja vermutet,

00:11:35: dass in zwei Wochen...

00:11:40: Es wird ja vermutet, dass in zwei Wochen an der Entwicklerkonferenz

00:11:44: von Apple eine Partnerschaft mit OpenAI

00:11:48: bekannt gibt, weil alle Apple-User wissen,

00:11:52: eigentlich seit oder schon bevor JetJPT auf den Markt gekommen

00:11:56: ist, Siri ist nicht das Gelbe

00:11:59: vom Ei. Also hast du jemals in der

00:12:03: letzten Zeit von Apple irgendetwas gesehen, was das Gelbe vom Ei

00:12:07: war? Ja doch, also die Geräte, die Hardcore, das ist jetzt

00:12:11: wieder eine ganz andere Thematik zwischen uns beiden. Aber so

00:12:15: Die Zusammenarbeit mit den Geräten, Tablet, PC und

00:12:18: Smartphone ist schon einzigartig.

00:12:23: Und ich glaube, wenn du da mal ein paar Use-Case hättest, würdest du sehr wahrscheinlich

00:12:26: auch auf Apple wechseln. Aber das können wir mal ausserhalb des Podcasts

00:12:30: probieren. Aber ja, was man natürlich

00:12:34: nicht oder sehr wenig gehört hat, ist Apple

00:12:38: im Zusammenhang mit KI. Im

00:12:42: Prinzip das, was Siri macht, war ja bis jetzt auch schon

00:12:46: KI, vielleicht einfach reduziert im Umfang.

00:12:50: Von dem her würde natürlich irgendwo eine Partnerschaft Sinn machen, ob das

00:12:54: jetzt das StratGPT ist oder ob das ein anderer Dienst

00:12:57: ist, wäre ja dann eigentlich auch noch relativ egal.

00:13:01: Aber es geht ja eigentlich ums Verbinden und das bessere Verstehen,

00:13:05: was möchte der Nutzer bzw. War ja

00:13:09: Siri bis jetzt sehr stark regelbasiert

00:13:13: mit Dingen, die bekannt sind, wo klare Befehle da

00:13:17: sind, Kalendereintrag erstellen etc.

00:13:21: Ich finde das extrem spannend, die Zusammenarbeit, ist auch die logische

00:13:25: Konsequenz, weil Apple wird relativ wenig mit Meta

00:13:28: zusammenarbeiten, weil die auf dem Werbemarkt

00:13:32: ja doch auch Rivalen sind.

00:13:36: Entsprechend das Gleiche mit Google, mit Ersetzer auf

00:13:41: Open-Source-Technologie. Was ja grundsätzlich

00:13:45: spannend sein könnte bei Google, wissen wir, Problem

00:13:49: Android vs. Apple. Also macht auch da mit Jiminai

00:13:52: nicht wirklich eine Partnerschaft

00:13:56: Sinn. Und von dem her wäre es nicht mehr als logisch. Die

00:14:00: Frage ist, was passiert nachher mit Amazon?

00:14:03: Ja, die Frage ist eher, was passiert mit Google? Weil Google ist ja auch

00:14:07: im Apple-System integriert. Also Google lässt sich

00:14:11: die Integration in Safari, das Google der

00:14:14: Standardbrowser ist, ja jährlich 20 Milliarden kosten. Oder im

00:14:18: 22 haben sie ja rund 20 Milliarden an Apple gezahlt, was ja

00:14:22: auch nicht ein unwesentlicher Betrag ist

00:14:25: und wie sieht das dann aus, wenn Apple jetzt eine Partnerschaft

00:14:29: mit OpenAI eingeht. Von daher eben, momentan

00:14:33: sind es ja noch Gerüchte, ob das in zwei Wochen an der Developer

00:14:36: Conference so sein wird, werden wir sehen. Aber wie du

00:14:40: gesagt hast, spannend könnte es

00:14:45: ja auch Gemini sein, die Sie integrieren, wo Sie sagen, okay, wenn wir da Google

00:14:49: drin haben... Es macht natürlich von der Idee her

00:14:53: relativ stark Sinn, wenn man jetzt betrachtet, die Desktop-Applikation

00:14:57: von JetGP, die ist jetzt erst auf iOS rausgekommen,

00:15:02: was auch ein entsprechendes Vorzeichen sein könnte. Ich habe

00:15:06: am Wochenende gerade einen Beitrag gelesen, warum

00:15:09: das beziehungsweise da Microsoft in

00:15:13: diesem Umfeld auch nicht eins zu eins mitspielt oder warum diese

00:15:16: Applikation nicht für die Windows-Umgebung auch schon

00:15:20: lossiert wurde. Microsoft hat ja angekündigt, diese

00:15:24: neuen Surface-Geräte rauszubringen, die

00:15:28: KI-first sind, das heisst Vollintegration

00:15:32: von Co-Piloten etc. Und dass das vielleicht auch da der

00:15:36: Grund ist, warum OpenAI nicht direkt mit dieser Windows-Version

00:15:40: rausgekommen ist. Von dem her könnte das ein kleiner

00:15:43: Vorbote sein in diese Richtung. Definitiv. Und

00:15:47: spannend natürlich, OpenAI wäre für Apple eine Bereicherung,

00:15:51: weil eben wie gesagt, Apple hat in der KI-Entwicklung in den

00:15:55: letzten Wochen, Monaten keine Schlagzeilen gemacht,

00:15:58: sondern sind da eher ruhig geblieben, was auch darauf hindeutet, dass sie

00:16:02: dort noch nicht so weit fortgeschritten sind wie eben

00:16:06: OpenAI oder andere vergleichbare Produkte. Was

00:16:09: man aber weiss, ist ja, dass Apple sehr stark auch in der Chip-Entwicklung

00:16:16: investiert hat mit ihren M1, M2,

00:16:19: M3 Chips, bald auch M4, M5 Chips, die

00:16:23: ja hervorragende Leistungen bieten.

00:16:27: Da ist ja Nvidia, ist ja so ein Mitbewerber, da sieht man ja auch, es

00:16:31: ist so ein Börsenüberflieger, 100%

00:16:35: Steigerung an der Börse in den letzten 9 Monaten,

00:16:39: also da ein massives Wachstum und sicherlich eben auch für

00:16:42: Apple ein spannendes Geschäftsfeld in entsprechende Chips

00:16:46: zu investieren. Du hast vorhin gesagt, die OpenAI

00:16:51: oder Chats GPT auf dem Mac nutzen. Ich habe einen Mac zu Hause, aber

00:16:54: mein Mac ist aus dem Jahre 21 oder

00:16:58: 22. Ich kann Chats GPT nicht nutzen auf dem

00:17:02: Mac, weil ich noch keinen M1 Chip habe oder M2 Chip habe.

00:17:05: Also man braucht auch da eine gewisse Rechenleistung oder einen

00:17:09: gewissen Chip, damit man eben Jett GPT nutzen

00:17:12: kann, obwohl ich überzeugt bin, dass es auch so funktioniert. Aber

00:17:16: halt da auch Apple sagt, ok, wer es nutzen will, der soll

00:17:20: halt das Gerät updaten. Wobei gerade auch das

00:17:25: Hardware-Technische dahinter finde ich extrem spannend. Ich habe vor

00:17:29: zwei Wochen herum experimentiert und habe mir die

00:17:32: Open-Source-Variante vom Lama-Modell

00:17:36: von Meta heruntergeladen, habe es auf dem Notebook installiert.

00:17:40: Mein Notebook hier ist jetzt nicht das schwächste,

00:17:45: hat auch ordentlich Speicher etc. Aber keine

00:17:48: dedizierte Grafikkarte.

00:17:52: Und der Desktop-Rechner, den ich nutze, der hat eine relativ gute

00:17:56: Nvidia Gaming-Karte oder Videokarte mit drin, die halt

00:17:59: genau den Speicher bietet, was diese AI-Modelle

00:18:03: für die Berechnung nutzen möchten. Wenn ich jetzt

00:18:07: da genau gleiche Installation auf dem Notebook schaue

00:18:11: versus auf dem Desktop, sprechen wir irgendwie von Faktor 8 in der

00:18:14: Geschwindigkeit. Also Man spürt da gerade bei lokal

00:18:18: ausgeführten Modellen relativ gut die Differenz. Ich

00:18:22: könnte mir vorstellen, das Ganze auch leistungsfähig zu

00:18:26: behalten, werden gewisse Dinge lokal passieren, bevor

00:18:29: sie überhaupt an die Schnittstelle übergeben werden? Hm.

00:18:36: Denke ich auch, vor allem ist ja auch schon auf den Smartphones oder so

00:18:39: eine gewisse Rechenleistung benötigt wird. Also Jett GPT

00:18:43: läuft ja auch nicht auf allen Smartphones, sondern eher auch auf den

00:18:47: Neuen, was ja auch zeigt, dass da eine lokale Rechenleistung

00:18:52: genutzt wird. Ich bin gespannt, wie es integriert wird. Vor allem

00:18:56: sind ja auch Series, die ja eben Transaktionsmodelle.

00:19:00: Es gibt ja auch so ein Gerät, den Rabbit

00:19:03: R1, der Anfang des Jahres Schlagzeilen

00:19:07: macht, so ein oranges Teil, was in den USA zu kaufen ist, mit

00:19:11: Display, mit KI integriert, was ja

00:19:16: eigentlich JGPT sein soll, das Transaktionen ausführen

00:19:19: kann, also beispielsweise bestell mir ein Uber oder bestell mir Essen oder was

00:19:23: auch immer. Und die

00:19:27: ersten Tests haben auch gezeigt, das funktioniert überhaupt nicht.

00:19:31: Also Man geht sogar vom Scam-Versuch aus, wobei

00:19:34: man noch nicht nachweisen kann,

00:19:38: aber gewisse Fachbeiträge sagen,

00:19:42: es ist eigentlich nichts anderes als ein

00:19:45: Large-Language-Modell und gar kein Transaktionsmodell. Von daher

00:19:50: hoffe ich natürlich, dass Apple schafft, OpenAI oder

00:19:54: JGPT so zu integrieren, dass man wirklich auch

00:19:57: Dinge ausführen kann. Weil das ist ja etwas, was jetzt noch bei JGPT

00:20:01: fehlt. Also ich kann ja nicht sagen, hey, ruf

00:20:05: mir für 13.30 Uhr ein Uber

00:20:09: an die Strasse XY dorthin oder ein Taxi

00:20:13: oder kauf mir ein Bahnticket

00:20:16: für die Strecke von Soh und gibt mir die beste Reiseroute.

00:20:20: Die Reiseroute, ja, die kann sie rausgeben, aber dann, dass ich irgendwelche

00:20:24: Tickets kaufen kann, funktioniert dann auch aufgrund der fehlenden

00:20:28: Anbindungen nicht. Und da erhoffe ich mir dann schon,

00:20:32: dass, wenn es bei Apple integriert ist, dass dies unter Umständen

00:20:36: auch für Apps freigegeben wird, dass man eben auch

00:20:39: Dritt-Apps, wie beispielsweise eine Bahn-App oder eine Taxi-App oder

00:20:43: so, dann über die Sprachsteuerung ansteuern kann.

00:20:47: Und das finde ich enorm spannend. Ich

00:20:51: finde spannend, was bei Amazon passieren wird, weil auch Alexa

00:20:56: ist recht stark verbreitet.

00:21:00: In einigen Dingen jetzt gerade im Home-Device-Bereich

00:21:04: habe ich teilweise das Gefühl auch recht weit,

00:21:08: was da noch passieren wird. Weil auch da waren ja die Dinge bis jetzt

00:21:11: eher transaktionsdialogbasierend. Also so nach dem Motto,

00:21:15: Alexa, stell mir weg für 6 Uhr mit dem und dem Radiosender,

00:21:20: wo halt vorgegebene Befehlsketten mehr oder weniger eingehalten

00:21:24: werden müssen, wenn dann entsprechend diese Bereiche

00:21:28: mit Hilfe von KI erweitert werden.

00:21:31: Definitiv, ja. Auch da, im Amazon habe ich auch kürzlich gelegen, die

00:21:35: sind ja extrem unter Druck, was die KI anbelangt, bis hin

00:21:39: zur Frage, wie lange wird Alexa noch

00:21:42: geben. Weil eben auch Alexa ist im

00:21:46: Vergleich gerade zu der neuesten Spracheingabe von Chetchipiti

00:21:50: ein Kleinkind. Mit Entschuldigung, ich habe dich nicht

00:21:54: verstanden. Bis hin, das weiss ich nicht.

00:21:58: Von daher, definitiv spannend zu beobachten, wie

00:22:01: da Amazon nachlegen wird.

00:22:06: Ein Thema, was ich jetzt einleitend gar nicht gesagt habe, aber uns ja

00:22:09: auch schon ein bisschen beschäftigt, ist

00:22:13: ICQ wird abgestellt. Nein, natürlich nicht ICQ, sondern

00:22:17: Workplace. Also ICQ wird auch abgestellt jetzt im

00:22:21: Mai oder per Ende Mai. Aber für uns ein bisschen

00:22:24: weniger Herausforderungen. Genau, was aber abgestellt wird,

00:22:28: ist Workplace. Das ist die Kollaborationslösung

00:22:32: von Meta für Unternehmen. Für die, die es nicht

00:22:36: kennen, Workplace ist eigentlich wie Facebook, halt einfach nur

00:22:39: im unternehmerischen Kontext. Das heisst, man hat eigentlich eine

00:22:43: eigene Facebook-Umgebung für das eigene Unternehmen, wie wir

00:22:46: das bei der Hutter Consult haben. Man hat Chats, man hat ein Feed, man hat

00:22:50: verschiedene Gruppen. Die Gruppen sind dann einerseits Teams, können

00:22:54: Projekte sein, können spezifische Kunden sein oder eben

00:22:58: auch Fachbereiche sein. Wir haben da Gruppen, wo

00:23:01: Newsfeeds reinlaufen, rund Google, rund

00:23:04: Meta-Advertising, Pinterest, TikTok etc.

00:23:09: LinkedIn und weitere. Plus eben auch Chatfunktionen, man

00:23:12: kann auch telefonieren, haben wir jetzt nicht genutzt, weil wir Teams im

00:23:16: Einsatz haben. Aber auch da gibt es sehr viele Möglichkeiten. Und

00:23:19: Met hat jetzt angekündigt, dass eigentlich per

00:23:24: Sommer 2025 das Projekt

00:23:27: oder das Produkt einzustellen, dass sie es nicht mehr weiterentwickeln.

00:23:34: Ja, da blutet das Herz. Da blutet das Herz.

00:23:38: Workplace war für mich halt

00:23:42: das Facebook oder auch LinkedIn im Unternehmen.

00:23:46: Und weil es genau gleich funktioniert und weil es halt schlussendlich

00:23:49: ein Posten darin ist mit Bildern, Videos und weiss der Teufel

00:23:53: was, relativ einfach zu bedienen,

00:23:57: weil es eben halt wie die sozialen Netzwerke

00:24:00: aufgebaut ist, das perfekte Informationswerkzeug

00:24:05: innerhalb vom Unternehmen, schnell und

00:24:09: trotzdem auf eine einfache Art und Weise

00:24:13: zu kommunizieren. Also Da blutet das Herz.

00:24:18: Ich sage jetzt mal, auch nicht unbedingt nachvollziehbar,

00:24:22: warum das mit diesen Schritt geht. Es

00:24:26: sind ja in der Vergangenheit doch recht grosse Unternehmen

00:24:29: wie Starbucks oder Royal Bank of Scotland

00:24:33: mit Hunderttausenden von Nutzern auf

00:24:37: diese SAS-Plattform aufgesprungen.

00:24:43: Sie wurde eigentlich auch sehr gut modernisiert,

00:24:48: sehr viele Funktionen mit drin, die wir von Facebook kennen, wie Live-Untertitel

00:24:52: bei Videos, Live-Videos, solche Dinge,

00:24:56: die, ich glaube, weit über das rausgehen, was die

00:24:59: meisten Unternehmen an interner Kommunikation benötigen.

00:25:04: Und wo man halt gemerkt hat, da kommt von der Schwester-Plattform sehr viel Input

00:25:08: mit rein. Und aus diesem Grund eigentlich noch fast weniger

00:25:11: nachvollziehbar, warum das man von so einer super tollen und

00:25:15: akzeptierten Lösung wegkommt.

00:25:20: Wenn man denkt, was für Unternehmen das nutzen, wie viele Nutzer das damit

00:25:23: drin sind. Es ist ja ein Abo-Modell, wo man, ich glaube,

00:25:27: 4 Dollar pro Nutzer pro Monat bezahlt hat.

00:25:31: Also, wenn man das hochrechnet, da sprechen wir auch von einem relativ

00:25:35: großen Businessvolumen. Für Meta wahrscheinlich zu wenig,

00:25:39: das sehr skaliert betreiben zu können. Ich könnte mir

00:25:42: auch vorstellen, kostenspielig aufgrund von Datenschutz und allem rundherum

00:25:47: und Stabilität. Und trotzdem, wenn man denkt, da wird ein

00:25:51: Geschäftsbereich eingestampft, weil er wahrscheinlich

00:25:55: nicht mehr der Ausrichtung entspricht oder weil eine andere Strategie

00:25:58: dahinter ist. Mit dem, was Meta da aufgebaut

00:26:02: hätten, könnte man problemlos ein eigenes Unternehmen wieder

00:26:06: betreiben, was nur diese Plattform betreibt und das wäre zum

00:26:09: Start schon grösser als ganz viele Kollaborationsplattformen überhaupt jetzt

00:26:13: werden. Also von dem her schlecht

00:26:17: nachvollziehbar und ja,

00:26:20: also Das Herz blutet, wenn ich daran denke, dass wir auf das verzichten müssen.

00:26:24: Definitiv. Und vor allem eben auch, dass man das nicht

00:26:28: in ein eigenes Unternehmen auslagert. Das lässt mir aber auch noch ein bisschen die

00:26:32: Hoffnung, dass da vielleicht ein Unternehmen kommt und sagt,

00:26:37: hey, wir übernehmen das, wobei die Wahrscheinlichkeit

00:26:41: klein sein wird, dass das Meta zustimmt, weil ja doch da einiges

00:26:44: an Intelligenz von Meta in Workplace steckt.

00:26:49: Und für die, die Workplace nicht kennen und sagen,

00:26:53: ja, wir haben ja Slack, jetzt könnt ihr auf Slack gehen, wenn man

00:26:56: das nicht ganz so korrekt ausdrücken

00:27:00: will, Slack ist der handikapierte kleine Bruder

00:27:04: von Workplace. Das heisst, die, die

00:27:08: Slack kennen, Workplace war eigentlich wie Slack auf Steroiden.

00:27:12: Und das fällt jetzt weg. Eben, Man hat eine gute

00:27:15: Durchsuchbarkeit, es ist strukturiert. Slack ist ja

00:27:19: rein nur Chats, wo man Nachrichten in einen Chat rein

00:27:23: tut. Man kann dann Threads auftun. Bei Wordpress

00:27:26: hast du ja wirklich Beiträge, die du kommentieren

00:27:30: kannst, die du in den Chat senden kannst, wo du Videos drin

00:27:34: hast, wo du Bilder drin hast, also da.

00:27:37: Ja. Ein Mitarbeiter, der

00:27:41: neu zu uns gekommen ist oder neu wieder zu uns gekommen ist, hat kürzlich

00:27:44: in Workplace kommentiert, als da eben die Info kam, dass das

00:27:48: abgestellt wird, dass das mit Abstand das beste Kollaborationstool

00:27:52: ist, mit dem er je gearbeitet hat in allen Unternehmen,

00:27:56: bei denen er bisher war. Und da war Slack auch dabei.

00:28:02: Und das letzte noch, was ich dich fragen möchte, wann hast du das letzte Mal

00:28:05: deine Metaquest-Brille angehabt? Am Wochenende. Am

00:28:09: Wochenende? Ja, aber seit länger Zeit nicht mehr. Am

00:28:12: Wochenende zufällig in die Finger gekommen, dann war der Akku

00:28:16: auch noch halb voll und dann habe ich mal eine halbe

00:28:20: Stunde wieder Virtual Reality Shooter

00:28:24: gespielt. Ja, aber

00:28:28: die Zeit erlaubt es tatsächlich wenig, beziehungsweise in der Freizeit

00:28:32: gibt es noch ein paar andere Dinge. Ich bin jetzt nicht so extrem

00:28:35: begeistert von dieser Art von Brille,

00:28:39: aber könnte mir gut vorstellen, wenn sie etwas ein bisschen alltagstauglicher

00:28:44: wäre, weniger schwer, vielleicht wie eine

00:28:48: normale Brille, dass ich mich mit so etwas sehr gut

00:28:51: anfreunden könnte. Ja, weil spannend ist ja Meta-Quest,

00:28:55: man hat jetzt lange nichts mehr gehört über das Metaverse oder wenig darüber,

00:28:59: man sagt ja auch, wie bei Facebook schon immer

00:29:02: gesagt hat, ja Facebook ist tot, sagt man auch Metaverse ist tot,

00:29:06: so ganz tot ist es aber trotzdem noch nicht, weil Metaverse ist ja nicht nur

00:29:10: Meta, sondern eben auch Roblox oder Fortnite etc.,

00:29:14: was Millionen von Spieler und Spielerinnen hat. Wenn wir aber zurück

00:29:17: auf die Metaquest-Brille kommen, die sind eine Partnerschaft

00:29:21: mit Lufthansa eingegangen, und zwar schult

00:29:25: zukünftig Lufthansa ihre Mitarbeiter mit der

00:29:29: VIA-Brille. Das heisst, die Mitarbeitenden sind dann

00:29:33: eigentlich in einer Mixed Reality, dass sie in einem Trainingsflugzeug

00:29:37: sind und dann erklärt bekommen, was nun die nächsten

00:29:40: Schritte sind, wo sie das Ganze unterstützen. Sie haben auch

00:29:44: die Kosten an Messen reduziert, weil die Lufthansa hat an

00:29:48: gewissen Messen dann auch die Business Class nachgebaut,

00:29:52: damit Besucherinnen und Besucher mal sehen, eben wie sieht so die Business

00:29:56: Class aus, eben da Menschen auch dazu zu bringen, mal in der

00:29:59: Business Class oder in der First Class zu reisen. Sie haben das

00:30:03: entsprechend nachgebaut mit der VR-Brille. Das heisst, man setzt

00:30:07: sich auf den Stuhl und das Ganze rundherum wird dann

00:30:10: eigentlich über die VR-Brille eingeblendet. Man kann dort das

00:30:14: Cinema-System, das Board-Cinema-System ausprobieren,

00:30:18: etc. Also da eine massive Kostenreduktion.

00:30:21: Der Global Lead Virtual und Mixed Reality Strategie

00:30:25: und Partnerships bei Meta, Bastian Schütz,

00:30:29: der schreibt in einem LinkedIn-Post, dass Lufthansa

00:30:33: nur schon beim Messebau rund 80% der Kosten

00:30:36: dank VR-Brillen einsparen kann, ebenfalls auch bei

00:30:40: den Schulungen. Und was auch für Endnutzer sehr

00:30:44: spannend ist, Lufthansa ist auch da in dem

00:30:47: Bereich eine Partnerschaft mit eingegangen, dass man zukünftig

00:30:54: auf gewissen Strecken die Brille anziehen kann, dass

00:30:57: die eigentlich das Home-Cinema-System ersetzen, so

00:31:01: eben Filme auszuwählen oder mal Games. Ich denke jetzt nicht

00:31:04: irgendwelche Shooter oder Beat Saber, wo man dann gross herumfuchteln

00:31:08: muss, sondern eher Spiele, die am Platz stattfinden.

00:31:13: Aber ich finde das sehr spannend. Ein Wohlstandhaltungsformat an Bord, ja sicherlich

00:31:16: noch. Ja. Ich finde die ganze Thematik

00:31:20: Metaverse ist natürlich in den letzten Monaten

00:31:24: auch aufgrund der neuen Sau, die durchs Dorf getrieben

00:31:28: wird, KI in den Hintergrund gerückt. Auf

00:31:31: der anderen Seite, wenn wir Metaverse betrachtet haben, wo

00:31:35: das hingehen könnte, wo es hingehen sollte,

00:31:39: und man KI wegdenkt, dann sind wir ja meilenweit

00:31:43: von Metaverse entfernt. Wenn man jetzt aber

00:31:47: betrachtet, was KI hilft zu machen, auch

00:31:50: diese ganzen Voice-Interaktionsmöglichkeiten, aber auch

00:31:54: das Generieren von Videobildern,

00:31:58: etc., etc., kommt ja das eigentlich dieser Metaverse-Landschaft

00:32:02: nur entgegen. Das heißt ganz viele Dinge, wo wir uns eigentlich gar

00:32:06: nicht vorstellen konnten, wie man das in Zukunft machen

00:32:10: wollen könnte, sieht man jetzt Möglichkeiten mit

00:32:13: Hilfe der KI, die eigentlich den Einsatz von Metaversen

00:32:17: eher vereinfachen würden. Ich glaube wir haben mal in einem Monats-Podcast

00:32:22: auch darüber gesprochen. Unternehmen sprechen heute von

00:32:26: Metaversen, aber haben noch nicht mal das Dialog-Handling im Griff.

00:32:30: Jetzt sind wir da natürlich zwei Schritte näher. Also von dem her wird das eher

00:32:33: befeuert. Was den Einsatz der Brille

00:32:37: anbelangt, es war ja jetzt eher ein bisschen ruhiger die

00:32:41: Metaquest. Da hatte auch die Vision Pro von

00:32:44: Apple entsprechend Mieteinfluss darauf.

00:32:47: Wo nochmals ein anderer Ansatz, wo

00:32:52: an vielen Stellen nochmals eins drauf liegt,

00:32:57: vorgestellt wurde. Und trotzdem weiß man

00:33:01: bei Meta ist sehr viel Geld dahinter, in diese Richtung zu

00:33:04: entwickeln. Die Modelle,

00:33:08: ich glaube die MetaQuest lange zu tragen ist im Moment

00:33:12: bequemer als die Apple Vision lange zu tragen.

00:33:17: Anwendungsmöglichkeiten, die sind noch ein bisschen unterschiedlich

00:33:20: und gleichzeitig wissen wir, META investiert sehr, sehr viel Geld in die

00:33:24: Entwicklung. Das bei Geräten, die im Handel,

00:33:29: also halte ich jetzt daran fest, habe ich etwa 400

00:33:33: Franken Euro. Also die Dreier kosten so 500 bis 600, je nach

00:33:37: Grösse. Also die Zweier war glaube ich zwischen 200 und 400 drin,

00:33:40: je nach Speichermodell. Die andere ist aber auch deutlich unter

00:33:44: 1000. Was halt nochmal, ich sage jetzt mal,

00:33:48: ein anderer Ansatz ist, also jetzt bei diesem qualitativ

00:33:52: hochwertigen, teuren Ansatz, die Levelwelt.

00:33:56: Und wenn ich mir dann so überlege, jetzt nehmen wir das Beispiel

00:34:00: Lufthansa, das sind ja unterschiedlichste Bereiche, wo Schulen

00:34:03: stattfinden müssen. Das kann am Flughafen sein, beim

00:34:07: Personal, was Boarding betreibt, das kann bei der Crew sein, im

00:34:10: Flugzeug drin, das Schulen von Piloten, wo

00:34:14: sind welche Knöpfe, was bedeuten die, was

00:34:17: heute bei den meisten irgendwo im Kopf ist oder im

00:34:21: Krisenszenario mit der Checkliste, könnt ihr so eine

00:34:25: Brille natürlich mit übernehmen. Der

00:34:28: ganze Maintenance-Bereich rund ein Flugzeug herum,

00:34:33: wo welche Teile beim Triebwerk müssen kontrolliert werden, sind

00:34:37: heute auf Chatlisten, könnt ihr natürlich auch einen Guide entsprechend

00:34:40: vorgeben. Und dass bei solchen Dingen in der Wiederholung

00:34:44: dann extreme Kosteneinsparungen möglich sind, das liegt auf der Hand.

00:34:48: Mit einem Brillenmodell, sagen wir mal, 500 Euro

00:34:52: herum, dann auch nicht so ganz so tragisch ist, wenn mal

00:34:56: eins kaputt geht, weil die en masse bestellt

00:34:59: werden können. Also ganz, ganz spannender Ansatz.

00:35:04: Messen hat man ja wie auch in der Vergangenheit schon das eine oder andere Mal

00:35:07: gesehen. Ich glaube noch viel viel spannender wird das Ganze

00:35:11: dann bei einem AR-Ansatz. Also wenn man

00:35:15: dann MetaQuest vielleicht auch in Richtung geht, dass man

00:35:19: das ganze Umfeld sieht und dann halt

00:35:22: AR-Einblendungen kommt zu manuellen Arbeiten.

00:35:26: Und noch mal spannend, wenn man dann auch betrachtet, die

00:35:30: AI-Forschung, die META betreibt, ist der eine Modell,

00:35:34: wo es darum geht aus verschiedenen Perspektiven

00:35:37: Handlungen aufzunehmen, so dass man beispielsweise

00:35:41: geführt Tennis spielen lernen kann oder in

00:35:45: welchem Winkel schießt man jetzt den Ball beim Basketball ab, dass er

00:35:48: auch wirklich trifft. Das geht ja alles in diese Richtung.

00:35:53: Und wenn das dann wieder verbunden ist, dann glaube ich gibt es ganz ganz

00:35:56: viele Anwendungsfälle, die weit weg sind von einem reinen

00:36:00: Zeig an der Messe irgendetwas oder ich schule

00:36:05: einzelne Arbeitsschritte, sondern effektiv beibringen von

00:36:08: ganzen Fähigkeiten. Ja, und das ist ja, was du erwähnt hast, eben

00:36:12: das Augmented Reality oder auch das Mixed Reality,

00:36:16: Das ist ja in der Quest 3 schon der Fall, weil du hast ja dann

00:36:19: schon farbig bzw. Hochauflösende

00:36:23: Umgebung. Da gibt es auch, ich habe, man hat

00:36:26: verschiedene Anwendungen, aber Spiele ist ja momentan etwas, wo die

00:36:30: Meta-Quest 3 sehr stark wirkt. Da gibt es zum Beispiel auch ein

00:36:33: Lego-Spiel, wo man einen Tisch vor sich hat, den man dann... Ich

00:36:37: sehe die Umgebung, also beispielsweise abends meine

00:36:41: Frau und ich auf der Couch, sie schaut irgendeine

00:36:45: Soap, Ich habe die Brille an, ich sehe den Fernseher, ich höre alles,

00:36:49: aber ich habe noch meinen Legotisch, wo ich dann irgendwelche Rätsel lösen

00:36:52: muss. Und da hat eben dann die Lufthansa auch, dass man eigentlich im

00:36:56: Flugzeug, also in den Trainings im Flugzeug ist, mit Mixed

00:36:59: Reality, wo muss man jetzt ziehen, wo muss man jetzt hinlaufen, alles

00:37:03: schon entsprechend markiert. Also da sehr

00:37:06: spannendes Anwendungsfeld. Und was ich auch noch spannend finde,

00:37:10: ist die Überlegung von Meta. Sie haben ja jetzt das Betriebssystem,

00:37:14: das Meta Horizon OS, mit dem die Brillen laufen, also

00:37:18: grundsätzlich läuft sie auf Android, aber das Betriebssystem heisst Meta Horizon

00:37:22: OS, das haben sie jetzt veröffentlicht oder öffentlich

00:37:26: gemacht, dass andere Gerätehersteller ebenfalls mit dem

00:37:29: OS arbeiten können, also ähnlich wie das Android gemacht hat und gesagt hat,

00:37:33: hey, wir machen ein Android OS, das könnt ihr auf eure

00:37:36: Smartphones integrieren. Mit erfährt er diesen Ansatz

00:37:40: generell auch in der AI-Technologie und die Idee ist

00:37:43: natürlich auch da möglichst Grenzen senken, damit das

00:37:47: breiter eingesetzt werden kann, weil praktisch alle

00:37:50: Dienste von Meta, die in der Vergangenheit gross wurden, wurden ja auch

00:37:54: gross wegen der grossen Verbreitungsmöglichkeit.

00:37:58: Eben, und mit Meta Horizon beispielsweise hat jetzt schon Asus angekündigt,

00:38:01: dass sie ein Gaming Headset machen. Also Asus sind ja bekannt für die

00:38:05: grossen Gaming-PCs, die machen jetzt ein Gaming Headset.

00:38:09: Lenovo hat angekündigt, dass sie ein Produktivitätsgerät,

00:38:13: eine Brille machen, eben die Produktivität zu erhöhen. Das kann gut

00:38:17: sein, dass das ein Bildschirmersatz ist, dass man dann mit Bluetooth eine

00:38:21: Tastatur und Maus mit der Brille verbindet und dann eigentlich kein PC

00:38:24: mehr benötigt. Und Microsoft selbst hat,

00:38:29: nutzt oder ist am entwickeln mit Meta Horizon OS

00:38:34: ein auf XP basiertes Headset oder

00:38:37: Quest Headset also ähnlich wie die Xbox, dass man

00:38:41: dann die Xbox Spiele in der Brille hat, sogar in einer

00:38:45: Meta Quest Brille aber dann eigentlich eine eigene

00:38:48: Umgebung hat, wo sie dann mit ihrem Microsoft-Markt

00:38:52: arbeiten können. Also da sehr spannend, wie sich da jetzt auch

00:38:56: die Brille, eben die Quest 3 hat im Oktober

00:39:00: schon für Furore gesorgt, aber ist dann schnell wieder abgeklungen, weil halt

00:39:04: einfach KI gross ist. Und zwischenzeitlich habe ich das Gefühl, ist das

00:39:08: Thema wieder da. Accenture hatte auch 60'000

00:39:11: bestellt gehabt letztes Jahr, eben Mitarbeitende zu schulen,

00:39:15: wo sie dann auch jetzt in einer ersten Analyse festgestellt haben,

00:39:19: dass 67 Prozent der Mitarbeitenden, die mit der

00:39:23: Brille geschult wurden, sich mehr engagieren,

00:39:26: die Schulungsunterlagen durchzumachen, als solche, die im

00:39:30: klassischen E-Learning die Schulungen betreiben. Also ich finde

00:39:34: da die Ansätze enorm spannend. Ich fand ja das

00:39:37: schon spannend bei den ersten Oculus-Varianten, also den

00:39:41: Vorgängern von der MetaQuest. Dicke Huhn, ja. Ja,

00:39:46: Wir hatten ja eine der ersten im Büro, wo man noch FaceX mit dem

00:39:50: Computer verbunden hat. Und da gab es ja

00:39:53: bereits schon Google Earth, die

00:39:57: Variante, wo man Städte bereisen kann und Informationen

00:40:00: abholen kann dazu. Und es ist mir damals bei der Tochter

00:40:04: schon aufgefallen, ja sie dürfte theoretisch die Brille noch nicht so lange

00:40:08: tragen aus gesundheitlichen Gründen, aber sie hat es dann trotzdem gemacht.

00:40:12: Aber das Entdecken von einer Stadt

00:40:15: oder von einem Land über diese Art und Weise der Darstellung

00:40:19: und das dazuhören, was da passiert, ist ein ganz

00:40:23: anderer Effekt und halt wesentlich massiver, als

00:40:27: wenn das stattfindet mit irgendwelchen Lesen oder dem

00:40:30: durchgehen von einem Video und dann Fragen beantworten.

00:40:34: Und da spürt man dann auch Gemification

00:40:39: mit drin. Und Gemification ist ja zum Lernen

00:40:42: ein ganz, ganz guter Ansatz. Genau.

00:40:46: Ne, super, Thomas. Das sind schon wieder alle Themen, die wir

00:40:50: durchhaben. Ich werde euch in den Show Notes noch Bastian Schütz

00:40:54: verlinken. Er ist Global Lead Virtual und Mixed

00:40:57: Reality. Auf LinkedIn immer wieder sehr spannende Beiträge,

00:41:01: was passiert rund die Meta-Quest. Und von daher vielen

00:41:05: Dank für deine Zeit, für deine Inputs. Und wir

00:41:09: hören uns bereits am Montag mit den Social

00:41:12: Advertising News, wo wir einen Rückblick machen, was ist letzte Woche

00:41:16: alles im Bereich Social Advertising passiert. Ich freue

00:41:20: mich, wenn ihr wieder mit dabei seid.

00:41:24: Hat euch die Episode gefallen, dann bewertet uns auf iTunes

00:41:27: oder Spotify. Und falls ihr Feedback habt, dann gerne

00:41:31: via LinkedIn, Instagram, Facebook oder auch an dmu.hutter-consult.com.

00:41:38: Vielen Dank fürs Zuhören und Tschüss!

00:41:45: Copyright WDR 2021

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.