Apple & OpenAI’s Partnerschaft, das Ende von Workplace & Business Cases mit Meta Quest - mit Thomas Hutter #103
Shownotes
Die Episode 103 des «Digital Marketing Upgrade»-Podcast steht ganz im Zeichen des Monthly Talks Mai. Somit ist wie gewohnt Agenturinhaber Thomas Hutter wieder als Gast dabei. Zusammen mit dem Gastgeber Thomas Besmer werfen die beiden einen Blick auf brandaktuelle Themen wie die Einstellung von Meta's Kollaborationsplattform Workplace, die neuesten Entwicklungen im Bereich der VR-Brillen von Meta, die sprachgesteuerte AI-Technologie ChattGPT 4.o. Zudem sprechen die Protagonisten über die mögliche Partnerschaft zwischen Apple und OpenAI.
Takeaways
Workplace von Meta wird bis 2025 eingestellt: Thomas Hutter bedauert das Ende einer kostengünstigen und funktionsreichen Plattform, die von grossen Unternehmen genutzt wurde.
Metas Quest-Brille in der Luftfahrt: Thomas Hutter diskutiert die vielfältigen Anwendungsmöglichkeiten, einschliesslich Schulungen, Wartungsarbeiten und potenzieller Anwendungen für Entertainment an Bord.
ChatGPT 4.o und generative KI-Modelle: Thomas Besmer und Thomas Hutter diskutieren die Vor- und Nachteile von ChattGPT 4.o Omni, sowie technische Herausforderungen und Potenziale in Spracherkennung und Sprachenlernen.
Apple's KI-Entwicklung und Fokus auf Chip-Entwicklung: Die Auswirkungen auf die Geschwindigkeit von AI-Modellen und die potenzielle Integration von OpenAI's ChatGPT auf Apple-Geräten werden erörtert. Zudem werden die Spekulationen über eine Partnerschaft zwischen Apple und OpenAI sowie die Weiterentwicklung von Amazon und Alexa durch KI-Technologie diskutiert.
Virtual Reality-Erfahrungen mit Oculus und Google Earth: Thomas Hutter betont den Lerneffekt beim Erkunden von Städten und Ländern über VR und teilt persönliche Erfahrungen mit frühen Oculus-Versionen.
Host: Thomas Besmer Produktion: Hutter Consult AG
Transkript anzeigen
00:00:10: Hallo und herzlich willkommen zu Digital Marketing Upgrade, präsentiert von der
00:00:14: Hutter Consult. Mein Name ist Thomas Besmer. In der heutigen
00:00:17: Episode schauen wir wieder zurück, was im letzten Monat
00:00:21: alles passiert, denn wir sind im Montag und mit
00:00:24: mir am Tisch sitzt Thomas Hutter. Hallo und herzlich
00:00:28: willkommen, Thomas. Hallo Thomas. Vielen Dank, bist du wieder
00:00:32: mit dabei. Wir haben ja wieder einige Themen zusammengefasst
00:00:36: oder notiert, über die wir sprechen wollen.
00:00:39: Einerseits das Thema ChattGPT
00:00:43: 4.0, welches neu veröffentlicht wurde.
00:00:47: Dann auch Apple mit ChattGPT, eine allfällige
00:00:50: Partnerschaft, die sich abzeichnet und was das für Google bedeutet oder
00:00:54: eben was das für OpenAI bedeutet. Und zum Schluss ein
00:00:58: Thema, das wir schon länger nicht mehr hatten, nicht direkt über das
00:01:01: Metaverse, sondern über die Meta-Quest,
00:01:06: also die VR- und Mixed Reality Brille aus dem
00:01:09: Hause Meta. Das sind die Themen vom
00:01:13: Monthly Talk. Und Einsteigen möchte ich direkt mit
00:01:17: dem Thema JGPT 4 Omni. JGPT
00:01:20: 4 Omni wurde ja im Mai veröffentlicht. Ein Modell,
00:01:24: was aus meiner Sicht... Ich
00:01:28: nutze nur noch JGPT 4 Omni, also weder JGPT
00:01:32: 4 Turbo noch die anderen Versionen, weil es halt einfach
00:01:35: am schnellsten ist und ich habe endlich das Gefühl, dass JET
00:01:39: GPT mir nicht mehr einfach nur so oberflächliche
00:01:43: Antworten gibt, sondern wirklich auch aufs Thema eingeht. Wie siehst du das
00:01:47: bei dir, Thomas? Also ich nutze auch relativ viel die
00:01:51: Omni-Variante, habe aber ein paar Vergleiche
00:01:54: gemacht mit Vier und teilweise, was so die
00:01:58: Tiefe der Antworten anbelangt, wenn es dann Details
00:02:02: geht, ist tatsächlich die Vierer-Variante nach wie vor
00:02:05: stärker als die Omni-Variante. Die Omni-Variante ist unheimlich
00:02:09: schnell. Ich habe sie jetzt bei einem Chatbot für einen
00:02:13: Kunden hinterlegt, wo man auch merkt, dass die Antworten
00:02:17: wesentlich mehr dementsprechend, was ich erwarten würde als
00:02:21: Antwort, als jetzt beispielsweise bei der Vierer-Variante und
00:02:25: Spann natürlich auch. Es
00:02:28: braucht im Hintergrund massiv weniger Tokens,
00:02:33: was gerade wenn natürlich relativ viele Nachrichten
00:02:37: anfallen, dann irgendwo auch ein bisschen eine Preisfrage ist. Also
00:02:41: spricht hier vom halben Preis gegenüber dem Turbo-Modell und das
00:02:44: Turbo-Modell ist ja glaube ich schon Faktor 10 günstiger als das
00:02:48: GPT-4 Modell und von dem her natürlich sehr sehr
00:02:51: spannend und wie gesagt die Qualität des Outputs
00:02:55: ist sehr sehr flüssig. Für
00:02:59: mich wirklich auch so ein Zeichen oder was ich gemerkt habe,
00:03:03: ich habe bevor 4 Omni gekommen, habe ich immer wieder mal
00:03:06: Anfragen gemacht, insbesondere wenn ich PDFs hochgeladen habe und dann gesagt habe,
00:03:10: fass mir das zusammen oder gib mir die wichtigsten Punkte, dann kam
00:03:14: dann irgendwie drei, vier Zeilen Text und am Schluss sagte mir
00:03:17: Jettjy Pitti noch, ja und eben falls du da vertiefter was wissen
00:03:21: möchtest, dann liest das Dokument. Und mit Omni habe ich das
00:03:24: wirklich nicht mehr. Jetzt auch am Wochenende gibt da so eine Studie,
00:03:29: Grund, digitale Grundkompetenz mit Zahlen drin, Die habe ich
00:03:33: mir hochgeladen, habe dort Fragen gestellt, habe gesagt, wie sieht das
00:03:36: aus für Personen ab
00:03:40: einem gewissen Alter, was ist überhaupt digitale Grundkompetenz.
00:03:44: Ich habe das PDF nie geöffnet, sondern wirklich direkt in Omni
00:03:48: geladen. Das hat es mir analysiert. Ich habe da alle
00:03:51: Studienresultate, alles Wichtige, für mich erhalten, sodass
00:03:55: ich damit auch arbeiten kann oder mir vor allem auch die Zahlen
00:03:59: merken kann. Das heisst, im umgekehrten Stuss, dass wir in
00:04:02: Zukunft wesentlich weniger Zeit aufwenden müssen für die konkrete
00:04:06: Gestaltung und Ausformulierung von Dokumente, weil das die KI
00:04:10: dann für unsere Kunden ja sowieso wieder zusammenfasst.
00:04:13: Aber ja, es ist relativ spannend, was rauskommt. Gerade auch bei
00:04:17: Omni diese Sprachfähigkeit, was man auf der
00:04:21: Handyversion im Moment sieht mit diesem doch sehr sehr
00:04:24: flüssigen Dialog. Ich habe gerade zum Wochenende mit
00:04:28: der älteren Tochter ein bisschen herumgespielt im Zusammenhang mit
00:04:32: dem Sprachdialog, auch die Simulation
00:04:36: mit Fremdsprachen, also als 1 zu 1
00:04:40: Übersetzer, was sehr, sehr gut funktioniert hat.
00:04:44: Und ich finde auch die Sprachausgabe, die klingt mittlerweile so
00:04:47: natürlich, dass es Spass macht zuzuhören.
00:04:52: Bei der letzten Variante, wenn gerade etwas vorgelesen wurde,
00:04:56: war das dann doch bei längeren Texten recht eintönig.
00:04:59: Jetzt hat man das Gefühl, es hat gewisse
00:05:03: Emotionen mit drin, was es spannend macht. Das
00:05:07: andere, was du gesagt hast, im Zusammenhang mit dem Dokumentenhochladen,
00:05:11: auch die Data-Analyse-Möglichkeiten,
00:05:15: massive Verbesserungen gegenüber vorher. Trotzdem finde
00:05:19: ich es spannend, wenn man dann wieder Beiträge liest, so ersetzt Excel
00:05:23: oder wie auch immer. Nein,
00:05:27: im Endeffekt das ersetzt nicht Excel, sondern es kann an gewisse
00:05:31: Dinge davon abnehmen. Im Endeffekt möchte ich dann immer noch
00:05:34: irgendwo Herr meiner Daten sein und selber bestimmen können, was in welcher Spalte
00:05:38: steht. Aber es zeigt, in welche Richtung diese
00:05:42: Modelle gehen, dass Interpretieren von Dingen automatisiert
00:05:46: stattfindet und gleichzeitig aber auch die
00:05:49: visuelle Analyse natürlich wesentlich besser wird. Gerade
00:05:53: auch das Beschreiben eines Bildes. Ich habe
00:05:57: mir schon ein paar mal den Spass gemacht, wenn ich im
00:06:00: Restaurant das Essen bekomme, das zu fotografieren, dann mal
00:06:04: GPD zu fragen, was auf dem Teller ist. Also
00:06:08: das gäbe, glaube ich, die lustigsten Google-Bewertungen, wenn man
00:06:11: das entsprechend eins zu eins in die Rezension reinschreibt. Aber
00:06:15: wo man halt auch schon sieht, die Beschreibungen sind sehr detailliert, also
00:06:19: nicht nur Tisch, Essen, Teller, sondern
00:06:24: Spaghetti mit Tomatensoße, schön dekoriert
00:06:28: auf einem teuren Teller. Es lässt sich daraus schliessen, dass es in einem
00:06:32: teureren Restaurant stattgefunden hat, wo
00:06:36: halt auch der ganze Kontext mitgeliefert wird. Und das macht es unheimlich
00:06:39: spannend. Insbesondere die Spracheingabe hat mich beeindruckt,
00:06:43: eben einerseits, weil es mehr Varianz auch
00:06:47: in der Stimme hat und auch von der Geschwindigkeit,
00:06:51: wie sie etwas abfragt. Also bis hin zu dem, dass
00:06:54: du mein Übersetzer bist, übersetze bitte alles in
00:06:58: Spanisch und das Spanische in Deutsch. Ich beginne mit
00:07:02: Deutsch. Das funktioniert unheimlich gut. Ich habe am Wochenende herumgespielt mit
00:07:05: Schweizerdeutsch. Das heisst, Spracherkennung auf
00:07:09: Schweizerdeutsch, die funktioniert ja schon recht gut. Also ich würde jetzt mal
00:07:13: sagen, 80, 90 Prozent wird erkannt. Wenn ich denke,
00:07:17: wie viel Mühe, das ich teilweise mit anderen Dialekten habe in der Schweiz,
00:07:21: dann alles zu verstehen, dann ist die Trefferquote mit 80-90
00:07:24: Prozent eigentlich ähnlich hoch wie bei mir.
00:07:28: Ich habe ihn dann auch angewiesen, dass er mir auf Schweizerdeutsch Antworten gibt. Er macht
00:07:32: dann auch so typisch die Dinge, die wir immer wieder so dafür
00:07:35: bekannt sind, mit Lie am Schluss, also die Dinge kleiner machen
00:07:39: oder lieblicher machen, das funktioniert gut, aber wenn
00:07:43: er Schweizerdeutsch spricht, Also ich hatte da den männlichen Bot, der
00:07:47: gesprochen hat. Es klingt halt, wie wenn
00:07:50: die Kollegen aus dem grossen Kanton versuchen, Schweizerdeutsch zu
00:07:54: sprechen. Also besser sein lassen. Ja,
00:07:58: neben der Spracheingabe, was da auch spannend ist, ich kann ja hingehen, also Ich habe
00:08:02: mehrere Versuche gemacht. Ich habe mal gesagt, du bist jetzt ein
00:08:05: Podcaster, der über digitale Marketing spricht, insbesondere
00:08:09: Performance Marketing. Führe mit mir ein
00:08:12: Interview, wo es eben Performance Marketing mit
00:08:16: Meta-Ads geht. Und dann hat sie angefangen, ich habe die
00:08:19: Frau eingestellt, das kann man ja auch noch einstellen, ich habe die Frau eingestellt,
00:08:23: hat sie dann angefangen zu fragen, wie ich etwas verstehe,
00:08:27: wie ich vorgehe, hat dann geantwortet und sie hat dann auch wieder auf meine
00:08:31: Antwort die Folgefrage gestellt. Das
00:08:35: hat mich auf die Idee gebracht, dass ich jetzt mein
00:08:38: Lehrbuch oder die
00:08:42: Dokumente, die ich in einer Weiterbildung erhalten habe, hochladen kann. Kann
00:08:45: ich hochladen und sagen, du bist mein Prüfungsexperte, stell
00:08:49: mir jetzt zehn Fragen, die im Dokument beantwortet
00:08:53: werden, die ich wie an einer mündlichen
00:08:56: Prüfung beantworten muss und bewerte die Antwort. Und
00:09:00: so könnte ich ja dann, dass ich nicht mehr einen Lernkreis machen muss, wo
00:09:04: ich dann Freunde oder Schulkolleginnen und
00:09:07: Kollegen nach Hause einlade, die wir uns irgendwo treffen oder das
00:09:11: virtuell machen, sondern dass ich das jederzeit in der Bahn,
00:09:14: Bus, wo auch immer, oder sogar während dem Autofahren
00:09:18: machen kann, weil auch da kann ich ja die Spracheingabe ohne weiteres
00:09:22: nutzen. Also ich habe die Stimme extra auf männlich eingestellt, weil
00:09:26: ich habe bereits eine Freundin, die laufend das Gefühl hat, alles
00:09:29: besser zu wissen. Also darum, dass da ein bisschen Gegengewicht
00:09:33: da ist. Aber jetzt bei ihr gerade spannend ist, sie ist englischer
00:09:37: Muttersprache. Sie lernt gerade Deutsch, nimmt
00:09:40: JGPT zur Hilfe. Das heisst, dort
00:09:44: gibt ihr gewisse Dinge vor. Sie spricht das nach und
00:09:47: korrigiert dann aber auch, was nicht gut war oder in der Satzstellung nicht gut
00:09:51: war. Wenn man das ein bisschen weiter denkt, Babel
00:09:55: und Co. Brauche ich das in Zukunft
00:09:59: noch, mein Sprachlernprogramm? Oder habe ich vielleicht daneben
00:10:02: halt eine generative KI, wo
00:10:06: mir Übungsschritte vorgibt, analysiert, dann haben meiner
00:10:10: Stimme und der Aussprache ob das
00:10:13: stimmt oder nicht, mich entsprechend korrigiert und das sind nochmals ganz
00:10:17: ganz andere Möglichkeiten als ich bis jetzt hatte in diesem Bereich
00:10:21: Sprachen lernen und ich glaube das kann man ja beim Thema
00:10:24: Lernen auf unterschiedlichste Bereiche erweitern. Ich habe mir auch
00:10:28: am Wochenende überlegt, es gibt bei uns, ich weiss nicht ob es das in Deutschland
00:10:31: auch gibt. Es gibt die Firma Get Abstract, die ja Bücher
00:10:35: zusammenfasst. Das ist ja eigentlich auch so ein
00:10:38: Businessmodell, was mit Chat GPT obsolet ist.
00:10:42: Weil ich kann ein Foto machen von einem Buch, das ich in der Buchhandlung sehe
00:10:46: oder dass ich online sehe und sage, hey, Chetjibiti, erstell mir eine
00:10:50: Zusammenfassung des Buchs und die sechs wichtigsten Punkte, die ich
00:10:54: als Werbetreibender beachten muss und ich bekomme da wirklich eine
00:10:58: perfekte Zusammenfassung. Also Sie ist mal perfekt formuliert.
00:11:02: Fachlich müsste es mal so sein. Die Problematik dürfte hier wahrscheinlich noch sein, dass
00:11:05: das von bekannten Dingen geht, weil es halt schon
00:11:09: gelernt ist, aber die Problematik jetzt gerade
00:11:13: 200-seitiges PDF-Dokument, da scheitern wir dann
00:11:17: irgendwo noch an der Anzahl der Tokens, das zu verarbeiten.
00:11:21: Aber grundsätzlich von der Idee her absolut eine
00:11:24: Möglichkeit in diese Richtung, wo es gehen kann. Das ist auch
00:11:28: spannend. Der zweite Punkt, den wir auf der Liste
00:11:32: haben, ist Apple mit JetGPT. Es wird ja vermutet,
00:11:35: dass in zwei Wochen...
00:11:40: Es wird ja vermutet, dass in zwei Wochen an der Entwicklerkonferenz
00:11:44: von Apple eine Partnerschaft mit OpenAI
00:11:48: bekannt gibt, weil alle Apple-User wissen,
00:11:52: eigentlich seit oder schon bevor JetJPT auf den Markt gekommen
00:11:56: ist, Siri ist nicht das Gelbe
00:11:59: vom Ei. Also hast du jemals in der
00:12:03: letzten Zeit von Apple irgendetwas gesehen, was das Gelbe vom Ei
00:12:07: war? Ja doch, also die Geräte, die Hardcore, das ist jetzt
00:12:11: wieder eine ganz andere Thematik zwischen uns beiden. Aber so
00:12:15: Die Zusammenarbeit mit den Geräten, Tablet, PC und
00:12:18: Smartphone ist schon einzigartig.
00:12:23: Und ich glaube, wenn du da mal ein paar Use-Case hättest, würdest du sehr wahrscheinlich
00:12:26: auch auf Apple wechseln. Aber das können wir mal ausserhalb des Podcasts
00:12:30: probieren. Aber ja, was man natürlich
00:12:34: nicht oder sehr wenig gehört hat, ist Apple
00:12:38: im Zusammenhang mit KI. Im
00:12:42: Prinzip das, was Siri macht, war ja bis jetzt auch schon
00:12:46: KI, vielleicht einfach reduziert im Umfang.
00:12:50: Von dem her würde natürlich irgendwo eine Partnerschaft Sinn machen, ob das
00:12:54: jetzt das StratGPT ist oder ob das ein anderer Dienst
00:12:57: ist, wäre ja dann eigentlich auch noch relativ egal.
00:13:01: Aber es geht ja eigentlich ums Verbinden und das bessere Verstehen,
00:13:05: was möchte der Nutzer bzw. War ja
00:13:09: Siri bis jetzt sehr stark regelbasiert
00:13:13: mit Dingen, die bekannt sind, wo klare Befehle da
00:13:17: sind, Kalendereintrag erstellen etc.
00:13:21: Ich finde das extrem spannend, die Zusammenarbeit, ist auch die logische
00:13:25: Konsequenz, weil Apple wird relativ wenig mit Meta
00:13:28: zusammenarbeiten, weil die auf dem Werbemarkt
00:13:32: ja doch auch Rivalen sind.
00:13:36: Entsprechend das Gleiche mit Google, mit Ersetzer auf
00:13:41: Open-Source-Technologie. Was ja grundsätzlich
00:13:45: spannend sein könnte bei Google, wissen wir, Problem
00:13:49: Android vs. Apple. Also macht auch da mit Jiminai
00:13:52: nicht wirklich eine Partnerschaft
00:13:56: Sinn. Und von dem her wäre es nicht mehr als logisch. Die
00:14:00: Frage ist, was passiert nachher mit Amazon?
00:14:03: Ja, die Frage ist eher, was passiert mit Google? Weil Google ist ja auch
00:14:07: im Apple-System integriert. Also Google lässt sich
00:14:11: die Integration in Safari, das Google der
00:14:14: Standardbrowser ist, ja jährlich 20 Milliarden kosten. Oder im
00:14:18: 22 haben sie ja rund 20 Milliarden an Apple gezahlt, was ja
00:14:22: auch nicht ein unwesentlicher Betrag ist
00:14:25: und wie sieht das dann aus, wenn Apple jetzt eine Partnerschaft
00:14:29: mit OpenAI eingeht. Von daher eben, momentan
00:14:33: sind es ja noch Gerüchte, ob das in zwei Wochen an der Developer
00:14:36: Conference so sein wird, werden wir sehen. Aber wie du
00:14:40: gesagt hast, spannend könnte es
00:14:45: ja auch Gemini sein, die Sie integrieren, wo Sie sagen, okay, wenn wir da Google
00:14:49: drin haben... Es macht natürlich von der Idee her
00:14:53: relativ stark Sinn, wenn man jetzt betrachtet, die Desktop-Applikation
00:14:57: von JetGP, die ist jetzt erst auf iOS rausgekommen,
00:15:02: was auch ein entsprechendes Vorzeichen sein könnte. Ich habe
00:15:06: am Wochenende gerade einen Beitrag gelesen, warum
00:15:09: das beziehungsweise da Microsoft in
00:15:13: diesem Umfeld auch nicht eins zu eins mitspielt oder warum diese
00:15:16: Applikation nicht für die Windows-Umgebung auch schon
00:15:20: lossiert wurde. Microsoft hat ja angekündigt, diese
00:15:24: neuen Surface-Geräte rauszubringen, die
00:15:28: KI-first sind, das heisst Vollintegration
00:15:32: von Co-Piloten etc. Und dass das vielleicht auch da der
00:15:36: Grund ist, warum OpenAI nicht direkt mit dieser Windows-Version
00:15:40: rausgekommen ist. Von dem her könnte das ein kleiner
00:15:43: Vorbote sein in diese Richtung. Definitiv. Und
00:15:47: spannend natürlich, OpenAI wäre für Apple eine Bereicherung,
00:15:51: weil eben wie gesagt, Apple hat in der KI-Entwicklung in den
00:15:55: letzten Wochen, Monaten keine Schlagzeilen gemacht,
00:15:58: sondern sind da eher ruhig geblieben, was auch darauf hindeutet, dass sie
00:16:02: dort noch nicht so weit fortgeschritten sind wie eben
00:16:06: OpenAI oder andere vergleichbare Produkte. Was
00:16:09: man aber weiss, ist ja, dass Apple sehr stark auch in der Chip-Entwicklung
00:16:16: investiert hat mit ihren M1, M2,
00:16:19: M3 Chips, bald auch M4, M5 Chips, die
00:16:23: ja hervorragende Leistungen bieten.
00:16:27: Da ist ja Nvidia, ist ja so ein Mitbewerber, da sieht man ja auch, es
00:16:31: ist so ein Börsenüberflieger, 100%
00:16:35: Steigerung an der Börse in den letzten 9 Monaten,
00:16:39: also da ein massives Wachstum und sicherlich eben auch für
00:16:42: Apple ein spannendes Geschäftsfeld in entsprechende Chips
00:16:46: zu investieren. Du hast vorhin gesagt, die OpenAI
00:16:51: oder Chats GPT auf dem Mac nutzen. Ich habe einen Mac zu Hause, aber
00:16:54: mein Mac ist aus dem Jahre 21 oder
00:16:58: 22. Ich kann Chats GPT nicht nutzen auf dem
00:17:02: Mac, weil ich noch keinen M1 Chip habe oder M2 Chip habe.
00:17:05: Also man braucht auch da eine gewisse Rechenleistung oder einen
00:17:09: gewissen Chip, damit man eben Jett GPT nutzen
00:17:12: kann, obwohl ich überzeugt bin, dass es auch so funktioniert. Aber
00:17:16: halt da auch Apple sagt, ok, wer es nutzen will, der soll
00:17:20: halt das Gerät updaten. Wobei gerade auch das
00:17:25: Hardware-Technische dahinter finde ich extrem spannend. Ich habe vor
00:17:29: zwei Wochen herum experimentiert und habe mir die
00:17:32: Open-Source-Variante vom Lama-Modell
00:17:36: von Meta heruntergeladen, habe es auf dem Notebook installiert.
00:17:40: Mein Notebook hier ist jetzt nicht das schwächste,
00:17:45: hat auch ordentlich Speicher etc. Aber keine
00:17:48: dedizierte Grafikkarte.
00:17:52: Und der Desktop-Rechner, den ich nutze, der hat eine relativ gute
00:17:56: Nvidia Gaming-Karte oder Videokarte mit drin, die halt
00:17:59: genau den Speicher bietet, was diese AI-Modelle
00:18:03: für die Berechnung nutzen möchten. Wenn ich jetzt
00:18:07: da genau gleiche Installation auf dem Notebook schaue
00:18:11: versus auf dem Desktop, sprechen wir irgendwie von Faktor 8 in der
00:18:14: Geschwindigkeit. Also Man spürt da gerade bei lokal
00:18:18: ausgeführten Modellen relativ gut die Differenz. Ich
00:18:22: könnte mir vorstellen, das Ganze auch leistungsfähig zu
00:18:26: behalten, werden gewisse Dinge lokal passieren, bevor
00:18:29: sie überhaupt an die Schnittstelle übergeben werden? Hm.
00:18:36: Denke ich auch, vor allem ist ja auch schon auf den Smartphones oder so
00:18:39: eine gewisse Rechenleistung benötigt wird. Also Jett GPT
00:18:43: läuft ja auch nicht auf allen Smartphones, sondern eher auch auf den
00:18:47: Neuen, was ja auch zeigt, dass da eine lokale Rechenleistung
00:18:52: genutzt wird. Ich bin gespannt, wie es integriert wird. Vor allem
00:18:56: sind ja auch Series, die ja eben Transaktionsmodelle.
00:19:00: Es gibt ja auch so ein Gerät, den Rabbit
00:19:03: R1, der Anfang des Jahres Schlagzeilen
00:19:07: macht, so ein oranges Teil, was in den USA zu kaufen ist, mit
00:19:11: Display, mit KI integriert, was ja
00:19:16: eigentlich JGPT sein soll, das Transaktionen ausführen
00:19:19: kann, also beispielsweise bestell mir ein Uber oder bestell mir Essen oder was
00:19:23: auch immer. Und die
00:19:27: ersten Tests haben auch gezeigt, das funktioniert überhaupt nicht.
00:19:31: Also Man geht sogar vom Scam-Versuch aus, wobei
00:19:34: man noch nicht nachweisen kann,
00:19:38: aber gewisse Fachbeiträge sagen,
00:19:42: es ist eigentlich nichts anderes als ein
00:19:45: Large-Language-Modell und gar kein Transaktionsmodell. Von daher
00:19:50: hoffe ich natürlich, dass Apple schafft, OpenAI oder
00:19:54: JGPT so zu integrieren, dass man wirklich auch
00:19:57: Dinge ausführen kann. Weil das ist ja etwas, was jetzt noch bei JGPT
00:20:01: fehlt. Also ich kann ja nicht sagen, hey, ruf
00:20:05: mir für 13.30 Uhr ein Uber
00:20:09: an die Strasse XY dorthin oder ein Taxi
00:20:13: oder kauf mir ein Bahnticket
00:20:16: für die Strecke von Soh und gibt mir die beste Reiseroute.
00:20:20: Die Reiseroute, ja, die kann sie rausgeben, aber dann, dass ich irgendwelche
00:20:24: Tickets kaufen kann, funktioniert dann auch aufgrund der fehlenden
00:20:28: Anbindungen nicht. Und da erhoffe ich mir dann schon,
00:20:32: dass, wenn es bei Apple integriert ist, dass dies unter Umständen
00:20:36: auch für Apps freigegeben wird, dass man eben auch
00:20:39: Dritt-Apps, wie beispielsweise eine Bahn-App oder eine Taxi-App oder
00:20:43: so, dann über die Sprachsteuerung ansteuern kann.
00:20:47: Und das finde ich enorm spannend. Ich
00:20:51: finde spannend, was bei Amazon passieren wird, weil auch Alexa
00:20:56: ist recht stark verbreitet.
00:21:00: In einigen Dingen jetzt gerade im Home-Device-Bereich
00:21:04: habe ich teilweise das Gefühl auch recht weit,
00:21:08: was da noch passieren wird. Weil auch da waren ja die Dinge bis jetzt
00:21:11: eher transaktionsdialogbasierend. Also so nach dem Motto,
00:21:15: Alexa, stell mir weg für 6 Uhr mit dem und dem Radiosender,
00:21:20: wo halt vorgegebene Befehlsketten mehr oder weniger eingehalten
00:21:24: werden müssen, wenn dann entsprechend diese Bereiche
00:21:28: mit Hilfe von KI erweitert werden.
00:21:31: Definitiv, ja. Auch da, im Amazon habe ich auch kürzlich gelegen, die
00:21:35: sind ja extrem unter Druck, was die KI anbelangt, bis hin
00:21:39: zur Frage, wie lange wird Alexa noch
00:21:42: geben. Weil eben auch Alexa ist im
00:21:46: Vergleich gerade zu der neuesten Spracheingabe von Chetchipiti
00:21:50: ein Kleinkind. Mit Entschuldigung, ich habe dich nicht
00:21:54: verstanden. Bis hin, das weiss ich nicht.
00:21:58: Von daher, definitiv spannend zu beobachten, wie
00:22:01: da Amazon nachlegen wird.
00:22:06: Ein Thema, was ich jetzt einleitend gar nicht gesagt habe, aber uns ja
00:22:09: auch schon ein bisschen beschäftigt, ist
00:22:13: ICQ wird abgestellt. Nein, natürlich nicht ICQ, sondern
00:22:17: Workplace. Also ICQ wird auch abgestellt jetzt im
00:22:21: Mai oder per Ende Mai. Aber für uns ein bisschen
00:22:24: weniger Herausforderungen. Genau, was aber abgestellt wird,
00:22:28: ist Workplace. Das ist die Kollaborationslösung
00:22:32: von Meta für Unternehmen. Für die, die es nicht
00:22:36: kennen, Workplace ist eigentlich wie Facebook, halt einfach nur
00:22:39: im unternehmerischen Kontext. Das heisst, man hat eigentlich eine
00:22:43: eigene Facebook-Umgebung für das eigene Unternehmen, wie wir
00:22:46: das bei der Hutter Consult haben. Man hat Chats, man hat ein Feed, man hat
00:22:50: verschiedene Gruppen. Die Gruppen sind dann einerseits Teams, können
00:22:54: Projekte sein, können spezifische Kunden sein oder eben
00:22:58: auch Fachbereiche sein. Wir haben da Gruppen, wo
00:23:01: Newsfeeds reinlaufen, rund Google, rund
00:23:04: Meta-Advertising, Pinterest, TikTok etc.
00:23:09: LinkedIn und weitere. Plus eben auch Chatfunktionen, man
00:23:12: kann auch telefonieren, haben wir jetzt nicht genutzt, weil wir Teams im
00:23:16: Einsatz haben. Aber auch da gibt es sehr viele Möglichkeiten. Und
00:23:19: Met hat jetzt angekündigt, dass eigentlich per
00:23:24: Sommer 2025 das Projekt
00:23:27: oder das Produkt einzustellen, dass sie es nicht mehr weiterentwickeln.
00:23:34: Ja, da blutet das Herz. Da blutet das Herz.
00:23:38: Workplace war für mich halt
00:23:42: das Facebook oder auch LinkedIn im Unternehmen.
00:23:46: Und weil es genau gleich funktioniert und weil es halt schlussendlich
00:23:49: ein Posten darin ist mit Bildern, Videos und weiss der Teufel
00:23:53: was, relativ einfach zu bedienen,
00:23:57: weil es eben halt wie die sozialen Netzwerke
00:24:00: aufgebaut ist, das perfekte Informationswerkzeug
00:24:05: innerhalb vom Unternehmen, schnell und
00:24:09: trotzdem auf eine einfache Art und Weise
00:24:13: zu kommunizieren. Also Da blutet das Herz.
00:24:18: Ich sage jetzt mal, auch nicht unbedingt nachvollziehbar,
00:24:22: warum das mit diesen Schritt geht. Es
00:24:26: sind ja in der Vergangenheit doch recht grosse Unternehmen
00:24:29: wie Starbucks oder Royal Bank of Scotland
00:24:33: mit Hunderttausenden von Nutzern auf
00:24:37: diese SAS-Plattform aufgesprungen.
00:24:43: Sie wurde eigentlich auch sehr gut modernisiert,
00:24:48: sehr viele Funktionen mit drin, die wir von Facebook kennen, wie Live-Untertitel
00:24:52: bei Videos, Live-Videos, solche Dinge,
00:24:56: die, ich glaube, weit über das rausgehen, was die
00:24:59: meisten Unternehmen an interner Kommunikation benötigen.
00:25:04: Und wo man halt gemerkt hat, da kommt von der Schwester-Plattform sehr viel Input
00:25:08: mit rein. Und aus diesem Grund eigentlich noch fast weniger
00:25:11: nachvollziehbar, warum das man von so einer super tollen und
00:25:15: akzeptierten Lösung wegkommt.
00:25:20: Wenn man denkt, was für Unternehmen das nutzen, wie viele Nutzer das damit
00:25:23: drin sind. Es ist ja ein Abo-Modell, wo man, ich glaube,
00:25:27: 4 Dollar pro Nutzer pro Monat bezahlt hat.
00:25:31: Also, wenn man das hochrechnet, da sprechen wir auch von einem relativ
00:25:35: großen Businessvolumen. Für Meta wahrscheinlich zu wenig,
00:25:39: das sehr skaliert betreiben zu können. Ich könnte mir
00:25:42: auch vorstellen, kostenspielig aufgrund von Datenschutz und allem rundherum
00:25:47: und Stabilität. Und trotzdem, wenn man denkt, da wird ein
00:25:51: Geschäftsbereich eingestampft, weil er wahrscheinlich
00:25:55: nicht mehr der Ausrichtung entspricht oder weil eine andere Strategie
00:25:58: dahinter ist. Mit dem, was Meta da aufgebaut
00:26:02: hätten, könnte man problemlos ein eigenes Unternehmen wieder
00:26:06: betreiben, was nur diese Plattform betreibt und das wäre zum
00:26:09: Start schon grösser als ganz viele Kollaborationsplattformen überhaupt jetzt
00:26:13: werden. Also von dem her schlecht
00:26:17: nachvollziehbar und ja,
00:26:20: also Das Herz blutet, wenn ich daran denke, dass wir auf das verzichten müssen.
00:26:24: Definitiv. Und vor allem eben auch, dass man das nicht
00:26:28: in ein eigenes Unternehmen auslagert. Das lässt mir aber auch noch ein bisschen die
00:26:32: Hoffnung, dass da vielleicht ein Unternehmen kommt und sagt,
00:26:37: hey, wir übernehmen das, wobei die Wahrscheinlichkeit
00:26:41: klein sein wird, dass das Meta zustimmt, weil ja doch da einiges
00:26:44: an Intelligenz von Meta in Workplace steckt.
00:26:49: Und für die, die Workplace nicht kennen und sagen,
00:26:53: ja, wir haben ja Slack, jetzt könnt ihr auf Slack gehen, wenn man
00:26:56: das nicht ganz so korrekt ausdrücken
00:27:00: will, Slack ist der handikapierte kleine Bruder
00:27:04: von Workplace. Das heisst, die, die
00:27:08: Slack kennen, Workplace war eigentlich wie Slack auf Steroiden.
00:27:12: Und das fällt jetzt weg. Eben, Man hat eine gute
00:27:15: Durchsuchbarkeit, es ist strukturiert. Slack ist ja
00:27:19: rein nur Chats, wo man Nachrichten in einen Chat rein
00:27:23: tut. Man kann dann Threads auftun. Bei Wordpress
00:27:26: hast du ja wirklich Beiträge, die du kommentieren
00:27:30: kannst, die du in den Chat senden kannst, wo du Videos drin
00:27:34: hast, wo du Bilder drin hast, also da.
00:27:37: Ja. Ein Mitarbeiter, der
00:27:41: neu zu uns gekommen ist oder neu wieder zu uns gekommen ist, hat kürzlich
00:27:44: in Workplace kommentiert, als da eben die Info kam, dass das
00:27:48: abgestellt wird, dass das mit Abstand das beste Kollaborationstool
00:27:52: ist, mit dem er je gearbeitet hat in allen Unternehmen,
00:27:56: bei denen er bisher war. Und da war Slack auch dabei.
00:28:02: Und das letzte noch, was ich dich fragen möchte, wann hast du das letzte Mal
00:28:05: deine Metaquest-Brille angehabt? Am Wochenende. Am
00:28:09: Wochenende? Ja, aber seit länger Zeit nicht mehr. Am
00:28:12: Wochenende zufällig in die Finger gekommen, dann war der Akku
00:28:16: auch noch halb voll und dann habe ich mal eine halbe
00:28:20: Stunde wieder Virtual Reality Shooter
00:28:24: gespielt. Ja, aber
00:28:28: die Zeit erlaubt es tatsächlich wenig, beziehungsweise in der Freizeit
00:28:32: gibt es noch ein paar andere Dinge. Ich bin jetzt nicht so extrem
00:28:35: begeistert von dieser Art von Brille,
00:28:39: aber könnte mir gut vorstellen, wenn sie etwas ein bisschen alltagstauglicher
00:28:44: wäre, weniger schwer, vielleicht wie eine
00:28:48: normale Brille, dass ich mich mit so etwas sehr gut
00:28:51: anfreunden könnte. Ja, weil spannend ist ja Meta-Quest,
00:28:55: man hat jetzt lange nichts mehr gehört über das Metaverse oder wenig darüber,
00:28:59: man sagt ja auch, wie bei Facebook schon immer
00:29:02: gesagt hat, ja Facebook ist tot, sagt man auch Metaverse ist tot,
00:29:06: so ganz tot ist es aber trotzdem noch nicht, weil Metaverse ist ja nicht nur
00:29:10: Meta, sondern eben auch Roblox oder Fortnite etc.,
00:29:14: was Millionen von Spieler und Spielerinnen hat. Wenn wir aber zurück
00:29:17: auf die Metaquest-Brille kommen, die sind eine Partnerschaft
00:29:21: mit Lufthansa eingegangen, und zwar schult
00:29:25: zukünftig Lufthansa ihre Mitarbeiter mit der
00:29:29: VIA-Brille. Das heisst, die Mitarbeitenden sind dann
00:29:33: eigentlich in einer Mixed Reality, dass sie in einem Trainingsflugzeug
00:29:37: sind und dann erklärt bekommen, was nun die nächsten
00:29:40: Schritte sind, wo sie das Ganze unterstützen. Sie haben auch
00:29:44: die Kosten an Messen reduziert, weil die Lufthansa hat an
00:29:48: gewissen Messen dann auch die Business Class nachgebaut,
00:29:52: damit Besucherinnen und Besucher mal sehen, eben wie sieht so die Business
00:29:56: Class aus, eben da Menschen auch dazu zu bringen, mal in der
00:29:59: Business Class oder in der First Class zu reisen. Sie haben das
00:30:03: entsprechend nachgebaut mit der VR-Brille. Das heisst, man setzt
00:30:07: sich auf den Stuhl und das Ganze rundherum wird dann
00:30:10: eigentlich über die VR-Brille eingeblendet. Man kann dort das
00:30:14: Cinema-System, das Board-Cinema-System ausprobieren,
00:30:18: etc. Also da eine massive Kostenreduktion.
00:30:21: Der Global Lead Virtual und Mixed Reality Strategie
00:30:25: und Partnerships bei Meta, Bastian Schütz,
00:30:29: der schreibt in einem LinkedIn-Post, dass Lufthansa
00:30:33: nur schon beim Messebau rund 80% der Kosten
00:30:36: dank VR-Brillen einsparen kann, ebenfalls auch bei
00:30:40: den Schulungen. Und was auch für Endnutzer sehr
00:30:44: spannend ist, Lufthansa ist auch da in dem
00:30:47: Bereich eine Partnerschaft mit eingegangen, dass man zukünftig
00:30:54: auf gewissen Strecken die Brille anziehen kann, dass
00:30:57: die eigentlich das Home-Cinema-System ersetzen, so
00:31:01: eben Filme auszuwählen oder mal Games. Ich denke jetzt nicht
00:31:04: irgendwelche Shooter oder Beat Saber, wo man dann gross herumfuchteln
00:31:08: muss, sondern eher Spiele, die am Platz stattfinden.
00:31:13: Aber ich finde das sehr spannend. Ein Wohlstandhaltungsformat an Bord, ja sicherlich
00:31:16: noch. Ja. Ich finde die ganze Thematik
00:31:20: Metaverse ist natürlich in den letzten Monaten
00:31:24: auch aufgrund der neuen Sau, die durchs Dorf getrieben
00:31:28: wird, KI in den Hintergrund gerückt. Auf
00:31:31: der anderen Seite, wenn wir Metaverse betrachtet haben, wo
00:31:35: das hingehen könnte, wo es hingehen sollte,
00:31:39: und man KI wegdenkt, dann sind wir ja meilenweit
00:31:43: von Metaverse entfernt. Wenn man jetzt aber
00:31:47: betrachtet, was KI hilft zu machen, auch
00:31:50: diese ganzen Voice-Interaktionsmöglichkeiten, aber auch
00:31:54: das Generieren von Videobildern,
00:31:58: etc., etc., kommt ja das eigentlich dieser Metaverse-Landschaft
00:32:02: nur entgegen. Das heißt ganz viele Dinge, wo wir uns eigentlich gar
00:32:06: nicht vorstellen konnten, wie man das in Zukunft machen
00:32:10: wollen könnte, sieht man jetzt Möglichkeiten mit
00:32:13: Hilfe der KI, die eigentlich den Einsatz von Metaversen
00:32:17: eher vereinfachen würden. Ich glaube wir haben mal in einem Monats-Podcast
00:32:22: auch darüber gesprochen. Unternehmen sprechen heute von
00:32:26: Metaversen, aber haben noch nicht mal das Dialog-Handling im Griff.
00:32:30: Jetzt sind wir da natürlich zwei Schritte näher. Also von dem her wird das eher
00:32:33: befeuert. Was den Einsatz der Brille
00:32:37: anbelangt, es war ja jetzt eher ein bisschen ruhiger die
00:32:41: Metaquest. Da hatte auch die Vision Pro von
00:32:44: Apple entsprechend Mieteinfluss darauf.
00:32:47: Wo nochmals ein anderer Ansatz, wo
00:32:52: an vielen Stellen nochmals eins drauf liegt,
00:32:57: vorgestellt wurde. Und trotzdem weiß man
00:33:01: bei Meta ist sehr viel Geld dahinter, in diese Richtung zu
00:33:04: entwickeln. Die Modelle,
00:33:08: ich glaube die MetaQuest lange zu tragen ist im Moment
00:33:12: bequemer als die Apple Vision lange zu tragen.
00:33:17: Anwendungsmöglichkeiten, die sind noch ein bisschen unterschiedlich
00:33:20: und gleichzeitig wissen wir, META investiert sehr, sehr viel Geld in die
00:33:24: Entwicklung. Das bei Geräten, die im Handel,
00:33:29: also halte ich jetzt daran fest, habe ich etwa 400
00:33:33: Franken Euro. Also die Dreier kosten so 500 bis 600, je nach
00:33:37: Grösse. Also die Zweier war glaube ich zwischen 200 und 400 drin,
00:33:40: je nach Speichermodell. Die andere ist aber auch deutlich unter
00:33:44: 1000. Was halt nochmal, ich sage jetzt mal,
00:33:48: ein anderer Ansatz ist, also jetzt bei diesem qualitativ
00:33:52: hochwertigen, teuren Ansatz, die Levelwelt.
00:33:56: Und wenn ich mir dann so überlege, jetzt nehmen wir das Beispiel
00:34:00: Lufthansa, das sind ja unterschiedlichste Bereiche, wo Schulen
00:34:03: stattfinden müssen. Das kann am Flughafen sein, beim
00:34:07: Personal, was Boarding betreibt, das kann bei der Crew sein, im
00:34:10: Flugzeug drin, das Schulen von Piloten, wo
00:34:14: sind welche Knöpfe, was bedeuten die, was
00:34:17: heute bei den meisten irgendwo im Kopf ist oder im
00:34:21: Krisenszenario mit der Checkliste, könnt ihr so eine
00:34:25: Brille natürlich mit übernehmen. Der
00:34:28: ganze Maintenance-Bereich rund ein Flugzeug herum,
00:34:33: wo welche Teile beim Triebwerk müssen kontrolliert werden, sind
00:34:37: heute auf Chatlisten, könnt ihr natürlich auch einen Guide entsprechend
00:34:40: vorgeben. Und dass bei solchen Dingen in der Wiederholung
00:34:44: dann extreme Kosteneinsparungen möglich sind, das liegt auf der Hand.
00:34:48: Mit einem Brillenmodell, sagen wir mal, 500 Euro
00:34:52: herum, dann auch nicht so ganz so tragisch ist, wenn mal
00:34:56: eins kaputt geht, weil die en masse bestellt
00:34:59: werden können. Also ganz, ganz spannender Ansatz.
00:35:04: Messen hat man ja wie auch in der Vergangenheit schon das eine oder andere Mal
00:35:07: gesehen. Ich glaube noch viel viel spannender wird das Ganze
00:35:11: dann bei einem AR-Ansatz. Also wenn man
00:35:15: dann MetaQuest vielleicht auch in Richtung geht, dass man
00:35:19: das ganze Umfeld sieht und dann halt
00:35:22: AR-Einblendungen kommt zu manuellen Arbeiten.
00:35:26: Und noch mal spannend, wenn man dann auch betrachtet, die
00:35:30: AI-Forschung, die META betreibt, ist der eine Modell,
00:35:34: wo es darum geht aus verschiedenen Perspektiven
00:35:37: Handlungen aufzunehmen, so dass man beispielsweise
00:35:41: geführt Tennis spielen lernen kann oder in
00:35:45: welchem Winkel schießt man jetzt den Ball beim Basketball ab, dass er
00:35:48: auch wirklich trifft. Das geht ja alles in diese Richtung.
00:35:53: Und wenn das dann wieder verbunden ist, dann glaube ich gibt es ganz ganz
00:35:56: viele Anwendungsfälle, die weit weg sind von einem reinen
00:36:00: Zeig an der Messe irgendetwas oder ich schule
00:36:05: einzelne Arbeitsschritte, sondern effektiv beibringen von
00:36:08: ganzen Fähigkeiten. Ja, und das ist ja, was du erwähnt hast, eben
00:36:12: das Augmented Reality oder auch das Mixed Reality,
00:36:16: Das ist ja in der Quest 3 schon der Fall, weil du hast ja dann
00:36:19: schon farbig bzw. Hochauflösende
00:36:23: Umgebung. Da gibt es auch, ich habe, man hat
00:36:26: verschiedene Anwendungen, aber Spiele ist ja momentan etwas, wo die
00:36:30: Meta-Quest 3 sehr stark wirkt. Da gibt es zum Beispiel auch ein
00:36:33: Lego-Spiel, wo man einen Tisch vor sich hat, den man dann... Ich
00:36:37: sehe die Umgebung, also beispielsweise abends meine
00:36:41: Frau und ich auf der Couch, sie schaut irgendeine
00:36:45: Soap, Ich habe die Brille an, ich sehe den Fernseher, ich höre alles,
00:36:49: aber ich habe noch meinen Legotisch, wo ich dann irgendwelche Rätsel lösen
00:36:52: muss. Und da hat eben dann die Lufthansa auch, dass man eigentlich im
00:36:56: Flugzeug, also in den Trainings im Flugzeug ist, mit Mixed
00:36:59: Reality, wo muss man jetzt ziehen, wo muss man jetzt hinlaufen, alles
00:37:03: schon entsprechend markiert. Also da sehr
00:37:06: spannendes Anwendungsfeld. Und was ich auch noch spannend finde,
00:37:10: ist die Überlegung von Meta. Sie haben ja jetzt das Betriebssystem,
00:37:14: das Meta Horizon OS, mit dem die Brillen laufen, also
00:37:18: grundsätzlich läuft sie auf Android, aber das Betriebssystem heisst Meta Horizon
00:37:22: OS, das haben sie jetzt veröffentlicht oder öffentlich
00:37:26: gemacht, dass andere Gerätehersteller ebenfalls mit dem
00:37:29: OS arbeiten können, also ähnlich wie das Android gemacht hat und gesagt hat,
00:37:33: hey, wir machen ein Android OS, das könnt ihr auf eure
00:37:36: Smartphones integrieren. Mit erfährt er diesen Ansatz
00:37:40: generell auch in der AI-Technologie und die Idee ist
00:37:43: natürlich auch da möglichst Grenzen senken, damit das
00:37:47: breiter eingesetzt werden kann, weil praktisch alle
00:37:50: Dienste von Meta, die in der Vergangenheit gross wurden, wurden ja auch
00:37:54: gross wegen der grossen Verbreitungsmöglichkeit.
00:37:58: Eben, und mit Meta Horizon beispielsweise hat jetzt schon Asus angekündigt,
00:38:01: dass sie ein Gaming Headset machen. Also Asus sind ja bekannt für die
00:38:05: grossen Gaming-PCs, die machen jetzt ein Gaming Headset.
00:38:09: Lenovo hat angekündigt, dass sie ein Produktivitätsgerät,
00:38:13: eine Brille machen, eben die Produktivität zu erhöhen. Das kann gut
00:38:17: sein, dass das ein Bildschirmersatz ist, dass man dann mit Bluetooth eine
00:38:21: Tastatur und Maus mit der Brille verbindet und dann eigentlich kein PC
00:38:24: mehr benötigt. Und Microsoft selbst hat,
00:38:29: nutzt oder ist am entwickeln mit Meta Horizon OS
00:38:34: ein auf XP basiertes Headset oder
00:38:37: Quest Headset also ähnlich wie die Xbox, dass man
00:38:41: dann die Xbox Spiele in der Brille hat, sogar in einer
00:38:45: Meta Quest Brille aber dann eigentlich eine eigene
00:38:48: Umgebung hat, wo sie dann mit ihrem Microsoft-Markt
00:38:52: arbeiten können. Also da sehr spannend, wie sich da jetzt auch
00:38:56: die Brille, eben die Quest 3 hat im Oktober
00:39:00: schon für Furore gesorgt, aber ist dann schnell wieder abgeklungen, weil halt
00:39:04: einfach KI gross ist. Und zwischenzeitlich habe ich das Gefühl, ist das
00:39:08: Thema wieder da. Accenture hatte auch 60'000
00:39:11: bestellt gehabt letztes Jahr, eben Mitarbeitende zu schulen,
00:39:15: wo sie dann auch jetzt in einer ersten Analyse festgestellt haben,
00:39:19: dass 67 Prozent der Mitarbeitenden, die mit der
00:39:23: Brille geschult wurden, sich mehr engagieren,
00:39:26: die Schulungsunterlagen durchzumachen, als solche, die im
00:39:30: klassischen E-Learning die Schulungen betreiben. Also ich finde
00:39:34: da die Ansätze enorm spannend. Ich fand ja das
00:39:37: schon spannend bei den ersten Oculus-Varianten, also den
00:39:41: Vorgängern von der MetaQuest. Dicke Huhn, ja. Ja,
00:39:46: Wir hatten ja eine der ersten im Büro, wo man noch FaceX mit dem
00:39:50: Computer verbunden hat. Und da gab es ja
00:39:53: bereits schon Google Earth, die
00:39:57: Variante, wo man Städte bereisen kann und Informationen
00:40:00: abholen kann dazu. Und es ist mir damals bei der Tochter
00:40:04: schon aufgefallen, ja sie dürfte theoretisch die Brille noch nicht so lange
00:40:08: tragen aus gesundheitlichen Gründen, aber sie hat es dann trotzdem gemacht.
00:40:12: Aber das Entdecken von einer Stadt
00:40:15: oder von einem Land über diese Art und Weise der Darstellung
00:40:19: und das dazuhören, was da passiert, ist ein ganz
00:40:23: anderer Effekt und halt wesentlich massiver, als
00:40:27: wenn das stattfindet mit irgendwelchen Lesen oder dem
00:40:30: durchgehen von einem Video und dann Fragen beantworten.
00:40:34: Und da spürt man dann auch Gemification
00:40:39: mit drin. Und Gemification ist ja zum Lernen
00:40:42: ein ganz, ganz guter Ansatz. Genau.
00:40:46: Ne, super, Thomas. Das sind schon wieder alle Themen, die wir
00:40:50: durchhaben. Ich werde euch in den Show Notes noch Bastian Schütz
00:40:54: verlinken. Er ist Global Lead Virtual und Mixed
00:40:57: Reality. Auf LinkedIn immer wieder sehr spannende Beiträge,
00:41:01: was passiert rund die Meta-Quest. Und von daher vielen
00:41:05: Dank für deine Zeit, für deine Inputs. Und wir
00:41:09: hören uns bereits am Montag mit den Social
00:41:12: Advertising News, wo wir einen Rückblick machen, was ist letzte Woche
00:41:16: alles im Bereich Social Advertising passiert. Ich freue
00:41:20: mich, wenn ihr wieder mit dabei seid.
00:41:24: Hat euch die Episode gefallen, dann bewertet uns auf iTunes
00:41:27: oder Spotify. Und falls ihr Feedback habt, dann gerne
00:41:31: via LinkedIn, Instagram, Facebook oder auch an dmu.hutter-consult.com.
00:41:38: Vielen Dank fürs Zuhören und Tschüss!
00:41:45: Copyright WDR 2021
Neuer Kommentar