PayPal als Werbenetzwerk, Product Ads mit Videos, TikToks AI Avatare & Talking Heads mit AI - mit Thomas Hutter #105
Shownotes
Die Episode 105 des «Digital Marketing Upgrade»-Podcasts widmet sich dem Monthly Talk für Juni 2024. Einmal mehr ist Thomas Hutter zu Gast und diskutiert zusammen mit dem Gastgeber Thomas Besmer aktuelle Themen aus der digitalen Welt. Im Fokus dieser Episode stehen TikTok-AI-Avatare, PayPal als Werbenetzwerk, Videos in Meta-Product-Ads und Ai generierte Talking-Head-Videos.
Takeaways
TikTok-AI-Avatare: Die nächste Generation der digitalen Repräsentation Ein zentrales Thema dieser Episode ist die Einführung von AI-Avataren durch TikTok. Diese Technologie ermöglicht es Nutzer*innen, digitale Avatare zu erstellen, die ihre Persönlichkeit und Emotionen realistisch widerspiegeln. Thomas Hutter und Thomas Besmer diskutieren die potenziellen Auswirkungen dieser Entwicklung auf die Kreativbranche und die Interaktion in sozialen Medien. Besonders hervorgehoben wird die Möglichkeit, dass Marken und Unternehmen diese Avatare für personalisierte Marketingkampagnen nutzen könnten.
PayPal als neues Werbenetzwerk Ein weiteres wichtiges Thema ist die Ankündigung von PayPal, nun auch als Werbenetzwerk zu agieren. Die beiden Experten erörtern die Implikationen dieser Entscheidung für den digitalen Werbemarkt. PayPal plant, Werbeschaltungen auf der eigenen Plattform zu ermöglichen, was neue Möglichkeiten für zielgerichtete Werbung eröffnet. Die Diskussion beleuchtet sowohl die Chancen als auch die Herausforderungen, die sich für Werbetreibende und Nutzer*innen ergeben könnten.
Meta-Product-Ads: Der Einsatz von Videos Thomas Hutter und Thomas Besmer widmen sich ebenfalls den neuesten Entwicklungen bei Meta-Product-Ads. Insbesondere die Integration von Videos in Produktanzeigen wird als bedeutender Schritt angesehen, um die Interaktivität und Attraktivität von Anzeigen zu erhöhen. Es wird diskutiert, wie diese Neuerung die Performance von Werbekampagnen verbessern kann und welche Best Practices sich bereits abzeichnen.
Talking-Head-Videos: Trends und Einsatzmöglichkeiten Zum Abschluss der Episode sprechen die beiden über den Trend zu Talking-Head-Videos. Dabei geht es um die Erstellung solcher Videos mittels AI. So sprechen immer öfter Personen in Form eines Avatars direkt in die Kamera. Thomas Hutter und Thomas Besmer analysieren die Gründe für diesen Trend und geben Einblicke, wie Unternehmen und Influencer Talking-Head-Videos effektiv nutzen können, um ihre Botschaften authentisch und persönlich zu vermitteln.
Host: Thomas Besmer Gast: Thomas Hutter
Produktion: Hutter Consult AG
Transkript anzeigen
00:00:10: Hallo und herzlich willkommen zur Digital Marketing Upgrade, präsentiert von der
00:00:14: Hutter Consult. Mein Name ist Thomas Bessmer. Und ja, Es ist
00:00:17: schon wieder Monatsende. Ich habe das Gefühl, ich sage das jede Woche.
00:00:21: Die Zeit läuft und läuft. Die Sommerferien oder der Sommerurlaub,
00:00:26: je nach Breitengraden nennt man das unterschiedlich, steht vor der
00:00:29: Tür. Und auch mein Gast geht schon bald in den Urlaub.
00:00:33: Deshalb noch kurz vor seinem Urlaub die
00:00:37: gewohnte Folge der Manfred-Talk, wo wir
00:00:40: gemeinsam über spannende Themen sprechen. Hallo und herzlich
00:00:44: willkommen, Thomas Hutter. Hallo, Thomas, und herzlich
00:00:47: willkommen, liebe Zuhörer. Der Monat
00:00:51: läuft, es ist unheimlich schnell die Zeit. Du hast es angetönt,
00:00:55: Ferien stehen an, viele Erbesenheiten, sowohl auf
00:00:58: Dienstleisterseite wie auch auf Kundenseite. Aber im
00:01:02: Moment habe ich das Gefühl, die Zeit rennt und entsprechend auch die
00:01:06: vielen Themen, die im Moment aneinander vorbeirauschen.
00:01:10: Definitiv. Wenn es Themen geht, das sind die Themen
00:01:13: des heutigen Monthly Talks. Einerseits sprechen wir über TikTok-AI-Avatare,
00:01:19: dann über Paypal als Werbenetzwerk. Die haben das ja auch
00:01:23: kürzlich verkündet, dass sie nun auch Werbeschaltungen entgegennehmen,
00:01:27: dann Meta-Product-Ads mit Videos und zum Schluss noch
00:01:31: über Talking-Head-Videos mit AI. Das sind die
00:01:34: heutigen Themen des Monthly Talks. Ich würde sagen, starten
00:01:38: wir direkt mit dem ersten Thema, und zwar TikToks
00:01:42: AI-Avatare. Was sind TikToks AI-Avatare?
00:01:46: Eigentlich sogenannte Stock-Avatare. Man kennt das aus
00:01:49: anderen Plattformen wie Synthese oder auch HN und vielen
00:01:53: weiteren, da kommen wir später noch darauf zurück, hat TikTok
00:01:57: selbst jetzt Avatare in einer Stock-Bibliothek, die Creator und
00:02:01: Unternehmer einsetzen können, Videos zu
00:02:04: machen. Die Videos können auf zweierlei Varianten erstellt
00:02:08: werden. Einerseits Text-to-Speech, also man gibt dann Text
00:02:11: ein und der Avatar spricht diesen Text. Oder man macht
00:02:15: einen Voice-Over, das heisst man macht ein Video
00:02:19: mit seiner Stimme und legt dann noch ein Avatar darüber. Das
00:02:23: Spannende ist, man kann dann eigentlich mit einem Video Übersetzungen in
00:02:27: mehr als zehn Sprachen machen. Das heisst man kann auch mehrere Sprachen
00:02:30: bedienen und es erkennt die gesprochene
00:02:34: Sprache und kann den Avatar entsprechend synchronisieren.
00:02:39: Thomas, als du die News gelesen hast, was ging dir da
00:02:42: so direkt durch den Kopf?
00:02:46: Verschiedene Dinge. Grundsätzlich meine ich die Funktionen, die
00:02:51: angekündigt wurden in dieser TikTok-Symphony-Suite.
00:02:55: Die klingen ganz, ganz spannend. Und ich meine gerade
00:02:59: das Thema Avatare, die für einen sprechen,
00:03:04: das in Verbindung mit Textvorgaben oder
00:03:07: auch in mehreren Sprachen die Ausgabe möglich. Ist natürlich
00:03:11: für ganz ganz viele spannend, die nicht die Möglichkeit haben effektiven
00:03:14: Menschen vor die Kamera zu stellen Und das ist
00:03:18: natürlich schon spannend, wenn man da nicht den Zwischenschritt über
00:03:22: ein Drittool, das ist vorher angetönt mit Synthese
00:03:26: oder mit HMG oder was auch immer,
00:03:30: wenn man diesen Schritt auslassen kann. Also sicherlich
00:03:33: nochmals eine ganz andere Möglichkeit von Produktionsworkflow.
00:03:37: Auf der anderen Seite auch wieder hier ein Zeichen mehr
00:03:41: zu investieren. Unternehmen wie H&N und Co.
00:03:45: In Lösungen und dann kommt, ich sage jetzt mal, die
00:03:48: grosse Plattform und bietet das plötzlich selbst auf den
00:03:52: Plattformen, was wiederum im Markt
00:03:57: unheimlich viele Veränderungen bringt. Gleichzeitig
00:04:00: stellt man aber auch wieder die Frage, wie stark man sich nachher
00:04:04: an eine solche Plattform binden muss.
00:04:08: Spannender Gedankengang. Du
00:04:12: hast recht, in HN oder Synthesia sind
00:04:16: die Platzhirschen in diesem Bereich.
00:04:21: Es gibt noch viele weitere solche Tools. Jetzt kommt eine Plattform
00:04:25: in Form von TikTok, die das dann out of the
00:04:29: box anbietet. Die Schwester von TikTok,
00:04:32: das Schneideprogramm CapCut, hat auch schon solche
00:04:36: Avatare, wo man seine Kleider
00:04:40: abfotografieren kann oder die Produktshots von den Kleidern nehmen kann
00:04:43: und die an Avataren anziehen kann, die sich entsprechend
00:04:47: bewegen. Es geht auch in die Richtung,
00:04:51: dass man alles in einer App hat, jetzt CapCut, oder
00:04:54: mit den stimmenbasierten Avataren
00:04:58: in TikTok? Ja. Die Funktionalitäten,
00:05:02: die ineinander reinfliessen bei diesen beiden Tools,
00:05:06: beziehungsweise beim Netzwerk und bei CapCut,
00:05:11: ist natürlich auch anzunehmen, dass das in Kürze dann wahrscheinlich in CapCut zur
00:05:15: Verfügung steht. Aktuell ist das Ganze ja
00:05:18: noch in Beta bei TikTok, beziehungsweise als Advertiser
00:05:22: kann man dieser Beta beitreten.
00:05:26: Was natürlich spannend ist, diese Stock-Avatare, Das
00:05:30: sind nicht einfach irgendwie synthetische Personen, sondern
00:05:33: professionelle Schauspieler mit verschiedenen Hintergründen und
00:05:37: Nationalitäten, die verwendet werden können und schon
00:05:41: lizenziert sind. Was wahrscheinlich nochmal seine andere
00:05:44: Qualität reinbringt, als jetzt beispielsweise bei diesen synthetischen
00:05:48: avataren wie wir sie von synthese oder eben auch
00:05:52: h&k wenn man dann in richtung
00:05:55: custom avatar geht wo die angepasst werden können an die
00:05:59: entsprechenden personen aus dem unternehmen dann sind wir natürlich
00:06:02: irgendwo da wie wenn ich bei bei h&m kassam
00:06:06: avatar erstelle und das wird dann richtig spannend,
00:06:10: weil in dem Bereich drin sind natürlich die Arbeitsschritte
00:06:16: bei HHN mit verschiedenen Formaten hoch, quer
00:06:19: etc. Auch jeweils mit Ausgabeprozessionsminuten
00:06:23: verbunden, was dann wiederum Credits bedeutet und das
00:06:27: ist dann im Endeffekt dann irgendwo auch relativ kostspielig.
00:06:33: Jetzt fragt man sich, warum TikTok solche Dinge macht.
00:06:38: Sie haben eine Videoplattform im CapCut, oder es gibt
00:06:42: viele andere Anbieter, wo man Videos produzieren und auf TikTok
00:06:46: hochladen kann. Da ist eher die
00:06:49: Frage, ob TikTok vielleicht weitere
00:06:53: Nutzerinnen und Nutzer, insbesondere Unternehmen, auf die Plattform
00:06:57: bringen möchte. Solche Möglichkeiten
00:07:01: vereinfachen die Werbeschaltungen massiv.
00:07:04: Gerade für ein kleines Unternehmen, das vielleicht auch wenig Ressourcen
00:07:08: hat, ist das eine Möglichkeit, wie man zu etwas hinkommt.
00:07:12: Allerdings wissen wir ja, dass diese automatisierten Tools
00:07:16: in der Vergangenheit
00:07:19: teilweise aber auch zu Fehlüberlegungen etc. Geführt
00:07:23: haben. Von dem her ist natürlich die Frage, wie weit wird das schnell
00:07:26: angenommen. Was ich hier ein bisschen problematisch
00:07:30: sehe auf der professionellen Seite,
00:07:34: mein TikTok sagt TikTok First Videos, also die
00:07:38: im entsprechenden Stil daherkommen. Wir wissen ja mittlerweile
00:07:42: auch, dass viele Formate, die bei TikTok funktionieren,
00:07:45: beispielsweise auch bei Instagram, beziehungsweise über die
00:07:49: Reels, über die Story-Ausspielungen entsprechend funktionieren
00:07:54: und hier ist natürlich dann die Frage, habe ich dann unter Umständen wieder
00:07:57: isolierte Produktionsprozesse, also
00:08:01: Produziere ich zum Beispiel für Instagram,
00:08:05: für Meta, für von mir aus
00:08:08: gesehen YouTube oder Google Platzierungen dann an einem
00:08:12: Ort und für TikTok hier zum Beispiel an
00:08:16: einem anderen Ort oder nutze ich dann vielleicht tatsächlich wieder ein
00:08:19: Tool wie Agen oder Synthese oder wie sie alle
00:08:23: heissen, entsprechende Dinge dann eigentlich plattformneutral
00:08:26: herstellen zu können. Also da ist für mich dann auch noch ein bisschen ein
00:08:30: Fragezeichen. Einerseits möchte
00:08:33: TikTok, wie jede andere Plattform, dass der Content
00:08:37: möglichst unique ist auf der Plattform. Andererseits, du hast
00:08:41: es schon angesprochen, die Produktionsprozesse in Unternehmen,
00:08:45: wo man sagt, man produziert eher für TikTok und kann dies dann
00:08:48: zweitverwerten in Reels, in YouTube Shorts und
00:08:52: anderen Hochformat-Platzierungen. Also was
00:08:56: ich zusätzlich sehr interessant gefunden
00:08:59: habe, sind mehrere Tools, die TikTok hier vorgestellt hat
00:09:03: mit dieser Suite, mit dem Creative Studio, also dem
00:09:07: Video Generator für TikTok relevante Inhalte, dann der
00:09:11: Assistant der Kampagnenoptimierung und kreative Inspiration
00:09:15: liefern soll, die Integration für die
00:09:18: Videogenerierung in die TikTok Ads Manager
00:09:22: Funktionalität und über diese
00:09:25: Avatare haben wir ja gerade gesprochen aber diese AI-Dubbing-Funktion,
00:09:30: die finde ich ganz ganz spannend, weil auch da, wenn ich jetzt zum Beispiel
00:09:34: nicht mit Video gearbeitet habe, aber auch mit AI
00:09:38: Text zu Speech machen wollte, muss ich ja
00:09:42: dafür eigentlich dann auch wieder ein Tool nutzen. Ich habe jetzt zum Beispiel
00:09:45: hier eher 11 Labs genutzt, aber diese AI Dubbing
00:09:49: Funktion, die automatisch übersetzt und synchronisiert
00:09:55: in mehrere Sprachen, also man spricht hier beim Start von 10 Sprachen
00:09:58: und Deutsch und Französisch, Spanisch, also was man hier so im
00:10:02: europäischen Umfeld benötigt, ist selbstverständlich neben
00:10:06: Englisch mit dabei und auch das finde ich natürlich
00:10:09: ein spannender Move. Definitiv, das heisst ja man macht
00:10:13: ein Werbemittel in einer Sprache und kann dies dann über die
00:10:17: AI-Dubbing-Funktion, auch eben über die Suite von
00:10:20: TikTok, dann automatisch in weitere 10 oder
00:10:24: dann sicherlich später noch mehrere Sprachen übersetzen
00:10:27: lassen. Die Stimme wird ja dann entsprechend geklont, also es ist dann nicht
00:10:31: jedes Mal eine neue Stimme, sondern die eigene Stimme,
00:10:35: die das Video gesprochen hat, die entsprechend geklont wird,
00:10:39: so noch schneller mehrere Werbemittel zu erstellen. Und
00:10:43: schlussendlich, wenn ich mehrere Länder, mehrere Märkte
00:10:46: bediene, auch ein höheres Werbebudget investiere.
00:10:51: Das geht dann einher. Sicherlich aber auch
00:10:54: spannend, es wird ja gleich wieder transkribiert, was dann
00:10:58: auch wiederum erlaubt, automatisiert Texte zu erstellen.
00:11:02: Also ein ganz spannender Move. Definitiv. Allgemein
00:11:06: hat TikTok mit der Creative Suite
00:11:09: einige spannende Neuerungen
00:11:13: veröffentlicht bzw. Bekanntgegeben, dass das veröffentlicht wird.
00:11:16: Momentan noch in der Beta. Es gibt aktuell noch keinen
00:11:20: Termin, wann das breit ausgerollt wird. Man kann
00:11:23: aber davon ausgehen, weil es für TikTok auch betriebswirtschaftlich
00:11:28: relevant ist, dass das doch nach dem Sommer passieren
00:11:31: wird. Ich finde auch spannend die erweiterte
00:11:35: Partnerschaft mit Adobe, die eingegangen wurde.
00:11:39: Die Musikbibliothek von TikTok, die ist immens,
00:11:44: wird in Adobe Express integriert, also für die Content-Herstellung.
00:11:49: Auch das ist ein spannender Move. Definitiv.
00:11:54: Das würde ja dann wieder dafür sprechen, dass man in einem
00:11:57: Drehtool den Prozess von Unternehmen für
00:12:01: die Videoproduktion abbilden kann, so trotzdem
00:12:05: rechtskonform und im Sinne von TikTok auch auf
00:12:09: TikTok Inhalte zu veröffentlichen.
00:12:14: Da ein sehr spannender Move für mich, die AI-Avatare,
00:12:18: die spannendsten News aus diesem Universum aktuell,
00:12:22: Wobei die AI-Dubbing-Funktion natürlich auch sehr spannend ist.
00:12:26: Eine weitere News, die ich extrem spannend gefunden habe, insbesondere
00:12:30: auch wegen den ganzen Tracking-Einschränkungen,
00:12:33: DSGVO, Third-Party-Cookies, die
00:12:37: irgendwann nicht mehr funktionieren sollten. Das wurde immer verschoben. Jetzt ist es
00:12:41: aktuell 2025. Die Branche sucht nach Alternativen, wie
00:12:45: sie trotzdem noch tracken kann, wie sie Zielgruppen bilden
00:12:48: kann. Jetzt kommt ein Unternehmen, das in einem
00:12:52: ganz anderen Bereich angegliedert ist. Das sagt, wir werden
00:12:55: ein Werbenetzwerk. Das ist PayPal. PayPal
00:12:59: hat angekündigt, dass sie auch Werbung
00:13:02: schalten werden bzw. Dass sie ihre Kaufbasis oder die
00:13:06: Daten der Käufer nutzen werden,
00:13:10: Targetings zielgerichtet erstellen zu können. Paypal
00:13:13: hat weltweit rund 400 Millionen
00:13:17: Nutzerinnen und Nutzer. Aktuell wird es für Werbung
00:13:21: innerhalb von PayPal benötigt, wird aber auch angedacht sein,
00:13:24: beziehungsweise es ist angedacht, dass es auch ausserhalb von PayPal, das heisst
00:13:28: auf Drittwebsites, dass man dann eigentlich über das PayPal-Netzwerk
00:13:33: Targetings macht und Werbung ausliefert. Und Sie schreiben
00:13:36: sogar in Ihrer Mitteilung auch im TV, dass Sie da versuchen,
00:13:40: TV-Werbung weiter zu personalisieren.
00:13:44: Grundsätzlich oder für mich einer der spannendsten Moves
00:13:48: in den letzten Monaten von einem Technologiekonzern?
00:13:52: Ja, also sicherlich spannend. Die Datenmenge, die
00:13:56: PayPal besitzt aufgrund der vielen Transaktionen, ist natürlich hochspannend
00:14:00: für ganz viele Target-Dings. Die Idee ist
00:14:04: allerdings nicht ganz neu und
00:14:07: wir kennen ja auch Google Pay,
00:14:13: wo dann Dinge ineinander fliessen. Bei Samsung Pay betrifft
00:14:17: allerdings nur wieder Android und Samsung Geräte. Soll
00:14:20: das im Hintergrund auch in den AGBs mit drin sein?
00:14:25: Aber eben halt diese Bereitstellung auf Drittwebsites dann
00:14:29: und nicht nur als Targeting Daten, finde ich natürlich schon
00:14:32: spannend, weil das wird ja dann auch für anbieter
00:14:36: von von websites der einkommensmöglichkeit
00:14:39: wiederum darstellen beziehungsweise der trag situation und die
00:14:43: ist dann sicherlich auch hochspannend für den einen oder anderen Anbieter,
00:14:48: weil bei den Google-Programmen
00:14:51: oder bei anderen Kommerzialisierungsmöglichkeiten wissen
00:14:55: wir, ist ja nicht immer alles so spannend.
00:15:00: PayPal hat ja wirklich einige Sandaten. Also jede Kaufabwicklung
00:15:05: ist ja nicht nur, wer ist der Käufer und wer ist der Verkäufer,
00:15:08: sondern auch, welches Produkt wurde gekauft. Teilweise mit
00:15:12: Produktbeschreibungen, die man bei PayPal hochladen kann.
00:15:16: Man kann ja bei PayPal, wenn man einen Business- oder Commerce-Account
00:15:20: hat, eigene Produkte darüber verkaufen, ähnlich wie
00:15:24: bei Digistore oder bei anderen Anbietern, wo ich meine
00:15:27: digitalen Produkte verkaufen kann. Da haben die schon einige
00:15:31: Sondaten für spannende Targetings. Die andere
00:15:35: Überlegung, die ich mir gemacht habe, ist,
00:15:39: möchte ich das als Verkäufer, wenn ich einen Online-Shop
00:15:42: habe, dass ich über den Zahlungsanbieter Paypal, damit die
00:15:46: wissen, wer bei mir Sportbekleidung
00:15:50: gekauft hat. Können Sie Werbung für eine Sportuhr
00:15:54: von einem anderen Verkäufer diesen Nutzerinnen und Nutzern
00:15:57: einblenden? Ja, wobei ich glaube, diese
00:16:01: Fragestellung ist mittlerweile obsolet.
00:16:05: Wenn ich als Nutzer in der Google-Suche
00:16:09: nach entsprechenden Produkten suche, dann kriege ich ja nachher die
00:16:13: Werbung da auch entsprechend von anderen ausgespielt. Genau das
00:16:16: Gleiche, wenn ich auf der Meta-Plattform eine Werbeanzeige
00:16:20: von mir aus gesehen, IBC-Klick, bekomme ich von
00:16:24: entsprechenden anderen Anbietern, wie Bucherer oder
00:16:27: Rolex oder weiss der Teufel was, auch entsprechend wieder Uhrendinge
00:16:32: vorgeschlagen. Ich glaube, Damit muss man sich als Händler schon
00:16:36: länger geschlagen geben. Genau. Bei
00:16:39: mir ist eher die Überlegung Die Händler bezahlen ja
00:16:43: auch Paypal für die Transaktionen. Die geben ihnen Geld,
00:16:47: damit Paypal die Bezahlungsabwicklung macht.
00:16:51: Und hinten nimmt Paypal die Daten und sagt, sie hätten dafür
00:16:55: bezahlt, dass sie das alles machen können. Sie nehmen die Daten und dafür schalten sie
00:16:59: Werbung. Das ist eher der Gedanke, der sich
00:17:02: von Google, Meta und anderen Modellen unterscheidet.
00:17:06: Ja, wobei auch da wieder Ich
00:17:10: meine, Daten werden generell mitvermarktet. Was unterscheidet sich von Google und Meta und anderen Modellen?
00:17:11: Daten werden generell mitvermarktet.
00:17:15: Andere Datenquellen oder andere Dienste
00:17:19: generieren auch entsprechende Daten, die man
00:17:23: dafür bezahlt, sie zu nutzen. Wenn ich jetzt denke,
00:17:27: Facebook pro Abo oder Instagram pro Abo
00:17:30: bzw. Verifiziertes Abo oder wie das Ganze
00:17:34: heißt, auch da bezahle ich ja eigentlich für eine
00:17:38: Funktionalität, gebe aber trotzdem daneben meine Daten
00:17:41: weiterhin preis. Das sehe ich nicht so problematisch.
00:17:46: Spannend finde ich bei PayPal, PayPal selbst ist ja sehr
00:17:50: stark unter Druck. Einerseits die Marschen, die einbrechen im
00:17:54: ganzen Finanzgeschäft, dann die Aktie, die sehr volatil
00:17:58: ist. Wobei seit Anfang des Jahres hat sie rund etwa 3,29%
00:18:03: zugenommen. Aber gerade in dieser Woche
00:18:06: hat ein Marktanalyst die Ziele wieder bereinigt von PayPal,
00:18:10: was auch auf die Aktien Einfluss hat. Und es
00:18:14: gibt in Europa noch eine Initiative, und zwar
00:18:17: die European Payment Initiative. Das ist ein
00:18:21: Verbund von diversen Banken, vorerst momentan aus
00:18:25: Deutschland, die ein neues Zahlungssystem auf den Markt
00:18:28: bringen wollen. Gemäss Informationen wird das am 2. Juli
00:18:32: gelauncht, Also nächste Woche.
00:18:37: Ähnlich wie bei uns in der Schweiz, Twint, wo auch ein Zahlungsanbieter
00:18:41: eine Union von verschiedenen Banken ist. Nur jetzt
00:18:45: nicht für ein Land, sondern für mehrere
00:18:49: Länder. Da hat Paypal enorm Angst.
00:18:54: An was verdient Paypal? Das sind die Transaktionsgebühren. Wenn ein
00:18:57: neuer Zahlensanbieter kommt und dieser günstiger anbietet,
00:19:01: sind die auch entsprechend im Vorteil? Der Markt hat
00:19:05: sich extrem verändert in den letzten Jahren, wo
00:19:08: du am Anfang z.B. Primär über die
00:19:12: Kreditkarte bezahlt hast, dann Paypal
00:19:16: als Geldsenden- und Geldempfangendienst auch noch
00:19:20: mitgemischt hat. Paypal war ja nicht alleine nur Kreditkartenabrechnung
00:19:24: in dem Sinn, sondern auch dieses Senden und
00:19:28: Empfangen war ein ganz großes Thema damit, was
00:19:32: ja beispielsweise in der Schweiz mit Twint auch eine sehr
00:19:35: häufige Nutzung davon ist. Dann die ganzen Payment
00:19:39: Anbieter in den Mobile Geräten drin, also sei das
00:19:43: mit Apple Pay, sei das mit Samsung
00:19:46: Pay oder dann mit Google Pay, wo der
00:19:50: Markt auch aufgemischt haben wird, auf vielen Webseiten auch entsprechend
00:19:54: bei den Checkouts diese Zahlungsmöglichkeiten findest.
00:19:59: Ich würde jetzt mal sagen, einer der ersten gewesen, nun
00:20:02: halt einer von vielen und das ist häufig natürlich dann das
00:20:06: Problem, dass du halt vielleicht Erwartungen nicht mehr erfüllen
00:20:10: kannst, wenn du nicht extrem innovativ bist und
00:20:13: entsprechend Begleitdienstleistungen anbietest. Wenn man
00:20:16: das bei den Kreditkarten- bzw. Zahlungsanbietern
00:20:21: selber betrachtet, also jetzt beispielsweise von der
00:20:24: Bankenkreditkarte hin zu
00:20:28: entsprechend spezialisierten Kreditkartenfirmen
00:20:31: über die virtuellen Möglichkeiten, wie sie auch z.B.
00:20:35: Revolut als bankenunabhängiges
00:20:40: Vermittler anbietet, mit virtuellen Kreditkarten,
00:20:43: dann dienen die Möglichkeiten noch an Funktionalitäten. Da
00:20:47: war natürlich Paypal gerade in den letzten Jahren eher
00:20:51: ein Innovationsfauna. Ja, das stimmt.
00:20:56: Von daher sehr spannend, wie sich Paypal entwickeln wird. Wenn wir
00:21:00: noch in die Glaskugel schauen,
00:21:04: denkst du, dass PayPal es schafft, ein Werbenetzwerk aufzubauen?
00:21:08: Oder wird es eher die Basis schaffen,
00:21:12: dass es an ein Werbenetzwerk die Daten liefert?
00:21:18: Ich halte beides für möglich.
00:21:21: Der Austausch aus targeting Daten wird vielleicht eher
00:21:25: wieder eine Problematik sein in Richtung datenschutzbedenken der
00:21:29: Nutzer. Von dem her
00:21:32: unter Umständen dann schwieriger zu kommunizieren, also wenn sie ein
00:21:36: eigenes Werbenetzwerk haben, aber ich sag
00:21:40: mal in der Größe Unternehmen so etwas aufzuziehen ist grundsätzlich
00:21:43: möglich. Die Technologien sind ja von dem her
00:21:48: über den Markt überall ähnlich und das lässt sich ja
00:21:51: recht gut kopieren. Haben wir ja auch gesehen bei den ersten Würften bei
00:21:55: TikTok da haben die, die mit Facebook gearbeitet
00:21:59: haben, eigentlich viele Dinge wiedererkannt. Von dem her ist vieles
00:22:02: kopierbar. Problematik dürfte wahrscheinlich dann eher
00:22:06: sein, wie schnell ist das im Markt akzeptiert,
00:22:10: weil ich brauche dann irgendwo auch Publisher,
00:22:14: die diese Ads entsprechend ausspielen und da
00:22:18: sind wir wahrscheinlich dann eher im Bereich Display-Werbecharakter,
00:22:24: Was vielleicht ein bisschen schwieriger ist, da Breite
00:22:27: aufzubauen. Ja, also wird
00:22:31: sich zeigen. Sehr
00:22:34: schön. Wir werden sehen, wie sich Paypal
00:22:38: als Werbenetzwerk entwickelt. Ein bereits sehr
00:22:42: ausgeklügeltes Werbenetzwerk, das in den meisten
00:22:45: Fällen Vorreiter ist und im Bereich Werbung immer wieder kopiert
00:22:49: wird, ob von TikTok, von X oder von anderen
00:22:53: Plattformen ist. Meta hat auch da wieder eine
00:22:56: Neuerung herausgegeben, und zwar die sog. Product Ads, die bis
00:23:00: anhin mit statischen Bildern
00:23:04: verfügbar waren. Man kann im Produktkatalog
00:23:08: Bilder mitgeben, die man als Werbemittel integrieren kann. Wenn es
00:23:12: mehrere Bilder sind, kann man eine Slideshow daraus machen. Jetzt kann
00:23:16: man auch neben Bilder Videos mitgeben, das heisst man kann
00:23:19: sogenannte Kataloganzeigen mit Videos machen,
00:23:24: was ja ein Wunsch ist, den wir schon vor drei Jahren auf die
00:23:28: Wunschliste an Meta gesetzt haben.
00:23:31: Der Wunsch ist nicht ganz neu und ich
00:23:35: glaube da wurden viele Wünsche erhöht,
00:23:39: weil immer mehr Unternehmen nutzen natürlich auch
00:23:42: Videos für die Produkte-Darstellung. Gerade wenn
00:23:46: wir da vielleicht den Schwenk nochmals zurück machen zu
00:23:49: TikTok. Auch da habe ich ja bei den Video Tools die
00:23:53: Möglichkeit ab Produkte, Bilder, entsprechende
00:23:57: Videos, Glideshows mit Übergängen etc.
00:24:00: Automatisiert zu erstellen. Entsprechend wenn ich
00:24:04: das sagen kann, wäre es natürlich für Facebook doof, wenn
00:24:08: sie nicht nachziehen und die Möglichkeit in einem Feed
00:24:11: entsprechende Videoassets
00:24:16: anzunehmen, ist natürlich hochhochspannend.
00:24:19: Insbesondere, wir nutzen sie ja nicht nur für Produkt-Ads,
00:24:23: sondern man kann sie ja für viele unterschiedliche Themen benutzen,
00:24:27: beispielsweise Content Snippets, wo man dann, ich sage jetzt mal,
00:24:30: Blog-Beiträge oder Rezepte oder was auch immer
00:24:34: dynamisch ausliefert, wo man jetzt nicht nur mit
00:24:37: Bildern arbeiten kann, sondern auch mit Videos.
00:24:41: Auch im Tourismusbereich mit Ausflugszielen, wo bis anhin immer mit
00:24:45: statischen Bildern gearbeitet wurde, kann jetzt mit Videos
00:24:49: gearbeitet werden. Also da eben nicht nur für E-Commerce
00:24:53: ein Riesenvorteil, sondern eigentlich für alle Unternehmen,
00:24:57: die einen gewissen Grundstock an Inhalten haben.
00:25:01: Genau, die irgendwo mit replizierbaren Inhalten
00:25:04: arbeiten müssen, also beziehungsweise relativ viele Produkte haben
00:25:08: auch der ganze Immobilienbereich ist natürlich von so etwas betroffen.
00:25:13: Auch Immobilien-Listings können ja über den Katalog
00:25:16: angezeigt werden oder auf die ganze Reisebranche,
00:25:20: wo Videos natürlich nochmals ganz andere Möglichkeiten der Emotionsweckung
00:25:24: mitbringen. Also von dem her mit ein bisschen Fantasie
00:25:27: unheimlich spannende Möglichkeiten, die sich so zusätzlich ergeben.
00:25:31: Ja, definitiv. Und was ja auch noch neu ist,
00:25:35: ist eine automatische Videoerstellung aus bestehenden Produktbildern.
00:25:39: Also nicht wie bis anhin, dass da mit mehreren Bildern eine
00:25:42: Slideshow erstellt wird, sondern wenn man ein Produkt-Packshot
00:25:46: hat oder ein Produktbild hat, dass kann man ein Video
00:25:50: daraus machen, das im Hintergrund animiert
00:25:54: ist. Das Produkt fliegt
00:25:57: automatisch ins Bild oder raus, was dann komplett von
00:26:01: der AI von Meta gemacht wird, auch getestet wird, was
00:26:05: funktioniert am besten. Also auch das eine weitere spannende
00:26:08: Möglichkeit, wenn man eben dann keine Videos zur Verfügung hat im Produktkatalog,
00:26:12: dass man auch mit den statischen Bildern trotzdem Videomaterial
00:26:16: hat. Und Gerade mit
00:26:19: den intelligenten Ausspielungsmöglichkeiten, wir kennen das in
00:26:23: der Vergangenheit auch von den Apps
00:26:27: im Zusammenhang mit Karussell bzw.
00:26:31: Mit den Collection-Apps, die ja eigentlich den gleichen Charakter
00:26:35: auf Mobile Geräten haben, aber eine mobile optimierte Darstellung. Auch
00:26:39: da merkt sich ja der Algorithmus beim Betrachter ist jetzt, dass eher
00:26:42: die Person, die ein Bild betrachtet oder
00:26:46: betrachtet sie dann häufig Videos beziehungsweise wie
00:26:50: schnell ist auch die Verbindung, wenn ich jetzt irgendwo halt an einem
00:26:53: schlecht erschlossenen Gebiet bin mit meinem Smartphone,
00:26:57: dass vielleicht in dem Moment eher wieder Bilder ausgespielt
00:27:01: werden. Wenn ich aber im WLAN verbunden bin oder
00:27:04: irgendwo 4G, 5G zur Verfügung habe, dann auch automatisch
00:27:08: wieder Videos ausgespielt werden. Ist natürlich auch in
00:27:12: Richtung Performance wahrscheinlich ein guter Hebel.
00:27:15: Definitiv. Also da sehr gespannt auf die Funktion. Ist ja jetzt schon freigeschaltet,
00:27:19: beziehungsweise in einzelnen Accounts wird jetzt nah für
00:27:23: nah ausgerollt. Sehr gespannt auch eben
00:27:27: für die kreativen Umsetzungen, die gemacht werden. Auch hier siehst du natürlich
00:27:31: wiederum die Entwicklungen, wo die generative KI mitspielt.
00:27:36: Hier Möglichkeiten, Videos zu generieren, dass
00:27:40: man ein Leasting erweitern könnte ein Video. Das wäre
00:27:43: im Prinzip schon lange notwendig gewesen, das haben wir zu Beginn schon gesagt,
00:27:48: aber die Möglichkeit, eben Video zu produzieren, wenn
00:27:52: du vor drei Jahren gesagt hättest, ja die Allgemeinheit kann
00:27:55: aus ein paar Bildern ein Video generieren, dann hätte man wahrscheinlich
00:27:59: eher gesagt, ja ist ein bisschen utopisch oder nur mit viel Aufwand.
00:28:03: Und diese Möglichkeiten, die rücken jetzt natürlich in die Nähe. Und
00:28:07: wenn die Plattform selber hier wiederum die Möglichkeiten gibt,
00:28:11: entsprechende Produkte, Videos automatisiert zu erstellen,
00:28:16: dann kann das natürlich ein ganz ganz spannender Effekt sein.
00:28:20: Entsprechende Funktionalitäten gibt es in CapCut
00:28:23: ebenfalls und ich
00:28:27: meine bei HN gibt es die Funktionalität auch
00:28:31: das Inhalte einer Webseite, also zum Beispiel jetzt in dem Fall eine
00:28:34: Shopify- oder Amazon-Sellerseite,
00:28:39: entsprechend automatisiert, Ads generiert, wo dann die KI
00:28:42: auch Produkte-Texte entsprechend rausnimmt und das ins Video
00:28:46: verarbeitet. Das sind erweiterte Möglichkeiten, wäre aber
00:28:50: auf dem manuellen Weg für ganz viele früher gar nicht möglich gewesen.
00:28:55: Ja, eben auch da die Möglichkeiten für Werbetreibenden.
00:29:00: Der Wissenstand, den man als Werbetreibenden braucht, sinkt immer
00:29:04: mehr, trotzdem noch erfolgreiche
00:29:08: oder zumindest mal Kampagnen auf den Plattformen schalten zu können. Ob sie
00:29:11: erfolgreich sind, ist die andere Frage. Aber zumindest kann man eine
00:29:15: Kampagne schalten. Man kriegt Tools
00:29:19: zur Verfügung, die einfache Dinge erlauben.
00:29:22: Selbstverständlich ist, wenn jetzt beispielsweise bei uns die
00:29:26: Kati an einem Produkt arbeitet und da ein Video dafür erstellt mit den
00:29:29: Animationen, das ist sicherlich eine ansprechendere
00:29:33: Sache und sieht wahrscheinlich im Endeffekt einfach auch
00:29:37: besser aus als diese KI generierten
00:29:40: Dinger, wo jetzt gerade bei Hedgene eher so ein bisschen
00:29:44: einen Grinsen hervorgerufen haben, als jetzt wirklich ein
00:29:48: tolles Resultat, aber man sieht natürlich in welche Richtung das
00:29:51: Ganze geht.
00:29:56: Ja, also auch da, Facebook zieht mit Wünschen
00:29:59: nach, Die Möglichkeiten werden immer besser und
00:30:03: entsprechend natürlich aber auch der Bedarf an
00:30:06: Assets eher grösser. Das
00:30:10: wird spannend. Ich denke, da wird man sicherlich bald
00:30:13: sehr viele Beispiele sehen, wo diese neue Funktionalität
00:30:17: eingesetzt wird. Was man
00:30:21: heute schon machen kann, sind die sogenannten Talking-Head-Videos.
00:30:24: Da gibt es eine Vielzahl von Tools. Du hast in
00:30:28: deinem Freitagspost, den du jeden Freitag
00:30:33: auf LinkedIn veröffentlicht, dieses Mal sechs
00:30:36: solche Talking-Head-Tools unter die Lupe genommen. Was
00:30:40: ist der Freitag-Post? Jeden Freitag
00:30:43: postet Thomas Hutter einen
00:30:47: umfangreicheren Post mit Karussell oder teilweise auch
00:30:50: mit Video zu einem Thema rund AI und
00:30:54: deshalb auch Freitag mit AI geschrieben. Das
00:30:57: Logo überzeugt euch selbst von den künstlerischen
00:31:01: Qualitäten, hat auch schon für Aufsehen
00:31:06: gesorgt, aber noch viel mehr für Aufsehen sorgen die Inhalte.
00:31:10: Dieses Mal hast du eben sechs Talking-Head-KI-Tools
00:31:15: unter die Lupe genommen und unter uns gesagt,
00:31:19: welches dieser sechs war für dich das
00:31:23: mit dem grössten Wow-Effekt? Ja,
00:31:26: also eigentlich ist schon He-Gen, was die
00:31:30: qualität anbelangt. Die anderen haben
00:31:34: auch tolle möglichkeiten etc. Und teilweise auch wieder
00:31:37: ergänzende funktionen aber so hey Jenny ist für mich
00:31:41: insgesamt eigentlich die rundeste sache. Ich finde
00:31:45: diese Talking Heads Video sowieso genial.
00:31:49: Also ich meine ich persönlich stehe jetzt nicht so gerne
00:31:52: vor der Kamera, beziehungsweise musste noch häufig mal einen Text wiederholen
00:31:56: oder wieder rausschneiden.
00:32:00: Und diese, ich sage jetzt mal Text-to-Speech mit
00:32:04: der eigenen Stimme und dann das Ganze
00:32:08: einigermassen authentisch generiert. Man sieht ja jetzt
00:32:11: auch langsam in diesen Beispielen, wie Emotionen mit reinkommen
00:32:15: können. Ich finde das schon ganz, ganz spannend.
00:32:19: Und wenn man das dann wiederum bedenkt, die Zeit der Sparnis,
00:32:23: die man dadurch hat, ich mache das noch häufig für Vorträge,
00:32:26: irgendwie eine Begrüßung Sequenz mit
00:32:30: Hey-Chang generiert. Das ist in der Regel relativ schnell gemacht
00:32:34: oder wesentlich schneller, als wenn ich es aufnehmen müsste und dann nochmal
00:32:37: schneiden. Und die Fremdsprachen, die
00:32:41: tönen sowieso besser, wenn es die Kai macht, als wenn ich es selber schneide.
00:32:48: Genau, also Heidchen, da sicherlich ein sehr spannendes
00:32:51: Tool. Was HeyGen ja auch hat gegenüber anderen Tools, bzw.
00:32:55: Das kannst du mir jetzt sagen, ob das die anderen Tools auch haben, ist, dass
00:32:59: man da mit Parametern arbeiten kann. Das heisst, man
00:33:03: kann den Text, den man seinem Avatar gibt, für die Talking
00:33:07: Heads, kann man anhand von Parametern
00:33:10: personalisieren. Beispielsweise, dass er dann sagt, Hallo Thomas, oder
00:33:14: wenn jemand anderes das E-Mail öffnet, hallo Nils, was auch
00:33:17: immer. Ja, beziehungsweise funktioniert es nicht wirklich
00:33:21: über Parameter, beziehungsweise doch im Endeffekt doch wieder Parameter,
00:33:25: aber ich habe so eine Möglichkeit, dass ich zum Beispiel
00:33:29: aus einem CRM-System E-Mail-Adressen, Vornamen,
00:33:33: Nachnamen, irgendwelche individuelle Dinge
00:33:37: hochlade und im video mit entsprechenden
00:33:40: marken dynamisch generieren kann und das kann natürlich dann
00:33:44: je nach link über einen über einen entsprechenden Parameter
00:33:48: aufgerufen werden. Finde ich eine spannende Option.
00:33:52: Was ich aber wesentlich spannender finde mit diesen entsprechenden
00:33:56: Avataren und mit entsprechenden Datenübermittlungen,
00:34:00: Ich kann Streaming-Videos entsprechend
00:34:04: machen. Das heißt beispielsweise ich habe ein Chatbot
00:34:08: für ein Unternehmen, der
00:34:12: anstelle von rein nur geschriebenen Text
00:34:16: Dinge ausgibt, kann das auch direkt on the fly
00:34:19: gesprochen werden über die entsprechende API. Das ist
00:34:23: dann auch sehr spannend in gewissen Bereichen, wenn man dann
00:34:27: eine gewisse noch zusätzliche Authentizität in so einen Chat
00:34:31: rüberbringen kann als jetzt rein nur Text.
00:34:35: Gibt es andere Tools, die das auch so in ähnlicher
00:34:39: Form anbieten können? Ja, es gibt ganz,
00:34:43: ganz viele Tools. Ich habe ja da Sexsmith vorgestellt, wenn
00:34:46: man ein bisschen recherchiert, via Google oder
00:34:50: entsprechende AI-Plattformen, es sind glaube ich mittlerweile etwa
00:34:54: 20, 25. Ich
00:34:58: kann da nicht wirklich, also Hey Jenny ist jetzt eins, da habe ich
00:35:01: wirklich Erfahrungen damit gemacht und sehe die Funktionalitäten. Ich
00:35:05: habe nicht alle bis jetzt angeschaut, da fehlt die Zeit dafür.
00:35:09: Aber es gibt natürlich dann da sehr sehr umfangreiche Tools auch
00:35:12: in einem eher hochprofessionellen
00:35:16: Bereich, wo es darum geht tausende von Videos zu
00:35:20: generieren, wo Individualisierung
00:35:24: hoch mit drin steht. Das kann natürlich dann auch preislich
00:35:27: entsprechend sehr sehr unterschiedlich ausfallen, weil das ganze wird
00:35:31: natürlich über das Volumen dann auch wieder irgendwo rabattiert.
00:35:37: Je nachdem was man machen will geht es von Gratistools,
00:35:41: die irgendwie 30 Sekunden etwas kostenlos generieren
00:35:45: mit einer Einheitsstimme aus einem Bild
00:35:49: heraus generiert, bis dann eher
00:35:52: High-End Lösungen, wo auch tatsächlich jemand mehrere
00:35:56: Videosequenzen aufnehmen muss, den Avatar
00:36:00: entsprechend Gesten und Gesichtsausdrücke
00:36:03: anzulernen. Also Je nachdem, wo die Anforderungen liegen,
00:36:07: hat es für alles irgendwelche Tools. Das geht tatsächlich schon sehr,
00:36:11: sehr billig. Bei welchem
00:36:17: Tool denkst du, haben die Menschen am längsten, zu umzuerkennen, dass es
00:36:21: ein AI-Talking-Head-Tool ist?
00:36:25: Ich glaube tatsächlich im Moment bei HeGen bzw. Bei
00:36:28: denen, wo ich es ausprobiert habe, ist HeGen. Ich
00:36:32: habe extrem den Unterschied gemerkt. Ich habe
00:36:36: beispielsweise bei mir mit suboptimalem
00:36:40: Licht mit dem Handy das ganze gefilmt für
00:36:44: das Lernen der AI und
00:36:48: habe beim Bekannten, wo man auch ein Experiment gemacht hat, das
00:36:51: eigentlich eher unter Studio Voraussetzung gemacht mit
00:36:55: entsprechend Green Screen im Hintergrund beziehungsweise
00:37:00: mit Ansteckmikrofon einfach auf die professionellere
00:37:04: Art aufgenommen. Man sieht da Qualitätsunterschiede,
00:37:07: die sind enorm. Und jetzt beispielsweise bei seinem Video
00:37:11: braucht es also schon drei, vier Hingucker, dass man
00:37:16: merkt, dass das künstlich erzeugt ist.
00:37:20: Wo siehst du die Einsatzzwecke von solchen
00:37:24: Videos? Also gerade im Bereich
00:37:27: Schulung, Information, könnte ich mir so etwas
00:37:31: ganz, ganz gut vorstellen, beispielsweise auch innerhalb
00:37:34: von Websites, die halt Dinge dann einfach erzählen.
00:37:41: Generell im Learning-Bereich drin, wo es darum geht,
00:37:45: Dinge zu erklären als
00:37:48: Alternativmöglichkeit. Ich könnte mir auch vorstellen, dass sowas
00:37:52: auf LinkedIn oder in gewissen repetitiven
00:37:56: Formaten problemlos eingesetzt werden könnte,
00:38:00: entsprechend einfach Zeit und Kosten zu sparen. Ich
00:38:04: glaube, Die Frage ist eher, wie gut Kennzeichnen man
00:38:07: es als KI generiert.
00:38:11: Oder betitelt man das auch so, dass die Akzeptanz von Beginnern
00:38:15: entsprechend da ist.
00:38:19: Wie siehst du den Einsatz im Bereich von Werbung?
00:38:23: Werden Talking-Head-Videos mal einen grösseren oder
00:38:27: automatisch generierte oder AI-generierte Talking-Heads einen
00:38:30: Einfluss haben auf die Werbung?
00:38:34: Ich könnte mir das gut vorstellen, wenn man beispielsweise auf
00:38:38: TikTok relativ viel konsumiert und da die
00:38:42: verschiedenen AI-Videos, wo auch AI gesprochen
00:38:46: sind, wo teilweise wirklich auch Talking Heads drauf zu sehen
00:38:49: sind. Wenn man da sieht, die Videos kriegen
00:38:53: ordentliche Reichweite und und und Likes etc.
00:38:57: Also ich könnte mir schon vorstellen, dass die Akzeptanz mit der zunehmenden
00:39:01: Nutzung grundsätzlich steigen wird.
00:39:04: Sehr spannend. Thomas, das sind schon unsere Themen.
00:39:09: Auch da wieder vielen Dank für die vielen Einsichten,
00:39:14: für das Teilen deiner Meinungen. Man sieht,
00:39:18: du hast dich entsprechend vorbereitet bzw. Kennst
00:39:22: auch die Thematiken. Für mich auch wieder ein paar
00:39:26: Aussagen, wo ich sagen muss, das stimmt, das habe ich noch nie gedacht.
00:39:29: Von daher hoffe ich auch, dass es unseren Zuhörerinnen und
00:39:33: Zuhörern das eine oder andere Mal so ergangen ist,
00:39:37: wie es mir in dieser Episode gegangen ist. Thomas, vielen herzlichen
00:39:40: Dank. Danke dir, Thomas. Und allen, die
00:39:44: zuhören, hoffentlich schöne Sommerferien bei besserem Wetter als
00:39:47: die letzten Wochen. Geniesst es.
00:39:52: Ansonsten gibt es auch da wieder AI-Apps,
00:39:56: mit denen man das regnerische Wetter
00:40:01: in sonniges Wetter umwandeln kann. Ist natürlich nicht für das Gemüt,
00:40:04: aber zumindest für Instagram und andere Social-Media-Plattformen.
00:40:08: Wobei bei Nachbarn dann auch nicht so glaubhaft.
00:40:14: Genau. Vielen herzlichen Dank, dass ihr zugehört habt. Hat
00:40:18: euch die Episode gefallen, dann bewertet uns auf iTunes und
00:40:22: Spotify und folgt uns natürlich im Podcast Player deines
00:40:25: Vertrauens. Feedback gerne via Facebook, Instagram,
00:40:29: LinkedIn oder an dmu.hutter-consult.com.
00:40:34: Vielen Dank fürs Zuhören und ich freue mich, wenn du bereits am Montag bei
00:40:37: den Social Advertising News wieder mit dabei bist. Vielen Dank
00:40:41: fürs Zuhören und Tschüss.
00:40:45: Untertitel
00:40:53: der Amara.org-Community
Neuer Kommentar