Social Ads Testing – aber bitte richtig! - mit Lars Budde #123
Shownotes
In der aktuellen Episode des Digital Marketing Upgrade Podcasts spricht Thomas Besmer mit Lars Bude über das richtige Testing von Social Ads. Lars, seit 2017 als Social Ads-Experte tätig, teilt seine Erfahrungen und Best Practices.
Die Herausforderungen des Social Ads Testings Datenschutzregelungen wie Apple Tracking Transparency und DSGVO erschweren aussagekräftige Tests. Oft fehlt es an einer klaren Teststruktur, was zu wenig belastbaren Ergebnissen führt.
Der Wandel: Fokus auf Creatives Früher war Social Advertising sehr technisch, heute bestimmen Creatives über 70 % des Kampagnenerfolgs. Dennoch bleiben strategische Tests auf Produktebene und Wertversprechen essenziell.
Das Testing Framework Lars nutzt ein vierstufiges Modell:
- Angebot testen
- Wertversprechen validieren
- Anzeigenkonzept entwickeln
- Anzeigenelemente optimieren
Effiziente Testmethoden Bei kleinen Budgets verzichtet Lars auf das AB-Test-Feature von Meta und nutzt stattdessen strukturierte Anzeigengruppen. Bei großen Accounts kommen Bulk-Tests zum Einsatz.
Messung & Dokumentation Haupt-KPIs im E-Commerce sind Kaufkosten und ROI. Ergänzend helfen Klickrate und Warenkorbabbruchrate zur Analyse. Zudem nutzt Lars einen Creative Hub, um Tests systematisch zu dokumentieren.
Drei zentrale Learnings
- Gründliche Vorbereitung: Markt, Produkt und Zielgruppe genau verstehen.
- Priorisierung: Die wichtigsten Tests zuerst durchführen.
- Regeln brechen: Unkonventionelle Ansätze testen, um Innovation zu fördern.
Host: Thomas Besmer Gast: Lars Budde Webseite: Lars Budde Creative Kit: Mini-Kurs
Produktion: Hutter Consult AG
Transkript anzeigen
00:00:10: Hallo und herzlich willkommen zu Digital Marketing Upgrade, präsentiert von der
00:00:14: Hutter Consult. Mein Name ist Thomas Besmer. In der heutigen
00:00:17: Episode geht es wieder Social Ads.
00:00:21: Da habe ich auch einen Gast, der wirklich weiss,
00:00:25: wo wir definitiv darüber sprechen. Ihr habt es schon
00:00:29: gelesen, Social Ads Testing, aber bitte richtig.
00:00:33: In der letzten Episode sprach ich darüber, wie man modulare
00:00:37: Creatives aufbereiten kann. Am Schluss gingen wir
00:00:40: auf die Testszenarien ein, die ich teilweise etwas kritisiert
00:00:45: habe. Jetzt habe ich jemanden dabei, der weiss, wie das
00:00:48: Ganze geht. Trotzdem sprechen
00:00:51: viele Menschen immer vom Testen, Testen, Testen,
00:00:55: insbesondere im Social Advertising-Bereich. Wir haben immer weniger
00:00:59: Daten. Die Apple Tracking Transparency mit dem iOS
00:01:02: 14.5-Update, die DSGVO, dann das
00:01:06: Sensitive Update von Meta, das kürzlich im
00:01:10: Bereich Healthcare herausgekommen ist, aber auch schon Politik betroffen
00:01:14: ist. Das heisst, Wir müssen immer mehr auf den Algorithmus vertrauen,
00:01:17: weil wir auch weniger Daten zur Verfügung haben.
00:01:21: Trotzdem möchte man ja verstehen, was und wie gut läuft und
00:01:25: was eben nicht. Dann testet man halt.
00:01:29: Da wird oftmals wild drauf hergetestet.
00:01:32: Deshalb spreche ich heute mit meinem Gast über Social-Ad-Testing.
00:01:37: Aber bitte richtig. Ich kenne ihn schon länger.
00:01:41: Zum Thema ist er mir auf LinkedIn aufgefallen,
00:01:45: da er immer sehr analytisch an das Thema herangegangen
00:01:48: ist. Ich fragte ihn, ob wir zusammen über das Thema
00:01:52: reden können. Er selbst ist seit 2017 im
00:01:56: Bereich Social Ads selbstständig unterwegs, wo er andere
00:01:59: Marken unterstützt und mit seinem Team auch im Bereich
00:02:03: E-Commerce Projekte unterstützt, im Bereich Social Advertising.
00:02:07: Er war fünf Jahre lang im Bereich Online-Marketing
00:02:11: beim Magazin T3N, das man aus der Branche kennt.
00:02:15: Er ist Familienvater und gehört zu den Urgesteinen
00:02:20: im Bereich Social Ads, insbesondere Meta-Ads, obwohl
00:02:23: er nicht gealtert ist. Auch wenn schon sehr lange
00:02:27: dabei sind, sind seine Ideen immer noch frisch
00:02:31: und auf dem neuesten Stand, teilweise oder
00:02:34: oftmals auch als Vordenker, eben v.a. Auch im Bereich
00:02:38: Social-Ads-Testing mit dabei. Er ist Speaker auf Konferenzen,
00:02:42: oftmals auch als Moderator unterwegs, sehr souverän.
00:02:46: Hallo und herzlich willkommen, Lars Bude. Vielen Dank
00:02:50: für dieses Intro, Thomas. Ich danke dir für deine Zeit und
00:02:53: dass wir gemeinsam über Social-Ads-Testing sprechen können. Ein
00:02:57: Thema, das dir am Herzen liegt, aber auch
00:03:01: mir oder uns am Herzen liegt. Wenn wir in Accounts
00:03:05: reinschauen, merken wir, wie schlecht das eigentlich
00:03:08: getestet wird oder dass oft vermeintliche Tests gemacht
00:03:12: werden, die gar keine Tests sind oder zumindest
00:03:16: keine Aussagekraft zulassen. Darüber sprechen wir heute
00:03:19: gemeinsam. Ja. Ich glaube, das ist auch ein essentielles
00:03:23: Thema. Am Ende müssen wir in unserer Rolle,
00:03:27: ob wir für unsere Kunden irgendwie Mehrwert liefern, im Sinne
00:03:31: von mehr Ergebnissen. Dafür müssen wir herausfinden, was funktioniert jetzt besser,
00:03:35: was schlechter. Ich glaube, wenn wir zurückschauen, du hast gesagt, ich mache das
00:03:39: hier seit 2017, dann gucken wir zurück auf eine Zeit, in
00:03:42: der wir ganz viel, wir nennen das intern strukturelle Tests gemacht haben,
00:03:46: so Tests über Zielgruppen, Geburtsoptionen und dergleichen.
00:03:49: All diese Einstellungen, die man damals ohne Ende verwendet
00:03:53: hat und die mittlerweile zumindest auch in
00:03:56: unserem Kundenportfolio eine geringere Rolle spielen. Und
00:04:00: stattdessen testen wir jetzt einfach viel mehr im Bereich der
00:04:04: Creatives, der Anzeigen, Videos und Bilder. Das heisst,
00:04:08: das haben wir hoffentlich in dieser Form immer so gemacht, nur damals
00:04:12: manchmal ein bisschen einfacher und schneller umsetzbar, weil man eine Anzeigengruppe
00:04:15: dupliziert, ein paar Einstellungen verändert und wieder hochgeladen
00:04:19: hat. Wir können gerne darüber sprechen. Sehr gut. Genau. Bevor wir aber ins
00:04:23: Thema einsteigen, meine zwei Einstiegsfragen
00:04:28: an meinen Gast, beziehungsweise an dich. Und zwar, auf welche
00:04:32: Tools kannst du in deinem Arbeitsalltag nicht verzichten?
00:04:35: Mhm. Das ist eine relativ langweilige Antwort,
00:04:39: finde ich. Aber es geht ja Tools, auf die ich nicht
00:04:42: verzichten kann. Das müssen die essentiellen sein. Und ich habe
00:04:46: vor vielen jahren angefangen sehr strukturiert so meine
00:04:49: tage und aufgaben zu planen und mittlerweile nutzen wir da im team asana das
00:04:53: heißt das gehört in jedem fall zu diesen tools gleiches gilt für
00:04:57: den austausch intern wie extern Das irgendwo zu zentralisieren
00:05:01: ist extrem hilfreich. Slack ist da unser Tool der Wahl.
00:05:05: Und dann, heutzutage auch nicht mehr wegzudenken, gehe ich super gerne
00:05:09: in Sparring. Nicht so sehr, mir wirklich Arbeit abzunehmen, sondern
00:05:12: eher, in den Austausch zu gehen mit ChatchiUT, wenn ich irgendwie eine neue
00:05:16: Branche erschließen will, wenn ich ein bisschen besser verstehen will,
00:05:20: wie Kundengruppen gegebenenfalls ticken, wenn ich in die Analyse gehen will. Ich
00:05:24: würde sagen, also, auf diese drei Tools, auch bezogen auf die
00:05:28: Zeit, die ich da drin verbringe, kann ich vermutlich nicht verzichten. Asana, Slack,
00:05:31: Chachubuti oder vergleichbare Tools. Perfekt.
00:05:35: Dann gehörst du sehr wahrscheinlich auch zu denen, die kürzlich, als Asana down
00:05:39: war, eigentlich Feierabend machen konnten, weil sie nicht mehr wussten, was sie arbeiten
00:05:42: sollen. Ich hab keinen Feierabend
00:05:46: gemacht. Ich hatte noch im Kopf, was zu tun ist. Da sind wir dann
00:05:50: auch wirklich ein bisschen gefangen in
00:05:54: diesem Problemfeld der Abhängigkeiten, die
00:05:57: aus diesen Tools hervorgehen. Also würde Asahana jetzt einfach
00:06:01: verloren gehen, wir wären auf jeden Fall aufgeworfen.
00:06:05: Oh, Definitiv. Wenn du auf einem Magazin-Cover erscheinen
00:06:09: könntest, welches Magazin würdest du dir aussuchen?
00:06:13: Ich hatte die Chance, mir im Vorfeld ein bisschen Gedanken zu dieser Frage zu machen.
00:06:17: Ich habe sie im Vorfeld schon gelesen und es
00:06:21: fällt mir sehr schwer, sie zu beantworten. Ich finde,
00:06:24: Sichtbarkeit ist für mich immer nur ein Mittel,
00:06:29: ein Weg zum Ziel. Ziel jetzt in diesem Fall Unternehmenswachstum,
00:06:34: Kundengewinnung oder Vergleichbares. Das heißt,
00:06:37: Sichtbarkeit per se interessiert mich nicht. Ich wäre sehr
00:06:41: ungern prominenter, würde in der bunten auf dem Cover
00:06:44: stehen und damit mein Geld verdienen. Ich hab mich aber gefragt, was gibt es
00:06:48: denn für Magazin-ähnliche Konstrukte, in denen ich gerne eine
00:06:51: möglichst große Rolle spielen will? Und da habe ich
00:06:56: im Vorfeld eine Idee gehabt, die sicherlich bricht mit
00:07:00: anderen Antworten in der Vergangenheit. Aber unsere dreijährige
00:07:03: Tochter hat neuerdings so ein Freundebuch. Das füllt sie
00:07:07: fleissig. Wenn ich in diesem Freundebuch eine
00:07:10: grosse Rolle spielen würde, vielleicht draufs Körper komme, dann
00:07:14: würde ich gewinnen. Das wäre mein Ziel. Sehr schöne
00:07:18: Antwort. Hatte ich wirklich noch nie. Bis jetzt waren es immer Magazine.
00:07:24: Aber die Ausführungen sind voll nachvollziehbar.
00:07:29: Das mit der Sichtbarkeit ist ein Thema in unserem
00:07:32: Bereich. Aber von daher eine super Antwort. Danke,
00:07:36: Lars. Sehr gerne. Gut, dann starten wir
00:07:40: direkt. Social-Ads-Testing, aber richtig.
00:07:44: Da fängt es oft schon an. Kunden kommen und sagen,
00:07:48: sie haben bisher mit einer Agentur zusammengearbeitet,
00:07:51: möchten wechseln, weil sie unzufrieden sind
00:07:55: oder merken, dass die Agentur ansteht oder nicht mehr weiterkommt.
00:07:59: Dann startet die Zusammenarbeit. Und
00:08:03: da ist ja schon beim Start der Zusammenarbeit, das heisst,
00:08:07: aus unserer Sicht, die Erfahrung, dass das Thema Testen
00:08:11: thematisiert werden muss. In welcher Phase
00:08:14: der Zusammenarbeit mit einer Kundin
00:08:18: implementiert ihr das Testing von Social Ads?
00:08:22: Eigentlich gleich zu Beginn. Ich habe,
00:08:26: wenn ich auf ein Werbekonto schaue, immer eine grobe Vorstellung davon, was Best
00:08:30: Practice sein sollte. Gerade auch, weil wir einen sehr starken Fokus
00:08:33: auf Kunden im E-Commerce haben und natürlich dann die
00:08:37: Parallelen größer zwischen Kunde A und Kunde B sind, als wenn wir
00:08:41: jetzt parallel noch Recruiting machen würden oder Markenbekanntheit
00:08:45: oder was auch immer. Auch dieses Kundenportfolio in sich ist
00:08:48: etwas homogener. Das heißt also, ich gehe immer mit einer konkreten
00:08:52: Idee zu so einem Best-Practice-Setup eigentlich in ein Werbekonto
00:08:56: und dann prüfe ich natürlich als erstes, inwiefern diese Best-Practices erfüllt
00:08:59: sind. Das ist etwas, was man mit einem relativ geringen Aufwand
00:09:03: durchspielen und dann optimieren kann. Und dann stellt sich eigentlich immer die Frage, wie
00:09:07: kann man dieses Konto jetzt weiterentwickeln. Denn sobald ein Kunde zu uns kommt,
00:09:11: will er ja Veränderungen. Ansonsten würde er diesen Schritt
00:09:14: nicht gehen. Und Veränderung erfordert immer
00:09:20: eine klare Idee,
00:09:24: welche Veränderung im Werbekonto nachher zu einer
00:09:28: Veränderung bei der Zielgruppe führt. Weil am Ende müssen wir ja
00:09:31: etwas ausspielen, in welcher Form auch immer, dass jemand dort draußen sieht
00:09:35: und dann sein Verhalten ändert. Das heißt, also jetzt gewillt ist, etwas zu kaufen
00:09:39: oder sich irgendwo anzumelden oder was auch immer zu tun.
00:09:43: Und ich glaube, wenn man herausfinden will, wie kann man
00:09:46: positive Veränderungen in den Ergebnissen eines Werbkontos realisieren,
00:09:50: muss man sich am Ende immer fragen, was schafft denn eigentlich Veränderung bei dem
00:09:54: Kunden da draußen. Und das wird man
00:09:57: unmöglich aus dem Bauch heraus ganz klar beantworten können.
00:10:02: Da gibt es in den wenigsten Fällen so valide Daten, dass man das tun
00:10:05: kann. Deswegen müssen wir so früh wie möglich ins Testing gehen. Die Frage
00:10:09: ist nur, was wir testen.
00:10:13: Wenn ihr mit der Zusammenarbeit startet, habt ihr gewisse Tests,
00:10:17: wo ihr sagt, die machen wir bei allen Kunden, zu
00:10:20: sehen, wie das bei ihnen abläuft
00:10:24: oder funktioniert? Oder geht ihr
00:10:27: individuell bei jedem Kunden ans
00:10:30: Testen ran und erarbeitet dafür Hypothesen?
00:10:34: Es gibt ein paar Themen, die wir vermutlich immer
00:10:38: in Frage stellen. Aber wir müssen sagen, es gibt sehr
00:10:42: unterschiedliche Kundengruppen und darauf basierend herangehensweisen.
00:10:46: Wenn zu uns ein Kunde kommt, der ein paar hunderttausend Euro
00:10:50: Mediabudget verwaltet im Monat, das heißt also irgendwie
00:10:53: relevant Daten generiert, damit natürlich auch sehr viel Spielraum
00:10:57: für Testings lässt, dann
00:11:01: können wir basierend auf den vergangenen Daten auch sehr viele
00:11:05: strukturelle Themen schnell in Frage stellen und über Tests validieren.
00:11:09: Wenn wir stattdessen aber mit einem Kunden starten, der 20.000 Euro Media
00:11:13: Budget im Monat verwaltet, dann müssen wir die Liste
00:11:16: der Tests massiv reduzieren, überhaupt ausreichend Daten
00:11:20: zu generieren. Und dann gibt es auch tatsächlich ein paar dieser,
00:11:24: ja, häufig wiederkehrenden Tests, die man vielleicht erst mal zurückstellt, weil
00:11:27: man sagt, es gibt wichtigere Dinge, die man erst einmal beantworten
00:11:31: muss, bevor man das hinterfragt. Wenn wir jetzt aber über Tests sprechen,
00:11:35: die sich häufig anbieten, zumindest, und das sage ich ganz deutlich, in
00:11:38: unserem Bereich, das mag auch in eurem Kundenportfolio noch
00:11:42: etwas anders sein, in unserem Bereich bieten sich in der
00:11:45: Regel Tests struktureller Natur an in den Bereichen
00:11:49: der Kampagnenziele. Das heißt, wir wollen eigentlich in den seltensten
00:11:53: Fällen bei kleinen Accounts irgendetwas anderes dort sehen als eine
00:11:57: klassische Umsatzkampagne. Kleine Accounts hier ganz wichtig.
00:12:01: Kleine Accounts meint in diesem Fall 10, 20, 50.000 Euro Media
00:12:04: Budget im Monat. Aber da gibt es ja trotzdem ein Unterscheidungskritikum.
00:12:09: Umsatz klassischer Natur, Advantage Plus Shopping, wäre tatsächlich
00:12:12: eine Herangehensweise, die man einmal prüfen könnte.
00:12:17: Pauschal tendieren wir mittlerweile stärker zu Adventsch plus Shopping
00:12:20: Kampagnen. Das heißt, hätten wir nicht die Möglichkeit, würden wir vermutlich diesen Weg
00:12:24: gehen. Aber wenn wir die Möglichkeit haben, wäre das ein
00:12:28: relativ früher Test. Und dann
00:12:31: ebenso wichtig und häufig zu Beginn einer Zusammenarbeit noch unklar
00:12:36: ist das Testen der relevantesten Angebote,
00:12:39: die dieses Unternehmen dort draußen im Markt zur Verfügung stellt. Das ist
00:12:43: nachher auch ein wesentlichen struktureller Test, weil es ja
00:12:47: unterschiedliche Kampagnen oder Anzeigengruppen erfordert und
00:12:50: weniger ein visueller Test, weil
00:12:54: die Unterschiede in den Werbemitteln natürlich gigantisch sind, ob ich jetzt Produkt A oder
00:12:58: Produkt B verkaufe. Aber die Frage, was ist eigentlich
00:13:02: das Angebot, auf das man vollen Fokus richtet, auf das man
00:13:06: einen Großteil des Werbebudgets ausrichtet, das man vielleicht auch in sich noch
00:13:09: optimiert. Und da diese verschiedenen
00:13:14: Herausforderer, dieser Hero Products, einmal ins Rennen zu schicken,
00:13:17: ist auch etwas, was wir sehr, sehr früh versuchen zu tun,
00:13:21: die wichtigsten Entscheidungen eigentlich vorab schon sicherzustellen.
00:13:25: Als letzte, vielleicht noch strukturelle Sache, die wir hinterfragen,
00:13:29: ist auch hier, vor allen Dingen bei kleineren Accounts, vor
00:13:33: allen Dingen bei etwas niedrigeren Warenkörben, das klassische
00:13:38: Retargeting-Setup, das wir früher standardmäßig
00:13:42: immer aufgesetzt haben. Weil unsere Erfahrung ist, Retargeting
00:13:46: durch Tracking ohnehin erschwert, funktioniert noch immer gut, wenn
00:13:50: der Wert des einzelnen Kaufs groß genug ist, die
00:13:53: höheren Kosten vorne zu refinanzieren, die höheren CPCs und alles,
00:13:57: was damit einhergeht. Aber wenn wir Warenkörbe versuchen zu
00:14:00: verkaufen, die im Mittel bei 50 Euro landen, Dann ist es manchmal
00:14:04: gar nicht so offensichtlich dass es hier noch eine dedizierte retargeting kampagne
00:14:08: braucht weil diese ganzen zielgruppen dann einfach in
00:14:12: Die restlichen anderen kampagnen zu integrieren bessere und vor allen dingen besser
00:14:16: skalierbare resultate bringt also auch Ein retargeting setup an der
00:14:20: stelle zu hinterfragen wenn es so Indikatoren gibt
00:14:23: dass die nicht Effizienz genug sind ist
00:14:27: auch ein gängiger Test zu Beginn. Ja.
00:14:31: Wenn ihr startet, beziehungsweise am Beginn einer Zusammenarbeit,
00:14:35: und du machst die Testszenarien beziehungsweise erarbeitest
00:14:39: die Konzeption mit den Testhypothesen,
00:14:45: Wie gehst du daran, so Hypothesen
00:14:49: zu erarbeiten? Habt ihr einen Katalog, oder ist das von
00:14:53: Kunde zu Kunde individuell? Wir
00:14:56: arbeiten uns an einer Struktur entlang der verschiedenen
00:15:00: Ebenen, auf denen wir Tests fahren. Das kann ich gleich noch einmal aufschlüsseln.
00:15:04: Aber ich glaube, dass was wir als erstes sicherstellen müssen zu Beginn einer Zusammenarbeit
00:15:08: ist, dass wir den Kunden, seinen Markt, sein
00:15:12: Produkt, seine Zielgruppe verstehen. Weil Logisch ist, wenn wir in
00:15:16: eine Zusammenarbeit gehen, ganz gleich, ob wir uns da vor zwei oder vier Wochen nehmen,
00:15:20: die Vorbereitung zu leisten, wir werden wahrscheinlich immer
00:15:25: weniger Informationen zur Verfügung haben, als der Kunde selbst, über seinen
00:15:28: Markt, über seine Produkte, über seine Zielgruppen. Und darauf basieren
00:15:32: ja am Ende viele der Tests im Bereich Creative.
00:15:36: Was ist die Zielgruppe, welche Bedürfnisse hat sie, wie sieht denn eigentlich
00:15:39: der Markt aus, mit welchen Argumenten wirbt der Wettbewerb, was macht
00:15:43: denn dieses Produkt im Vergleich zu anderen Produkten besonders. All das sind ja Dinge,
00:15:47: die wesentlichen Einfluss auf unsere Hypothesen haben und deswegen, ich glaube,
00:15:51: der erste wichtigste Schritt einfach mal all diese Informationen zu sammeln und in
00:15:55: strukturierter Form aufzubereiten. Und wir versuchen das zu tun,
00:15:58: indem wir Einerseits so verschiedene Tools zu Hilfe
00:16:02: nehmen von strukturierten Analysen großer Mengen an Rezensionen.
00:16:06: Wir sind ja viel im E-Commerce unterwegs, sich jetzt hunderte oder gar tausende von
00:16:10: Rezensionen herunterzuladen und auszuwerten. Natürlich nicht
00:16:13: manuell, sondern Mit keiner Unterstützung ist eine Möglichkeit.
00:16:18: Wir haben ein Tool zur Hand, das uns ermöglicht,
00:16:22: die gesamte Werbebibliothek eines Unternehmens zu
00:16:25: scrapen und nach Reichweite zu sortieren, ein Gefühl dafür zu
00:16:29: kriegen, mit welchen großen Angeboten und Messages wirbt
00:16:32: denn der Wettbewerb. Auch hier wieder muss man natürlich bedenken, viele der
00:16:36: Wettbewerbe sind ebenso Performance optimiert, das heißt, die haben wenig Video
00:16:40: View und Branding Kampagnen drin. Wenn also irgendwo Reichweite reingeht, dann bedeutet das
00:16:44: auch eigentlich immer, Das war profitable Reichweite. Dadurch kann man etwas mehr
00:16:48: ableiten, als wenn man mit grossen FMCG-Marken arbeitet. All
00:16:51: solche Tools nutzen wir, Markt, Produkt und Zielgruppe bestmöglich zu verstehen
00:16:55: und abzuleiten, was wir als Erstes testen. Es gibt
00:16:59: beim Testen, wie du das einleiten schon gesagt hast, sehr viele Dinge zum
00:17:02: Testen. Im Frühjahr 2017 war
00:17:06: ja eigentlich Meta-Advertising oder Facebook-Advertising, wie
00:17:09: es damals noch hiess, wirklich so Nerdstuff.
00:17:13: Ich erinnere mich immer gerne an das AdScamp zurück, wo du ja auch
00:17:17: Moderator bist, was da für nerdige
00:17:20: Vorträge gehalten wurden
00:17:25: über das ganze Pixel-Thema, über Zielgruppen-Hacking. Dann gab
00:17:28: es noch Facebook Analytics, wo ich ja auch noch zusätzliche
00:17:32: Informationen rausholen konnte, dann Audiences erarbeiten konnte.
00:17:36: Das gibt es heute alles nicht mehr.
00:17:41: Oder nicht mehr in dieser Form.
00:17:45: Die Ebenen haben sich verschoben. Man geht immer mehr auf Creatives.
00:17:49: Wie ich herausgehört habe, testet ihr bei Kunden
00:17:53: das Produkt selbst, zu schauen, welches Produkt
00:17:57: funktioniert wie gut. Ich erinnere mich gut an
00:18:01: einen Satz, jemand hat das mal gesagt, auch auf dem Ads-Camp. Über
00:18:05: Meta-Ads kann man jedes Produkt verkaufen. Das gebe ich
00:18:08: schlussendlich auch recht. Es ist halt mit unterschiedlichen Aufwendungen
00:18:12: verbunden. Genau. Und am Ende ist, auch hier
00:18:16: wieder, das ist mir ganz wichtig hervorzuheben, haben wir einen bestimmten
00:18:20: Kundenkreis und in der Regel ein bestimmtes Ziel, das damit zusammenhängt. Unsere
00:18:23: Kunden im E-Commerce sind in der Regel Kunden, die kein Fremdkapital
00:18:27: drin haben, sondern aus Eigenmitteln
00:18:31: wachsen und damit profitabel neue Kunden akquirieren
00:18:35: und in ihr System überführen müssen. Wenn sie dann eine gewisse Chance auf
00:18:38: Folgekäufer haben, reicht es auch in der Regel in einer Wachstumsphase,
00:18:43: wenn diese Neukunden kostendeckend eingekauft werden. Und das ist
00:18:46: dann nachher sozusagen die Zielsetzung. Nach Abzug von fixen und
00:18:50: variablen Kosten sowie Werbebudget muss da eine schwarze Null
00:18:54: mindestens stehen. Und das schafft man
00:18:57: natürlich viel einfacher, wenn das Angebot, das man im Markt
00:19:01: platziert, stark ist. Wenn das auch im Vergleich zum restlichen Markt
00:19:04: stark ist. Wenn das in irgendeiner Art und Weise etwas hat, das für es spricht.
00:19:09: Und so haben wir Kunden, die kommen zu uns und die sagen, wir haben hier
00:19:13: zehn verschiedene Produkte, wir könnten alle zehn bewerben. Und
00:19:16: relativ schnell ist die klare Ansage, es macht aber keinen Sinn, alle zehn
00:19:20: pauschal im gleichen Umfang ins Werbekonto zu überführen.
00:19:24: Vielleicht sozusagen bildet man alle irgendwie so ein bisschen in so den
00:19:27: Lower-Funnel-Ansätzen ab, wenn man tatsächlich noch Retargeting macht,
00:19:31: aber vorne in der Neukundenkommunikation auch
00:19:35: vor dem Hintergrund begrenzter Budgets wollen wir die Anzahl der Angebote
00:19:38: minimieren. Das kann bedeuten, wir minimieren einfach mal nur die Anzahl der
00:19:42: Produkte, die wir im Werbekonto bespielen. Das heißt, aus diesen zehn machen wir
00:19:46: eins, das wir in den Forderung stellen, oder zwei oder drei. Die mögen auch im
00:19:50: Jahresverlauf aufgrund von Saisonalität wechseln. Oder wir
00:19:53: nehmen einzelne dieser Produkte und versuchen, sie in Kombination
00:19:57: oder in Kombination mit anderen Dingen attraktiver erscheinen zu lassen.
00:20:01: Ob es da noch ein Goodie dazu gibt, ob es ein bestimmtes Angebot gibt,
00:20:05: das gegenüber der Zielgruppe attraktiv erscheint, also irgendeine
00:20:09: Form von Rabattierung, die nachher aber positiv auf die Marge
00:20:12: einzahlt. All solche Dinge kann man ja auch machen, das gleiche Produkt
00:20:16: attraktiver im Markt erscheinen zu lassen. Und das ist durchaus auch ein
00:20:19: wesentlicher Teil unserer Arbeit, weil ich der festen Überzeugung bin, dass in
00:20:23: einem so kompetitiven Markt wie unserem, wir
00:20:27: selten nur einen erheblichen Wettbewerbsvorteil generieren,
00:20:30: wenn wir nach einer Blaupause
00:20:34: so eine Kampagnenstruktur im Konto umsetzen, nach einer Blaupause die
00:20:38: immer gleichen Tests abbilden. Wir müssen eigentlich auch auf einer etwas
00:20:42: strategischen Ebene so eine Art Unternehmensberatung
00:20:46: mitbringen und unterstützen dabei, das was
00:20:49: verkauft wird so attraktiv wie möglich zu machen. Wir
00:20:53: versuchen also, das ideale Angebot zu identifizieren und zu optimieren.
00:20:57: Erst dann gehen wir auf die Themen ein, die sich stärker mit dem
00:21:01: Creative Selbst beschäftigen. Also es heisst von der
00:21:04: Priorisierung her weniger, dass ihr hingeht und
00:21:08: sagt, wir machen eine blaue oder grüne Variante, sehr
00:21:12: oberflächlich gesprochen. Dass ihr hingeht und sagt,
00:21:15: welches Angebot funktioniert, und dass ihr
00:21:19: dann Schritt für Schritt tiefer in die Konzeption von
00:21:23: neuen Werbemitteln geht. Ja. Wir nennen das intern
00:21:27: unser Creative Kit. Ich habe das auch an anderer Stelle schon einmal öffentlich
00:21:30: geteilt. Nachher gibt es
00:21:34: meiner Ansicht nach so ein paar Bausteine eines
00:21:38: Werbemittels, die den größten Einfluss auf Erfolg oder
00:21:41: Misserfolg haben und die vor allen Dingen auch die kontrastreichsten Tests ermöglichen. Mit
00:21:45: anderen Worten, wenn ich jetzt, dein Beispiel aufzugreifen,
00:21:49: eine Anzeige einmal mit blauen und einmal mit rotem Hintergrund erstelle, dann
00:21:52: mag das vielleicht visuell einen Unterschied machen, aber inhaltlich tut es das
00:21:56: nicht und es lässt sich auch schwer in einer sinnvollen Hypothese
00:22:00: formulieren, warum denn nun der rote statt der blaue Hintergrund
00:22:04: jetzt ernsthaft einen positiven Einfluss
00:22:07: hat. Die Hypothese könnte höchstens sein, das ist ein höherer visueller Kontrast,
00:22:11: deswegen fällt das mehr auf und so weiter und so fort. Und das sind so
00:22:15: kleinteilige Tests, die an der Stelle dann
00:22:18: auch einfach so viel Daten erfordern, damit sie einigermaßen
00:22:22: valide werden, dass wir uns zu Beginn darauf
00:22:26: konzentrieren, die größten Hebel zu testen. Ich vergleiche das eigentlich immer
00:22:29: mit, sozusagen metaphorisch, mit uns als
00:22:33: Agentur, stehend auf dem Berg, und wir schmeißen da einfach mal,
00:22:37: als Schweizer wirst du das sozusagen nachvollziehen, wir schmeißen auf dem Berg einfach mal einen
00:22:41: Stein runter. Und dann gucken wir, ausgehend von den wichtigsten Entscheidungen
00:22:44: zu Beginn, so wo kullert der ins Tal, in welche Richtung geht es als
00:22:48: erstes. Und damit wir identifizieren,
00:22:52: was sind denn die Punkte oben am Berggipfel,
00:22:56: die den größten Einfluss darauf haben, wo im Tal er landet, müssen wir
00:22:59: halt diese Dinge als erstes testen. Das ist bei uns in diesem Creative Kit, das
00:23:02: ich eben angesprochen habe. Als erstes das Angebot. Was verkaufen wir
00:23:06: dort draußen eigentlich? Denn ehrlich zu sein, ein richtig gutes Angebot kann man auch
00:23:10: mit relativ schlechten Werbemitteln profitabel verkaufen. Das geht
00:23:13: auch immer noch. Dann haben wir als nächstes wir nennen das das
00:23:17: Wertversprechen. Man kennt es aus dem Englischen als Marketing Angle, nachher
00:23:22: der Grund, der für
00:23:26: Kauf und Kaufinteresse sorgt. Was treibt eine Person eigentlich, sich mit
00:23:29: diesem Angebot zu beschäftigen? Die nächste Ebene wäre dann das Anzeigenkonzept.
00:23:33: Wie bereiten wir Angebot und Wertversprechen visuell und inhaltlich
00:23:37: auf? Konzepte sind sowas wie ein Problem-Solution-Ansatz,
00:23:41: also vom Problem zur Lösung führend, oder ein Benefit-Ansatz,
00:23:45: wo man die Vorteile des jeweiligen Produkts
00:23:49: hervorhebt. Oder ein Comparison-Ansatz, wo man zwei Produkte oder
00:23:52: Lösungen gegenüberstellt und vergleicht. Das ist sozusagen die dritte Ebene, das
00:23:56: Anzeigenkonzept. Und erst wenn diese Dinge einigermaßen
00:24:00: klar sind, Nicht klar auf alle Ewigkeit, aber sozusagen der
00:24:03: Stein an der Stelle mal ins Rollen gekommen ist. Dann gehen wir auch in die
00:24:07: Optimierung der einzelnen Elemente einer Anzeige, also der Anzeigenelemente.
00:24:11: Sowas wie die Optimierung der einzelnen Bausteine einer Videoanzeige,
00:24:15: der verschiedenen Hooks und dergleichen. Dafür wollen wir nicht
00:24:18: alle Sachen abschliessend beantwortet haben, aber die priorisieren wir am höchsten.
00:24:22: Wenn wir später über die Kampagnenstruktur des Testings sprechen, wird deutlich,
00:24:26: wie wir das tun. Insofern sind das unsere vier Ebenen, die wir
00:24:30: schrittweise validieren wollen in Bezug auf Werbemittel selbst.
00:24:34: Angebot, Wert, Versprechen, Anzeigenkonzept, Anzeigenelement.
00:24:37: Du hast es schon erwähnt, das Creative Kit. Du hast ja auch für unsere
00:24:41: Zuhörerinnen und Zuhörer was mitgebracht, und zwar
00:24:45: einen Minikurs zum Thema Creative Kit, zu eurem
00:24:48: Framework, wo man kostenlos
00:24:52: von der Theorie in die Praxis kommt, damit man selbst
00:24:55: strukturiert neue Anzeigen in Einzelteile
00:24:59: zerlegen kann, Neues zu entwickeln und zu analysieren,
00:25:03: das Ganze unter larsbude.de slash creatives.
00:25:08: Den Link findet ihr in den Shownotes oder auch bei
00:25:11: uns im Blog unter thomashutter.com. Dann geht ihr auf den
00:25:15: Blogbeitrag der jeweiligen Episode, Und
00:25:18: dort ist ebenfalls der Link noch aufgeführt.
00:25:22: Ja, vielen Dank für den Hinweis. Genau, also da führe ich das auch noch mal
00:25:26: etwas ausführlicher aus. Das könnte gegebenenfalls hilfreich sein, wenn man es
00:25:30: etwas adaptieren möchte. Aber am Ende, glaube
00:25:33: ich, ähnelt das vielen anderen Vorgehensweisen im Markt. Mich würde sehr
00:25:37: interessieren, wie ihr das intern löst und bezieht sich natürlich an der
00:25:40: Stelle stark auf das Werbemittel, weil wir uns alle, glaube ich,
00:25:44: eingestehen müssen, 2017 konnten wir noch einen richtig großen Effekt
00:25:47: realisieren, indem wir einfach im Werbekonto gearbeitet haben. Jetzt realisieren wir
00:25:51: den grössten Effekt, wenn wir am Werbekonto arbeiten.
00:25:55: Darüber nachdenken, was den Einfluss auf das Werbekonto nimmt.
00:25:59: Das sind im Wesentlichen die Creatives. Daher liegt da der Fokus
00:26:02: drauf. Genau. Meta sagt selbst, 70 % oder
00:26:06: mehr als 70 % des Kampagnenerfolgs machen
00:26:09: schlussendlich die Creatives aus. Das ist der Grund,
00:26:13: warum viele Unternehmen an den Creatives testen.
00:26:17: Ich finde euren Ansatz spannend, dass ihr erst mal mit dem
00:26:21: Angebot selbst und dann auch mit dem Wertversprechen beginnt.
00:26:25: Oftmals startet man ja mit dem Anzeigekonzept
00:26:29: bzw. Den Anzeige-Elementen. Man sagt,
00:26:35: man habe kürzliche Kunden, die haben die Fake-Podcasts, was
00:26:38: auch Daniel Levitan von AdsLab schon mehrfach
00:26:42: auf der Bühne gezeigt hat, dass das super funktioniert. Die haben solche
00:26:46: Werbemittel gemacht, aber auch andere. Sie haben
00:26:49: das gegeneinander getestet, was funktioniert. Sie haben
00:26:53: Elemente wie Trust-Symbole, also Trust-Merkmale
00:26:57: wie Rezessionen, Sternbewertungen eingeblendet
00:27:00: etc. Aber gar nicht das Angebot getestet,
00:27:04: bzw. Auch das Wertversprechen. Von daher finde ich den
00:27:08: Ansatz von euch und auch die Metapher
00:27:12: mit dem Stein ins Rollen bringen
00:27:17: perfekt aufgebaut. Deshalb will ich auch sprechen,
00:27:20: weil du hast das auf LinkedIn in ähnlicher Form
00:27:25: schon präsentiert. Deshalb bist du bei mir in Osana auf die
00:27:28: Wunschkandidatenliste gekommen. Ich
00:27:32: glaube, es gibt durchaus Szenarien, in denen das Angebotstesting
00:27:36: in den Hintergrund rückt, wenn eben das Unternehmen schon genug Historie hat,
00:27:40: genug in dieser Form auch gemacht hat. Dennoch ist es ja wichtig, eine Priorisierung
00:27:44: unabhängig von Vorerfahrungen mitzugeben und
00:27:47: da ist das eigentlich das erste was wir validieren. Nehmen wir mal an, wir
00:27:51: hätten jetzt also ein Unternehmen, das dahin noch nicht hundertprozentige Klarheit
00:27:54: hat, versuchen wir als erstes das zu machen und testen aber
00:27:58: natürlich gleichzeitig, idealerweise auch, zu den
00:28:02: Angeboten unterschiedliche Wertversprechen auf der nächsten Ebene. Also, nehmen wir
00:28:05: es mal beispielhaft und übertragen es mal so mental in das Werbekonto.
00:28:09: Fiktives Unternehmen, hat zwei verschiedene Angebote, die wir testen können.
00:28:13: Dann lassen wir natürlich diese Angebote gegeneinander laufen, haben da vielleicht
00:28:17: unterschiedliche Kampagnen zu und allokieren entsprechende Budgets,
00:28:21: aber wir können natürlich nicht zu beiden Angeboten die exakt gleichen Anzeigen
00:28:25: live nehmen, weil, ja, unterschiedliche Angebote. Also wir müssen dann
00:28:28: auch darauf eingehen, was die besonders macht und was die Gründe sind, dass man
00:28:32: die kauft und so weiter und so fort. Das heißt, wir
00:28:36: testen natürlich immer Dinge auch in gewisser Weise parallel.
00:28:40: Je validierter eine Aussage ist, desto
00:28:44: detaillierter testen wir nachher auch auf den unteren Ebenen.
00:28:48: In diesem fiktiven Beispiel hier würden wir vermutlich auf der Kampagnen-Ebene die
00:28:51: Angebote gegeneinander laufen lassen, würden aber in den einzelnen
00:28:55: Angeboten, in den einzelnen Angebotskampagnen, aber auch Anzeigengruppen
00:28:59: mit dedizierten Wertversprechen aufbereiten. Das eine Produkt hat Wertversprechen
00:29:03: ABC und das andere hat vielleicht C, aber dann D und
00:29:06: E. Und so gibt es natürlich eine gewisse, und das ist
00:29:10: mir auch ganz wichtig hervorzuheben, eine gewisse Unsicherheit
00:29:14: in den Testergebnissen, die wir zwangsweise in Kauf nehmen
00:29:18: müssen. Es ist nahezu unmöglich, so
00:29:21: früh sicherzustellen, dass wir das
00:29:25: eine Element identifizieren, das jetzt für
00:29:29: bessere oder schlechtere Ergebnisse sorgt. Dafür brauchen wir
00:29:32: extrem viel Budget, extrem viele Daten, dieses eine Element
00:29:36: auszumachen. Wir sind immer noch ganz oben auf dem
00:29:39: Berghipfel und lassen erstmal den Stein rollen. Und wenn der dann weiter unten ins Tal
00:29:43: rollt, dann gehen wir schon sehr klar vor, in welche Richtung wir navigieren wollen.
00:29:48: In einer Situation, in der das Angebot schon klar ist, kann es durchaus sein, dass
00:29:51: wir zu Beginn eher Kampagne nach Wertversprechen aufschlüsseln und auf Anzeigengruppenebene
00:29:55: in Konzepte gehen und die dann gegeneinander testen. Das hängt immer so ein
00:29:59: bisschen von den Rahmenbedingungen ab und auch der
00:30:02: Vorgeschichte dieses Accounts. Also das heisst, man hat jetzt so die
00:30:06: Tests konzipiert oder die Hypothesen erarbeitet,
00:30:10: nach Angebot, Wertversprechen,
00:30:14: dann nach Anzeigekonzept und schlussendlich die Anzeigenelemente.
00:30:17: Jetzt fängt man an zu testen. Bei Meta hat
00:30:21: man unterschiedliche Möglichkeiten, einen Test durchzuführen.
00:30:26: Einerseits gibt es das Experimentetool für AB-Tests
00:30:30: oder auch Conversion Lift oder Brand Lift Studies, aber wir nehmen
00:30:34: insbesondere AB Testing, was sehr wahrscheinlich in diesem Fall
00:30:38: zielführender ist. Es gibt aber auch die Möglichkeit,
00:30:45: man nennt das ja Adset Budget Optimization, dass
00:30:49: man mehrere Anzeigegruppen mit dem gleichen Budget
00:30:52: macht, mit unterschiedlichen Anzeigen. Man
00:30:56: lässt den Algorithmus für jede Anzeigegruppe
00:31:00: aufbrauchen, zu schauen, welches Werbemittel funktioniert am
00:31:03: besten. Du hast es auch gesagt, zwei Kampagnen
00:31:07: laufen lassen. Wie geht ihr beim Testen
00:31:10: vor oder beim Setup der Tests? Ich glaube,
00:31:15: das wesentliche Unterscheidungsmerkmal in der Vorgehensweise ist
00:31:18: von der Größe dieses Werbekontos und dem Werbebudget
00:31:22: abhängig. Je mehr Werbebudget da durchgeht und je mehr
00:31:26: Daten ich damit auch mit meinem Testbudget generiere, desto
00:31:30: Validere Testmethoden kann ich nutzen. Und Valida bedeutet eigentlich immer am oberen
00:31:33: Ende Experimente, Feature, A, B Testing und am unteren
00:31:37: Ende sozusagen alles in Form von Anzeigen in einer Anzeigengruppe
00:31:41: Meta-Regel. Sozusagen das sind ja, das ist die Skala, die man da durchlaufen
00:31:44: kann. Wenn wir ein Werbekonto haben,
00:31:48: das mal jetzt eher am unteren Ende vielleicht 20.000
00:31:52: Euro Mediabudget im Monat verwaltet. Und dann auf Wochenbasis
00:31:56: 5.000 Euro Mediabudget. Dann kriegen wir
00:32:00: ja gar nicht so viele Transaktionsdaten zustande, wenn wir
00:32:03: nicht 100 Prozent dieses Werbebudgets wirklich auftesten,
00:32:07: allokieren. Nehmen wir mal an, das ist ein Online-Shop,
00:32:11: Warenkorb, 30 Euro. Der akquiriert Neukunden,
00:32:15: profitabel, mindestens aber kostendeckend, wenn wir
00:32:19: Kundenakquisitionskosten von 30 Euro haben. Sagen wir also mal beispielhaft,
00:32:23: wir dürfen jetzt hier 30 Euro für so einen Neukunden zahlen. Wenn
00:32:26: wir jetzt wirklich signifikante Ergebnisse realisieren wollen,
00:32:30: also statistische Signifikanz herstellen wollen, brauchen wir mit
00:32:34: hoher Wahrscheinlichkeit eine Menge von Käufen,
00:32:38: sagen wir mal hunderte von Käufen. Das würde bedeuten, wir müssen diesen
00:32:41: Test über Wochen laufen lassen, wenn wir nicht 100% des Budgets adokieren.
00:32:45: 100 dieser Käufe wären 3.000 Euro, da war schon 60% des
00:32:49: Wochenbudgets mit aufgesaugt,
00:32:53: nur mit sozusagen einer Variante, die wir hier jetzt ins Rennen schicken. Zwei Varianten,
00:32:56: 6.000 Euro, drei Varianten, 9.000. Das wird alles sozusagen
00:33:00: etwas schwer und vor allen Dingen schwer kalkulierbar. Du willst ja nachher auch
00:33:04: nicht sagen, pass auf, wir haben jetzt hier was gelauncht, wir warten jetzt einfach mal
00:33:08: vier Wochen und dann gucken wir mal, was kommt. Du willst so schnell wie
00:33:12: möglich eigentlich auf Basis erster Daten lernen und das bedeutet, und deswegen
00:33:15: hebe ich es auch nochmal hervor, wir streben in diesen
00:33:19: ersten Tests nicht statistische Signifikanz an und
00:33:23: absolute Belastbarkeit, sondern wir wollen so früh wie möglich
00:33:26: eine sehr klare, möglichst belastbare Tendenz haben, der wir dann
00:33:30: folgen können, in detaillierteren Tests auch nochmal hinterfragen können. Wenn es
00:33:34: größere Werbekonten sind, sieht das anders aus. Dann nutzen wir auch das
00:33:37: A-B-Test-Feature, aber in den üblichen Accounts,
00:33:41: im Wachstum befindlich, in diesen Budgetgrößenordnungen,
00:33:45: Strukturieren wir unsere Tests häufig über Kampagnen und oder Anzeigengruppen
00:33:49: mit dedizierten Budgets. Kann man ja auf beiden Ebenen machen.
00:33:53: Und testen Varianten von zum Beispiel
00:33:57: Anzeigenkonzepten oder Ähm, Iterationen eines
00:34:00: Anzeigenkonzepts in Form von iterierten Elementen, wie zum
00:34:04: Beispiel Hooks auf der Anzeigenebene. Nehmen wir also das Beispiel deiner
00:34:07: Podcast-App, die du eben angebracht hast. Die gäbe es jetzt vielleicht mit drei,
00:34:11: vier, fünf verschiedenen Hooks. Die hätten wir in diesen drei, vier, fünf verschiedenen Hooks auf
00:34:15: der Anzeigenebene und lassen wir wirklich metafrei entscheiden. Da werden wir keine
00:34:18: absolute Klarheit hinsichtlich der Ergebnisse kriegen. Wir werden nicht in der Lage sein, das
00:34:22: auszuwerten. Meine Erfahrung sagt aber, in 80, 90 Prozent der
00:34:26: Fälle liegt Meta da richtig. Und dann testen wir aber auf der Anzeigenkonzept-Ebene,
00:34:30: der Anzeigengruppenebene, ist jetzt dieses Podcast-Ad besser als
00:34:34: die, was auch immer, UGC-Ad, die wir parallel
00:34:37: laufen lassen. Und da allokieren wir dann gezielt auch Budgets,
00:34:41: ausreichend Daten sicherzustellen. Diese drei Optionen also, die wir
00:34:45: haben, müssen wir ganz klar sagen, nutzen wir sehr ungleichmäßig.
00:34:48: Wir nutzen relativ selten das klassische AB-Test-Feature.
00:34:52: Der Nachteile sind wir uns bewusst. Wir priorisieren hier aber
00:34:56: gerade zu Beginn Geschwindigkeit in der Entscheidungsfindung
00:35:01: und perfektionieren die Datenqualität
00:35:04: erst, wenn wir ein kleines bisschen Wachstum sichergestellt haben.
00:35:08: An der Stelle natürlich immer profitables Wachstum, ansonsten können wir nicht mehr Geld
00:35:12: ausgeben. Genau. Perfekt.
00:35:16: Für mich immer noch spannend, oder für mich immer die Fragestellung, auf
00:35:21: welche Kennzahlen sollte man testen? Du bist im
00:35:24: E-Commerce. Das macht es auf der einen Seite einfacher,
00:35:29: weil man ja einen Kauf dahinter hat. Das hat man in FMCG-Bereichen
00:35:34: beispielsweise nicht. Oder auch in anderen Bereichen, wo man erst
00:35:38: mal ein Lead hat, aber nicht weiss, wie gut oder
00:35:42: schlecht dieser Lead ist. Gehen wir vom E-Commerce aus,
00:35:46: haben wir den Umsatz, den Purchase selbst, den
00:35:49: man messen kann, mit welchen Kennzahlen
00:35:53: ihr da arbeitet. Insbesondere, wenn man sagt, man teste das
00:35:57: Angebot oder das Wertversprechen. Ist das immer Purchase oder Gibt es
00:36:00: auch andere Kennzahlen, wo ihr
00:36:04: mögt, diese zu testen und auszuwerten?
00:36:08: Ich glaube, wir müssen zwei Perspektiven auf diese Frage aufmachen. Die erste
00:36:12: ist, was sind unsere primären, was sind die sekundären Kennzahlen? Primäre
00:36:15: Kennzahlen sind natürlich die von dir genannten. Das heißt, was kostet uns der
00:36:19: Kauf? Idealerweise sogar der Kauf eines Neukunden. Kann man ja auch
00:36:23: durch externe Datenquellen nochmal unterfüttern. Was resultiert dann da
00:36:26: nachher für eine Marketingeffizienz, also für ein Rohrsaus, Oder
00:36:30: gar, wenn man wieder externe Daten hinzuzieht, ähm, für
00:36:34: einen, ähm, Deckungsbeitrag. Ähm, das
00:36:38: sind die primären Kennzahlen, an denen wir uns orientieren.
00:36:41: Wir ziehen aber immer auch sekundäre Kennzahlen hinzu, wenn
00:36:45: wir Anzeigenkonzepte untereinander
00:36:48: vergleichen, oder wenn die Datenbasis dünn
00:36:52: ist. Ich geb mal ein paar Beispiele für diese Szenarien.
00:36:56: Also dieses zweite Szenario, das kommt häufig vor,
00:36:59: gerade in diesen Tests. Da hat man jetzt zwei Anzeigengruppen laufen und man hat
00:37:03: auf beiden irgendwie 25 Verkäufe, da ist immer noch eine große Varianz
00:37:07: drin. Also sozusagen in diesem Szenario von 25 Verkäufen, wenn
00:37:11: dann vielleicht auch noch der durchschnittliche Warenkorbwert unterschiedlich ist, weil der eine hat halt ein
00:37:15: bisschen größere Produkte gekauft, der andere kleinere, dann ist da immer noch sehr
00:37:18: viel Varianz drin. Da kann der Rohr sehr unterschiedlich aussehen, die
00:37:22: Kosten pro Kauf sind aber im Prinzip gleich. Und da
00:37:26: muss man einfach diesen Kontext dieser primären Kennzahlen immer berücksichtigen
00:37:30: und vielleicht auch noch mal einen Schritt nach vorne gehen und sich fragen, gibt es
00:37:33: denn den Kennzahlen zuvor Indikatoren,
00:37:36: die dagegen sprechen, dass das jetzt der Gewinner ist. Also Kosten pro
00:37:40: Warenkauf zum Beispiel, das ist immer häufig schon eine Kaufintention,
00:37:44: die auch in der Regel korreliert mit den daraus
00:37:47: resultierenden Käufen. Das heißt, da ziehen wir dann
00:37:51: sekundäre Kennzahlen teils hinzu, wenn die
00:37:54: Anzahl der Daten bei den primären Kennzahlen noch nicht ausreicht,
00:37:58: wir aber eine Entscheidung treffen müssen oder wollen. Das andere Szenario, was,
00:38:02: glaube ich, ebenso wichtig ist, ist der Vergleich von
00:38:06: unterschiedlichen Anzeigenkonzepten innerhalb einer Kampagne. Nehmen wir mal
00:38:10: an, wir haben eine Kampagne, wir haben unterschiedliche
00:38:13: Anzeigen von Statics über Videos, UGC, was auch immer, alles durcheinander, weil wir nachher, wie
00:38:17: sagt Florian Litterst, immer so eine Fußballmannschaft aufs Feld stellen wollen. Also
00:38:21: sozusagen diejenigen, die den Ball nach vorne spielen und diejenigen, die abschließen.
00:38:25: Und wenn wir da drauf schauen, dann ist es ja in der Regel so, dass
00:38:28: so klassische Statics die niedrigsten
00:38:32: Kosten pro Kauf, den höchsten ROAS und eben die besten
00:38:36: primären Kennzahlen realisieren. Sie kommen aber nicht aus
00:38:39: ohne Anzeigen, die auch Sichtbarkeit für das Produkt
00:38:43: schaffen. Das heißt Sichtbarkeit in diesem Netzwerk und damit so ein
00:38:47: bisschen diese Rolle der Awareness Treiber erfüllen.
00:38:51: Und in der Bewertung unterschiedlicher Anzeigen betrachten wir
00:38:54: deswegen eigentlich drei große Aufgaben. Das erste ist,
00:38:58: wie gut schafft diese Anzeige es Aufmerksamkeit zu
00:39:02: realisieren. In der Regel sind das Anzeigen die Video-Werbemittel
00:39:06: sind, deswegen schauen wir da sehr stark auf Hookrate und Holdrate.
00:39:10: Hookrate sind die dreisekündigen Videoaufrufe in Relation zu den Impressionen.
00:39:14: Holdrate ist bei uns das Verhältnis aus Throughplace und Impressionen,
00:39:18: 15-sekündige Videoaufrufe oder bei kürzeren
00:39:21: Videos der komplette Videoaufruf. Das
00:39:25: deutet nämlich häufig an, welche dieser Werbemittel schaffen es am
00:39:28: ehesten, erst mal Aufmerksamkeit in unserer Zielgruppe zu realisieren und dann
00:39:32: diese Aufmerksamkeit auch wie gut zu halten. Aus diesen Kennzahlen kann man auch gut
00:39:36: ablesen, wie gut matcht denn eigentlich die gewählte Hook eines Videos mit
00:39:39: der Story, die drauf folgt. Wenn es einen großen Bruch gibt, dann hat man vielleicht
00:39:43: einfach irgendwie ein Auto explodieren lassen oder Geld angezündet, aber es
00:39:47: hat nichts mit dem Produkt zu tun. Und das verschafft zwar Aufmerksamkeit, aber
00:39:51: nachher kein ernsthaftes Interesse. Das heißt, da schauen wir dann sehr stark auch
00:39:54: drauf, welche Werbemittel schaffen denn Aufmerksamkeit. Gucken ergänzend dazu
00:39:58: drauf, welche Werbemittel haben Indikatoren für
00:40:03: geschaffenes Interesse in der Zielgruppe, lässt sich sehr gut eben über diese
00:40:07: frühen Interaktionen wie ein Klick, eine Klickrate,
00:40:10: Klickpreis ausmachen. Und dann natürlich, welche Treibenkonversionen.
00:40:15: Das ist ja nachher unsere primäre Kennzahl. Und so ist es dann so,
00:40:18: dass wir in so einer Kampagne, in einer Adventsch-plus-Shopping, wildes
00:40:22: Potpourri an Anzeigen haben können, bei denen nicht diejenigen
00:40:26: das meiste Budget erhalten, die auch den höchsten ROAS aufweisen und die niedrigsten
00:40:29: CPOs, sondern stattdessen häufig eben Anzeigen im
00:40:33: Mehrbudget erhalten, die diesen Upper Funnel besser aufdenken, also die eher
00:40:36: Aufmerksamkeit treiben und Interesse und damit denen
00:40:40: zugutekommen, die hinten raus den besten OS und den niedrigsten CPU realisieren.
00:40:44: Weil unsere Erfahrung einfach ist, schalten wir die Erstgenannten ab, dann brechen auch die
00:40:47: Letztgenannten ein, weil sie einfach im Laufe der Zeit nicht mehr genug
00:40:51: Futter kriegen, dass sie abgrasen können, indem sie nur noch das Angebot vor die Nase
00:40:55: halten und sagen, kauf jetzt, kostet 50 Euro. Das heißt, es gibt
00:40:59: eine Reihe von Kennzahlen, die wir betrachten. Wir betrachten eben in der Regel diese drei
00:41:02: Ebenen. Wie gut schafft dieses Creative Aufmerksamkeit? Wie gut
00:41:06: schafft es Interesse? Wie gut schafft es Konversion? Wobei der Fokus im
00:41:10: E-Commerce logischerweise auf dem letzten Teil liegt. Also null
00:41:13: Aufmerksamkeit, null Interesse, aber skalierbare Konversion ist mein favorisiertes
00:41:17: Szenario.
00:41:21: Perfekt. Sehr stark abhängig, was
00:41:24: ihr testen wollt. Wie du gesagt hast, hängt
00:41:28: es von den drei Dimensionen ab,
00:41:33: die man da entsprechend betrachten will.
00:41:37: Eine Herausforderung, die ich immer wieder sehe und die wir intern
00:41:41: auch haben, ist das ganze Dokumentieren
00:41:45: von solchen Tests. Man macht eine Unmenge an
00:41:49: Tests, wir sehen das bei uns intern.
00:41:53: Wir haben sehr wahrscheinlich etwa 60,
00:41:56: 70 Advertising-Kunden, die aktuell laufende Kampagnen
00:42:00: haben, parallel, wo dann sehr viel getestet
00:42:04: wird. Bei jedem Kunden wird anders
00:42:07: dokumentiert. Teilweise in einem Excel, teilweise in
00:42:11: Asana, wo man einen Test dokumentiert.
00:42:15: Aber es ist nie wirklich durchsuchbar. Und vor allem auch
00:42:18: nicht, was ich anstreben möchte, kundenübergreifend
00:42:22: durchsuchbar. Das haben wir ja schon mal getestet.
00:42:27: Vielleicht funktioniert es genau gleich bei dem Kunden oder die
00:42:30: Hypothese, bei dem Kunden funktioniert es anders. Wie
00:42:34: handhabt ihr das mit der ganzen Dokumentation von Tests?
00:42:40: Ich glaube, zunächst ist wichtig zu betonen, wir waren
00:42:44: darin selber sehr schlecht. Wenn wir auf langjährige
00:42:47: Kundenbeziehungen zurückschauen, dann ist es häufig mal ein einmaliger,
00:42:51: sehr intensiver Aufwand, richtig aufzuarbeiten. Was waren denn die besten
00:42:55: Tests der letzten zwei, drei Jahre? Das ist ein riesiger Aufwand, weil die Dokumentation,
00:42:59: genauso wie du es gesagt hast, in der Vergangenheit sehr, sehr unterschiedlich war. Dadurch,
00:43:02: dass wir ja Kunden haben, die in der Regel
00:43:06: alle das gleiche Ziel haben, also Abverkauf, die
00:43:10: gleichzeitig alle ähnliche Kampagnenarten,
00:43:13: Kampagnenziele und Events priorisieren, haben wir
00:43:17: mittlerweile geschafft, und das ist erst ganz frisch im Einsatz bei uns,
00:43:21: ein System zu bauen, das eine Datenbank füttert mit all diesen
00:43:25: Testdaten, die dann nochmal ergänzt wird, die Einschätzung des
00:43:28: zuständigen Kollegen oder der Kollegin, die eben diesen Test eingebucht hat und
00:43:32: auch bewertet. Denn was wir ja nachher brauchen, und da können wir mal vom
00:43:36: Idealszenario ausgehen, ist eigentlich, eigentlich wäre das
00:43:39: Idealszenario, wir haben alle Informationen,
00:43:43: die in Vorbereitung des Tests relevant waren,
00:43:47: was ist meine Hypothese, gepaart mit allen Rahmenbedingungen des Tests, was sind die
00:43:51: Dinge, die wir testen, was sind die Dinge, die diesen Test besonders machen,
00:43:55: und so weiter und so fort, mit den Ergebnissen des Tests
00:43:58: kombiniert an einer Stelle. Durchsuchbar. Das ist das Idealszenario. Das Problem ist
00:44:02: nur, das muss irgendwer pflegen. Das ist extrem aufwendig.
00:44:06: Und es lässt sich nur automatisieren, wenn man es auf verschiedene
00:44:10: Szenarien runterbrecht. Bei uns ist es glücklicherweise ein primäres
00:44:13: Szenario, auf das wir es runterbrechen konnten. Und was wir jetzt haben, wir
00:44:17: nennen es unser Creative Hub. Das ist einfach eine
00:44:20: Kombination von zwei Datenquellen, die dann durch
00:44:25: manuelle Zuarbeit unterfüttert wird. Das heißt, wenn wir
00:44:29: Tests angehen, und da geht es vor allen Dingen Tests von Creatives,
00:44:33: dann bereiten wir diese Tests immer in Asana vor, auf entsprechenden Boards,
00:44:36: die dann die Produktion von Idee bis zur Veröffentlichung
00:44:40: abbilden. Mhm. Unser Ansatz ist jetzt,
00:44:43: diese Tickets rund jedes einzelne dieser großen
00:44:47: Testideen muss gefüttert sein mit einem bestimmten Set an
00:44:51: Informationen. Zum Beispiel, was ist das Produkt, was das Angebot, was das Wertversprechen und so
00:44:54: weiter. Das sind Informationen, die man sich ja eigentlich beantworten muss, bevor man
00:44:58: irgendwie an die Konzeption eines solchen Creatives geht. Das heißt, irgendwie braucht man sie, Wir
00:45:01: haben sie jetzt einfach strukturiert dort abgelegt. Und dann, wenn das irgendwann
00:45:05: eingebucht wird und das fertige Creative angeliefert wurde,
00:45:09: dann fließen diese Daten automatisch in eine
00:45:13: Datenbank. Wir nutzen dafür Airtable. Das ist verbunden über
00:45:18: Automatismus. Zieht sich also diese Daten aus Asana und lässt sie dort
00:45:21: einfließen. Und sobald dann der zuständige
00:45:26: Performance-Marketing-Manager oder die Managerin in der
00:45:29: Lage ist, eine Aussage dazu zu treffen, ob das ein erfolgreicher oder weniger
00:45:33: erfolgreicher Test war, Aufmerksamkeit, Interesse, Konversion, gut oder
00:45:36: schlecht war, dann drückt der oder diejenige
00:45:40: auf ein Button. Dadurch werden dann automatisch die Daten aus dem Werbekonto
00:45:44: importiert, die für uns relevant sind, die eben genannten Kennzahlen.
00:45:48: Und die Person muss dann selbst nur noch in drei Punkten eine
00:45:52: Bewertung vornehmen. Wie gut ist Aufmerksamkeit, wie gut ist Interesse, wie gut ist Konversion,
00:45:56: Ampelsystem. Plus, war das jetzt ein Winner oder ein Loser, der
00:45:59: Test? Also haben wir mit dem Test nachher eine Gewinneranzeige identifiziert.
00:46:04: Das passiert natürlich für alle Varianten dieses Tests, aber dennoch vom Aufwand her
00:46:07: überschaubar, weil das sind auch Fragen, die man sicher beantworten
00:46:11: muss. Und kann optional noch eine abschließende Bewertung oder Notiz
00:46:15: ergänzen. Und so füllen wir dann auch hier wieder automatisch das in diese
00:46:18: Datenbank, die dann durchsuchbar ist und zukünftig
00:46:22: vielleicht auch stärker noch automatisierbar. Mein Traumszenario ist
00:46:25: halt irgendwann diese verschiedenen Datenbanken der verschiedenen Kunden,
00:46:29: die wir nicht nur diesen Kunden zur Verfügung stellen können, damit sie sie auch zukünftig
00:46:33: verwenden, sondern wir haben in diesen Datenbanken eben
00:46:36: auch die Werbemittel abgelegt, die sich dann automatisiert durchsuchen lassen, transkribieren
00:46:40: lassen und in diesem Sinne sozusagen analysieren lassen. Weil wir
00:46:44: wissen ja alle, Es ist mittlerweile eine Kleinigkeit,
00:46:48: ein Video einer KI zur Verfügung zu stellen, sie transkribieren, strukturieren
00:46:52: und daraus Erkenntnisse zu gewinnen. Hätten wir eine riesige Datenbank aus den Jahren der
00:46:56: Vergangenheit, hätten wir einen riesigen Datenschatz. Wir versuchen langsam,
00:47:00: diesen Datenschatz aufzubauen. Das ist also unsere Herangehensweise. Eine
00:47:03: Herausforderung, die ihr auch habt, wie das alle anderen,
00:47:08: oder die meisten, würde ich behaupten, ebenfalls
00:47:11: haben. Dass Tests oft in der Vergangenheit unzureichend dokumentiert
00:47:15: wurden. Man nimmt sich da jetzt auch dank der
00:47:19: neuen Techniken, das Airtable genannt, andere
00:47:23: Möglichkeiten, Retools etc., also No-Code-Tools, wo
00:47:26: man auch ohne Programmierkenntnisse oder mithilfe von JetGPT
00:47:31: eigene Apps bauen kann, zukünftig solche Dinge
00:47:35: dokumentieren zu können. Genau. Und das ist die Idee dahinter.
00:47:39: Ich glaube, das schafft gerade langfristig extremen Wert
00:47:42: und es erleichtert am Ende auch die Übergabe
00:47:46: an Kunden, die in einem Idealszenario bei uns
00:47:50: nach einer längeren Zusammenarbeit und einer intensiven
00:47:54: Wachstumsphase mit Sicherheit irgendwann auf die Idee kommen,
00:47:58: ja also Wir müssen langsam mal die Ressourcen hier intern aufbauen.
00:48:03: Wir müssen langsam irgendwann hier jemanden intern beauftragen, unsere Kampagnen zu
00:48:06: schalten oder Creatives zu konzipieren oder wie auch immer eine Produktion
00:48:10: anzuleiten. Und denen dann all diese Informationen
00:48:14: strukturiert zur Verfügung zu stellen, ist ja ein Riesengewinn.
00:48:18: Ein Riesengewinn für uns während der Zusammenarbeit,
00:48:22: ein Riesengewinn für den Kunden nach der Zusammenarbeit. Insofern ist das die Idee dahinter. Aber
00:48:25: lass mich noch mal betonen, das Creative Hub ist relativ frisch. Wir haben das
00:48:28: jetzt zum Zeitpunkt der Veröffentlichung, haben wir das ein
00:48:32: paar Monate im Einsatz. Wir werden erst so richtig den positiven
00:48:36: Effekt spüren, wenn es nachher auf grosse
00:48:39: Datenmengen durchsuchbar ist und dieser Wert auch wirklich kapitalisiert
00:48:43: werden kann. Sehr, sehr spannend.
00:48:47: Welche drei Learnings aus deiner langjährigen
00:48:51: Erfahrung im Bereich Social-Ad-Testing
00:48:56: kannst du noch unseren Zuhörerinnen und Zuhörern mit auf den
00:49:00: Weg geben?
00:49:04: Ich glaube, es sind die folgenden. Das erste ist,
00:49:10: Vorbereitung ist der alles entscheidende
00:49:13: Faktor. Richtig gute Hypothesen für richtig gute
00:49:17: Tests können wir nur schreiben, wenn
00:49:21: wir richtig tief im Thema stecken. Und das gilt genauso
00:49:24: natürlich auch für interne Mitarbeitende. Das
00:49:28: zweite ist, dass
00:49:31: es immer zu viele Tests gibt, die man
00:49:35: testen könnte. Priorisierung damit also der
00:49:38: nächste entscheidende Faktor ist, den größten Effekt aufs
00:49:42: Ergebnis zu realisieren. Und
00:49:46: das dritte, dass es hilfreich sein kann,
00:49:49: vereinzelte Regeln zu brechen. Gerade
00:49:53: im Kontext etwas größerer oder etablierterer Unternehmen
00:49:57: gibt es hier häufig klare Richtlinien dazu, wie etwas
00:50:00: auszusehen hat. Und das gestehe ich auch jedem ein
00:50:04: und gestehe ich jedem zu, das ist wichtig, langfristig ein klares
00:50:08: Markenbild zu zeichnen. In diesen Kanälen aber, wenn man
00:50:11: für wesentliche Veränderungen sorgen möchte, muss
00:50:15: man in einem gewissen Rahmen auch diese Regeln brechen
00:50:19: oder strapazieren können, zu testen, was denn ausserhalb
00:50:23: dieses Regelkonstrukts möglich wäre, würde man das wirklich durchziehen.
00:50:27: Das heisst, 15, 15 oder gar 20 Prozent der
00:50:31: Tests mal ausserhalb dieses Regelkontexts stattfinden zu
00:50:35: lassen, wäre eine abschliessende Erkenntnis, die ich
00:50:38: teilen kann. Sehr spannend. Lars, vielen herzlichen
00:50:42: Dank. Ich möchte an dieser Stelle nochmals auf dein Creative Kit
00:50:46: aufmerksam machen. Unter larsbude.de
00:50:50: slash creatives oder in den Show Notes
00:50:54: verlinkt findest du einen kostenlosen Minikurs, der dich von der
00:50:57: Theorie zur Praxis führt und das, was Lars jetzt
00:51:01: ausgeführt hat, im Podcast nochmals vertiefter
00:51:05: und anschaulicher mit Grafiken aufzeigt.
00:51:09: Von daher, larsbude.de.
00:51:13: Dort könnt ihr euch für den
00:51:17: kostenlosen Minikurs registrieren. Genau. Vielen Dank.
00:51:21: Lars, ich möchte dir recht herzlich für die Ausführungen
00:51:25: danken. Ich glaube, es ist ein sehr spannender Einblick, wie man
00:51:29: testen kann. Es geht nicht nur
00:51:32: darum, die Creatives zu testen, sondern auch
00:51:36: andere Elemente, wie das Angebot oder das
00:51:40: Wertversprechen. Vielen herzlichen Dank, dass du dir die Zeit
00:51:43: gefunden hast. Ich freue mich, dich auf
00:51:47: der AllSocial, wo du wieder auf der Bühne
00:51:50: stehst, zuhören zu dürfen. Ich bin ja dieses Jahr
00:51:54: nur Zuhörer, zum Glück. Daher freue ich mich
00:51:58: drauf. Super. Vielen Dank, Thomas. Es war sehr schön bei dir. Ich
00:52:01: komme gerne wieder vorbei. Gerne wieder.
00:52:05: Das machen wir. Vielen Dank fürs Zuhören. Hat dir die
00:52:08: Episode gefallen, dann bewerte uns auf iTunes oder Spotify.
00:52:13: Für uns ist so eine Episode immer mit einiges Aufwand
00:52:16: verbunden. Vorgespräch, bzw. Zuerst mal
00:52:20: Gäste finden, Vorgespräch, dann Episode vorbereiten,
00:52:24: nachbereiten, schneiden, veröffentlichen etc. Da kommen es
00:52:28: schnell mal acht bis zwölf Stunden zusammen. Für dich sind es
00:52:31: nur wenige Klicks mit einer kurzen Bewertung, optimalerweise
00:52:35: mit fünf Sternen, was uns enorm hilft, neue
00:52:39: Zuhörerinnen und Zuhörer zu gewinnen. Von daher vielen Dank,
00:52:43: wenn du uns bewertest. Feedback zur Episode kannst du
00:52:46: gerne via LinkedIn, Instagram, Facebook
00:52:50: oder auch ganz altmodisch per E-Mail an dmu.hutter-consult
00:52:55: senden. Ich danke dir fürs Zuhören und freue mich, wenn du bei der
00:52:59: nächsten Episode des Digital Marketing Upgrade Podcasts der Hutter
00:53:02: Consult wieder mit dabei ist. Vielen Dank und Tschüss.
00:53:15: Copyright WDR 2021
Neuer Kommentar