Social Ads Testing – aber bitte richtig! - mit Lars Budde #123

Shownotes

In der aktuellen Episode des Digital Marketing Upgrade Podcasts spricht Thomas Besmer mit Lars Bude über das richtige Testing von Social Ads. Lars, seit 2017 als Social Ads-Experte tätig, teilt seine Erfahrungen und Best Practices.

Die Herausforderungen des Social Ads Testings Datenschutzregelungen wie Apple Tracking Transparency und DSGVO erschweren aussagekräftige Tests. Oft fehlt es an einer klaren Teststruktur, was zu wenig belastbaren Ergebnissen führt.

Der Wandel: Fokus auf Creatives Früher war Social Advertising sehr technisch, heute bestimmen Creatives über 70 % des Kampagnenerfolgs. Dennoch bleiben strategische Tests auf Produktebene und Wertversprechen essenziell.

Das Testing Framework Lars nutzt ein vierstufiges Modell:

  1. Angebot testen
  2. Wertversprechen validieren
  3. Anzeigenkonzept entwickeln
  4. Anzeigenelemente optimieren

Effiziente Testmethoden Bei kleinen Budgets verzichtet Lars auf das AB-Test-Feature von Meta und nutzt stattdessen strukturierte Anzeigengruppen. Bei großen Accounts kommen Bulk-Tests zum Einsatz.

Messung & Dokumentation Haupt-KPIs im E-Commerce sind Kaufkosten und ROI. Ergänzend helfen Klickrate und Warenkorbabbruchrate zur Analyse. Zudem nutzt Lars einen Creative Hub, um Tests systematisch zu dokumentieren.

Drei zentrale Learnings

  • Gründliche Vorbereitung: Markt, Produkt und Zielgruppe genau verstehen.
  • Priorisierung: Die wichtigsten Tests zuerst durchführen.
  • Regeln brechen: Unkonventionelle Ansätze testen, um Innovation zu fördern.

Host: Thomas Besmer Gast: Lars Budde Webseite: Lars Budde Creative Kit: Mini-Kurs

Produktion: Hutter Consult AG

Hutter Consult AG

Transkript anzeigen

00:00:10: Hallo und herzlich willkommen zu Digital Marketing Upgrade, präsentiert von der

00:00:14: Hutter Consult. Mein Name ist Thomas Besmer. In der heutigen

00:00:17: Episode geht es wieder Social Ads.

00:00:21: Da habe ich auch einen Gast, der wirklich weiss,

00:00:25: wo wir definitiv darüber sprechen. Ihr habt es schon

00:00:29: gelesen, Social Ads Testing, aber bitte richtig.

00:00:33: In der letzten Episode sprach ich darüber, wie man modulare

00:00:37: Creatives aufbereiten kann. Am Schluss gingen wir

00:00:40: auf die Testszenarien ein, die ich teilweise etwas kritisiert

00:00:45: habe. Jetzt habe ich jemanden dabei, der weiss, wie das

00:00:48: Ganze geht. Trotzdem sprechen

00:00:51: viele Menschen immer vom Testen, Testen, Testen,

00:00:55: insbesondere im Social Advertising-Bereich. Wir haben immer weniger

00:00:59: Daten. Die Apple Tracking Transparency mit dem iOS

00:01:02: 14.5-Update, die DSGVO, dann das

00:01:06: Sensitive Update von Meta, das kürzlich im

00:01:10: Bereich Healthcare herausgekommen ist, aber auch schon Politik betroffen

00:01:14: ist. Das heisst, Wir müssen immer mehr auf den Algorithmus vertrauen,

00:01:17: weil wir auch weniger Daten zur Verfügung haben.

00:01:21: Trotzdem möchte man ja verstehen, was und wie gut läuft und

00:01:25: was eben nicht. Dann testet man halt.

00:01:29: Da wird oftmals wild drauf hergetestet.

00:01:32: Deshalb spreche ich heute mit meinem Gast über Social-Ad-Testing.

00:01:37: Aber bitte richtig. Ich kenne ihn schon länger.

00:01:41: Zum Thema ist er mir auf LinkedIn aufgefallen,

00:01:45: da er immer sehr analytisch an das Thema herangegangen

00:01:48: ist. Ich fragte ihn, ob wir zusammen über das Thema

00:01:52: reden können. Er selbst ist seit 2017 im

00:01:56: Bereich Social Ads selbstständig unterwegs, wo er andere

00:01:59: Marken unterstützt und mit seinem Team auch im Bereich

00:02:03: E-Commerce Projekte unterstützt, im Bereich Social Advertising.

00:02:07: Er war fünf Jahre lang im Bereich Online-Marketing

00:02:11: beim Magazin T3N, das man aus der Branche kennt.

00:02:15: Er ist Familienvater und gehört zu den Urgesteinen

00:02:20: im Bereich Social Ads, insbesondere Meta-Ads, obwohl

00:02:23: er nicht gealtert ist. Auch wenn schon sehr lange

00:02:27: dabei sind, sind seine Ideen immer noch frisch

00:02:31: und auf dem neuesten Stand, teilweise oder

00:02:34: oftmals auch als Vordenker, eben v.a. Auch im Bereich

00:02:38: Social-Ads-Testing mit dabei. Er ist Speaker auf Konferenzen,

00:02:42: oftmals auch als Moderator unterwegs, sehr souverän.

00:02:46: Hallo und herzlich willkommen, Lars Bude. Vielen Dank

00:02:50: für dieses Intro, Thomas. Ich danke dir für deine Zeit und

00:02:53: dass wir gemeinsam über Social-Ads-Testing sprechen können. Ein

00:02:57: Thema, das dir am Herzen liegt, aber auch

00:03:01: mir oder uns am Herzen liegt. Wenn wir in Accounts

00:03:05: reinschauen, merken wir, wie schlecht das eigentlich

00:03:08: getestet wird oder dass oft vermeintliche Tests gemacht

00:03:12: werden, die gar keine Tests sind oder zumindest

00:03:16: keine Aussagekraft zulassen. Darüber sprechen wir heute

00:03:19: gemeinsam. Ja. Ich glaube, das ist auch ein essentielles

00:03:23: Thema. Am Ende müssen wir in unserer Rolle,

00:03:27: ob wir für unsere Kunden irgendwie Mehrwert liefern, im Sinne

00:03:31: von mehr Ergebnissen. Dafür müssen wir herausfinden, was funktioniert jetzt besser,

00:03:35: was schlechter. Ich glaube, wenn wir zurückschauen, du hast gesagt, ich mache das

00:03:39: hier seit 2017, dann gucken wir zurück auf eine Zeit, in

00:03:42: der wir ganz viel, wir nennen das intern strukturelle Tests gemacht haben,

00:03:46: so Tests über Zielgruppen, Geburtsoptionen und dergleichen.

00:03:49: All diese Einstellungen, die man damals ohne Ende verwendet

00:03:53: hat und die mittlerweile zumindest auch in

00:03:56: unserem Kundenportfolio eine geringere Rolle spielen. Und

00:04:00: stattdessen testen wir jetzt einfach viel mehr im Bereich der

00:04:04: Creatives, der Anzeigen, Videos und Bilder. Das heisst,

00:04:08: das haben wir hoffentlich in dieser Form immer so gemacht, nur damals

00:04:12: manchmal ein bisschen einfacher und schneller umsetzbar, weil man eine Anzeigengruppe

00:04:15: dupliziert, ein paar Einstellungen verändert und wieder hochgeladen

00:04:19: hat. Wir können gerne darüber sprechen. Sehr gut. Genau. Bevor wir aber ins

00:04:23: Thema einsteigen, meine zwei Einstiegsfragen

00:04:28: an meinen Gast, beziehungsweise an dich. Und zwar, auf welche

00:04:32: Tools kannst du in deinem Arbeitsalltag nicht verzichten?

00:04:35: Mhm. Das ist eine relativ langweilige Antwort,

00:04:39: finde ich. Aber es geht ja Tools, auf die ich nicht

00:04:42: verzichten kann. Das müssen die essentiellen sein. Und ich habe

00:04:46: vor vielen jahren angefangen sehr strukturiert so meine

00:04:49: tage und aufgaben zu planen und mittlerweile nutzen wir da im team asana das

00:04:53: heißt das gehört in jedem fall zu diesen tools gleiches gilt für

00:04:57: den austausch intern wie extern Das irgendwo zu zentralisieren

00:05:01: ist extrem hilfreich. Slack ist da unser Tool der Wahl.

00:05:05: Und dann, heutzutage auch nicht mehr wegzudenken, gehe ich super gerne

00:05:09: in Sparring. Nicht so sehr, mir wirklich Arbeit abzunehmen, sondern

00:05:12: eher, in den Austausch zu gehen mit ChatchiUT, wenn ich irgendwie eine neue

00:05:16: Branche erschließen will, wenn ich ein bisschen besser verstehen will,

00:05:20: wie Kundengruppen gegebenenfalls ticken, wenn ich in die Analyse gehen will. Ich

00:05:24: würde sagen, also, auf diese drei Tools, auch bezogen auf die

00:05:28: Zeit, die ich da drin verbringe, kann ich vermutlich nicht verzichten. Asana, Slack,

00:05:31: Chachubuti oder vergleichbare Tools. Perfekt.

00:05:35: Dann gehörst du sehr wahrscheinlich auch zu denen, die kürzlich, als Asana down

00:05:39: war, eigentlich Feierabend machen konnten, weil sie nicht mehr wussten, was sie arbeiten

00:05:42: sollen. Ich hab keinen Feierabend

00:05:46: gemacht. Ich hatte noch im Kopf, was zu tun ist. Da sind wir dann

00:05:50: auch wirklich ein bisschen gefangen in

00:05:54: diesem Problemfeld der Abhängigkeiten, die

00:05:57: aus diesen Tools hervorgehen. Also würde Asahana jetzt einfach

00:06:01: verloren gehen, wir wären auf jeden Fall aufgeworfen.

00:06:05: Oh, Definitiv. Wenn du auf einem Magazin-Cover erscheinen

00:06:09: könntest, welches Magazin würdest du dir aussuchen?

00:06:13: Ich hatte die Chance, mir im Vorfeld ein bisschen Gedanken zu dieser Frage zu machen.

00:06:17: Ich habe sie im Vorfeld schon gelesen und es

00:06:21: fällt mir sehr schwer, sie zu beantworten. Ich finde,

00:06:24: Sichtbarkeit ist für mich immer nur ein Mittel,

00:06:29: ein Weg zum Ziel. Ziel jetzt in diesem Fall Unternehmenswachstum,

00:06:34: Kundengewinnung oder Vergleichbares. Das heißt,

00:06:37: Sichtbarkeit per se interessiert mich nicht. Ich wäre sehr

00:06:41: ungern prominenter, würde in der bunten auf dem Cover

00:06:44: stehen und damit mein Geld verdienen. Ich hab mich aber gefragt, was gibt es

00:06:48: denn für Magazin-ähnliche Konstrukte, in denen ich gerne eine

00:06:51: möglichst große Rolle spielen will? Und da habe ich

00:06:56: im Vorfeld eine Idee gehabt, die sicherlich bricht mit

00:07:00: anderen Antworten in der Vergangenheit. Aber unsere dreijährige

00:07:03: Tochter hat neuerdings so ein Freundebuch. Das füllt sie

00:07:07: fleissig. Wenn ich in diesem Freundebuch eine

00:07:10: grosse Rolle spielen würde, vielleicht draufs Körper komme, dann

00:07:14: würde ich gewinnen. Das wäre mein Ziel. Sehr schöne

00:07:18: Antwort. Hatte ich wirklich noch nie. Bis jetzt waren es immer Magazine.

00:07:24: Aber die Ausführungen sind voll nachvollziehbar.

00:07:29: Das mit der Sichtbarkeit ist ein Thema in unserem

00:07:32: Bereich. Aber von daher eine super Antwort. Danke,

00:07:36: Lars. Sehr gerne. Gut, dann starten wir

00:07:40: direkt. Social-Ads-Testing, aber richtig.

00:07:44: Da fängt es oft schon an. Kunden kommen und sagen,

00:07:48: sie haben bisher mit einer Agentur zusammengearbeitet,

00:07:51: möchten wechseln, weil sie unzufrieden sind

00:07:55: oder merken, dass die Agentur ansteht oder nicht mehr weiterkommt.

00:07:59: Dann startet die Zusammenarbeit. Und

00:08:03: da ist ja schon beim Start der Zusammenarbeit, das heisst,

00:08:07: aus unserer Sicht, die Erfahrung, dass das Thema Testen

00:08:11: thematisiert werden muss. In welcher Phase

00:08:14: der Zusammenarbeit mit einer Kundin

00:08:18: implementiert ihr das Testing von Social Ads?

00:08:22: Eigentlich gleich zu Beginn. Ich habe,

00:08:26: wenn ich auf ein Werbekonto schaue, immer eine grobe Vorstellung davon, was Best

00:08:30: Practice sein sollte. Gerade auch, weil wir einen sehr starken Fokus

00:08:33: auf Kunden im E-Commerce haben und natürlich dann die

00:08:37: Parallelen größer zwischen Kunde A und Kunde B sind, als wenn wir

00:08:41: jetzt parallel noch Recruiting machen würden oder Markenbekanntheit

00:08:45: oder was auch immer. Auch dieses Kundenportfolio in sich ist

00:08:48: etwas homogener. Das heißt also, ich gehe immer mit einer konkreten

00:08:52: Idee zu so einem Best-Practice-Setup eigentlich in ein Werbekonto

00:08:56: und dann prüfe ich natürlich als erstes, inwiefern diese Best-Practices erfüllt

00:08:59: sind. Das ist etwas, was man mit einem relativ geringen Aufwand

00:09:03: durchspielen und dann optimieren kann. Und dann stellt sich eigentlich immer die Frage, wie

00:09:07: kann man dieses Konto jetzt weiterentwickeln. Denn sobald ein Kunde zu uns kommt,

00:09:11: will er ja Veränderungen. Ansonsten würde er diesen Schritt

00:09:14: nicht gehen. Und Veränderung erfordert immer

00:09:20: eine klare Idee,

00:09:24: welche Veränderung im Werbekonto nachher zu einer

00:09:28: Veränderung bei der Zielgruppe führt. Weil am Ende müssen wir ja

00:09:31: etwas ausspielen, in welcher Form auch immer, dass jemand dort draußen sieht

00:09:35: und dann sein Verhalten ändert. Das heißt, also jetzt gewillt ist, etwas zu kaufen

00:09:39: oder sich irgendwo anzumelden oder was auch immer zu tun.

00:09:43: Und ich glaube, wenn man herausfinden will, wie kann man

00:09:46: positive Veränderungen in den Ergebnissen eines Werbkontos realisieren,

00:09:50: muss man sich am Ende immer fragen, was schafft denn eigentlich Veränderung bei dem

00:09:54: Kunden da draußen. Und das wird man

00:09:57: unmöglich aus dem Bauch heraus ganz klar beantworten können.

00:10:02: Da gibt es in den wenigsten Fällen so valide Daten, dass man das tun

00:10:05: kann. Deswegen müssen wir so früh wie möglich ins Testing gehen. Die Frage

00:10:09: ist nur, was wir testen.

00:10:13: Wenn ihr mit der Zusammenarbeit startet, habt ihr gewisse Tests,

00:10:17: wo ihr sagt, die machen wir bei allen Kunden, zu

00:10:20: sehen, wie das bei ihnen abläuft

00:10:24: oder funktioniert? Oder geht ihr

00:10:27: individuell bei jedem Kunden ans

00:10:30: Testen ran und erarbeitet dafür Hypothesen?

00:10:34: Es gibt ein paar Themen, die wir vermutlich immer

00:10:38: in Frage stellen. Aber wir müssen sagen, es gibt sehr

00:10:42: unterschiedliche Kundengruppen und darauf basierend herangehensweisen.

00:10:46: Wenn zu uns ein Kunde kommt, der ein paar hunderttausend Euro

00:10:50: Mediabudget verwaltet im Monat, das heißt also irgendwie

00:10:53: relevant Daten generiert, damit natürlich auch sehr viel Spielraum

00:10:57: für Testings lässt, dann

00:11:01: können wir basierend auf den vergangenen Daten auch sehr viele

00:11:05: strukturelle Themen schnell in Frage stellen und über Tests validieren.

00:11:09: Wenn wir stattdessen aber mit einem Kunden starten, der 20.000 Euro Media

00:11:13: Budget im Monat verwaltet, dann müssen wir die Liste

00:11:16: der Tests massiv reduzieren, überhaupt ausreichend Daten

00:11:20: zu generieren. Und dann gibt es auch tatsächlich ein paar dieser,

00:11:24: ja, häufig wiederkehrenden Tests, die man vielleicht erst mal zurückstellt, weil

00:11:27: man sagt, es gibt wichtigere Dinge, die man erst einmal beantworten

00:11:31: muss, bevor man das hinterfragt. Wenn wir jetzt aber über Tests sprechen,

00:11:35: die sich häufig anbieten, zumindest, und das sage ich ganz deutlich, in

00:11:38: unserem Bereich, das mag auch in eurem Kundenportfolio noch

00:11:42: etwas anders sein, in unserem Bereich bieten sich in der

00:11:45: Regel Tests struktureller Natur an in den Bereichen

00:11:49: der Kampagnenziele. Das heißt, wir wollen eigentlich in den seltensten

00:11:53: Fällen bei kleinen Accounts irgendetwas anderes dort sehen als eine

00:11:57: klassische Umsatzkampagne. Kleine Accounts hier ganz wichtig.

00:12:01: Kleine Accounts meint in diesem Fall 10, 20, 50.000 Euro Media

00:12:04: Budget im Monat. Aber da gibt es ja trotzdem ein Unterscheidungskritikum.

00:12:09: Umsatz klassischer Natur, Advantage Plus Shopping, wäre tatsächlich

00:12:12: eine Herangehensweise, die man einmal prüfen könnte.

00:12:17: Pauschal tendieren wir mittlerweile stärker zu Adventsch plus Shopping

00:12:20: Kampagnen. Das heißt, hätten wir nicht die Möglichkeit, würden wir vermutlich diesen Weg

00:12:24: gehen. Aber wenn wir die Möglichkeit haben, wäre das ein

00:12:28: relativ früher Test. Und dann

00:12:31: ebenso wichtig und häufig zu Beginn einer Zusammenarbeit noch unklar

00:12:36: ist das Testen der relevantesten Angebote,

00:12:39: die dieses Unternehmen dort draußen im Markt zur Verfügung stellt. Das ist

00:12:43: nachher auch ein wesentlichen struktureller Test, weil es ja

00:12:47: unterschiedliche Kampagnen oder Anzeigengruppen erfordert und

00:12:50: weniger ein visueller Test, weil

00:12:54: die Unterschiede in den Werbemitteln natürlich gigantisch sind, ob ich jetzt Produkt A oder

00:12:58: Produkt B verkaufe. Aber die Frage, was ist eigentlich

00:13:02: das Angebot, auf das man vollen Fokus richtet, auf das man

00:13:06: einen Großteil des Werbebudgets ausrichtet, das man vielleicht auch in sich noch

00:13:09: optimiert. Und da diese verschiedenen

00:13:14: Herausforderer, dieser Hero Products, einmal ins Rennen zu schicken,

00:13:17: ist auch etwas, was wir sehr, sehr früh versuchen zu tun,

00:13:21: die wichtigsten Entscheidungen eigentlich vorab schon sicherzustellen.

00:13:25: Als letzte, vielleicht noch strukturelle Sache, die wir hinterfragen,

00:13:29: ist auch hier, vor allen Dingen bei kleineren Accounts, vor

00:13:33: allen Dingen bei etwas niedrigeren Warenkörben, das klassische

00:13:38: Retargeting-Setup, das wir früher standardmäßig

00:13:42: immer aufgesetzt haben. Weil unsere Erfahrung ist, Retargeting

00:13:46: durch Tracking ohnehin erschwert, funktioniert noch immer gut, wenn

00:13:50: der Wert des einzelnen Kaufs groß genug ist, die

00:13:53: höheren Kosten vorne zu refinanzieren, die höheren CPCs und alles,

00:13:57: was damit einhergeht. Aber wenn wir Warenkörbe versuchen zu

00:14:00: verkaufen, die im Mittel bei 50 Euro landen, Dann ist es manchmal

00:14:04: gar nicht so offensichtlich dass es hier noch eine dedizierte retargeting kampagne

00:14:08: braucht weil diese ganzen zielgruppen dann einfach in

00:14:12: Die restlichen anderen kampagnen zu integrieren bessere und vor allen dingen besser

00:14:16: skalierbare resultate bringt also auch Ein retargeting setup an der

00:14:20: stelle zu hinterfragen wenn es so Indikatoren gibt

00:14:23: dass die nicht Effizienz genug sind ist

00:14:27: auch ein gängiger Test zu Beginn. Ja.

00:14:31: Wenn ihr startet, beziehungsweise am Beginn einer Zusammenarbeit,

00:14:35: und du machst die Testszenarien beziehungsweise erarbeitest

00:14:39: die Konzeption mit den Testhypothesen,

00:14:45: Wie gehst du daran, so Hypothesen

00:14:49: zu erarbeiten? Habt ihr einen Katalog, oder ist das von

00:14:53: Kunde zu Kunde individuell? Wir

00:14:56: arbeiten uns an einer Struktur entlang der verschiedenen

00:15:00: Ebenen, auf denen wir Tests fahren. Das kann ich gleich noch einmal aufschlüsseln.

00:15:04: Aber ich glaube, dass was wir als erstes sicherstellen müssen zu Beginn einer Zusammenarbeit

00:15:08: ist, dass wir den Kunden, seinen Markt, sein

00:15:12: Produkt, seine Zielgruppe verstehen. Weil Logisch ist, wenn wir in

00:15:16: eine Zusammenarbeit gehen, ganz gleich, ob wir uns da vor zwei oder vier Wochen nehmen,

00:15:20: die Vorbereitung zu leisten, wir werden wahrscheinlich immer

00:15:25: weniger Informationen zur Verfügung haben, als der Kunde selbst, über seinen

00:15:28: Markt, über seine Produkte, über seine Zielgruppen. Und darauf basieren

00:15:32: ja am Ende viele der Tests im Bereich Creative.

00:15:36: Was ist die Zielgruppe, welche Bedürfnisse hat sie, wie sieht denn eigentlich

00:15:39: der Markt aus, mit welchen Argumenten wirbt der Wettbewerb, was macht

00:15:43: denn dieses Produkt im Vergleich zu anderen Produkten besonders. All das sind ja Dinge,

00:15:47: die wesentlichen Einfluss auf unsere Hypothesen haben und deswegen, ich glaube,

00:15:51: der erste wichtigste Schritt einfach mal all diese Informationen zu sammeln und in

00:15:55: strukturierter Form aufzubereiten. Und wir versuchen das zu tun,

00:15:58: indem wir Einerseits so verschiedene Tools zu Hilfe

00:16:02: nehmen von strukturierten Analysen großer Mengen an Rezensionen.

00:16:06: Wir sind ja viel im E-Commerce unterwegs, sich jetzt hunderte oder gar tausende von

00:16:10: Rezensionen herunterzuladen und auszuwerten. Natürlich nicht

00:16:13: manuell, sondern Mit keiner Unterstützung ist eine Möglichkeit.

00:16:18: Wir haben ein Tool zur Hand, das uns ermöglicht,

00:16:22: die gesamte Werbebibliothek eines Unternehmens zu

00:16:25: scrapen und nach Reichweite zu sortieren, ein Gefühl dafür zu

00:16:29: kriegen, mit welchen großen Angeboten und Messages wirbt

00:16:32: denn der Wettbewerb. Auch hier wieder muss man natürlich bedenken, viele der

00:16:36: Wettbewerbe sind ebenso Performance optimiert, das heißt, die haben wenig Video

00:16:40: View und Branding Kampagnen drin. Wenn also irgendwo Reichweite reingeht, dann bedeutet das

00:16:44: auch eigentlich immer, Das war profitable Reichweite. Dadurch kann man etwas mehr

00:16:48: ableiten, als wenn man mit grossen FMCG-Marken arbeitet. All

00:16:51: solche Tools nutzen wir, Markt, Produkt und Zielgruppe bestmöglich zu verstehen

00:16:55: und abzuleiten, was wir als Erstes testen. Es gibt

00:16:59: beim Testen, wie du das einleiten schon gesagt hast, sehr viele Dinge zum

00:17:02: Testen. Im Frühjahr 2017 war

00:17:06: ja eigentlich Meta-Advertising oder Facebook-Advertising, wie

00:17:09: es damals noch hiess, wirklich so Nerdstuff.

00:17:13: Ich erinnere mich immer gerne an das AdScamp zurück, wo du ja auch

00:17:17: Moderator bist, was da für nerdige

00:17:20: Vorträge gehalten wurden

00:17:25: über das ganze Pixel-Thema, über Zielgruppen-Hacking. Dann gab

00:17:28: es noch Facebook Analytics, wo ich ja auch noch zusätzliche

00:17:32: Informationen rausholen konnte, dann Audiences erarbeiten konnte.

00:17:36: Das gibt es heute alles nicht mehr.

00:17:41: Oder nicht mehr in dieser Form.

00:17:45: Die Ebenen haben sich verschoben. Man geht immer mehr auf Creatives.

00:17:49: Wie ich herausgehört habe, testet ihr bei Kunden

00:17:53: das Produkt selbst, zu schauen, welches Produkt

00:17:57: funktioniert wie gut. Ich erinnere mich gut an

00:18:01: einen Satz, jemand hat das mal gesagt, auch auf dem Ads-Camp. Über

00:18:05: Meta-Ads kann man jedes Produkt verkaufen. Das gebe ich

00:18:08: schlussendlich auch recht. Es ist halt mit unterschiedlichen Aufwendungen

00:18:12: verbunden. Genau. Und am Ende ist, auch hier

00:18:16: wieder, das ist mir ganz wichtig hervorzuheben, haben wir einen bestimmten

00:18:20: Kundenkreis und in der Regel ein bestimmtes Ziel, das damit zusammenhängt. Unsere

00:18:23: Kunden im E-Commerce sind in der Regel Kunden, die kein Fremdkapital

00:18:27: drin haben, sondern aus Eigenmitteln

00:18:31: wachsen und damit profitabel neue Kunden akquirieren

00:18:35: und in ihr System überführen müssen. Wenn sie dann eine gewisse Chance auf

00:18:38: Folgekäufer haben, reicht es auch in der Regel in einer Wachstumsphase,

00:18:43: wenn diese Neukunden kostendeckend eingekauft werden. Und das ist

00:18:46: dann nachher sozusagen die Zielsetzung. Nach Abzug von fixen und

00:18:50: variablen Kosten sowie Werbebudget muss da eine schwarze Null

00:18:54: mindestens stehen. Und das schafft man

00:18:57: natürlich viel einfacher, wenn das Angebot, das man im Markt

00:19:01: platziert, stark ist. Wenn das auch im Vergleich zum restlichen Markt

00:19:04: stark ist. Wenn das in irgendeiner Art und Weise etwas hat, das für es spricht.

00:19:09: Und so haben wir Kunden, die kommen zu uns und die sagen, wir haben hier

00:19:13: zehn verschiedene Produkte, wir könnten alle zehn bewerben. Und

00:19:16: relativ schnell ist die klare Ansage, es macht aber keinen Sinn, alle zehn

00:19:20: pauschal im gleichen Umfang ins Werbekonto zu überführen.

00:19:24: Vielleicht sozusagen bildet man alle irgendwie so ein bisschen in so den

00:19:27: Lower-Funnel-Ansätzen ab, wenn man tatsächlich noch Retargeting macht,

00:19:31: aber vorne in der Neukundenkommunikation auch

00:19:35: vor dem Hintergrund begrenzter Budgets wollen wir die Anzahl der Angebote

00:19:38: minimieren. Das kann bedeuten, wir minimieren einfach mal nur die Anzahl der

00:19:42: Produkte, die wir im Werbekonto bespielen. Das heißt, aus diesen zehn machen wir

00:19:46: eins, das wir in den Forderung stellen, oder zwei oder drei. Die mögen auch im

00:19:50: Jahresverlauf aufgrund von Saisonalität wechseln. Oder wir

00:19:53: nehmen einzelne dieser Produkte und versuchen, sie in Kombination

00:19:57: oder in Kombination mit anderen Dingen attraktiver erscheinen zu lassen.

00:20:01: Ob es da noch ein Goodie dazu gibt, ob es ein bestimmtes Angebot gibt,

00:20:05: das gegenüber der Zielgruppe attraktiv erscheint, also irgendeine

00:20:09: Form von Rabattierung, die nachher aber positiv auf die Marge

00:20:12: einzahlt. All solche Dinge kann man ja auch machen, das gleiche Produkt

00:20:16: attraktiver im Markt erscheinen zu lassen. Und das ist durchaus auch ein

00:20:19: wesentlicher Teil unserer Arbeit, weil ich der festen Überzeugung bin, dass in

00:20:23: einem so kompetitiven Markt wie unserem, wir

00:20:27: selten nur einen erheblichen Wettbewerbsvorteil generieren,

00:20:30: wenn wir nach einer Blaupause

00:20:34: so eine Kampagnenstruktur im Konto umsetzen, nach einer Blaupause die

00:20:38: immer gleichen Tests abbilden. Wir müssen eigentlich auch auf einer etwas

00:20:42: strategischen Ebene so eine Art Unternehmensberatung

00:20:46: mitbringen und unterstützen dabei, das was

00:20:49: verkauft wird so attraktiv wie möglich zu machen. Wir

00:20:53: versuchen also, das ideale Angebot zu identifizieren und zu optimieren.

00:20:57: Erst dann gehen wir auf die Themen ein, die sich stärker mit dem

00:21:01: Creative Selbst beschäftigen. Also es heisst von der

00:21:04: Priorisierung her weniger, dass ihr hingeht und

00:21:08: sagt, wir machen eine blaue oder grüne Variante, sehr

00:21:12: oberflächlich gesprochen. Dass ihr hingeht und sagt,

00:21:15: welches Angebot funktioniert, und dass ihr

00:21:19: dann Schritt für Schritt tiefer in die Konzeption von

00:21:23: neuen Werbemitteln geht. Ja. Wir nennen das intern

00:21:27: unser Creative Kit. Ich habe das auch an anderer Stelle schon einmal öffentlich

00:21:30: geteilt. Nachher gibt es

00:21:34: meiner Ansicht nach so ein paar Bausteine eines

00:21:38: Werbemittels, die den größten Einfluss auf Erfolg oder

00:21:41: Misserfolg haben und die vor allen Dingen auch die kontrastreichsten Tests ermöglichen. Mit

00:21:45: anderen Worten, wenn ich jetzt, dein Beispiel aufzugreifen,

00:21:49: eine Anzeige einmal mit blauen und einmal mit rotem Hintergrund erstelle, dann

00:21:52: mag das vielleicht visuell einen Unterschied machen, aber inhaltlich tut es das

00:21:56: nicht und es lässt sich auch schwer in einer sinnvollen Hypothese

00:22:00: formulieren, warum denn nun der rote statt der blaue Hintergrund

00:22:04: jetzt ernsthaft einen positiven Einfluss

00:22:07: hat. Die Hypothese könnte höchstens sein, das ist ein höherer visueller Kontrast,

00:22:11: deswegen fällt das mehr auf und so weiter und so fort. Und das sind so

00:22:15: kleinteilige Tests, die an der Stelle dann

00:22:18: auch einfach so viel Daten erfordern, damit sie einigermaßen

00:22:22: valide werden, dass wir uns zu Beginn darauf

00:22:26: konzentrieren, die größten Hebel zu testen. Ich vergleiche das eigentlich immer

00:22:29: mit, sozusagen metaphorisch, mit uns als

00:22:33: Agentur, stehend auf dem Berg, und wir schmeißen da einfach mal,

00:22:37: als Schweizer wirst du das sozusagen nachvollziehen, wir schmeißen auf dem Berg einfach mal einen

00:22:41: Stein runter. Und dann gucken wir, ausgehend von den wichtigsten Entscheidungen

00:22:44: zu Beginn, so wo kullert der ins Tal, in welche Richtung geht es als

00:22:48: erstes. Und damit wir identifizieren,

00:22:52: was sind denn die Punkte oben am Berggipfel,

00:22:56: die den größten Einfluss darauf haben, wo im Tal er landet, müssen wir

00:22:59: halt diese Dinge als erstes testen. Das ist bei uns in diesem Creative Kit, das

00:23:02: ich eben angesprochen habe. Als erstes das Angebot. Was verkaufen wir

00:23:06: dort draußen eigentlich? Denn ehrlich zu sein, ein richtig gutes Angebot kann man auch

00:23:10: mit relativ schlechten Werbemitteln profitabel verkaufen. Das geht

00:23:13: auch immer noch. Dann haben wir als nächstes wir nennen das das

00:23:17: Wertversprechen. Man kennt es aus dem Englischen als Marketing Angle, nachher

00:23:22: der Grund, der für

00:23:26: Kauf und Kaufinteresse sorgt. Was treibt eine Person eigentlich, sich mit

00:23:29: diesem Angebot zu beschäftigen? Die nächste Ebene wäre dann das Anzeigenkonzept.

00:23:33: Wie bereiten wir Angebot und Wertversprechen visuell und inhaltlich

00:23:37: auf? Konzepte sind sowas wie ein Problem-Solution-Ansatz,

00:23:41: also vom Problem zur Lösung führend, oder ein Benefit-Ansatz,

00:23:45: wo man die Vorteile des jeweiligen Produkts

00:23:49: hervorhebt. Oder ein Comparison-Ansatz, wo man zwei Produkte oder

00:23:52: Lösungen gegenüberstellt und vergleicht. Das ist sozusagen die dritte Ebene, das

00:23:56: Anzeigenkonzept. Und erst wenn diese Dinge einigermaßen

00:24:00: klar sind, Nicht klar auf alle Ewigkeit, aber sozusagen der

00:24:03: Stein an der Stelle mal ins Rollen gekommen ist. Dann gehen wir auch in die

00:24:07: Optimierung der einzelnen Elemente einer Anzeige, also der Anzeigenelemente.

00:24:11: Sowas wie die Optimierung der einzelnen Bausteine einer Videoanzeige,

00:24:15: der verschiedenen Hooks und dergleichen. Dafür wollen wir nicht

00:24:18: alle Sachen abschliessend beantwortet haben, aber die priorisieren wir am höchsten.

00:24:22: Wenn wir später über die Kampagnenstruktur des Testings sprechen, wird deutlich,

00:24:26: wie wir das tun. Insofern sind das unsere vier Ebenen, die wir

00:24:30: schrittweise validieren wollen in Bezug auf Werbemittel selbst.

00:24:34: Angebot, Wert, Versprechen, Anzeigenkonzept, Anzeigenelement.

00:24:37: Du hast es schon erwähnt, das Creative Kit. Du hast ja auch für unsere

00:24:41: Zuhörerinnen und Zuhörer was mitgebracht, und zwar

00:24:45: einen Minikurs zum Thema Creative Kit, zu eurem

00:24:48: Framework, wo man kostenlos

00:24:52: von der Theorie in die Praxis kommt, damit man selbst

00:24:55: strukturiert neue Anzeigen in Einzelteile

00:24:59: zerlegen kann, Neues zu entwickeln und zu analysieren,

00:25:03: das Ganze unter larsbude.de slash creatives.

00:25:08: Den Link findet ihr in den Shownotes oder auch bei

00:25:11: uns im Blog unter thomashutter.com. Dann geht ihr auf den

00:25:15: Blogbeitrag der jeweiligen Episode, Und

00:25:18: dort ist ebenfalls der Link noch aufgeführt.

00:25:22: Ja, vielen Dank für den Hinweis. Genau, also da führe ich das auch noch mal

00:25:26: etwas ausführlicher aus. Das könnte gegebenenfalls hilfreich sein, wenn man es

00:25:30: etwas adaptieren möchte. Aber am Ende, glaube

00:25:33: ich, ähnelt das vielen anderen Vorgehensweisen im Markt. Mich würde sehr

00:25:37: interessieren, wie ihr das intern löst und bezieht sich natürlich an der

00:25:40: Stelle stark auf das Werbemittel, weil wir uns alle, glaube ich,

00:25:44: eingestehen müssen, 2017 konnten wir noch einen richtig großen Effekt

00:25:47: realisieren, indem wir einfach im Werbekonto gearbeitet haben. Jetzt realisieren wir

00:25:51: den grössten Effekt, wenn wir am Werbekonto arbeiten.

00:25:55: Darüber nachdenken, was den Einfluss auf das Werbekonto nimmt.

00:25:59: Das sind im Wesentlichen die Creatives. Daher liegt da der Fokus

00:26:02: drauf. Genau. Meta sagt selbst, 70 % oder

00:26:06: mehr als 70 % des Kampagnenerfolgs machen

00:26:09: schlussendlich die Creatives aus. Das ist der Grund,

00:26:13: warum viele Unternehmen an den Creatives testen.

00:26:17: Ich finde euren Ansatz spannend, dass ihr erst mal mit dem

00:26:21: Angebot selbst und dann auch mit dem Wertversprechen beginnt.

00:26:25: Oftmals startet man ja mit dem Anzeigekonzept

00:26:29: bzw. Den Anzeige-Elementen. Man sagt,

00:26:35: man habe kürzliche Kunden, die haben die Fake-Podcasts, was

00:26:38: auch Daniel Levitan von AdsLab schon mehrfach

00:26:42: auf der Bühne gezeigt hat, dass das super funktioniert. Die haben solche

00:26:46: Werbemittel gemacht, aber auch andere. Sie haben

00:26:49: das gegeneinander getestet, was funktioniert. Sie haben

00:26:53: Elemente wie Trust-Symbole, also Trust-Merkmale

00:26:57: wie Rezessionen, Sternbewertungen eingeblendet

00:27:00: etc. Aber gar nicht das Angebot getestet,

00:27:04: bzw. Auch das Wertversprechen. Von daher finde ich den

00:27:08: Ansatz von euch und auch die Metapher

00:27:12: mit dem Stein ins Rollen bringen

00:27:17: perfekt aufgebaut. Deshalb will ich auch sprechen,

00:27:20: weil du hast das auf LinkedIn in ähnlicher Form

00:27:25: schon präsentiert. Deshalb bist du bei mir in Osana auf die

00:27:28: Wunschkandidatenliste gekommen. Ich

00:27:32: glaube, es gibt durchaus Szenarien, in denen das Angebotstesting

00:27:36: in den Hintergrund rückt, wenn eben das Unternehmen schon genug Historie hat,

00:27:40: genug in dieser Form auch gemacht hat. Dennoch ist es ja wichtig, eine Priorisierung

00:27:44: unabhängig von Vorerfahrungen mitzugeben und

00:27:47: da ist das eigentlich das erste was wir validieren. Nehmen wir mal an, wir

00:27:51: hätten jetzt also ein Unternehmen, das dahin noch nicht hundertprozentige Klarheit

00:27:54: hat, versuchen wir als erstes das zu machen und testen aber

00:27:58: natürlich gleichzeitig, idealerweise auch, zu den

00:28:02: Angeboten unterschiedliche Wertversprechen auf der nächsten Ebene. Also, nehmen wir

00:28:05: es mal beispielhaft und übertragen es mal so mental in das Werbekonto.

00:28:09: Fiktives Unternehmen, hat zwei verschiedene Angebote, die wir testen können.

00:28:13: Dann lassen wir natürlich diese Angebote gegeneinander laufen, haben da vielleicht

00:28:17: unterschiedliche Kampagnen zu und allokieren entsprechende Budgets,

00:28:21: aber wir können natürlich nicht zu beiden Angeboten die exakt gleichen Anzeigen

00:28:25: live nehmen, weil, ja, unterschiedliche Angebote. Also wir müssen dann

00:28:28: auch darauf eingehen, was die besonders macht und was die Gründe sind, dass man

00:28:32: die kauft und so weiter und so fort. Das heißt, wir

00:28:36: testen natürlich immer Dinge auch in gewisser Weise parallel.

00:28:40: Je validierter eine Aussage ist, desto

00:28:44: detaillierter testen wir nachher auch auf den unteren Ebenen.

00:28:48: In diesem fiktiven Beispiel hier würden wir vermutlich auf der Kampagnen-Ebene die

00:28:51: Angebote gegeneinander laufen lassen, würden aber in den einzelnen

00:28:55: Angeboten, in den einzelnen Angebotskampagnen, aber auch Anzeigengruppen

00:28:59: mit dedizierten Wertversprechen aufbereiten. Das eine Produkt hat Wertversprechen

00:29:03: ABC und das andere hat vielleicht C, aber dann D und

00:29:06: E. Und so gibt es natürlich eine gewisse, und das ist

00:29:10: mir auch ganz wichtig hervorzuheben, eine gewisse Unsicherheit

00:29:14: in den Testergebnissen, die wir zwangsweise in Kauf nehmen

00:29:18: müssen. Es ist nahezu unmöglich, so

00:29:21: früh sicherzustellen, dass wir das

00:29:25: eine Element identifizieren, das jetzt für

00:29:29: bessere oder schlechtere Ergebnisse sorgt. Dafür brauchen wir

00:29:32: extrem viel Budget, extrem viele Daten, dieses eine Element

00:29:36: auszumachen. Wir sind immer noch ganz oben auf dem

00:29:39: Berghipfel und lassen erstmal den Stein rollen. Und wenn der dann weiter unten ins Tal

00:29:43: rollt, dann gehen wir schon sehr klar vor, in welche Richtung wir navigieren wollen.

00:29:48: In einer Situation, in der das Angebot schon klar ist, kann es durchaus sein, dass

00:29:51: wir zu Beginn eher Kampagne nach Wertversprechen aufschlüsseln und auf Anzeigengruppenebene

00:29:55: in Konzepte gehen und die dann gegeneinander testen. Das hängt immer so ein

00:29:59: bisschen von den Rahmenbedingungen ab und auch der

00:30:02: Vorgeschichte dieses Accounts. Also das heisst, man hat jetzt so die

00:30:06: Tests konzipiert oder die Hypothesen erarbeitet,

00:30:10: nach Angebot, Wertversprechen,

00:30:14: dann nach Anzeigekonzept und schlussendlich die Anzeigenelemente.

00:30:17: Jetzt fängt man an zu testen. Bei Meta hat

00:30:21: man unterschiedliche Möglichkeiten, einen Test durchzuführen.

00:30:26: Einerseits gibt es das Experimentetool für AB-Tests

00:30:30: oder auch Conversion Lift oder Brand Lift Studies, aber wir nehmen

00:30:34: insbesondere AB Testing, was sehr wahrscheinlich in diesem Fall

00:30:38: zielführender ist. Es gibt aber auch die Möglichkeit,

00:30:45: man nennt das ja Adset Budget Optimization, dass

00:30:49: man mehrere Anzeigegruppen mit dem gleichen Budget

00:30:52: macht, mit unterschiedlichen Anzeigen. Man

00:30:56: lässt den Algorithmus für jede Anzeigegruppe

00:31:00: aufbrauchen, zu schauen, welches Werbemittel funktioniert am

00:31:03: besten. Du hast es auch gesagt, zwei Kampagnen

00:31:07: laufen lassen. Wie geht ihr beim Testen

00:31:10: vor oder beim Setup der Tests? Ich glaube,

00:31:15: das wesentliche Unterscheidungsmerkmal in der Vorgehensweise ist

00:31:18: von der Größe dieses Werbekontos und dem Werbebudget

00:31:22: abhängig. Je mehr Werbebudget da durchgeht und je mehr

00:31:26: Daten ich damit auch mit meinem Testbudget generiere, desto

00:31:30: Validere Testmethoden kann ich nutzen. Und Valida bedeutet eigentlich immer am oberen

00:31:33: Ende Experimente, Feature, A, B Testing und am unteren

00:31:37: Ende sozusagen alles in Form von Anzeigen in einer Anzeigengruppe

00:31:41: Meta-Regel. Sozusagen das sind ja, das ist die Skala, die man da durchlaufen

00:31:44: kann. Wenn wir ein Werbekonto haben,

00:31:48: das mal jetzt eher am unteren Ende vielleicht 20.000

00:31:52: Euro Mediabudget im Monat verwaltet. Und dann auf Wochenbasis

00:31:56: 5.000 Euro Mediabudget. Dann kriegen wir

00:32:00: ja gar nicht so viele Transaktionsdaten zustande, wenn wir

00:32:03: nicht 100 Prozent dieses Werbebudgets wirklich auftesten,

00:32:07: allokieren. Nehmen wir mal an, das ist ein Online-Shop,

00:32:11: Warenkorb, 30 Euro. Der akquiriert Neukunden,

00:32:15: profitabel, mindestens aber kostendeckend, wenn wir

00:32:19: Kundenakquisitionskosten von 30 Euro haben. Sagen wir also mal beispielhaft,

00:32:23: wir dürfen jetzt hier 30 Euro für so einen Neukunden zahlen. Wenn

00:32:26: wir jetzt wirklich signifikante Ergebnisse realisieren wollen,

00:32:30: also statistische Signifikanz herstellen wollen, brauchen wir mit

00:32:34: hoher Wahrscheinlichkeit eine Menge von Käufen,

00:32:38: sagen wir mal hunderte von Käufen. Das würde bedeuten, wir müssen diesen

00:32:41: Test über Wochen laufen lassen, wenn wir nicht 100% des Budgets adokieren.

00:32:45: 100 dieser Käufe wären 3.000 Euro, da war schon 60% des

00:32:49: Wochenbudgets mit aufgesaugt,

00:32:53: nur mit sozusagen einer Variante, die wir hier jetzt ins Rennen schicken. Zwei Varianten,

00:32:56: 6.000 Euro, drei Varianten, 9.000. Das wird alles sozusagen

00:33:00: etwas schwer und vor allen Dingen schwer kalkulierbar. Du willst ja nachher auch

00:33:04: nicht sagen, pass auf, wir haben jetzt hier was gelauncht, wir warten jetzt einfach mal

00:33:08: vier Wochen und dann gucken wir mal, was kommt. Du willst so schnell wie

00:33:12: möglich eigentlich auf Basis erster Daten lernen und das bedeutet, und deswegen

00:33:15: hebe ich es auch nochmal hervor, wir streben in diesen

00:33:19: ersten Tests nicht statistische Signifikanz an und

00:33:23: absolute Belastbarkeit, sondern wir wollen so früh wie möglich

00:33:26: eine sehr klare, möglichst belastbare Tendenz haben, der wir dann

00:33:30: folgen können, in detaillierteren Tests auch nochmal hinterfragen können. Wenn es

00:33:34: größere Werbekonten sind, sieht das anders aus. Dann nutzen wir auch das

00:33:37: A-B-Test-Feature, aber in den üblichen Accounts,

00:33:41: im Wachstum befindlich, in diesen Budgetgrößenordnungen,

00:33:45: Strukturieren wir unsere Tests häufig über Kampagnen und oder Anzeigengruppen

00:33:49: mit dedizierten Budgets. Kann man ja auf beiden Ebenen machen.

00:33:53: Und testen Varianten von zum Beispiel

00:33:57: Anzeigenkonzepten oder Ähm, Iterationen eines

00:34:00: Anzeigenkonzepts in Form von iterierten Elementen, wie zum

00:34:04: Beispiel Hooks auf der Anzeigenebene. Nehmen wir also das Beispiel deiner

00:34:07: Podcast-App, die du eben angebracht hast. Die gäbe es jetzt vielleicht mit drei,

00:34:11: vier, fünf verschiedenen Hooks. Die hätten wir in diesen drei, vier, fünf verschiedenen Hooks auf

00:34:15: der Anzeigenebene und lassen wir wirklich metafrei entscheiden. Da werden wir keine

00:34:18: absolute Klarheit hinsichtlich der Ergebnisse kriegen. Wir werden nicht in der Lage sein, das

00:34:22: auszuwerten. Meine Erfahrung sagt aber, in 80, 90 Prozent der

00:34:26: Fälle liegt Meta da richtig. Und dann testen wir aber auf der Anzeigenkonzept-Ebene,

00:34:30: der Anzeigengruppenebene, ist jetzt dieses Podcast-Ad besser als

00:34:34: die, was auch immer, UGC-Ad, die wir parallel

00:34:37: laufen lassen. Und da allokieren wir dann gezielt auch Budgets,

00:34:41: ausreichend Daten sicherzustellen. Diese drei Optionen also, die wir

00:34:45: haben, müssen wir ganz klar sagen, nutzen wir sehr ungleichmäßig.

00:34:48: Wir nutzen relativ selten das klassische AB-Test-Feature.

00:34:52: Der Nachteile sind wir uns bewusst. Wir priorisieren hier aber

00:34:56: gerade zu Beginn Geschwindigkeit in der Entscheidungsfindung

00:35:01: und perfektionieren die Datenqualität

00:35:04: erst, wenn wir ein kleines bisschen Wachstum sichergestellt haben.

00:35:08: An der Stelle natürlich immer profitables Wachstum, ansonsten können wir nicht mehr Geld

00:35:12: ausgeben. Genau. Perfekt.

00:35:16: Für mich immer noch spannend, oder für mich immer die Fragestellung, auf

00:35:21: welche Kennzahlen sollte man testen? Du bist im

00:35:24: E-Commerce. Das macht es auf der einen Seite einfacher,

00:35:29: weil man ja einen Kauf dahinter hat. Das hat man in FMCG-Bereichen

00:35:34: beispielsweise nicht. Oder auch in anderen Bereichen, wo man erst

00:35:38: mal ein Lead hat, aber nicht weiss, wie gut oder

00:35:42: schlecht dieser Lead ist. Gehen wir vom E-Commerce aus,

00:35:46: haben wir den Umsatz, den Purchase selbst, den

00:35:49: man messen kann, mit welchen Kennzahlen

00:35:53: ihr da arbeitet. Insbesondere, wenn man sagt, man teste das

00:35:57: Angebot oder das Wertversprechen. Ist das immer Purchase oder Gibt es

00:36:00: auch andere Kennzahlen, wo ihr

00:36:04: mögt, diese zu testen und auszuwerten?

00:36:08: Ich glaube, wir müssen zwei Perspektiven auf diese Frage aufmachen. Die erste

00:36:12: ist, was sind unsere primären, was sind die sekundären Kennzahlen? Primäre

00:36:15: Kennzahlen sind natürlich die von dir genannten. Das heißt, was kostet uns der

00:36:19: Kauf? Idealerweise sogar der Kauf eines Neukunden. Kann man ja auch

00:36:23: durch externe Datenquellen nochmal unterfüttern. Was resultiert dann da

00:36:26: nachher für eine Marketingeffizienz, also für ein Rohrsaus, Oder

00:36:30: gar, wenn man wieder externe Daten hinzuzieht, ähm, für

00:36:34: einen, ähm, Deckungsbeitrag. Ähm, das

00:36:38: sind die primären Kennzahlen, an denen wir uns orientieren.

00:36:41: Wir ziehen aber immer auch sekundäre Kennzahlen hinzu, wenn

00:36:45: wir Anzeigenkonzepte untereinander

00:36:48: vergleichen, oder wenn die Datenbasis dünn

00:36:52: ist. Ich geb mal ein paar Beispiele für diese Szenarien.

00:36:56: Also dieses zweite Szenario, das kommt häufig vor,

00:36:59: gerade in diesen Tests. Da hat man jetzt zwei Anzeigengruppen laufen und man hat

00:37:03: auf beiden irgendwie 25 Verkäufe, da ist immer noch eine große Varianz

00:37:07: drin. Also sozusagen in diesem Szenario von 25 Verkäufen, wenn

00:37:11: dann vielleicht auch noch der durchschnittliche Warenkorbwert unterschiedlich ist, weil der eine hat halt ein

00:37:15: bisschen größere Produkte gekauft, der andere kleinere, dann ist da immer noch sehr

00:37:18: viel Varianz drin. Da kann der Rohr sehr unterschiedlich aussehen, die

00:37:22: Kosten pro Kauf sind aber im Prinzip gleich. Und da

00:37:26: muss man einfach diesen Kontext dieser primären Kennzahlen immer berücksichtigen

00:37:30: und vielleicht auch noch mal einen Schritt nach vorne gehen und sich fragen, gibt es

00:37:33: denn den Kennzahlen zuvor Indikatoren,

00:37:36: die dagegen sprechen, dass das jetzt der Gewinner ist. Also Kosten pro

00:37:40: Warenkauf zum Beispiel, das ist immer häufig schon eine Kaufintention,

00:37:44: die auch in der Regel korreliert mit den daraus

00:37:47: resultierenden Käufen. Das heißt, da ziehen wir dann

00:37:51: sekundäre Kennzahlen teils hinzu, wenn die

00:37:54: Anzahl der Daten bei den primären Kennzahlen noch nicht ausreicht,

00:37:58: wir aber eine Entscheidung treffen müssen oder wollen. Das andere Szenario, was,

00:38:02: glaube ich, ebenso wichtig ist, ist der Vergleich von

00:38:06: unterschiedlichen Anzeigenkonzepten innerhalb einer Kampagne. Nehmen wir mal

00:38:10: an, wir haben eine Kampagne, wir haben unterschiedliche

00:38:13: Anzeigen von Statics über Videos, UGC, was auch immer, alles durcheinander, weil wir nachher, wie

00:38:17: sagt Florian Litterst, immer so eine Fußballmannschaft aufs Feld stellen wollen. Also

00:38:21: sozusagen diejenigen, die den Ball nach vorne spielen und diejenigen, die abschließen.

00:38:25: Und wenn wir da drauf schauen, dann ist es ja in der Regel so, dass

00:38:28: so klassische Statics die niedrigsten

00:38:32: Kosten pro Kauf, den höchsten ROAS und eben die besten

00:38:36: primären Kennzahlen realisieren. Sie kommen aber nicht aus

00:38:39: ohne Anzeigen, die auch Sichtbarkeit für das Produkt

00:38:43: schaffen. Das heißt Sichtbarkeit in diesem Netzwerk und damit so ein

00:38:47: bisschen diese Rolle der Awareness Treiber erfüllen.

00:38:51: Und in der Bewertung unterschiedlicher Anzeigen betrachten wir

00:38:54: deswegen eigentlich drei große Aufgaben. Das erste ist,

00:38:58: wie gut schafft diese Anzeige es Aufmerksamkeit zu

00:39:02: realisieren. In der Regel sind das Anzeigen die Video-Werbemittel

00:39:06: sind, deswegen schauen wir da sehr stark auf Hookrate und Holdrate.

00:39:10: Hookrate sind die dreisekündigen Videoaufrufe in Relation zu den Impressionen.

00:39:14: Holdrate ist bei uns das Verhältnis aus Throughplace und Impressionen,

00:39:18: 15-sekündige Videoaufrufe oder bei kürzeren

00:39:21: Videos der komplette Videoaufruf. Das

00:39:25: deutet nämlich häufig an, welche dieser Werbemittel schaffen es am

00:39:28: ehesten, erst mal Aufmerksamkeit in unserer Zielgruppe zu realisieren und dann

00:39:32: diese Aufmerksamkeit auch wie gut zu halten. Aus diesen Kennzahlen kann man auch gut

00:39:36: ablesen, wie gut matcht denn eigentlich die gewählte Hook eines Videos mit

00:39:39: der Story, die drauf folgt. Wenn es einen großen Bruch gibt, dann hat man vielleicht

00:39:43: einfach irgendwie ein Auto explodieren lassen oder Geld angezündet, aber es

00:39:47: hat nichts mit dem Produkt zu tun. Und das verschafft zwar Aufmerksamkeit, aber

00:39:51: nachher kein ernsthaftes Interesse. Das heißt, da schauen wir dann sehr stark auch

00:39:54: drauf, welche Werbemittel schaffen denn Aufmerksamkeit. Gucken ergänzend dazu

00:39:58: drauf, welche Werbemittel haben Indikatoren für

00:40:03: geschaffenes Interesse in der Zielgruppe, lässt sich sehr gut eben über diese

00:40:07: frühen Interaktionen wie ein Klick, eine Klickrate,

00:40:10: Klickpreis ausmachen. Und dann natürlich, welche Treibenkonversionen.

00:40:15: Das ist ja nachher unsere primäre Kennzahl. Und so ist es dann so,

00:40:18: dass wir in so einer Kampagne, in einer Adventsch-plus-Shopping, wildes

00:40:22: Potpourri an Anzeigen haben können, bei denen nicht diejenigen

00:40:26: das meiste Budget erhalten, die auch den höchsten ROAS aufweisen und die niedrigsten

00:40:29: CPOs, sondern stattdessen häufig eben Anzeigen im

00:40:33: Mehrbudget erhalten, die diesen Upper Funnel besser aufdenken, also die eher

00:40:36: Aufmerksamkeit treiben und Interesse und damit denen

00:40:40: zugutekommen, die hinten raus den besten OS und den niedrigsten CPU realisieren.

00:40:44: Weil unsere Erfahrung einfach ist, schalten wir die Erstgenannten ab, dann brechen auch die

00:40:47: Letztgenannten ein, weil sie einfach im Laufe der Zeit nicht mehr genug

00:40:51: Futter kriegen, dass sie abgrasen können, indem sie nur noch das Angebot vor die Nase

00:40:55: halten und sagen, kauf jetzt, kostet 50 Euro. Das heißt, es gibt

00:40:59: eine Reihe von Kennzahlen, die wir betrachten. Wir betrachten eben in der Regel diese drei

00:41:02: Ebenen. Wie gut schafft dieses Creative Aufmerksamkeit? Wie gut

00:41:06: schafft es Interesse? Wie gut schafft es Konversion? Wobei der Fokus im

00:41:10: E-Commerce logischerweise auf dem letzten Teil liegt. Also null

00:41:13: Aufmerksamkeit, null Interesse, aber skalierbare Konversion ist mein favorisiertes

00:41:17: Szenario.

00:41:21: Perfekt. Sehr stark abhängig, was

00:41:24: ihr testen wollt. Wie du gesagt hast, hängt

00:41:28: es von den drei Dimensionen ab,

00:41:33: die man da entsprechend betrachten will.

00:41:37: Eine Herausforderung, die ich immer wieder sehe und die wir intern

00:41:41: auch haben, ist das ganze Dokumentieren

00:41:45: von solchen Tests. Man macht eine Unmenge an

00:41:49: Tests, wir sehen das bei uns intern.

00:41:53: Wir haben sehr wahrscheinlich etwa 60,

00:41:56: 70 Advertising-Kunden, die aktuell laufende Kampagnen

00:42:00: haben, parallel, wo dann sehr viel getestet

00:42:04: wird. Bei jedem Kunden wird anders

00:42:07: dokumentiert. Teilweise in einem Excel, teilweise in

00:42:11: Asana, wo man einen Test dokumentiert.

00:42:15: Aber es ist nie wirklich durchsuchbar. Und vor allem auch

00:42:18: nicht, was ich anstreben möchte, kundenübergreifend

00:42:22: durchsuchbar. Das haben wir ja schon mal getestet.

00:42:27: Vielleicht funktioniert es genau gleich bei dem Kunden oder die

00:42:30: Hypothese, bei dem Kunden funktioniert es anders. Wie

00:42:34: handhabt ihr das mit der ganzen Dokumentation von Tests?

00:42:40: Ich glaube, zunächst ist wichtig zu betonen, wir waren

00:42:44: darin selber sehr schlecht. Wenn wir auf langjährige

00:42:47: Kundenbeziehungen zurückschauen, dann ist es häufig mal ein einmaliger,

00:42:51: sehr intensiver Aufwand, richtig aufzuarbeiten. Was waren denn die besten

00:42:55: Tests der letzten zwei, drei Jahre? Das ist ein riesiger Aufwand, weil die Dokumentation,

00:42:59: genauso wie du es gesagt hast, in der Vergangenheit sehr, sehr unterschiedlich war. Dadurch,

00:43:02: dass wir ja Kunden haben, die in der Regel

00:43:06: alle das gleiche Ziel haben, also Abverkauf, die

00:43:10: gleichzeitig alle ähnliche Kampagnenarten,

00:43:13: Kampagnenziele und Events priorisieren, haben wir

00:43:17: mittlerweile geschafft, und das ist erst ganz frisch im Einsatz bei uns,

00:43:21: ein System zu bauen, das eine Datenbank füttert mit all diesen

00:43:25: Testdaten, die dann nochmal ergänzt wird, die Einschätzung des

00:43:28: zuständigen Kollegen oder der Kollegin, die eben diesen Test eingebucht hat und

00:43:32: auch bewertet. Denn was wir ja nachher brauchen, und da können wir mal vom

00:43:36: Idealszenario ausgehen, ist eigentlich, eigentlich wäre das

00:43:39: Idealszenario, wir haben alle Informationen,

00:43:43: die in Vorbereitung des Tests relevant waren,

00:43:47: was ist meine Hypothese, gepaart mit allen Rahmenbedingungen des Tests, was sind die

00:43:51: Dinge, die wir testen, was sind die Dinge, die diesen Test besonders machen,

00:43:55: und so weiter und so fort, mit den Ergebnissen des Tests

00:43:58: kombiniert an einer Stelle. Durchsuchbar. Das ist das Idealszenario. Das Problem ist

00:44:02: nur, das muss irgendwer pflegen. Das ist extrem aufwendig.

00:44:06: Und es lässt sich nur automatisieren, wenn man es auf verschiedene

00:44:10: Szenarien runterbrecht. Bei uns ist es glücklicherweise ein primäres

00:44:13: Szenario, auf das wir es runterbrechen konnten. Und was wir jetzt haben, wir

00:44:17: nennen es unser Creative Hub. Das ist einfach eine

00:44:20: Kombination von zwei Datenquellen, die dann durch

00:44:25: manuelle Zuarbeit unterfüttert wird. Das heißt, wenn wir

00:44:29: Tests angehen, und da geht es vor allen Dingen Tests von Creatives,

00:44:33: dann bereiten wir diese Tests immer in Asana vor, auf entsprechenden Boards,

00:44:36: die dann die Produktion von Idee bis zur Veröffentlichung

00:44:40: abbilden. Mhm. Unser Ansatz ist jetzt,

00:44:43: diese Tickets rund jedes einzelne dieser großen

00:44:47: Testideen muss gefüttert sein mit einem bestimmten Set an

00:44:51: Informationen. Zum Beispiel, was ist das Produkt, was das Angebot, was das Wertversprechen und so

00:44:54: weiter. Das sind Informationen, die man sich ja eigentlich beantworten muss, bevor man

00:44:58: irgendwie an die Konzeption eines solchen Creatives geht. Das heißt, irgendwie braucht man sie, Wir

00:45:01: haben sie jetzt einfach strukturiert dort abgelegt. Und dann, wenn das irgendwann

00:45:05: eingebucht wird und das fertige Creative angeliefert wurde,

00:45:09: dann fließen diese Daten automatisch in eine

00:45:13: Datenbank. Wir nutzen dafür Airtable. Das ist verbunden über

00:45:18: Automatismus. Zieht sich also diese Daten aus Asana und lässt sie dort

00:45:21: einfließen. Und sobald dann der zuständige

00:45:26: Performance-Marketing-Manager oder die Managerin in der

00:45:29: Lage ist, eine Aussage dazu zu treffen, ob das ein erfolgreicher oder weniger

00:45:33: erfolgreicher Test war, Aufmerksamkeit, Interesse, Konversion, gut oder

00:45:36: schlecht war, dann drückt der oder diejenige

00:45:40: auf ein Button. Dadurch werden dann automatisch die Daten aus dem Werbekonto

00:45:44: importiert, die für uns relevant sind, die eben genannten Kennzahlen.

00:45:48: Und die Person muss dann selbst nur noch in drei Punkten eine

00:45:52: Bewertung vornehmen. Wie gut ist Aufmerksamkeit, wie gut ist Interesse, wie gut ist Konversion,

00:45:56: Ampelsystem. Plus, war das jetzt ein Winner oder ein Loser, der

00:45:59: Test? Also haben wir mit dem Test nachher eine Gewinneranzeige identifiziert.

00:46:04: Das passiert natürlich für alle Varianten dieses Tests, aber dennoch vom Aufwand her

00:46:07: überschaubar, weil das sind auch Fragen, die man sicher beantworten

00:46:11: muss. Und kann optional noch eine abschließende Bewertung oder Notiz

00:46:15: ergänzen. Und so füllen wir dann auch hier wieder automatisch das in diese

00:46:18: Datenbank, die dann durchsuchbar ist und zukünftig

00:46:22: vielleicht auch stärker noch automatisierbar. Mein Traumszenario ist

00:46:25: halt irgendwann diese verschiedenen Datenbanken der verschiedenen Kunden,

00:46:29: die wir nicht nur diesen Kunden zur Verfügung stellen können, damit sie sie auch zukünftig

00:46:33: verwenden, sondern wir haben in diesen Datenbanken eben

00:46:36: auch die Werbemittel abgelegt, die sich dann automatisiert durchsuchen lassen, transkribieren

00:46:40: lassen und in diesem Sinne sozusagen analysieren lassen. Weil wir

00:46:44: wissen ja alle, Es ist mittlerweile eine Kleinigkeit,

00:46:48: ein Video einer KI zur Verfügung zu stellen, sie transkribieren, strukturieren

00:46:52: und daraus Erkenntnisse zu gewinnen. Hätten wir eine riesige Datenbank aus den Jahren der

00:46:56: Vergangenheit, hätten wir einen riesigen Datenschatz. Wir versuchen langsam,

00:47:00: diesen Datenschatz aufzubauen. Das ist also unsere Herangehensweise. Eine

00:47:03: Herausforderung, die ihr auch habt, wie das alle anderen,

00:47:08: oder die meisten, würde ich behaupten, ebenfalls

00:47:11: haben. Dass Tests oft in der Vergangenheit unzureichend dokumentiert

00:47:15: wurden. Man nimmt sich da jetzt auch dank der

00:47:19: neuen Techniken, das Airtable genannt, andere

00:47:23: Möglichkeiten, Retools etc., also No-Code-Tools, wo

00:47:26: man auch ohne Programmierkenntnisse oder mithilfe von JetGPT

00:47:31: eigene Apps bauen kann, zukünftig solche Dinge

00:47:35: dokumentieren zu können. Genau. Und das ist die Idee dahinter.

00:47:39: Ich glaube, das schafft gerade langfristig extremen Wert

00:47:42: und es erleichtert am Ende auch die Übergabe

00:47:46: an Kunden, die in einem Idealszenario bei uns

00:47:50: nach einer längeren Zusammenarbeit und einer intensiven

00:47:54: Wachstumsphase mit Sicherheit irgendwann auf die Idee kommen,

00:47:58: ja also Wir müssen langsam mal die Ressourcen hier intern aufbauen.

00:48:03: Wir müssen langsam irgendwann hier jemanden intern beauftragen, unsere Kampagnen zu

00:48:06: schalten oder Creatives zu konzipieren oder wie auch immer eine Produktion

00:48:10: anzuleiten. Und denen dann all diese Informationen

00:48:14: strukturiert zur Verfügung zu stellen, ist ja ein Riesengewinn.

00:48:18: Ein Riesengewinn für uns während der Zusammenarbeit,

00:48:22: ein Riesengewinn für den Kunden nach der Zusammenarbeit. Insofern ist das die Idee dahinter. Aber

00:48:25: lass mich noch mal betonen, das Creative Hub ist relativ frisch. Wir haben das

00:48:28: jetzt zum Zeitpunkt der Veröffentlichung, haben wir das ein

00:48:32: paar Monate im Einsatz. Wir werden erst so richtig den positiven

00:48:36: Effekt spüren, wenn es nachher auf grosse

00:48:39: Datenmengen durchsuchbar ist und dieser Wert auch wirklich kapitalisiert

00:48:43: werden kann. Sehr, sehr spannend.

00:48:47: Welche drei Learnings aus deiner langjährigen

00:48:51: Erfahrung im Bereich Social-Ad-Testing

00:48:56: kannst du noch unseren Zuhörerinnen und Zuhörern mit auf den

00:49:00: Weg geben?

00:49:04: Ich glaube, es sind die folgenden. Das erste ist,

00:49:10: Vorbereitung ist der alles entscheidende

00:49:13: Faktor. Richtig gute Hypothesen für richtig gute

00:49:17: Tests können wir nur schreiben, wenn

00:49:21: wir richtig tief im Thema stecken. Und das gilt genauso

00:49:24: natürlich auch für interne Mitarbeitende. Das

00:49:28: zweite ist, dass

00:49:31: es immer zu viele Tests gibt, die man

00:49:35: testen könnte. Priorisierung damit also der

00:49:38: nächste entscheidende Faktor ist, den größten Effekt aufs

00:49:42: Ergebnis zu realisieren. Und

00:49:46: das dritte, dass es hilfreich sein kann,

00:49:49: vereinzelte Regeln zu brechen. Gerade

00:49:53: im Kontext etwas größerer oder etablierterer Unternehmen

00:49:57: gibt es hier häufig klare Richtlinien dazu, wie etwas

00:50:00: auszusehen hat. Und das gestehe ich auch jedem ein

00:50:04: und gestehe ich jedem zu, das ist wichtig, langfristig ein klares

00:50:08: Markenbild zu zeichnen. In diesen Kanälen aber, wenn man

00:50:11: für wesentliche Veränderungen sorgen möchte, muss

00:50:15: man in einem gewissen Rahmen auch diese Regeln brechen

00:50:19: oder strapazieren können, zu testen, was denn ausserhalb

00:50:23: dieses Regelkonstrukts möglich wäre, würde man das wirklich durchziehen.

00:50:27: Das heisst, 15, 15 oder gar 20 Prozent der

00:50:31: Tests mal ausserhalb dieses Regelkontexts stattfinden zu

00:50:35: lassen, wäre eine abschliessende Erkenntnis, die ich

00:50:38: teilen kann. Sehr spannend. Lars, vielen herzlichen

00:50:42: Dank. Ich möchte an dieser Stelle nochmals auf dein Creative Kit

00:50:46: aufmerksam machen. Unter larsbude.de

00:50:50: slash creatives oder in den Show Notes

00:50:54: verlinkt findest du einen kostenlosen Minikurs, der dich von der

00:50:57: Theorie zur Praxis führt und das, was Lars jetzt

00:51:01: ausgeführt hat, im Podcast nochmals vertiefter

00:51:05: und anschaulicher mit Grafiken aufzeigt.

00:51:09: Von daher, larsbude.de.

00:51:13: Dort könnt ihr euch für den

00:51:17: kostenlosen Minikurs registrieren. Genau. Vielen Dank.

00:51:21: Lars, ich möchte dir recht herzlich für die Ausführungen

00:51:25: danken. Ich glaube, es ist ein sehr spannender Einblick, wie man

00:51:29: testen kann. Es geht nicht nur

00:51:32: darum, die Creatives zu testen, sondern auch

00:51:36: andere Elemente, wie das Angebot oder das

00:51:40: Wertversprechen. Vielen herzlichen Dank, dass du dir die Zeit

00:51:43: gefunden hast. Ich freue mich, dich auf

00:51:47: der AllSocial, wo du wieder auf der Bühne

00:51:50: stehst, zuhören zu dürfen. Ich bin ja dieses Jahr

00:51:54: nur Zuhörer, zum Glück. Daher freue ich mich

00:51:58: drauf. Super. Vielen Dank, Thomas. Es war sehr schön bei dir. Ich

00:52:01: komme gerne wieder vorbei. Gerne wieder.

00:52:05: Das machen wir. Vielen Dank fürs Zuhören. Hat dir die

00:52:08: Episode gefallen, dann bewerte uns auf iTunes oder Spotify.

00:52:13: Für uns ist so eine Episode immer mit einiges Aufwand

00:52:16: verbunden. Vorgespräch, bzw. Zuerst mal

00:52:20: Gäste finden, Vorgespräch, dann Episode vorbereiten,

00:52:24: nachbereiten, schneiden, veröffentlichen etc. Da kommen es

00:52:28: schnell mal acht bis zwölf Stunden zusammen. Für dich sind es

00:52:31: nur wenige Klicks mit einer kurzen Bewertung, optimalerweise

00:52:35: mit fünf Sternen, was uns enorm hilft, neue

00:52:39: Zuhörerinnen und Zuhörer zu gewinnen. Von daher vielen Dank,

00:52:43: wenn du uns bewertest. Feedback zur Episode kannst du

00:52:46: gerne via LinkedIn, Instagram, Facebook

00:52:50: oder auch ganz altmodisch per E-Mail an dmu.hutter-consult

00:52:55: senden. Ich danke dir fürs Zuhören und freue mich, wenn du bei der

00:52:59: nächsten Episode des Digital Marketing Upgrade Podcasts der Hutter

00:53:02: Consult wieder mit dabei ist. Vielen Dank und Tschüss.

00:53:15: Copyright WDR 2021

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.