Media Research & Development | 29.07.2020
Von gläsernen Kunden zu gläsernem Content
Vor etwa zwei Monaten habe ich damit begonnen mich auf die Suche nach neuen Lösungen für Publisher zu begeben, um im Werbemarkt weiterhin erfolgreich aufgestellt zu sein. Nachdem in den letzten Jahren Publisher strategisch häufig auf digitale Erlöse von Lesern fokussiert haben, war mein Ziel mal wieder das Thema Digitale Werbung in den Blick zu nehmen. Ankerpunkt war die Frage, wie Werbung für den Leser im richtigen Kontext platziert werden kann (Mehr zum Anfang meines Fellowships gibt es hier).
Gestartet bin ich inspiriert von der New York Times, die mit Project Feels ein erstes erfolgreiches Experiment durchgeführt hat in dem Werbe-Targeting auf Basis von Emotionen besser funktioniert als bestehende Lösungen auf Basis von Behavioural Targeting & Co. Gleichzeitig betont die NYT die Lösung sei speziell auf den eigenen Content zugeschnitten und werde anderen Publishern nicht zur Verfügung gestellt. Das muss also jemand anderes übernehmen. Eigentlich ganz einfach, oder?
In der ersten Phase des Fellowships ging es darum die Probleme von Publishern in der Werbevermarktung besser zu verstehen und auf dieser Basis eine kundenorientierte Lösung zu entwickeln. Am Anfang war mein Problembewusstsein dafür noch etwas zu groß. Ich selbst hatte bereits mindestens ein Dutzend Probleme für Publisher auf dem Schirm. Der Versuch mit Hilfe von Experteninterviews hier Fokus reinzubringen ist im positiven Sinne gescheitert. Schon nach zwei Experteninterviews hat sich die Zahl der Probleme verdoppelt.
Auch mit Hilfe des Coachings von Thomas und dem Media Lab-Team ist mir glücklicherweise eher früh klar geworden, dass es hier eine Fokussierung braucht. Mein Ansatz: Publisher finden, die nicht alle Probleme gleichzeitig haben. Das sollte den Weg raus aus dem berühmten Wald mit den vielen Bäumen bahnen.
Ein erstes Indiz bei der Suche hat eine Slack-Umfrage beim #micmuc20 geliefert. Die Antwortmöglichkeit “Wir haben uns von den Marktmechanismen abgekoppelt und versucht unseren eigenen Weg zu stabilen, digitalen Werbeerlösen zu finden” haben ausschließlich Publisher gewählt, die ich als Special-Interest- und Fach-Publisher bezeichnen würde. Das war natürlich erstmal nur ein Indiz.
Um dem Indiz nachzugehen, habe ich die folgende Heuristik angewandt: Je mehr Dritte in einer Datenschutzerklärung enthalten sind und je mehr Skripte zur Aktivitätsverfolgung (insb. Cookies) blockiert werden, desto komplexer ist der Status Quo im Werbegeschäft des Publishers. Ich habe in einer Stichprobe Datenschutzerklärungen von General-Interest-Publishern mit Datenschutzerklärungen von reichweitenstarken Fach- und Special-Interest-Publishern miteinander verglichen. Die Auswertung der Stichprobe lieferte ein klares Indiz dafür, dass General-Interest-Publisher tatsächlich ein komplexeres Werbegeschäft betreiben. Dass dieses wirklich komplex und nicht einfach nur kompliziert ist, zeigt dieser Auszug aus der Datenschutzerklärung einer deutschen Tageszeitung. Hier steht in Bezug auf einen Werbedienstleister, der Cookies verwendet:
”Wir haben keinen Einfluss auf die Cookies und keinen Einfluss auf die konkret geschaltete Werbung. Wir haben auch keine Kenntnis darüber, welche Informationen in den Cookies gespeichert werden und wo diese herkommen. Wir wissen nicht, welche Person, welche Werbung angezeigt bekommt oder welches Cookie zu welcher Person gespeichert wurde. Wir stellen lediglich die Werbefläche zur Verfügung”
Der Publisher stellt lediglich Werbefläche zur Verfügung. Alles andere ist eine Blackbox. Das ist natürlich in Teilen auch gut so. Datenschützer begrüßen vermutlich, dass möglichst wenige Parteien Zugriff auf personenbezogene Daten erhalten. Gleichzeitig zeigt das Zitat auch, dass nicht ganz klar zu sein scheint, was mit welchen Daten wann passiert und wer deshalb welche Werbung bekommt. Das dient natürlich als Prämisse, für eine mögliche Lösung: die Blackbox einfach größer machen ist wohl eher kontraproduktiv.
In weiteren Interviews und Recherchen habe ich mich motiviert durch die Stichprobe auch erstmal auf Special-Interest und Fach-Publisher konzentriert. Es hat sich tatsächlich herausgestellt, dass diese in der Zahl jeweils weniger, dafür aber sehr individuelle Herausforderungen haben.
Die Werbekunden von Special-Interest und Fach-Publishern haben selbst recht umfassende Verkaufsprozesse, teilweise handelt es sich um High-Involvement-Käufe und die eigentliche Transaktion geht nicht mehr von einer Einzelperson, sondern von einem Buying Center aus.
Um potenzielle Kunden für Konsumgüter wie Elektronik, Kleidung oder Lebensmittel zu identifizieren, stehen im Gegensatz dazu deutlich mehr Daten zur Verfügung. Bis manche Nutzer eine Hose gekauft haben, hinterlassen sie zahlreiche Spuren bei diversen Blogs, Händlern und Preisvergleichsseiten. Es gibt harte Daten, die Aufschluss über die Intention des Nutzers geben. Diese können dann mit einer Vielzahl von anderen Usern verglichen werden, die denselben Prozess bereits durchlaufen haben.
Special-Interest und Fach-Publisher filtern natürlich bereits über ihren Content. Wer Content über Drohnen liest, für den ist Werbung für Drohnen relevant. Was aber, wenn der Artikel die für die Umwelt problematische Herstellung der Akkus und die Arbeitsbedingungen in der Fertigung in Off-Shore-Fabriken thematisiert? Es braucht also für viele Publisher weitere Instrumente, um User zu sortieren und wirklich relevante Werbung auszuspielen. Wer ist wirklich bereit zu kaufen? Wer braucht weitere Informationen? Welche Ansprache ist die Richtige? Wie hoch ist die Wahrscheinlichkeit, dass die Werbung durch den User eher negativ aufgefasst wird?
Inspiriert von der New York Times habe ich dann begonnen meine Lösung zu entwickeln, aber auch schnell festgestellt, dass die Lösung so nicht ausreichend sein wird. Außerdem ist natürlich klar, dass eine Lösung alleine nicht alles lösen kann. Trotzdem glaube ich, dass die User-Reaktion auf Content ein wichtiger Baustein für Targeting werden kann.
Der Ansatz ist erstmal eigentlich ganz simpel. Eine Stichprobe der User wird regelmäßig zur Reaktion auf Inhalte befragt, z.B. wird nach dem Lesen eines Artikels ein Pop-Up mit einer kurzen Frage angezeigt. Aus diesen Umfragedaten werden dann zusammen mit dem Content Trainingsdaten generiert. Mit Hilfe dieser Trainingsdaten werden dann Modelle trainiert, welche die Vorhersage der Reaktionen auf den Content erlaubt. Diese werden dann bei Aussteuerung der Werbung mit einbezogen.
Die Lösung ist in dieser Form aber noch unzureichend. An dieser Stelle nochmals ein großes Dankeschön an all meine Interviewpartner, die direkt oder indirekt die folgenden Anpassungen angeregt haben:
Ein einmaliges oder auch nur regelmäßiges Trainieren der Modelle ist, wie die Covid-19-Krise gezeigt hat, nicht ausreichend. Es gibt laufend kleinere und größere Veränderungen in der Wahrnehmung verschiedener Themen in unterschiedlichen gesellschaftlichen Gruppen, auf die reagiert werden muss.
Je nach Publisher gibt es auch im Special-Interest und Fachbereich eine gewisse Bandbreite von Themen und damit auch eine gewisse Bandbreite von Audiences. Durch unterschiedliche Content-Cluster soll eine zu starke Verallgemeinerung der Aussagen verhindert werden.
Am wichtigsten ist aber: Welche Reaktionen für Werbekunden relevant sind, kann sehr unterschiedlich sein. Während ein Finanzdienstleister eher an Dimensionen wie Sicherheit bzw. Verunsicherung interessiert ist, kann es für einen Maschinenbauer sinnvoller sein Werbebotschaften an User zu richten, die bereit für Veränderung sind und die Ausspielung an solche User zu vermeiden, die sich überfordert fühlen. Und im Sinne der Brand Safety der Werbekunden kann es z.B. für ein Medizinportal darum gehen bei besonders aufwühlenden Artikeln zu Krankheiten Werbung zu vermeiden. Die Lösung soll es also dem Publisher ermöglichen individuelle Reaktionen zu ermitteln, die für das eigene Themengebiet und die wichtigsten Werbekunden und -kampagnen relevant sind.
In Summe wird so nicht der einzelne User für den Publisher durchsichtig oder “gläsern”, sondern der Content. Die Wirkung des Inhalts wird für den jeweiligen Publisher systematisch ermittelt und in der Werbevermarktung genutzt. Es gehört sicher nicht zu den Kernkompetenzen eines Publishers zu wissen, wie hoch das Haushaltseinkommen eines Users ist, ob er plant eine Waschmaschine zu kaufen oder ob er einen aktuellen Browser verwendet. Im Gegensatz dazu ist es für den Publisher entscheidend zu wissen, wie der Content auf die eigenen User wirkt. Die ambitionierte, unvollendete und durchaus kritische Vorstellung vom gläsernen Kunden wird so von der Vorstellung vom gläsernen Content abgelöst.
Wie so oft bringt der Blick über den großen Teich die Erkenntnis, das amerikanische Unternehmen in manchen Dingen einen Schritt voraus sind. So auch beim emotionsbasierten Targeting. Der Sportsender ESPN schätzt den wahrscheinlichen emotionalen Zustand von Fans in Abhängigkeit vom aktuellen Spielstand ab. Die New York Times ermittelt mit Machine Learning den Zusammenhang von Meinungs- und Nachrichtenartikeln zu 18 emotionalen Dimensionen. CNN ermittelt emotionale Reaktionen in sozialen Medien und sagt damit die emotionale Reaktion zu neuen Contents voraus. USA Today kategorisiert den eigenen Content mittels Sentiment-Analysen.
Bisher beschränken sich die Lösungen allerdings immer auf einen einzelnen Publisher, ein Tool zum Einsatz durch mehrere Publisher gibt es bisher am Markt noch nicht. Nur große Publisher, wie ESPN oder New York Times können es sich leisten eine solche Lösung alleine zu entwickeln. Zudem ist unklar, inwiefern die amerikanischen Lösungen europäische Datenschutzstandards gerecht werden können.
Für Europa braucht es also ein eigenständiges Tool, das eine kontinuierliche Produktion leisten und damit die Aussteuerung von Werbung dauerhaft optimieren kann. Außerdem muss die Lösung die spezifischen Anforderungen eines Publishers berücksichtigen können. Grundsätzlich scheint diese Form von Targeting aber zu funktionieren, und sie erlaubt einen alternativen Ansatz um spezielle Anforderungen von Werbekunden umsetzen zu können. Klar ist aber auch, dass es bei der Umsetzung noch einiges zu lernen gibt und eine solche Lösung nicht von heute auf morgen fertig ist.
Der nächste notwendige Schritt ist die technische Validierung der Lösung und ein Nachweis der Wirksamkeit in einem Pilotprojekt. Nach vielen Gesprächen und theoretischen Problemen, heißt es jetzt: Praxis, Praxis, Praxis.
An dieser Stelle nochmal ein herzliches Dankeschön an alle Interviewpartner, das Media-Lab-Team und die anderen Fellows für spannende und lehrreiche Wochen!
Du hast Input zum Thema und möchtest dich austauschen? Melde dich gerne auf Xing oder Linkedin.