Herr Lorenz-Spreen, warum sollten sich Markenverantwortliche überhaupt mit der Wirkung von Algorithmen, Deepfakes und Social Media auf den gesellschaftlichen Diskurs beschäftigen?
Weil Marketing längst Teil eines Systems ist. Die Plattformen, auf denen Marken heute kommunizieren, funktionieren nach einer eigenen Logik: Ihre Algorithmen sind darauf optimiert, Aufmerksamkeit zu maximieren – oft mit Nebenwirkungen wie Polarisierung oder Emotionalisierung. Werbung dockt direkt an diese Mechanik an. Wer digital wirbt, nutzt nicht nur das System – er stabilisiert und finanziert es. Die Werbebranche ist also nicht bloß Beobachterin, sondern Mitgestalterin einer digitalen Öffentlichkeit, die sich zunehmend verändert.
Sie sagen, Marken profitieren von Algorithmen. Aber übernehmen sie auch Verantwortung oder machen sie sich mitschuldig an der Polarisierung?
Primär sehe ich die Verantwortungen bei den Plattformen selbst, durch deren Kontrolle über Informationsflüsse spielen sie mittlerweile eine wichtige gesellschaftliche Rolle, der sie sehr selten gerecht werden. Aber sobald man sich in diesem System bewegt, macht man mit – ob als Marke oder Politiker*in. Werbung treibt die Plattformlogik mit an, selbst wenn Polarisierung nicht beabsichtigt ist. Gleichzeitig sind viele Marken abhängig vom digitalen Werbesystem. Doch gerade weil sie es finanzieren, könnten sie es auch beeinflussen. Wer entscheidet, wo und wie geworben wird, sendet ein Signal. Große Marken unterschätzen oft, wie viel Macht sie dabei hätten.

Das heißt: Marketing hat eine politische Verantwortung?
Spätestens seit der Rückkehr Trumps auf X, der offenen Politisierung durch Elon Musk und den unklaren Verbindungen von TikTok nach China ist klar: Diese Plattformen sind keine neutralen Räume. Sie sind Teil politischer Realitäten. Wer dort präsent ist, kommuniziert nicht im Vakuum. Das gilt umso mehr, wenn eine Marke Haltung zeigen will – etwa für Demokratie oder Nachhaltigkeit. Dann muss man sich fragen: Passt der Werbekanal zur Botschaft?
Wenn Sie für eine große Marke Social-Media-Richtlinien formulieren müssten – was stünde ganz oben?
Transparenz. Ich finde, Plattformen sollten offenlegen, wie ihre Algorithmen funktionieren, was mit den Daten passiert, und wie Inhalte personalisiert werden. Und wer dort wirbt, sollte das ebenfalls einfordern. Nur wenn wir verstehen, warum bestimmte Inhalte bestimmten Menschen angezeigt werden, kann man über Verantwortung sprechen. Transparenz schafft überhaupt erst die Grundlage für jede Form von ethischem Marketing.
Gilt das auch für personalisierte Werbung? Viele Nutzer*innen schätzen sie, lehnen aber die Datensammlung dahinter ab.
Wenn Personalisierung auf Interessen basiert, ist das grundsätzlich legitim. Es bringt ja niemandem etwas, irrelevante Werbung zu sehen. Problematisch wird es, wenn persönliche Eigenschaften wie Emotionen oder psychologische Profile einbezogen werden. Wenn derselbe Inhalt je nach Nutzer*in unterschiedlich geframed wird, um Ängste zu triggern oder Persönlichkeitstypen auszunutzen, wird es manipulativ. Das ist oft nicht direkt erkennbar für die Nutzer*innen. Aber sie lehnen es ab, sobald sie es erfahren. Deshalb wäre auch hier: mehr Transparenz ein sehr guter Kontrollmechanismus.
Also müssten Marken ihre Targeting-Logiken offenlegen?
Das wäre gesellschaftlich sicher hilfreich. Aber ich verstehe, dass es aus Unternehmenssicht heikel ist. Targeting ist heute ein Betriebsgeheimnis – anders als früher, als man einfach sehen konnte, wer wo Anzeigen schaltet. Heute sieht jeder etwas anderes. Diese Intransparenz ist neu – und sie verhindert öffentliche Kontrolle. Ich finde, es wäre fair, wenn zumindest Grundprinzipien offengelegt werden. Die Ad Library von Meta geht da schon in die richtige Richtung. Warum nicht auch für kommerzielle Kampagnen?
Auch im Kreativbereich wird KI eingesetzt: Bilder, Videos, Voices, virtuelle Influencer. Was macht das mit unserer Vorstellung von Authentizität?
Im kommerziellen Kontext sehe ich das differenziert. Werbung war immer inszeniert. Niemand glaubt, dass ein Werbespot die Realität abbildet. Aber: Wenn KI genutzt wird, um Menschen zu zeigen, die nicht existieren, wenn Körperideale generiert werden, die jenseits menschlicher Möglichkeiten liegen – dann wird es problematisch. Gerade junge Menschen sind davon beeinflussbar. Und wenn das nicht mehr kenntlich gemacht wird, entstehen schädliche Normen. Ich finde: Bei Inhalten mit Menschen müsste klar sein, ob sie real oder KI-generiert sind.
Gilt das auch für virtuelle Influencer*innen?
Ja, in besonderem Maße. Diese Figuren sehen oft hyperrealistisch aus, bewegen sich wie echte Personen, interagieren mit der Community. Und Menschen merken möglicherweise nicht, dass sie nicht echt sind. Das ist emotionale Täuschung. Und das geht deutlich weiter als klassische Promi-Werbung. Wenn Unternehmen das einsetzen, tragen sie Verantwortung dafür, wie diese Figuren gestaltet sind, welche Ideale sie verkörpern und ob das transparent kommuniziert wird.
Braucht es einen Code of Conduct für KI-Kreativität im Marketing?
Ja. Zum Beispiel könnte man unterscheiden: Wenn Produkte inszeniert werden, ist das eine Sache. Wenn Menschen dargestellt werden, sollten klare Kennzeichnungspflichten gelten. Und zwar nicht nur, weil es ethisch geboten ist, sondern auch, weil wir sonst keine gesellschaftliche Debatte führen können. Ohne Kennzeichnung können wir nicht mal mehr erforschen, welche Inhalte überhaupt KI-generiert sind.
Deepfakes, Desinformation auf Social Media, Fake-Kampagnen – ist das schon Realität für Markenkommunikation?
Es wird immer einfacher, Personen und Aussagen zu fälschen. Ich glaube, es ist nur eine Frage der Zeit, bis das in großem Stil passiert. Deshalb müssen wir über Kennzeichnung, Medienkompetenz und Verantwortung sprechen. Und zwar jetzt.
Digitale Verantwortung ist in aller Munde. Aber meinen es Marken ernst? Oder ist es das neue Greenwashing?
Beides gibt es. Klar, der Begriff wird auch als Marketing-Vokabel verwendet. Aber ich sehe auch Potenzial. Gerade in Europa gibt es eine Sensibilität für digitale Ethik. Wenn Marken sagen: Wir verzichten bewusst auf bestimmte Plattformen oder Technologien – dann kann das ein Wettbewerbsvorteil sein. Ich wünsche mir, dass dieser Gedanke Schule macht. Denn auf die Plattformen selbst sollten wir nicht warten. Die Selbstverpflichtungen der letzten Jahre haben wenig gebracht.
Kann es überhaupt „gute“ soziale Medien geben? Oder ist die Aufmerksamkeitslogik zu stark?
Ich glaube, es gibt Alternativen. Plattformen wie Mastodon oder BlueSky zeigen, dass es auch anders geht. Ob sie sich durchsetzen, ist offen. Aber die Hoffnung, dass Digitalisierung demokratisch wirken kann, habe ich nicht aufgegeben. Wir müssen solche Modelle ausprobieren – sonst bleibt alles beim Alten.