«Share a Coke» lautete im Sommer 2021 die Marketing-Kampagne von Coca-Cola. Hier verfeinerte man das Vorgehen von 2013: Interessierte Personen konnten nicht mehr nur Namen, sondern beliebige Botschaften mit einer maximalen Länge von 36 Zeichen auf Flaschen schreiben lassen.
Es kam sofort so, wie es kommen musste: Einige beliebte Formulierungen wie «Black Lives Matter» wurden automatisch blockiert, andere politisch und gesellschaftlich sehr fragwürdige undnicht akzeptable Parolen und Einzelwörter gingen problemlos durch die Kontrollen, wie ein Reporter von CNN ausprobierte und berichtete. Coca-Cola bedauerte in einer Erklärung mögliche Fehler und wies darauf hin, dass der interne Prüfprozess ständig kontrolliert und bei Bedarf verbessert werde: «Die erwähnten Formulierungen bedürfen möglicherweise einer Überprüfung.»
Filtern in Echtzeit
Bei der Getränkefirma verliess man sich gemäss Prüfberichten von Analysten auf eine Liste mit problematischen Wörtern und Satzfragmenten, die indes offensichtlich nicht ganz der Kreativität einiger Personen gewachsen war. Solche Prüf-Tools seien indes lediglich der erste Filter. Weitere würden hinzukommen – und dazu gehörten auch Kontrollen durch Menschen.
Mit dem Boom des Online-Handels wird die Content-Moderation zur Pflicht für alle Firmen, die Produkte im Netz verkaufen. Laut den Hochrechnungen der Analysten von CB Insights ist das keine einfache und billige Angelegenheit. Facebook beispielsweise filtert heute 15- mal mehr problematischen User-generierten Content heraus als noch vor fünf Jahren – und kann dennoch der Masse von Hate Speech, toxischem Verhalten und Fake-News kaum beikommen.
Die Firma Visable, Herausgeberin des Nachschlagewerks «Wer liefert was», hat sich unter CEO Peter F. Schmid vom Verlag zum internationalen Internetunternehmen gemausert. Den Change-Prozess beschreibt Schmid in seinem Buch «Mission Wandel: Von einem Old-School-Unternehmen zu einer Tech-Company – die Geschichte einer Transformation». Er erzählt von einem schockartigen Experiment mit Erfolgen und Fehlschlägen und gutem Ausgang.
ISBN 978-3-658-32174-1
Mit Deepfakes und Echtzeit-Streaming kommen neue Herausforderungen auf die Online-Verkaufskanäle zu. Startups wie Sentinel und Fakenet AI arbeiten an technischen Lösungen, die problematischen Content in Realtime wegfiltern sollen – auch von den E-Commerce-Plattformen.
«Grundsätzlich müssen sich sowohl kleine als auch grosse Firmen mit dem Thema Content-Moderation auseinandersetzen», sagt Alexandra Scherrer, CEO von Carpathia, einem auf E-Commerce spezialisierten Beratungsunternehmen in Zürich. «Content-Moderation ist überall dort notwendig, wo sogenannter Usergenerierter Content erstellt wird.» Händler und Marken müssten dabei sowohl den Content auf den eigenen Plattformen als auch den auf externen Social-Media-Kanälen, Marktplätzen, Blogs und Foren im Auge behalten.
«Die Content-Moderation auf der eigenen Plattform kann einfacher gesteuert und kontrolliert werden», sagt Scherrer. «Die Content-Moderation auf externen Plattformen gestaltet sich schwieriger, weil er schwieriger zu kontrollieren und zu moderieren ist, denn Marken und Händler müssen überhaupt erst einmal darauf aufmerksam werden, dass auf einer externen Plattform User-generierter Content zu ihren Unternehmen oder Produkten entstanden ist.»
Verteilte Verantwortung
Idealerweise überwacht man laut Scherrer den Content mit einer Kombination von Mensch und Maschine: Beide bringen ihre Stärken und Schwächen ein. «Mit künstlicher Intelligenz können Inhalte in grossen Datenmengen gefunden und basierend auf Datensätzen automatisiert ausgewertet und bearbeitet werden; jedoch bedarf es hier immer auch einer Kontrolle und des Eingriffs durch den Menschen», so Scherrer. «Wenn möglich sollte das Thema intern behalten werden, weil es etwa die Reputation von Unternehmen betrifft, weil etwaige Reaktionen, Rückfragen und so weiter von Usern von internen Instanzen besser beantwortet werden können und weil diese Feedbacks von Kundinnen und Kunden schneller vom Unternehmen aufgenommen undberücksichtigt werden können, sei es für die Produktentwicklung, sei es im Kundenservice oder in anderen Bereichen.»
Und auch die Reaktionszeiten müssen beachtet werden. «Je schneller, desto besser», sagt Scherrer. «Auf Twitter wäre eine Reaktionszeit von einem ganzen Tag schon lang, auf Instagram ist ein Tag wiederum okay, auf Foren oder Blogs fände ich eine Reaktionszeit von einer Woche auch noch vertretbar.»
Alle weiteren Folgen von «Handelszeitung Insights» finden Sie hier.
Die Verantwortung sollte aber beim Marketing/Branding liegen sowie auch (je nach Inhalt) beim Customer Service, könnte aber, noch weitergedacht, auch Bestandteil der Produktentwicklung sein, weil mehr und mehr Produkte in Zusammenarbeit mit der Community entstehen beziehungsweise von ihr mitentwickelt werden. Die grossen schweizerischen Plattformen machen es ziemlich genau entlang dieser Empfehlung.
Community reguliert sich selbst
Bei Competec, zu dem unter anderem auch die Handelsplattform Brack.ch gehört, hat man die Content-Moderation intern organisiert, «je nach Touchpoint ohne oder mit KI-Unterstützung», sagt Sprecher Daniel Rei. Fragen zu Produkten, die sich im Online-Shop stellen lassen, werden direkt vom Category Management beantwortet. Produktbewertungen werden laut Rei ebenfalls direkt von den Produktexpertinnen und -experten moderiert. Kommentare im Blog werden vom Content-Marketing beantwortet. «Feedbacks, die per E-Mail, Telefon oder Website-Chat an uns gelangen, werden im Kundendienst bearbeitet, solche via Social Media vom Social-Media-Team», so Rei. «Freilich sind die Abteilungen miteinander gut vernetzt und stimmen sich ab, um an jedem Touchpoint eine grossartige Kundenerfahrung zu bieten.»
Und auch bei Digitec Galaxus sieht man Bedarf für die Moderation des von Usern generierten Contents. «Wir moderieren händisch und intern», sagt Sprecher Alex Hämmerli. Um Fragen und Diskussionen zu den Produkten im Sortiment kümmert sich der Kundendienst. «Hier haben wir Produktspezialistinnen und -spezialisten, die sich an den Diskussionen beteiligen, sie moderieren und bei Bedarf Antworten geben», so Hämmerli. Anders funktioniert das bei den werberischen oder redaktionellen Beiträgen. «Wer einen Beitrag verfasst hat, bekommt per E-Mail-Benachrichtigungen, wenn neue Kommentare verfasst wurden», so Hämmerli. «Der Autor beziehungsweise die Autorin antwortet in der Regel dann, wenn Fragen offenbleiben. Ansonsten reguliert sich die Community sehr gut selbst.»