Bereits vor der Erfindung des Internets fand Kommunikation immer ihre Wege – wenngleich nicht immer steuerbar und transparent. Wer heute einen Kommunikationskanal auf einer Online-Plattform betreibt, möchte natürlich möglichst genau steuern, wer teilnimmt und mit welchen Themen. Das wird jedoch schwierig, wenn die Masse an Kommentaren zunimmt. Medienangebote in den sozialen Medien haben oftmals einen so großen Zulauf, dass die Quantitäten kaum noch vollständig gesichtet oder gar beantwortet werden können.

Wie kann KI im Community Management unterstützen?

Spätestens bei Größenordnungen ab 10.000 Kommentaren pro Monat wird das Community Management zur Herausforderung. Hier kann künstliche Intelligenz hilfreich sein: Über eine selbst zu definierende und kontinuierlich aktualisierte Black- oder Whitelist prüft die KI vorab die Kommentare und selektiert potenziell kritische Inhalte vor. Diese Vorsortierung bietet die Möglichkeit, unerwünschte Inhalte schneller zu erfassen und die betreffenden Äußerungen zeitnah zu löschen oder zumindest zu verbergen.

Aber auch für ein erfolgreiches Marketing lässt sich eine entsprechend programmierte KI nutzen: Gehäufte Produktkritik etwa kann auf diese Weise identifiziert werden. Auch sinnvolle Anregungen sollten aus marktwirtschaftlichem Interesse nicht unberücksichtigt bleiben und können mithilfe der Technik zielgenauer erfasst werden.

Eine systematische Nutzung von KI-gestütztem Monitoring sorgt somit dafür, dass Online-Communities nicht „aus dem Ruder“ laufen, sondern zielgerichtet und sachorientiert bleiben. Verschwörungstheoretiker oder extremistische Positionen, Sexismus, Xenophobie, Homophobie oder einfach nur aggressiver Hate Speech werden frühzeitig erkannt und entsprechend aussortiert.

Optimales Ergebnis durch Kombination von KI und Handarbeit

Bei allen Vorteilen ist KI dennoch keine Wunderwaffe. Sprache ist komplex und kann mehrdeutig sein, will manchmal auch mehrdeutig sein. Sie spielt mit Ironie, Zynismus und Sarkasmus – und kann dann in scheinbarer Harmlosigkeit doch brandgefährlich werden. Ein Beispiel: Der Satz „Im Mittelalter war auch nicht alles schlecht“ erscheint für sich genommen zunächst noch harmlos. Das Wort „Mittelalter“ wäre auch kein primärer Kandidat für eine Blacklist. Im Kontext einer Diskussion über die in einem asiatischen Staat neu eingeführte Todesstrafe für Homosexualität überschreitet dieser Kommentar allerdings klar eine Grenze.

Es ist daher sinnvoll, die Arbeit der KI kontinuierlich manuell zu überprüfen. Nur auf diese Weise erhält man die Sicherheit, die Debatten in der Community richtig zu deuten und zu steuern. Für unsere Kunden hat sich dieses Modell inzwischen bewährt: Die KI filtert und sortiert vor, unsere Mitarbeiter im Community Management-Team kontrollieren die Posts und korrigieren die Fehler des Systems.

Das Ergebnis sind zufriedene Nutzerinnen und Nutzer sowie eine Diskussionskultur, bei der inakzeptable Ausschweifungen von Beginn an reglementiert und unterbunden werden. Auch für die verantwortlichen Social Media-Redakteure ist dieses System optimal. Sie können sicher sein, dass ihre Streams jederzeit „sauber“ sind und sich auf die Beantwortung produktiver und hilfreicher Beiträge konzentrieren, anstatt ihre Zeit mit dem Löschen und Bereinigen von inakzeptablen Beiträgen zu verschwenden.