Susan Wojcicki ist CEO von YouTube und leitet die Bereiche Content und Business Operations. Sie gibt nur selten Interviews, daher war die Veranstaltung im Rahmen der Serie „Insights and Power: Internet Scientists meet Decision-Makers“ des Hans Bredow-Instituts eine gute Gelegenheit, sie kennenzulernen. Im Gespräch mit Professor Dr. Wolfgang Schulz, moderiert von Professor Dr. Matthias C. Kettemann, ging es unter anderem um den Einfluss der Corona-Pandemie auf die Videoplattform, den Einsatz von Künstlicher Intelligenz bei der Bewertung von Inhalten sowie über den Umgang der Plattform mit weltweit unterschiedlichen Gesetzeslagen.

Wie hat sich die Pandemie auf YouTube ausgewirkt?

Die Veranstaltung, die live auf YouTube gestreamt wurde, hatte das Motto „Great Expectations: What Research Expects from Platforms and Platforms from Research“. Zunächst äußerte sich Susan Wojcicki aber zu dem Thema, das uns alle seit zwei Jahren beschäftigt: die Corona-Pandemie. Dank jahrelanger Arbeit und Investitionen in Firmenpolitik und Technik konnte YouTube allerdings sehr schnell auf die Pandemielage reagieren, erläuterte Susan Wojcicki.  Es gab zum Beispiel Verschwörungstheoretiker, die, wenig überraschend, ihre kruden Gedanken über YouTube verbreiten wollten. Hier musste schnell reagiert werden – natürlich immer unter Beachtung der landesspezifischen Gesetze und unter Einhaltung der Meinungsfreiheit. Entscheidungen darüber, welche Videos entfernt werden sollten, mussten unmittelbar getroffen werden – das war möglich dank jahrelanger Erfahrung und Investitionen in die Technik.

Andererseits bot und bietet YouTube natürlich auch die Möglichkeit, seriöse Informationen über die Pandemie zu verbreiten und Falschinformationen zu entlarven. Deshalb hat das Unternehmen mit über 80 Gesundheitsorganisationen weltweit zusammengearbeitet, sodass immer die aktuellsten Informationen abrufbar waren.

Wie wird Künstliche Intelligenz in der Moderation von Content eingesetzt?

Wie sind eine effektive Content-Überwachung und Moderation in so einer Lage überhaupt möglich? Ohne technischen Support würde das gar nicht funktionieren. Aber wo liegen hier die Grenzen und wie wird YouTube in Zukunft damit umgehen? Diese Frage, die mich persönlich besonders interessiert hat, beantwortete Susan Wojcicki wie folgt: „Als die Pandemie zuschlug, mussten wir zahlreiche unserer menschlichen inhaltlichen Prüfer nach Hause schicken. Aber viele von ihnen konnten gar nicht von Zuhause aus arbeiten. Innerhalb kürzester Zeit haben wir dann ein System aufgestellt, dass zu hundert Prozent auf Maschinen beruht“. Sie erklärte es auch noch genauer: Zunächst schickt YouTube die Künstliche Intelligenz vor, damit sie herausfindet, welche Inhalte problematisch sein könnten. Normalerweise kommen anschließend die menschlichen Prüfer ins Spiel, die das dann final bewerten. Menschen sind dann wichtig, wenn es darum geht, Inhalte in den richtigen Kontext zu stellen, Nuancen zu erkennen und den tatsächlichen Inhalt zu verstehen. Während der Pandemie war das nicht mehr möglich, YouTube konnte fast nur noch auf KI bauen. Dass dadurch Fehler passieren können und auch passierten, räumt sie ein. Das Gute daran war, die Grenzen von KI zu erkennen. Nun arbeitet das Unternehmen wieder mit einem großen Teil menschlicher Prüfer. „Menschen werden in der Content-Moderation immer eine Rolle spielen“, erklärte sie.

Was die Forschung von den Plattformen und die Plattformen von der Forschung erwarten

Die Bedeutung der Zusammenarbeit von Wissenschaft und Plattformen schätzen sowohl Susan Wojcicki als auch Prof. Dr. Wolfgang Schulz als hoch ein: „Forschende spielen eine zentrale Rolle, wenn es darum geht, ein transparentes Verständnis von Plattformen zu vermitteln“, sagte Susan Wojcicki. „Je mehr Forscher*innen und Gesetzgeber*innen die Inhaltsregulierung von YouTube verstehen, desto besser werden wir unser Verständnis von Plattform-Governance abstimmen können. Ein Vorteil für uns alle.“ Für den Juristen Prof. Dr. Wolfgang Schulz ebenfalls ein wichtiges Thema: „Als Rechtswissenschafler*innen schauen wir mit immer größerem Interesse auf Onlineplattformen und ihre Prozesse der Inhaltsregulierung“, erklärte er. „Wir haben beobachtet, dass die gedankliche Herangehensweise an die plattforminterne Normenbildung jener Herangehensweise ähnelt, die auch Gesetzgeber beim Erlassen von Gesetzen anwenden.“

Wie geht YouTube mit unterschiedlichen Gesetzeslagen um?

Länderspezifische Gesetze können ein Minenfeld sein. Wie geht YouTube mit den verschiedenen gesetzlichen Regeln um, sodass trotzdem sowohl Werbetreibende als auch User zufrieden sind? Eine sehr gute Frage, auf die Susan Wojcicki gerne eingeht: Selbstverständlich setze YouTube weltweit durch, dass die jeweiligen Gesetze eingehalten werden. Das sei aber gar nicht das größte Problem. Schwierig werde es, wenn Content als schädlich eingestuft wird, der aber nicht illegal ist. Auch hier gab es zahlreiche Beispiele bezüglich Covid. Unzählige Meinungen zu Masken, Impfungen, Herkunft des Virus etc. sorgten immer wieder für Druck auf YouTube – die Grenzen zwischen legal, illegal und Meinungsäußerungen sind natürlich oft fließend. Die Kategorie „schädlich, aber legal“ sorgte für die größten Diskussionen. Hier ging es auch immer darum, sich mit den Werbetreibenden abzustimmen, die selbstverständlich nicht vor einem für sie fragwürdigen Inhalt geschaltet werden wollen.

Welche Rolle spielen die neuen regulatorischen Ansätze der Europäischen Union bei den strategischen Entscheidungen des Unternehmens?

Susan Wojcicki hat großes Verständnis dafür, dass die Länder ihre Gesetze durchsetzen wollen und welche Verantwortung eine Plattform wie YouTube dahingehend hat – gerade bezüglich Copyrights, Onlinespiele etc. Sie fügt aber auch hinzu, dass es – wie oben bereits erwähnt – nicht immer einfach ist, alle Gesetze korrekt auszulegen und sinnvoll umzusetzen, da sie oft unterschiedlich und nicht klar formuliert sind. Sie möchte vermeiden, dass aufgrund nicht eindeutiger Gesetze kleine Unternehmen oder Content Creator*innen mit Nachteilen oder unbeabsichtigten Konsequenzen konfrontiert werden – denn sie haben keine Lobby, die sich für sie stark macht. Zudem müsse es für Plattformen wie YouTube möglich sein, problematischen Inhalt sofort zu entfernen, ohne vorher einen langen Behördenweg gehen zu müssen.

Susan Wojcicki hat einen großen Wunsch an die Regierungen: Die Gesetze für Online-Inhalte klar und einheitlich zu definieren, damit sie entsprechend klar umgesetzt werden können.