23.08.2021

Kinder- und Jugendschutz auf Online-Plattformen

Wie können wir Kinder und Jugendliche im Internet schützen, die die Onlinewelt für sich entdecken und dort wichtige Erfahrungen sammeln? Wie können illegale Inhalte im Internet effektiv bekämpft werden? Im Interview sprechen wir mit Dr. Alexander Kleist über die Sicherheit von Kindern und Jugendlichen auf Online-Plattformen. Er ist Public Policy Lead bei Instagram für Deutschland, Österreich und die Schweiz. Außerdem tritt er als Keynote Speaker auf der ersten pre-summit session des eco Trust&Safety Summits 2021 auf.

 

Herr Kleist, wie garantiert Instagram als Plattform den Schutz von Kindern und Jugendlichen?

Kleist: Die Sicherheit junger Menschen auf Instagram ist eine unserer wichtigsten Prioritäten. Wir arbeiten kontinuierlich mit engagierten Teams daran, neue Tools auszuprobieren, die Minderjährige auf unserer Plattform schützen. In diesem Jahr haben wir bereits einige Funktionen veröffentlicht, die Jugendliche vor ungewollten Interaktionen schützen und ihre Privatsphäre sichern. Vor kurzem haben wir außerdem eingeführt, dass Personen unter 18 Jahren automatisch einen Privataccount bekommen, wenn sie sich bei Instagram anmelden. Jede Person muss mindestens 13 Jahre alt sein, wenn sie Instagram nutzen möchte. Die meisten Personen geben ihr Alter dabei wahrheitsgemäß an – wir wissen aber natürlich, dass manche Menschen diesbezüglich nicht aufrichtig sind. Um diese Herausforderung zu adressieren, fokussieren wir uns darauf neue Technologien zu entwickeln, die uns durch künstliche Intelligenz oder maschinelles Lernen bei der Verifizierung des tatsächlichen Alters helfen. Dies ist ein wichtiger Schritt, aber wir gehen noch weiter: Eine unserer Funktionen hält Erwachsene davon ab, Kindern und Jugendlichen unter 18 Jahren Direktnachrichten zu schicken, wenn diese ihnen nicht auf Instagram folgen. Wenn ein Erwachsener beispielsweise einem Kind eine Nachricht schickt, das ihm nicht folgt, bekommt dieser eine Benachrichtigung, dass er nicht dazu berechtigt ist.
Mit diesen Funktionen stärken wir unsere Richtlinien zum Schutz von Kindern und Jugendlichen, verbessern die Technologie, um illegale Inhalte zu finden, bauen Sicherheitstools, um Menschen zu helfen und arbeiten mit lokalen Expert*innen und Organisationen.

 

Warum ist die Kooperation zwischen den Plattformen so wichtig? Brauchen wir internationale Compliance Standards?

Kleist: Wir verfolgen als Unternehmen einen ganzheitlichen Ansatz, um unsere Plattform zu einem besseren Ort zu machen. Dazu legen wir in klaren Richtlinien fest, was erlaubt ist und was nicht. Wir entwickeln Technologien, um Missbrauch zu verhindern und zu entdecken, um Tools für Nutzer*innen anzubieten und mit über 500 Sicherheits-Partnerinnen auf der gesamten Welt in Kontakt zu treten. Darunter sind die führenden Internet-Sicherheits-Organisationen: Unser Facebook-Sicherheitsrat und unsere Global Women’s Safety Expert Advisors, eine Gruppe von 12 führenden Vertreterinnen von NGOs, Aktivistinnen und akademischen Expertinnen. Sie helfen uns dabei neue Richtlinien, Produkte und Programme zu entwickeln, die alle Frauen, die die Apps nutzen, unterstützen und schützen. Darüber hinaus kollaborieren wir mit anderen Unternehmen und engagieren uns in übergeordneten Projekten, um Kinder online zu schützen. Im vergangenen Jahr haben wir gemeinsam mit Google, Microsoft und anderen Tech-Unternehmen das Projekt Protect gestartet – eine Initiative, um sexuellen Missbrauch online zu bekämpfen. Außerdem ist unsere Foto- und Video-Matchmaking Technologie quelloffen gestaltet (open source). So helfen wir Industrie-Partnern, Entwickler*innen und NGOs dabei, illegale Inhalte einfacher zu identifizieren und Hashes oder digitale Fingerabdrücke zu teilen.

 

Strenge Community-Guidelines bieten einerseits sicheren Schutz für Nutzer*innen. Andererseits besteht dadurch auch das Risiko, dass auch legale Inhalte und Meinungsbeiträge gelöscht werden. Wie lösen Sie diesen Zwiespalt?

Kleist: Als Plattform sehen wir den Konflikt zwischen Meinungsfreiheit und dem Schutz unserer Nutzer*innen vor Missbrauch, Hassrede, Mobbing und Belästigung. Unsere Community-Standards, die festlegen was auf Facebook und Instagram geteilt werden darf, helfen uns dabei hier die richtige Balance zu finden. Gleichzeitig hat Facebook immer wieder erklärt, dass private Unternehmen weitreichende Entscheidungen über Inhalte nicht alleine treffen sollten. Aus diesem Grund haben wir ein unabhängiges Oversight Board gegründet, indem Expert*innen mit verschiedenen Themen, Hintergründen und Kulturen vereint sind. Das Board beschäftigt sich mit ausgewählten kontroversen Entscheidungen über Inhalte auf Facebook und Instagram. Es spricht bindende Entscheidungen und Empfehlungen aus, was auch die zukünftige Entwicklung der Richtlinien für Nutzer*innen betrifft.

Trotz all unserer Bemühungen ist es wichtig festzuhalten: In manchen Fällen machen wir Fehler. Unsere Inhaltsprüfer*innen bekommen jede Woche Millionen von Berichten. In manchen Fällen werden Inhalte versehentlich gelöscht. Wenn wir uns eines solchen Fehlers bewusstwerden, analysieren wir diesen sofort und stellen die Inhalte wieder her, wenn es möglich ist.

Vielen Dank für das Gespräch!

Mehr Informationen über Prävention und den Umgang mit illegalen Inhalten im Internet bekommen Sie auf der pre-summit session des eco oder beim eco Trust&Safety Summit 2021.

Alexander Kleist