Google: Mit künstlicher Intelligenz gegen Terror-Inhalte

  • Google: Mit künstlicher Intelligenz gegen Terror-Inhalte

Google: Mit künstlicher Intelligenz gegen Terror-Inhalte

Jetzt will der Internetkonzern mehr Entwickler-Ressourcen der Anwendung fortgeschrittenster Maschinenlernen-Forschung auf das Training neuer "Inhalte-Kategorisierer" widmen, um "uns zu helfen, extremistische und terrorbezogene Inhalte schneller zu identifizieren und zu entfernen". Der Konzern setzt noch stärker auf künstliche Intelligenz und menschliche Spürnasen. Kent Walker, der Chefjurist des Internet-Konzerns kündigte am Sonntag einen 4-Punkte-Plan an. Walker betonte, dass Google und andere Internet-Firmen schon seit Jahren daran arbeiteten, solche Inhalte zu finden.

Unter anderem solle so bei der Videoplattform YouTube automatisch mehr Clips mit Terrorpropaganda aufgespürt werden. Google nennt sie "Trusted Flagger" und versteht darunter Personen und Organisationen, denen das Unternehmen bei der Beurteilung von anstößigen oder rechtswidrigen Inhalten vertraut. Mehr als die Hälfte der gelöschten Inhalte in den vergangenen sechs Monaten sei so gefunden worden. Auch die Zahl der Experten, die über als verdächtig markierte Videos entscheiden, werde stark erhöht, schrieb Walker in einem Beitrag in der "Financial Times" und im Unternehmensblog.

Doch nicht immer könnten diese Sicherheitsprogramme Terrorvideos von Nachrichtenbeiträgen mit den selben Bildern unterschieden, räumt der Jurist ein. Zudem würden die Kommentar-Funktion und die Werbung deaktiviert.

Künftig sollen Nutzer, die häufig nach Terror-Inhalten suchen gezielt zu Anti-Terror-Videos umgeleitet werden.

Zuvor hatte auch Facebook ähnliche Initiativen angekündigt. Dafür will Google auch die Zahl der Entwickler erhöhen, die sich mit diesem Thema auseinandersetzen. Google reagiert damit auf den Druck aus der Politik, sich des Problems anzunehmen.