Mit künstlicher Intelligenz gegen Terror-Inhalte
Unter wachsendem Druck seitens der Politik wollen Internetkonzerne verstärkt künstliche Intelligenz im Kampf gegen terroristische Inhalte einsetzen.
Nach Facebook kündigte dies am Wochenende auch Google an. Der Internetkonzern wird dafür mehr Entwickler abstellen und seine modernste Technologie bei selbstlernenden Maschinen nutzen.
Damit sollen unter anderem bei der Videoplattform YouTube automatisch mehr Clips mit Terrorpropaganda aufgespürt werden. Auch die Zahl der Experten, die über als verdächtig markierte Videos entscheiden, wird stark erhöht. Google setzt dabei auf „Trusted Flagger“, das sind Einzelpersonen oder Organisationen, denen Google vertraut, wenn sie anstößige oder rechtswidrige Inhalte anzeigen. Das können auch Strafverfolgungsbehörden sein.
Videobilder werden von Google analysiert, um Terror-Propaganda auch ohne Hinweise von Nutzern zu entdecken. Mehr als die Hälfte der gelöschten Inhalte in den vergangenen sechs Monaten sind so gefunden worden. Entwickler des Internetkonzerns haben Technologien entwickelt, die ein erneutes Hochladen bereits bekannter terroristischer Videos verhindern.
Auch Facebook gab vor wenigen Tagen bekannt, dass selbstlernende Maschinen stärker dafür eingesetzt werden, solche Inhalte nicht wieder auf die Plattform zu lassen. Zudem wird an einem Algorithmus gearbeitet, der mittels Textanalyse terroristische Propaganda erkennen soll.
Foto: dpa / Lukas Schulze