Facebook y YouTube eliminaron unos 10 millones de contenidos extremistas y de adultos

Facebook y YouTube eliminaron alrededor de 10 millones de contenidos extremistas -muchos realizados o subidos por Isis y Al Quaeda- o con contenidos para adultos durante los primeros tres meses del año, y en gran medida lo hicieron con técnicas de inteligencia artificial, informaron.

La red social eliminó 1,9 millones de "piezas con contenidos de Isis y Al Quaeda" en el primer trimestre del año, aproximadamente el doble que en el mismo período del año pasado.

Si bien la mayoría de estos contenidos fueron eliminados, a "una pequeña porción" de estos se los mantuvo pero se le agregó una advertencia !que se compartió con fines informativos o de contra discurso", informó Facebook en un comunicado.

"En la mayoría de los casos, encontramos este material debido a los avances en nuestra tecnología, pero esto también incluye la detección por parte de nuestros revisores internos", señaló la empresa en un comunicado, y precisó que el 99% del contenido sobre el que accionó no había sido denunciado por usuarios de la red.

Facebook utiliza sistemas de aprendizaje automático (una rama de la inteligencia artificial) para automatizar la detección de contenidos que violan sus Normas Comunitarias, sobre todo en el momento de la carga y cuando se trata de videos.

Según detalló, los contenidos eliminados en el trimestre permanecieron online por "menos de un minuto" en promedio.

En los términos de la red social, terrorismo es "toda organización no gubernamental que lleva a cabo actos violentos premeditados contra personas o propiedades con el fin de intimidar a una población civil, un gobierno o una organización internacional para lograr un objetivo político, religioso o ideológico."

Por su parte, YouTube anunció hoy que removió 8 millones de videos en el primer trimestre de 2018, la mayoría de los cuales contenía spam o contenidos adultos.

De esa cantidad, 6,7 millones fueron marcados por máquinas (por procesos automatizados) y el 76% de los mismos, eliminados antes de que fuesen reproducidos una sola vez.

"Las máquinas nos permiten marcar contenidos para su revisión a escala, lo que nos ayuda a eliminar millones de videos infractores antes de que se vean. Y nuestra inversión en aprendizaje automático para ayudar a acelerar las extracciones está rindiendo frutos en áreas de alto riesgo y bajo volumen (como el extremismo violento) y en áreas de gran volumen (como el spam)", informó la empresa en un comunicado.

"Implementar el aprendizaje automático en realidad significa más personas revisando el contenido, no menos", continuó, y aclaró: "nuestros sistemas se basan en la revisión humana para evaluar si el contenido infringe nuestras políticas".

Fuente:

Notas Relacionadas

Dejá tu comentario

Las Más Leídas del Patagónico