"Si bien nos equivocamos por el lado de la libertad de expresión, generalmente señalamos cualquier cosa que pueda resultar un daño real", dijo el presidente ejecutivo de Facebook, Mark Zuckerberg, durante una sesión informativa acerca del último informe de la compañía sobre el rastreo y eliminación de publicaciones que violan sus políticas.
"Esta es una pequeña fracción del contenido en Facebook e Instagram, y eliminamos gran parte antes de que alguien lo vea", aseguró.
La red social estuvo invirtiendo fuertemente en inteligencia artificial (IA) para detectar automáticamente el contenido prohibido, a menudo para poder verlo antes que los usuarios, así como en equipos humanos de supervisores que verifican si el software fue el objetivo.
Facebook tiene más de 35.000 personas trabajando en seguridad, y gasta miles de millones de dólares anualmente en esa misión, según Zuckerberg.
"Nuestros esfuerzos están dando sus frutos", dijo Zuckerberg. "Los sistemas que creamos para abordar estos problemas son más avanzados", subrayó.
Cuando se trata de detectar discursos de odio, el software de Facebook ahora encuentra automáticamente el 80% del contenido eliminado en una mejora masiva respecto de hace dos años, cuando casi todo ese material no se trató hasta que los usuarios lo informaron, según precisó la firma con sede en California.
AFP
Acerca de los comentarios
Hemos reformulado nuestra manera de mostrar comentarios, agregando tecnología de forma de que cada lector pueda decidir qué comentarios se le mostrarán en base a la valoración que tengan estos por parte de la comunidad. AMPLIAREsto es para poder mejorar el intercambio entre los usuarios y que sea un lugar que respete las normas de convivencia.
A su vez, habilitamos la casilla reportarcomentario@montevideo.com.uy, para que los lectores puedan reportar comentarios que consideren fuera de lugar y que rompan las normas de convivencia.