Facebook marcó incorrectamente más de 400.000 publicaciones relacionadas con el terrorismo

Facebook admitió haber etiquetado erróneamente 400.000 publicaciones relacionadas con el terrorismo y haberlas eliminado de su plataforma.

El gigante estadounidense de las redes sociales dijo el martes que el error se debió a una falla que provocó que sus algoritmos de moderación etiquetaran incorrectamente el contenido.

Facebook marcó incorrectamente más de 400.000 publicaciones relacionadas con el terrorismo

Facebook marcó incorrectamente más de 400.000 publicaciones relacionadas con el terrorismoFuente: Getty

Meta, la empresa propietaria de Facebook, compartió este error en su informe trimestral sobre la aplicación de los estándares comunitarios.

Se vio obligado a restaurar un total de 414.000 publicaciones que se eliminaron por error por violar las normas relacionadas con el terrorismo.

Otros 232.000 fueron tirados a la basura porque se consideró erróneamente que estaban asociados con grupos de odio organizados.

Aparentemente, las publicaciones fueron bloqueadas debido al mismo error. El problema ha sido resuelto.

Soy un ciberexperto y estos son los hábitos de contraseñas más PELIGROSOS que han sido expuestos
Facebook se burla de la controvertida actualización BILLIONS en una advertencia oficial

En su informe, Meta dijo que casi ha duplicado la cantidad de contenido violento que elimina de Facebook.

En el primer trimestre de 2022, Meta eliminó 21,7 millones de publicaciones por violar su política de contenido violento.

Eso es más de 12,4 millones en el trimestre anterior.

También ha habido un aumento en la cantidad de spam y contenido relacionado con drogas eliminado de Facebook e Instagram, respectivamente.

Pero Meta dijo que la prevalencia de contenido dañino ha disminuido ligeramente en algunas áreas, incluido el acoso y el contenido de acoso.

Esto se debe a las mejoras y mejoras en la tecnología de detección proactiva de la empresa.

“Hemos invertido en tecnologías de construcción a lo largo de los años para mejorar la detección de contenido que viola nuestras políticas”, dijo el vicepresidente de integridad de Meta, Guy Rosen.

“Gracias a este progreso, sabíamos que íbamos a cometer errores, por lo que era igual de importante invertir en mejorar nuestras políticas, la aplicación y las herramientas que ponemos a disposición de los usuarios”.

Rosen también dijo que la compañía está lista para refinar su política según sea necesario a medida que se introduzcan nuevas leyes de contenido para el sector tecnológico.

La Ley de seguridad en línea del Reino Unido ahora está siendo aprobada por el Parlamento y establecería nuevas y estrictas reglas de contenido dañino en línea para plataformas como Facebook e Instagram.

La UE también está trabajando en su propia regulación, y también se espera un enfoque similar en los EE. UU. en el futuro.

“A medida que siguen apareciendo nuevas regulaciones en todo el mundo, nuestro enfoque está en las obligaciones que crean para nosotros”, dijo Rosen.

A mi hermana le cobraron £ 32 solo por llorar frente al médico en la clínica
Un pasajero de Ryanair compartió la opinión después de negarse a mover los asientos de mamá y bebé

“Por eso agregamos y mejoramos procesos y supervisión en muchas áreas de nuestro trabajo.

“Esto nos permitirá hacer progresos continuos en temas sociales, así como cumplir de manera más efectiva con nuestras obligaciones regulatorias”.

  • Lea todas las últimas noticias sobre teléfonos y dispositivos
  • Mantente al tanto de las historias de Apple
  • Obtenga la información más reciente en Facebook, WhatsApp e Instagram

¡Pagamos por tus historias! ¿Tienes una historia para el equipo de tecnología y ciencia de El Federal Online? Envíenos un correo electrónico a info@elfederalonline.cl

Deja una respuesta

Tu dirección de correo electrónico no será publicada.