Meta, la empresa matriz de Facebook, Instagram y Threads, ha anunciado una revisión profunda en sus políticas de moderación de contenido. Con un enfoque renovado en la libertad de expresión, la compañía busca reducir la censura injustificada y los errores en sus sistemas de moderación, adaptándose a las demandas de sus usuarios y las lecciones aprendidas en los últimos años.
El fin del programa de verificación de hechos externo
Meta eliminará su programa de verificación de hechos gestionado por terceros en Estados Unidos. Lanzado en 2016 para combatir la desinformación viral, este programa generó críticas por su falta de neutralidad en temas políticos. En lugar de continuar con los verificadores externos, Meta introducirá Community Notes, un sistema colaborativo inspirado en el modelo de X (Twitter).
Características principales de Community Notes:
- Colaboración comunitaria: Las notas serán generadas y evaluadas por usuarios con diferentes perspectivas, sin intervención de Meta.
- Mayor transparencia: Se mostrarán las contribuciones y cómo las diversas opiniones afectan la visibilidad de las notas.
- Etiquetas informativas: Las publicaciones marcadas no serán bloqueadas con advertencias intrusivas; en su lugar, tendrán etiquetas opcionales con información adicional.
El despliegue de Community Notes comenzará en Estados Unidos en los próximos meses y se expandirá globalmente tras su fase inicial.
Moderación más precisa y menos intrusiva
Meta reconoce que sus sistemas de moderación automatizados han eliminado contenido legítimo de manera desproporcionada. En diciembre de 2024, se eliminaron millones de publicaciones diarias, con hasta un 20% de errores en las decisiones. Para abordar este problema, la empresa está implementando cambios significativos:
- Enfoque en violaciones graves: Los sistemas automáticos priorizarán casos como terrorismo, explotación infantil y fraudes, mientras que otras infracciones dependerán de reportes manuales.
- Menos demociones automáticas: Se eliminarán las penalizaciones basadas en predicciones inciertas de los algoritmos.
- Refuerzo del equipo humano: Más revisores evaluarán apelaciones, y en ciertos casos, se requerirá consenso entre varios revisores antes de eliminar contenido.
Además, Meta trasladará a sus equipos de confianza y seguridad a nuevas oficinas en Texas y otras regiones, descentralizando su operación.
Más contenido político y controles personalizados
Desde 2021, Meta limitó la visibilidad de contenido político en respuesta a las preferencias de muchos usuarios. Sin embargo, este enfoque será ajustado para permitir una personalización más precisa:
- Control del usuario: Los usuarios podrán decidir si desean ver más contenido político en sus feeds.
- Recomendaciones inteligentes: Los algoritmos de Meta considerarán señales explícitas (me gusta) e implícitas (visualizaciones) para mostrar contenido relevante de temas cívicos y políticos.
Un retorno a los principios de libertad de expresión
Con estos cambios, Meta busca reconectar con su misión fundacional: ser una plataforma donde todas las voces tengan cabida. Joel Kaplan, director global de asuntos públicos de Meta, destacó la importancia de esta transformación:
“Queremos volver a priorizar la libertad de expresión sin restricciones innecesarias, asegurándonos de que nuestras políticas sean claras, justas y reflejen los valores de nuestros usuarios”.
Estos ajustes no solo redefinen el enfoque de Meta en la moderación, sino que también marcan un paso adelante en su objetivo de construir un ecosistema más abierto y transparente, adaptado a las necesidades y expectativas de la comunidad global.