Meta ha decidido acelerar un cambio que llevaba tiempo insinuando: la moderación de contenidos en Facebook e Instagram dependerá cada vez más de sistemas de inteligencia artificial y cada vez menos de grandes redes de revisores externos. La compañía lo explicó en una actualización oficial sobre seguridad y soporte publicada el 19 de marzo de 2026, donde anticipa que en los próximos años desplegará sistemas más avanzados para detectar infracciones graves, especialmente estafas, suplantaciones e ilegalidades, al tiempo que reducirá su dependencia de proveedores de terceros.
Meta insiste en que no está eliminando por completo el papel humano. Según la propia empresa, los equipos humanos seguirán siendo centrales en decisiones de alto riesgo, como apelaciones por desactivación de cuentas o notificaciones a fuerzas de seguridad. Lo que sí cambia es la arquitectura operativa: la IA pasa a ser la primera capa de cribado, detección y priorización a escala, mientras los humanos quedan concentrados en supervisión, entrenamiento de sistemas, evaluación de calidad y resolución de casos complejos.
La compañía justifica esta transición con varias métricas internas. Asegura que sus nuevos sistemas ya están interceptando 5.000 intentos de estafa al día que antes no detectaban, que han reducido en más de un 80 % ciertos reportes sobre suplantación de celebridades, que han duplicado la detección de contenido de captación sexual de adultos con más de un 60 % menos de errores y que han rebajado en un 7 % las visualizaciones de anuncios vinculados a estafas y otras infracciones graves. Meta también afirma que estas herramientas pueden operar en idiomas hablados por el 98 % de la población conectada.
Este paso no puede entenderse aislado del giro que Meta inició en enero de 2025, cuando anunció su estrategia de “más discurso y menos errores”, puso fin al fact-checking externo en Estados Unidos y apostó por un modelo de Community Notes. Aquel cambio ya apuntaba a una combinación de menos intervención editorial tradicional, más automatización y más peso del usuario en determinadas capas de corrección contextual. Lo anunciado ahora lleva esa lógica un poco más lejos: la compañía no solo cambia cómo contextualiza el contenido, sino también cómo lo filtra y prioriza.
La dimensión laboral del movimiento también es relevante. En abril de 2025, Reuters informó de que Telus, contratista de moderación de Meta, recortó alrededor de 2.000 empleos en Barcelona tras el final de un contrato con la empresa. Meta sostuvo entonces que no estaba reduciendo sus esfuerzos de moderación, sino trasladando operaciones a otras ubicaciones. Con la nueva estrategia, ese episodio se lee ahora de otra manera: la reducción de proveedores externos no era un ajuste aislado, sino un indicio de que la compañía ya estaba reordenando su modelo operativo alrededor de una mayor automatización.
Desde un punto de vista empresarial, la decisión tiene sentido para Meta. La IA puede revisar a escala industrial, operar en más idiomas, responder antes a campañas de fraude y reducir parte del coste estructural asociado a la moderación subcontratada. Además, la compañía ya viene aplicando automatización intensiva desde hace años. Reuters señaló en febrero de 2025 que Meta se apoyaba cada vez más en herramientas automatizadas de moderación, una tendencia que previsiblemente se aceleraría con sus cambios de política y con su apuesta por la IA.
El problema es que la eficacia técnica no elimina las dudas sobre contexto, transparencia y derechos de los usuarios. El Oversight Board de Meta ha advertido que la moderación automatizada amplifica errores cuando falla el diseño del sistema o el contexto local, y que la mayor parte de las decisiones de moderación ya pasan hoy por máquinas, no por personas. En otras palabras: automatizar más puede hacer el sistema más eficiente frente a estafas y fraude evidente, pero también más opaco y más propenso a equivocarse en categorías ambiguas, sensibles o muy dependientes del idioma y del entorno cultural.
Ese riesgo ya no es teórico. En enero de 2026, el propio Oversight Board pidió a Meta reforzar su enfoque contra las estafas laborales tras un caso en Taiwán y recomendó incluso avisos informativos cuando los sistemas automáticos no tuvieran suficiente confianza para retirar contenido sospechoso. La recomendación sugiere algo importante: la IA puede mejorar mucho el bloqueo de fraude, pero no siempre tiene la precisión suficiente para distinguir entre contenido peligroso y contenido legítimo que habla precisamente sobre ese peligro.
Meta, por tanto, no está anunciando el fin de la moderación humana, sino su recentralización técnica. Quiere pasar de un modelo basado en miles de microdecisiones repetitivas ejecutadas por proveedores externos a otro donde la máquina haga el trabajo pesado y el humano intervenga en los puntos jurídicos, reputacionales o contextuales más delicados. Ese modelo probablemente le dará mejores resultados en fraude, suplantación y contenido claramente ilícito. La gran incógnita es si también sabrá gestionar mejor las zonas grises que históricamente han sido las más problemáticas para cualquier red social global.
Preguntas frecuentes
¿Meta va a despedir a todos los moderadores humanos?
No es lo que ha dicho la compañía. Meta afirma que seguirá habiendo humanos en decisiones de alto riesgo y en tareas de supervisión, evaluación y entrenamiento, pero sí ha confirmado que reducirá su dependencia de proveedores externos y que la IA asumirá más peso en el filtrado masivo.
¿Qué tipo de contenido quiere moderar mejor con IA?
Principalmente estafas, suplantaciones, contenido ilegal y otras infracciones graves donde la empresa dice haber visto mejoras claras en detección y reducción de errores.
¿Este cambio viene de ahora o ya estaba en marcha?
Ya estaba en marcha. El giro comenzó en 2025 con el enfoque de “más discurso y menos errores”, el fin del fact-checking externo en Estados Unidos y la adopción de Community Notes.
¿Qué preocupa a los críticos de este modelo?
Que la automatización reduzca transparencia y falle en contenidos donde el contexto, el idioma o la intención importan mucho. El Oversight Board ha advertido que la moderación automática ya domina gran parte del sistema y que sus errores también se escalan.








