Las grandes tecnológicas intensifican sus esfuerzos para proteger a niños y adolescentes, mientras crece la preocupación global por el impacto de las redes sociales en la salud mental juvenil.
En un momento en el que gobiernos y plataformas digitales enfrentan una presión creciente para frenar los efectos negativos de las redes sociales sobre la infancia y la adolescencia, dos noticias marcan el rumbo del debate global: Meta ha anunciado nuevas medidas de protección para cuentas adolescentes en Instagram, y Australia ha decidido prohibir el uso de YouTube a menores de edad a partir de diciembre de 2025.
Australia, pionera en prohibiciones a redes sociales
Australia ha endurecido aún más sus políticas sobre el uso de redes sociales por parte de menores, sumando a YouTube a la lista de plataformas vetadas, que ya incluía a TikTok, Instagram, Snapchat y las aplicaciones de Meta. La decisión del gobierno de Anthony Albanese se basa en estudios recientes que revelan que el 37 % de los adolescentes australianos consideran que YouTube contiene contenido nocivo, superando incluso a otras redes más señaladas.
Aunque YouTube había sido hasta ahora una excepción por su enfoque como plataforma de vídeos, las autoridades australianas han decidido cerrar esta vía argumentando el alto grado de exposición a contenidos inapropiados y la influencia nociva sobre la salud mental juvenil. La nueva normativa entrará en vigor en diciembre de 2025, y busca limitar el acceso directo a estas plataformas por parte de menores de 16 años, aunque no impide que puedan visualizar contenido bajo supervisión de adultos.
Meta intensifica la protección en Instagram
Paralelamente, Meta ha reforzado su compromiso con la seguridad infantil en redes sociales, especialmente en Instagram, donde ha lanzado un conjunto de nuevas funciones para las cuentas adolescentes. El objetivo: proteger a los menores de contactos no deseados y contenido inapropiado, además de combatir conductas abusivas en plataformas digitales.
Entre las novedades presentadas, se incluye un nuevo diseño en los mensajes directos (DMs) de las cuentas adolescentes, donde ahora se muestra el mes y año de creación de la cuenta con la que se inicia conversación, así como accesos rápidos para bloquear o reportar contactos sospechosos. Además, se ha simplificado el proceso para bloquear y reportar de manera simultánea, facilitando la denuncia de comportamientos abusivos.
Las estadísticas reflejan una respuesta positiva por parte de los jóvenes: solo en junio, adolescentes bloquearon más de 1 millón de cuentas y reportaron otro millón tras recibir avisos de seguridad. También se ha implementado un aviso sobre la localización del interlocutor en el chat, una medida dirigida a prevenir la sextorsión digital, especialmente cuando el interlocutor se encuentra en otro país.
Nuevas medidas para cuentas gestionadas por adultos
Meta también ha extendido algunas de estas protecciones a cuentas administradas por adultos que muestran principalmente a niños, como pueden ser las de padres, representantes o gestores de menores en redes. Estas cuentas pasarán automáticamente a configuraciones de privacidad más estrictas, con los filtros de comentarios ofensivos activados por defecto y con limitaciones para ser encontradas por adultos que hayan sido bloqueados por adolescentes previamente.
Según datos compartidos por la compañía, durante el primer semestre de 2025 se eliminaron cerca de 135.000 cuentas en Instagram por dejar comentarios sexualizados o pedir imágenes sexuales en cuentas gestionadas por adultos con contenido infantil. A esto se suman otras 500.000 cuentas eliminadas en Instagram y Facebook relacionadas con esta actividad. La empresa también ha compartido esta información con otras plataformas tecnológicas a través del programa Lantern de la Tech Coalition, un esfuerzo conjunto del sector para identificar y frenar a explotadores digitales.
El modo estudio de ChatGPT y la IA responsable en educación
El debate sobre el uso de la tecnología en menores también se traslada al ámbito educativo. OpenAI ha anunciado recientemente el lanzamiento del modo de estudio en ChatGPT, una nueva funcionalidad que busca fomentar un aprendizaje profundo en lugar de ofrecer respuestas inmediatas. Esta herramienta, diseñada con el apoyo de pedagogos y docentes, emplea técnicas interactivas como preguntas socráticas, estructuras guiadas y análisis de progreso para ayudar a los estudiantes a comprender conceptos complejos y desarrollar su pensamiento crítico.
Disponible para usuarios de planes gratuitos y de pago, el modo de estudio ha sido valorado positivamente por universitarios que destacan su utilidad para preparar exámenes y resolver problemas difíciles. Además, OpenAI ha iniciado colaboraciones con instituciones como Common Sense Media y la Universidad de Stanford para evaluar el impacto real de la inteligencia artificial en el aprendizaje escolar.
Un giro global hacia la protección y la responsabilidad
La combinación de medidas regulatorias, como las emprendidas por Australia, y las estrategias tecnológicas proactivas, como las de Meta y OpenAI, apunta hacia un nuevo consenso global: la necesidad urgente de proteger a los menores en entornos digitales. Mientras las redes sociales y las herramientas de IA siguen creciendo en popularidad, el desafío ahora es garantizar que su uso esté alineado con el desarrollo saludable de niños y adolescentes.
Los próximos meses serán clave para observar si otras naciones siguen el ejemplo australiano y si las plataformas logran implementar soluciones efectivas, sin perder de vista la delgada línea entre protección y censura. En el centro de este debate se encuentra una cuestión fundamental: ¿cómo equilibrar la innovación tecnológica con el bienestar de las generaciones más jóvenes?