jueves, 12 de febrero de 2026

La Comisión pone en marcha un plan de acción contra el ciberacoso para proteger a los jóvenes en línea



El Plan de Acción de la Comisión Europea contra el Ciberacoso tiene por objeto proteger la salud mental de los niños y adolescentes en línea en la UE. El Plan de Acción se articula en torno al despliegue de una aplicación a escala de la UE en la que las víctimas del acoso en línea puedan obtener ayuda fácilmente, la coordinación de los enfoques nacionales para hacer frente a los comportamientos nocivos en línea y la prevención del ciberacoso mediante el fomento de prácticas digitales mejores y más seguras.

Aplicación a escala de la UE para denunciar el ciberacoso

Las víctimas de ciberacoso deben tener una forma clara y fácil de denunciar el acoso y obtener ayuda. Esta es la razón por la que un elemento esencial del Plan de Acción es la puesta en marcha de una aplicación fácil de utilizar y accesible para denunciar el ciberacoso a una línea telefónica de ayuda nacional. Y lo que es más importante, la aplicación será una forma de que los niños y adolescentes reciban apoyo, y podrán almacenar y enviar pruebas de forma segura. La Comisión elaborará un plan rector de la aplicación que los Estados miembros podrán utilizar para adaptar, traducir y conectar con los servicios nacionales pertinentes.

Un enfoque coordinado de la UE

Todos los jóvenes de la UE deben estar igualmente protegidos contra el ciberacoso. Los Estados miembros deben elaborar planes nacionales integrales y utilizar una interpretación común del ciberacoso para recopilar y comparar datos. Se trata de un paso importante hacia un frente más unido contra el ciberacoso.

Existen iniciativas en curso para proteger y empoderar a los menores en línea. Para aumentar su eficacia en la lucha contra el ciberacoso, la Comisión buscará oportunidades que permitan perfeccionarlas. En concreto, la Comisión:

• revisará las directrices del Reglamento de Servicios Digitales sobre la protección de los menores, a fin de reforzar las medidas que deben adoptar las plataformas en línea para evitar que los menores estén expuestos a contenidos nocivos y para facilitar su notificación;

• adoptará las directrices del Reglamento de Servicios Digitales sobre alertadores fiables para aclarar su papel en la lucha contra los contenidos ilícitos, incluidos los contenidos ilícitos de ciberacoso;

• abordará el ciberacoso en las plataformas de intercambio de vídeos en la evaluación en curso y la revisión de la Directiva de Servicios de Comunicación Audiovisual;

• apoyará la aplicación efectiva de las disposiciones de la Ley de Inteligencia Artificial (IA) sobre prácticas de IA prohibidas, como la ultrafalsificación, en particular cuando se utilizan para el ciberacoso;

• facilitará la aplicación efectiva de las obligaciones de transparencia de la Ley de Inteligencia Artificial, en particular mediante un código de buenas prácticas sobre el marcado y el etiquetado de los contenidos generados por IA, que pueden utilizarse indebidamente para el ciberacoso.

Prevención del ciberacoso

El Plan de Acción fomenta prácticas digitales saludables, responsables y respetuosas desde una edad temprana. La próxima revisión de las directrices de la Comisión para educadores sobre la promoción de la alfabetización digital se centrará en la prevención del ciberacoso, en el contexto del objetivo más amplio de reforzar las capacidades digitales y mejorar el uso de las tecnologías digitales en el marco de la Unión de las Competencias.

Paralelamente, la Comisión ampliará los recursos de ciberacoso y la formación para los centros escolares a través de los Centros de Seguridad en Internet y la Plataforma «Una Internet mejor para los niños».

«Día por una Internet más segura»

La Comisión seguirá promoviendo los derechos y el bienestar de los niños en línea y fuera de línea a través del Día por una Internet más segura.

El Día por una Internet más segura, que se puso en marcha en 2004 en la UE, se celebra ahora en alrededor de ciento sesenta países y territorios de todo el mundo, abogando por un mundo en línea más seguro y mejor para todos.

La Comisión Europea mantiene su compromiso de mejorar los derechos y el bienestar de los niños, tanto en línea como fuera de línea, en toda Europa y en todo el mundo.

Próximas medidas

La Comisión ejecutará el Plan de Acción contra el Ciberacoso junto con los Estados miembros, la industria, la sociedad civil, las organizaciones internacionales y los propios niños.

Paralelamente, la Comisión está trabajando en próximas iniciativas, como la puesta a prueba de una solución europea de verificación de la edad que preserve la privacidad, la próxima Ley de Equidad Digital, un grupo de expertos para fundamentar el trabajo de la Comisión sobre la protección de los menores en línea y una investigación sobre el impacto social en la salud mental.

Contexto

Se calcula que alrededor de uno de cada seis niños de entre 11 y 15 años afirma haber sido víctima de ciberacoso y alrededor de uno de cada ocho admite haber ciberacosado a otros. Según una encuesta del Eurobarómetro publicada el año pasado, más de nueve de cada diez europeos afirman que es urgente la intervención de las autoridades públicas para proteger a los menores en línea con respecto al impacto negativo de las redes sociales en su salud mental (93 %), el ciberacoso y el acoso en línea (92 %) y la implantación de mecanismos para restringir los contenidos inadecuados para su edad (92 %).

El Plan de Acción contra el Ciberacoso se elaboró sobre la base de una consulta específica a más de seis mil niños y una consulta pública más amplia.

Dicho Plan se basa en las herramientas y normas que ya existen para ayudar a combatir el ciberacoso.

El Reglamento de Servicios Digitales exige a las plataformas en línea que garanticen un elevado nivel de privacidad, seguridad y protección en línea. Las directrices para la protección de los menores recomiendan medidas para las plataformas, como garantizar que los niños puedan bloquear o silenciar a cualquier usuario y que no puedan ser añadidos a grupos en línea sin su consentimiento.

La Directiva de Servicios de Comunicación Audiovisual exige a las plataformas de intercambio de vídeos que adopten las medidas adecuadas para evitar que los menores accedan a contenidos nocivos, lo que incluye contenidos de ciberacoso.

La Ley de Inteligencia Artificial prohíbe los sistemas que manipulen o engañen a las personas, incluidos los niños, de manera perjudicial, y establece normas sobre el etiquetado de la ultrafalsificación para evitar el engaño.

El Plan de Acción impulsará la visibilidad y el alcance de los recursos disponibles a través de la red de Centros de Seguridad en Internet, que proporcionan herramientas de apoyo a los niños, los padres, los cuidadores, los educadores y los profesionales sobre el terreno a nivel nacional, y a través de la plataforma multilingüe «Una Internet mejor para los niños». En 2025, alrededor de cuarenta y ocho millones de ciudadanos europeos utilizaron los recursos de los Centros de Seguridad en Internet.

Más información

Plan de Acción contra el Ciberacoso

Ficha informativa sobre el Plan de Acción contra el Ciberacoso

Centro Común de Investigación: Ciencia para el Bienestar Digital

Henna Virkkunen, vicepresidenta ejecutiva para la Soberanía Tecnológica, la Seguridad y la Democracia

«Los niños y los jóvenes tienen derecho a sentirse seguros cuando están en línea. El ciberacoso socava este derecho y hace que se sientan heridos, solos y humillados. Ningún niño debería sentirse así. Este Plan de Acción complementa el conjunto de herramientas con el que ya contamos para proteger a los menores en línea, al pedir a la UE y a los Estados miembros que elaboren un enfoque coordinado para luchar contra el ciberacoso a todos los niveles».

Glenn Micallef, comisario de Equidad Intergeneracional, Juventud, Cultura y Deporte

«Luchar contra el ciberacoso significa salvar vidas, porque el ciberacoso daña, hiere y a veces se lleva a las personas a las que amamos. Se trata de una pandemia que debemos atajar. Con el Plan de Acción de la UE contra el Ciberacoso, Europa une fuerzas para crear un espacio en línea más seguro en el que los niños y los jóvenes, de cualquier generación, puedan aprender, crecer y permanecer conectados».


Fuente: Representación en España de la Comisión Europea

miércoles, 11 de febrero de 2026

La Comisión concluye preliminarmente que el diseño de TikTok infringe el Reglamento de Servicios Digitales

 


El pasado viernes, la Comisión Europea ha constató de forma preliminar que TikTok infringe el Reglamento de Servicios Digitales por su diseño adictivo. Esto incluye características como el desplazamiento infinito (“infinite scroll”), la reproducción automática, las notificaciones push y su sistema de recomendaciones altamente personalizado.

Evaluación de riesgos

La investigación de la Comisión indica preliminarmente que TikTok no evaluó adecuadamente cómo estas características adictivas podrían perjudicar el bienestar físico y mental de sus usuarios, incluidos menores y adultos vulnerables.

Por ejemplo, al “recompensar” constantemente a los usuarios con nuevo contenido, ciertas características de diseño de TikTok alimentan el impulso de seguir desplazándose y hacen que el cerebro de los usuarios pase al “modo piloto automático”. La investigación científica muestra que esto puede conducir a un comportamiento compulsivo y reducir el autocontrol de los usuarios.

Además, en su evaluación, TikTok desestimó indicadores importantes del uso compulsivo de la aplicación, como el tiempo que los menores pasan en TikTok por la noche, la frecuencia con la que los usuarios abren la aplicación y otros indicadores potenciales.

Medidas de mitigación del riesgo

TikTok parece no implementar medidas razonables, proporcionadas y eficaces para mitigar los riesgos derivados de su diseño adictivo.

Por ejemplo, las medidas actuales de TikTok, en particular las herramientas de gestión del tiempo de pantalla y las herramientas de control parental, no parecen reducir eficazmente los riesgos derivados del diseño adictivo de TikTok. Las herramientas de gestión del tiempo no parecen ser eficaces para permitir a los usuarios reducir y controlar su uso de TikTok porque son fáciles de ignorar y ofrecen una fricción limitada. Del mismo modo, los controles parentales pueden no ser efectivos porque requieren tiempo y habilidades adicionales por parte de los padres para introducir los controles.

En este momento, la Comisión considera que TikTok necesita modificar el diseño básico de su servicio. Por ejemplo, desactivando paulatinamente características adictivas clave como el “desplazamiento infinito”, implementando pausas efectivas de “tiempo de pantalla”, incluso durante la noche, y adaptando su sistema de recomendación.

Estas conclusiones preliminares no prejuzgan el resultado de la investigación.

Las opiniones preliminares de la Comisión se basan en una investigación en profundidad que incluyó un análisis de los informes de evaluación de riesgos de TikTok, datos y documentos internos, así como las respuestas de TikTok a múltiples solicitudes de información; una revisión de la extensa investigación científica sobre este tema; y entrevistas con expertos de múltiples campos, incluida la adicción conductual.

Próximos pasos

TikTok ahora tiene la posibilidad de ejercer su derecho a la defensa. Podrá examinar los documentos en los archivos de investigación de la Comisión y responder por escrito a las conclusiones preliminares. En paralelo, se consultará a la Junta Europea de Servicios Digitales.

Si finalmente se confirman las opiniones de la Comisión, esta puede emitir una decisión de incumplimiento, que puede dar lugar a una multa proporcional a la naturaleza, gravedad, recurrencia y duración de la infracción y alcanzar hasta un máximo del 6% del volumen de negocios anual en todo el mundo del prestador.

Antecedentes

Las conclusiones preliminares de la Comisión de hoy forman parte del procedimiento formal para investigar el cumplimiento por TikTok del Reglamento de Servicios Digitales, iniciado el 19 de febrero de 2024. Además del diseño adictivo, esta investigación abarca el “efecto espiral” (“rabbit hole effect”) de los sistemas de recomendación de TikTok, el riesgo de que los menores tengan una experiencia inadecuada para su edad debido a una falsificación de su edad y las obligaciones de las plataformas de garantizar un alto nivel de privacidad, seguridad y protección para los menores.

La investigación también incluyó el acceso a datos públicos para los investigadores, para los que se adoptaron conclusiones preliminares en octubre de 2025, y la transparencia publicitaria, que se cerró mediante compromisos vinculantes en diciembre de 2025.

Fuente: Representación de la Comisión en España

martes, 10 de febrero de 2026

La Comisión publica directrices para proteger los contenidos de los medios de comunicación en las plataformas en línea

 


La Comisión Europea ha publicado nuevas directrices para garantizar el reconocimiento y la protección del periodismo profesional en las principales plataformas digitales del mundo. Estas directrices ayudarán a las plataformas en línea de muy gran tamaño, tal como se definen en el Reglamento de Servicios Digitales, y a los prestadores de servicios de medios de comunicación a aplicar las disposiciones pertinentes del Reglamento Europeo sobre la Libertad de los Medios de Comunicación.   

El artículo 18, apartado 1, del Reglamento Europeo sobre la Libertad de los Medios de Comunicación establece salvaguardias concretas para evitar que los contenidos de los medios de comunicación en línea producidos de conformidad con las normas profesionales sean eliminados sin justificación. Dichas salvaguardias exigen que las plataformas en línea de muy gran tamaño notifiquen con antelación a los prestadores de servicios de medios de comunicación su intención de eliminar contenidos periodísticos y expliquen claramente los motivos de su decisión. Por su parte, los prestadores de servicios de medios de comunicación disponen de veinticuatro horas para responder antes de que la eliminación surta efecto. Para acogerse a estas salvaguardias, los prestadores de servicios de medios de comunicación deben declarar que cumplen determinados requisitos, como ser independientes desde el punto de vista editorial y estar sujetos a supervisión reglamentaria, mediante una funcionalidad habilitada por las plataformas en línea de muy gran tamaño.

Las directrices ayudarán a las plataformas en línea de muy gran tamaño a poner en marcha la funcionalidad de declaración y guiarán a los prestadores de servicios de medios de comunicación a la hora de cumplimentar y tramitar sus declaraciones. Además, describen los procedimientos mediante los que las plataformas en línea de muy gran tamaño pueden consultar a las autoridades reguladoras en caso de duda e implicar a las organizaciones de la sociedad civil, en particular a los verificadores de datos, en la revisión de las declaraciones.

La Comisión ha elaborado estas directrices tras una amplia consulta con los prestadores de servicios de medios de comunicación, las organizaciones de la sociedad civil y de verificación de datos, las autoridades reguladoras y los representantes de los prestadores de plataformas en línea de muy gran tamaño, entre otros.

El Reglamento Europeo sobre la Libertad de los Medios de Comunicación, cuyas disposiciones entraron en vigor en su mayoría en agosto de 2025, es un acto legislativo fundamental para proteger el pluralismo y la independencia de los medios de comunicación en la UE, pues vela por que los medios de comunicación, tanto públicos como privados, puedan operar más fácilmente a través de las fronteras en el mercado interior de la UE, sin presiones indebidas y teniendo en cuenta la transformación digital del espacio de los medios de comunicación.    

Fuente: Representación en España de la Comisión Europea