DIRECTRICES EUROPEAS SOBRE MEDIDAS PARA GARANTIZAR UN ELEVADO NIVEL DE PRIVACIDAD, SEGURIDAD Y PROTECCIÓN DE LOS MENORES EN LÍNEA.

Facebook
Twitter
Reddit
LinkedIn
Telegram
WhatsApp

DIRECTRICES EUROPEAS SOBRE MEDIDAS PARA GARANTIZAR UN ELEVADO NIVEL DE PRIVACIDAD, SEGURIDAD Y PROTECCIÓN DE LOS MENORES EN LÍNEA.

Por: Carlos A. FERREYROS SOTO

Doctor en Derecho

Universidad de Montpellier I Francia.

cferreyros@hotmail.com

RESUMEN

La Comisión Europea a través de la presente Comunicación (SINTETIZC/2025/5519, publicada en el Diario Oficial de la UE del 10 de octubre de 2025) ha emitido directrices para garantizar un elevado nivel de privacidad, seguridad y protección de los menores en línea conforme al artículo 28.4 del Reglamento (UE) 2022/2065 (DSA). La Comisión, previa consulta a la Junta (Junta Europea de Servicios Digitales), podrá proporcionar directrices para guiar a los prestadores de plataformas en línea en la aplicación del apartado 1.

Estas directrices establecen un marco de medidas recomendadas para los prestadores de plataformas accesibles a menores, detallando obligaciones y ejemplos de medidas proporcionadas y adecuadas según el riesgo y el contexto.

Las directrices se aplican a plataformas en línea accesibles a menores según el DSA (Digital Service Act), aclarando que no basta con declarar en los términos y condiciones la prohibición de acceso a menores sino que es necesario implementar medidas efectivas para restringir dicho acceso, especialmente en plataformas con contenidos ilícitos o nocivos, como pornografía, juegos de azar y servicios con riesgos para el desarrollo de los menores.

Las directrices no son exhaustivas ni vinculantes, los principios rectores sobre los cuales se sustentan son:

  • Interés superior del menor como consideración primordial.
  • Adopción del principio de precaución ante riesgos no verificados.
  • Participación de menores y tutores en la evaluación de medidas.
  • Revisión periódica de riesgos, al menos anual o cuando existan cambios relevantes.

Entre las medidas de revisión de riesgos, se exige a las plataformas:

  • Realizar una revisión sistemática de riesgos para identificar amenazas a la privacidad, seguridad y bienestar de los menores.
  •    Publicar resultados relevantes de dicha revisión y ponerlos a disposición de la autoridad supervisora.
  • Inspirarse en herramientas de evaluación de impacto sobre los derechos del niño reconocidos y mejores prácticas internacionales.

Estas directrices proporcionan una base orientadora para la evaluación de cumplimiento en materia de plataformas en línea accesibles a menores, promoviendo entornos digitales seguros y respetuosos de los derechos y necesidades de la infancia y adolescencia en el entorno digital.

A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privadas interesadas en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico: cferreyros@hotmail.com

_________________________________________________

COMUNICACIÓN DE LA COMISIÓN

Directrices sobre medidas para garantizar un elevado nivel de privacidad, seguridad y protección de los menores en línea, de conformidad con el artículo 28, apartado 4, del Reglamento (UE) 2022/2065

(C/2025/5519)

European flag

Diario Oficial
de la Unión Europea

ES

Serie C


C/2025/5519

10.10.2025

1.   INTRODUCCIÓN

1.

Los menores (1) acceden cada vez más a las plataformas en línea, que pueden resultarles beneficiosas. Por ejemplo, las plataformas en línea pueden proporcionar acceso a una gran cantidad de recursos educativos, ayudando a los menores a adquirir nuevas capacidades y ampliar sus conocimientos. Las plataformas en línea también pueden ofrecer a los menores oportunidades para expresar sus opiniones y conectarse con otras personas que comparten intereses similares, ayudando a los menores a desarrollar capacidades sociales, confianza y un sentimiento de comunidad. Al jugar y explorar el entorno en línea, los menores también pueden desarrollar su curiosidad natural, participando en actividades que fomenten la creatividad, la resolución de problemas, el pensamiento crítico, la voluntad y el entretenimiento.

2.

Sin embargo, existe un amplio consenso entre los responsables políticos, las autoridades reguladoras, la sociedad civil, los investigadores, los educadores y los tutores (2) de que el nivel actual de privacidad, seguridad y protección en línea de los menores es a menudo inadecuado. El diseño y las características de la amplia variedad de plataformas en línea y de los servicios ofrecidos por los prestadores de plataformas en línea accesibles a los menores pueden crear riesgos para la privacidad, la seguridad y la protección de los menores y exacerbar los riesgos existentes. Estos riesgos incluyen, por ejemplo, la exposición a contenidos ilícitos (3) y nocivos, que socavan la privacidad, la seguridad y la protección de los menores o que pueden perjudicar el desarrollo físico o mental de los menores. También incluyen el ciberacoso o el contacto de personas que tratan de dañar a los menores, como los que tratan de abusar sexualmente de menores (o extorsionarles sexualmente), los tratantes de personas y los que intentan reclutar a menores para bandas delictivas o promover la violencia, la radicalización, el extremismo violento y el terrorismo. Los menores también pueden enfrentarse a riesgos como consumidores, así como a riesgos relacionados con el uso continuo o excesivo de las plataformas en línea y la exposición a prácticas inadecuadas o de explotación, también en relación con los juegos de azar y videojuegos. La creciente integración de los chatbots (robots conversacionales) y asistentes virtuales impulsados por inteligencia artificial («IA») en las plataformas en línea, así como las ultrafalsificaciones impulsadas por la IA, también pueden afectar a la manera en que los menores interactúan con las plataformas en línea, exacerbar los riesgos existentes y plantear otros nuevos que pueden afectar negativamente a la privacidad, la seguridad y la protección de un menor (4). Estos riesgos pueden derivarse de la experiencia directa del menor con la plataforma o de las acciones de otros usuarios en la plataforma.

3.

Las presentes directrices tienen por objeto ayudar a los prestadores de plataformas en línea a hacer frente a estos riesgos proporcionando un conjunto de medidas que la Comisión considera que ayudarán a estos proveedores a garantizar un elevado nivel de privacidad, seguridad y protección de los menores en sus plataformas, lo que contribuirá a la protección de los menores, que es un objetivo político importante de la Unión. Estas directrices también tienen por objeto ayudar a los coordinadores de servicios digitales y a las autoridades nacionales competentes a la hora de aplicar e interpretar el artículo 28 del Reglamento (UE) 2022/2065. Por ejemplo, aumentar el nivel de privacidad de las cuentas de los menores ayudará, entre otras cosas, a que los prestadores de plataformas en línea reduzcan el riesgo de contacto no deseado o no solicitado. La aplicación de medidas de garantía de la edad (5) puede, entre otras cosas, ayudar a los prestadores a reducir el riesgo de exposición de los menores a servicios, contenidos, conductas, contactos o prácticas comerciales que socavan su privacidad, seguridad y protección. La adopción de estas y otras medidas, en cuestiones que van desde los sistemas de recomendación y la gobernanza hasta el apoyo al usuario y la presentación de denuncias, puede ayudar a los proveedores de plataformas en línea a hacer que las plataformas en línea sean más seguras, más protegidas y más respetuosas de la privacidad de los menores.

2.   ÁMBITO DE APLICACIÓN DE LAS DIRECTRICES

4.

El legislador de la Unión adoptó el artículo 28 del Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo (6) a la luz de los riesgos antes mencionados. El apartado 1 de esta disposición obliga a los prestadores de plataformas en línea accesibles a los menores a establecer medidas adecuadas y proporcionadas para garantizar un elevado nivel de privacidad, seguridad y protección de los menores en su servicio. El artículo 28, apartado 2, del Reglamento (UE) 2022/2065 prohíbe a los prestadores de plataformas en línea presentar anuncios en su interfaz basados en la elaboración de perfiles, tal como se define en el artículo 4, punto 4, del Reglamento (UE) 2016/679 (7), mediante la utilización de datos personales del destinatario del servicio cuando sean conscientes con una seguridad razonable de que el destinatario del servicio es un menor. El artículo 28, apartado 3, del Reglamento (UE) 2022/2065 especifica que el cumplimiento de las obligaciones establecidas en el presente artículo no obligará a los prestadores de plataformas en línea accesibles a menores a tratar datos personales adicionales a fin de evaluar si el destinatario del servicio es un menor. El artículo 28, apartado 4, del Reglamento (UE) 2022/2065 establece que la Comisión, previa consulta a la Junta Europea de Servicios Digitales (en lo sucesivo, «la Junta»), podrá emitir directrices para asistir a los prestadores de plataformas en línea en la aplicación del apartado 1.

5.

Las presentes directrices describen las medidas que la Comisión considera que los prestadores de plataformas en línea accesibles a menores deben adoptar para garantizar un elevado nivel de privacidad, seguridad y protección de los menores en línea, de conformidad con el artículo 28, apartado 1, del Reglamento (UE) 2022/2065. La obligación establecida en dicha disposición se dirige a los prestadores de plataformas en línea cuyos servicios sean accesibles a los menores (8). El considerando 71 de dicho Reglamento clarifica que «una plataforma en línea es accesible para los menores cuando sus condiciones generales permiten a los menores utilizar el servicio, cuando su servicio está dirigido a menores o es utilizado predominantemente por ellos, o cuando el prestador es consciente de que algunos de los destinatarios de su servicio son menores».

6.

Por lo que se refiere al primer supuesto descrito en dicho considerando, la Comisión considera que un prestador de una plataforma en línea no puede basarse únicamente en una declaración en sus condiciones que prohíba el acceso a menores, para alegar que la plataforma no es accesible a estos. Si el prestador de la plataforma en línea no aplica medidas eficaces para impedir que los menores accedan a su servicio, no podrá alegar que su plataforma en línea queda fuera del ámbito de aplicación del artículo 28, apartado 1, del Reglamento (UE) 2022/2065 sobre la base de dicha declaración. Por ejemplo, los prestadores de plataformas en línea que alojen y difundan contenidos para adultos, como las plataformas en línea que difunden contenidos pornográficos, y que, por tanto, en sus condiciones permitan el uso de su servicio a únicamente los usuarios mayores de 18 años, se considerarán accesibles a los menores en el sentido del artículo 28, apartado 1, del Reglamento (UE) 2022/2065 cuando no se hayan adoptado medidas eficaces para impedir que los menores accedan a su servicio.

7.

Por lo que se refiere al tercer supuesto, el considerando 71 del Reglamento (UE) 2022/2065 aclara que un ejemplo de situación en la que un prestador de una plataforma en línea debe ser consciente de que algunos de los destinatarios de su servicio son menores es cuando dicho prestador ya trata para otros fines datos personales de dichos destinatarios que revelan su edad, por ejemplo, durante el registro en el servicio pertinente, lo que revela que algunos de esos destinatarios son menores. Otros ejemplos de situaciones en las que cabe esperar razonablemente que un prestador sea consciente de que los menores se encuentran entre los destinatarios de su servicio son aquellos en los que se sabe que la plataforma en línea resulta atractiva para los menores; el prestador de la plataforma en línea ofrece servicios similares a los utilizados por los menores; la plataforma en línea se dirige a los menores; el prestador de la plataforma en línea ha llevado a cabo o encargado investigaciones que determinan que los menores son destinatarios de los servicios o cuando dicha determinación sea resultado de una investigación independiente.

8.

De conformidad con el artículo 19 del Reglamento (UE) 2022/2065, la obligación establecida en el artículo 28, apartado 1, del Reglamento (UE) 2022/2065 no se aplica a los prestadores de plataformas en línea que se consideren microempresas o pequeñas empresas, excepto cuando su plataforma en línea haya sido designada por la Comisión como plataforma en línea de muy gran tamaño de conformidad con el artículo 33, apartado 4, de dicho Reglamento (9).

9.

Otras disposiciones del Reglamento (UE) 2022/2065 también tienen por objeto garantizar la protección de los menores en línea (10). Entre ellas figuran varias disposiciones de la sección 5 del capítulo III del Reglamento (UE) 2022/2065, que impone obligaciones adicionales a los prestadores de plataformas en línea de muy gran tamaño y motores de búsqueda en línea de muy gran tamaño (11). Las presentes directrices no tienen por objeto interpretar dichas disposiciones y los prestadores de plataformas en línea de muy gran tamaño y motores de búsqueda en línea de muy gran tamaño no deben esperar que la adopción, parcial o total, de las medidas descritas a continuación sea suficiente para garantizar el cumplimiento de sus obligaciones en virtud del capítulo III, sección 5, del Reglamento (UE) 2022/2065, ya que dichos prestadores pueden tener que adoptar medidas adicionales que no se establecen en las presentes directrices y que son necesarias para cumplir las obligaciones derivadas de dichas disposiciones (12).

10.

El artículo 28, apartado 1, del Reglamento (UE) 2022/2065 también debe considerarse a la luz de otros actos legislativos de la Unión e instrumentos no vinculantes destinados a abordar los riesgos a los que están expuestos los menores en línea (13). Estos instrumentos también contribuyen a alcanzar el objetivo de garantizar un elevado nivel de privacidad, seguridad y protección de los menores en línea y, por tanto, complementan la aplicación del artículo 28, apartado 1, del Reglamento (UE) 2022/2065. Las presentes directrices no deben entenderse en el sentido de que interpretan o reemplazan cualquier obligación derivada de dichos instrumentos o de la legislación de los Estados miembros. La supervisión y la ejecución de dichos instrumentos siguen siendo responsabilidad exclusiva de las autoridades competentes en virtud de esos marcos jurídicos. En particular, como se aclara en el considerando 10 del Reglamento (UE) 2022/2065, dicho Reglamento se entiende sin perjuicio de otros actos del Derecho de la Unión que regulan la prestación de servicios de la sociedad de la información en general, regulan otros aspectos de la prestación de servicios intermediarios en el mercado interior o que precisan y complementan las normas armonizadas establecidas en el Reglamento (UE) 2022/2065, como la Directiva 2010/13/UE, así como el Derecho de la Unión en materia de protección de los consumidores y de protección de datos personales, en particular el Reglamento (UE) 2016/679.

11.

Si bien las presentes directrices establecen medidas destinadas a garantizar un elevado nivel de privacidad, seguridad y protección de los menores en línea, se anima a los prestadores de plataformas en línea a que adopten dichas medidas con el fin de proteger a todos los usuarios, y no solo a los menores. La creación de un entorno en línea seguro y protegido que preserve la privacidad para todos los usuarios dará lugar intrínsecamente a una mayor privacidad, seguridad y protección de los menores en línea, adoptando al mismo tiempo medidas que garanticen el respeto de sus derechos y necesidades específicos, de conformidad con el artículo 28 del Reglamento (UE) 2022/2065.

12.

Al adoptar las presentes Directrices, la Comisión declara que las aplicará a los casos que en ellas se describen y, por tanto, limitará el ejercicio de su facultad discrecional cuando aplique el artículo 28, apartado 1, del Reglamento (UE) 2022/2065. Por lo tanto, estas directrices pueden considerarse una referencia significativa en la que se basará la Comisión a la hora de aplicar el artículo 28, apartado 1, del Reglamento (UE) 2022/2065 y determinar el cumplimiento de dicha disposición por parte de los prestadores de plataformas en línea accesibles a menores (14). Los coordinadores de servicios digitales y las autoridades nacionales competentes también podrán inspirarse en las presentes directrices a la hora de aplicar e interpretar el artículo 28, apartado 1, del Reglamento (UE) 2022/2065. No obstante, la adopción y aplicación parcial o total de las medidas establecidas en las presentes directrices no implicará automáticamente el cumplimiento de dicha disposición.

13.

Cualquier interpretación autorizada del artículo 28, apartado 1, del Reglamento (UE) 2022/2065 solo puede ser ofrecida por el Tribunal de Justicia de la Unión Europea, que es competente, entre otros, para pronunciarse con carácter prejudicial sobre la validez e interpretación de los actos de la Unión, incluido dicho artículo.

14.

A lo largo de la elaboración de las directrices, la Comisión ha consultado a las partes interesadas (15), incluida la Junta y su grupo de trabajo sobre la protección de los menores. De conformidad con el artículo 28, apartado 4, del Reglamento (UE) 2022/2065, la Comisión consultó a la Junta sobre un proyecto de estas directrices antes de su adopción el 2 de julio de 2025.

15.

Las medidas descritas en las secciones 5 a 8 de las presentes Directrices no son exhaustivas. Otras medidas también pueden considerarse adecuadas y proporcionadas para garantizar un elevado nivel de privacidad, seguridad y protección de los menores de conformidad con el artículo 28, apartado 1, del Reglamento (UE) 2022/2065, como las medidas resultantes del cumplimiento de otros actos legislativos de la Unión (16) o el cumplimiento de orientaciones nacionales sobre la protección de los menores o normas técnicas (17). Además, en el futuro pueden identificarse nuevas medidas que permitan a los prestadores de plataformas en línea accesibles a los menores cumplir mejor su obligación de garantizar un elevado nivel de privacidad, seguridad y protección de los menores en su servicio.

3.   ESTRUCTURA

16.

En la sección 4 de las presentes directrices se establecen los principios generales que deben regir todas las medidas que los prestadores de plataformas en línea accesibles a menores establezcan para garantizar un elevado nivel de privacidad, seguridad y protección de los menores en su servicio. En las secciones 5 a 8 de las presentes directrices se establecen las principales medidas que la Comisión considera que estos prestadores deben poner en marcha para garantizar ese nivel elevado de privacidad, seguridad y protección. Entre ellas se incluyen la revisión de riesgos (sección 5), el diseño de servicios (sección 6), la presentación de denuncias, el apoyo al usuario y las herramientas para tutores (sección 7) y la gobernanza (sección 8).

4.   PRINCIPIOS GENERALES

17.

Las presentes directrices se basan en los siguientes principios generales, que están interrelacionados y deben considerarse de manera holística en todas las actividades de los prestadores de plataformas en línea que entran en el ámbito de aplicación de las presentes directrices. La Comisión considera que cualquier medida que un prestador de una plataforma en línea accesible a los menores adopte para cumplir lo dispuesto en el artículo 28, apartado 1, del Reglamento (UE) 2022/2065 debe atenerse a los siguientes principios generales.

a)

Adecuación y proporcionalidad: El artículo 28, apartado 1, del Reglamento (UE) 2022/2065 exige que toda medida adoptada para cumplir dicha disposición sea adecuada y proporcionada para garantizar un elevado nivel de privacidad, seguridad y protección de los menores. Dado que las diferentes plataformas en línea pueden plantear diferentes tipos de riesgos para los menores, no siempre será proporcionado o adecuado que todos los prestadores de plataformas en línea apliquen todas o solo algunas de las medidas descritas en las presentes directrices. Determinar si una medida concreta es proporcionada y adecuada, en particular cuando implique una injerencia en los derechos fundamentales de las personas, requerirá una evaluación caso por caso por parte de cada prestador i) de los riesgos para la privacidad, la seguridad y la protección de los menores derivados de su plataforma en línea o de partes de ella, teniendo en cuenta, entre otras cosas, el tamaño, el alcance y el tipo del servicio que presta y su naturaleza, su uso previsto o actual, sus características específicas y la base de usuarios del servicio; ii) el impacto de la medida en los derechos de los niños y otros derechos y libertades consagrados en la Carta de los Derechos Fundamentales de la Unión Europea (en lo sucesivo, «la Carta»); y iii) la necesidad de basar dichas medidas en las normas más estrictas disponibles y en las buenas prácticas existentes, así como en la perspectiva y los derechos de los niños (véase la sección 5 sobre la revisión de riesgos).

b)

Protección de los derechos del niño: Estos derechos están consagrados en la Carta, que garantiza la protección de los derechos del niño al aplicar el Derecho de la Unión, y en la Convención de las Naciones Unidas sobre los Derechos del Niño, que todos los Estados miembros han ratificado (18). Los derechos del niño forman parte integrante de los derechos humanos, y todos estos derechos están interrelacionados, son interdependientes e indivisibles. De conformidad con el artículo 24 de la Carta, en todas las acciones que afectan a los menores, con independencia de que las adopten autoridades públicas o instituciones privadas, el interés superior del menor debe ser una consideración primordial. Por lo tanto, a fin de garantizar que las medidas para lograr un elevado nivel de privacidad, seguridad y protección de los menores en una plataforma en línea sean adecuadas y proporcionadas, deben tenerse en cuenta todos los derechos de los menores y tomarse como consideración primordial su interés superior. Se prohíbe toda discriminación, y en particular la ejercida por razón de sexo, raza, color, orígenes étnicos o sociales, características genéticas, lengua, religión o convicciones, opiniones políticas o de cualquier otro tipo, pertenencia a una minoría nacional, patrimonio, nacimiento, discapacidad, edad u orientación sexual, en consonancia con el artículo 21 de la Carta. Los derechos de los niños incluyen, por ejemplo, su derecho a la protección (19), la no discriminación, la inclusión, la privacidad, el acceso a la información y la educación, la libertad de expresión y la participación (20), y a que sus opiniones se tengan en cuenta en todos los asuntos que les afecten (21).

c)

Privacidad, seguridad y protección desde el diseño: los prestadores de plataformas en línea accesibles a menores deben integrar altos niveles de privacidad, seguridad y protección en el diseño, el desarrollo y el funcionamiento de sus servicios (22). Los conceptos «desde el diseño» tienen por objeto aprovechar la influencia de los prestadores de plataformas en línea, diseñadores y responsables políticos para configurar el desarrollo de productos y servicios de manera que se dé prioridad a los valores que promueven el bienestar humano. Se refieren a la integración, desde el principio, de la privacidad, la seguridad y la protección por defecto en el diseño, el funcionamiento y la gestión de las organizaciones, así como en los productos y servicios (23).

d)

Diseño adecuado a la edad: los prestadores de plataformas en línea accesibles a menores deben diseñar sus servicios para adaptarse a las necesidades de desarrollo, cognitivas y emocionales de los menores, garantizando al mismo tiempo su privacidad, seguridad y protección. Los diseños adecuados a la edad de los niños tienen en cuenta sus derechos y su bienestar, así como su diversidad y edad o fase específica de desarrollo, y tienen en cuenta la evolución de las capacidades de los niños (24).

5.   REVISIÓN DE RIESGOS

18.

La naturaleza heterogénea de las plataformas en línea y la diversidad de contextos pueden requerir enfoques distintos, y algunas medidas se adaptan mejor a unas plataformas que a otras. La Comisión considera que a la hora de decidir cómo garantizar un alto nivel de seguridad, privacidad y seguridad a los menores en su plataforma, y determinar las medidas adecuadas y proporcionadas a tal fin, un prestador de una plataforma en línea accesible a menores debe, como mínimo, determinar y tener en cuenta:

a)

La probabilidad de que los menores accedan a su servicio, en particular teniendo en cuenta su naturaleza, finalidad y uso previsto, así como los criterios pertinentes para determinar si el servicio es accesible para los menores.

b)

El impacto real o potencial en la privacidad, la seguridad y la protección de los menores que la plataforma en línea puede plantear u ocasionar, sobre la base de la tipología 5C de los riesgos en línea para los niños (véase el anexo). Esto incluye un examen de cómo los diferentes aspectos de la plataforma pueden dar lugar a estos riesgos, su probabilidad y gravedad, así como la consideración de su impacto positivo en los derechos y el bienestar de los niños, teniendo en cuenta la edad y la evolución de las capacidades de los niños. Por ejemplo, pueden ser pertinentes aspectos como la finalidad de la plataforma, su diseño, interfaz, propuesta de valor, comercialización, características, funcionalidades, número y tipo de usuarios y usos (reales y previstos). Esto debe incluir una indicación del nivel de riesgo para los menores en la plataforma (por ejemplo, bajo, medio o alto), sobre la base de criterios claros, de conformidad con las normas y mejores prácticas existentes, por ejemplo, para la evaluación de impacto sobre los derechos del niño, tal como se menciona en el apartado 22.

c)

Las medidas que el prestador ya está adoptando para prevenir y mitigar estos riesgos.

d)

Cualquier medida adicional que se considere adecuada y proporcionada en la revisión para garantizar un elevado nivel de privacidad, seguridad y protección de los menores en su servicio. Las medidas que los prestadores puedan tener que adoptar deben abordar los riesgos para la privacidad, la seguridad y la protección derivados de la experiencia de los menores con el servicio, incluidos los riesgos derivados de las acciones de otros usuarios del servicio.

e)

Cómo las medidas respetan los principios generales de la sección 4.

f)

Los parámetros que permitan al proveedor supervisar a lo largo del tiempo la eficacia de las medidas de que dispone para hacer frente a determinados riesgos.

g)

Los posibles efectos positivos y negativos sobre los derechos de los niños u otros usuarios de cualquier medida que el prestador tenga en vigor y cualquier medida adicional, garantizando que estos derechos no se restrinjan de forma desproporcionada o indebida y que puedan maximizarse los efectos positivos. Los derechos de los niños u otros usuarios que pueden verse afectados negativamente por algunas medidas incluyen, por ejemplo, los derechos de los niños a la participación, la privacidad, la protección de los datos personales, la libertad de expresión y de información. Esto es pertinente a la hora de determinar la proporcionalidad de las medidas.

19.

Al llevar a cabo esta revisión, los prestadores de plataformas en línea accesibles a menores deben tener en cuenta el interés superior del menor como consideración primordial (25) en consonancia con la Carta y otros principios de la Convención de las Naciones Unidas sobre los Derechos del Niño (26), así como con otras orientaciones pertinentes de la Unión al respecto (27). Deben incluir las perspectivas de los niños buscando su participación, así como la de los tutores, los representantes de otros grupos potencialmente afectados y otros expertos y partes interesadas pertinentes.

20.

Los prestadores deben tener en cuenta la información disponible más actualizada procedente de fuentes científicas y académicas, en particular aprovechando otras evaluaciones pertinentes realizadas por el proveedor. Deben adherirse al principio de precaución cuando existan indicios razonables de que una determinada práctica, característica o elección de diseño plantea riesgos para los niños, adoptando medidas para prevenir o mitigar tales riesgos hasta que existan pruebas de que sus efectos no son perjudiciales para los niños.

21.

Los prestadores deben llevar a cabo la revisión periódicamente, y al menos una vez al año, o siempre que introduzcan cambios significativos en el diseño de la plataforma (28) o tengan conocimiento de otras circunstancias que afecten al diseño y el funcionamiento de la plataforma que sean pertinentes para garantizar un elevado nivel de privacidad, seguridad y protección de los menores en su plataforma en línea. Los prestadores deben poner la revisión de riesgos a disposición de las autoridades de supervisión pertinentes y publicar sus resultados sin divulgar información delicada sobre sus operaciones o seguridad a más tardar antes de que se lleve a cabo la siguiente evaluación, así como considerar la posibilidad de someterla a la revisión de expertos independientes o partes interesadas pertinentes.

22.

Las normas y herramientas existentes para llevar a cabo evaluaciones de impacto sobre los derechos del niño pueden ayudar a los prestadores a llevar a cabo esta revisión. Entre ellas figuran, por ejemplo, las plantillas, los formularios y otras orientaciones facilitados por UNICEF (29), el Ministerio neerlandés del Interior y de Relaciones del Reino (BZK) (30) o el organismo europeo de normalización CEN-CENELEC (31). La Comisión podrá publicar orientaciones o herramientas adicionales para ayudar a los prestadores a llevar a cabo la revisión, en particular a través de herramientas específicas para las evaluaciones de impacto sobre los derechos del niño. Hasta la publicación de estas orientaciones, los proveedores pueden utilizar las herramientas y las mejores prácticas existentes para estas evaluaciones.

23.

En el caso de los prestadores de plataformas en línea de muy gran tamaño y de motores de búsqueda en línea de muy gran tamaño, esta revisión de riesgos también puede llevarse a cabo como parte de la evaluación de riesgos general con arreglo al artículo 34 del Reglamento (UE) 2022/2065, que complementará e irá más allá de la revisión de riesgos llevada a cabo de conformidad con las presentes directrices.

6.   DISEÑO DE SERVICIOS

6.1.   Garantía de la edad

6.1.1.   Introducción y terminología

24.

En los últimos años, la tecnología ha experimentado rápidos avances que permiten a los prestadores de plataformas en línea utilizar métodos más y menos precisos, fiables y sólidos para estimar la edad de sus usuarios. Estas medidas se denominan comúnmente «garantía de la edad» (32).

25.

La Comisión considera que las medidas de restricción del acceso basadas en la edad son un medio eficaz para garantizar un elevado nivel de privacidad, seguridad y protección de los menores en las plataformas en línea. A tal fin, las herramientas de garantía de la edad pueden ayudar a los proveedores a imponer restricciones de acceso a los usuarios menores de una determinada edad, con el fin de proteger a los menores del acceso en línea a contenidos inadecuados para su edad, como los juegos de azar o la pornografía, o de estar expuestos a otros riesgos, como la captación de menores.

26.

Las herramientas de garantía de la edad también pueden ayudar a los prestadores a impedir que los adultos accedan a determinadas plataformas diseñadas para menores, excepto cuando lo hagan con fines legítimos parentales, educativos o de supervisión, reduciendo así el riesgo de que algunos adultos se hagan pasar como menores o intenten dañar a los menores.

27.

Por último, pueden utilizarse herramientas de garantía de la edad para sustentar el propio diseño del servicio en función de su edad, fomentando así espacios en línea más seguros y adaptados a los niños. En estos casos, las herramientas pueden utilizarse para garantizar que los niños solo tengan acceso a determinados contenidos, características o actividades que sean adecuados para su consumo, teniendo en cuenta su edad y la evolución de sus capacidades.

28.

Es importante distinguir entre, por una parte, la restricción de edad que limita el acceso a la plataforma o a partes de la misma a los usuarios menores o mayores de una determinada edad y, por otra parte, los métodos de garantía de la edad que se utilizan para determinar la edad de un usuario.

29.

Las medidas de garantía de la edad más comunes actualmente disponibles y aplicadas por las plataformas en línea se dividen en tres grandes categorías: autodeclaración, estimación de la edad y verificación de la edad.

a)

La autodeclaración consiste en métodos que dependen de la persona para indicar su edad o confirmar su rango de edad, ya sea indicando voluntariamente su fecha de nacimiento o edad, o declarando que superan una determinada edad, normalmente pulsando un botón en línea.

b)

La estimación de la edad consiste en métodos que permiten a un proveedor establecer que es probable que un usuario tenga una determinada edad, se sitúe dentro de un determinado intervalo de edad o sea superior o inferior a una determinada edad (33).

c)

La verificación de la edad es un sistema que se basa en identificadores físicos o en fuentes de identificación verificadas que proporcionan un alto grado de certeza a la hora de determinar la edad de un usuario.

30.

La principal diferencia entre las medidas de estimación y verificación de la edad es el nivel de precisión. Mientras que la verificación de la edad proporciona seguridad sobre la edad del usuario, la estimación de la edad proporciona una aproximación de la edad del usuario. La precisión de las tecnologías de estimación de la edad puede variar y mejorar a medida que avance la tecnología.

6.1.2.   Determinación de la conveniencia de establecer restricciones de acceso respaldadas por medidas de garantía de la edad

31.

Antes de decidir si establecer restricciones de acceso basadas en la edad, respaldadas por métodos de garantía de la edad, los prestadores de plataformas en línea accesibles a los menores siempre deben llevar a cabo una evaluación para determinar si dicha medida es adecuada para garantizar un elevado nivel de privacidad, seguridad y protección de los menores en su servicio y si es proporcionada, o si ya puede alcanzarse un nivel igual de elevado recurriendo a otras medidas de menor alcance (34). A este respecto, la Comisión opina que los prestadores deben considerar las restricciones de acceso basadas en la edad, respaldadas por medidas de garantía de la edad, como herramienta complementaria a las medidas establecidas en otras secciones de las presentes directrices. En otras palabras, las restricciones de acceso y la garantía de la edad por sí solas no pueden sustituir a las medidas recomendadas en otras partes de las presentes directrices.

32.

Dicha evaluación debe garantizar que cualquier restricción al ejercicio de los derechos y libertades fundamentales de los destinatarios, especialmente de los menores, sea proporcionada. Por consiguiente, la Comisión considera que los prestadores de plataformas en línea deben poner a disposición del público el resultado de dicha evaluación en la interfaz en línea de su servicio, tanto si la evaluación concluye que no es necesaria ninguna restricción de acceso respaldada por la garantía de la edad como si se considera que dicha restricción es una medida adecuada y proporcionada.

33.

La Comisión señala que una menor precisión de las soluciones de estimación de la edad no equivale automáticamente a un menor impacto en los derechos y libertades fundamentales de los destinatarios, ya que puede que las soluciones menos precisas traten más datos personales que otras más precisas. También pueden impedir, debido al menor nivel de precisión, que algunos menores accedan a plataformas en línea a las que, de otro modo, podrían tener acceso. Por lo tanto, al considerar los métodos de estimación de la edad que requieren el tratamiento de datos personales, los prestadores de plataformas en línea accesibles a menores deben garantizar que los principios de protección de datos, especialmente la minimización de datos, se apliquen adecuadamente y sigan siendo sólidos a lo largo del tiempo y tengan en cuenta la declaración del Comité Europeo de Protección de Datos (CEPD) sobre la garantía de la edad (35).

34.

La Comisión considera que, con el fin de garantizar un elevado nivel de privacidad, seguridad y protección de los menores en sus servicios, los prestadores de plataformas en línea accesibles a menores que consideren que las restricciones de acceso basadas en métodos de garantía de la edad son necesarias y proporcionadas deben facilitar información sobre cualquier solución de garantía de la edad que hayan seleccionado, así como sobre su adecuación y eficacia. También deben proporcionar una visión general de los parámetros de rendimiento utilizados para medirlas, como los índices de falsos positivos y falsos negativos, y los índices de exactitud y rectificación.

35.

Debe preverse la participación de los niños en el diseño, la aplicación y la evaluación de las restricciones de edad y los métodos de garantía de la edad.

36.

Las plataformas en línea accesibles a los menores pueden tener solo algunos contenidos, secciones o funciones que planteen un riesgo para los menores o pueden tener partes de su plataforma en las que el riesgo pueda mitigarse mediante otras medidas o partes en las que esto no sea posible. En estos casos, en lugar de restringir la edad del servicio en su conjunto, los prestadores de dichas plataformas en línea deben evaluar qué contenidos, secciones o funciones de su plataforma entrañan riesgos para los menores y aplicar restricciones de acceso respaldadas por métodos de garantía de la edad para reducir estos riesgos para los menores de manera proporcionada y adecuada. Por ejemplo, las partes de los servicios de redes sociales con contenidos, secciones o funciones que puedan plantear un riesgo para los menores, como las secciones de redes sociales restringidas a los adultos, o las secciones con comunicaciones comerciales restringidas a los adultos o con emplazamientos de productos por parte de influyentes restringidos a los adultos, solo deben ponerse a disposición de los usuarios adultos cuya edad se haya verificado como corresponda.

6.1.3.   Determinación de los métodos de garantía de la edad que deben utilizarse

6.1.3.1.   Verificación de la edad

37.

En las siguientes circunstancias, teniendo en cuenta que la protección de los menores constituye un importante objetivo político de la Unión al que se refiere el Reglamento (UE) 2022/2065, tal como se refleja en su considerando 71, la Comisión considera que el uso de restricciones de acceso respaldadas por métodos de verificación de la edad es una medida adecuada y proporcionada para garantizar un elevado nivel de privacidad, seguridad y protección de los menores:

a)

Cuando determinados productos o servicios planteen un riesgo elevado para los menores y dichos riesgos no puedan mitigarse con medidas menos restrictivas, teniendo en cuenta la legislación nacional y de la Unión aplicable, como por ejemplo:

i.

venta de alcohol, tabaco o productos relacionados con la nicotina, drogas;

ii.

acceso a cualquier tipo de contenido pornográfico;

iii.

acceso a contenidos de juegos de azar.

b)

Cuando, debido a riesgos detectados para los menores, las condiciones u otras obligaciones contractuales del servicio exijan que un usuario tenga 18 años o más para acceder al servicio, aunque no exista un requisito formal de edad establecido por la ley.

c)

Cualquier otra circunstancia en la que el prestador de una plataforma en línea accesible a menores haya detectado riesgos para la privacidad, la seguridad o la protección de los menores, incluidos los riesgos de contenido, conducta y para los consumidores, así como riesgos de contacto (por ejemplo, derivados de funciones como chat en directo, intercambio de imágenes o vídeos, mensajería anónima), cuando estos riesgos no puedan mitigarse con otras medidas menos indiscretas igual de eficaces que las restricciones de acceso respaldadas por la verificación de la edad (36).

d)

Cuando el Derecho nacional o de la Unión, de conformidad con el Derecho de la Unión, prescriba una edad mínima para acceder a determinados productos o servicios ofrecidos o anunciados de algún modo en una plataforma en línea, incluidas categorías específicamente definidas de servicios de redes sociales en línea (37).

38.

Los métodos de estimación de la edad pueden complementar las tecnologías de verificación de la edad y pueden utilizarse junto con las primeras, o como alternativa temporal, en particular en los casos en que aún no se disponga de medidas de verificación que respeten los criterios de eficacia de las soluciones de garantía de la edad descritas en la sección 6.1.4, haciendo especial hincapié en la protección del derecho de los usuarios a la privacidad y la protección de datos, así como a la exactitud. Este período transitorio no debe prolongarse más allá de la primera revisión de las presentes directrices (38). Por ejemplo, las plataformas que ofrezcan contenidos restringidos a adultos pueden utilizar métodos de estimación de la edad ex ante si pueden demostrar que dichos métodos son comparables a los de la verificación de la edad, con respecto a los criterios establecidos en la sección 6.1.4, en ausencia de medidas eficaces de verificación de la edad (39). A su debido tiempo, la Comisión podrá completar las presentes directrices con un análisis técnico sobre los principales métodos existentes de estimación de la edad disponibles en la actualidad a la luz de los criterios expuestos en la sección 6.1.4.

6.1.3.2.   Tecnologías para la verificación de la edad

39.

La verificación de la edad debe tratarse como un proceso separado y distinto que no está relacionado con otras actividades de recopilación de datos ejercidas por las plataformas en línea. La verificación de la edad no debe facultar a los prestadores de plataformas en línea para almacenar datos personales más allá de la información sobre el grupo de edad del usuario.

40.

Como se explica con más detalle en la sección 6.1.4, cualquier método de garantía de la edad debe ser sólido (que no pueda eludirse fácilmente) para considerarse adecuado y proporcionado. Un método que sea fácil de eludir para los menores no se considerará una medida eficaz de garantía de la edad.

41.

Los métodos que se basan en documentos de identidad expedidos por los Estados, verificados y de confianza, sin proporcionar a la plataforma datos personales adicionales, pueden constituir un método eficaz de verificación de la edad, en la medida en que se basen en tókenes de edad anonimizados (40). Dichos tókenes deben emitirse tras una verificación fiable de la edad de la persona, y deben ser emitidos por un tercero independiente en lugar del prestador de la plataforma en línea, especialmente cuando ofrezca acceso a contenidos para adultos. La Comisión considera que los protocolos criptográficos, como la rotación de claves o las pruebas de conocimiento cero (41), constituyen una base adecuada para garantizar la edad sin transmitir datos personales.

42.

Los Estados miembros están actualmente en proceso de proporcionar a cada uno de sus ciudadanos, residentes y empresas una cartera de identidad digital de la UE (42). Las carteras de identidad digital de la UE, de próxima creación, proporcionarán medios de identificación electrónica seguros, fiables y privados en la Unión. Una vez desplegados, podrán utilizarse para compartir solo información específica con un servicio, como por ejemplo, que una persona ha alcanzado una edad determinada.

La cartera de identidad digital de la UE

Una vez implementadas, las carteras de identidad digital de la UE proporcionarán medios de identificación electrónica seguros, fiables y privados para todos en la Unión. Todos los Estados miembros deben proporcionar al menos una cartera a todos sus ciudadanos, residentes y empresas, lo que debe permitirles demostrar quiénes son y almacenar, compartir y firmar de forma segura documentos digitales importantes antes de que finalice 2026. Todas las carteras de identidad digital de la UE representan la oportunidad de recibir un token de edad, y los Estados miembros pueden implementar servicios para emitir dichos tókenes.

43.

Para facilitar la verificación de la edad antes de que las carteras de identidad digital de la UE estén disponibles, la Comisión está probando actualmente una solución de verificación de la edad de la UE como medida independiente de verificación de la edad que respeta los criterios de eficacia de las soluciones de garantía de la edad descritos en la sección 6.1.4. Una vez finalizada, la solución de verificación de la edad de la UE proporcionará un ejemplo de cumplimiento y un patrón de referencia para los métodos de verificación de la edad mediante dispositivos. Por tanto, se anima a los prestadores de plataformas en línea que prevean utilizar soluciones de verificación de la edad para sus servicios a participar en las pruebas disponibles de las primeras versiones de la solución de verificación de la edad de la UE, que pueden informar a dichos prestadores de los mejores medios para garantizar el cumplimiento del artículo 28 del Reglamento (UE) 2022/2065.

44.

La aplicación de la norma de referencia (43) establecida por la solución de verificación de la edad de la UE puede ofrecerse a través de aplicaciones publicadas por entidades públicas o privadas o integradas en las futuras carteras de identidad digital de la UE. La aplicación de esta norma constituirá una tecnología de verificación de la edad que preserve la privacidad, minimice los datos, no pueda rastrearse y sea interoperable, de conformidad con los criterios de eficacia de las soluciones de garantía de la edad descritos en la sección 6.1.4.

Solución de la UE para la verificación de la edad

La solución de verificación de la edad de la UE, incluida una aplicación, será un método de verificación de la edad fácil de utilizar que podrá utilizarse para demostrar que un usuario tiene 18 años o más (18+). La solución colmará la laguna hasta que esté disponible la cartera de identidad digital de la UE. Esta solución sólida, que preserva la privacidad y minimiza los datos, tendrá por objeto establecer una norma en términos de privacidad y facilidad de uso.

La solución de verificación de la edad de la UE proporciona una referencia de cumplimiento para la exactitud de una solución de garantía de la edad, minimizando al mismo tiempo el impacto en los derechos y libertades de los destinatarios.

Los usuarios podrán activar fácilmente la aplicación y recibir la prueba de varias maneras diferentes. La prueba solo confirma si el usuario tiene 18 años o más. No indica la edad exacta ni incluye ninguna otra información sobre el usuario. El usuario puede presentar la prueba de que tiene 18 o más a la plataforma en línea de manera que se preserve la privacidad sin flujos de datos al proveedor de la prueba. Además, se pondrán en marcha mecanismos para evitar el seguimiento de una plataformas en línea a otra. El uso de la aplicación es sencillo. Al solicitar acceso a contenidos en línea para adultos, el usuario presenta a la plataforma en línea la prueba de que tiene 18 años o más a través de la aplicación. Tras verificar su validez, la plataforma en línea concede acceso al usuario. La identidad y las acciones del usuario están protegidas frente a la divulgación a lo largo de todo el proceso. No se informa al proveedor de confianza de la prueba sobre a qué servicios en línea desea acceder el usuario con la prueba de que tiene 18 años o más. Del mismo modo, los proveedores de servicios en línea para mayores de 18 años no reciben la identidad del usuario que solicita el acceso, solo una prueba de que el usuario tiene 18 años o más.

La solución de verificación de la edad de la UE también será técnicamente capaz de proporcionar otros atributos, como pruebas de que el usuario es real (liveness tests). En los países en los que se utilizan métodos válidos para las demostraciones de edad inferiores a 18 años, la solución de verificación de la edad de la UE también puede prever la verificación de la edad inferior a 18 años.

45.

Los prestadores de plataformas en línea accesibles a menores podrán utilizar otros métodos de verificación de la edad para garantizar un elevado nivel de privacidad, seguridad y protección de los menores, siempre que sean compatibles con la norma de referencia de la UE (tal como se describe en los apartados 43 y 44) y cumplan los criterios expuestos en la sección 6.1.4. La solución de la UE para la verificación de la edad es un ejemplo de método que cumple estos criterios.

46.

Para garantizar el cumplimiento de los principios de minimización de datos, limitación de la finalidad y confianza de los usuarios, se anima a los prestadores de plataformas en línea a que adopten métodos de verificación de la edad de doble ciego. Un método de doble ciego garantiza que i) la plataforma en línea no reciba medios adicionales para identificar al usuario y, en su lugar, solo reciba información que le permita confirmar si cumple el umbral de edad exigido y que ii) el prestador de verificación de la edad no tenga conocimiento de los servicios para los que se utiliza la prueba de la edad. Estos métodos podrán basarse en el procesamiento en dispositivos locales, tókenes criptográficos anonimizados o pruebas de conocimiento cero (44).

6.1.3.3.   Estimación de la edad

47.

La Comisión considera que el uso de métodos de estimación de la edad, cuando los facilite un tercero independiente o a través de sistemas auditados de forma adecuada e independiente, en particular para el cumplimiento de la seguridad y la protección de datos, así como cuando se haga ex ante si es necesario para garantizar la eficacia de la medida, es una medida adecuada y proporcionada para garantizar un elevado nivel de privacidad, seguridad y protección de los menores en las siguientes circunstancias:

a)

Cuando, debido a los riesgos detectados para la privacidad, la seguridad y la protección de los menores, las condiciones del servicio de plataforma en línea u obligaciones contractuales similares del servicio exijan que un usuario supere una edad mínima exigida inferior a 18 años para acceder al servicio, sobre la base de la evaluación de los riesgos para los menores en la plataforma realizada por el prestador (45) (46).

b)

Cuando el prestador de la plataforma en línea haya detectado riesgos medios para los menores en su plataforma, tal como se establece en su revisión de riesgos (véase la sección 5 sobre la revisión de riesgos) (47) y dichos riesgos no puedan mitigarse con medidas menos restrictivas. La Comisión considera que este será el caso cuando el riesgo no sea lo suficientemente elevado como para exigir una restricción de acceso basada en la verificación de la edad, pero no lo suficientemente baja como para que fuese adecuado no tener ninguna restricción de acceso o tener restricciones de acceso que no estén respaldadas por ningún método de garantía de la edad o solo estén respaldadas por una autodeclaración. La autodeclaración no se considera una medida adecuada de garantía de la edad, como se explica más adelante.

Buena práctica

MegaBetting (48) es una plataforma en línea que permite a los usuarios apostar por los resultados de acontecimientos del mundo real. El prestador restringe su servicio a los usuarios mayores de 18 años, de conformidad con la legislación nacional. Para garantizar que su plataforma en línea no sea accesible a menores, se basa en la solución de verificación de la edad de la UE, que solo indica al prestador si el usuario tiene al menos 18 años. Esta información es creada por un emisor de confianza sobre la base del documento de identidad digital del Estado del usuario y se recibe desde una aplicación en el teléfono del usuario. Por lo tanto, el proveedor considera que el sistema cumple los criterios de ser muy eficaz y preservar al mismo tiempo la privacidad del usuario.

Mala práctica

SadMedia es una plataforma en línea de redes sociales. El prestador de SadMedia decidió restringir sus servicios a menores de al menos 13 años. Esto se basó en su evaluación de los riesgos medios que la plataforma podría plantear para la privacidad, la seguridad y la protección de los menores. Las condiciones generales de SadMedia recogen esta restricción. Para hacer cumplir esta restricción, el proveedor de SadMedia se basa en un modelo de estimación de la edad que desarrolló y que afirma que puede predecir la edad del usuario con un margen de error de ± 2 años. Como consecuencia de este margen de error, muchos menores por debajo de la edad indicada pueden acceder al servicio y muchos menores que cumplen la edad requerida no pueden acceder al servicio. La medida de garantía de la edad de SadMedia no es muy eficaz y, por lo tanto, no garantiza un elevado nivel de privacidad, seguridad y protección de los menores en su servicio.

48.

Cuando el prestador de una plataforma en línea accesible a menores haya determinado que las restricciones de acceso respaldadas por la garantía de la edad son necesarias para lograr un elevado nivel de privacidad, seguridad y protección de los menores en su servicio, la Comisión considera que debe ofrecer en su plataforma más de un método de garantía de la edad, a fin de ofrecer al usuario la posibilidad de elegir entre métodos distintos, siempre que dichos métodos cumplan los criterios expuestos en la sección 6.1.4. Esto ayudará a evitar la exclusión de los usuarios que, a pesar de poder acceder a una plataforma en línea, no puedan acogerse a un método específico de garantía de la edad. Con el fin de aumentar la eficacia y la facilidad de uso, debe aplicarse el método adecuado de garantía de la edad, siempre que sea posible en el momento de la creación de la cuenta, y a continuación utilizar la información sobre la edad para contribuir a una experiencia adaptada a la edad en la plataforma, además de otras medidas de protección mencionadas en las presentes directrices. Además, los prestadores de plataformas en línea deben proporcionar un mecanismo de recurso para que los usuarios denuncien cualquier evaluación incorrecta de la edad por parte del prestador (49).

Mala práctica

SadMedia utiliza una solución de estimación de la edad como una entre varias medidas destinadas a contribuir a un elevado nivel de privacidad, seguridad y protección. Cuando el sistema de estimación de la edad arroja un resultado negativo, indicando que el usuario es demasiado joven para utilizar el servicio, se presenta al usuario una ventana emergente que pregunta «¿No estás de acuerdo con el resultado? ¡Inténtalo de nuevo!» El usuario puede volver a realizar la prueba de estimación de la edad utilizando el mismo método. En este ejemplo, la medida de garantía de la edad no se consideraría adecuada ni proporcionada, ya que no se da al destinatario la posibilidad de utilizar otro método de garantía de la edad ni se ofrece una vía de recurso al destinatario para impugnar una evaluación incorrecta.

6.1.4.   Evaluación de la adecuación y proporcionalidad de cualquier método de garantía de la edad

49.

Antes de considerar la posibilidad de establecer un método específico de verificación o estimación de la edad que apoye las restricciones de acceso, los prestadores de plataformas en línea accesibles a menores deben tener en cuenta las siguientes características de dicho método:

a)

Precisión. Con qué precisión determina la edad del usuario un método determinado.

La exactitud de un método de verificación o estimación de la edad debe evaluarse con arreglo a parámetros adecuados, claros y accesibles al público. Estos parámetros son necesarios para evaluar en qué medida el método puede determinar correctamente si un usuario está por encima o por debajo de una determinada edad, o el rango de edad de una persona (50). Los prestadores de plataformas en línea deben revisar periódicamente si la precisión técnica del método utilizado sigue a la par de las técnicas más avanzadas.

b)

Fiabilidad. La fiabilidad de un método determinado en la práctica en circunstancias reales.

Para que un método sea fiable, debe estar disponible de forma continua en cualquier momento y funcionar en diferentes circunstancias reales, más allá de las condiciones ideales de laboratorio. Los prestadores de plataformas en línea accesibles a menores deben evaluar, antes de emplear una solución específica de garantía de la edad, que cualquier dato en el que se base como parte del proceso de garantía de la edad procede de una fuente fiable. Por ejemplo, una prueba de la edad firmada por uno mismo no se consideraría fiable.

c)

Solidez. ¿Hasta qué punto es fácil eludir un método determinado?

Un método que sea fácil de eludir para los menores no se considerará suficientemente sólido y, por tanto, no se considerará eficaz. Este nivel de «facilidad» será evaluado por los prestadores de plataformas en línea accesibles a los menores caso por caso, teniendo en cuenta la edad de los menores a los que se dirigen las medidas específicas. Los prestadores de plataformas en línea accesibles a menores también deben evaluar si el método de garantía de la edad proporciona seguridad y protección, en consonancia con los últimos avances, para garantizar la integridad de los datos de edad tratados.

d)

Discreción ¿En qué medida es indiscreto un método determinado en relación con los derechos de los usuarios?

Los prestadores de plataformas en línea accesibles a menores deben evaluar periódicamente el impacto que tendrá el método elegido en los derechos y libertades de los destinatarios, incluido su derecho a la privacidad, la protección de datos y la libertad de expresión (51). Según el Comité Europeo de Protección de Datos, y de conformidad con el artículo 28, apartado 3, del Reglamento (UE) 2022/2065 (52), un proveedor solo debe tratar los atributos relacionados con la edad que sean estrictamente necesarios para el fin específico y la garantía de la edad no debe utilizarse para proporcionar medios adicionales para que los prestadores puedan identificar, localizar, realizar perfiles o rastrear a personas físicas (53). Si el método es más indiscreto que otro que ofrece el mismo nivel de garantía y eficacia, debe elegirse el método menos indiscreto. Esto incluye una evaluación de si el método proporciona plena transparencia sobre el proceso de conformidad con el artículo 12 del Reglamento (UE) 2016/679 o proporciona información sobre el usuario en situación de riesgo. En ningún caso los datos tratados con el fin de determinar si un usuario está por encima o por debajo de una determinada edad pueden almacenarse o utilizarse para otros fines.

e)

No discriminación. Cómo un método determinado puede discriminar a algunos usuarios.

Los proveedores de plataformas en línea accesibles a menores deben asegurarse de que el método elegido sea adecuado y esté disponible para todos los menores, independientemente de su discapacidad, lengua, etnia, género, religión y pertenencia a minorías.

50.

Cuando las medidas de garantía de la edad no cumplen los criterios establecidos anteriormente, no pueden considerarse adecuadas y proporcionadas.

51.

No debe considerarse que las soluciones de garantía de la edad que puedan eludirse fácilmente garantizan un elevado nivel de privacidad, seguridad y protección de los menores. Dicha evaluación debe llevarse a cabo en función del impacto que la plataforma pueda tener en la privacidad, la seguridad y la protección de los menores. El almacenamiento de una prueba de la edad también debe depender de los riesgos asociados a las plataformas pertinentes. Por ejemplo, las plataformas en línea restringidas a adultos no deben permitir compartir credenciales de cuentas de usuario y, por tanto, deben comprobar la garantía de la edad cada vez que se acceda a su servicio.

52.

La Comisión considera que la autodeclaración (54) no cumple todos los requisitos anteriores, en particular los requisitos de solidez y exactitud. Por lo tanto, no considera que la autodeclaración sea un método adecuado de garantía de la edad para garantizar un elevado nivel de privacidad, seguridad y protección de los menores de conformidad con el artículo 28, apartado 1, del Reglamento (UE) 2022/2065.

53.

Además, la Comisión considera que el hecho de que se utilice un tercero para garantizar la edad debe explicarse a los menores, como en cualquier caso, de manera accesible, visible y en un lenguaje adaptado a los menores (véase la sección 8.4 sobre transparencia). Además, sigue siendo responsabilidad del prestador garantizar que el método utilizado por el tercero sea eficaz, en consonancia con las consideraciones expuestas anteriormente. Esto incluye, por ejemplo, cuando el prestador tenga la intención de recurrir a soluciones proporcionadas por los operadores de sistemas operativos o dispositivos.

6.2.   Registro

54.

El registro o la autenticación pueden influir en si los menores pueden acceder a un servicio determinado y utilizarlo de una manera segura, adaptada a su edad y que preserve sus derechos, y de qué manera. La Comisión considera que, cuando se haya determinado que la garantía de la edad es necesaria para proporcionar un elevado nivel de privacidad, seguridad y protección, así como para proporcionar una experiencia adecuada a la edad, el registro o la autenticación pueden ser un primer punto de uso para llevar a cabo dicho proceso de manera proporcionada.

55.

Cuando no se exija el registro, y teniendo en cuenta que cualquier usuario no registrado podría ser un menor, de edad inferior a la mínima exigida por la plataforma en línea para acceder al servicio o a contenidos inadecuados para su edad en el servicio, el prestador de la plataforma en línea accesible a menores pertinente debe ajustar la configuración de cualquier usuario no registrado de manera que se garanticen los niveles más elevados de privacidad, seguridad y protección, teniendo en cuenta, en particular, las recomendaciones establecidas en las secciones 6.3.1 y 6.3.2 y tratando el interés superior del menor como una consideración primordial, también teniendo en cuenta los riesgos de contacto asociados a un adulto que se haga pasar como niño.

56.

Cuando se exija o se ofrezca el registro como posibilidad de acceder a una plataforma en línea accesible a menores, la Comisión considera que el prestador de dicha plataforma debe:

a)

Explicar a los usuarios los beneficios y riesgos del registro y, en su caso, por qué es necesario (véase la sección 8.4 sobre transparencia).

b)

Garantizar que iniciar y finalizar el proceso de registro sea fácil para todos los menores, en función de la evolución de sus capacidades, incluidas las personas con discapacidad o con necesidades adicionales de accesibilidad, y en un lenguaje que puedan comprender.

c)

Garantizar que el proceso de registro incluya medidas para ayudar a los usuarios a comprender si tienen la edad suficiente para utilizar el servicio. De conformidad con la letra d), estas medidas solo deben presentarse a los usuarios una vez que se haya aplicado un método de garantía de la edad, incluida la autodeclaración.

d)

Evitar animar o incitar a los usuarios que no alcancen la edad mínima exigida por la plataforma en línea accesible a menores a crear cuentas o acceder al servicio y adoptar medidas para reducir el riesgo de que esto ocurra (55).

e)

Asegurarse de que sea fácil para los menores desconectarse y borrar su cuenta a petición suya.

f)

Utilizar el proceso de registro como una oportunidad para llevar a cabo la garantía de la edad en caso necesario, teniendo en cuenta las recomendaciones de las secciones 5 y 6.1 (56), así como destacar los dispositivos de seguridad de la plataforma o servicio, las normas de conducta y las consecuencias por vulnerarlas, cualquier riesgo detectado para la privacidad, la seguridad o la protección de un menor y los recursos disponibles para apoyar a los usuarios.

g)

Garantizar que el proceso de registro no anime ni incite a los menores a poner a disposición o compartir en su perfil más información de la necesaria para el funcionamiento del servicio, y que se solicite el consentimiento del progenitor o tutor del menor cuando sea necesario con arreglo al Derecho de la Unión o de los Estados miembros.

6.3.   Configuración de la cuenta

6.3.1.   Configuración por defecto

57.

La configuración por defecto es una herramienta importante que los proveedores de plataformas en línea accesibles a menores pueden utilizar para mitigar los riesgos para la privacidad, la seguridad y la protección de los menores, como, por ejemplo, el riesgo de contacto no deseado por parte de personas que pretenden dañar a los menores. Las pruebas sugieren que los usuarios tienden a no cambiar su configuración por defecto, lo que significa que la mayoría de los usuarios la mantiene y, por tanto, es crucial para influir en el comportamiento (57). Por consiguiente, la Comisión considera que los prestadores de plataformas en línea accesibles a menores deben:

a)

Garantizar que los principios de privacidad, seguridad y protección desde el diseño se apliquen de manera coherente a todos las configuraciones de cuentas para los menores.

b)

Configurar por defecto las cuentas de los menores al máximo nivel de privacidad, seguridad y protección. Esto incluye diseñar la configuración por defecto de tal manera que se garanticen unos entornos seguros y adaptados a la edad de los menores, teniendo en cuenta la evolución de sus capacidades. Estas configuraciones para menores deben garantizar, como mínimo y por defecto, que:

i.

las cuentas solo permiten la interacción (los botones «me gusta», las etiquetas, los comentarios, los mensajes directos, las republicaciones y las menciones) con las cuentas que se hayan aceptado previamente;

ii.

ninguna cuenta puede descargar ni realizar capturas de pantalla de información de contacto, ubicación o cuentas, ni de contenidos cargados o compartidos por menores en la plataforma;

iii.

solo las cuentas que el menor ha aceptado previamente pueden ver su contenido, publicaciones e información de la cuenta;

iv.

nadie puede ver las actividades del menor, como sus «me gusta», o a qué usuarios sigue;

v.

la geolocalización, el micrófono, el acceso a fotografías y a la cámara, la sincronización de los contactos y todas las características de seguimiento no estrictamente necesarias están desactivadas;

vi.

la reproducción automática de vídeos y la retransmisión en directo están desactivadas;

vii.

las notificaciones automáticas «push» están desactivadas por defecto y siempre están desactivadas durante las horas de sueño habituales, adaptando estas a la edad del menor; cuando sea el usuario el que active las notificaciones automáticas «push», solo deben notificar al usuario las interacciones derivadas de los contactos directos del usuario y del contenido de las cuentas o canales que el usuario sigue activamente o con los que interactúa (por ejemplo, nunca deben ser inauténticas y siempre deben mencionar con precisión al usuario o creador del que procede la notificación);

viii.

las características que pueden contribuir a un uso excesivo, como el número de «me gusta», «reacciones» o «rachas», la función «… está escribiendo» y los «recibos de lectura» están desactivados;

ix.

todas las funcionalidades que aumentan la voluntad de los usuarios a lo largo de sus interacciones están habilitadas; esto puede incluir, por ejemplo, información o fricción que ralentice la visualización de contenidos, la publicación y la interacción de los usuarios, brindando a los usuarios la oportunidad de pensar antes de decidir si desean ver más contenidos, o de pensar antes de publicar;

x.

las recomendaciones de otras cuentas están desactivadas;

xi.

los filtros que pueden asociarse a efectos negativos sobre la imagen corporal, la autoestima y la salud mental están desactivados.

c)

Considerar si, en función de la edad y la evolución de las capacidades de los menores y del resultado de la revisión de riesgos de un prestador, es necesario ir más allá de la norma mínima para la configuración por defecto establecida en la presente sección 6.3.1, y diseñar y aplicar una configuración por defecto más restrictiva. Por ejemplo, diseñando configuraciones por defecto para los menores más jóvenes en los que ningún otro usuario esté autorizado a participar en determinados tipos de interacciones.

d)

Probar y actualizar periódicamente las configuraciones por defecto, garantizando que sigan siendo eficaces, tras todas las actualizaciones, frente a los riesgos y tendencias emergentes en línea, incluidos los riesgos para la privacidad, la seguridad y la protección de los menores determinados por el prestador durante su revisión de riesgos (véase la sección 5 sobre la revisión de riesgos).

e)

Garantizar que no se anime a los menores en modo alguno a cambiar su configuración a niveles más bajos de privacidad, seguridad y protección, y que todas las opciones para cambiar la configuración por defecto se presenten de manera neutral.

f)

Garantizar que los menores tengan un grado de control progresivo sobre sus configuraciones, en función de su edad y de la evolución de sus capacidades y necesidades, para apoyar su creciente autonomía y aumentar su voluntad (58).

g)

Garantizar que se explique la configuración a los menores de manera accesible y adaptada a ellos (véase la sección 6.4 sobre la interfaz en línea y otras herramientas).

58.

Cuando los menores cambien su configuración por defecto u opten por características que pongan en peligro su privacidad, seguridad o protección, la Comisión considera que el prestador de la plataforma en línea debe:

a)

Ofrecer a los menores la posibilidad de elegir entre cambiar temporalmente su configuración por defecto, por ejemplo, durante un período de tiempo o durante la sesión en curso, y cambiar permanentemente su configuración por defecto.

b)

Permitir restaurar fácilmente la configuración por defecto, mediante un solo clic, u ofrecer una función para deshacer cambios en la configuración.

c)

Presentar señales de advertencia en el punto en el que el menor cambia su configuración, explicando claramente las posibles consecuencias de sus cambios.

d)

Proporcionar periódicamente recordatorios a los menores sobre las posibles consecuencias de los cambios que realicen y ofrecerles periódicamente la oportunidad de volver a su configuración por defecto.

e)

Una vez finalizada la sesión, desactivar automáticamente la geolocalización, el micrófono y la cámara, así como las características de seguimiento que no sean estrictamente necesarias, si un menor los ha activado.

f)

Cuando se activa la geolocalización, el micrófono y la cámara, resulta evidente para los menores durante todo el período en el que están activados.

6.3.2.   Disponibilidad de configuraciones, características y funcionalidades

59.

La Comisión considera que los prestadores de plataformas en línea accesibles a menores deben:

a)

Considerar si algunas configuraciones, características o funcionalidades deben eliminarse por completo de las cuentas de los menores o si alguno de los ajustes de la configuración por defecto establecida en la sección 6.3.1 anterior deben ser irreversibles o inmodificables para todos los menores o para los menores de determinadas edades, teniendo en cuenta su edad y sus capacidades cambiantes, y eliminar o hacer irreversibles tales ajustes sobre la base de dicha evaluación. Al hacer esta evaluación, los prestadores de plataformas en línea accesibles a los menores deben evaluar la manera en que dichas configuraciones y funcionalidades puedan afectar al elevado nivel de privacidad, seguridad y protección de los menores en su plataforma.

b)

Garantizar que, independientemente de la configuración de la cuenta elegida por los menores:

i.

nunca es fácil encontrar menores o contactar con ellos utilizando cuentas que los menores no hayan aceptado previamente como contactos;

ii.

los datos personales de contacto de los menores, incluidos el correo electrónico o el número de teléfono, nunca se revelan a otros usuarios, a menos que el menor lo permita explícitamente;

iii.

las cuentas de los menores nunca se incluyen en las sugerencias de contacto para cuentas de adultos y no se recomiendan a los menores las cuentas de adultos o las cuentas de menores que puedan ser falsas;

iv.

las cuentas que el menor no ha aceptado previamente como contactos nunca pueden ver su perfil, su biografía, sus actividades y su historial (como los «me gusta» y los contenidos visualizados), sus listas de amigos y seguidores y cuentas que el menor sigue, y que dicha información siempre deja de estar disponible si se bloquea la cuenta o se cancela de otro modo.

c)

Garantizar que se ofrezca a los menores la posibilidad de restringir la visibilidad de su fotografía de perfil y de los contenidos individuales que publican, así como la posibilidad de restringir la visibilidad de su contenido en general.

d)

Garantizar que se ofrezca a los menores la posibilidad de aceptar o rechazar cualquier marcado por parte de otros usuarios, ya sea en el contenido, los comentarios u otros.

e)

Aplicar medidas para evitar que los menores acepten involuntariamente contactos no deseados, por ejemplo, exigiendo a los usuarios que incluyan un mensaje cuando soliciten conectarse con un menor.

6.4.   Diseño de interfaces en línea y otras herramientas

60.

La Comisión considera que las medidas que permiten a los menores tomar el control de sus experiencias en línea son un medio eficaz para garantizar un elevado nivel de privacidad, seguridad y protección de los menores a efectos del artículo 28, apartado 1, del Reglamento (UE) 2022/2065.

61.

Sin perjuicio de las obligaciones de los prestadores de plataformas en línea de muy gran tamaño y de motores de búsqueda en línea de muy gran tamaño en virtud del capítulo III, sección 5, del Reglamento (UE) 2022/2065 y con independencia de las obligaciones de los prestadores de plataformas en línea en lo que respecta al diseño, la organización y el funcionamiento de sus interfaces en línea derivadas del artículo 25 de dicho Reglamento, la Comisión considera que los prestadores de plataformas en línea accesibles a menores deben adoptar y aplicar funcionalidades que permitan a los menores decidir cómo interactuar con sus servicios. Estas funcionalidades deben proporcionar el equilibrio adecuado entre la voluntad de los menores y un nivel adecuado de privacidad, seguridad y protección. Esto debe incluir, por ejemplo:

a)

Garantizar que el diseño de interfaces en línea ofrezca a los menores una experiencia adaptada a su edad.

b)

Garantizar que los menores no estén expuestos a características de diseño persuasivas destinadas principalmente a aumentar la interacción y que puedan dar lugar a un uso extensivo o excesivo de la plataforma o a hábitos de comportamiento problemáticos o compulsivos. Esto incluye la posibilidad de desplazamiento infinito, el requisito superfluo de llevar a cabo una acción específica para recibir información actualizada en una aplicación, la activación automática de los contenidos de vídeo, las notificaciones programadas artificialmente para recuperar la atención de los menores, las notificaciones que sean artificiales, incluidas las que pretendan proceder de otro usuario o las notificaciones sociales sobre contenidos con los que el usuario nunca ha participado, las señales de escasez o urgencia (59), y la creación de recompensas virtuales por llevar a cabo acciones (reiteradas) en la plataforma.

c)

Introducir herramientas personalizables, visibles, de fácil acceso y uso, adaptadas a los niños y eficaces de gestión del tiempo para aumentar la sensibilización de los menores sobre el tiempo dedicado a las plataformas en línea. Para ser eficaces, estas herramientas deben disuadir a los menores de pasar más tiempo en la plataforma. También podrían incluir notificaciones que animen a elegir opciones más seguras. También se deben aplicar sistemáticamente las notificaciones activas que informen a los menores del tiempo que llevan en línea.

d)

Garantizar que todas las herramientas, características, funcionalidades, configuraciones, indicaciones, opciones, así como los mecanismos de presentación de denuncias, observaciones y reclamaciones estén adaptados a los niños, sean adecuados a su edad, fáciles de encontrar, acceder, comprender y utilizar para todos los menores, incluidos aquellos con discapacidad o necesidades adicionales de accesibilidad, sean atractivos y no requieran cambiar de dispositivo para llevar a cabo ninguna acción.

e)

Garantizar que, si las funciones de IA, como los chatbots y filtros impulsados por IA, se integran en una plataforma en línea accesible a los menores, no se activen automáticamente y no se anime ni se incite a los menores a utilizarlos, y que dichos sistemas estén en consonancia con la evolución de sus capacidades y se diseñen de manera segura para ellos. A este respecto, la Comisión considera que las características de IA solo deben estar disponibles en plataformas en línea accesibles a menores tras una evaluación de los riesgos que dichas características de IA puedan plantear para la privacidad, la seguridad y la protección de los menores, y que debe ser fácil desactivarlas y debe quedar claro cuándo están activadas.

f)

Garantizar que se apliquen medidas técnicas para advertir (60) a los menores de que las interacciones con funciones impulsadas por la IA son diferentes de las interacciones humanas y que estas funciones pueden proporcionar información que sea materialmente inexacta y engañosa. Esta advertencia debe ser fácilmente visible, estar redactada en un lenguaje adaptado a los niños y ser directamente accesible desde la interfaz y durante toda la interacción del menor con la característica de IA. Por ejemplo, los chatbots impulsados por IA no deben mostrarse de forma destacada, no deben formar parte de los contactos propuestos ni estar agrupados con los usuarios a los que esté conectado el menor. Los prestadores de plataformas en línea deben velar por que los menores y sus tutores tengan opciones para renunciar al uso de chatbots impulsados por IA y no deben verse animados a utilizar esas características (61). Estas características de IA no pueden utilizarse para influir o animar a los menores a realizar compras o ver anuncios.

Mala práctica

SadFriends es una plataforma de redes sociales en la que los perfiles de los menores tienen la misma configuración que los de los adultos. Al registrarse, la información y el contenido de las cuentas de los menores son visibles para otros usuarios en la plataforma y fuera de ella. Los menores pueden ser contactados por otros usuarios que no hayan sido aceptados como contactos por el menor. Estos otros usuarios pueden enviarles mensajes y realizar comentarios sobre su contenido. Cuando los menores activan su geolocalización para compartir su ubicación con sus amigos, su ubicación se hace visible en todas las cuentas con las que son amigos y permanece activada después del cierre de la sesión, lo que significa que otros usuarios pueden ver dónde se encuentran hasta que los menores se acuerden de desactivar su geolocalización.

Como consecuencia de ello, los agentes malintencionados empiezan a dirigirse a menores en SadFriends. Los adultos anónimos se comunican con los menores y entablan conversaciones con ellos, desarrollando una conexión emocional y ganándose su confianza. Los menores son captados y se les coacciona para que creen y compartan imágenes de abuso sexual de menores con sus explotadores.

6.5.   Sistemas de recomendación y funciones de búsqueda

62.

Los sistemas de recomendación (62) determinan la forma en que la información se prioriza, optimiza y muestra a los menores. Como consecuencia de ello, estos sistemas contribuyen a determinar si los menores se encuentran con determinados tipos de contenidos, contactos o conductas en línea, y en qué medida. Los sistemas de recomendación pueden generar y exacerbar los riesgos para la privacidad, la seguridad y la protección de los menores en línea, por ejemplo, amplificando contenidos que puedan tener un impacto negativo en la seguridad y la protección de los menores (63).

63.

La Comisión recuerda las obligaciones de todos los prestadores de todas las categorías de plataformas en línea en relación con la transparencia del sistema de recomendación con arreglo al artículo 27 del Reglamento (UE) 2022/2065 y los requisitos adicionales para los prestadores de plataformas en línea de muy gran tamaño y de motores de búsqueda en línea de muy gran tamaño en virtud del artículo 34, apartado 1, artículo 35, apartado 1, y artículo 38 del Reglamento (UE) 2022/2065 a este respecto (64).

64.

Con el fin de garantizar un elevado nivel de privacidad, seguridad y protección específicamente para los menores, tal como se exige en el artículo 28, apartado 1, del Reglamento (UE) 2022/2065, la Comisión considera que los prestadores de plataformas en línea accesibles a menores deben adoptar las siguientes medidas:

6.5.1.   Prueba y adaptación del diseño y funcionamiento de los sistemas de recomendación para menores

65.

Los prestadores de plataformas en línea accesibles a menores que utilicen sistemas de recomendación en la prestación de su servicio deben:

a)

Probar y adaptar periódicamente sus sistemas de recomendación para mejorar la privacidad, la seguridad y la protección de los menores y de conformidad con la revisión de riesgos prevista en la sección 5, que incluye una consideración de los derechos más amplios de los menores. Dichas pruebas y adaptaciones deben llevarse a cabo consultando a menores, tutores y expertos independientes.

b)

Tener en cuenta las necesidades, características, discapacidades y necesidades adicionales de accesibilidad específicas de los menores, también teniendo debidamente en cuenta su grupo de edad, a la hora de definir los objetivos, los parámetros y las estrategias de evaluación de los sistemas de recomendación. Deben priorizarse los parámetros e indicadores relacionados con la precisión, la diversidad, la inclusividad y la equidad.

c)

Garantizar que los sistemas de recomendación no se basen en la recogida de datos de comportamiento que reflejen las actividades del menor fuera de la plataforma.

d)

Garantizar que, si un sistema de recomendación se basa en el tratamiento de datos de comportamiento de un menor, las sugerencias de información específica a los destinatarios menores del servicio o la priorización de dicha información no se basen en un tratamiento de datos personales de comportamiento que sea tan amplio que refleje la totalidad o la mayoría de las actividades del menor en la plataforma, lo que puede dar lugar a la sensación de que la vida privada del menor está siendo objeto de seguimiento continuo.

e)

Garantizar que los sistemas de recomendación se basen en «señales implícitas basadas en la participación» únicamente tras haber evaluado si redunda en el interés superior del menor, teniendo en cuenta los principios de minimización de datos y transparencia, y siempre que dicho uso esté claramente definido y sujeto a las garantías adecuadas, tal como se definen con más detalle en las recomendaciones anteriores.

f)

A efectos de las presentes directrices, se entenderá por «señales implícitas basadas en la participación» las señales y los datos que deducen las preferencias de los usuarios de sus actividades (comportamiento de navegación en una plataforma), como el tiempo dedicado a visualizar contenidos y el porcentaje de clics.

g)

Priorizar las «señales explícitas facilitadas por el usuario» para determinar el contenido mostrado y recomendado a los menores. La selección de tales señales debe justificarse en el interés superior del menor, teniendo en cuenta los principios de minimización de datos y transparencia, lo que ayudará a garantizar que contribuyan a un elevado nivel de seguridad y protección de los menores. A efectos de las presentes directrices, se entenderá por «señales explícitas facilitadas por los usuarios» las observaciones e interacciones de los usuarios que indiquen preferencias explícitas de los usuarios, tanto positivas como negativas, incluida la selección declarada y deliberada de temas de interés, encuestas, denuncias (65) y otras señales cualitativas.

h)

Aplicar medidas para prevenir la exposición de los menores a recomendaciones de contenidos que puedan suponer un riesgo para su seguridad y protección, en particular cuando se produzcan repetidamente, como contenidos que promuevan normas de belleza o dietas poco realistas, contenidos que glorifiquen o trivialicen problemas de salud mental, como la ansiedad o la depresión, contenidos discriminatorios, contenidos que busquen la radicalización y contenidos perturbadores que muestren violencia o animen a los menores a realizar actividades peligrosas. Esto incluye los contenidos que hayan sido denunciados o señalados por usuarios, alertadores fiables u otros agentes o herramientas de moderación de contenidos, y cuya legalidad y cumplimiento de las condiciones de la plataforma aún no se hayan verificado, de conformidad con las obligaciones pertinentes en virtud del Reglamento (UE) 2022/2065 y con la sección 6.7.

i)

Aplicar medidas para garantizar que los sistemas de recomendación no permitan ni faciliten la difusión de contenidos ilícitos ni la comisión de delitos contra menores y por parte de estos.

j)

Garantizar que los resultados de las búsquedas y las sugerencias de contactos de los menores den prioridad a las cuentas cuya identidad haya sido verificada y a los contactos conectados a la red del menor, o a contactos en la misma franja de edad que el menor.

k)

Garantizar que las funciones de búsqueda, incluidas, entre otras, autocompletar texto en la barra de búsqueda y las sugerencias de términos y frases clave, no recomiendan contenidos que sean ilícitos o puedan considerarse perjudiciales para la privacidad, la seguridad o la protección de los menores, por ejemplo bloqueando términos de búsqueda que se sepa llevan a contenidos considerados perjudiciales para la privacidad, la seguridad o la protección de los menores, como palabras concretas, jerga, etiquetas hashtags o emojis (66). En caso de consultas relacionadas con dichos contenidos, los prestadores de plataformas en línea deben redirigir a los menores a recursos de apoyo y líneas de ayuda adecuados.

6.5.2.   Control y capacitación de los usuarios

66.

Los prestadores de plataformas en línea accesibles a menores que utilicen sistemas de recomendación en la prestación de su servicio deben adoptar las siguientes medidas para garantizar un elevado nivel de privacidad, seguridad y protección de los menores:

a)

Ofrecer a los menores la oportunidad de restablecer sus contenidos recomendados de forma completa y permanente.

b)

Dentro de la priorización de parámetros e indicadores relacionados con la precisión, la diversidad, la inclusividad y la equidad, proporcionar información y animar a los menores a buscar nuevos contenidos tras una cierta interacción con el sistema de recomendación.

c)

Evaluar si, a la luz de las características específicas de la plataforma y con el fin de garantizar un elevado nivel de privacidad, seguridad y protección de los menores en dicha plataforma, consideran adecuado garantizar que los menores puedan elegir una opción de su sistema de recomendación que no se base en la elaboración de perfiles. La presente Recomendación se entiende sin perjuicio de las obligaciones de los proveedores de plataformas en línea de muy gran tamaño y de motores de búsqueda en línea de muy gran tamaño en virtud del artículo 38 del Reglamento (UE) 2022/2065.

d)

En caso de que, como resultado de la evaluación a que se refiere el punto anterior o como resultado de las obligaciones derivadas del artículo 38 del Reglamento (UE) 2022/2065 en relación con los prestadores de plataformas en línea de muy gran tamaño y de motores de búsqueda en línea de muy gran tamaño, hayan establecido una opción de su sistema de recomendación que no se base en la elaboración de perfiles, evalúen si esto debe facilitarse como una configuración por defecto y, si lo consideran adecuado, establezcan las salvaguardias y medidas de transparencia necesarias para informar a los menores de dicha opción y de las posibles consecuencias de desactivar dicha configuración por defecto.

e)

Garantizar que los mecanismos pertinentes de denuncias y observaciones establecidos en la sección 7.1 tengan un efecto rápido, directo y duradero en los parámetros, la edición y los resultados de los sistemas de recomendación. Esto incluye eliminar permanentemente de las recomendaciones el contenido y los contactos denunciados (incluidos los contenidos que se ha pedido ocultar y los contactos bloqueados o denunciados) y reducir la visibilidad de contenidos y cuentas similares.

67.

Además de las obligaciones establecidas en el artículo 27, apartado 1, del Reglamento (UE) 2022/2065, y para los prestadores de plataformas en línea de muy gran tamaño y de motores de búsqueda en línea de muy gran tamaño, las obligaciones reforzadas de diligencia debida establecidas en los artículos 34, 35 y 38 de dicho Reglamento, la Comisión considera que los prestadores de plataformas en línea accesibles a menores deben:

a)

Garantizar que cualquier configuración e información facilitada a los menores sobre sus sistemas de recomendación, incluidos, entre otros, sus condiciones generales, se presenten de manera accesible y adaptada a los niños, adaptada a su edad y a la evolución de la madurez de los niños, y en un idioma que puedan comprender (véanse la sección 6.4 sobre el diseño de interfaces en línea y otras herramientas y la sección 8.4 sobre transparencia para obtener más información).

b)

Explicar de manera clara por qué se les recomendó cada contenido específico, incluyendo información sobre los parámetros utilizados y las señales de usuario recogidas para esa recomendación específica.

c)

Ofrecer a los menores, de manera accesible y con un lenguaje y un diseño adaptados a los menores, opciones para modificar o influir en los parámetros de sus sistemas de recomendación, por ejemplo, permitiéndoles seleccionar las categorías de contenidos y las actividades que más o menos les interesen, incluyendo explicaciones en un lenguaje adaptado a los niños. Esto debe ofrecerse durante el proceso de creación de la cuenta y periódicamente a lo largo del tiempo del menor en la plataforma. Estas preferencias deben influir directamente en las recomendaciones del sistema, garantizando que se ajusten a la edad y al interés superior del menor (67).

6.6.   Prácticas comerciales

68.

Los menores están especialmente expuestos a los efectos persuasivos de las prácticas comerciales y tienen derecho a ser protegidos contra las prácticas de explotación económica (68) por parte de las plataformas en línea. Se enfrentan a prácticas comerciales de las plataformas en línea, incluidas tácticas persuasivas diversas, dinámicas y personalizadas a través de, por ejemplo, publicidad, emplazamiento de productos, uso de monedas integradas en las aplicaciones, mercadotecnia por medio de influyentes, campañas de patrocinio o incentivación potenciadas por IA (69) (70). Esto puede tener un efecto negativo en la privacidad, la seguridad y la protección de los menores cuando utilizan los servicios de una plataforma en línea.

69.

En consonancia con el marco jurídico horizontal vigente, en particular la Directiva 2005/29/CE sobre las prácticas comerciales desleales, que es plenamente aplicable a todas las prácticas comerciales también dirigidas los menores (71) y las normas más específicas del Reglamento (UE) 2022/2065 sobre publicidad (artículo 26, artículo 28, apartado 2, y artículo 39) e interfaces engañosas (artículo 25), la Comisión considera que los prestadores de plataformas en línea accesibles a menores deben adoptar las siguientes medidas para garantizar un elevado nivel de privacidad, seguridad y protección de los menores en su servicio a efectos del artículo 28, apartado 1, del Reglamento (UE) 2022/2065:

a)

Garantizar que no se aproveche la falta de alfabetización comercial de los menores, teniendo en cuenta la edad, las vulnerabilidades y la limitada capacidad de los menores para interactuar de manera crítica con las prácticas comerciales de la plataforma y prestarles el apoyo pertinente (72).

b)

Garantizar que los menores no estén expuestos a publicidad nociva, poco ética e ilícita (73). Esto puede implicar, por ejemplo, considerar la idoneidad de las campañas publicitarias para diferentes grupos de edad, abordar sus efectos adversos y adoptar medidas de seguridad adecuadas para proteger a los menores y garantizar que tengan acceso a información que redunde en su interés superior (74).

c)

Revisar periódicamente las medidas de protección pertinentes en consulta con los menores, los tutores y otras partes interesadas pertinentes.

d)

Garantizar que los menores no estén expuestos a un total excesivo en cuanto a volumen, frecuencia y recomendación de contenidos comerciales, que pueda dar lugar a un gasto excesivo o no deseado o a comportamientos adictivos y tengan efectos perjudiciales para su privacidad, su seguridad y su protección.

e)

Garantizar que los menores no estén expuestos a sistemas impulsados por IA integrados en la plataforma que influyan o incentiven a menores con fines comerciales, en particular a través de formatos de conversación o asesoramiento, como los chatbots (75).

f)

Garantizar que las declaraciones de comunicación comercial sean claramente visibles, estén adaptadas a los niños y a su edad y sean accesibles (véase la sección 8.4 sobre transparencia) y se utilicen de forma coherente en todo el servicio, por ejemplo con el uso de un icono o un signo similar para indicar claramente que el contenido es publicidad (76). Estas deben someterse a pruebas y revisiones periódicas en consulta con los menores, sus tutores y otras partes interesadas pertinentes.

g)

Garantizar que los menores no estén expuestos a la comercialización y la comunicación de productos o servicios que puedan tener un efecto adverso en su privacidad, su seguridad y su protección, incluidos los determinados en la revisión de riesgos del proveedor, incluidos los asociados a efectos negativos en su salud física y mental (véase la sección 5 sobre la revisión de riesgos).

h)

Garantizar que los menores no estén expuestos a publicidad encubierta, ya sea realizada por el prestador de la plataforma en línea o por los usuarios del servicio (77). En este contexto, la Comisión recuerda que los prestadores de plataformas en línea también están obligados, en virtud del artículo 26, apartado 2, del Reglamento (UE) 2022/2065, a proporcionar a los destinatarios del servicio una funcionalidad para declarar si el contenido que proporcionan contiene comunicaciones comerciales (78). Entre los ejemplos de comunicaciones comerciales encubiertas pueden figurar, entre otros, los emplazamientos de productos por parte de influyentes, presentaciones de productos y otras formas sutiles de promoción que puedan engañar o manipular a los menores y hacerles adquirir productos o servicios.

i)

Garantizar que los niños no estén expuestos a técnicas que puedan tener el efecto de reducir la transparencia de las transacciones económicas y puedan inducir a error a los menores, como determinadas monedas virtuales (79), y otras fichas o monedas, que puedan intercambiarse con dinero real (o, en su caso, para la compra de otra moneda virtual) y utilizarse para comprar artículos virtuales, causando así también un gasto no deseado (80).

j)

Garantizar que los menores, cuando accedan a plataformas en línea o partes y características de estas que se presenten como gratuitas o lo parezcan (81), no estén expuestos a compras dentro de la aplicación o del juego que sean o parezcan necesarias para acceder al servicio o utilizarlo. Si los menores están expuestos a cualquier compra en la aplicación o el juego, el precio debe indicarse siempre en la moneda nacional.

k)

Garantizar que los menores no estén expuestos a prácticas que puedan dar lugar a un gasto excesivo o no deseado, o a un uso excesivo de la plataforma o a comportamientos compulsivos o adictivos, garantizando que los menores no estén expuestos a artículos virtuales, como cajas de recompensas de pago u otros productos, cuando ofrezcan resultados aleatorios o impredecibles o presenten características similares a los juegos de azar, e introduciendo la separación o fricción entre el contenido y la compra de productos relacionados.

l)

Garantizar que los menores no estén expuestos a técnicas de diseño manipuladoras (82), como escasez (83), recompensas intermitentes o aleatorias, o técnicas de diseño persuasivas (84), que puedan dar lugar a un gasto excesivo, impulsivo o no deseado o a comportamientos adictivos.

m)

Garantizar que los menores no estén expuestos a compras no deseadas, por ejemplo, estudiando la posibilidad de utilizar herramientas eficaces para los tutores o sometiendo cualquier compromiso financiero asumido por menores de una determinada edad a la revisión o el consentimiento de los tutores (véase la sección 7.3 sobre las herramientas para tutores).

n)

Revisar la política de la plataforma en cuanto a la oferta de transacciones económicas, sobre la base de la evolución de las capacidades de los niños, teniendo en cuenta que determinados grupos de edad no deben estar expuestos a las transacciones económicas ni estar autorizados a realizarlas, ya que todavía no tienen la capacidad de comprender los pagos y el dinero.

6.7.   Moderación

70.

La moderación puede reducir la exposición de los menores a contenidos y comportamientos perjudiciales para su privacidad, seguridad y protección, incluidos los contenidos ilícitos o que puedan perjudicar su desarrollo físico o mental, y puede contribuir a la prevención de la delincuencia.

71.

La Comisión recuerda las obligaciones relacionadas con: las condiciones generales establecidas en el artículo 14 del Reglamento (UE) 2022/2065; la transparencia informativa prevista en el artículo 15 de dicho Reglamento para los prestadores de servicios intermediarios, que incluye a los prestadores de plataformas en línea; los mecanismos de notificación y acción y las declaraciones de motivos previstos, respectivamente, en el artículo 16 y 17 de dicho Reglamento para los prestadores de servicios de alojamiento de datos, incluidas las plataformas en línea; los alertadores fiables (85) para los prestadores de plataformas en línea, según se establece en el artículo 22 de dicho Reglamento. También recuerda el Código de Conducta para la Lucha contra la Incitación Ilegal al Odio en Internet + de 2025 y el Código de Conducta en materia de Desinformación, que constituyen códigos de conducta en el sentido del artículo 45 del Reglamento (UE) 2022/2065.

72.

Además de esas obligaciones, la Comisión considera que los prestadores de plataformas en línea accesibles a menores deben adoptar las siguientes medidas para garantizar un elevado nivel de privacidad, seguridad y protección de los menores en su servicio a efectos del artículo 28, apartado 1, del Reglamento (UE) 2022/2065, teniendo en cuenta al mismo tiempo el interés superior del menor como consideración primordial:

a)

Definir de forma clara y transparente lo que la plataforma considera contenidos y comportamientos perjudiciales para la privacidad, la seguridad y la protección de los menores, en cooperación con los menores, la sociedad civil y expertos independientes, incluido el mundo académico. Esto debe incluir cualquier contenido y comportamiento que sea ilícito con arreglo a la legislación nacional o de la UE. Los prestadores de plataformas en línea accesibles a menores deben comunicar claramente a los menores que utilicen su servicio información sobre sus normas y expectativas en relación con el contenido y el comportamiento, y esta información debe estar disponible durante la creación de una cuenta y ser fácil de localizar en la plataforma.

b)

Establecer políticas y procedimientos de moderación que establezcan cómo se detectan los contenidos y comportamientos perjudiciales para la privacidad, la seguridad y la protección de los menores y cómo se moderarán con el fin de limitar la exposición de los menores a contenidos nocivos. Los prestadores de plataformas en línea también deben velar por que estas políticas o procedimientos se apliquen en la práctica.

c)

Evaluar y revisar las políticas y los procedimientos para garantizar que sigan siendo eficaces a medida que cambien las tecnologías y los comportamientos en línea. En particular, la Comisión considera que los prestadores de plataformas en línea accesibles a menores deben tener en cuenta los siguientes factores a la hora de priorizar la moderación: la probabilidad y gravedad de que el contenido cause un daño a la privacidad, la seguridad o la protección de un menor, el impacto del daño en ese menor, las vulnerabilidades específicas y el número de menores que puedan verse dañados. Además, debe darse prioridad a las denuncias presentadas por menores.

d)

Garantizar la disponibilidad de la revisión humana, aparte de la revisión automatizada de contenidos y cualquier otra herramienta pertinente, para las cuentas o los contenidos denunciados que el prestador sospeche que puedan suponer un riesgo o un daño que afecte a la privacidad, la seguridad o la protección de los menores.

e)

Garantizar que los equipos de moderación de contenidos estén bien formados y dotados de recursos y que los mecanismos de moderación estén activos y funcionen en todo momento (24 horas al día, 7 días a la semana) para llevar a cabo una moderación eficaz, incluido al menos un empleado que esté de guardia para responder a solicitudes urgentes y emergencias en todo momento.

f)

Garantizar que los sistemas y prácticas de moderación de contenidos estén disponibles y operativos en la lengua o lenguas oficiales del Estado miembro en el que se presta el servicio.

g)

Poner en marcha tecnologías, mecanismos internos y medidas preventivas eficaces para reducir el riesgo de que se recomienden a los menores contenidos y comportamientos perjudiciales para la privacidad, la seguridad o la protección de los menores, en particular mediante la aplicación de soluciones técnicas eficaces para hacer frente a los contenidos nocivos e ilícitos conocidos, como la comparación de huellas digitales (hash matching) y la detección de URL. Los proveedores también deben explorar los posibles beneficios añadidos de soluciones técnicas emergentes, como los clasificadores de IA, para detectar contenidos y conductas nuevos o alterados.

h)

Aplicar soluciones técnicas para evitar que los sistemas de IA de su plataforma permitan a los usuarios acceder, generar y difundir contenidos nocivos para la privacidad, la seguridad o la protección de los menores.

i.

Integrar en cualquier sistema de IA salvaguardias que detecten e impidan las indicaciones que el proveedor haya determinado en sus políticas de moderación como perjudiciales para la privacidad, la seguridad o la protección de los menores. Esto puede incluir, por ejemplo, el uso de clasificadores de indicaciones, moderación de contenidos y otros filtros (86).

ii.

Cooperar con otros prestadores de plataformas en línea y las partes interesadas pertinentes con el fin de detectar contenidos y conductas que vulneren políticas o sean ilícitos e impedir su difusión entre plataformas.

iii.

Cuando un prestador de una plataforma en línea accesible a menores permita transacciones financieras, debe proporcionar un canal específico para denunciar el fraude y las transacciones financieras sospechosas.

73.

Los prestadores de plataformas en línea accesibles a menores deben compartir parámetros sobre moderación de contenidos, por ejemplo, la frecuencia con la que reciben denuncias de usuarios, la frecuencia con la que detectan de forma proactiva contenidos y cometen infracciones, los tipos de contenidos y conductas que se denuncian y detectan y la forma en que la plataforma ha respondido a estas cuestiones.

74.

Ninguna de las medidas anteriores debe dar lugar a una obligación general de supervisar los contenidos que los prestadores de plataformas en línea accesibles a menores transmiten o almacenan (87).

Mala práctica

SadShare es una plataforma de redes sociales que permite a los usuarios cargar y compartir contenidos visuales con otros. Las políticas de la plataforma no incluyen mecanismos sólidos de moderación de contenidos para detectar e impedir la carga de contenidos nocivos y explícitos, incluido material de abuso sexual de menores. Por lo tanto, esta falta de moderación expone a los menores a contenidos ilícitos y permite a los usuarios malintencionados utilizar o reutilizar las imágenes existentes. Esto, a su vez, alimenta la demanda de material de abuso sexual de menores que induce inadvertidamente a otros usuarios a abusar de menores y dañarlos para crear material nuevo.

7.   PRESENTACIÓN DE DENUNCIAS, APOYO AL USUARIO Y HERRAMIENTAS PARA TUTORES

7.1.   Denuncias, observaciones y reclamaciones de los usuarios

75.

Las herramientas de denuncias, observaciones y reclamaciones eficaces, visibles y adaptadas a los niños permiten a los menores señalar y abordar qué características de las plataformas en línea pueden afectar negativamente a su nivel de privacidad, seguridad y protección.

76.

La Comisión recuerda las obligaciones establecidas en el Reglamento (UE) 2022/2065, incluidas las obligaciones de establecer mecanismos de notificación y acción en el artículo 16, de proporcionar una declaración de motivos en el artículo 17, de notificar las sospechas de delitos en el artículo 18, de establecer un sistema interno de gestión de reclamaciones en el artículo 20 y de resolución extrajudicial de litigios en el artículo 21, así como las normas sobre alertadores fiables del artículo 22.

77.

Además de esas obligaciones, la Comisión considera que los prestadores de plataformas en línea accesibles a menores deben adoptar las siguientes medidas para garantizar un elevado nivel de privacidad, seguridad y protección de los menores en su servicio a efectos del artículo 28, apartado 1, del Reglamento (UE) 2022/2065:

a)

Aplicar mecanismos de denuncias, observaciones y reclamaciones que:

i.

Sean eficaces, visibles, adaptados a los niños y fácilmente accesibles (véanse la sección 6.4 sobre el diseño de interfaces en línea y otras herramientas y la sección 4 sobre los principios generales).

ii.

Permitir que los menores denuncien contenidos, actividades, personas físicas, cuentas o grupos que consideren que pueden infringir las condiciones generales de la plataforma. Esto incluye cualquier contenido, usuario o actividad que la plataforma considere perjudicial para la privacidad, la seguridad o la protección de los menores (véanse la sección 5 sobre revisión de riesgos y la sección 6.7 sobre moderación).

iii.

Permitir a todos los usuarios denunciar contenidos, actividades, individuos, cuentas o grupos que consideren inadecuados o indeseables para los menores, o cuando no estén cómodos con la idea de que dichos contenidos, actividades, individuos, cuentas o grupos sean accesibles para los menores.

iv.

Permitir a todos los usuarios denunciar que una cuenta parece ser de un menor de edad, cuando se indique una edad mínima en las condiciones de la plataforma.

v.

Permitir a los menores enviar observaciones sobre todos los contenidos, actividades, individuos, cuentas o grupos que se les muestren en sus cuentas y que les hagan sentirse incómodos o que quieran ver más o menos. Estas opciones podrían incluir frases como «Muéstrame menos/más», «No quiero ver / no me interesa», «No quiero ver contenido de esta cuenta», «Esto me hace sentir incómodo», «Oculta esto,»«No me gusta esto» o «Esto no es para mí». Los prestadores de plataformas en línea deben garantizar que estas opciones se diseñen de manera que solo sean visibles para el usuario, de modo que no puedan ser utilizadas indebidamente por otros para intimidar o acosar a menores en la plataforma. Los prestadores de plataformas en línea deben adaptar sus sistemas de recomendación en respuesta a estas observaciones (véase la sección 6.5.2 sobre el control y la capacitación de los usuarios) (88).

vi.

Cuando el prestador utilice métodos de garantía de la edad, permitirá a cualquier usuario acceder a un sistema interno eficaz de gestión de reclamaciones que le permita presentar reclamaciones, de forma electrónica y gratuita, contra una evaluación por parte del proveedor de la edad del usuario. El sistema de gestión de reclamaciones debe cumplir las condiciones establecidas en el artículo 20 del Reglamento (UE) 2022/2065.

b)

Garantizar que los mecanismos de gestión de denuncias, observaciones y reclamaciones establecidos en virtud del artículo 20 del Reglamento (UE) 2022/2065 (89):

i.

Contribuyan a un elevado nivel de privacidad, seguridad y protección de los menores.

ii.

Estén en consonancia con los derechos fundamentales, en particular los derechos de los niños.

iii.

Estén disponibles para el acceso intuitivo e inmediato por todos los menores, incluidas las personas con discapacidad o con necesidades adicionales de accesibilidad.

iv.

Sean fáciles de utilizar y entender para los menores, adecuadas a su edad y atractivas (véanse la sección 6.4 sobre el diseño de interfaces en línea y otras herramientas y la sección 4 sobre los principios generales).

v.

Estén disponibles para los usuarios no registrados si pueden acceder al contenido de la plataforma en línea.

c)

Garantizar la disponibilidad de una opción que permita a los menores exponer sus propios motivos para presentar una denuncia o una reclamación. Los prestadores deben evitar utilizar categorías de denuncias, pero si se utilizan, deben asegurarse de que se adapten a los usuarios más jóvenes autorizados en la plataforma.

d)

Garantizar que las denuncias, observaciones y reclamaciones sean confidenciales y anónimas por defecto, ofreciendo al mismo tiempo a los menores la opción de eliminar el anonimato. Si se elimina el anonimato, el prestador debe explicar a los menores cuándo, cómo y qué información relacionada con las denuncias o reclamaciones se comparten con otros usuarios o con terceros.

e)

Dar prioridad a las denuncias relativas a la privacidad, la seguridad y la protección de los menores. Los prestadores de plataformas en línea deben ofrecer la opción de indicar si el menor considera urgente una denuncia o una reclamación, especialmente cuando haya indicios de un problema continuo de privacidad, seguridad o protección. Los tiempos de respuesta deben ser adecuados al motivo de la denuncia o la reclamación. Esto no debe afectar negativamente a la prioridad concedida a las notificaciones enviadas por los alertadores fiables, de conformidad con el artículo 22, apartado 1, del Reglamento (UE) 2022/2065.

f)

Facilitar a cada menor que presente una denuncia o reclamación un acuse de recibo de la misma sin demora indebida. Los menores también deben poder acceder a una explicación adecuada a su edad del proceso que se seguirá al revisar la denuncia o la reclamación y una explicación de cualquier medida que se adopte o de por qué no se ha adoptado ninguna medida. La información debe incluir un calendario indicativo para decidir sobre la denuncia o la reclamación y los posibles resultados. La Comisión también considera que los prestadores de plataformas en línea deben proporcionar un mecanismo para el seguimiento de la denuncia o reclamación y para comunicarse con las plataformas.

g)

Revisar periódicamente las denuncias, las observaciones y las reclamaciones que reciban. Deben utilizar esta información para determinar y abordar cualquier aspecto de su plataforma que pueda comprometer la privacidad, la seguridad o la protección de los menores, perfeccionar sus sistemas de recomendación y sus prácticas de moderación, mejorar las normas generales de seguridad y fomentar un entorno en línea más fiable y responsable. Estas acciones deben documentarse para ser revisables.

Mala práctica

SadLearn es una plataforma en línea popular diseñada para usuarios de entre 6 y 18 años. Ofrece una serie de contenidos educativos y entretenidos. Para indicar el contenido contrario a las condiciones de SadLearn, el usuario debe hacer clic en cuatro enlaces diferentes. Una vez que el usuario llega a la sección de reclamaciones, debe elegir entre quince categorías de reclamaciones diferentes, lo que dificulta a los menores la determinación y selección de la categoría adecuada. No hay categoría de texto libre. Si los usuarios consiguen presentar una reclamación, no reciben ninguna confirmación o explicación de lo que sucederá a continuación. Además, la herramienta para presentar denuncias solo está disponible en inglés y la redacción está adaptada a un público adulto.

7.2.   Medidas de apoyo al usuario

78.

Establecer características en las plataformas en línea accesibles a los menores para ayudar a los menores a navegar por sus servicios y buscar apoyo cuando sea necesario es un medio eficaz para garantizar un elevado nivel de privacidad, seguridad y protección de los menores. Por consiguiente, la Comisión considera que los prestadores de plataformas en línea accesibles a menores deben:

a)

Disponer de herramientas de apoyo claras, fácilmente reconocibles y accesibles que permitan a los menores buscar ayuda cuando encuentren contenidos, cuentas o comportamientos sospechosos, ilícitos o inadecuados que les hagan sentirse incómodos. Esto incluye botones de bloqueo y silenciado. Las herramientas de apoyo deben estar adaptadas a los niños, ser claramente visibles e inmediatamente accesibles (véase la sección 6.4 sobre la interfaz en línea y otras herramientas) y deben conectar directamente a los menores con los servicios de apoyo más adecuados para su ubicación y edad, como los que forman parte de los Centros Nacionales de Seguridad en Internet, las redes INHOPE y las líneas nacionales de ayuda a la infancia.

b)

Limitar el uso de herramientas de apoyo basadas en la IA, ya que no deben utilizarse como principal mecanismo para interactuar con los niños.

c)

Introducir mensajes de advertencia directamente visibles, enlaces a las líneas de apoyo nacionales pertinentes (90) y otras fuentes autorizadas cuando los menores busquen, carguen, generen, compartan y reciban contenidos potencialmente ilícitos o perjudiciales para la privacidad, la seguridad y la protección de los menores (como se explica en la sección 6.7 sobre moderación). Los prestadores de plataformas en línea también deben remitir a los menores a las líneas de apoyo nacionales pertinentes cuando un menor presente una denuncia relacionada con dichos contenidos. La remisión debe efectuarse inmediatamente después de que el prestador de la plataforma en línea tenga conocimiento de la actividad o el menor presente una denuncia.

d)

Si la plataforma en línea incluye características o funcionalidades relacionadas con la conexión de usuarios, la publicación de contenidos o la comunicación con los usuarios, debe ofrecer a los menores la opción de bloquear o silenciar de forma anónima a cualquier otro usuario o cuenta, incluidos los que no estén conectados a ellos. Los sistemas de bloqueo deben ser fáciles de encontrar y accesibles. La información sobre el usuario o su cuenta no debe estar disponible para ninguna cuenta que el usuario haya bloqueado.

e)

Si la plataforma en línea permite comentarios sobre contenidos, debe ofrecer a los menores la opción de restringir los tipos de usuarios que pueden comentar su contenido y el contenido sobre ellos o impedir que otros usuarios comenten su contenido y el contenido sobre ellos, tanto en el momento de la publicación como posteriormente, incluso si la posibilidad de comentar está restringida a cuentas previamente aceptadas como contactos por el menor (como se recomienda en la sección 6.3 sobre Configuración de la cuenta).

f)

Si la plataforma en línea ofrece funciones de grupo, debe garantizar que los menores se incorporen a un grupo solo después de haber recibido la notificación de la invitación y tras aceptar que desean formar parte de dicho grupo.

Buena práctica

NiceSpace es una plataforma de redes sociales para usuarios mayores de 13 años. Cuando los usuarios se inscriben, se les presenta un tutorial interactivo «SafeSpace 101» que explica las características de privacidad, seguridad y protección de la plataforma, incluidas las opciones de bloqueo y silenciamiento, el control de comentarios y las invitaciones para grupos. NiceSpace también cuenta con un botón destacado de «ayuda», que conecta directamente a los usuarios con su línea de ayuda local del Centro de Seguridad en Internet. Al buscar contenidos potencialmente nocivos, NiceSpace advierte a los usuarios con indicaciones adaptadas al contexto y los redirige a recursos más seguros. Toda la información se adapta al usuario más joven permitido en la plataforma.

7.3.   Herramientas para tutores

79.

Las herramientas para los tutores son programas informáticos, características, funcionalidades o aplicaciones diseñadas para ayudar a los tutores a acompañar la actividad en línea, la privacidad, la seguridad y el bienestar de su menor, respetando al mismo tiempo la voluntad y la privacidad de los menores.

80.

La Comisión considera que las herramientas para los tutores deben considerarse complementarias a las medidas de seguridad desde el diseño y por defecto, así como a cualquier otra medida establecida para cumplir lo dispuesto en el artículo 28, apartado 1, del Reglamento (UE) 2022/2065, incluidas las descritas en las presentes directrices. El cumplimiento de la obligación de los prestadores de plataformas en línea accesibles a los menores de garantizar un elevado nivel de privacidad, seguridad y protección en sus servicios nunca debe basarse exclusivamente en herramientas para los tutores. Las herramientas para los tutores no deben utilizarse como única medida para garantizar un elevado nivel de privacidad, seguridad y protección de los menores en las plataformas en línea, ni para sustituir cualquier otra medida establecida a tal fin. Estas medidas pueden no reflejar la realidad de la vida de los menores, en particular en los casos de custodia fraccionada, acogida o ausencia o desvinculación de los tutores. Además, la eficacia del consentimiento parental está limitada cuando no se verifica de manera fiable la identidad o la autoridad legal del adulto que da su consentimiento. Por consiguiente, los prestadores de plataformas en línea accesibles a menores deben aplicar medidas adecuadas para proteger a los menores y no deben limitarse a depender de la supervisión parental. No obstante, la Comisión observa que, cuando se utilizan en combinación con otras medidas, las herramientas para los tutores pueden contribuir a ese elevado nivel.

81.

Por consiguiente, la Comisión considera que los prestadores de plataformas en línea accesibles a menores deben establecer herramientas de control de tutores a efectos del artículo 28, apartado 1, del Reglamento (UE) 2022/2065 que:

a)

Sean adecuadas a la edad y estén en consonancia con la evolución de las capacidades de los menores. Las herramientas para los tutores deben basarse en la comunicación, el aprendizaje y la capacitación en lugar de en el control y permitir la autonomía y la voluntad de los menores. Deben ser eficaces y no restringir de manera desproporcionada los derechos de los menores a la privacidad o a los servicios de acceso, teniendo en cuenta el interés superior del menor como consideración primordial.

b)

Sean fáciles de utilizar, acceder y activar, por ejemplo, permitiendo al tutor utilizar la herramienta sin crear una cuenta en el servicio.

c)

Se apliquen independientemente del dispositivo o sistema operativo utilizado para acceder al servicio.

d)

Proporcionen una notificación clara a los menores de su activación por parte de los tutores y establezcan otras salvaguardias que tengan en cuenta su posible uso indebido por parte de los tutores, como, por ejemplo, proporcionar un signo claro al menor en tiempo real cuando se active cualquier funcionalidad de supervisión.

e)

Garanticen que los cambios solo puedan realizarse con el mismo grado de autorización requerido en la activación inicial de las herramientas.

f)

Sean compatibles con la disponibilidad de herramientas interoperables de ventanilla única para los tutores que reúnan todas las configuraciones y herramientas.

82.

Las herramientas para tutores pueden incluir características para gestionar la configuración por defecto, establecer límites de tiempo de pantalla (véase la sección 6.4 sobre el diseño de interfaces en línea y otras herramientas), ver las cuentas con las que el menor se comunica, gestionar la configuración de la cuenta, fijar límites de gasto por defecto para el menor cuando proceda, u otras características para supervisar los usos de las plataformas en línea que puedan ser perjudiciales para la privacidad, la seguridad y la protección del menor.

8.   GOBERNANZA

83.

La buena gobernanza de las plataformas es un medio eficaz para garantizar que la protección de los menores se priorice y gestione debidamente en toda la plataforma, contribuyendo así a garantizar el elevado nivel requerido de privacidad, seguridad y protección de los menores.

8.1.   Gobernanza (general)

84.

La Comisión considera que los prestadores de plataformas en línea accesibles a menores deben adoptar prácticas de gobernanza efectivas que garanticen un elevado nivel de privacidad, seguridad y protección de los menores en sus servicios a efectos del artículo 28, apartado 1, del Reglamento (UE) 2022/2065. Esto incluye, entre otras cosas, lo siguiente:

a)

Aplicar políticas internas que describan cómo el prestador de la plataforma en línea pretende garantizar un elevado nivel de privacidad, seguridad y protección de los menores en su servicio.

b)

Asignar a una persona o equipo específico la responsabilidad de garantizar un alto nivel de privacidad, seguridad y protección de los menores. Esta persona o equipo debe disponer de recursos suficientes, así como de autoridad suficiente para tener acceso directo al órgano de dirección del prestador de la plataforma en línea, y también debe ser un punto de contacto central para los reguladores, los usuarios y los alertadores fiables en asuntos relacionados con la privacidad, la seguridad y la protección de los menores.

c)

Fomentar una cultura de privacidad, seguridad y protección de los menores en el servicio. En particular:

i.

Fomentar y priorizar una cultura de participación de los menores en el diseño y el funcionamiento de la plataforma. Esto debe hacerse de manera segura, ética, inclusiva y significativa, en el interés superior del menor, y debe prever mecanismos para informar y explicar a los menores cómo se han tenido en cuenta sus opiniones (91).

ii.

Sensibilizar sobre el modo en que el prestador defiende los derechos de los menores en su plataforma y sobre los riesgos a los que pueden enfrentarse los menores en la plataforma para su privacidad, seguridad o protección (92).

iii.

Proporcionar formación e información pertinentes a las personas responsables de la privacidad, la seguridad y la protección de los menores, a los desarrolladores, a las personas encargadas de la moderación y a las personas encargadas de recibir denuncias o reclamaciones de menores (93).

iv.

Disponer de procedimientos para garantizar la supervisión periódica del cumplimiento del artículo 28, apartado 1, del Reglamento (UE) 2022/2065.

v.

Garantizar que todas las soluciones tecnológicas y organizativas empleadas para aplicar estas directrices sean «de vanguardia» y estén en consonancia con las orientaciones nacionales sobre la protección de los menores (94), los derechos del niño y las normas más estrictas disponibles (95).

vi.

Establecer un proceso para la recogida y el registro periódicos de datos sobre riesgos y efectos nocivos relacionados con la privacidad, la seguridad y la protección de los menores en la plataforma, que deben notificarse periódicamente a la dirección del proveedor, así como a la persona o equipo designado para la protección de los menores. Esto se entiende sin perjuicio de las obligaciones de los proveedores de plataformas en línea de muy gran tamaño y de motores de búsqueda en línea de muy gran tamaño derivadas de los artículos 34 y 35 del Reglamento (UE) 2022/2065.

vii.

Intercambiando buenas prácticas y soluciones tecnológicas destinadas a garantizar un elevado nivel de privacidad, seguridad y protección de los menores entre plataformas y proveedores, así como con los coordinadores de servicios digitales, los alertadores fiables, las organizaciones de la sociedad civil, el mundo académico y otras partes interesadas pertinentes La colaboración entre plataformas debe incluir la detección de riesgos, las normas de diseño y la colaboración en materia de investigación con agentes de confianza.

8.2.   Condiciones generales

85.

Las condiciones generales proporcionan un marco para regular la relación entre el prestador de la plataforma en línea y sus usuarios. Establecen las normas y expectativas para el comportamiento en línea y desempeñan un papel importante en el establecimiento de un entorno seguro, protegido y respetuoso con la privacidad (96).

86.

La Comisión recuerda las obligaciones de todos los prestadores de servicios intermediarios en lo que respecta a las condiciones establecidas en el artículo 14 del Reglamento (UE) 2022/2065, que incluye la obligación de que los prestadores de servicios intermediarios expliquen las condiciones y cualquier restricción del uso del servicio en un lenguaje claro, claro, inteligible, fácil de usar e inequívoco. Además, el artículo 14, apartado 3, de dicho Reglamento especifica que los servicios intermediarios que estén dirigidos principalmente a menores o sean utilizados predominantemente por ellos deben facilitar esta información de manera que los menores la puedan comprender (97) (98).

87.

Además, la Comisión considera que los prestadores de plataformas en línea accesibles a menores deben garantizar que las condiciones del servicio que prestan:

a)

Incluyen información sobre:

i.

Los pasos que los usuarios deben dar desde la creación de la cuenta hasta su borrado.

ii.

Las directrices comunitarias que promuevan un ambiente positivo, seguro e integrador y que expliquen qué conducta se espera y prohíbe en su servicio, y cuáles son las consecuencias del incumplimiento.

iii.

Los tipos de contenidos y comportamientos considerados perjudiciales para la privacidad, la seguridad o la protección de los menores. Esto incluye, entre otras cosas, los contenidos ilícitos que son perjudiciales para la privacidad, la seguridad o la protección de los menores y la difusión de dichos contenidos.

iv.

Cómo se protege a los menores de este contenido y comportamiento.

v.

Las herramientas que se utilizan para prevenir, mitigar y moderar contenidos, conductas y características ilícitos o perjudiciales para la privacidad, la seguridad y la protección de los menores, y el proceso de reclamación.

b)

Son fáciles de encontrar y buscar a lo largo de toda la experiencia del usuario en la plataforma.

c)

No restringen indebidamente ningún derecho de los menores, incluido su derecho a la libertad de expresión y de información.

d)

Se respetan y aplican en la práctica.

88.

Además, la Comisión considera que los prestadores de plataformas en línea accesibles a menores deben garantizar que se registre y publique cualquier cambio en las condiciones generales del servicio que prestan (99).

Buena práctica

HappyExplore es una plataforma en línea en la que los menores pueden jugar, crear y explorar criaturas y mundos que pueden compartir entre sí. HappyExplore tiene un personaje denominado «Pixel Pioneer» que enseña a los usuarios cómo ser exploradores responsables. Se anima a todos los usuarios a participar en la «Promesa de amabilidad», donde aprenden y prometen comportarse de manera amable y segura en línea. Pixel Pioneer también explica la importancia de las decisiones de moderación y seguridad para los usuarios a medida que exploran la plataforma, por ejemplo, por qué deberían pensar cuidadosamente antes de compartir sus criaturas o mundos.

8.3.   Supervisión y evaluación

89.

La Comisión considera que los prestadores de plataformas en línea accesibles a menores deben adoptar prácticas de supervisión y evaluación efectivas que garanticen un elevado nivel de privacidad, seguridad y protección de los menores en su servicio a efectos del artículo 28, apartado 1, del Reglamento (UE) 2022/2065. Esto incluye, entre otras cosas, lo siguiente:

a)

Supervisar y evaluar periódicamente la eficacia de cualquier elemento de la plataforma que afecte a la privacidad, la seguridad y la protección de los menores en la plataforma. Esto incluye, por ejemplo, la interfaz en línea de la plataforma, los sistemas, las configuraciones, las herramientas, las funcionalidades y las características y los mecanismos de denuncias, observaciones y reclamaciones, así como las medidas adoptadas para cumplir lo dispuesto en el artículo 28, apartado 1, del Reglamento (UE) 2022/2065 (100). Los proveedores deben considerar la posibilidad de poner estas evaluaciones a disposición de terceros independientes, como expertos u otras partes interesadas pertinentes, para su revisión y observaciones.

b)

Consultar periódicamente a menores, tutores, universidades, organizaciones de la sociedad civil, expertos en derechos del menor y otras partes interesadas pertinentes sobre el diseño y la evaluación de cualquier elemento de la plataforma que afecte a la privacidad, la seguridad y la protección de los menores en la plataforma. Esto debe incluir probar estos elementos con menores y tener en cuenta sus observaciones. Para contribuir a la no discriminación y la accesibilidad, los proveedores deben, en la medida de lo posible, implicar en estas consultas a menores de una amplia gama de orígenes culturales y lingüísticos, de diferentes edades, con discapacidad o con necesidades adicionales de accesibilidad.

c)

Adaptar el diseño y el funcionamiento de los elementos mencionados en función de los resultados de estas consultas y de los avances técnicos, la investigación, los cambios en el comportamiento o la política de los usuarios, la evolución de los productos y su uso, y los cambios en los riesgos y efectos nocivos para la privacidad, la seguridad y la protección de los menores en su plataforma.

8.4.   Transparencia

90.

La Comisión recuerda las obligaciones de transparencia establecidas en los artículos 14, 15 y 24 del Reglamento (UE) 2022/2065. Habida cuenta de las fases de desarrollo y la evolución de las capacidades de los menores, se requieren consideraciones adicionales relativas a la transparencia del funcionamiento de una plataforma en línea para garantizar el cumplimiento del artículo 28, apartado 1, de dicho Reglamento.

91.

La Comisión considera que los prestadores de plataformas en línea accesibles a los menores deben facilitar a los menores toda la información necesaria y pertinente sobre el funcionamiento de sus servicios, a fin de garantizar un elevado nivel de privacidad, seguridad y protección en sus servicios. Considera que los prestadores de plataformas en línea deben poner a disposición de los menores y, en su caso, de sus tutores, en una interfaz accesible en sus plataformas en línea, la siguiente información:

a)

Información sobre las medidas adoptadas para garantizar un elevado nivel de privacidad, seguridad o protección de los menores en la plataforma. Esto incluye información sobre:

i.

cualquier método de garantía de la edad utilizado, cómo funcionan estos métodos y cualquier tercero utilizado para proporcionar cualquier método de verificación o estimación de la edad;

ii.

el funcionamiento de los sistemas de recomendación utilizados en toda la plataforma y las diferentes opciones disponibles para los usuarios (véase la sección 6.5.2 sobre el control y la capacitación de los usuarios).

iii.

los procesos para responder a las denuncias, observaciones y reclamaciones realizadas o presentadas por menores, incluidos plazos indicativos, y los posibles resultados e impacto de estos procesos;

iv.

las herramientas, productos y características de IA que se incorporan a la plataforma, sus limitaciones y las posibles consecuencias de su uso;

v.

el proceso de registro, cuando proceda;

vi.

cualquier herramienta que se ofrezca a los tutores, explicando cómo utilizarlas y cómo protegen a los menores en línea, así como qué tipo de información pueden obtener a través del uso de dichas herramientas sobre la actividad en línea del menor;

vii.

cómo se moderan los contenidos que incumplen las condiciones generales de la plataforma y las consecuencias de esta moderación;

viii.

cómo utilizar las diferentes herramientas de denuncia, reclamación, recurso y apoyo a que se refieren las presentes directrices;

ix.

las condiciones generales de la plataforma en línea;

x.

cualquier otra medida recomendada en las presentes directrices y establecida por el prestador de la plataforma en línea;

xi.

cualquier otra medida adoptada o cualquier cambio introducido en sus servicios para garantizar un elevado nivel de privacidad, seguridad o protección de los menores en la plataforma.

b)

Asegurarse de que esta información, todas las advertencias y cualquier otra comunicación recomendada en las presentes directrices:

i.

están adaptadas a los niños, son adecuadas a su edad, fáciles de entender y fácilmente accesibles para todos los menores, incluidos aquellos con discapacidad o con necesidades adicionales de accesibilidad;

ii.

se presentan de forma clara y fácil de entender y es lo más sencilla y sucinta posible (por ejemplo, cuando las condiciones se refieren a una característica específica, la información clave sobre esta característica se presenta cuando el menor la utiliza);

iii.

se presentan al menor de manera fácil de revisar y que permite un acceso inmediato e intuitivo, en los puntos en los que resulte pertinente;

iv.

se presentan en la lengua o lenguas oficiales del Estado miembro en el que se presta el servicio;

v.

se presentan de forma atractiva para los menores (esto puede requerir el uso de gráficos, vídeos, caracteres u otras técnicas);

vi.

se presentan a los menores de forma gradual y escalonada en el tiempo para maximizar la retención por parte del usuario.

c)

Las medidas y modificaciones aplicadas para cumplir lo dispuesto en el artículo 28, apartado 1, del Reglamento (UE) 2022/2065 se comunicarán internamente y se publicarán en la medida de lo posible.

Buena práctica

HappyTerms es una plataforma en línea dirigida a jóvenes de 13 a 18 años. Ofrece a los menores la oportunidad de participar en comunidades e intercambiar ideas e información sobre intereses compartidos. HappyTerms muestra información sobre sus condiciones generales con epígrafes claros acompañados de iconos explicativos e imágenes de colores. Las normas se desglosan en secciones breves y fáciles de leer y se utiliza un lenguaje sencillo para explicarlas. También hay infografías en menús contextuales que ayudan a los menores a comprender lo que están aceptando, que aparecen cuando pasan a ser pertinentes para una característica o configuración determinada. Los usuarios también pueden encontrar las normas haciendo clic en «Qué necesito saber», un icono que conecta al usuario con las normas pertinentes, las herramientas relacionadas y los enlaces útiles desde cualquier parte de la plataforma. HappyTerms también ofrece un cuestionario interactivo en el que los menores pueden comprobar si han comprendido las condiciones.

9.   REVISIÓN

92.

La Comisión revisará estas directrices tan pronto como sea necesario y, a más tardar, después de un período de doce meses, teniendo en cuenta la experiencia práctica adquirida en la aplicación del artículo 28, apartado 1, del Reglamento (UE) 2022/2065 y el ritmo de la evolución tecnológica, social y reglamentaria en este ámbito.

93.

La Comisión animará a los prestadores de plataformas en línea accesibles a menores, a los coordinadores de servicios digitales, a las autoridades nacionales competentes, a la comunidad investigadora y a las organizaciones de la sociedad civil a que contribuyan a este proceso. Tras dicha revisión, la Comisión, en consulta con la Junta Europea de Servicios Digitales, podrá decidir modificar las presentes directrices.

(1)  En las presentes directrices, se entiende por «niño», «niños» y «menor» una persona menor de 18 años.

(2)  En las presentes directrices, se entiende por «tutores» las personas con responsabilidades parentales.

(3)  Los contenidos ilícitos incluyen, entre otros, los contenidos que muestran el tráfico de drogas, los contenidos terroristas y extremistas violentos y el material de abuso sexual de menores. Lo que constituye contenido ilícito no se define en el Reglamento (UE) 2022/2065 (Reglamento de Servicios Digitales), sino en otras leyes, ya sea a escala de la UE o nacional.

(4)  En el anexo I de las presentes directrices se incluye una tipología de los riesgos a los que están expuestos los menores al acceder a plataformas en línea, sobre la base de un marco desarrollado por la OCDE.

(5)  Véase la sección 6.1 sobre la garantía de la edad.

(6)  Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo, de 19 de octubre de 2022, relativo a un mercado único de servicios digitales y por el que se modifica la Directiva 2000/31/CE (Reglamento de Servicios Digitales) (DO L 277 de 27.10.2022, p. 1, ELI: http://data.europa.eu/eli/reg/2022/2065/oj).

(7)  Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos (RGPD) (DO L 119 de 4.5.2016, p. 1,, ELI: http://data.europa.eu/eli/reg/2016/679/oj).

(8)  El artículo 3 del Reglamento (UE) 2022/2065 define «plataforma en línea» como «un servicio de alojamiento de datos que, a petición de un destinatario del servicio, almacena y difunde información al público, salvo que esa actividad sea una característica menor y puramente auxiliar de otro servicio o una funcionalidad menor del servicio principal y que no pueda utilizarse sin ese otro servicio por razones objetivas y técnicas, y que la integración de la característica o funcionalidad en el otro servicio no sea un medio para eludir la aplicabilidad del presente Reglamento».

(9)  La Recomendación 2003/361/CE define una pequeña empresa como una empresa que ocupa a menos de 50 personas y cuyo volumen de negocios anual o cuyo balance general anual no supera los 10 millones EUR. Una microempresa es aquella que ocupa a menos de 10 personas y cuyo volumen de negocios anual o cuyo postal del balance anual no supera los 2 millones de euros. La Comisión recuerda aquí el considerando 10 del Reglamento (UE) 2022/2065, que establece que el Reglamento (UE) 2022/2065 se entiende sin perjuicio de la Directiva 2010/13/UE. La Directiva mencionada exige a todos los prestadores de plataformas de intercambio de vídeos, independientemente de su calificación como microempresas o pequeñas empresas, que establezcan y operen sistemas de verificación de la edad para los usuarios de las plataformas de distribución de vídeos con respecto a contenidos que puedan perjudicar el desarrollo físico o mental de los menores.

(10)  Esto incluye las obligaciones contenidas en las siguientes disposiciones del Reglamento (UE) 2022/2065: Artículo 14 sobre condiciones generales, artículos 16 y 17 sobre mecanismos de notificación y acción y declaración de motivos, artículo 25 sobre diseño y organización de interfaces en línea, artículos 15 y 24 sobre transparencia, artículo 26 sobre publicidad, artículo 27 sobre sistemas de recomendación y artículo 44 sobre normas.

(11)  Esto incluye, entre otras cosas, las obligaciones contenidas en las siguientes disposiciones del Reglamento (UE) 2022/2065: Artículos 34 y 35 sobre evaluación de riesgos y reducción de riesgos, artículo 38 sobre sistemas de recomendación, artículo 40 sobre acceso a datos y escrutinio y artículo 44, letra j), relativo a las normas sobre medidas específicas para proteger a los menores en línea.

(12)  Esto incluye, entre otros, los artículos 34 y 35 sobre evaluación de riesgos y reducción de riesgos, el artículo 38 sobre sistemas de recomendación y el artículo 40 sobre acceso a datos y escrutinio.

(13)  Esto incluye la Estrategia para una Internet Mejor para los Niños, la Directiva 2010/13/UE («Directiva de servicios de comunicación audiovisual»), el Reglamento (UE) 2024/1689 («Reglamento de IA»), el Reglamento (UE) 2016/679 («RGPD»), la Directiva 2011/93/UE relativa a la lucha contra los abusos sexuales y la explotación sexual de los menores, la Directiva 2005/29/CE relativa a las prácticas comerciales desleales, la cartera de identidad digital de la UE y la solución de verificación de la edad a corto plazo, el próximo plan de acción contra el ciberacoso, la investigación a escala de la UE sobre las repercusiones más amplias de las redes sociales en el bienestar, la Estrategia Europea para la Seguridad Interior (ProtectEU), la hoja de ruta de la UE para la lucha contra el tráfico de drogas y la delincuencia organizada, el Foro de la UE sobre Internet, la Estrategia de la UE para una lucha más eficaz contra el abuso sexual de menores y la Estrategia de la UE contra la trata de seres humanos 2021-2025. Además, el Reglamento (UE) 2022/2065 se entiende sin perjuicio del Derecho de la Unión en materia de protección de los consumidores y seguridad de los productos, incluidos los Reglamentos (UE) 2017/2394 y (UE) 2019/1020 y las Directivas 2001/95/CE y 2013/11/UE. La Directiva 2005/29 relativa a las prácticas comerciales desleales, en particular sus artículos 5 a 9, también protege a los menores y, por ejemplo, el punto 28 del anexo I prohíbe incluir en una publicidad una exhortación directa a los niños para que compren o convenzan a sus padres u otros adultos de que les compren los productos anunciados. La Comisión también recuerda el control de adecuación de la legislación de la UE en materia de protección de los consumidores en cuanto a la equidad digital.

(14)  La adopción y aplicación de cualquiera de las medidas establecidas en las presentes directrices no implica el cumplimiento del RGPD ni de ninguna otra legislación aplicable en materia de protección de datos. Por lo tanto, a la hora de determinar el cumplimiento del artículo 28, apartado 1, del Reglamento (UE) 2022/2065, se anima a las autoridades responsables a cooperar con las autoridades de protección de datos.

(15)  La Comisión ha elaborado las directrices mediante un trabajo de documentación exhaustivo, la recogida de observaciones de las partes interesadas a través de una convocatoria de datos, talleres y una consulta pública específica. La Comisión también se basó en la experiencia del Centro Europeo de Transparencia Algorítmica a lo largo de los procesos. Además, la Comisión consultó a los jóvenes, incluidos los jóvenes embajadores de «Una Internet mejor para los niños», y organizó grupos temáticos con niños en siete Estados miembros, con el apoyo de los Centros de Seguridad en Internet.

(16)  Esto incluye, por ejemplo, las Directivas y los Reglamentos citados en la nota a pie de página 13, las próximas directrices del Comité Europeo de Protección de Datos (CEPD) sobre el tratamiento de datos personales de menores de conformidad con el Reglamento (UE) 2016/679 (RGPD).

(17)  An Coimisiún um Chosaint Sonraí. (2021). Fundamentals for a child-oriented approach to data processing [«Fundamentos para un enfoque del tratamiento de datos orientado a los niños», disponible en inglés]. Disponible en: https://www.dataprotection.ie/sites/default/files/uploads/2021-12/Fundamentals%20for%20a%20Child-Oriented%20Approach%20to%20Data%20Processing_FINAL_EN.pdf; Coimisiún na Meán. (2024). Online safety code [«Código de seguridad en línea», disponible en inglés]. Disponible en: https://www.cnam.ie/app/uploads/2024/11/Coimisiun-na-Mean-Online-Safety-Code.pdf; IMY (Autoridad Sueca de Protección de la Privacidad). (2021). The rights of children and young people on digital platforms [«Los derechos de los niños y los jóvenes en las plataformas digitales», disponible en inglés]. Disponible en: https://www.imy.se/en/publications/the-rights-of-children-and-young-people-on-digital-platforms/; Ministerio neerlandés del Interior y de Relaciones del Reino (2022). Code for children’s rights [«Código de los derechos del niño», disponible en inglés]. Disponible en: https://codevoorkinderrechten.waag.org/wp-content/uploads/2022/02/Code-voor-Kinderrechten-EN.pdf

CNIL. (2021). La CNIL publica 8 recomendaciones para mejorar la protección de los menores en línea. Disponible en: https://www.cnil.fr/en/cnil-publishes-8-recommendations-enhance-protection-children-online; Unabhängiger Beauftragter für Fragen des sexuellen Kindesmissbrauchs. [sin fecha], Rechtsfragen Digitales. Disponible en: https://beauftragte-missbrauch.de/themen/recht/rechtsfragen-digitales; CEN-CENELEC (2023) Workshop Agreement 18016 Age Appropriate Digital Services Framework [«Acuerdo de Taller 18016 — Marco de servicios digitales adecuados para la era»], disponible en inglés en: https://www.cencenelec.eu/media/CEN-CENELEC/CWAs/ICT/cwa18016_2023.pdf; OECD. (2021). «Children in the digital environment – Revised typology of risks» (Los niños en el entorno digital: tipología revisada de los riesgos). Disponible en: https://www.oecd.org/en/publications/children-in-the-digital-environment_9b8f222e-en.html.

(18)  Estos derechos son elaborados por el Comité de los Derechos del Niño de las Naciones Unidas en lo que respecta al entorno digital en su observación general n.o 25. Oficina del Alto Comisionado para los Derechos Humanos. (2021). Observación general núm. 25 (2021) relativa a los derechos de los niños en relación con el entorno digital. Disponible en: https://www.ohchr.org/en/documents/general-comments-and-recommendations/general-comment-no-25-2021-childrens-rights-relation.

(19)  Los menores tienen derecho a la protección y a los cuidados necesarios para su bienestar (artículo 24 de la Carta).

(20)  Podrán expresar su opinión libremente. Esta será tenida en cuenta para los asuntos que les afecten, en función de su edad y madurez (artículo 24 de la Carta).

(21)  A este respecto, la Comisión recuerda la importancia de la accesibilidad, como se regula en la Directiva (UE) 2016/2102 del Parlamento Europeo y del Consejo, de 26 de octubre de 2016, sobre la accesibilidad de los sitios web y aplicaciones para dispositivos móviles de los organismos del sector público («Directiva sobre accesibilidad de los sitios web»), así como de la participación de los niños durante el diseño, la aplicación y la evaluación de todas las medidas de privacidad, seguridad y protección relativas a los menores en línea.

(22)  De conformidad con el artículo 25 del RGPD, los operadores que traten datos personales de menores ya deben aplicar medidas organizativas y técnicas adecuadas para proteger los derechos del interesado (protección de datos desde el diseño y por defecto). Las autoridades competentes en materia de protección de datos hacen cumplir esta obligación de conformidad con el artículo 51 del RGPD. Véanse las Directrices 4/2019 del CEPD relativas al artículo 25: protección de datos desde el diseño y por defecto. Disponible en: https://www.edpb.europa.eu/system/files/2021-04/edpb_guidelines_201904_dataprotection_by_design_and_by_default_v2.0_es.pdf.

(23)  OCDE (2024), Towards Digital Safety by Design for Children [«Hacia la seguridad digital de los niños desde el diseño», disponible en inglés]. Disponible en: https://doi.org/10.1787/c167b650-en.

(24)  Esto requiere priorizar las características, la funcionalidad, el contenido o los modelos que sean compatibles con la evolución de las capacidades de los niños, así como tener en cuenta las diferencias socioculturales. Un diseño adecuado a la edad es crucial para la privacidad, la seguridad y la protección de los niños: por ejemplo, sin información adecuada a su edad, es posible que los niños no puedan comprender, utilizar o disfrutar de características, configuraciones u otras herramientas de privacidad o seguridad. CEN-CENELEC (2023): Workshop Agreement 18016 Age Appropriate Digital Services Framework [«Acuerdo de taller de 18016 sobre el marco de servicios digitales adecuados para la era»], disponible en inglés en https://www.cencenelec.eu/media/CEN-CENELEC/CWAs/ICT/cwa18016_2023.pdf; El anexo del Código de la Infancia neerlandés incluye, entre otras cosas, una tabla de edades y fases de desarrollo. Disponible en: https://codevoorkinderrechten.waag.org/wp-content/uploads/2022/02/Code-voor-Kinderrechten-EN.pdf.

(25)  Artículo 3 de la Convención de las Naciones Unidas sobre los Derechos del Niño; artículo 24 de la Carta: el derecho del menor a que se evalúe su interés superior y se tome como consideración primordial cuando se considere un interés diferente, con el fin de adoptar una decisión sobre una cuestión relativa a un menor, a un grupo de niños identificados o no identificados o a los niños en general. Las determinaciones del interés superior, cuando sean necesarias, no deben llevarlas a cabo las empresas, sino que deben realizarse sobre la base de la actuación de las autoridades competentes. LSE Digital Futures for Children (2024), The Best interest of the child in the digital environment [«El interés superior del niño en el entorno digital», documento en inglés]. Disponible en: https://www.digital-futures-for-children.net/digitalfutures-assets/digitalfutures-documents/Best-Interests-of-the-Child-FINAL.pdf.

(26)  No discriminación: los derechos del niño se aplican a cualquier niño, sin discriminación alguna, de conformidad con el artículo 21 de la Carta. Los derechos del niño, de conformidad con el artículo 24 de la Carta, incluyen el «derecho a la protección y a los cuidados necesarios para su bienestar. Podrán expresar su opinión libremente. Esta será tenida en cuenta para los asuntos que les afecten, en función de su edad y madurez. En todos los actos relativos a los niños llevados a cabo por autoridades públicas o instituciones privadas, el interés superior del niño constituirá una consideración primordial». Los derechos del niño también incluyen, como para toda persona, el derecho a la vida, de conformidad con el artículo 2 de la Carta, y el derecho al respeto de su integridad física y psíquica, de conformidad con el artículo 3 de la Carta. Los derechos del niño también están consagrados y detallados en la Convención de las Naciones Unidas sobre los Derechos del Niño, que todos los Estados miembros han ratificado.

(27)  La Comisión recuerda, en particular, las Directrices del CEPD sobre la evaluación de impacto relativa a la protección de datos (EIPD) y para determinar si el tratamiento «entraña probablemente un alto riesgo» a efectos del Reglamento (UE) 2016/679.

(28)  Ejemplos de cambios significativos son la introducción de nuevas características que afectan a la interacción de los usuarios, las modificaciones de los sistemas de recomendación, la configuración de las cuentas, la moderación, la presentación de denuncias u otras características de diseño que cambien sensiblemente la experiencia de los niños en la plataforma, los cambios en las prácticas de recopilación de datos, la ampliación a nuevos grupos de usuarios, la integración de herramientas de IA generativa o los cambios relacionados con las medidas de garantía de la edad o sus proveedores.

(29)  Unicef. (2024). Children’s rights impact assessment: A tool to support the design of AI and digital technology that respects children’s rights [«Evaluación de impacto sobre los derechos de la infancia: una herramienta para apoyar el diseño de la IA y la tecnología digital que respete los derechos de los niños», disponible en inglés]. Disponible en: https://www.unicef.org/childrightsandbusiness/workstreams/responsible-technology/D-CRIA; (2021) MO-CRIA: Child Rights Impact Self-Assessment Tool for Mobile Operators [«Herramienta de autoevaluación del impacto de los derechos de los niños para operadores móviles»], disponible en inglés en: https://www.unicef.org/reports/mo-cria-child-rights-impact-self-assessment-tool-mobile-operators.

(30)  Ministerio neerlandés del Interior y de Relaciones del Reino (BZK). (2024). Evaluación del impacto sobre los derechos de los niños (formulario rellenable). Disponible en: https://www.nldigitalgovernment.nl/document/childrens-rights-impact-assessment-fill-in-document/.

(31)  Véase en particular el capítulo 14 de CEN-CENELEC (2023) Workshop Agreement 18016 Age Appropriate Digital Services Framework [«Acuerdo de Taller 18016 — Marco de servicios digitales adecuados para la era»], disponible en inglés en: https://www.cencenelec.eu/media/CEN-CENELEC/CWAs/ICT/cwa18016_2023.pdf.

(32)  Comisión Europea: Dirección General de Redes de Comunicación, Contenido y Tecnologías, Centro de Derecho y Tecnologías Digitales (eLaw), LLM, Raiz Shaffique, M. y van der Hof, S. (2024). Mapping age assurance typologies and requirements – Research report [«Cartografiar las tipologías y los requisitos de la garantía de la edad: informe de investigación», disponible en inglés]. Disponible en: https://data.europa.eu/doi/10.2759/455338.

(33)  ibídem; CEN/CENELEC. (2023). Workshop Agreement 18016 Age Appropriate Digital Services Framework [«Acuerdo de Taller 18016 — Marco de servicios digitales adecuados para la era», disponible en inglés]; https://www.cencenelec.eu/media/CEN-CENELEC/CWAs/ICT/cwa18016_2023.pdf.

(34)  La revisión de riesgos y las herramientas de evaluación del impacto sobre los derechos de los niños descrita en la sección 5 sobre la revisión de riesgos puede ayudar a los prestadores de plataformas en línea a llevar a cabo esta evaluación.

(35)  Véase la declaración 1/2025 del CEPD sobre la garantía de la edad. Disponible en: https://www.edpb.europa.eu/our-work-tools/our-documents/statements/statement-12025-age-assurance_en.

(36)  Estos riesgos pueden determinarse mediante la revisión de riesgos establecida en la sección 5.

(37)  En este contexto, la Comisión recuerda las obligaciones de los Estados miembros estipuladas en la Directiva (UE) 2015/1535 del Parlamento Europeo y del Consejo, de 9 de septiembre de 2015, por la que se establece un procedimiento de información en materia de reglamentaciones técnicas y de reglas relativas a los servicios de la sociedad de la información (DO L 241 de 17.9.2015, p. 1, ELI: http://data.europa.eu/eli/dir/2015/1535/oj), así como los procedimientos pertinentes para los proyectos de reglamentos técnicos que en ella se establecen.

(38)  La Comisión está probando actualmente una solución de verificación de la edad de la UE para facilitar la verificación de la edad compatible con la norma exigida en las presentes directrices, antes de que esté disponible la cartera de identidad digital de la UE. Otras soluciones compatibles con la norma establecida en las presentes directrices pueden estar disponibles comercialmente o en Estados miembros concretos, pero no en otros. En cualquier caso, los prestadores de plataformas en línea que demuestren que se da esta circunstancia deben empezar a probar y utilizar métodos de verificación de la edad que respeten los criterios de la sección 6.1.4 tan pronto como esté disponible. Este período transitorio podrá ajustarse a la luz del despliegue de la solución de la UE para la verificación de la edad.

(39)  La Comisión Europea ofrece una visión general de los diferentes métodos de estimación de la edad: Dirección General de Redes de Comunicación, Contenido y Tecnologías, Centro de Derecho y Tecnologías Digitales (eLaw), LLM, Raiz Shaffique, M. y van der Hof, S. (2024). Mapping age assurance typologies and requirements – Research report [«Cartografiar las tipologías y los requisitos de garantía de la edad – Informe de investigación», disponible en inglés]. Disponible en: https://data.europa.eu/doi/10.2759/455338.

(40)  El prestador de servicios solo necesita saber si el usuario está por encima o por debajo de un umbral de edad. Esto podría llevarse a cabo mediante un enfoque basado en la participación de un prestador tercero de tókenes, en el que el prestador del servicio solo vea el resultado funcional del proceso de la garantía de la edad (por ejemplo, «por encima» o «por debajo» del umbral de edad). Un prestador tercero realiza una comprobación de la edad y proporciona al usuario un «token de edad» que el usuario puede presentar al prestador de servicios sin necesidad de demostrar de nuevo su edad. El token de edad puede contener diferentes atributos del usuario e información sobre cuándo, dónde o cómo se llevó a cabo la comprobación de la edad. Véase también la declaración 1/2025 del CEPD sobre la garantía de la edad. Disponible en: https://www.edpb.europa.eu/our-work-tools/our-documents/statements/statement-12025-age-assurance_en.

(41)  Una prueba de conocimiento cero es un protocolo en el que una parte (el probador) puede demostrar a otra parte (el verificador) que una determinada información es cierta, sin transmitir al verificador ninguna otra información más allá del mero hecho de que dicha afirmación es verdadera.

(42)  Conforme a lo dispuesto en el capítulo II, sección 1, del Reglamento (UE) n.o 910/2014, modificado por el Reglamento (UE) 2024/1183.

(43)  La norma de referencia de la UE está disponible en https://ageverification.dev.

(44)  Estos métodos se ajustan en gran medida a la petición del CEPD que figura en el apartado 34 de su Declaración 1/2025 sobre la determinación de la edad para soluciones que impidan la vinculación y la elaboración de perfiles. La investigación académica también prefiere estos enfoques de protección de la privacidad, a los que considera escalables, inclusivos y eficaces para minimizar los riesgos para los menores, respetando al mismo tiempo los derechos fundamentales. Disponible en: https://www.edpb.europa.eu/our-work-tools/our-documents/statements/statement-12025-age-assurance_en.

(45)  Cuando se recurra a la verificación de la edad en estos casos, ello se entiende sin perjuicio de cualquier otra obligación del prestador, por ejemplo, exigirle que evalúe si el menor como consumidor tenía la edad suficiente para celebrar legalmente un contrato. Esto depende de la legislación aplicable del Estado miembro en el que resida el menor.

(46)  En algunos casos, el prestador puede comprobar que el menor ha sido inscrito por sus tutores.

(47)  Estos riesgos pueden determinarse mediante la revisión de riesgos establecida en la sección 5.

(48)  Todos los ejemplos de buenas y malas prácticas de estas directrices se refieren a plataformas en línea ficticias.

(49)  El prestador puede desear integrar este mecanismo en su sistema interno de gestión de reclamaciones con arreglo al artículo 20. Véase la sección 7.1 de este documento.

(50)  Una garantía de la edad inexacta puede dar lugar a la exclusión de los destinatarios que, como tales, podrían optar a utilizar un servicio o permitir que destinatarios no admisibles accedan al servicio a pesar de la medida de garantía de la edad en vigor.

(51)  Una garantía de la edad inadecuada puede crear riesgos indebidos para los derechos de los destinatarios a la protección de datos y la privacidad, mientras que una garantía general de edad podría limitar el acceso a los servicios más allá de lo realmente necesario.

(52)  Véase el considerando 71 del Reglamento (UE) 2022/2065, que destaca la necesidad de que los proveedores observen el principio de minimización de datos previsto en el artículo 5, apartado 1, letra c), del Reglamento (UE) 2016/679.

(53)  Véase la declaración 1/2025 del CEPD sobre la garantía de la edad, puntos 2.3 y 2.4. Disponible en: https://www.edpb.europa.eu/our-work-tools/our-documents/statements/statement-12025-age-assurance_en.

(54)  Comisión Europea: Dirección General de Redes de Comunicación, Contenido y Tecnologías, Centro de Derecho y Tecnologías Digitales (eLaw), LLM, Raiz Shaffique, M. y van der Hof, S. (2024). Mapping age assurance typologies and requirements – Research report [«Cartografiar las tipologías y los requisitos de garantía de la edad – Informe de investigación», disponible en inglés]. Disponible en: https://data.europa.eu/doi/10.2759/455338.

(55)  Esto se entiende sin perjuicio de los requisitos adicionales derivados de otras leyes, como el artículo 12 del Reglamento (UE) 2016/679.

(56)  Como se señala en la sección 6.1, la Comisión no considera que la autodeclaración sea un método adecuado de garantía de la edad para garantizar un elevado nivel de privacidad, seguridad y protección de los menores de conformidad con el artículo 28, apartado 1, del Reglamento (UE) 2022/2065.

(57)  Willis, L. E. (2014). ¿Por qué no la privacidad por defecto? Berkeley Technology Law Journal, 29 (1), 61. Disponible en: https://www.btlj.org/data/articles2015/vol29/29_1/29-berkeley-tech-l-j-0061-0134.pdf; Cho, H., Roh, S., & Park, B. (2019). Of promoting networking and protecting privacy: Effects of defaults and regulatory focus on social media users’ preference settings. [«El fomento de la creación de redes y la protección de la intimidad: los efectos de las opciones por defecto y el enfoque normativo en la configuración de las preferencias de los usuarios de las redes sociales», disponible en inglés]. Computers in Human Behavior, 101, 1-13. Disponible en: https://doi.org/10.1016/j.chb.2019.07.001. Entre los ejemplos de configuraciones que pueden poner en peligro la privacidad, la seguridad o la protección de los menores figuran, entre otros, la posibilidad de compartir la ubicación, el cambio a un perfil público, la posibilidad de que otros usuarios visualicen sus listas de contactos o de seguidores, la posibilidad de compartir archivos multimedia y la retransmisión en directo.

(58)  Los menores experimentan diferentes fases de desarrollo y tienen distintos niveles de madurez y comprensión a diferentes edades. Esto se reconoce, entre otros, en la Observación general n.o 25 del Comité de los Derechos del Niño de las Naciones Unidas relativa a los derechos de los niños en relación con el entorno digital, 2021, apartados 19-21. El anexo del Código de la Infancia neerlandés incluye, entre otras cosas, una tabla de edades y fases de desarrollo. Disponible en: https://codevoorkinderrechten.waag.org/wp-content/uploads/2022/02/Code-voor-Kinderrechten-EN.pdf.

(59)  La Comisión recuerda que la Directiva 2005/29/CE prohíbe las prácticas comerciales desleales, incluida la descrita en su anexo I, punto 7: afirmar falsamente que el producto solo estará disponible durante un período de tiempo muy limitado o que solo estará disponible en determinadas condiciones durante un período muy limitado, a fin de inducir al consumidor a tomar una decisión inmediata, privándole así de la oportunidad o el tiempo suficiente para hacer su elección con el debido conocimiento de causa.

(60)  La Comisión recuerda la obligación de que los proveedores de sistemas de IA destinados a interactuar directamente con personas físicas garanticen que estos se diseñen y desarrollen de manera que las personas físicas afectadas sean informadas de que están interactuando con un sistema de IA de conformidad con el artículo 50, apartado 1, del Reglamento (UE) 2024/1689 (en lo sucesivo, «Reglamento de IA»). Toda medida adoptada a raíz de esta recomendación debe entenderse con arreglo a las medidas adoptadas para cumplir lo dispuesto en el artículo 50, apartado 1, del Reglamento de IA, incluido su propio régimen de supervisión y ejecución, y sin perjuicio de dichas medidas.

(61)  La Comisión recuerda las Directrices sobre prácticas prohibidas en materia de inteligencia artificial establecidas por el Reglamento (UE) 2024/1689 (Reglamento de IA).

(62)  A efectos de la presente sección, la Comisión recuerda que, de conformidad con el artículo 3, letra s), del Reglamento (UE) 2022/2065, los sistemas de recomendación incluyen sistemas desplegados para recomendar contenidos, productos, publicidad, contactos, resultados y autocompletar búsquedas.

(63)  Munn, L. (2020). Angry by design: Toxic communication and technical architectures. [«Diseñado para hacernos enfadar: comunicación tóxica y arquitecturas técnicas», disponible en inglés]. Humanities and Social Sciences Communications, 7(53). Disponible en: https://doi.org/10.1057/s41599-020-00550-7; Milli, S. et al. (2025). Engagement, user satisfaction, and the amplification of divisive content on social media [«Participación, satisfacción de los usuarios y amplificación de contenidos divisivos en las redes sociales», disponible en inglés]. PNAS Nexus, 4(3) pgaf062. Disponible en: https://doi.org/10.1093/pnasnexus/pgaf062; Piccardi, T. et al. (2024). Social Media Algorithms Can Shape Affective Polarization via Exposure to Antidemocratic Attitudes and Partisan Animosity [«Los algoritmos de las redes sociales pueden dar forma a la polarización afectiva a través de la exposición a actitudes antidemocráticas y a la animosidad partidaria», disponible en inglés]. Disponible en: 10.48550/arXiv.2411.14652; Harriger, J. A., Evans, J. L., Thompson, J. K., y Tylka, T. L. (2022). The dangers of the rabbit hole: Reflections on social media as a portal into a distorted world of edited bodies and eating disorder risk and the role of algorithms [«Los peligros de la madriguera del conejo: reflexiones sobre las redes sociales como portal a un mundo distorsionado de cuerpos editados y en riesgo de trastornos alimentarios y el papel de los algoritmos», disponible en inglés]. Body Image, 41, 292-297. Disponible en: https://doi.org/10.1016/j.bodyim.2022.03.007; Amnistía Internacional. (2023). Driven into darkness: How TikTok’s «For You» feed encourages self-harm and suicidal ideation [«Arrastrado a la oscuridad: cómo el tablón de noticias “para ti” de TikTok fomenta la autolesión y la ideación suicida», disponible en inglés]. Disponible en: https://www.amnesty.org/en/documents/pol40/7350/2023/en/; Hilbert, M.; Ahmed, S.; Cho, J.; y Chen, Y. (2024). #BigTech @Minors: Social media algorithms quickly personalize minors’ content, lacking equally quick protection [«Los algoritmos de las redes sociales personalizan rápidamente los contenidos de los menores, pero carecen de una protección igual de rápida», disponible en inglés]. Disponible en: http://dx.doi.org/10.2139/ssrn.4674573. Sala, A., Porcaro, L., Gómez, E. (2024). Social Media Use and adolescents’ mental health and well-being: An umbrella review [«Uso de las redes sociales y salud mental y bienestar de los adolescentes: una revisión amplia», disponible en inglés], Computers in Human Behavior Reports, volumen 14, 100404, ISSN 2451-9588 Disponible en: https://doi.org/10.1016/j.chbr.2024.100404.

(64)  La Comisión también recuerda que otras normas del Derecho nacional o de la Unión pueden afectar al diseño y el funcionamiento de los sistemas de recomendación, con vistas a garantizar la protección de los intereses jurídicos en el marco de sus competencias, lo que contribuye a un elevado nivel de privacidad, seguridad y protección de los derechos fundamentales en línea.

(65)  Por ejemplo, en la clasificación de los sistemas de recomendación deben tenerse en cuenta las observaciones de los menores sobre contenidos, actividades, personas, cuentas o grupos que les hagan sentirse incómodos o que quieran ver más o menos. Esto incluye observaciones como «Muéstrame menos/más», «No quiero ver / no me interesa», «No quiero ver contenido de esta cuenta», «Esto me hace sentir incómodo», «Oculta esto,» «No me gusta esto» o «Esto no es para mí». Véase también la sección 7.1 sobre denuncias, observaciones y reclamaciones de los usuarios.

(66)  Pueden encontrarse ejemplos de estos términos en el paquete de conocimientos sobre la lucha contra la venta de drogas en línea, desarrollado en el marco del Foro de la UE sobre Internet y que reúne más de 3 500 términos, emojis y jerga utilizados por los traficantes de drogas para vender drogas en línea; véase la referencia en la Hoja de ruta de la UE para la lucha contra el tráfico de drogas y la delincuencia organizada (COM(2023) 641 final).

(67)  Véase el artículo 27, apartados 1 y 3, del Reglamento (UE) 2022/2065.

(68)  Comité de los Derechos del Niño de las Naciones Unidas, Observación general n.o 25, apartado 112; Unicef. (2019). Discussion paper: Digital marketing and children’s rights [«Documento de reflexión: la mercadotecnia digital y los derechos de los niños»]. Disponible en: https://www.unicef.org/childrightsandbusiness/media/256/file/Discussion-Paper-Digital-Marketing.pdf.

(69)  Esto hace que les resulte difícil, por ejemplo, distinguir entre contenidos comerciales y no comerciales, resistir la presión de los pares para comprar contenidos dentro de juegos o aplicaciones que resulten atractivos para los menores o incluso sean necesarios para avanzar en el juego, o comprender el valor en dinero real de las monedas integradas en la aplicación, o que la aparición de los contenidos más deseados, como mejoras, mapas y avatares, puede ser menos frecuente en las compras aleatorizadas dentro de juegos o aplicaciones que los contenidos de menor valor.

(70)  M. Ganapini, E. Panai (2023): An Audit Framework for Adopting AI-Nudging on Children [«Un marco de auditoría para la adopción de incentivación por IA para los niños», documento en inglés]. Disponible en: https://arxiv.org/pdf/2304.14338.

(71)  La Comisión recuerda que, de conformidad con su artículo 2, apartado 4, el Reglamento (UE) 2022/2065 se entiende sin perjuicio de la Directiva 2010/13/UE, el Derecho de la Unión sobre derechos de autor y derechos afines, el Reglamento (UE) 2021/784, el Reglamento (UE) 2019/1148, el Reglamento (UE) 2019/1150, el Derecho de la Unión en materia de protección de los consumidores y seguridad de los productos (incluida la Directiva 2005/29/UE y el Derecho de la Unión en materia de protección de datos personales, el Derecho de la Unión en el ámbito de la cooperación judicial en materia civil, el Derecho de la Unión en el ámbito de la cooperación judicial en materia penal y una Directiva por la que se establecen normas armonizadas para el nombramiento de representantes legales a efectos de recabar pruebas para procesos penales). Además, no afectará a la aplicación de la Directiva 2000/31/CE. De conformidad con el artículo 91 del Reglamento (UE) 2022/2065, la Comisión tiene el mandato de evaluar e informar, a más tardar el 17 de noviembre de 2025, sobre la manera en que el presente Reglamento interactúa con otros actos jurídicos, en particular los actos mencionados anteriormente.

(72)  UNICEF proporciona recursos y orientaciones para plataformas relacionadas con el ecosistema de mercadotecnia digital, incluido el Discussion Paper on digital marketing and children’s rights [«Documento de debate sobre la comercialización digital y los derechos de los niños»], UNICEF (2025), disponible en inglés en: https://www.unicef.org/childrightsandbusiness/workstreams/responsible-technology/digital-marketing.

(73)  La Comisión recuerda que, por ejemplo, los comerciantes están sujetos a la prohibición, en virtud del artículo 5, apartado 1, de la Directiva 2005/29/CE, de incurrir en prácticas comerciales desleales, y el punto 28 del anexo I de la Directiva prohíbe exhortar directamente a los niños para que compren o convenzan a sus padres u otros adultos de que les compren los productos anunciados. Este comportamiento comercial se considera desleal en todas las circunstancias.

(74)  La observación general n.o 25 (2021) del Comité de los Derechos del Niño relativa a los derechos de los niños en relación con el entorno digital establece que el interés superior del niño debe ser «una consideración primordial a la hora de regular la publicidad y la comercialización dirigidas y accesibles a los niños. El patrocinio, la colocación de productos y todas las formas de contenidos con fines comerciales deben distinguirse claramente de todos los demás contenidos y no deben perpetuar estereotipos de género o raza».

(75)  La Comisión recuerda que dichos sistemas de IA podrían constituir prácticas prohibidas en virtud del artículo 5, apartado 1, letra b), del Reglamento (UE) 2024/1689 si explotan las vulnerabilidades de los menores de un modo que les provoque, o sea razonablemente probable que les provoque, perjuicios considerables. Cualquier medida adoptada con arreglo a la presente Recomendación debe ir más allá de las medidas adoptadas para evitar la aplicación de dicha prohibición. La supervisión y ejecución de las medidas adoptadas para cumplir lo dispuesto en el artículo 50, apartado 1, del Reglamento (UE) 2024/1689 siguen siendo responsabilidad de las autoridades competentes en virtud de dicho Reglamento.

(76)  La Comisión recuerda que, de conformidad con los artículos 6 y 7 de la Directiva 2005/29/CE, la divulgación del elemento comercial debe ser clara y adecuada, teniendo en cuenta el medio en el que tiene lugar la comercialización, incluido el contexto, el emplazamiento, el momento, la duración, la lengua o el público destinatario. Véase también la Guía sobre la interpretación y la aplicación de la Directiva 2005/29/CE.

(77)  La Comisión recuerda que la Directiva 2005/29/CE, en su artículo 7, apartado 2, y en su anexo I, punto 22, prohíbe afirmar de forma fraudulenta o crear la impresión falsa de que un comerciante no actúa a los fines propios de su actividad comercial, industrial, artesanal o profesional, o presentarse de forma fraudulenta como un consumidor. También recuerda la Directiva 2010/13/UE, que prohíbe incitar directamente a los menores a la compra o arrendamiento de productos o servicios, persuadir a sus padres o terceros para que compren los bienes o servicios publicitados, o explotar la especial confianza que depositan en sus padres, profesores u otras personas. De conformidad con el considerando 10 del Reglamento (UE) 2022/2065, el Reglamento debe entenderse sin perjuicio del Derecho de la Unión en materia de protección de los consumidores, incluida la Directiva 2005/29/CE relativa a las prácticas comerciales desleales de las empresas en sus relaciones con los consumidores en el mercado interior.

(78)  La Comisión también recuerda que la Directiva 2010/13/UE establece que las plataformas de intercambio de vídeos deben disponer de una funcionalidad para declarar que los contenidos cargados contienen comunicaciones comerciales audiovisuales.

(79)  La Comisión recuerda que el concepto de moneda virtual se define en la Directiva (UE) 2018/843 relativa a la lucha contra el blanqueo de capitales.

(80)  El ejemplo utilizado en la presente Recomendación es irrelevante con respecto a cualquier clasificación o definición jurídica de las monedas integradas en juegos en la legislación vigente de la Unión o a cualquier interpretación de la misma relacionada con las implicaciones del uso de dichos instrumentos.

(81)  La Comisión recuerda que la Directiva 2005/29/CE, en su anexo I, punto 20, prohíbe describir un producto como «gratuito», «regalo», «sin gastos» o cualquier fórmula equivalente si el consumidor tiene que abonar dinero por cualquier concepto distinto del coste inevitable de la respuesta a la práctica comercial y la recogida del producto o del pago por la entrega de este.

(82)  Según lo establecido en el artículo 25 del Reglamento (UE) 2022/2065. La Comisión recuerda que, de conformidad con el artículo 25, apartado 2, la prohibición establecida en el artículo 25, apartado 1, no se aplicará a las prácticas contempladas en la Directiva 2005/29/CE o en el Reglamento (UE) 2016/679.

(83)  La Comisión recuerda que la Directiva 2005/29/CE en su anexo I, punto 7, prohíbe afirmar falsamente que el producto solo estará disponible durante un período de tiempo muy limitado o que solo estará disponible en determinadas condiciones durante un período muy limitado, a fin de inducir al consumidor a tomar una decisión inmediata, privándole así de la oportunidad o el tiempo suficiente para hacer su elección con el debido conocimiento de causa. De este modo, los comerciantes están sujetos a la prohibición de utilizar técnicas de escasez.

(84)  La Comisión recuerda que, en el caso de los juegos, en virtud de los artículos 8 y 9 de la Directiva 2005/29/CE, los comerciantes no deben explotar sesgos de comportamiento ni introducir elementos manipuladores relacionados, por ejemplo, con el calendario de las ofertas dentro del juego (ofreciendo microtransacciones durante los momentos críticos del juego), o el uso de efectos visuales y acústicos para ejercer una presión indebida sobre el jugador.

(85)  Los alertadores fiables son entidades con conocimientos y competencias particulares para detectar determinados tipos de contenidos ilícitos, y las notificaciones que envíen dentro de su ámbito de especialidad señalado deben tener prioridad y ser tratadas por los prestadores de plataformas en línea sin demora indebida. El coordinador de servicios digitales del Estado miembro en el que esté establecida la entidad concede la condición de alertador fiable, siempre que la entidad haya demostrado su experiencia, competencia, independencia con respecto a las plataformas en línea, así como diligencia, exactitud y objetividad en el envío de notificaciones.

(86)  La Comisión recuerda que dichos sistemas de IA podrían constituir prácticas prohibidas en virtud del artículo 5, apartado 1, letra b), del Reglamento (UE) 2024/1689 si explotan las vulnerabilidades de los menores de un modo que les provoque, o sea razonablemente probable que les provoque, perjuicios considerables. Cualquier medida adoptada con arreglo a la presente Recomendación debe ir más allá de las medidas adoptadas para evitar la aplicación de dicha prohibición. La supervisión y ejecución de las medidas adoptadas para cumplir lo dispuesto en el artículo 50, apartado 1, del Reglamento (UE) 2024/1689 siguen siendo responsabilidad de las autoridades competentes en virtud de dicho Reglamento.

(87)  Véase el artículo 8 del Reglamento (UE) 2022/2065.

(88)  Véase la sección 6.5.2 de las presentes directrices para obtener información sobre cómo debe afectar esta información a los sistemas de recomendación del prestador.

(89)  Cualquier referencia en el resto de la presente sección a «reclamación» o «reclamaciones» incluye cualquier reclamación que se presente contra una evaluación por parte del proveedor de la edad del usuario y cualquier reclamación que se interponga contra las decisiones a que se refiere el artículo 20 del Reglamento (UE) 2022/2065. El artículo 20 del Reglamento (UE) 2022/2065 exige a los prestadores de plataformas en línea que proporcionen a los destinatarios del servicio acceso a un sistema interno eficaz de gestión de reclamaciones contra cuatro tipos de decisiones adoptadas por el prestador de la plataforma en línea: a) las decisiones de si retirar la información o bloquear el acceso a esta o restringir su visibilidad, o de no hacerlo; b) las decisiones de si suspender o cesar la prestación del servicio, en todo o en parte, a los destinatarios, o de no hacerlo; c) las decisiones de si suspender o suprimir la cuenta de los destinatarios, o de no hacerlo; y d) las decisiones de si suspender, cesar o restringir de algún otro modo la capacidad de monetizar la información proporcionada por los destinatarios, o de no hacerlo.

(90)  Como las que forman parte de los Centros Nacionales de Seguridad en Internet y de las redes INHOPE u otras líneas nacionales de ayuda a la infancia, como https://childhelplineinternational.org/.

(91)  Las orientaciones de UNICEF sobre el compromiso de las partes interesadas con los niños ofrecen medidas concretas sobre actividades responsables de participación infantil. Unicef. (2025). Spotlight guidance on best practices for stakeholder engagement with children in D-CRIAs [«Orientaciones específicas sobre las mejores prácticas para el compromiso de las partes interesadas con los niños en las evaluaciones de impacto sobre los derechos digitales del niño», documento en inglés]. Disponible en: https://www.unicef.org/childrightsandbusiness/media/1541/file/D-CRIA-Spotlight-Guidance-Stakeholder-Engagement.pdf.

(92)  Este enfoque está en consonancia con la Estrategia para una Internet Mejor para los Niños, que hace hincapié en la importancia de la sensibilización y la educación en la promoción de la seguridad en línea y apoya la aplicación del Reglamento (UE) 2022/2065 a este respecto. Además, los Centros de Seguridad en Internet, establecidos en cada Estado miembro, demuestran el valor de los esfuerzos de sensibilización para prevenir y responder a los riesgos y los efectos nocivos de internet.

(93)  Esta formación podría abarcar, por ejemplo, los derechos de los niños, los riesgos y los efectos nocivos para la privacidad, la seguridad y la protección de los menores en línea, así como prácticas eficaces de prevención, respuesta y mitigación.

(94)  An Coimisiún um Chosaint Sonraí. (2021). Fundamentals for a child-oriented approach to data processing [«Fundamentos para un enfoque del tratamiento de datos orientado a los niños», disponible en inglés]. Disponible en: https://www.dataprotection.ie/sites/default/files/uploads/2021-12/Fundamentals%20for%20a%20Child-Oriented%20Approach%20to%20Data%20Processing_FINAL_EN.pdf; Coimisiún na Meán. (2024). Online safety code [«Código de seguridad en línea», disponible en inglés]. Disponible en: https://www.cnam.ie/app/uploads/2024/11/Coimisiun-na-Mean-Online-Safety-Code.pdf; IMY (Autoridad Sueca de Protección de la Privacidad). (2021). The rights of children and young people on digital platforms [«Los derechos de los niños y los jóvenes en las plataformas digitales», disponible en inglés]. Disponible en: https://www.imy.se/en/publications/the-rights-of-children-and-young-people-on-digital-platforms/; Ministerio neerlandés del Interior y de Relaciones del Reino (2022). Code for children’s rights [«Código de los derechos del niño», disponible en inglés]. Disponible en: https://codevoorkinderrechten.waag.org/wp-content/uploads/2022/02/Code-voor-Kinderrechten-EN.pdf; CNIL. (2021). La CNIL publica 8 recomendaciones para mejorar la protección de los menores en línea. Disponible en: https://www.cnil.fr/en/cnil-publishes-8-recommendations-enhance-protection-children-online; Unabhängiger Beauftragter für Fragen des sexuellen Kindesmissbrauchs. [sin fecha], Rechtsfragen Digitales. Disponible en: https://beauftragte-missbrauch.de/themen/recht/rechtsfragen-digitales.

(95)  CEN-CENELEC (2023) Workshop Agreement 18016 Age Appropriate Digital Services Framework [«Acuerdo de Taller 18016 — Marco de servicios digitales adecuados para la era», disponible en inglés]; OECD. (2021). Children in the digital environment — Revised typology of risks [«Los niños en el entorno digital: tipología revisada de los riesgos», documento en inglés], https://www.oecd.org/en/publications/children-in-the-digital-environment_9b8f222e-en.html.

(96)  La norma P2089.2™ relativa a las condiciones para la participación infantil en línea proporciona procesos y prácticas para desarrollar condiciones que ayuden a proteger los derechos de los niños en las esferas digitales.

(97)  La Comisión también recuerda los requisitos para que los prestadores de plataformas de intercambio de vídeos protejan a los menores de los programas, los vídeos generados por usuarios y las comunicaciones comerciales audiovisuales que puedan perjudicar su desarrollo físico, mental o moral en el artículo 28 ter de la Directiva 2010/13/UE. Estos requisitos deben evaluarse y, en su caso, revisarse a más tardar el 19 de diciembre de 2026.

(98)  Como se indica en la introducción de las presentes directrices, determinadas disposiciones del Reglamento (UE) 2022/2065, incluidos los apartados 5 y 6 del artículo 14, imponen obligaciones adicionales a los prestadores de plataformas en línea de muy gran tamaño. En la medida en que las obligaciones que en ellas se expresan también se refieren a la privacidad, la seguridad y la protección de los menores en el sentido del artículo 28, apartado 1, las presentes Directrices se basan en estas disposiciones.

(99)  Por ejemplo, publicándolos en la base de datos de condiciones generales de los servicios digitales: https://platform-contracts.digital-strategy.ec.europa.eu/

(100)  Como se indica en el ámbito de aplicación de las presentes directrices (sección 2), determinadas disposiciones del Reglamento (UE) 2022/2065, incluida la sección 5 del capítulo III, imponen obligaciones adicionales a los prestadores de plataformas en línea de muy gran tamaño y motores de búsqueda en línea de muy gran tamaño. En la medida en que las obligaciones que en ellas se expresan también se refieren a la privacidad, la seguridad y la protección de los menores en el sentido del artículo 28, apartado 1, las presentes Directrices se basan en estas disposiciones, y las plataformas en línea de muy gran tamaño no deben esperar que la adopción de las medidas descritas en las presentes Directrices, ya sea parcial o totalmente, sea suficiente para garantizar el cumplimiento de sus obligaciones en virtud de la sección 5 del capítulo III del Reglamento (UE) 2022/2065.


ANEXO

Tipología 5C de los riesgos en línea para los niños

1.

La OCDE (1) y los investigadores (2) han clasificado los riesgos (3) en línea a los que pueden enfrentarse los menores para que los proveedores de plataformas en línea accesibles a menores, el mundo académico y los responsables políticos los entiendan y analicen mejor. Esta clasificación de riesgos se conoce como «tipología 5C de los riesgos en línea para los niños». Ayuda a identificar los riesgos e incluye 5 categorías de riesgos: contenido, conducta, contacto, riesgos para los consumidores, riesgos transversales. Estos riesgos pueden manifestarse cuando no se hayan adoptado medidas adecuadas y proporcionadas para garantizar un elevado nivel de privacidad, seguridad y protección de los menores en el servicio, lo que podría causar una posible vulneración de una serie de derechos de los menores.

2.

Tipología 5C de los riesgos en línea para los niños (4) .

Riesgos para los niños en el entorno digital

Categorías de riesgo

Contenidos

Conducta

Contacto

Consumidores

Riesgos transversales

Riesgos adicionales para la privacidad, seguridad y protección

Riesgos de la tecnología avanzada

Riesgos para la salud y el bienestar

Riesgos de uso indebido

Manifestación del riesgo

Contenidos de odio

Comportamiento de odio

Encuentros de odio

Riesgos de comercialización

Contenidos nocivos

Comportamiento nocivo

Encuentros nocivos

Riesgos de elaboración de perfiles comerciales

Contenidos ilícitos

Comportamiento ilícito

Encuentros ilícitos

Riesgos financieros

Desinformación

Comportamiento problemático por parte de los usuarios

Otros encuentros problemáticos

Riesgos de seguridad

3.

Riesgos de contenido: Los menores pueden estar expuestos de forma inesperada e involuntaria a contenidos que pueden perjudicarles: a) contenidos de odio; b) contenidos nocivos; c) contenidos ilícitos; d) desinformación. En general, se considera que estos tipos de contenidos tienen graves consecuencias negativas para la salud mental y el bienestar físico de los menores, por ejemplo, contenidos que promueven la autolesión, el suicidio, los trastornos alimentarios o la violencia extrema.

4.

Riesgos de conducta: Se refiere a comportamientos que los menores pueden adoptar activamente en línea y que pueden plantear riesgos tanto para sí mismos como para otros, como a) los comportamientos de odio (por ejemplo, los menores que publican o envían contenidos o mensajes de odio); b) comportamiento nocivo (p. ej., menores que publican o envían contenidos violentos o pornográficos); c) comportamiento ilícito (p. ej., menores que publican o envían material de abuso sexual de menores o contenidos terroristas); y d) comportamientos problemáticos generados por los usuarios (por ejemplo, participación en retos peligrosos; charlas de contenido sexual o sexting).

5.

Riesgos de contacto: Se refiere a situaciones en las que los menores no actúan, sino que son víctimas de las interacciones: a) encuentros de odio; b) encuentros nocivos (por ejemplo, el encuentro tiene lugar con la intención de dañar al menor); c) encuentros ilícitos (por ejemplo, pueden ser perseguidos con arreglo al Derecho penal); y d) otros encuentros problemáticos. Algunos ejemplos de riesgos de contacto son, entre otros, la captación de menores en línea, la coerción y extorsión sexual en línea, el abuso sexual a través de la cámara web, el ciberacoso y la trata de seres humanos con fines de explotación sexual. Estos riesgos también se extienden a las prácticas de fraude en línea, como la captación ilegítima de datos confidenciales (o phishing), el fraude en las tiendas en línea y la usurpación de identidad.

6.

Riesgos para los consumidores: Los menores también pueden enfrentarse a riesgos como consumidores en la economía digital: a) riesgos de comercialización (por ejemplo, cajas de recompensas, publijuegos); b) riesgos de elaboración de perfiles comerciales (por ejemplo, emplazamiento de productos o recepción de anuncios destinados a adultos, como servicios de citas); c) riesgos financieros (por ejemplo, fraude o gastar grandes cantidades de dinero sin el conocimiento o el consentimiento de sus tutores); d) riesgos para la seguridad y riesgos relacionados con la compra y el consumo de drogas, medicamentos, alcohol y otros productos ilícitos o peligrosos. Los riesgos para los consumidores también incluyen los riesgos relacionados con los contratos, por ejemplo, la venta de datos de los usuarios o las cláusulas y condiciones abusivas.

7.

Riesgos transversales: Se trata de riesgos que afectan a todas las categorías de riesgo y se consideran muy problemáticos, ya que pueden afectar significativamente a la vida de los menores de múltiples maneras. Son los siguientes:

a)

Los riesgos de la tecnología avanzada implican que los menores se enfrentan a nuevos peligros a medida que se desarrolla la tecnología, como los chatbots impulsados por IA que pueden proporcionar información nociva o utilizarse para la captación de menores explotando su vulnerabilidad, o el uso de tecnologías biométricas que pueden dar lugar a abusos, usurpación de identidad y exclusión.

b)

Los riesgos para la salud y el bienestar incluyen los posibles daños al bienestar mental, emocional o físico de los menores. Por ejemplo, el aumento de la obesidad/anorexia y los problemas de salud mental relacionados con el uso o el uso excesivo de plataformas en línea, que en algunos casos pueden tener efectos negativos para la salud física y mental y el bienestar de los menores, como la adicción, la depresión, los trastornos de ansiedad, la alteración de los patrones de sueño y el aislamiento social.

c)

Otros riesgos para la privacidad y la protección de datos se derivan del acceso a la información sobre menores y del peligro de las características de geolocalización que los depredadores podrían explotar para localizar y abordar menores.

8.

Otros riesgos transversales (5) también pueden incluir:

a)

Los riesgos adicionales en materia de seguridad y protección están relacionados con la seguridad de los menores, en particular la seguridad física, así como con todas las cuestiones de ciberseguridad.

b)

Los riesgos de uso indebido están relacionados con los riesgos o los efectos nocivos para los menores derivados del uso indebido de la plataforma en línea, o de sus características.


(1)  OECD. (2021). Children in the digital environment — Revised typology of risks [«Los niños en el entorno digital: tipología revisada de los riesgos», documento en inglés], https://www.oecd.org/en/publications/children-in-the-digital-environment_9b8f222e-en.html.

(2)  Livingstone, S., y Stoilova, M. (2021). The 4Cs: Classifying Online Risk to Children [«Las 4 Cs: clasificación del riesgo en línea para los niños», disponible en inglés]. (Co: RE Short Report Series on Key Topics). Hamburgo: Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI); CO:RE – Children Online: Research and Evidence. https://doi.org/10.21241/ssoar.71817.

(3)  Véase también un análisis de riesgos facilitado por la Bundeszentrale für Kinder-und Jugendmedienschutz (BzKJ). (2022). Gefährdungsatlas. Digitales Aufwachsen. Vom Kind aus denken. Zukunftssicher handeln. Aktualisierte und erweiterte 2. Auflage. – Bundeszentrale für Kinder- und Jugendmedienschutz. Disponible en: https://www.bzkj.de/resource/blob/197826/5e88ec66e545bcb196b7bf81fc6dd9e3/2-auflage-gefaehrdungsatlas-data.pdf.

(4)  OECD. (2021). Children in the digital environment — Revised typology of risks [«Los niños en el entorno digital: tipología revisada de los riesgos», documento en inglés], p.7. https://www.oecd.org/en/publications/children-in-the-digital-environment_9b8f222e-en.html.

(5)  Livingstone, S., y Stoilova, M. (2021). The 4Cs: Classifying Online Risk to Children [«Las 4 Cs: clasificación del riesgo en línea para los niños», disponible en inglés]. (Co: RE Short Report Series on Key Topics). Hamburgo: Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI); CO:RE – Children Online: Research and Evidence. https://doi.org/10.21241/ssoar.71817.


ELI: http://data.europa.eu/eli/C/2025/5519/oj

ISSN 1977-0928 (electronic edition)

El Estudio Jurídico FERREYROS&FERREYROS es una firma especializada en aspectos legales y regulatorios relacionados con las Nanotecnologías, materia transversal, relacionada con la integración y convergencia de tecnologías (Nanotecnologías, Biotecnologías, Tecnologías de la Información y ciencias Cognitivas) (NBIC).

El Estudio realiza asesorías, consultorías, auditorías, formaciones, investigaciones y defensas en favor de agentes públicos y empresas privadas en Contenidos y Servicios vinculados con las NBIC, en todas las fases y etapas del negocio jurídico.

Desde la concepción, elaboración de proyectos, estudio de impacto, gestión, declaraciones y obtención de las autorizaciones y licencias, incluyendo negociación y ejecución de contratos y resolución de conflictos

Facebook
Twitter
Reddit
LinkedIn
Telegram
WhatsApp

Carlos Ferreyros

Doctor en Derecho. Magister en Informática Jurídica y Derecho Informático

Leave a Reply

Your email address will not be published. Required fields are marked *

Te puede interesar