Desde el nacimiento de Internet y con el paso de las décadas, su utilización ha ido cambiando en numerosas cuestiones.
En un primer momento, y sirviéndonos de ejemplo el primer sitio web de la historia, simplemente se compartía información de manera estática existiendo de forma limitada la interacción entre los internautas y los contenidos publicados.
La llegada de la web 2.0 con el paso al siglo XXI -a la que sucederá la web 3.0– vino acompañada de un mayor grado de interacción con la creación y difusión de contenidos desarrollados por los propios usuarios.
Una evolución hacia una red más interactiva y colaborativa que, aunque presentaba notables beneficios, tampoco estaba exenta de algunos desafíos, como la ausencia de filtros para controlar el material que pudiera ser dañino, ofensivo, inadecuado o directamente ilegal.
La legislación ha ido avanzando a lo largo de los años si bien es cierto que todavía quedan retos pendientes, siendo uno de ellos la exposición de los menores de edad a este tipo de contenidos.
Para ello, Telefónica ha elaborado un posicionamiento a 2025 – Construyendo un entorno digital seguro para menores– en el que la compañía analiza cuestiones como estas.
Tipos de contenidos ofensivos, dañinos o inapropiados
Desde este documento se constata la existencia de cuatro tipos de contenidos inapropiados u ofensivos. Veamos cuáles son y sus principales características.
Alteración de la imagen corporal
Cuestiones que no son exclusivas del entorno digital sí que pueden verse potenciadas en según qué entornos. Por ejemplo, a través de contenidos que normalizan o idolatran la bulimia o la anorexia presentándolas como estilos de vida.
Aunque estos casos puedan ser ejemplos extremos, la promoción de estándares físicos irreales también puede desembocar en una alteración de la percepción que los jóvenes tienen de su imagen corporal.
Exaltación de la violencia
Aunque es cierto que situaciones violentas en entornos escolares, como las peleas, han sido una realidad presente a lo largo de la historia, la diferencia que ha aportado el entorno digital es la viralización de estos contenidos.
Estamos ante la pescadilla que se muerde la cola: la curiosidad que genera este tipo de contenidos lleva a que, quienes lo publican, sigan haciéndolo ante el elevado número de visualizaciones que les reporta a sus perfiles en redes sociales.
Pornografía
Si bien hay informes que alertan de que el consumo habitual de porno se encuentra en los 12 años, incluso hay estudios que rebajan a los seis años la edad con la que algunos menores se topan por primera vez en su vida con material de este estilo.
Los menores indican que el acceso a la pornografía se produce o bien de forma accidental (ya sea a través de redes sociales o pop-ups) o a través de la recepción de enlaces enviados por amistades o alguien de su entorno.
Promoción del suicido
Tampoco siendo una cuestión única del entorno digital, y teniendo un volumen inferior a los supuestos expuestos anteriormente, la promoción del suicidio es otro de los casos de contenidos dañinos a los que los menores pueden estar expuestos.
Un estudio del año 2022 en Reino Unido ya alertaba de que uno de cada cuatro causas de suicidio en jóvenes podría estar relacionado con el consumo de contenidos online en las que se normalizan o incluso se animan a continuar con las mismas.
Propuestas para un entorno seguro para los menores
Ante estas u otras hipotéticas situaciones en las que los menores se enfrenten a contenidos inapropiados o de otra índole, desde el posicionamiento de Telefónica se proponen algunas medidas para avanzar hacia un espacio digital seguro para la infancia.
- Compromiso de todo el ecosistema digital. Promover medidas destinadas a velar por la protección de los menores ante determinados contenidos es una responsabilidad de todo el ecosistema digital, sin excepciones.
- Control parental. Si bien esta medida puede ser efectiva a la hora de limitar los tiempos de consumo, no cuenta con capacidad para discriminar los contenidos sobre los que versa este artículo: aquellos dañinos, ofensivos o inapropiados.
- Etiquetado de edad. Las plataformas de video o de RRSS deberían dar la posibilidad de contar con una funcionalidad para poder etiquetar contenido por edades al publicarse los contenidos.
- Evitar asimetrías entre actores del ecosistema digital y el audiovisual. Por ejemplo, aquellas operadoras que disponen de contenidos televisivos disponen tanto de contenidos específicos para menores como de mecanismos de verificación.
- Verificación de edad efectiva. Que las soluciones de verificación de edad sean efectivas es un filtro con el que evitar el posible acceso a contenidos inapropiados.
Todas estas medidas vinculadas ante según qué contenidos digitales avanza en paralelo a otras cuestiones relacionadas con el ecosistema online, como por ejemplo lo que tiene que ver con la relación entre las redes sociales y la protección de los menores.