La inteligencia artificial (IA) es una herramienta cotidiana para millones de personas, que la utilizan para resolver desde dudas simples hasta temas muy personales.

Sin embargo, el uso de estas tecnologías plantea retos importantes, especialmente cuando hablamos de adolescentes y su seguridad en el entorno digital.

OpenAI, líder en desarrollo de IA, ha dado a conocer sus principios para proteger a usuarios jóvenes, equilibrando seguridad, libertad y privacidad, elementos que a veces pueden entrar en conflicto.

Privacidad: un derecho fundamental en la era de la IA

El equipo de OpenAI reconoce que las conversaciones con los sistemas de IA son únicas, ya que muchas veces contienen información muy personal.

Por eso, decidió proteger esta privacidad con la misma rigurosidad que la que se aplica a conversaciones con médicos o abogados.

Esto significa que los datos no estarán al alcance del personal de OpenAI, salvo en casos muy específicos y críticos, como amenazas a la vida o riesgos graves para la sociedad, que pueden ser revisados por humanos para evitar daños mayores.

Libertad para usuarios adultos, cuidado para adolescentes

OpenAI trabaja para que los usuarios puedan usar la IA dentro de “muy amplios límites de seguridad”. Por ejemplo, un adulto puede solicitar conversaciones más abiertas, como diálogo romántico, o pedir ayuda para escribir una historia ficticia con temas complicados, como el suicidio, y la IA estará preparada para responder.

A esto lo llaman “tratar a los adultos como adultos”, buscando respetar la libertad sin causar daño.

Pero cuando se trata de adolescentes, el enfoque cambia: la seguridad es prioritaria sobre la privacidad y libertad.

Para implementarlo, OpenAI está desarrollando un sistema que estima la edad de los usuarios basándose en su forma de interactuar con ChatGPT. Si dudan, asumen que son menores y aplican las reglas más estrictas para cuidarlos.

Medidas específicas para proteger a menores

Entre las medidas para adolescentes, ChatGPT está programado para evitar ciertas respuestas, como conversaciones coquetas o discusiones sobre autolesiones, aun cuando formen parte de una historia de ficción.

Además, si se detecta que un menor tiene ideas suicidas, el sistema intentará contactar primero a sus padres o tutores y, si no es posible, a las autoridades para evitar daños inmediatos.

En algunos países o situaciones, OpenAI podría solicitar identificación para verificar la edad, aunque reconocen que esto representa un compromiso en materia de privacidad para los adultos, pero consideran que vale la pena para proteger a los jóvenes.

Compartir en:​