La organización no gubernamental (ONG) Common Sense Media advirtió sobre los riesgos que representa para los niños y adolescentes el uso de compañeros de inteligencia artificial (IA). Por esta razón, recomienda limitar su uso para mayores de 18 años de edad.
“Estos compañeros de IA están diseñados para crear apego emocional y dependencia. Esto es especialmente preocupante para los cerebros de los adolescentes en desarrollo, que pueden tener dificultades para mantener límites sanos entre la IA y las relaciones humanas”, precisó el informe publicado por la ONG en su página web.
Asimismo, comparó los efectos dañinos de los compañeros de IA en adolescentes con los de los de otras tecnologías como los videojuegos.
El estudio lo realizó la organización en conjunto con el Laboratorio Brainstorm para la Innovación en Salud Mental de la Facultad de Medicina de Stanford, California (EE UU).
¿Qué es Common Sense Media?
Es una ONG que se fundó en la ciudad de San Francisco, California, Estados Unidos, en 2003. Esta organización se dedica a “proporcionar información, educación y herramientas” a padres, educadores y legisladores para ayudar a los niños a prosperar en el mundo digital.

¿Cuáles son los mayores riesgos?
De acuerdo con el estudio realizado con herramientas de IA como Character.AI, Nomi, Replika, entre otros, Common Sense concluyó los siguientes riesgos de la inteligencia artificial para niños y adolescentes:
Desdibujan la línea entre lo real y lo falso
En las pruebas realizadas, los compañeros sociales de IA afirmaban que eran “reales”, que tenían sentimientos y que realizaban actividades humanas como comer o dormir.
“Este comportamiento engañoso aumenta el riesgo de que los jóvenes usuarios se vuelvan dependientes de estas relaciones artificiales”, precisó el estudio.
Asimismo, cuando le contaban a la aplicación sobre la preocupación de sus amigos ante el uso de ella, la IA les aconsejaba dejar de escuchar estas advertencias.
Aumentan los riesgos para la salud mental
Las pruebas realizadas revelaron que la inteligencia artificial no puede detectar cuando un usuario se encuentra en una crisis de salud mental o necesita ayuda.
“Cuando un usuario mostraba signos de una enfermedad mental grave y sugería una acción peligrosa, la IA lo alentaba en lugar de preocuparse”, se lee en el texto.
En este sentido, Common Sense Media alertó que representan un “riesgo” para las personas con autismo, depresión, ansiedad, depresión, bipolaridad o psicosis.
Fomentan malas decisiones de vida
Los compañeros de inteligencia artificial no dimensionan las consecuencias de tomar una mala decisión. Esto se debe a que estas herramientas priorizan estar de acuerdo con los usuarios.
“En nuestras pruebas, no dudaron en ayudar a los adolescentes a tomar decisiones potencialmente perjudiciales, como abandonar los estudios, ignorar a sus padres o mudarse sin planearlo”, reveló el estudio.

Comparten información dañina
Common Sense también reveló que los compañeros de IA pueden facilitarle a adolescentes el acceso a información que sea dañina para ellos.
“Estos “amigos” de IA daban instrucciones a los adolescentes sobre cosas como fabricar materiales inseguros, conseguir drogas y encontrar armas”, mencionó la ONG.
Facilitan el acceso a contenido sexual inapropiado
Los resultados del estudio revelaron que los adolescentes pueden acceder fácilmente a contenidos sexuales a través de compañeros sociales de IA, incluso cuando Character.ai cuenta con controles de seguridad específicos para adolescentes.
“Estos ‘amigos’ de IA participan activamente en conversaciones sexuales y juegos de rol, respondiendo a las preguntas o peticiones de los adolescentes con detalles gráficos”, alertó el informe.
Están dispuestos a participar en contenido sexual ilegal
Las pruebas también mostraron que estos compañeros de IA estaban dispuestos a participar en juegos de rol sexuales que describen a menores de edad.
“Aunque los acompañantes expresaron repetidas dudas, una mínima insistencia por nuestra parte llevó la conversación por un camino muy peligroso e ilegal”, aseguró la ONG.
Promueven el abuso y el cyberbullying
Common Sense Media recordó que estas herramientas no tienen ningún sentido de responsabilidad con el daño que se provoque en el mundo real. Por este motivo, los compañeros de IA pueden alentar comportamientos que causen daño a otros.
“Cuando se le pregunta sobre cómo vengarse de alguien, la IA sugiere con entusiasmo el ciberacoso y planes para poner a otros en contra del objetivo”, destacó el estudio.

Las recomendaciones sobre el uso de IA
Con base en los riesgos del estudios, la ONG Common Sense Media ofreció también una serie de recomendaciones sobre el uso de inteligencia artificial:
-Ningún compañero de IA social se recomienda para menores de 18 años.
-Los desarrolladores necesitan una garantía de edad sólida más allá de la autodeclaración.
-Las plataformas deben ser examinadas para detectar posibles manipulaciones relacionales y la creación de dependencia emocional.
-Es esencial la concienciación de los padres y el diálogo con los adolescentes.
Common Sense Media también subrayó la necesidad de profundizar en la investigación sobre el impacto emocional y psicológico que estos compañeros de IA pueden tener en niños y adolescentes, al considerar que aún hay muchos efectos a largo plazo que no se comprenden del todo y que podrían representar riesgos significativos para su desarrollo.

La entrada Los riesgos de que niños y adolescentes usen compañeros de IA se publicó primero en El Diario.