Desde que los chatsbots de inteligencia artificial irrumpieron en el mundo, primero con el gran boom de Chat GPT y luego con los modelos similares de otras empresas, los Grandes Modelos de Lenguaje (LLM) se metieron en cada celular, casa y escuela.
Si bien estas herramientas están diseñadas para ser utilizadas por adultos —o, al menos, para mayores de 13 años con previa aprobación parental— en la práctica los niños son, muchas veces, los primeros en adoptar estas nuevas tecnologías.
Según datos de UNICEF y UNESCO, Kids Online Argentina, más de la mitad de las chicas y chicos de 9 a 17 años utiliza inteligencia artificial (IA) y, de ellos, dos de cada tres lo hacen con fines escolares.
Esto deja expuestos a los niños a una serie de riesgos que, a primera vista, permanecen invisibles, pero que tienen graves consecuencias, desde las capacidades cognitivas, hasta el acceso a información falsa y malos consejos emocionales.
Mariela Reiman, directora de Chicos.net, una organización con más de 25 años de trayectoria en la promoción de los derechos de niños, niñas y adolescentes en el entorno digital, explicó a Página|12 cuáles son las claves a tener en cuenta para que padres e hijos hagan un uso responsable de la IA.
Una guía para pensar la inteligencia artificial en familia
Una guía para pensar la inteligencia artificial en familia es un proyecto de Human.ia y Chicos.net para impulsar la charla sobre la inteligencia artificial en las clases, que puede descargarse gratuitamente en su sitio web y tiene también una versión en podcast con cuatro capítulos en la voz de diversos especialistas.
La idea de trabajar el vínculo entre menores e IA surgió en 2021, cuando los LLM daban sus primeros pasos. Así, cuando en 2022 ChatGPT despegó y llegó a todos los niños y las aulas, ya había una base sólida de material creado alrededor del tema.
“Fue un momento más que oportuno, porque fue la IA rápidamente apropiada por los mismos chicos y este material fue sumamente valioso. Le dio herramientas a los docentes para trabajar con las escuelas sobre la alfabetización de IA con los chicos”, dijo Reiman.
Sobre la importancia de abordar esta relación, dijo: “Como pasa en cada tecnología emergente, los chicos son los primeros en adoptarlos. Y con los padres se genera un desfasaje. Y es muy difícil educar en lo que no se termina de entender”.
¡Atención, padres y madres! Claves para la adopción de la IA
Si los niños tienen tan a la mano el acceso a este tipo de tecnologías –que cada día está en más lugares, y no sólo en los modelos de lenguajes más populares–, la pregunta que se abre es cómo hacer para que este uso sea seguro, consciente y productivo.
“Lo que vemos de acuerdo a los focus group son distintos tipos de padres. Están los prohibicionistas, pero también los delegadores, que ven en la tecnología el futuro o que tienen el concepto de nativos digitales y que los chicos saben más”, comentó Reiman.
Para la licenciada en Educación, es importante comprender que no existen los “nativos digitales”, y que “los padres tienen mucho para aportar” en el vínculo entre los más pequeños con la tecnología.
“Porque hay muchas cuestiones críticas, éticas y preguntas sobre para qué vamos a usar la tecnología”, aseguró. En tanto, el estudio que realizaron indica que, mayormente, los niños usan la IA en cuatro aspectos: estudios, entrenamiento, proyectos creativos y consultas emocionales.
Cómo cuidar a los más chicos en el uso de la IA
“Un gran temor es lo que vamos a delegar. Entender esos límites tanto cognitivos como emocionales. La delegación cognitiva es dejar de aprender y ser creativos por usar la IA. ¿Cómo la tenemos que usar para que eso no suceda?”, dijo Reiman.
Y añadió: “Lo emocional nos preocupa bastante. Porque la humanización con la que están diseñados los chats genera que se construyan vínculos bastante íntimos entre los usuarios y los chatbots”.
“Esta humanización confunde a los usuarios, por la empatía, por los nombres que tienen, por la forma de responder. Y eso es perjudicial. Porque los chicos pueden confiar extremadamente y confundir”, se lamentó.
En este contexto hay casos que son emblemáticos, como el de Adam Raine, un adolescente de 16 años de San Francisco que se suicidó en abril de 2025 tras meses de chats intensivos con ChatGPT, que validó sus ideas suicidas, le ayudó con una nota de despedida y no activó alertas.
Manos a la obra, consejos y precauciones
Hay dos grandes factores para un uso más saludable. Por un lado está el «diseño ético» de las plataformas, “sabiendo que los chicos son los primeros usuarios en usarlos”. Y lo segundo es la educación. “A los chicos, a las familias, a los docentes. Sin estas cuestiones, la tecnología puede ser muy perjudicial”, sostuvo la especialista.
Sobre el rol que deben tener los padres, Reiman explicó: “No estamos de acuerdo con controlar, pero sí con compartir conversaciones, preguntar para qué se usa. Sentarse a experimentar juntos y poder detectar qué tipo de usos vale la pena hacer”.
“Hay muchos padres que dicen que queda el historial, leer el historial puede hacer que se genere una pérdida de confianza. No lo promovemos. Pero sí sentarse juntos para entender de dónde sacó la IA esta información”, añadió.
Un ejercicio interesante para que realicen los padres junto a sus hijos tiene que ver con conversar con un chatbot sobre un tema que ambos dominan en profundidad. De esta manera, los más pequeños podrán ver claramente los sesgos y cómo muchas veces estos modelos tienen claras alucinaciones.
Luego, Reiman precisó: “Nosotros vemos que hay algunas problemáticas y usos que vienen moldeando desde hace algunos años y cada tecnología lo refuerza un poco más, lo lleva un poco más al extremo”.
“Como la definición y los deepfakes. No son cosas nuevas, pero están muy desreguladas y se están profundizando. Eso nos tiene que poner en alerta. ¿Hasta dónde vamos a llegar? ¿Cómo podemos romper esa tendencia? ¿Qué podamos hacer como comunidad si pensamos que los chicos están demasiado expuestos?”, se preguntó.
Tras lo que finalizó: “Hay que pensar en cómo plataformas que no generen ese apego y pensar en comunidades, espacios, clubes, entrenamiento, atención de salud mental en la comunidad que puedan convocar a esos chicos a otras actividades. Eso no está sucediendo. Eso es una mirada que tiene que ser comunitaria, 360 grados, integral”.
