CFP: Growing Up with AI: Developmental Perspectives on Cognition and Affect
Submission deadline: February 20, 2026
Conference date(s):
June 23, 2026 - June 24, 2026
Conference Venue:
Instituto de Filosofía, CSIC, Spain
Madrid,
Spain
Details
Call for Papers
Growing Up with AI: Developmental Perspectives on Cognition and Affect
International research workshop
Location: IFS, CSIC (Madrid, Spain).
Date: June 23 & 24
Submission Deadline: February 20, 2025
Notification of Acceptance: March 10, 2026
Organizers: Gloria Andrada, Txetxu Ausín y Astrid Wagner
Keynote speakers to be confirmed
Workshop overview (English)
We are living in environments increasingly populated by digital technologies—smartphones, smart homes, voice assistants, digital companions, and generative AIs capable of writing essays, answering questions, and even simulating emotional interactions. These technologies are no longer just tools; they are part of the everyday developmental landscape in which children and young people grow up.
This workshop aims to explore the cognitive and affective consequences of developing in such AI-saturated environments. How do these technologies shape thinking, knowing and feeling? What are the risks, and what are the opportunities?
On the cognitive side, concerns have been raised about issues such as cognitive debt (Menon et al.’s (2025) and metacognitive laziness (Fan et al. 2024). Cognitive debt refers to the accumulation of missed opportunities to practice and develop our own thinking skills when we rely too heavily on external tools like AI. Metacognitive laziness means failing to reflect on or monitor our own thinking processes, often leading to uncritical reliance on AI. For example, recent studies on generative writing tools show that while they can improve short-term productivity, they may reduce deeper engagement with one’s own reasoning—potentially weakening metacognitive development.
At the same time, AI technologies hold promise for supporting self-directed learning and scaffolding cognitive growth—if used wisely. This leads us to a central challenge: AI tools increasingly require users to exercise higher-order thinking to evaluate, monitor, and guide their outputs. But how can these higher-order abilities be developed in a context where first-order cognitive tasks are often offloaded to machines? What kinds of cultural practices and pedagogical approaches are needed to ensure that children and young people develop the critical and reflective capacities to thrive? How can we promote the development of abilities that can monitor and evaluate AI outputs?
Parallel questions arise in the affective domain. What emotional patterns are emerging in children and adolescents growing up with AI companions and assistants? What kinds of attachments, dependencies, or emotional expectations are being formed?
Recent studies raise both possibilities and concerns as emotional overreliance on AI companions impacts real-life emotional development. Among teenagers, for instance, recent surveys show that over 30% of users report confiding more in AI than in people, and some report forming romantic or emotionally dependent relationships with chatbots. These "frictionless" relationships free of conflict, misunderstanding, or emotional complexity, may reduce young people's tolerance for the challenges of real human interaction and weaken their emotional resilience.
So a key question is: How can we promote healthy emotional development in an environment where children may increasingly turn to synthetic companions for comfort, validation, and even intimacy? What emotions predominate in these relationships, and how can we shape cultural and educational practices to support their well-being?
This workshop aims to bring together philosophers, cognitive scientists, educators and developmental psychologists to reflect critically on these questions. Our goal is not only to assess and understand the risks but also to explore the transformative potential of AI in human development—both cognitively and affectively—and to begin articulating the practices, norms, and pedagogies that might guide us forward.
Key workshop questions:
- How do and will GENAI tools shape the development of cognitive abilities?
- What emotional patterns and attachments emerge from interactions with LLMS?
- What cultural and pedagogical practices can support healthy development in AI-saturated environments?
- How can we promote the development of skills that enable the effective use and design of environments with AI technologies?
Topics of Interest Include (but are not limited to):
- AI- Cognitive offloading and its long-term developmental consequences
- AI and the development of metacognitive and critical thinking skills
- Emotional bonding with AI companions: risks and affordances in children and teenagers
- The role of AI in self-directed learning and educational scaffolding
- Philosophical perspectives on artificial intimacy and self-identity formation
- Designing AI for healthy cognitive and affective development
- Cultural practices and pedagogical innovations for AI-rich environments
- Ethical challenges in AI-mediated emotional development
- Development of cognitive skills for an ethical AI
Submission Details
We invite abstracts of 1000 words for presentations (40 minutes + 20 minutes Q&A). Submissions should clearly state the main argument, method, and relevance to the workshop themes.
- Number of slots available: 8
- Deadline for submission: Feb 20, 2026
- Notification of acceptance: March 10, 2026
- Submission format: PDF, anonymized, submitted via email (insert workshop email)
- Languages: English and Spanish
- Keynote speakers to be confirmed
- Contact: Gloria Andrada ([email protected])
In Spanish:
Llamada a la participación
Crecer con IA: Perspectivas sobre el desarrollo cognitivo y afectivo
Taller internacional de investigación
Lugar: IFS, CSIC (Madrid, España).
Fechas: 23- 24 junio, 2026
Fecha límite para envío de propuestas: 20 de febrero de 2026
Notificación de aceptación: 10 de marzo de 2026
Organizadores: Gloria Andrada, Txetxu Ausín y Astrid Wagner
Ponentes principales por confirmar
Resumen del Taller
Vivimos en entornos cada vez más poblados por tecnologías digitales—teléfonos inteligentes, hogares inteligentes, asistentes de voz, y cada vez más IAs generativas capaces de redactar ensayos, responder preguntas e incluso simular interacciones emocionales. Estas tecnologías ya no son sólo herramientas; forman parte del paisaje cotidiano del desarrollo en el que crecen niños, niñas y jóvenes.
Este taller tiene como objetivo explorar las consecuencias cognitivas y afectivas de desarrollarse en estos entornos saturados de IA. ¿Cómo moldean estas tecnologías la forma de pensar, conocer y sentir? ¿Cuáles son los riesgos y cuáles son las oportunidades?
En el ámbito cognitivo, se han planteado preocupaciones sobre fenómenos como la deuda cognitiva (Menon et al., 2025) y la pereza metacognitiva (Fan et al., 2024). La deuda cognitiva se refiere a la acumulación de oportunidades perdidas para practicar y desarrollar nuestras propias habilidades de pensamiento al depender en exceso de herramientas externas como de IA. Por otro lado, la pereza metacognitiva implica no reflexionar ni supervisar nuestros propios procesos de pensamiento, lo que a menudo conduce a una dependencia acrítica de la IA. Por ejemplo, estudios recientes sobre IAs generativas dedicadas a la generación de texto muestran que, si bien pueden mejorar la productividad a corto plazo, también pueden reducir el compromiso profundo con el propio razonamiento, debilitando potencialmente el desarrollo metacognitivo.
Al mismo tiempo, las tecnologías de IA tienen potencial para apoyar el aprendizaje autodirigido y servir como un andamiaje interesante para el crecimiento cognitivo, si se utilizan con criterio. Esto nos lleva a un desafío central: las herramientas de IA requieren cada vez más que los usuarios ejerzan habilidades de pensamiento de orden superior para evaluar, monitorear y guiar sus resultados. Pero ¿cómo se desarrollan estas habilidades de orden superior en un contexto donde las tareas cognitivas de primer orden suelen delegarse a las máquinas? ¿Qué tipos de prácticas culturales y enfoques pedagógicos se necesitan para asegurar que niños, niñas y jóvenes desarrollen las capacidades críticas y reflexivas necesarias para su desarrollo cognitivo y para un buen manejo y diseño de la IA?
Surgen preguntas paralelas en el ámbito afectivo. ¿Qué patrones emocionales están surgiendo en niños, niñas y adolescentes que crecen con asistentes de IA? ¿Qué tipos de vínculos, dependencias o expectativas emocionales se están formando?
Estudios recientes plantean tanto posibilidades como preocupaciones. La dependencia emocional excesiva en la IA puede impactar negativamente en su desarrollo emocional. Entre adolescentes, por ejemplo, encuestas recientes muestran que más del 30% de los usuarios afirman confiar más en la IA que en las personas, y algunos reportan formar relaciones románticas o de dependencia emocional con chatbots. Estas relaciones “sin fricción”, es decir, libres de conflicto, malentendidos o complejidad emocional podrían reducir la tolerancia de los jóvenes a los desafíos de la interacción humana real y debilitar su desarrollo emocional.
Entonces, una pregunta clave es: ¿Cómo podemos promover un desarrollo emocional saludable en un entorno donde los niños y niñas pueden recurrir cada vez más a compañeros sintéticos para obtener consuelo, validación e incluso intimidad? ¿Qué emociones predominan en estas relaciones, y cómo podemos moldear las prácticas culturales y educativas para apoyar su bienestar?
Este taller pretende reunir a filósofas/os, científicas/os cognitivos, educadores y psicólogas/os del desarrollo para reflexionar críticamente sobre estas cuestiones. Nuestro objetivo no es sólo evaluar y comprender los riesgos, sino también explorar el potencial transformador de la IA en el desarrollo humano, tanto a nivel cognitivo como afectivo, y comenzar a articular las prácticas, normas y pedagogías que podrían guiarnos hacia adelante.
Preguntas clave:
- ¿Cómo influyen y seguirán influyendo las herramientas de IA generativa en el desarrollo de las habilidades cognitivas y afectivas?
- ¿Qué patrones emocionales y vínculos emergen de las interacciones con modelos de lenguaje?
- ¿Qué prácticas culturales y pedagógicas pueden apoyar un desarrollo saludable en entornos saturados de IA?
- ¿Cómo podemos promover el desarrollo de habilidades que permitan un futuro donde predomine un buen uso y diseño de ambientes con tecnologías de IA?
Algunos temas de interés:
- IA, descarga cognitiva y sus consecuencias a largo plazo en el desarrollo
- IA y el desarrollo del pensamiento metacognitivo y crítico
- Vínculos emocionales con asistentes de IA: riesgos y posibilidades en niños, niñas y adolescentes
- El papel de la IA en el aprendizaje autodirigido y en la educación
- Perspectivas filosóficas sobre la intimidad artificial y la formación de la identidad
- Diseño de IA para un desarrollo cognitivo y afectivo saludable
- Prácticas culturales e innovaciones pedagógicas en entornos ricos en IA
- Desafíos éticos en el desarrollo emocional mediado por IA
- Desarrollo de habilidades para una IA ética
Detalles de la convocatoria:
Se invita al envío de resúmenes de 1000 palabras para presentaciones de 40 minutos + 20 minutos de discusión.
Las propuestas deben exponer claramente el argumento principal, la metodología empleada y la relevancia para los temas del taller.
- Número de plazas disponibles: 8
- Fecha límite de envío: 20 de febrero de 2026
- Notificación de aceptación: 10 de marzo de 2026
- Formato de envío: PDF, anonimizado, a través de correo electrónico.
- Idiomas de la convocatoria: inglés y español
- Habrá dos charlas plenarias que confirmaremos más adelante.
- Contacto: Gloria Andrada ([email protected])