BEGIN:VCALENDAR
PRODID:-//Grails iCalendar plugin//NONSGML Grails iCalendar plugin//EN
VERSION:2.0
CALSCALE:GREGORIAN
METHOD:PUBLISH
BEGIN:VEVENT
DTSTAMP:20260411T142234Z
DTSTART;TZID=Europe/Madrid:20260220T170000
DTEND;TZID=Europe/Madrid:20260220T170000
SUMMARY:Growing Up with AI: Developmental Perspectives on Cognition and Affect
UID:20260415T132357Z-iCalPlugin-Grails@philevents-web-f5d4878dd-dnjxp
TZID:Europe/Madrid
LOCATION: C. de Albasanz\, 26\, Madrid\, Spain\, 28037 
DESCRIPTION:<p><strong><em>Call for Papers</em></strong></p>\n<p><em>Growing Up with AI: Developmental Perspectives on Cognition and Affect</em></p>\n<p><strong>International research workshop</strong><br><strong>Location: </strong>IFS\, CSIC (Madrid\, Spain).<br><strong>Date:</strong> June 23 &amp\; 24\, 2026<br><strong>Submission Deadline: </strong>February 20\, 2026</p>\n<p><strong>Notification of Acceptance:&nbsp\; </strong>March 10\, 2026</p>\n<p><strong>Organizers</strong>: Gloria Andrada\, Txetxu Aus&iacute\;n y Astrid Wagner</p>\n<p><strong>Keynote speakers:</strong></p>\n<ul>\n<li><strong>Helena Matute </strong>Professor of Psychology (University of Deusto\, Bilbao)</li>\n<li><strong>Robert W. Clowes\, </strong>Senior Researcher (Ruhr-University Bochum and IfilNOVA)</li>\n</ul>\n<p>Workshop overview (English)</p>\n<p>We are living in environments increasingly populated by digital technologies&mdash\;smartphones\, smart homes\, voice assistants\, digital companions\, and generative AIs capable of writing essays\, answering questions\, and even simulating emotional interactions. These technologies are no longer just tools\; they are part of the everyday developmental landscape in which children and young people grow up.</p>\n<p>This workshop aims to explore the cognitive and affective consequences of developing in such AI-saturated environments. How do these technologies shape thinking\, knowing and feeling? What are the risks\, and what are the opportunities?</p>\n<p>On the cognitive side\, concerns have been raised about issues such as cognitive debt (Menon et al.&rsquo\;s (2025) and metacognitive laziness (Fan et al. 2024). <em>Cognitive debt</em> refers to the accumulation of missed opportunities to practice and develop our own thinking skills when we rely too heavily on external tools like AI. <em>Metacognitive laziness</em> means failing to reflect on or monitor our own thinking processes\, often leading to uncritical reliance on AI. For example\, recent studies on generative writing tools show that while they can improve short-term productivity\, they may reduce deeper engagement with one&rsquo\;s own reasoning&mdash\;potentially weakening metacognitive development.</p>\n<p>At the same time\, AI technologies hold promise for supporting self-directed learning and scaffolding cognitive growth&mdash\;if used wisely. This leads us to a central challenge: AI tools increasingly require users to exercise higher-order thinking to evaluate\, monitor\, and guide their outputs. But how can these higher-order abilities be developed in a context where first-order cognitive tasks are often offloaded to machines? What kinds of cultural practices and pedagogical approaches are needed to ensure that children and young people develop the critical and reflective capacities to thrive? How can we promote the development of abilities that can monitor and evaluate AI outputs?</p>\n<p>Parallel questions arise in the affective domain. What emotional patterns are emerging in children and adolescents growing up with AI companions and assistants? What kinds of attachments\, dependencies\, or emotional expectations are being formed?</p>\n<p>Recent studies raise both possibilities and concerns as emotional overreliance on AI companions impacts real-life emotional development. Among teenagers\, for instance\, recent surveys show that over 30% of users report confiding more in AI than in people\, and some report forming romantic or emotionally dependent relationships with chatbots. These "frictionless" relationships free of conflict\, misunderstanding\, or emotional complexity\, may reduce young people's tolerance for the challenges of real human interaction and weaken their emotional resilience.</p>\n<p>So a key question is: How can we promote healthy emotional development in an environment where children may increasingly turn to synthetic companions for comfort\, validation\, and even intimacy? What emotions predominate in these relationships\, and how can we shape cultural and educational practices to support their well-being?</p>\n<p>This workshop aims to bring together different researchers (e.g.\, philosophers\, cognitive scientists\, educators and developmental psychologists) to reflect critically on these questions. Our goal is not only to assess and understand the risks but also to explore the transformative potential of AI in human development&mdash\;both cognitively and affectively&mdash\;and to begin articulating the practices\, norms\, and pedagogies that might guide us forward.</p>\n<p><strong>Key workshop questions:&nbsp\;</strong></p>\n<ul>\n<li>How do and will&nbsp\; GENAI tools shape the development of cognitive abilities?</li>\n<li>What emotional patterns and attachments emerge from interactions with LLMS?</li>\n<li>What cultural and pedagogical practices can support healthy development in AI-saturated environments?</li>\n<li>How can we promote the development of skills that enable the effective use and design of environments with AI technologies?</li>\n</ul>\n<p><strong>Topics of Interest Include (but are not limited to):</strong></p>\n<ul>\n<li>AI- Cognitive offloading and its long-term developmental consequences</li>\n<li>AI and the development of metacognitive and critical thinking skills</li>\n<li>Emotional bonding with AI companions: risks and affordances in children and teenagers</li>\n<li>The role of AI in self-directed learning and educational scaffolding</li>\n<li>Philosophical perspectives on artificial intimacy and self-identity formation</li>\n<li>Designing AI for healthy cognitive and affective development</li>\n<li>Cultural practices and pedagogical innovations for AI-rich environments</li>\n<li>Ethical challenges in AI-mediated emotional development</li>\n<li>Development of cognitive skills for an ethical AI</li>\n</ul>\n<p><strong>Submission Details</strong></p>\n<p>We invite <strong>abstracts of 1000 words</strong> for presentations (40 minutes + 20 minutes Q&amp\;A). Submissions should clearly state the main argument\, method\, and relevance to the workshop themes.</p>\n<ul>\n<li><strong>Number of slots available:</strong> 8</li>\n<li><strong>Deadline for submission: </strong>Feb 20\, 2026</li>\n<li><strong>Notification of acceptance: </strong>March 10\, 2026</li>\n<li><strong>Submission format:</strong> PDF\, anonymized\, submitted via email</li>\n<li><strong>Languages</strong>: English and Spanish</li>\n<li><strong>Contact:</strong> Gloria Andrada (<a href="mailto:gloria.andrada@cchs.csic.es">gloria.andrada@cchs.csic.es</a>)</li>\n</ul>\n<p><strong>__________________________________________________________________</strong></p>\n<p><strong>In Spanish:</strong></p>\n<p><strong><em>Llamada a la participaci&oacute\;n</em></strong></p>\n<p><em>Crecer con IA: Perspectivas sobre el desarrollo cognitivo y afectivo</em></p>\n<p><em></em><strong>Taller internacional de investigaci&oacute\;n</strong></p>\n<p><strong>Lugar:</strong> IFS\, CSIC (Madrid\, Espa&ntilde\;a).<br><strong>Fechas:</strong> 23- 24 junio\, 2026<br><strong>Fecha l&iacute\;mite para env&iacute\;o de propuestas:</strong> 20 de febrero de 2026<br><strong>Notificaci&oacute\;n de aceptaci&oacute\;n:</strong> 10 de marzo de 2026</p>\n<p><strong>Organizadores</strong>: Gloria Andrada\, Txetxu Aus&iacute\;n y Astrid Wagner</p>\n<p><br><strong>Ponentes principales:</strong></p>\n<ul>\n<li><strong>Helena Matute&nbsp\;</strong>Catedr&aacute\;tica de Psicolog&iacute\;a (Universidad de Deusto\, Bilbao)</li>\n<li><strong>Robert W. Clowes\,&nbsp\;</strong>Senior Researcher (Ruhr-University Bochum e IfilNOVA)</li>\n</ul>\n<p><strong>Resumen del Taller</strong></p>\n<p>Vivimos en entornos cada vez m&aacute\;s poblados por tecnolog&iacute\;as digitales&mdash\;tel&eacute\;fonos inteligentes\, hogares inteligentes\, asistentes de voz\, y cada vez m&aacute\;s&nbsp\; IAs generativas capaces de redactar ensayos\, responder preguntas e incluso simular interacciones emocionales. Estas tecnolog&iacute\;as ya no son s&oacute\;lo herramientas\; forman parte del paisaje cotidiano del desarrollo en el que crecen ni&ntilde\;os\, ni&ntilde\;as y j&oacute\;venes.</p>\n<p>Este taller tiene como objetivo explorar las consecuencias cognitivas y afectivas de desarrollarse en estos entornos saturados de IA. &iquest\;C&oacute\;mo moldean estas tecnolog&iacute\;as la forma de pensar\, conocer y sentir? &iquest\;Cu&aacute\;les son los riesgos y cu&aacute\;les son las oportunidades?</p>\n<p>En el &aacute\;mbito cognitivo\, se han planteado preocupaciones sobre fen&oacute\;menos como la deuda cognitiva (Menon et al.\, 2025) y la pereza metacognitiva (Fan et al.\, 2024). La deuda cognitiva se refiere a la acumulaci&oacute\;n de oportunidades perdidas para practicar y desarrollar nuestras propias habilidades de pensamiento al depender en exceso de herramientas externas como de IA. Por otro lado\, la pereza metacognitiva implica no reflexionar ni supervisar nuestros propios procesos de pensamiento\, lo que a menudo conduce a una dependencia acr&iacute\;tica de la IA. Por ejemplo\, estudios recientes sobre IAs generativas dedicadas a la generaci&oacute\;n de texto muestran que\, si bien pueden mejorar la productividad a corto plazo\, tambi&eacute\;n pueden reducir el compromiso profundo con el propio razonamiento\, debilitando potencialmente el desarrollo metacognitivo.</p>\n<p>Al mismo tiempo\, las tecnolog&iacute\;as de IA tienen potencial para apoyar el aprendizaje autodirigido y servir como un andamiaje interesante para el crecimiento cognitivo\, si se utilizan con criterio. Esto nos lleva a un desaf&iacute\;o central: las herramientas de IA requieren cada vez m&aacute\;s que los usuarios ejerzan habilidades de pensamiento de orden superior para evaluar\, monitorear y guiar sus resultados. Pero &iquest\;c&oacute\;mo se desarrollan estas habilidades de orden superior en un contexto donde las tareas cognitivas de primer orden suelen delegarse a las m&aacute\;quinas? &iquest\;Qu&eacute\; tipos de pr&aacute\;cticas culturales y enfoques pedag&oacute\;gicos se necesitan para asegurar que ni&ntilde\;os\, ni&ntilde\;as y j&oacute\;venes desarrollen las capacidades cr&iacute\;ticas y reflexivas necesarias para su desarrollo cognitivo y para un buen manejo y dise&ntilde\;o de la IA?</p>\n<p>Surgen preguntas paralelas en el &aacute\;mbito afectivo. &iquest\;Qu&eacute\; patrones emocionales est&aacute\;n surgiendo en ni&ntilde\;os\, ni&ntilde\;as y adolescentes que crecen con asistentes de IA? &iquest\;Qu&eacute\; tipos de v&iacute\;nculos\, dependencias o expectativas emocionales se est&aacute\;n formando?</p>\n<p>Estudios recientes plantean tanto posibilidades como preocupaciones. La dependencia emocional excesiva en la IA puede impactar negativamente en su desarrollo emocional. Entre adolescentes\, por ejemplo\, encuestas recientes muestran que m&aacute\;s del 30% de los usuarios afirman confiar m&aacute\;s en la IA que en las personas\, y algunos reportan formar relaciones rom&aacute\;nticas o de dependencia emocional con chatbots. Estas relaciones &ldquo\;sin fricci&oacute\;n&rdquo\;\, es decir\, libres de conflicto\, malentendidos o complejidad emocional podr&iacute\;an reducir la tolerancia de los j&oacute\;venes a los desaf&iacute\;os de la interacci&oacute\;n humana real y debilitar su desarrollo emocional.</p>\n<p>Entonces\, una pregunta clave es: &iquest\;C&oacute\;mo podemos promover un desarrollo emocional saludable en un entorno donde los ni&ntilde\;os y ni&ntilde\;as pueden recurrir cada vez m&aacute\;s a compa&ntilde\;eros sint&eacute\;ticos para obtener consuelo\, validaci&oacute\;n e incluso intimidad? &iquest\;Qu&eacute\; emociones predominan en estas relaciones\, y c&oacute\;mo podemos moldear las pr&aacute\;cticas culturales y educativas para apoyar su bienestar?</p>\n<p>Este taller pretende reunir a diferentes investigadores/as para reflexionar cr&iacute\;ticamente sobre estas cuestiones. Nuestro objetivo no es s&oacute\;lo evaluar y comprender los riesgos\, sino tambi&eacute\;n explorar el potencial transformador de la IA en el desarrollo humano\, tanto a nivel cognitivo como afectivo\, y comenzar a articular las pr&aacute\;cticas\, normas y pedagog&iacute\;as que podr&iacute\;an guiarnos hacia adelante.</p>\n<p><strong>Preguntas clave:</strong></p>\n<ul>\n<li>&iquest\;C&oacute\;mo influyen y seguir&aacute\;n influyendo las herramientas de IA generativa en el desarrollo de las habilidades cognitivas y afectivas?</li>\n<li>&iquest\;Qu&eacute\; patrones emocionales y v&iacute\;nculos emergen de las interacciones con modelos de lenguaje?</li>\n<li>&iquest\;Qu&eacute\; pr&aacute\;cticas culturales y pedag&oacute\;gicas pueden apoyar un desarrollo saludable en entornos saturados de IA?</li>\n<li>&iquest\;C&oacute\;mo podemos promover el desarrollo de habilidades que permitan un futuro donde predomine un buen uso y dise&ntilde\;o de ambientes con tecnolog&iacute\;as de IA?</li>\n</ul>\n<p><strong>Algunos temas de inter&eacute\;s:</strong></p>\n<ul>\n<li>IA\, descarga cognitiva y sus consecuencias a largo plazo en el desarrollo</li>\n<li>IA y el desarrollo del pensamiento metacognitivo y cr&iacute\;tico</li>\n<li>V&iacute\;nculos emocionales con asistentes de IA: riesgos y posibilidades en ni&ntilde\;os\, ni&ntilde\;as y adolescentes</li>\n<li>El papel de la IA en el aprendizaje autodirigido y en la educaci&oacute\;n</li>\n<li>Perspectivas filos&oacute\;ficas sobre la intimidad artificial y la formaci&oacute\;n de la identidad</li>\n<li>Dise&ntilde\;o de IA para un desarrollo cognitivo y afectivo saludable</li>\n<li>Pr&aacute\;cticas culturales e innovaciones pedag&oacute\;gicas en entornos ricos en IA</li>\n<li>Desaf&iacute\;os &eacute\;ticos en el desarrollo emocional mediado por IA</li>\n<li>Desarrollo de habilidades para una IA &eacute\;tica</li>\n</ul>\n<p><strong>Detalles de la convocatoria:</strong></p>\n<p>Se invita al env&iacute\;o de <strong>res&uacute\;menes de 1000 palabras</strong> para presentaciones de <strong>40 minutos + 20 minutos de discusi&oacute\;n</strong>.</p>\n<p>Las propuestas deben exponer claramente el <strong>argumento</strong> principal\, la <strong>metodolog&iacute\;a</strong> empleada y la <strong>relevancia</strong> para los temas del taller.</p>\n<ul>\n<li><strong>N&uacute\;mero de plazas disponibles:</strong> 8</li>\n<li><strong>Fecha l&iacute\;mite de env&iacute\;o:</strong> 20 de febrero de 2026</li>\n<li><strong>Notificaci&oacute\;n de aceptaci&oacute\;n:</strong> 10 de marzo de 2026</li>\n<li><strong>Formato de env&iacute\;o:</strong> PDF\, anonimizado\, a trav&eacute\;s de correo electr&oacute\;nico.</li>\n<li><strong>Idiomas de la convocatoria:</strong> ingl&eacute\;s y castellano</li>\n<li><strong>Contacto:</strong> Gloria Andrada (gloria.andrada@cchs.csic.es)</li>\n</ul>
ORGANIZER;CN=Gloria Andrada;CN=Txetxu Ausin;CN=Astrid Wagner:
METHOD:PUBLISH
END:VEVENT
END:VCALENDAR
