Alla sua seconda edizione, Futuramente è il festival che connette le nuove generazioni con il mondo della formazione, dell’innovazione e delle opportunità professionali. Con talk, panel interattivi ed experience immersive, il festival punta a ispirare e fornire strumenti concreti per costruire un domani più sostenibile ed equo.
Nel panel Intelligenza Artistica – l’IA etica al servizio del citizen journalism, l’artista visivo e giornalista IA Eman Rus mette in scena una lezione performativa unica: un’opera visuale creata in diretta a partire da un fatto di cronaca scelto dal pubblico, per riflettere sul ruolo delle IA nella narrazione pubblica e nel citizen journalism.
A seguire, con Metaversity: tecnologie immersive e IA per la scuola del futuro, l’Università Cattolica del Sacro Cuore apre le porte dei suoi laboratori immersivi, dove intelligenza artificiale, realtà virtuale e metaverso stanno trasformando l’insegnamento.
Ne parliamo con Sabrina Bartolotta, dottoranda in Psicologia presso l’Università Cattolica, che ci guida in questo doppio viaggio tra creatività digitale e trasformazione educativa.
Buongiorno, Sabrina. Il titolo del primo panel a cui hai preso parte è Intelligenza Artistica – l’IA etica al servizio del citizen journalism. Cosa significa “intelligenza artistica”? E in che modo questo concetto si differenzia da quello più comune di intelligenza artificiale?
Bellissima domanda!
Il concetto di intelligenza artistica può essere inteso come la capacità umana di esprimere e comprendere significati complessi attraverso linguaggi simbolici, estetici ed emotivi. È una forma di intelligenza che, secondo Howard Gardner (2000)1, può essere ricondotta all’intelligenza intrapersonale, visivo-spaziale e musicale, tutte coinvolte nella produzione e fruizione artistica.
A differenza dell’intelligenza artificiale (IA), che si fonda su algoritmi, dati e logiche predittive, l’intelligenza artistica è radicata nell’esperienza soggettiva, nell’intuizione e nella creatività situata.
Mentre l’IA può simulare processi artistici, ad esempio generando immagini o componendo musica, di per sé non possiede consapevolezza, intenzionalità o esperienza estetica.
L’intelligenza artistica, invece, è una manifestazione profondamente umana, che integra emozione, corporeità e cultura. Come ricorda Antonio Damasio (1999)2, il pensiero non può essere disgiunto dall’emozione e dal corpo: ciò che rende l’arte significativa è la sua capacità di evocare vissuti e per farlo bene serve avere la capacità di vivere.
1Gardner, H. E. (2000). Intelligence reframed: Multiple intelligences for the 21st century. Hachette UK.
2Damasio, A. R. (1999). How the brain creates the mind. Scientific American, 281(6), 112-117.
L’intelligenza artificiale sta rivoluzionando la narrazione pubblica. Quali sono le principali responsabilità etiche da tenere presenti?
L’impatto dell’intelligenza artificiale sulla narrazione pubblica solleva interrogativi etici profondi. Potremmo discuterne all’infinito, e probabilmente non sarebbe comunque abbastanza.
Uno dei temi che mi appassiona di più è quello dell’accountability algoritmica: chi è responsabile di ciò che viene generato da un’intelligenza artificiale? Se un contenuto è falso, fuorviante o potenzialmente dannoso, possiamo davvero attribuirne la responsabilità a una macchina?
Il punto centrale è che questi sistemi non sono neutrali. Apprendono da enormi moli di dati, spesso non supervisionati (cioè non controllati da esseri umani durante la fase di apprendimento). Sappiamo bene ormai che questo significa che possono assimilare, e amplificare, non solo errori, ma anche pregiudizi culturali, discriminazioni e stereotipi già presenti nei dati di partenza.
Di questo tema se ne parla già molto, per cui vorrei portare all’attenzione un nuovo tema.
Oggi l’intelligenza artificiale è in grado di generare testi, immagini e narrazioni con un livello di sofisticazione tale da renderle praticamente indistinguibili da quelle prodotte da esseri umani. Di fronte a questa realtà, credo che la nuova domanda dei prossimi anni sia: abbiamo gli strumenti per comprendere quali siano le intenzioni narrative dietro a contenuti generati con l’IA?
Domandona.
Dobbiamo sviluppare un’etica della trasparenza e della tracciabilità narrativa, ovvero sapere come è stato generato un contenuto, con quali dati, ma soprattutto con quale intento, che rappresenta una questione squisitamente umana.
Che ruolo può avere la formazione nel preparare le nuove generazioni all’uso consapevole dell’intelligenza artificiale nei processi creativi e informativi?
La formazione riveste un ruolo di primissimo piano nell’educare le nuove generazioni al pensiero critico, alla cittadinanza digitale e alla consapevolezza tecnologica. Non si tratta solo di acquisire competenze tecniche, ma di sviluppare una comprensione profonda dei fenomeni culturali e sociali connessi all’evoluzione tecnologica, in particolare all’intelligenza artificiale.
Oggi l’IA viene spesso presentata come uno strumento funzionale, utile a ottimizzare processi o generare contenuti. Tuttavia, ridurla a una dimensione puramente tecnica è limitante: l’intelligenza artificiale è anche, e soprattutto, un dispositivo culturale che modella i nostri immaginari, i nostri linguaggi e le nostre relazioni. Imparare a conviverci in modo consapevole implica non solo sapere come usarla, ma anche perché usarla, quando è opportuno farlo e con quali conseguenze. Abbiamo parlato proprio di questo con Eman Rus, artista e creativo, con cui ci siamo soffermati a riflettere sul concetto di “spazio di attesa” che precede la creazione di un contenuto. Il fatto che oggi si possa parlare di tutto e che, grazie all’IA, si possa potenzialmente fare qualsiasi cosa, non significa che si debba farla.
Direi che la vera competenza tecnologica risiede nella capacità di abitare le sfumature: saper scegliere criticamente tra possibilità diverse, riconoscere i rischi impliciti, distinguere tra ciò che è utile e ciò che è eticamente discutibile. Su questo terreno, a mio avviso, si discute ancora troppo poco. La formazione tende a rincorrere i trend, offrendo corsi e servizi spesso orientati al “fare”, ma raramente si sofferma sul pensare. Manca, in molti casi, una riflessione a monte di natura filosofica ed etica.
Parafrasando Paulo Freire, l’educazione autentica è quella che consente di leggere e riscrivere il mondo: oggi quel mondo è sempre più mediatizzato e algoritmico, e senza gli strumenti del pensiero critico, dell’etica e della filosofia, rischiamo di abitare le tecnologie senza comprenderle davvero. Una formazione completa non può quindi prescindere da una solida base umanistica.
Cosa sono i MetaLab e in che modo stanno trasformando l’esperienza universitaria all’interno di Metaversity? Ha riscontrato differenze nel coinvolgimento o nei risultati tra i percorsi didattici tradizionali e quelli svolti nei MetaLab?
All’interno del progetto triennale Metaversity, coordinato dal Prof. Andrea Gaggioli e che ho seguito sin dall’inizio del mio dottorato, abbiamo realizzato sedici MetaLab, coinvolgendo circa trecento studenti di diverse facoltà. I MetaLab sono ambienti di apprendimento immersivo in cui le tecnologie estese (XR), ovvero realtà virtuale, aumentata e intelligenza artificiale, si integrano con la didattica universitaria, rispondendo alle sfide poste dai profondi cambiamenti nel mercato del lavoro e nella società contemporanea.
Il progetto ci ha dato molte soddisfazioni. Da un punto di vista prettamente qualitativo, in questi laboratori abbiamo osservato un coinvolgimento emotivo significativamente superiore rispetto ai percorsi tradizionali. L’ambiente XR è in grado di stimolare partecipazione attiva, collaborazione e problem solving, in linea con la Experiential Learning Theorydi Kolb (1984) e la Transformative Learning Theory di Mezirow (1991).
Abbiamo voluto dare maggiore focus non sulla tecnologia in sé, ma sulla qualità dell’esperienza formativa: le attività immersive che abbiamo progettato, infatti, avevano lo scopo di centrare un preciso obiettivo didattico (siamo partiti da lì prima di decidere se e quale tecnologia implementare) per essere significative, accessibili e inclusive, anche per studenti con difficoltà o neurodivergenze.
Grazie all’esperienza dei MetaLab è stato sviluppato un modello pedagogico innovativo, il MetaLab Instructional Design Model, che pone al centro l’esperienza dello studente come leva per un apprendimento profondo e trasformativo. L’esperienza di Metaversity dimostra che, se supportate da una solida progettazione pedagogica, le tecnologie immersive possono rappresentare una risorsa chiave per l’università del futuro. Stiamo attualmente programmando delle pubblicazioni scientifiche sui risultati del progetto, motivo per cui possiamo mantenere aperto il dialogo.
Perché avete scelto Futuramente e Giffoni Innovation Hub?
Per come ho vissuto personalmente questa collaborazione (o, per usare un termine più pop, questo “crossover”), la scelta di lavorare con Futuramente e Giffoni Innovation Hub è nata e si è sviluppata dalla convergenza di visioni condivise: l’idea che l’innovazione tecnologica non esista in un mondo a sé stante, ma prenda forma all’interno di una comunità di persone, portatrici di opinioni e discrezionalità rispetto al suo utilizzo. Più in generale, credo fermamente che l’innovazione tecnologica debba essere orientata all’empowerment delle persone, soprattutto dei giovani, e alla costruzione di immaginari futuri più equi e sostenibili.
Credo che in questo evento si sia creato un piccolo ecosistema culturale che ha coinvolto artisti, accademici e appassionati del tema. Ho percepito in modo chiaro un’atmosfera partecipativa e inclusiva, che è, a mio avviso, l’unica condizione in cui le idee possono circolare e risuonare autenticamente.
Ringraziamo Sabrina Bartolotta per la sua disponibilità e per aver condiviso con noi queste riflessioni preziose e stimolanti.
Per non perdervi nessun contenuto, visitate il sito web di Futuramente 2025, dove troverete il video del livestreaming e le interviste agli altri ospiti dell’evento. Seguiteci anche su Spotify con Futuramente Podcast, presto disponibile.