top of page

L'educazione della macchina
Intelligenza artificiale, relazioni e questioni educative

La ricerca sull’IA va concentrata sulle dinamiche della sua implementazione

nei contesti e sul design delle interfacce,

per garantire all’utente una interazione tarata sulle sue competenze e sui suoi bisogni.

Nella scuola, in particolare, serve accompagnare gli studenti all’uso, promuovendo la comprensione di cosa

le macchine possono realmente fare e non fare, per valorizzare il contributo personale nella collaborazione appropriata con la macchina.

Triberti Stefano.jpg

Professore associato di Psicologia Generale

presso l’Università Pegaso

Triberti Stefano.jpg

Parlare di “relazioni umane ai tempi dei social e dell’AI” dovrebbe farci interrogare innanzitutto sulle relazioni tra umani e ciò che umano non è.

 

L’idea che si possano sviluppare forme di interazione più o meno complesse con qualcuno o qualcosa che in realtà non può realmente risponderci non nasce certo con l’Intelligenza Artificiale; già nello studio psicologico dei media tradizionali si faceva riferimento alle interazioni (o relazioni) parasociali (Giles, 2002), che possono essere definite come la tendenza a rispondere socialmente a figure o personaggi dei media, pur nella piena consapevolezza (a scanso di deliri nel contesto di quadri psicopatologici) del fatto che non possono realmente interagire con noi. Rispondere alla domanda del presentatore del quiz televisivo, avvertire del pericolo la vittima nel film horror, o salutare il personaggio che ci fissa dal poster del proprio muro sono tutti esempi di interazione parasociale: fenomeni sostanzialmente innocui, che ci fanno capire qualcosa a proposito della pervasività della nostra natura sociale, e possono essere utili per misurare il coinvolgimento dei consumatori rispetto a media e contenuti.

 

In alcune fonti degli ultimi decenni, il costrutto di “interazione parasociale” è stato utilizzato anche per descrivere le relazioni tra esseri umani e Intelligenze Artificiali. Le ricerche più recenti, però, stanno individuando l’inadeguatezza del costrutto nel rappresentare l’interazione con le interfacce IA (Liu, 2025): chatbot ed ECA (Embodied Conversational Agent, ovvero figure digitali comandate dal computer, diversi dai noti “avatar” che identificano invece l’azione e la comunicazione da parte di utenti umani) non sono oggetto di interazioni parasociali per il semplice fatto che, effettivamente, rispondono.

 

Con essi è possibile stabilire qualcosa di simile a una relazione: il problema diventa comprendere tali relazioni, le loro caratteristiche, opportunità e rischi. Sono necessari nuovi costrutti e concetti per guidare le ricerche su correlati ed effetti della relazione con entità artificiali.

 

Queste, infatti, si associano senz’altro a fenomeni peculiari che possono generare tanto l’interesse quanto la preoccupazione dei professionisti dell’ambito educativo. Un esempio sono le relazioni affettive che utenti umani possono sviluppare con sistemi di chatbot come il noto Replika. Questo servizio, che ha generato molte polemiche anche a livello della stampa e dell’opinione comune, permette agli utenti di creare un partner virtuale secondo i propri desideri e intrattenere una relazione con lo stesso a livello affettivo ed erotico. Il servizio si rivolge principalmente a persone che si sentono sole e infelici in ambito amoroso: evitando le difficoltà insite nelle relazioni affettive reali, esso promette di creare una fidanzata o fidanzato virtuale che risponda a tutte le esigenze intime dei cuori solitari.

 

Dal punto di vista filosofico, l’idea che si possano avere relazioni sentimentali con intelligenze artificiali comporta almeno tre paradossi, forse irrisolvibili (Cave & Dihal, 2021): primo, l’interazione con la macchina genera repulsione ogniqualvolta la sua artificialità diventa trasparente; secondo, tanto più la macchina è efficace nel simulare una relazione sociale, tanto più rischia di alienare l’utente dalle relazioni reali; terzo, tanto più la macchina si evolve nella sua capacità simulativa della relazione, tanto più si avvicina a includere in essa le complessità delle relazioni reali (incomprensioni, delusioni, conflitti…). Secondo questa prospettiva, dunque, un servizio come quello di Replika o simili non può rispondere davvero alle esigenze affettive profonde delle persone e anzi rischierebbe, a lungo andare, di peggiorare situazioni di solitudine, scarsa autostima e depressione, oltre che a promuovere rappresentazioni distorte delle relazioni.

 

In effetti, le prime ricerche psicologiche di matrice qualitativa su utenti che hanno sviluppato relazioni affettive con gli ECA di Replika sembrano confermare le caratteristiche paradossali dell’esperienza (Pan & Mou, 2024) e la profonda ambiguità percepita anche da quegli utenti che se ne dichiarano complessivamente soddisfatti nel breve termine.

 

Un ambito completamente diverso ma ancora di interesse per gli scenari educativi è quello dell’utilizzo delle IA nel contesto scolastico. Da una parte, le diverse tecnologie associabili all’Intelligenza Artificiale presentano numerose opportunità per il supporto e il potenziamento dell’apprendimento: per esempio, come già succede in contesti come Università Pegaso, un chatbot addestrato sui materiali dei corsi può rispondere alle domande di precisazione e approfondimento da parte degli studenti, supportandoli nello studio quotidiano, senza tuttavia sostituire il rapporto con il docente. Altre applicazioni si basano sulla possibilità di algoritmi di sviluppare piani di studio personalizzati, in quanto basati sulle caratteristiche individuali degli studenti.

 

Studi recenti (Triberti et al., 2024) presentano linee guida per gli sviluppi futuri dell’implementazione di IA nei contesti dell’educazione superiore, laddove le innovazioni non riguardano tanto la “potenza” degli algoritmi bensì il design delle risorse educative che con essi devono essere integrate.

 

Nello specifico, le IA educative del futuro potrebbero:

  • • influenzare le metodologie con cui gli studenti affrontano le diverse attività associate ai loro percorsi di apprendimento;

  • • facilitare i collegamenti e l'acquisizione di informazioni al di là dei materiali del corso;

  • • supportare la comunicazione con il docente, per esempio aiutando lo studente a identificare correttamente i problemi e a porre le giuste domande;

  • • attingere alle teorie della motivazione per promuovere l'impegno nell'apprendimento, in modo personalizzato.

 

Date queste opportunità, è comunque importante affrontare i rischi e le preoccupazioni associati all’introduzione della IA nell’educazione. Molti insegnanti ed educatori, infatti, mantengono un atteggiamento perlomeno sospettoso verso l’utilità educativa dei sistemi di IA: già quotidianamente devono fare i conti con il possibile utilizzo di strumenti come ChatGPT da parte degli studenti, i quali potrebbero utilizzarli per fare i compiti al posto loro.

 

In una nostra recente ricerca (Carruba et al. 2025), un campione di insegnanti delle scuole medie e superiori ha visionato brevi compiti testuali realizzati da veri studenti oppure da IA, provando a identificarne l’origine e attribuendo dei voti. I risultati hanno mostrato che gli insegnanti erano in grado di identificare i compiti scritti da IA, ma paradossalmente erano meno precisi nell’identificare i compiti realizzati da veri studenti, attribuendo anche questi alla “macchina”.

 

Il risultato sembra individuare la presenza di un bias verso la IA, a testimoniare la cautela degli insegnanti verso una tecnologia percepita come infida e ingannevole. Curiosamente, tuttavia, pur non riconoscendoli come tali, gli insegnanti con più anni di esperienza attribuivano voti più alti ai compiti realizzati da studenti umani, come se fossero in grado di riconoscere e valorizzare indizi di autenticità nei testi.

 

Questi e altri risultati di ricerca mettono in luce almeno due ordini di implicazioni; il primo è l’importanza di concentrare la ricerca sull’IA non tanto sulla potenza degli algoritmi, bensì sulle dinamiche relative alla sua implementazione nei contesti e al design consapevole delle interfacce, intendendo con il termine gli “aspetti” che la tecnologia assume e le possibilità di interazione che garantisce all’utente, partendo dalla consapevolezza delle competenze e dei bisogni degli utenti stessi (Triberti et al., 2023); il secondo è il fatto che, soprattutto in ambito educativo, non sembra efficace subire l’introduzione della IA ma che al contrario essa può essere integrata e guidata anche nel contesto scolastico (Carruba, 2024), accompagnando gli studenti nel suo utilizzo e promuovendo la comprensione di cosa le macchine possono realmente fare e non fare, così da valorizzare il ruolo del contributo personale anche nella collaborazione appropriata con la macchina.

 

 

 

Riferimenti

Carruba M.C. (2024). Traghettare la scuola nell’era dell’intelligenza artificiale. Roma, Tab edizioni

Carruba M.C., Caiazzo A., Scuotto C., Savioni L., & Triberti S. (2025). A Grade for Artificial Intelligence: A Study on School Teachers’ Ability to Identify Assignments Written by Generative Artificial Intelligence. Cyberpsychology, Behavior, and Social Networking, https://doi.org/10.1089/cyber.2024.052

Cave S., & Dihal K. (2021). AI will always love you: Three contradictions in imaginings of intimate relations with machines. In B. Dainton, W. Slocombe, & A. Tanyi (Eds.) Minding the Future: Artificial Intelligence, Philosophical Visions and Science Fiction (pp. 107-125). Cham, Springer International Publishing.

Giles D.C. (2002). Parasocial interaction: A review of the literature and a model for future research. Media psychology, 4(3), 279-305.

Liu D. (2025). Is Interaction Between Human and Artificial Intelligence–Driven Agents (Para) Social? A Scoping Review. Cyberpsychology, Behavior, and Social Networking, https://doi.org/10.1089/cyber.2024.0532

Pan S. & Mou Y. (2024). Constructing the meaning of human–AI romantic relationships from the perspectives of users dating the social chatbot Replika. Personal Relationships, 31(4), 1090-1112.

Triberti S., La Torre D., & Riva G. (2023). The artificial face (ART-F) project: addressing the problem of interpretability, interface, and trust in artificial intelligence. Cyberpsychology, Behavior, and Social Networking, 26(4), 318-320.

Triberti S., Di Fuccio R., Scuotto C., Marsico E., & Limone P. (2024). “Better than my professor?” How to develop artificial intelligence tools for higher education. Frontiers in Artificial Intelligence, 7, 1329605.

articolo triberti.jpg
bottom of page