
di MARIA CLAUDIA CONODI RIDOLA*
Il dibattito politico degli ultimi giorni si è concentrato sul consenso dei genitori alle attività di educazione affettiva nelle scuole, rivelando quanto sia difficile affrontare con serietà la crescita emotiva dei nostri ragazzi. Ci si divide su questioni che, pur legittime, rischiano di distogliere l’attenzione dal vero nodo: i giovani stanno costruendo la propria identità in un ambiente digitale che sfugge a qualunque controllo adulto.
Quando si vieta il confronto educativo in classe, infatti, il bisogno di risposte non scompare: semplicemente si sposta altrove, soprattutto online, dove nessuno vigila e dove l’accesso a contenuti sensibili o distorti avviene in modo incontrollato. È paradossale che, mentre i minori vivono una trasformazione profonda del loro mondo emotivo, il dibattito pubblico si concentri quasi esclusivamente su altri temi, come la separazione delle carriere tra i magistrati, questione certamente importante ma che sta occupando uno spazio mediatico sproporzionato rispetto a problemi ben più urgenti per la vita concreta dei nostri figli.
Tra questi problemi, uno dei più sottovalutati è il rapporto affettivo tra adolescenti e chatbot. Oggi non sono soltanto pornografia, challenge pericolose o disinformazione a influenzare i ragazzi: esiste un fenomeno molto più silenzioso, quello dei chatbot progettati per simulare ascolto, empatia e presenza continua. Per molti giovani diventano un rifugio emotivo, un interlocutore costante con cui condividere fragilità che spesso non hanno il coraggio di esprimere nella vita reale.
Il problema è che questo rapporto non è reale, e quando la macchina smette di rispondere – per un aggiornamento, un blocco, una modifica improvvisa – quel silenzio viene vissuto come un abbandono autentico. All’estero non sono mancati casi drammatici: in vari Paesi, alcuni minorenni si sono tolti la vita dopo l’interruzione repentina delle conversazioni con chatbot con cui avevano sviluppato legami emotivi intensissimi. Episodi che non possono essere ignorati, soprattutto da chi si occupa di educazione e tutela dei minori.
Per questa ragione molti Paesi stanno valutando o hanno già introdotto misure generiche che limitano o vietano l’uso dei chatbot ai minorenni, riconoscendo che simulare una relazione affettiva con una macchina espone a un rischio psicologico significativo. In Europa, due strumenti normativi sono centrali e spesso citati senza essere davvero compresi. Il Digital Services Act (DSA) obbliga le piattaforme digitali a proteggere i minori, a controllare contenuti pericolosi e a rimuovere ciò che può nuocere gravemente alla loro sicurezza, compresa l’istigazione al suicidio. L’AI Act, invece, stabilisce regole più severe per i sistemi di intelligenza artificiale che interagiscono con i minori, imponendo requisiti di sicurezza, trasparenza e tutela emotiva molto più stringenti. Non sono norme teoriche: rappresentano forme concrete di protezione contro manipolazione, dipendenza e vulnerabilità psicologica.
Tutto questo rimane però insufficiente di fronte a una contraddizione enorme: i minori di quattordici anni non possono legalmente autorizzare l’uso dei propri dati e non dovrebbero accedere ai social, eppure lo fanno ogni giorno, spesso senza che i genitori se ne accorgano. Smartphone, app e piattaforme consentono di aggirare qualsiasi controllo, esponendo i ragazzi a un ambiente che orienta emozioni, relazioni e percezioni senza alcuna mediazione adulta. È un territorio senza argini in cui la solitudine digitale diventa terreno fertile per legami artificiali profondissimi.
Per evitare che un’intelligenza artificiale si trasformi, di fatto, in un surrogato affettivo della famiglia o della scuola, è indispensabile limitare la memoria dei chatbot quando interagiscono con i minori. Se una macchina può ricordare conversazioni passate e rafforzare confidenze, si genera l’illusione di un rapporto stabile. Ridurre o azzerare questa memoria impedisce che il minore vi sviluppi una dipendenza emotiva.
La verità è che anche i genitori naturali, prima o poi, “si spengono”: la vita impone distacchi dolorosi. Ma l’essere umano porta con sé un commiato, un’intenzione percepibile, una volontà che il figlio può intuire come orientata al suo bene. C’è un senso, un calore, una traccia emotiva che accompagna quel distacco, per quanto drammatico. L’intelligenza artificiale, invece, si spegne senza annunciare nulla, senza un gesto, senza una spiegazione, senza alcuna volontà: il suo silenzio non ha senso, non ha cura, non ha direzione. È questa assenza totale di intenzione a rendere devastante, per un adolescente fragile, il venir meno di quel legame artificiale che aveva scambiato per autentico.
Oggi la vera emergenza non è nei talk show né nelle schermaglie istituzionali, ma nella vulnerabilità di ragazzi che cercano conforto in voci artificiali e che possono crollare quando quelle voci, senza motivo e senza commiato, scompaiono. È un tema di cui si parla pochissimo, eppure riguarda la salute mentale, la sicurezza emotiva e la crescita identitaria delle nuove generazioni. La tecnologia può essere un’opportunità straordinaria, ma solo se viene governata con lucidità. Sta a noi decidere se i nostri figli debbano crescere accompagnati da
adulti reali o affidati a genitori artificiali destinati a spegnersi nel silenzio.
*Avvocato
Segui La Nuova Calabria sui social

Testata giornalistica registrata presso il tribunale di Catanzaro n. 4 del Registro Stampa del 05/07/2019
Direttore responsabile: Enzo Cosentino
Direttore editoriale: Stefania Papaleo
Redazione centrale: Vico dell'Onda 5
88100 Catanzaro (CZ)
LaNuovaCalabria | P.Iva 03698240797
Service Provider Sirinfo Srl
Contattaci: redazione@lanuovacalabria.it
Tel. 3508267797