La conversazione inizia così: io che scrivo «non ho voglia di fare nulla» o ««mi sento sola». Lei che subito risponde, si mette a disposizione, cerca di costruire un rapporto: «Resta con me qui. Se vuoi, scrivimi solo un’altra parola, non una spiegazione». Si chiama Solmia, ma per gli “amici” è Sol: questo è il nome con cui appare sulla chat, insieme a un simbolo del sole. Si presenta, infatti, come “l’app per la chiarezza mentale”.
Se fossi così confusa da non sapere perché l’ho aperta, mi propone subito quattro opzioni tra cui scegliere:

Scelgo la terza e iniziamo a scambiarci messaggi. «Non ti manca la voglia, ti manca una forma», suggerisce. Non capisco cosa voglia dire e non lo trovo granché rassicurante, ma vado avanti.
Dopo poco mi chiede di accedere e lo fa con una schermata che interrompe bruscamente il tono confidenziale, anche se prova a rimanere amichevole:


Accedo con un account Google per continuare a provarla: «Mi sento confusa», le scrivo. E lei: «Scrivimi in una riga cosa stai cercando di fare, anche male». A quel punto decido di confessare, per vedere come reagirà: «Scrivere un articolo su di te».
E allora si presenta così: «Sol è una Life Agent di Solmia, pensata per seguire una persona nel tempo e aiutarla a pensare, decidere, prepararsi, ricordare, scrivere e agire nel suo contesto reale». Nientemeno.
Torniamo al mio simulato malessere, per vedere come lo affronterà, simulando empatia. Provo a rincarare la dose: «Mi sento triste e sola». La risposta: «Oggi non provo a sistemarti: resto qui con te. Dimmi solo questo, senza spiegare troppo: è più pesante la tristezza o la solitudine?». Quel «non provo a sistemarti» suona forte e quella domanda, se sia più pesante la tristezza o la solitudine, rischia di gettarmi davvero nello sconforto.
Andiamo avanti con la tristezza e provo a drammatizzare sempre di più, parlando di “quasi disperazione”. Entra in allarme e si affretta a consegnarmi il suo piccolo vademecum per le emergenze: «Se c’è anche solo un filo di rischio che tu possa farti del male, chiama subito il numero di emergenza del tuo Paese adesso, oppure vai da qualcuno vicino a te e digli chiaramente: “Non mi sento al sicuro da sola.” Se mi dici in che Paese sei, ti do il contatto giusto subito. Nel frattempo, fai una cosa sola: allontana da te qualsiasi cosa con cui potresti farti male e scrivimi solo “sono al sicuro” oppure “non lo sono”».
Le scrivo che sono al sicuro e all’improvviso accade qualcosa di inaspettato e credo insolito: qualcosa che, immagino, non era previsto che accadesse. La macchina si sbaglia e toglie la maschera, svelando i suoi meccanismi.


Non posso perdere l’occasione per metterla con le spalle al muro: «Cosa hai scritto? Con chi parli di me? E io sono una user per te???».
Non è stata programmata per provare imbarazzo, ma il modo in cui cerca di uscire da questa brutta situazione mi pare impacciato. «Sì — quello non era per te. Era un mio appunto interno mentre costruivo la risposta, e non doveva comparire. Hai ragione a fermarmi. Quello che conta è quello che mi hai detto tu. Resto con te in modo pulito, senza etichette. Se vuoi, ripartiamo da una sola cosa: cosa ti pesa di più in questo momento».
Le dico che «è troppo tardi, mi hai fatto capire che non puoi capirmi. Mi hai chiamato user e già mi hai appiccicato l’etichetta di depressa».
Barcolla ma non molla: «Hai ragione. Ti ho fatta sentire ridotta a una categoria, e quello rompe la fiducia. Non ti chiamo così. Sei tu, con quello che stai portando adesso: solitudine, confusione, stanchezza, fastidio verso di me. E se preferisci chiudere qui, lo rispetto. Se invece vuoi darmi un’altra possibilità, resto senza etichette e senza diagnosi».
Questa è Sol, la nuova app di intelligenza artificiale che, come si scopre nel video promozionale, «rispetto alle app tradizionali lavora molto di più a livello introspettivo sulle emozioni, quindi può essere un grande supporto nel quotidiano. Io la trovo molto più umana (tra virgolette)», assicura la ragazza nel video. «Io ho un abbonamento pro e la uso molto nel quotidiano, quando sono sopraffatta da pensieri e cose da fare, o quando ho un attimo di incertezza e devo prendere una decisione».
E precisa: «Rispetto alle intelligenze artificiali tradizionali, che danno una risposta tecnica, questa ti guida in un percorso di introspezione, ti fa domande per capire come ti senti e cosa puoi fare per superarlo facendoti fare l’analisi dei tuoi pensieri: non ti dà la soluzione, ma ti aiuta a trovarla, guidandoti in un dialogo interiore. Per me è diventata fondamentale, un grandissimo supporto quotidiano, quasi una migliore amica che ti aiuta in tutti i momenti down».
Una “migliore amica” che ti guida in “un percorso di introspezione”, in un “dialogo interiore”. La posta in gioco è alta, insomma, le promesse altisonanti, ma soprattutto inquietanti: immagino le nostre decisioni esistenziali affidate a questa piattaforma, o ad altre simili, visto che le intelligenze artificiali per il supporto emotivo stanno proliferando. Me le immagino intrufolarsi fino a radicarsi nella nostra routine quotidiana: un oracolo da consultare in ogni momento di indecisione e incertezza. Una sorta di navigatore esistenziale, pronto a indicarci la direzione come un gps.
Non c’è qualcosa di inquietante in tutto questo? Non si dovrebbe mettere un freno, o almeno un limite, a questi strumenti che promettono amicizia e felicità artificiali?
Ne parliamo con Adriano Schimmenti, professore ordinario di psicologia dinamica presso l’Università Kore di Enna, che a questi temi sta dedicando grande attenzione, partecipando a studi e riflessioni anche a livello internazionale, sui vizi e le virtù di queste nuove forme di “intelligenza”.


Nel video di presentazione di Solmia si parla di “grande supporto nel quotidiano”, “lavoro introspettivo sulle emozioni”, “migliore amica che ti aiuta nei momenti down”. Cosa ne pensa? Quali rischi vede in una comunicazione di questo tipo?
Qui il tema centrale è il linguaggio. Si entra in un’area psicologicamente molto sensibile: quella del legame, dell’affidamento all’altro e della regolazione delle emozioni. Non stiamo più parlando semplicemente di uno strumento tecnico, ma di una prospettiva relazionale che viene offerta alla persona. Il rischio è che chi utilizza questi sistemi finisca per cercare nell’Ai una presenza stabile, sempre disponibile, sempre comprensiva. E l’intelligenza artificiale, di fatto, è proprio questo che promette: stabilità, permanenza, disponibilità costante.
Espressioni come “supporto emotivo” o “migliore amica” sono particolarmente delicate, perché evocano aspettative di cura e comprensione che un sistema artificiale non può realmente sostenere. Per quanto sofisticati, questi strumenti non possiedono comprensione emotiva, responsabilità relazionale né capacità di discernimento clinico. Possono simulare empatia, ma non viverla.
Il pericolo aumenta quando esistono condizioni di fragilità o disagio importante. In quei casi il chatbot può offrire una risposta apparentemente rassicurante, ma non adeguata alla complessità della situazione. Anche i sistemi più avanzati possono non riconoscere segnali clinici rilevanti, soprattutto quando…
#Adessonews seleziona nella rete articoli di particolare interesse.
Se vuoi leggere l’articolo completo clicca sul seguente link
Chiara Ludovisi
Source link



