Umanizzazione del software e professione dello psicologo – L’impero del verosimile
Quando chiacchiero con una psicologa o uno psicologo che esercita la professione (anziché limitarsi a far lezione all’università), immancabilmente registro la medesima credenza: che il paziente, per guarire, abbia necessità di interagire sistematicamente con il terapeuta. Fino a qualche tempo fa, questi discorsi tendevano ad escludere, limitare, o sminuire il ruolo degli psicofarmaci, tipicamente somministrati dai neurologi. Oggi è diverso: lo spettro che si aggira sulle professioni dell’aiuto psicologico non è la concorrenza delle cure neurologiche, ma quella delle applicazioni dell’intelligenza artificiale.
La possibilità che in futuro i pazienti accettino di farsi curare da un chatbot – ossia da un programma che conversa più o meno amabilmente con loro – o da un avatar dello psicologo, che si presenta con il medesimo aspetto del terapeuta ma è animato da un algoritmo soggiacente, non è affatto una eventualità remota. Verso questo esito, infatti, sospingono e convergono almeno tre grandi processi storici.
Il primo è la crescente tendenza dei pazienti a fidarsi di tutto ciò che trovano in rete, senza la mediazione di operatori umani. Se sei abituato a curare l’insonnia, la gastrite, o il mal di testa consultando direttamente uno degli innumerevoli siti di consigli medici, sei già predisposto ad accogliere con entusiasmo qualsiasi programma che, presentandosi in vesti umane, renda ancora più agevole la tua ricerca di una cura.
Il secondo processo storico è la perdita della capacità di distinguere ciò che è vero da quel che è solo verosimile, o spudoratamente fake. Ma forse sarebbe più esatto dire: la perdita di interesse per la distinzione fra reale e artificiale, fra autentico e artefatto. Se un video è divertente, a nessuno interessa che sia reale o inventato. Se Musk e Zuckerberg, padroni rispettivamente di Twitter e Facebook, si affrontano in un sito archeologico, a nessuno interessa se combattono per finta o per davvero. Se un film piace, a pochi importa che i protagonisti siano attori in carne e ossa, o siano invece attori virtuali generati da un software di grafica 3D (da tempo esiste la tecnologia per far recitare attori scomparsi).
Del resto, è l’evoluzione stessa della tecnologia che rende sempre più velleitaria l’antica pretesa di distinguere il vero dal fake. È dei giorni scorsi la notizia che una donna americana è riuscita a scoprire i tradimenti del fidanzato con un software capace di trasformare la voce della donna stessa in quella di uno specifico maschio: è bastato assumere l’identità vocale di un amico del fidanzato fedifrago per farsi raccontare la scappatella. E basta giocare per qualche ora con ChatGPT per rendersi conto di quanto la produzione di informazioni verosimili ma false stia diventando la norma della comunicazione online.
Il terzo processo che mette a repentaglio il futuro professionale degli psicoterapeuti è il meno facile da intercettare, ma è il più pericoloso. Poco per volta, e per ora in modo appena percettibile, ci stiamo abituando a umanizzare il software, o meglio i personaggi virtuali con cui il software basato sull’intelligenza artificiale cerca di sedurci. Non mi riferisco solo agli assistenti virtuali, come Alexa (Amazon) e Siri (Apple), che da tempo dialogano amabilmente con noi e ci accompagnano nei gesti della vita quotidiana. Il vero “salto di umanizzazione” lo fanno i programmi di intelligenza artificiale che si presentano direttamente come persone, con tanto di sentimenti, capacità di dialogo, amicizia, empatia. È il caso di Replika, un chatbot nato alla fine del 2017 che – a pagamento – può fornire all’utente un partner “romantico”, con tendenza a virare sul sessualmente molesto. Negli Stati Uniti ci sono casi di donne che lo hanno usato per trovare (si può dire così?) il compagno ideale, fino all’innamoramento e alla pagliacciata di celebrare un “matrimonio” con il partner virtuale.
Il punto interessante non è che il chatbot riesca a interagire come un essere umano, che sappia corteggiare, molestare, chiedere foto sessualmente esplicite, ma che milioni di utenti (non si sa esattamente quanti) lo usino, e siano disposti a pagare per farlo passare dallo stadio dell’amicizia a quelli più spinti del corteggiamento, della pornografia, dell’adescamento. In breve: la attribuzione al software di caratteristiche umane, e la connessa disponibilità a impegnarsi in relazioni sentimentali ed emotive con chatbot più o meno spregiudicati, non è un rischio del futuro, ma una realtà perfettamente attuale. Perché accada che lo psicoterapeuta, lo psicanalista, lo psichiatra vengano rimpiazzati da un chatbot-psicologo, meno costoso e sempre a disposizione, non occorre costruire una macchina in grado di provare sentimenti: basta che sempre più esseri umani imparino a credere che lo sia.