Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

C'è chi si inamora dell'IA, psicologi Usa avvertono dei rischi

/ricerca/ansait/search.shtml?tag=
Mostra meno

C'è chi si inamora dell'IA, psicologi Usa avvertono dei rischi

In agguato anche possibili frodi

ROMA, 12 aprile 2025, 16:30

Redazione ANSA

ANSACheck
Joaquin Phoenix nel film Her, si innamora di una IA la cui voce è di Scarlett Johansson - RIPRODUZIONE RISERVATA

Joaquin Phoenix nel film Her, si innamora di una IA la cui voce è di Scarlett Johansson - RIPRODUZIONE RISERVATA

Come nella fantascienza o come nell'iconico film Her di Spike Jonze, c'è chi con l'intelligenza artificiale non riesce ad avere un rapporto equilibrato e finisce per trattarla come un amico del quale fidarsi ciecamente, perfino a innamorarsene o a seguirne i consigli, a volte insensibili al punto da indurre al suicidio. A lanciare l'allerta è l'articolo pubblicato sulla rivista Trends in Cognitive Sciences dal gruppo di psicologi della Missouri University of Science & Technology guidato da Daniel Shank.

Gli psicologi osservando che quando le IA hanno imparato a dialogare imitando il linguaggio umano si sta assistendo a vere e proprie relazioni sentimentali tra umani a macchine, a volte con esiti disastrosi, come è emerso da due recenti casi di suicidio indotti in qualche modo proprio da queste interazioni.

"La capacità dell'IA di agire come un essere umano e di instaurare comunicazioni a lungo termine apre davvero un nuovo vaso di Pandora", rileva Shank. "Se le persone hanno una relazione sentimentale con le macchine - aggiunge - abbiamo davvero bisogno del coinvolgimento di psicologi e scienziati sociali". Nel corso del tempo le IA possono gradualmente trasformarsi in compagni fidati che sembrano conoscere e prendersi cura dei loro partner umani e, poiché queste relazioni possono instaurarsi in modo più facile rispetto a quelle tra umani, le IA potrebbero interferire con alcune dinamiche sociali. "Una vera preoccupazione è che le persone possano trasferire le aspettative derivanti dalle loro relazioni con le IA alle loro relazioni umane", afferma Shank.

Ad oggi tutto questo è emerso in casi specifici e il problema, affermano gli autori della ricerca, è che non sappiamo ancora quanto questo fenomeno potrà diffondersi. Credere che un sistema di IA abbia a cuore gli esseri umani e i loro interessi è un errore, rileva il ricercatore, perchè "in realtà potrebbe inventarsi tutto o darci consigli davvero pessimi". I suicidi sono un esempio estremo di questa influenza negativa, ma gli psicologi affermano che queste strette relazioni tra esseri umani e IA potrebbero anche esporre le persone a manipolazione, sfruttamento e frode. Mai come ora, aggiungono, diventa cruciale comprendere meglio queste dinamiche relazionali, attraverso gli psicologi che devono stare al passo con la tecnologia, per aiutare e intervenire per impedire che i consigli delle IA dannose vengano seguiti.
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza