I propri cari rivivono con l'IA,ma tanti rischi da app afterlife
Dai sensi di colpa alle pubblicità, appello per nuove regole
Dalla manipolazione attraverso i sensi di colpa all'impossibilità di elaborare un lutto fino all'inserimento di annunci pubblicitari direttamente dall'aldilà: sono solo alcuni dei rischi concreti che si sono aperti con la nascita delle app afterlife, capaci di riportare in vita digitalmente i propri cari e poterci conversare. Ad analizzarne i rischi è lo studio pubblicato sula rivista Philosophy & Technology sono Tomasz Hollanek e Katarzyna Nowaczyk-Basińska dell'Università di Cambridge. I rapidi progressi delle chat basate sull'Intelligenza Artificiale ha aperto le porte un'incredibile serie di incredibili servizi immaginabili finora sulla nella fantascienza. Uno di questi sono le cosiddette app afterlife, ovvero chat capaci di replicare le caratteristiche di nostri cari ormai scomparsi. Dopo aver analizzato testi o registrazioni di un nostro caro estinto sono in grado di parlare, scrivere e dialogare esattamente come loro. Sono già in commercio app di questo tipo, tra le più recenti ci sono Project December e HereAfter, che pagando un abbonamento mensile garantiscono di poter mantenere vivo digitalmente un caro estinto. Ma cosa succederebbe se app di questo tipo iniziassero a proporre offerte commerciali, attraverso ad esempio la voce di una nonna, oppure manipolassero psicologicamente gli utilizzatori? E' un tema di cui dibattano ormai molti eticisti e nel loro articolo i ricercatori di Cambridge hanno provato a immaginare 3 possibili scenari di un futuro prossimo, possibili rischi e contromisure. I più esposti saranno ovviamente minori e persone fragili, ma nessuno può dirsi immune: "il potenziale effetto psicologico, soprattutto in un momento già difficile, potrebbe essere devastante", ha detto Nowaczyk-Basińska. Occorre capire come normare, mitigare i rischi sociali e psicologici dell'immortalità digitale, "perché la tecnologia è già qui", concludono gli autori.
D. Meier--BTZ