Basta un nome, “Phica”, per trasformare un problema tecnologico in un caso di rilevanza nazionale. In pochi giorni, il portale è finito sotto i riflettori per aver pubblicato immagini di oggettivazione sessuale di centinaia di donne italiane. Alcune di queste foto, create con l’intelligenza artificiale, ritraevano persino figure pubbliche e istituzionali. Da quel momento, è scattato un effetto domino: proteste, indagini e una domanda scomoda: dove finisce la realtà e dove inizia la responsabilità?
Secondo le prime ricostruzioni, Phica operava come una piattaforma anonima per la condivisione di immagini a sfondo sessuale, molte delle quali ottenute tramite tecniche di deepfake, ovvero manipolazioni visive realizzate con intelligenza artificiale. Nella sezione “VIP”, sarebbero state caricate immagini di donne famose nel mondo della politica, del giornalismo e dello spettacolo, con sembianze realistiche ma completamente inventate. Nel frattempo, il sito è stato oscurato in Italia, ma l’eco mediatica continua a diffondere le sue immagini.
I deepfake sono ormai accessibili a chiunque. Basta avere qualche foto pubblica e un software per generare contenuti che sembrano reali. Non è più necessario rubare un’immagine; è sufficiente crearla. I concetti di consenso e privacy vengono messi a dura prova da strumenti che superano ogni barriera tecnologica precedente. È un problema tecnico, etico o culturale? Probabilmente tutti e tre. La rapidità con cui si evolvono gli strumenti digitali non sempre è accompagnata da una crescita altrettanto veloce della consapevolezza collettiva. Si parla di “violenza digitale”, ma anche di vuoti normativi che rendono difficile perseguire chi diffonde o produce questi contenuti. Phica non è solo un sito, è un campanello d’allarme. Non solo per ciò che è stato pubblicato, ma anche per ciò che potrebbe e che non deve diventare la norma.
Quando ogni volto può essere copiato, ogni voce replicata e ogni immagine costruita da zero, si apre un’epoca in cui l’identità (quella vera) diventa più fragile che mai.
Il caso è chiuso dal punto di vista tecnico? Forse. Ma la discussione è appena cominciata. E come spesso accade con le tecnologie più potenti, la risposta non sarà una sola. Sarà un equilibrio, sottile e mutevole, tra progresso e responsabilità.
Forse la vera domanda non è cosa può fare l’intelligenza artificiale, ma cosa siamo disposti ad accettare che faccia, in nostro nome.

![[video] Il Presidente Meloni alla VII Conferenza Nazionale sulle Dipendenze: “Abbiamo piano anti-Fentanyl”](https://www.lanternaweb.it/wp-content/uploads/2025/11/image-6-218x150.png)


![[video] Il Presidente Meloni alla VII Conferenza Nazionale sulle Dipendenze: “Abbiamo piano anti-Fentanyl”](https://www.lanternaweb.it/wp-content/uploads/2025/11/image-6-100x70.png)


