play_arrow
360 Mix TV
(Adnkronos) – L’FBI ha diffuso su X due fotografie sfocate di una persona di interesse nell’indagine sulla sparatoria che ha coinvolto Charlie Kirk. Nel giro di pochi minuti, gli utenti della piattaforma hanno iniziato a pubblicare versioni “upscalate” con strumenti di intelligenza artificiale, trasformando le immagini pixelate in ritratti apparentemente nitidi e definiti. Alcuni sono stati generati dal bot Grok integrato in X, altri da servizi esterni come ChatGPT. Le nuove immagini hanno suscitato curiosità e reazioni immediate: alcune risultano verosimili, altre decisamente fuori luogo, come un volto con mento sproporzionato o abiti completamente diversi rispetto all’originale. In teoria dovrebbero aiutare a identificare il sospettato, ma nella pratica diventano più che altro contenuti virali capaci di attrarre like e condivisioni. Il problema è che le foto “ricostruite” dall’IA non sono prove: gli algoritmi non svelano dettagli nascosti, bensì li ipotizzano. La tecnologia si basa sull’inferenza e sul riempimento delle parti mancanti, e questo può portare a risultati ingannevoli. In passato, simili tentativi hanno trasformato un’immagine a bassa risoluzione dell’ex presidente Barack Obama in un uomo bianco, o aggiunto a Donald Trump un rigonfiamento mai esistito sulla testa. Il rischio, dunque, è che la ricerca di precisione si trasformi in disinformazione. Se da un lato questi strumenti possono avere applicazioni utili in ambiti come il restauro fotografico o la creatività digitale, dall’altro non dovrebbero mai essere considerati fonti affidabili in contesti delicati come un’indagine federale. —tecnologiawebinfo@adnkronos.com (Web Info)
A show by the fans, for the fans! The Fan Zone is your chance to interact with your favorite artists, request songs, and take part in live contests and games. Plus, we feature special guest appearances and exclusive music premieres
close
Commenti post (0)