(Adnkronos) – Google Photos introdurrà un sistema di filigrana digitale, SynthID, per identificare le immagini modificate tramite la funzione di intelligenza artificiale generativa "Magic Editor". Il lancio di questa nuova funzionalità è previsto per questa settimana e mira a facilitare il riconoscimento delle immagini manipolate con lo strumento "Reimmagina" di Magic Editor. SynthID, sviluppato dal team DeepMind di Google, è un sistema di watermarking che incorpora un tag di metadati digitali direttamente in immagini, video, audio e testo per segnalare se sono stati creati o alterati utilizzando strumenti di IA. Questo sistema è già in uso per le immagini generate interamente tramite il modello text-to-image Imagen di Google. Anche altre aziende, come Adobe con le Content Credentials applicate alle opere create o modificate con la suite Creative Cloud, hanno sviluppato sistemi di watermarking simili. Precedentemente è stata documentata la facilità con cui è possibile modificare fotografie in modo convincente tramite la funzione disponibile sui telefoni Pixel 9 di Google, semplicemente descrivendo l'aggiunta desiderata. Sebbene gli strumenti di editing basati su IA non siano intrinsecamente dannosi, Magic Editor ha generato contenuti inappropriati in immagini senza un'evidente indicazione che le manipolazioni fossero state generate dall'IA. Da ottobre scorso, Google ha iniziato ad aggiungere tag alle descrizioni dei file su Google Foto per le immagini modificate con IA. Il nuovo aggiornamento con filigrana cerca di risolvere questa problematica, ma presenta alcune limitazioni. SynthID non altera visibilmente l'immagine a cui è allegato e può essere identificato tramite un apposito strumento di rilevamento IA integrato nella funzione "Informazioni su questa immagine" di Google. Google ha anche dichiarato che alcune modifiche apportate con la funzione "Reimmagina" di Magic Editor potrebbero essere troppo piccole per essere etichettate e rilevate da SynthID. Sebbene la tecnologia di watermarking possa essere d'aiuto nell'identificare le manipolazioni, alcuni esperti nel settore concordano sul fatto che da sola non sarà sufficiente per autenticare in modo affidabile i contenuti generati dall'IA su larga scala e richiederà una combinazione di approcci diversi che operino sinergicamente. —tecnologiawebinfo@adnkronos.com (Web Info)
Articoli correlati
Carpooling aziendale, nei primi 6 mesi 166mila auto tolte dalla strada
(Adnkronos) – Condividere l'auto tra colleghi che percorrono lo stesso tragitto. In Italia sono già numerose le aziende che, insieme al loro mobility manager, hanno scelto di promuovere il carpooling aziendale e lo dimostrano i […]
Da azienda cinese bonus a dipendenti in base ad attività fisica fatta
(Adnkronos) – Camminare, correre o semplicemente una escursione fuori dalla città. In Cina una azienda che produce carta ha optato per una strategia di bonus per i dipendenti legata all'attività fisica conteggiata nel numero di […]
Ucraina, Mosca annuncia conquista Nevelske. Blitz ribelli pro-Kiev in territorio russo
(Adnkronos) – Le forze russe hanno assunto il controllo di Nevelske, situata a nordovest della città di Donetsk, nell'Ucraina orientale. Ad annunciarlo è stato oggi, 12 marzo 2024, il ministero della Difesa russo a Mosca. […]
Commenta per primo