this post was submitted on 30 Sep 2024
2 points (100.0% liked)

Lavoratori Tech

334 readers
2 users here now

Comunità dedicata alla discussione di temi inerenti al lavoro, alle sue problematiche e all'organizzazione dei lavoratori.

founded 2 years ago
MODERATORS
 

È possibile individuare i video fasulli, generati da applicativi di intelligenza artificiale?

@lavoro
https://www.puntosicuro.it/security-C-125/e-possibile-individuare-i-video-fasulli-generati-da-applicativi-di-intelligenza-artificiale-AR-24673/
Già da qualche tempo sono disponibili degli applicativi, che permettono di individuare immagini fisse, prodotte da applicativi generativi di intelligenza artificiale. La faccenda diventa più complessa quando bisogna individuare filmati

you are viewing a single comment's thread
view the rest of the comments
[–] [email protected] 1 points 1 month ago* (last edited 1 month ago) (1 children)

Onestamente si tratta di un articolo fuffa, senza alcun tipo d'informazione utile ad eccezione di questa:

Un recente studio di ricercatori dell’Università di Drexel, in Pennsylvania

Senza riportare ulteriori dati.

Il resto sembran parole scritte per lo più a caso da qualcuno che, evidentemente, non ha infarinatura nell'argomento.

Capisco che scrivere sull'IA porti click, ma così mi pare esagerato. La cosa triste - se non addirittura deprimente - è che un Large Language Model a cui fosse stato dato in pasto l'abstract dello studio avrebbe probabilmente potuto fare un lavoro migliore. O magari si tratta di un testo generato da un modello di piccole dimensioni, viste anche le continue ripetizioni (questi applicativi, mettere in evidenza, attento studio), il che renderebbe il tutto almeno divertente.

Un articolo migliore - ma con spin ovviamente positivo ed in inglese - si può trovare qui: drexel.edu

Notare la data.

E qui il paper:

Mi dispiace esser così negativo sul lavoro altrui, ma sembra quasi abbia messo più ricerca e sforzo io in questo post che l'articolista nel suo.

Comunque, per chi fosse interessato, questa è la parte sostanziale, che si può trovare nel sito, senza aprire il paper su arxiv:

This corresponds to a detector's ability to detect videos from a new generator without any re-training. These results show that while the detector achieves strong performance on videos from generators seen during training, performance drops significantly when evaluating on new generators.

Additionally, we performed few-shot learning experiments to evaluate the detector's ability to detect videos from new generators with only a few examples. These results show that the detector can very accurately transfer to detect new generators through few-shot learning.

AKA il sistema funziona bene solo su modelli il cui output è disponibile in quantità (40.000 frame per modello, Tabella 4, pagina 5 per il training) e si può usare per fare l'addestramento.

Quindi utile solo contro video di livello amatoriale, fatti con modelli disponibili al pubblico generale.

Vorrei soffermarmi di più sulla questione dei falsi positivi, ma trovo il paper veramente poco chiaro al riguardo, e credo di aver già dedicato troppo tempo ad un post che probabilmente non leggerà nessuno su un paper che non ho trovato particolarmente illuminante o interessante.

Accetto volentieri correzioni.

Tap for Changelogfalsi negativi -> falsi positivi

[–] [email protected] 2 points 1 month ago

@Mechanize grazie per la precisazione e per tutti i riferimenti