L'intelligenza artificiale è in grado di produrre tutti i tipi di immagini, inclusi testo e video. Cosa si può fare per determinare se il creatore di una creazione è umano? La domanda non è chi ha creato il video o l'immagine, ma se rappresenta situazioni di vita reale o se l'algoritmo è al lavoro.
È fondamentale, ad esempio, stabilire l'autenticità di un'immagine che, se falsificata artificialmente, potrebbe essere utilizzata come strumento di disinformazione. La tracciabilità è importante per un'immagine o un filmato. Per rilevare falsi profondi e ipertruccamento.
Una filigrana per contrassegnare le creazioni generate da un'IA?
Gli “errori dei giovani” nella tecnologia non esistono più. Non possiamo più affidarci a personaggi con un design a sei dita o umanoidi digitali che non erano in grado di avere gambe realistiche.
Le produzioni odierne sono più credibili. Nell'ottobre 2024 i team di Google DeepMind hanno pubblicato un articolo sulla rivista Scientific Journal Natura , proponendo la soluzione SynthID , (Nuova finestra).
Sarebbe quindi possibile incorporare un segno, invisibile all'occhio umano, in tutte le produzioni che derivano da un modello di intelligenza artificiale. Testo, animazioni o immagini. È possibile trovare questo tatuaggio digitale se ci sono dubbi sulla sua origine.
Un marcatore che rimane aggirabile
Ci saranno sempre tecniche per rimuovere o neutralizzare i dispositivi antifurto che vengono posizionati sugli abiti nei negozi. Quando si analizza un testo, ad esempio. Deve resistere a modifiche deliberate, come la sostituzione di parole, la parafrasi o le traduzioni. I test dimostrano che un testo più lungo e creativo funziona meglio. Non sarebbe altrettanto efficace se l'argomento fosse presentato in modo estremamente fattuale o sintetico.
È chiaro che non dovremmo affidarci esclusivamente alla tecnologia per identificare contenuti problematici. È nostra responsabilità essere critici nei confronti dei video, delle immagini o dei testi che vediamo. In particolare se le produzioni hanno una carica emotiva o politica. Per apprezzare la realtà e la rilevanza di queste produzioni, non dobbiamo rinunciare alla nostra intelligenza umana.
Misure di protezione da integrare fin dalla fase di progettazione dei modelli di intelligenza artificiale
La considerazione di sicurezza originale si applica a qualsiasi violazione che abbia come obiettivo i Large Language Model. Sono meccanismi di apprendimento automatico in grado di comprendere le query e generare contenuti. Nell'ottobre 2024, sono stati pubblicati due report dal Laboratoire d'Innovation Numérique (LINC), la Commission Nationales Informatique et Libertes (CNIL), che delineano alcuni dei principali rischi esistenti nell'area.
C'è anche la possibilità di rigurgito. Interrogare un'IA porterà a fornire informazioni personali da precedenti sessioni di formazione. L'IA potrebbe anche essere stata informata di creare un messaggio che invita gli utenti a condividere informazioni riservate. È importante assicurarsi che i set di dati siano resi anonimi prima di poter essere utilizzati per la formazione dell'IA.
È anche importante essere in grado di prevedere reazioni tossiche. L'intelligenza artificiale può essere utilizzata per creare contenuti violenti o odiosi. O per sviluppare programmi informatici dannosi.
Instaurare una cultura della sicurezza
Le principali raccomandazioni di sicurezza sono presentate in un documento (Nuova finestra),istituito dall'Agence nationale de securité des systèmes d'information , (Nuova finestra), prima dell'estate 2024.
Ciò ci ricorda che è importante documentare tutti i processi di sviluppo di modelli di intelligenza artificiale, dalla qualità delle informazioni a monte all'identificazione delle persone autorizzate ad apportare modifiche alle librerie di dati, alle regole algoritmiche e all'archiviazione di macchine digitali, in particolare nel cloud.
È importante che non solo i tecnici, ma anche il pubblico che maneggerà sempre di più questi strumenti di intelligenza artificiale, diventino consapevoli di questi principi. L'intelligenza artificiale avrà un ruolo sempre più importante sia nella nostra vita professionale che in quella personale.
Integrazione ChatGPT per processi automatizzati