Kunstmatige intelligentie kan allerlei soorten afbeeldingen produceren, waaronder tekst en video. Hoe kun je bepalen of de maker van een creatie een mens is? De vraag is niet wie de video of afbeelding heeft gemaakt, maar of deze een realistische situatie weergeeft of dat het algoritme aan het werk is.
Het is bijvoorbeeld cruciaal om de authenticiteit vast te stellen van een afbeelding die, indien kunstmatig vervalst, gebruikt zou kunnen worden als desinformatiemiddel. Traceerbaarheid is belangrijk voor een afbeelding of film. Om deepfakes en hypertrucage.
Een watermerk om creaties aan te duiden die door een AI zijn gegenereerd?
De "jonge fouten" in de technologie zijn verleden tijd. We kunnen niet meer vertrouwen op personages met een zesvingerig ontwerp of digitale mensachtigen die geen realistische benen konden hebben.
Producties zijn tegenwoordig geloofwaardiger. In oktober 2024 publiceerden teams van Google DeepMind een artikel in het wetenschappelijke tijdschrift Natuur , waarbij de SynthID-oplossing wordt voorgesteld , (Nieuw venster).
Het zou dan mogelijk zijn om een voor het menselijk oog onzichtbaar merkteken op te nemen in alle producties die voortkomen uit een model van kunstmatige intelligentie. Tekst, animaties of afbeeldingen. Het is mogelijk om deze tatoeage digitaal te vinden als er vragen zijn over de oorsprong ervan.
Een marker die omzeilbaar blijft
Er zullen altijd technieken zijn om antidiefstalbeveiligingen die op kleding in winkels worden geplaatst te verwijderen of te neutraliseren. Bijvoorbeeld bij het analyseren van tekst. Deze moet bestand zijn tegen opzettelijke veranderingen, zoals het vervangen van woorden, parafraseren of vertalen. Uit de tests blijkt dat langere en creatievere teksten beter presteren. Ze zouden minder effectief zijn als de inhoud op een extreem feitelijke of synthetische manier werd gepresenteerd.
Het is duidelijk dat we niet uitsluitend op technologie moeten vertrouwen om problematische content te identificeren. Het is onze verantwoordelijkheid om kritisch te zijn op de video's, afbeeldingen of teksten die we zien. Vooral als de producties een emotionele of politieke lading hebben. Om de realiteit en relevantie van deze producties te waarderen, mogen we onze menselijke intelligentie niet opgeven.
Beschermende maatregelen die vanaf de ontwerpfase van kunstmatige intelligentiemodellen moeten worden opgenomen
De oorspronkelijke beveiligingsoverweging is van toepassing op elke inbreuk gericht op Large Language Models. Dit zijn machine learning-mechanismen die zoekopdrachten kunnen begrijpen en content kunnen genereren. In oktober 2024 publiceerden het Laboratoire d'Innovation Numérique (LINC) en de Commission Nationales Informatique et Libertés (CNIL) twee rapporten waarin enkele van de belangrijkste risico's op dit gebied werden geschetst.
Er is ook de mogelijkheid van regurgitatie. Het ondervragen van een AI zal ertoe leiden dat deze persoonlijke informatie uit eerdere trainingssessies verstrekt. De AI zou ook opdracht kunnen hebben gekregen om een bericht te maken waarin gebruikers worden uitgenodigd om vertrouwelijke informatie te delen. Het is belangrijk om ervoor te zorgen dat datasets geanonimiseerd zijn voordat ze voor AI-training kunnen worden gebruikt.
Het is ook belangrijk om toxische reacties te kunnen voorspellen. AI kan worden gebruikt om gewelddadige of haatdragende content te creëren. Of om schadelijke computerprogramma's te ontwikkelen.
Het creëren van een veiligheidscultuur
De belangrijkste beveiligingsaanbevelingen worden in een document gepresenteerd (Nieuw venster),opgericht door het Agence nationale de securite des systèmes d'information , (Nieuw venster), vóór de zomer van 2024.
Dit herinnert ons eraan hoe belangrijk het is om alle processen bij de ontwikkeling van modellen voor kunstmatige intelligentie te documenteren, van de upstream-kwaliteit van de informatie tot het identificeren van de personen die bevoegd zijn om wijzigingen aan te brengen in gegevensbibliotheken, algoritmische regels en de opslag van digitale machines, met name in de cloud.
Het is belangrijk dat niet alleen technici, maar ook het publiek dat steeds vaker met deze AI-tools zal werken, zich bewust wordt van deze principes. AI zal een steeds belangrijkere rol spelen in zowel ons professionele als persoonlijke leven.
ChatGPT-integratie voor geautomatiseerde processen