A inteligência artificial é capaz de produzir todos os tipos de imagens, incluindo texto e vídeo. O que pode ser feito para determinar se o criador de uma criação é humano? A questão não é quem criou o vídeo ou a imagem, mas se ele representa situações da vida real ou se o algoritmo está em ação.
É crucial, por exemplo, estabelecer a autenticidade de uma imagem que, se for falsificada artificialmente, pode ser usada como uma ferramenta de desinformação. A rastreabilidade é importante para uma imagem ou filme. Para detectar deepfakes e hipertrucagem.
Uma marca d'água para designar criações geradas por uma IA?
Os “jovens erros” na tecnologia não existem mais. Não podemos confiar em personagens com design de seis dedos ou humanoides digitais que não conseguiam ter pernas realistas.
As produções hoje são mais credíveis. Em outubro de 2024, as equipes do Google DeepMind publicaram um artigo no Scientific Journal Natureza , propondo a solução SynthID , (Nova janela).
Seria então possível incorporar uma marca, invisível ao olho humano, em todas as produções que são derivadas de um modelo de inteligência artificial. Texto, animações ou imagens. É possível encontrar essa tatuagem digital se houver dúvidas sobre sua origem.
Um marcador que permanece contornável
Sempre haverá técnicas para remover ou neutralizar dispositivos antirroubo que são colocados em roupas em lojas. Ao analisar texto, por exemplo. Ele deve resistir a mudanças deliberadas, como a substituição de palavras, paráfrase ou traduções. Os testes mostram que textos mais longos e criativos têm melhor desempenho. Não seria tão eficaz se o assunto fosse apresentado de forma extremamente factual ou sintética.
É claro que não devemos confiar somente na tecnologia para identificar conteúdo problemático. É nossa responsabilidade sermos críticos em relação aos vídeos, imagens ou textos que vemos. Particularmente se as produções têm uma carga emocional ou política. Para apreciar a realidade e relevância dessas produções, não devemos abrir mão de nossa inteligência humana.
Medidas de proteção a serem incorporadas desde a fase de concepção dos modelos de inteligência artificial
A consideração de segurança original se aplica a qualquer violação que tenha como alvo Large Language Models. Eles são mecanismos de aprendizado de máquina que podem entender consultas e gerar conteúdo. Em outubro de 2024, dois relatórios foram publicados pelo Laboratoire d'Innovation Numérique (LINC), a Commission Nationales Informatique et Libertes (CNIL), descrevendo alguns dos principais riscos que existem na área.
Também há a possibilidade de regurgitação. Interrogar uma IA resultará em ela fornecer informações pessoais de sessões de treinamento anteriores. A IA também poderia ter sido instruída a criar uma mensagem convidando os usuários a compartilhar informações confidenciais. É importante garantir que os conjuntos de dados sejam anonimizados antes que possam ser usados para treinamento de IA.
Também é importante ser capaz de prever reações tóxicas. A IA pode ser usada para criar conteúdo violento ou odioso. Ou para desenvolver programas de computador maliciosos.
Estabelecendo uma cultura de segurança
As principais recomendações de segurança são apresentadas em um documento (Nova janela),estabelecido pela Agence nationale de securité des systèmes d'information , (Nova janela), antes do verão de 2024.
Isso nos lembra que é importante documentar todos os processos no desenvolvimento de modelos de inteligência artificial, desde a qualidade das informações até a identificação das pessoas autorizadas a fazer alterações em bibliotecas de dados, regras algorítmicas e armazenamento de máquinas digitais, especialmente na nuvem.
É importante que não apenas os técnicos, mas também o público que estará cada vez mais lidando com essas ferramentas de IA se conscientizem desses princípios. A IA desempenhará um papel cada vez mais importante em nossas vidas profissionais e pessoais.
Integração ChatGPT para processos automatizados