A Meta anunciou que passará a identificar nos próximos meses imagens geradas por lucidez sintético (IA) nas redes sociais Facebook, Instagram e Threads.
Atualmente, a empresa já utiliza uma instrumento — a Meta IA — para a identificação de imagens produzidas por robôs. A informação é do G1.
Segundo Nick Clegg, responsável por assuntos internacionais da Meta, a intenção é estender a identificação a conteúdos criados por ferramentas de empresas porquê Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock.
“Estamos construindo essa instrumento no momento e começaremos a empregar, nos próximos meses, etiquetas em todos os idiomas compatíveis com cada aplicativo”, afirmou Clegg.
PREOCUPAÇÃO MUNDIAL
A instrumento para identificar imagens geradas por lucidez sintético visa combater desinformações que possam ser disseminadas em diversos setores da sociedade, em peculiar na política eleitoral. Isso porque, em 2024, haverá eleições em mais da metade do planeta.
Segundo ativistas e setores reguladores, o desenvolvimento de programas de lucidez sintético para a geração de imagens pode simbolizar riscos não unicamente na esfera política, mas também na disseminação de conteúdos degradantes e falsos.
É o caso das deepfakes pornográficas de mulheres, que afetam tanto figuras públicas quanto pessoas anônimas. Um exemplo recente ocorreu com a cantora Taylor Swift, visualizada 47 milhões de vezes na rede social X em janeiro. A publicação permaneceu online por murado de 17 horas antes de ser removida.
Apesar da novidade instrumento, a Meta reconhece que “não eliminará” totalmente o risco de imagens criadas por lucidez sintético.
“Não é perfeito, não vai entupir tudo, a tecnologia não está totalmente pronta. Mas, até agora, é a tentativa mais avançada a fornecer transparência significativa para todo mundo”, disse Clegg.
OPEN AI
A OpenAI, criadora do ChatGPT, também lançou ferramentas para combater desinformação, destacando a preocupação em não permitir o uso de suas tecnologias para fins políticos.
A empresa informou que seu gerador de imagens, DALL-E 3, possui “ressalvas” para evitar que usuários gerem imagens de pessoas reais, mormente candidatos a cargos políticos.
Deixe seu Comentário