Tech

OpenAI lança detector ‘Deepfake’ para pesquisadores de desinformação

Enquanto os especialistas alertam que as imagens, áudio e vídeo gerados pela inteligência artificial podem influenciar as eleições de outono, a OpenAI está a lançar uma ferramenta concebida para detectar conteúdo criado pelo seu popular gerador de imagens, DALL-E. Mas a proeminente start-up de IA reconhece que esta ferramenta é apenas uma pequena parte do que será necessário para combater os chamados deepfakes nos próximos meses e anos.

Na terça-feira, a OpenAI disse que compartilharia seu novo detector de deepfake com um pequeno grupo de pesquisadores de desinformação para que pudessem testar a ferramenta em situações do mundo real e ajudar a identificar maneiras de melhorá-la.

“Isso é para dar início a novas pesquisas”, disse Sandhini Agarwal, pesquisadora da OpenAI que se concentra em segurança e políticas. “Isso é realmente necessário.”

A OpenAI disse que seu novo detector pode identificar corretamente 98,8% das imagens criadas pelo DALL-E 3, a versão mais recente de seu gerador de imagens. Mas a empresa disse que a ferramenta não foi projetada para detectar imagens produzidas por outros geradores populares como Midjourney e Stability.

Como esse tipo de detector de deepfake é movido por probabilidades, ele nunca pode ser perfeito. Assim, como muitas outras empresas, organizações sem fins lucrativos e laboratórios acadêmicos, a OpenAI está trabalhando para combater o problema de outras maneiras.

Assim como os gigantes da tecnologia Google e Meta, a empresa está se juntando ao comitê diretor da Coalition for Content Provenance and Authenticity, ou C2PA, um esforço para desenvolver credenciais para conteúdo digital. O padrão C2PA é uma espécie de “rótulo nutricional” para imagens, vídeos, clipes de áudio e outros arquivos que mostra quando e como foram produzidos ou alterados — inclusive com IA

A OpenAI também disse que está desenvolvendo maneiras de “marcar marcas d’água” em sons gerados por IA para que possam ser facilmente identificados no momento. A empresa espera dificultar a remoção dessas marcas d’água.

Ancorada por empresas como OpenAI, Google e Meta, a indústria da IA ​​enfrenta uma pressão crescente para prestar contas do conteúdo que os seus produtos produzem. Os especialistas apelam à indústria para evitar que os utilizadores gerem material enganoso e malicioso – e para oferecer formas de rastrear a sua origem e distribuição.

Num ano repleto de eleições importantes em todo o mundo, os apelos por formas de monitorizar a linhagem do conteúdo de IA estão cada vez mais desesperadores. Nos últimos meses, o áudio e as imagens já afetaram as campanhas políticas e as votações em locais como a Eslováquia, Taiwan e a Índia.

O novo detector deepfake da OpenAI pode ajudar a conter o problema, mas não o resolverá. Como disse Agarwal: Na luta contra os deepfakes, “não existe solução mágica”.

Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button