Tecnologia de Inteligência Artificial Cria Vídeos Fotorrealistas a Partir de Descrições de Texto

A OpenAI recentemente revelou seu mais recente sistema de IA, Sora, que tem a capacidade de gerar vídeos fotorrealistas com base em descrições de texto. Este modelo revolucionário de geração de vídeos tem despertado tanto entusiasmo pelo avanço da tecnologia de IA quanto preocupações sobre o potencial de vídeos deepfake para propagar desinformação e desinformação durante eventos globais cruciais, como eleições.

Sora, atualmente capaz de produzir vídeos com até 60 segundos de duração, utiliza instruções textuais ou uma combinação de texto e imagens para criar sequências visuais impressionantes. Um vídeo de demonstração impressionante começa com uma descrição de uma mulher elegante caminhando por uma rua de Tóquio adornada com luzes de néon quentes e sinais animados da cidade. Outros exemplos incluem um cachorro brincalhão na neve, veículos viajando em estradas e até cenários fantasiosos como tubarões nadando entre arranha-céus da cidade.

A geração de vídeos alimentada por IA é um avanço significativo em termos de realismo e acessibilidade. Rachel Tobac, co-fundadora da SocialProof Security, elogia Sora como “muito mais convincente e menos caricato” do que seus antecessores. Ao combinar duas técnicas distintas de IA, Sora alcança um nível mais alto de autenticidade. A primeira técnica, um modelo de difusão semelhante ao gerador de imagens DALL-E da OpenAI, transforma gradualmente os pixels de imagem randomizados em visuais coerentes. A segunda técnica, chamada de “arquitetura de transformador”, contextualiza e monta dados sequenciais, assim como modelos de linguagem constroem frases.

Apesar de seus avanços, os vídeos de Sora ainda exibem erros ocasionais, como pernas trocadas, cadeiras levitando ou biscoitos que perdem milagrosamente as marcas de mordida. Detectar essas falhas sugere que vídeos deepfake desse tipo continuam identificáveis em cenas complexas com altos níveis de movimento. No entanto, especialistas alertam que, à medida que a tecnologia avança, a sociedade precisará encontrar maneiras alternativas de se adaptar.

A OpenAI está conduzindo rigorosos exercícios de “equipe vermelha” para avaliar as vulnerabilidades de Sora antes de disponibilizá-lo publicamente. Esses testes envolvem especialistas do domínio com experiência em lidar com desinformação, conteúdo odioso e viés. Como os vídeos deepfake têm o potencial de enganar pessoas desprevenidas, é crucial ser proativo na contramedida de seu impacto. A colaboração entre empresas de IA, plataformas de mídias sociais e governos desempenhará um papel vital na mitigação dos riscos associados ao uso generalizado de conteúdo gerado por IA. Implementar identificadores únicos ou “marcas d’água” para vídeos gerados por IA pode ser uma estratégia defensiva eficaz.

Embora a OpenAI não tenha divulgado planos específicos para a disponibilidade de Sora em 2024, a empresa destaca a importância de tomar medidas significativas de segurança antes de seu lançamento. Processos automatizados já estão em vigor para prevenir a geração de violência extrema, conteúdo sexual, imagens odiosas e representações de políticos ou celebridades reais. Essas precauções são especialmente relevantes à medida que um número crescente de pessoas participa de eleições, tornando a segurança e a integridade do conteúdo digital uma prioridade máxima.

The source of the article is from the blog be3.sk

Privacy policy
Contact