O YouTube começou a exigir que criadores de conteúdo avisassem o público quando vídeos realistas fossem feitos usando inteligência artificial. O alerta é feito por meio de uma pergunta no Creator Studio, que aparece durante o upload de um conteúdo. Materiais animados ou que não são claramente realistas não precisam de advertências.
Segundo o YouTube, o aviso fica na descrição expandida do vídeo. Quando para um assunto mais sensível, como notícias e saúde, o rótulo aparecerá de maneira mais proeminente. Os alertas começarão nas próximas semanas, inicialmente em aplicativos para celulares, chegando posteriormente a computadores e TVs.
O Creator Studio pergunta se o vídeo se enquadra em alguns destes critérios:
- Coloca uma pessoa real aparentemente fazendo ou contando algo que ela não fez ou disse.
- Altera gravações de eventos ou lugares reais.
- Gera uma cena que parece realista, mas que não aconteceu de verdade.
Cenas não realistas e animações não pacíficas do aviso. Também não é necessário colocar este rótulo se a IA foi usado apenas para ajudar na produção, como ferramenta para legendas, melhorias de imagem ou roteiros.
O YouTube tem planos de penalizar criadores que consistentemente deixam de incluir o rótulo em vídeos feitos usando IA. Além disso, a própria empresa poderá colocar o aviso, considerando que o conteúdo pode confundir ou enganar as pessoas.
Esta política foi anunciada em novembro de 2023, como parte de um pacote de medidas relacionadas à IA generativa e entra em vigor agora. Na ocasião, o YouTube também definiu que gravadoras e distribuidoras podem pedir para remover vídeos com imitações de artistas.
Nenhum caso dos deepfakes, a questão é mais complexa. Pessoas que aparecerem nos vídeos poderão pedir a exclusão, mas ela será avaliada pela empresa. Uma plataforma de vídeos permite sátira e paródia, mas conteúdos difamatórios podem ser excluídos.
Com informações: YouTube, CNN, TechCrunch