Ronaldo Lemos
Plataforma Synthesia permite criar cópias virtuais de pessoas com IA
Dentre todas as mudanças que a inteligência artificial traz, uma das mais inquietantes é a possibilidade de criar cópias digitais de nós mesmos. A empresa Synthesia oferece o serviço. Você grava um vídeo de 15 minutos em frente a uma tela verde, com boa iluminação, e manda para lá. Dez dias depois a empresa habilita seu clone virtual criado usando IA. O clone é uma réplica não só da sua imagem, mas também da sua voz. O custo é uma taxa anual de US$ 1.000 (cerca de R$ 5.000), mais uma assinatura mensal de US$ 30 (R$ 150). Se a ideia é clonar só a voz, há empresas que oferecem o serviço por US$ 5 (R$ 25) mensais.
Uma vez que o clone é criado, você pode usá-lo em qualquer tipo de vídeo. Um professor pode dar uma aula com o clone (simplesmente inserindo o texto). Um político pode fazer um pronunciamento. Dá inclusive para escolher o cenário e até mudar o idioma (são 120 línguas disponíveis). Dá também para fazer ligações telefônicas com a voz clonada. E participar de videoconferências ao vivo. Está com preguiça de ligar a câmera no Zoom? Coloque o clone no seu lugar.
Diante dessa novidade, o que poderia dar errado? Muita coisa. Uma jornalista do jornal Wall Street Journal chamada Joanna Stern resolveu testar as possibilidades. Ela criou seu clone digital e o colocou para interagir com pessoas no mundo real em situações diversas. Ligou para sua irmã com a voz clonada e a irmã acreditou que era ela. Ligou para seu pai pedindo que ele enviasse um número de documento sensível, e o pai enviou.
Ela também ligou para seu banco nos Estados Unidos, que usa reconhecimento de voz para autorizar o acesso ao atendimento. O banco reconheceu a voz como sendo a dela e autorizou o acesso ao sistema. Isso mostra que segurança será um dos desafios. Uma vez que a voz é clonada, ela pode ser usada em fraudes e crimes. Alguém pode usar sua voz para dar um golpe, fazer ameaças, calúnias e assim por diante.
Algumas empresas dizem ter filtros que impedem esse tipo de uso. Outras não tem nada disso. O que é preocupante porque em breve vai ser muito fácil clonar a voz de qualquer pessoa, mesmo sem o seu consentimento. Considerando que o Brasil é o paraíso dos golpes na internet (e que todos nossos dados pessoais vazaram e estão disponíveis online) é altamente recomendável conversar desde já com parentes e amigos para que comecem a duvidar de mensagens de voz enviadas no seu nome, mesmo que na sua própria voz. Na dúvida, vale fazer uma chamada de vídeo para se certificar de que a mensagem enviada é verdadeira.
Você pode pode perguntar: "mas, Ronaldo, a chamada de vídeo também não pode ser falsificada?". Pode sim, só que a qualidade ainda não é boa. A jornalista do Wall Street Journal não conseguiu enganar por muito tempo as pessoas durante uma chamada de vídeo. Os participantes logo notaram que tinha algo de errado. Só que com o avanço da tecnologia, em breve a falsificação de vídeovai se tornar cada vez mais perfeita. Com isso, bancos, certificadoras digitais e outros serviços que têm usado vídeo e voz para autenticar seus clientes estarão em maus lençóis. Junto com todos nós.
Já era – estúdios de fotografia especializados em tirar fotos da família
Já é – estúdios para gravação de podcasts
Já vem – estúdios especializados na criação de clones digitais para inteligência artificial
Fonte: Folha de S.Paulo
Nenhum comentário:
Postar um comentário