Enroleuma plataforma líder que otimiza o processo de integração e chegada para universidades, estudantes e agentes, relatou casos crescentes de ‘de profundidade’ sendo usado em entrevistas de credibilidade.
A empresa garantiu a seus parceiros que permanece adiante da ameaço Deepfake – teor manipulado projetado para replicar a figura ou a voz de uma pessoa – e está continuamente se adaptando para combater qualquer risco.
A empresa relatou zero casos de de DeepFaking sinalizados em entrevistas durante a ingestão de setembro de 2025 do Reino Uno, mas viu várias tentativas em janeiro de 2025.
Das aproximadamente 20.000 entrevistas na ingestão de 2025 de janeiro, 1,3% dos casos envolveram “miragem totalidade”, de concordância com Phoebe O’Donnell, director de serviços da Enroly.
“Algumas das coisas que descobrimos nas entrevistas dos alunos são diretamente de um filme de ficção científica-sincronização labial, representação e até tecnologia Deepfake … bem-vindo ao horizonte da fraude, pessoal”, escreveu O’Donnell em um blogpost abordando o problema.
Algumas das coisas que descobrimos nas entrevistas dos alunos são diretamente de um filme de ficção científica-sincronização labial, representação e até tecnologia Deepfake
Phoebe O’Donnell, enrole
A Enroly quebra os casos de miragem na ingestão de janeiro de 2025, observando que 0,1% de casos usavam “suporte de terceiros”, 0,6% de casos usaram “sincronização labial” e 0,15% usando “tentativas de DeepFake”.
“DeepFakes foram a maior surpresa … eles são o material de pesadelos para os avaliadores de entrevistas – rostos falsos em camadas sobre os reais, completos com expressões e movimentos. É porquê alguma coisa fora de um filme de espionagem. E sim, eles são incrivelmente difíceis de detectar ”, disse O’Donnell.
“Mas difícil não é impossível. Graças à tecnologia em tempo real e a alguns truques inteligentes nas mangas, já paramos várias tentativas. É uma tendência pequena, mas crescente, e estamos determinados a permanecer adiante e trabalhar com nossos parceiros e o setor mais largo ”, ela garantiu que as partes interessadas.
“Práticas fraudulentas continuarão evoluindo, mas com a combinação certa de tecnologia e experiência, as universidades podem permanecer um passo adiante”, acrescentou O’Donnell, anunciando um webinar para instituições interessadas em aprender mais.
Conversando com A torta Notíciasum porta -voz do UK Home Office destacou as medidas do departamento para evitar essa fraude em seus próprios processos e as penalidades para aqueles que são pegos.
“Temos sistemas rigorosos para identificar e prevenir o pedido fraudulento de visto de estudante”, disse o porta -voz.
Qualquer quidam que tenta trapacear ou usar o miragem não terá sucesso
Porta -voz do escritório em morada do Reino Uno
“Qualquer quidam que tenta trapacear ou usar o miragem não terá sucesso e pode enfrentar a proibição de solicitar vistos no Reino Uno por 10 anos. Também continuaremos a tomar medidas difíceis contra empresas e agentes sem escrúpulos que procuram desmandar, explorar ou fraudar estudantes internacionais ”, continuaram eles.
Em 2023, a torta relatado Sobre a ameaço de figuras de DeepFakes para a segurança do teste em inglês. Enquanto as principais partes interessadas descreviam o risco porquê “minúsculo”, citando a subida barreira técnica à ingressão, empresas porquê o Duolingo English Test estavam tomando medidas proativas para proteger os testes, nomeando um engenheiro principal especializado em tecnologia DeepFake, enquanto aproveitava a IA e os procuradores humanos para detectar sinais de interferência externa.