O volume de ataques de identidade gerados por IA aumentou em 2023 a tal nível que se tornou um tema que afeta consumidores, organizações e até líderes mundiais. A biometria representa uma força transformadora na forma como os indivíduos interagem com os sistemas digitais e como as organizações protegem informações confidenciais, e, à medida que 2024 se aproxima, cada vez mais o panorama da identidade digital aponta para avanços significativos, com inovações delineadas para redefinir a verificação, elevar os padrões de segurança e melhorar a experiência dos usuários.
Para compreender o iminente futuro da biometria, a iProov selecionou oito principais tendências e previsões que devem afetar o mercado de identidade digital em 2024. Confira.
A biometria se tornará a pedra angular da infraestrutura de segurança do mercado de serviços financeiros
No ano passado, muitas organizações de serviços financeiros expandiram o acesso digital remoto para atender a uma demanda dos usuários. No entanto, isso ampliou a superfície de ataque digital e criou oportunidades para fraudadores. Nos EUA, esse setor tem sido mais lento na adoção de tecnologias de identidade digital do que outras regiões, o que pode ser atribuído aos desafios que o país enfrenta em termos de regulação da interoperabilidade e do intercâmbio de dados. No entanto, com a expectativa de que a fraude de identidade sintética gere pelo menos US$ 23 bilhões em perdas até 2030, a pressão deve aumentar.
Os consumidores esperam abrir contas e acessar serviços remotamente com rapidez e facilidade, enquanto os fraudadores minam a segurança de canais online para desviar dinheiro. Ao mesmo tempo, existe a séria ameaça de não conformidade às práticas de Conheça o seu Cliente (KYC – Know Your Customer) e de Combate à Lavagem de Dinheiro (AML – Anti Money Laundering). As penalidades para isso incluem multas pesadas e até processos criminais. Mas há um risco aumentado de escapar às sanções, além de financiar adversários de governos.
Como resposta, muitas instituições financeiras estão sendo incitadas a tomarem medidas que envolvem a troca de processos complicados de integração e a substituição de métodos desatualizados de autenticação, como senhas e códigos de acesso, por tecnologias avançadas que permitem integrar e autenticar remotamente os clientes de serviços bancários on-line.
Na linha de frente, está uma tecnologia pioneira, de verificação biométrica facial, que oferece conveniência e acessibilidade incomparáveis aos usuários e, ao mesmo tempo, desafios de segurança inigualáveis para os criminosos.
Haverá um rápido aumento no número de países em desenvolvimento que criam programas de identidade digital baseados em identidade descentralizada
Estima-se que 850 milhões de pessoas em todo o mundo não têm uma forma legal de identificação e, sem uma identidade, as dificuldade vão desde abrir uma conta bancária, conseguir um emprego e até acessar serviços como os de saúde, situações estas que as tornam financeira e socialmente excluídas.
Os programas de identidade digital melhoram a acessibilidade a serviços e oportunidades digitais ao permitir que as pessoas afirmem a sua identidade e possam utilizar plataformas online, além de participar de iniciativas governamentais digitais. Apoiados por recursos do Banco Mundial, os programas de identidade digital podem ajudar as economias menos avançadas a evitar roubo de identidade e fraudes, além de proporcionar uma forma alternativa de as pessoas provarem a sua identidade e terem acesso a serviços essenciais como benefícios, incluindo saúde e educação.
Com base em uma identidade descentralizada, esses programas permitirão aos usuários armazenar e trocar digitalmente documentos de identidade, como a carteira de habilitação, e credenciais variadas, como diplomas, e autenticar essas pessoas sem a necessidade de uma autoridade central.
Videochamadas remotas para verificação de identidade devem desaparecer
Videochamadas para verificação de identidade envolvem uma conexão de vídeo entre um operador treinado e a pessoa a ser verificada, que é solicitada a mostrar um documento de identidade para que seja comparado ao seu rosto, na câmera. No entanto, foi comprovado que a verificação por videochamada fornece pouca garantia de que o usuário seja uma pessoa “viva” e não imagens produzidas por Inteligência Artificial (IA) generativa, sobrepostas de forma convincente ao rosto do ator da ameaça.
Em 2022, investigadores do Chaos Computer Club conseguiram contornar a tecnologia de verificação de videochamadas utilizando IA generativa e forjar uma identificação. O caso demonstrou como essa tecnologia e os operadores humanos dos quais ela depende são altamente suscetíveis a ataques de imagens sintéticas. Desde então, o Escritório Federal Alemão para Segurança da Informação alertou contra a verificação de videochamadas por sua vulnerabilidade a esses ataques.
Se não forem capazes de se defender da ameaça das deepfakes na integração e autenticação, os programas de identidade digital poderão ser explorados para fins criminosos, como fraude de pagamentos, lavagem de dinheiro e financiamento ao terrorismo.
As organizações introduzirão autenticação mútua entre funcionários para comunicação de alto risco e para integração remota de novos colaboradores
À medida que as organizações dependem cada vez mais de meios digitais para comunicação confidencial, a implantação de medidas robustas de cibersegurança é fundamental para mitigar as ameaças. A introdução da autenticação mútua para comunicações e transações de alto risco é uma medida de segurança imprescindível que acrescenta uma camada extra de proteção contra acessos não autorizados e ameaças potenciais. Além disso, em certas indústrias, a conformidade exige a implementação de medidas de segurança mais robustas. A autenticação mútua ajuda as organizações a atenderem esses requisitos de compliance, ao garantir canais de comunicação seguros e ao proteger informações confidenciais.
As violações de dados corporativos triplicarão devido a ataques bem-sucedidos gerados por IA
Por anos, organizações e indivíduos confiam em ferramentas de detecção de e-mails de phishing que se baseiam em erros ortográficos e gramaticais. Mas esse tempo já passou. A qualidade das respostas geradas pelo Chat GPT é tamanha que os agentes de ameaças agora podem usar a plataforma generativa para criar ataques de phishing de alta qualidade em comunicações muito convincentes, sem pistas suspeitas.
Em 2024, poderá ser testemunhado um aumento acentuado na qualidade e no volume dos ataques de phishing gerados por IA. O aprimoramento da capacidade de gerar alertas de segurança deve se tornar uma ferramenta redundante e as organizações serão forçadas a procurarem métodos alternativos e mais confiáveis para autenticar os usuários internos e externos das suas plataformas.
O preço de kits de síntese de voz e vídeo para crime como serviço vai cair para menos de US$ 100
A modalidade de crime como serviço e a disponibilidade de ferramentas de síntese de voz e de vídeo aceleram a evolução do cenário de ameaças ao permitir que os criminosos lancem ataques avançados mais rapidamente e em maior escala. Ataques bem-sucedidos devem aumentar em volume e frequência, assim como o risco de danos graves.
Os criminosos estão usando tecnologia sofisticada de IA generativa para criar e lançar ataques para explorar os sistemas de segurança das organizações, além de fraudar indivíduos.
A iProov vem constatando indicações semelhantes de criminosos pouco qualificados ganhando a capacidade de criar e lançar ataques avançados de imagens sintéticas. No seu mais recente relatório de inteligência biométrica contra ameaças, foi apontado o surgimento e o rápido crescimento de trocas de rostos em vídeo. Esse tipo de ameaça é uma das formas de imagem sintética na qual o criminoso combina mais de um rosto para criar uma imagem de vídeo 3D falsa.
O preço das ferramentas necessárias a esse tipo de ataques vem caindo rapidamente e o ideal é possuir kits de Crime-as-a-Service custando menos de US$ 100 muito em breve.
O potencial da IA para espalhar desinformação política fará com que a autoria autenticada de imagens e conteúdo escrito seja uma ferramenta legalmente exigida
À medida que as eleições se aproximam, pode ser observado uma infinidade de vídeos deepfake gerados por IA sendo usados para persuadir os eleitores. Para remediar essa situação, espera-se grandes iniciativas por parte das empresas de tecnologia no sentido de fornecer formas para as pessoas verificarem a autenticidade das imagens que são geradas. Isso inclui soluções que permitem às pessoas acrescentarem marcas d’água às imagens e assiná-las quando são criadas ou modificadas.
É provável que, em 2024, cresça o número de tentativas nessa área porque o uso de deepfakes já está muito difundido.
Uma chamada por videoconferência gerada por IA causará a primeira fraude de CEO de US? 1 bilhão
A fraude de CEOs atinge pelo menos 400 empresas todos os dias e representa uma ameaça significativa para organizações globalmente. Nesse tipo de crime, os invasores se passam por executivos seniores da empresa e tentam enganar os funcionários para que transfiram fundos, divulguem informações confidenciais ou iniciem outras atividades fraudulentas. Frequentemente, envolvem ataques sofisticados de engenharia social, o que os torna mais difíceis de detectar.
Ferramentas IA generativas estão sendo amplamente utilizadas por fraudadores para criar deepfakes para imitar uma pessoa. Os malfeitores agora podem criar áudios e imagens convincentes gerados por Inteligência Artificial e implantá-los em plataformas como o Zoom, o Microsoft Teams e o Slack. Sem ferramentas sofisticadas de monitoramento e detecção, é quase impossível identificar esse tipo de imagem sintética.
Nesse contexto, é muito provável que, em 2024, observe-se a primeira chamada de Zoom gerada por IA que levará a uma fraude de CEO de mais de US$ 1 bilhão.
Isenção de responsabilidade: As opiniões, bem como todas as informações compartilhadas nesta análise de preços ou artigos mensionando projetos, são publicadas de boa fé. Os leitores devem fazer sua própria pesquisa e devida diligência. Qualquer ação tomada pelo leitor é estritamente por sua conta e risco. O Bitcoin Block não será responsabilizado por qualquer perda ou dano direto ou indireto.
Leia também:
Prejuízo com ataques cibernéticos pode chegar a USD$10,5 trilhões até 2025
Carteira Recomendada Cripto do MB amplia exposição em BTC em novembro
Mercado Pago soma três novos tokens em seu portfólio de criptos