O que você acha da tendência de hackers "transformarem a IA em arma" para realizar ataques cibernéticos e fraudes?

Dr. Nguyen Tuan Khang: De acordo com o Índice de Inteligência de Ameaças X-Force de 2024 da IBM, a Ásia- Pacífico , incluindo o Vietnã, é a região que sofrerá mais ataques cibernéticos no mundo em 2023. Dentre eles, a indústria de manufatura é o setor mais afetado por ataques cibernéticos.

O principal método dos criminosos ainda são os ataques de phishing, que visam pessoas vulneráveis ​​e exploram vulnerabilidades para instalar malware. Além disso, a tendência emergente em 2024 são os ataques cibernéticos envolvendo inteligência artificial (IA).

O relatório da Wired aponta que muitos bandidos estão usando IA generativa para ajudar a orientar hacks, criar chatbots fraudulentos ou criar imagens e vídeos Deepfake que imitam rostos e vozes de outras pessoas.

No entanto, acompanhando essa tendência, os sistemas de segurança da informação também estão começando a integrar recursos de IA, como o WatsonX. A inteligência artificial pode ser explorada, mas também pode substituir humanos na análise, monitoramento, identificação de números e previsão de cenários de ataque, aprimorando assim as capacidades de defesa e minimizando os riscos à segurança da informação.

W-nguyen-tuan-khang-ibm-1.jpg
Especialista em segurança cibernética Nguyen Tuan Khang. Foto de : Trong Dat

Golpes de deepfake estão se tornando cada vez mais comuns. Com o rápido desenvolvimento da IA, quão perigosos esses ataques serão no futuro?

Dr. Nguyen Tuan Khang: Basicamente, o Deepfake é uma tecnologia que ajuda hackers a criar identidades digitais falsas, personificando outras pessoas. O Deepfake será um problema perigoso porque essa tecnologia está se tornando cada vez mais sofisticada.

Para combater o Deepfake, a primeira coisa a fazer é determinar se a imagem ou a voz de uma pessoa é gerada por IA. Atualmente, não existe uma ferramenta universal que possa detectar Deepfakes imediatamente, pois os invasores estão constantemente desenvolvendo novos modelos.

Além da detecção de deepfakes, existe outra técnica para lidar com isso: o uso da tecnologia para analisar o comportamento. Do ponto de vista organizacional e empresarial, é necessário desenvolver um sistema que combine ambas as técnicas.

Recentemente, houve ataques cibernéticos em que hackers secretamente implantaram malware no sistema da empresa. O malware fica à espreita e analisa todas as atividades, criando assim uma identidade falsa para realizar intenções maliciosas. Com o desenvolvimento da tecnologia Deepfake, combinada com a capacidade de criar vídeos criados por IA, esses tipos de ataques serão muito mais perigosos no futuro.

Com a escalada de ataques cibernéticos Deepfake, como podemos proteger idosos, crianças e outros grupos vulneráveis ​​de golpistas?

Dr. Nguyen Tuan Khang: Idosos e crianças são frequentemente atacados por golpistas que utilizam uma técnica chamada engenharia social. Este termo descreve ataques por meio da manipulação do comportamento humano.

Os hackers agora podem usar IA em combinação com coleta, mineração e análise de dados para identificar pessoas com probabilidade de serem vítimas de golpes e, então, encontrar maneiras de atacar. Além de conscientizar a comunidade, também precisamos aceitar que situações em que usuários são vítimas de golpes ocorrerão e precisamos usar a tecnologia para detectá-las e preveni-las.

W-fraude-online-1.jpg
Alerta sobre casos de se passarem por policiais para aplicar golpes em transferências de dinheiro pela Polícia do Bairro de Thanh Luong ( Hanói ). Foto: Trong Dat

Recentemente, houve um caso em que um funcionário de banco suspeitou que uma senhora idosa que veio transferir dinheiro apresentava sinais de ter sido vítima de golpe. Essa pessoa então interrompeu imediatamente a transação e denunciou o caso às autoridades. Os sistemas de TI dos bancos agora contam com tecnologia para substituir humanos nessas tarefas.

O papel da tecnologia é que, mesmo que se saiba que o remetente é a pessoa real, o sistema ainda interromperá a transferência caso haja suspeita de que a transação esteja sendo manipulada por outra pessoa. Essas ferramentas são chamadas de sistemas de prevenção de fraudes.

Está na hora de o Vietnã impor sanções para gerenciar a IA e colocar a pesquisa, o desenvolvimento e o uso da IA ​​em uma estrutura?

Dr. Nguyen Tuan Khang: A questão da gestão de IA vem sendo discutida há muito tempo, mas ainda há muitas controvérsias. Por exemplo, o estacionamento da minha região possui um sistema de IA para reconhecimento de placas, mas ainda havia roubos. Naquela época, começou a surgir a controvérsia sobre de quem era a culpa. O proprietário do apartamento, o segurança ou o desenvolvedor do sistema de IA deveriam ser responsabilizados?

Desde então, o prédio mudou suas regras, afirmando que os moradores podem optar por usar IA para reconhecer placas de veículos por conveniência, mas precisam aceitar os riscos. Aqueles que concordarem poderão usar as portas automáticas, aqueles que não concordarem terão que estacionar seus carros da maneira antiga. Precisamos de sanções como essa.

Da mesma forma, a IBM desenvolveu um sistema de IA para ajudar a prevenir o câncer. Quando o sistema prescreveu um medicamento, mas o paciente o tomou, mas mesmo assim não conseguiu se salvar, a culpa é do médico ou da IA?

Acredito que a regulamentação da IA ​​precisa ser específica, definindo claramente o que pode e o que não pode ser feito no desenvolvimento de aplicações de IA. Para tornar o mundo mais seguro, a regulamentação mais básica que podemos implementar é exigir que grandes transferências de dinheiro sejam reconhecidas biometricamente. Nessa situação, pessoas que perdem suas informações de identidade podem evitar completamente a perda de dinheiro.

Obrigado.

Golpes de deepfake, falsificação de rostos e vozes aumentarão em 2024 De acordo com a previsão da VSEC, ataques cibernéticos usando IA, incluindo golpes de deepfake para falsificar rostos e vozes, aumentarão em 2024.