Estudo aponta crescimento no uso do ChatGPT em ciberataques

O estudo identificou o uso de credenciais de contas da plataforma ChatGPT. Veja os números

Os cibercriminosos estão recorrendo cada vez mais à Inteligência Artificial para aprimorar os ataques na internet. É o que aponta o relatório recentemente publicado pela Apura Cyber Intelligence, que compila os principais eventos relacionados à cibersegurança durante o primeiro semestre de 2023. Nesse período, a plataforma BTTng da Apura, que mapeia os diversos níveis da internet em busca de possíveis ataques, já identificou mais de 58 mil credenciais de contas da plataforma ChatGPT sendo comercializadas em fóruns underground.

“A inteligência artificial foi uma das protagonistas mais mencionadas durante o primeiro semestre de 2023. Assim que várias instâncias de inteligência artificial se tornaram públicas, os criminosos se apressaram em direcionar esse potencial para atividades maliciosas. Isso pode envolver a criação de códigos de malwares de forma mais eficiente, bem como a replicação da identidade de terceiros, imitando tanto a aparência quanto a voz. A inteligência artificial demonstrou que veio para estabelecer sua presença nesse aspecto sombrio da sociedade”, comenta Anchises Moraes, Cyber Threat Intel Lead na Apura.

Lançado no final de 2022, o ChatGPT conquistou uma popularidade instantânea ao democratizar o acesso à inteligência artificial (IA) para o público em geral. Enquanto as discussões sobre os potenciais benefícios e riscos da IA aumentam, também cresce a preocupação em relação a questões de segurança e ao uso inadequado das tecnologias. Eventos como o vazamento de informações confidenciais por funcionários da Samsung ao utilizar o ChatGPT, têm desencadeado uma série de incidentes preocupantes.

Anchises Moraes, Cyber Threat Intel Lead na Apura

Nos primeiros meses deste ano, ocorreram casos de golpes que utilizavam mensagens de phishing baseadas em temas relacionados ao ChatGPT, com o objetivo de distribuir malware com uma eficácia surpreendente. Os criminosos têm se valido de aplicativos falsos que se passam pelo ChatGPT para infectar dispositivos Android com trojans, amplificando os riscos de infiltração.

“Os cibercriminosos estão demonstrando habilidade em explorar a IA para criar abordagens de phishing mais convincentes e otimizar códigos maliciosos. A ameaça crescente também se estende ao uso de deepfakes baseados em IA para a criação de réplicas extremamente realistas de indivíduos, permitindo que os golpistas se façam passar por pessoas legítimas e evitem sistemas de autenticação biométrica”, alerta Moraes.

Em abril, uma brecha de segurança no ChatGPT expôs informações pessoais de usuários, permitindo a visualização das perguntas do histórico de pesquisa de terceiros, incluindo detalhes sensíveis como nomes completos, endereços de e-mail e os últimos dígitos dos cartões de crédito. Em maio, o influenciador Dario Centurione, do Almanaque SOS, relatou um caso notório em que golpistas clonaram sua voz usando IA para enganar seu próprio pai, solicitando dinheiro emprestado.

+ mais lidas

Governança cliente-cêntrica: uma estratégia corporativa essencial e necessária

Quanto você pagaria para ver um gol do seu time do coração?

Presidente do Senado defende “urgência” na regulamentação da inteligência artificial

Governança cliente-cêntrica: uma estratégia corporativa essencial e necessária

Quanto você pagaria para ver um gol do seu time do coração?

Presidente do Senado defende “urgência” na regulamentação da inteligência artificial