O chat de inteligência artificial ChatGPT foi utilizado por pesquisadores em segurança para gerar uma espécie de guia completo para realização de um ataque cibernético. Por meio da plataforma, os especialistas foram capazes de indicar um alvo e receber instruções completas sobre possíveis vulnerabilidades e até dicas sobre códigos a serem utilizados nas explorações.
Nos testes, os pesquisadores do Cybernews usaram a plataforma de treinamento online Hack the Box e propuseram um desafio à inteligência artificial: testar as vulnerabilidades em um site com um único botão. O ChatGPT, administrado pela organização de desenvolvimento da tecnologia OpenAI, indicou cinco passos iniciais para checagem de possíveis brechas disponíveis na página, como tentar manipular solicitações ou inserir caracteres e comandos JavaScript.
A conversa continuou e, na medida em que o teste de penetração seguia, o papo também se tornava mais direcionado. A IA foi capaz de, por exemplo, indicar partes do código da página que poderiam ser analisadas e manipuladas em busca de aberturas e até sugestões de mudanças para atingir determinados objetivos. Comandos de exploração também foram introduzidos no chat, que ajudou na adaptação para o caso em questão.
O resultado foi uma invasão bem-sucedida após cerca de 45 minutos de conversa no ChatGPT. Enquanto os pesquisadores indicam que o caminho exato, assim como ferramentas de exploração, não foram dados pela ferramenta diretamente, ela forneceu diferentes ideias e caminhos a seguir, bem como palavras-chave que poderiam ser pesquisadas para chegar até malwares e recursos que auxiliariam no ataque em progresso.
Ao longo da conversa, a inteligência artificial também informou sobre regras de hacking ético e indicou a necessidade de pedir permissão antes de realizar testes de intrusão em serviços e sites, além de alertar sobre os danos que podem ser causados por um ataque cibernético. Ainda assim, todas as instruções foram dadas, com a plataforma podendo servir como recurso de treinamento de cibercriminosos e também assistente na realização de explorações.
Para o Cybernews, se trata de mais uma demonstração de que o cenário de ameaças mudou, com o uso de inteligência artificial ganhando mais uma via de acesso para os criminosos digitais. Os pesquisadores lembram, entretanto, que a mesma tecnologia também pode ser usada em prol da segurança, com tecnologias de IA também servindo para monitorar acessos e indicar falhas na proteção.
Comentando o estudo, a OpenAI afirmou tomar medidas de moderação para impedir que solicitações não apropriadas sejam feitas no ChatGPT, mas que esse ainda é um trabalho em andamento, com o sistema podendo responder a elas de forma enviesada ou danosa. Ainda assim, APIs de moderação estão sendo desenvolvidas para impedir a circulação de conteúdo inseguro nas ferramentas da organização.
Fonte: Cybernews