Table of Contents
Disrupção de Operações Maliciosas pela OpenAI
Na última quarta-feira, a OpenAI anunciou que desmantelou mais de 20 operações e redes enganosas no mundo todo, as quais tentavam utilizar sua plataforma para fins maliciosos desde o início do ano. Esse movimento revela uma crescente preocupação com o uso indevido da inteligência artificial (IA) em diversas esferas.
Atividades Maliciosas Identificadas
Essas atividades incluíram uma variedade de ações prejudiciais, como:
- Debugging de malware;
- Redação de artigos para websites;
- Geração de biografias para contas em redes sociais;
- Criação de imagens de perfil geradas por IA para contas falsas na plataforma X.
“Os atores de ameaça continuam a evoluir e experimentar com nossos modelos, mas não vimos evidências de que isso tenha levado a avanços significativos em sua capacidade de criar malware substancialmente novo ou de construir audiências virais,” declarou a OpenAI.
Impacto nas Redes Sociais
A OpenAI também relatou a interrupção de atividades que geraram conteúdo em redes sociais relacionado a eleições nos EUA, Ruanda, e em menor extensão, na Índia e na União Europeia. É importante destacar que nenhuma dessas redes conseguiu atrair engajamento viral ou manter audiências consistentes.
Entre as operações identificadas, destaca-se a de uma empresa comercial israelense chamada STOIC (também conhecida como Zero Zeno), que gerou comentários em redes sociais sobre as eleições indianas.
Operações Cibernéticas Destacadas
Algumas das operações cibernéticas apontadas pela OpenAI incluem:
- SweetSpecter: Um adversário suspeito baseado na China que utilizou os serviços da OpenAI para reconhecimento informado por LLM, pesquisa de vulnerabilidades e suporte à criação de scripts. Observou-se também tentativas de phishing contra funcionários da OpenAI para entregar o RAT SugarGh0st.
- Cyber Av3ngers: Um grupo associado ao Corpo da Guarda Revolucionária Islâmica (IRGC) do Irã, que usou modelos da OpenAI para realizar pesquisas sobre controladores lógicos programáveis.
- Storm-0817: Um ator de ameaça iraniano que empregou modelos da OpenAI para debugar malware Android capaz de coletar informações sensíveis, além de ferramentas para extrair perfis do Instagram via Selenium e traduzir perfis do LinkedIn para o persa.
Operações de Influência e Gerenciamento de Conteúdo
A OpenAI alegou ter bloqueado várias redes de contas associadas a operações de influência, incluindo operações codename A2Z e Stop News, que geravam conteúdo em inglês e francês para posterior postagem em diversos websites e contas de redes sociais.
“[Stop News] foi incomumente prolífica em seu uso de imagens,” disseram os pesquisadores Ben Nimmo e Michael Flossman. “Muitos de seus artigos na web e tweets eram acompanhados de imagens geradas usando DALL·E, frequentemente em estilo de cartoon, com paletas de cores brilhantes ou tons dramáticos para atrair atenção.”
Além disso, duas outras redes, Bet Bot e Corrupt Comment, foram identificadas como utilizando a API da OpenAI para gerarem conversas com usuários na plataforma X e enviar links para sites de apostas, bem como fabricar comentários que foram postados na mesma plataforma.
Implicações da IA na Manipulação Política
A divulgação das atividades maliciosas realizadas com o auxílio da IA vem à tona quase dois meses após a OpenAI banir um conjunto de contas ligadas a uma operação secreta de influência iraniana chamada Storm-2035, que utilizou o ChatGPT para gerar conteúdo voltado, entre outros, para a eleição presidencial americana.
“Os atores de ameaça mais frequentemente usaram nossos modelos para realizar tarefas em uma fase intermediária específica de atividade — após adquirirem ferramentas básicas, como acesso à internet, endereços de e-mail e contas de redes sociais, mas antes de implantarem produtos ‘finalizados’, como postagens em redes sociais ou malware através de uma variedade de canais de distribuição,” afirmaram Nimmo e Flossman.
Reflexões Finais
A empresa de segurança cibernética Sophos, em um relatório publicado na semana passada, alertou que a IA generativa poderia ser mal utilizada para disseminar desinformação adaptada por meio de e-mails microdirecionados. Isso se refere ao uso indevido de modelos de IA para criar websites de campanha política, personas geradas por IA em todo o espectro político e mensagens de e-mail que as visem especificamente, permitindo um novo nível de automação que facilita a propagação de desinformação em grande escala.
“Isso significa que um usuário poderia gerar qualquer coisa, desde material de campanha benigno até desinformação intencional e ameaças maliciosas com reconfigurações mínimas,” afirmaram os pesquisadores Ben Gelman e Adarsh Kyadige.
Essas situações evidenciam como a manipulação intencional da informação pode alavancar movimentos políticos e distorcer a percepção pública, associando indevidamente candidatos a políticas com as quais não concordam.
#OpenAI #InteligenciaArtificial #Cibersegurança #Desinformação #ManipulaçãoPolítica #Tecnologia #OperaçõesMaliciosas #SegurançaDigital #RedesSociais
autor ref: The Hacker News
ref:https://thehackernews.com/2024/10/openai-blocks-20-global-malicious.html