×

Vulnerabilidade em servidor do ChatGPT expõe dados sensíveis de usuários

Na última semana, os servidores do ChatGPT foram desligados por conta de uma vulnerabilidade de segurança que resultou no vazamento de dados sensíveis dos usuários. A OpenAI, empresa responsável pelo ChatGPT, confirmou a operação e apontou que a violação de dados ocorreu por conta de um bug em uma biblioteca de código aberto.

De acordo com a investigação conduzida pela OpenAI, informações como títulos do histórico de bate-papo dos usuários ativos e a primeira conversa recém-criada foram expostos na violação de dados. Além disso, informações de pagamento de 1,2% dos assinantes do ChatGPT Plus também vazaram. Estes dados incluem nome, sobrenome, e-mail, endereço, data de validade e os quatro dígitos do número do cartão do cliente.

A exposição dos dados ocorreu em uma janela de nove horas, mas a empresa afirmou que acredita que não há risco contínuo de novos vazamentos. A OpenAI adotou ações para minimizar os danos e corrigir o bug, incluindo testes para correção do bug, adição de verificações que garantem que os dados do cache Redis correspondam ao usuário que solicitou a ação, avaliação dos logs para garantir que as mensagens estejam disponíveis apenas para o usuário correto e aprimoramento de registros e mais robustez para redução da probabilidade de erros de conexão em cargas extremas.

Apesar das medidas tomadas pela OpenAI, a GreyNoise, empresa de inteligência de ameaças, emitiu um alerta sobre um novo recurso do ChatGPT que aumenta o processo de coleta de informações do chatbot por meio de plugins. A empresa apontou que o código do OpenAI ofertado aos clientes que querem usar plugins com o novo recurso incluem uma imagem afetada por vulnerabilidade.

A GreyNoise também alertou para o fato de que essa vulnerabilidade do ChatGPT vem sendo explorada de forma ativa por invasores que tentam uma identificação em massa e exploração dos serviços vulneráveis, inclusive plug-ins implantados na versão desatualizada do MinIO.

A violação de segurança do ChatGPT traz à tona a importância da adoção de medidas de segurança e da implementação de regulamentações sobre inteligência artificial. A OpenAI acelerou seus planos para regular a inteligência artificial em resposta ao ocorrido e líderes governamentais estão seguindo o mesmo caminho.

A inteligência artificial tem se tornado uma parte cada vez mais integrada de nossas vidas pessoais e profissionais. Ela promete trazer inovação e eficiência para diversas áreas, incluindo saúde, educação, administração pública e indústria. No entanto, à medida que a dependência dessa tecnologia aumenta, também aumentam os riscos de violações de segurança e privacidade.

Para evitar futuros incidentes como o vazamento de dados do ChatGPT, medidas de segurança robustas e adequadas são indispensáveis. As empresas responsáveis por produtos e serviços de inteligência artificial devem implementar protocolos de segurança rigorosos e regulamentações claras devem ser estabelecidas pelos governos para garantir que essas empresas sigam padrões éticos e de segurança rígidos.

Além disso, é fundamental que os usuários também sejam proativos em relação à sua segurança online. Isso inclui verificar as configurações de privacidade e segurança em seus dispositivos e contas online, utilizar senhas fortes e atualizá-las regularmente e tomar cuidado com a informação pessoal compartilhada online.

A inteligência artificial tem o potencial de trazer muitos benefícios para nossas vidas, mas é preciso agir com responsabilidade e cautela para garantir que essa tecnologia seja usada de maneira segura e ética. O incidente do ChatGPT é um lembrete importante de que a segurança deve ser a prioridade máxima em todas as áreas da tecnologia, incluindo a inteligência artificial.

Deixe um comentário

O seu endereço de e-mail não será publicado.

Newsletter:
Assine e receba nossas notícias no seu e-mail: