PUBLICIDADE
Segurança

Chatbots personalizados da OpenAI: vazamento de dados e riscos à privacidade

PUBLICIDADE

No início deste mês, a OpenAI lançou seus chatbots personalizados baseados em GPTs, permitindo que qualquer pessoa, mesmo sem conhecimento de programação, crie suas próprias versões do ChatGPT, denominadas “GPTs”. Embora essa iniciativa tenha proporcionado uma explosão de criatividade, permitindo a construção de chatbots especializados, uma questão crucial vem à tona: a segurança desses bots.

Esses GPTs podem ser utilizados para fins pessoais ou publicados na web, com a perspectiva de desenvolvedores lucrarem conforme a popularidade de seus GPTs cresce. A criação desses chatbots é surpreendentemente acessível, bastando enviar mensagens ao ChatGPT especificando as funções desejadas. Contudo, essa facilidade de construção traz consigo desafios de segurança que especialistas alertam serem negligenciados.

Vazamento de segredos

Pesquisadores e profissionais de segurança identificaram uma preocupante vulnerabilidade nos GPTs personalizados: a capacidade de forçá-los a revelar suas instruções iniciais e baixar os arquivos utilizados para personalização. Jiahao Yu, pesquisador de ciência da computação da Northwestern University, destaca a o Wired a seriedade das preocupações de privacidade, afirmando que mesmo informações não confidenciais podem conter conhecimento vital para os criadores dos GPTs.

Ao testar mais de 200 GPTs personalizados, os pesquisadores da Northwestern descobriram que o vazamento de informações é “surpreendentemente simples”, atingindo uma taxa de sucesso de 100% para o vazamento de arquivos e 97% para a extração de prompts do sistema. Essa descoberta levanta sérias questões sobre a segurança dos dados manipulados pelos chatbots personalizados da OpenAI .

Como funciona o vazamento nos Chatbots personalizados

Os GPTs personalizados são projetados para serem simples de criar, o que, infelizmente, se traduz em facilidade de exploração. Os criadores podem fornecer instruções sobre o que o bot deve ou não fazer, além de enviar documentos específicos para aumentar o conhecimento do chatbot. No entanto, essa praticidade também abre portas para injeções imediatas, um método pelo qual os chatbots são instruídos a comportar-se de maneira contrária às suas diretrizes.

A exploração dessas vulnerabilidades, segundo Alex Polyakov, CEO da Adversa AI, pode ser surpreendentemente simples, muitas vezes exigindo apenas proficiência básica em inglês. Além do vazamento de informações, há preocupações sobre o clonagem de chatbots personalizados e a possível comprometimento das APIs.

PUBLICIDADE
Risco: exposição de dados. Os hackers poderiam acessar e vazar informações confidenciais a partir dos Chatbots personalizados. (Reprodução / exemplo ilustrativo)
Os hackers poderiam acessar e vazar informações confidenciais a partir dos Chatbots personalizados. (Reprodução / exemplo ilustrativo)

Resposta da OpenAI as preocupações com os Chatbots personalizados

A OpenAI ainda não respondeu ao Wired sobre às preocupações levantadas da extração de dados dos GPTs personalizados. Quando anunciaram os GPTs, a empresa afirmou que as conversas não são compartilhadas com os criadores dos chatbots personalizados, e os desenvolvedores podem verificar suas identidades. Entretanto, a facilidade com que as informações podem ser obtidas levanta dúvidas sobre a eficácia dessas medidas.

Os pesquisadores observam que, ao longo do tempo, a extração de informações dos GPTs tornou-se mais complexa, indicando esforços da OpenAI para interromper algumas injeções imediatas. No entanto, a pesquisa destaca que o jogo de “jailbreak” não tem fim, com novas formas de explorar as vulnerabilidades dos chatbots constantemente surgindo.

Conscientização e medidas de segurança

À medida que mais pessoas criam GPTs personalizados, Jiahao Yu e Alex Polyakov enfatizam a necessidade de conscientização sobre os riscos potenciais à privacidade. Yu sugere mais avisos sobre o perigo das injeções imediatas, ressaltando que muitos designers podem não estar cientes de que os arquivos carregados podem ser extraídos. Além disso, solicitações defensivas, que instruem o GPT a não permitir o download de arquivos, podem fornecer uma camada adicional de proteção.

Polyakov aconselha que as pessoas limpem os dados enviados para GPTs personalizados, removendo informações confidenciais e considerando cuidadosamente o que carregam inicialmente. O desafio contínuo está em desenvolver medidas mais robustas para defender os chatbots contra injeções imediatas, garantindo a segurança das interações com essas poderosas ferramentas de IA.

PUBLICIDADE

Thiago Santos

Sou um estudante de Ciências e Tecnologia, apaixonado por inovação e sempre antenado nas últimas tendências tecnológicas. Acredito que o futuro está intrinsecamente ligado ao avanço da ciência, e estou empenhado em contribuir para esse progresso. Além dos estudos, sou um apaixonado por cinema e séries. Nos momentos de lazer, valorizo a companhia dos amigos. Gosto de compartilhar risadas, experiências e construir memórias com aqueles que são importantes para mim. Essa convivência é fundamental para equilibrar minha busca por conhecimento e meu amor pelo entretenimento e tecnologia.

Deixe uma resposta