Até agora, você provavelmente já ouviu especialistas de vários setores soando o alarme sobre as muitas preocupações quando se trata da recente explosão na tecnologia de IA graças ao ChatGPT da OpenAI.
Se você é fã do ChatGPT, talvez tenha deixado todas essas preocupações de lado e abraçado totalmente qualquer versão do que será uma revolução da IA.
Bem, aqui está uma preocupação que você deve estar muito ciente. E é algo que pode afetar você agora: injeções pontuais.
5 plugins ChatGPT que não valem a pena
No início deste mês, OpenAI jogado fora Plugins para ChatGPT. Anteriormente, os usuários só podiam receber respostas do chatbot de IA com base nos dados em que foi treinado, o que se estendia apenas até o ano de 2021. No entanto, com plug-ins, o ChatGPT agora era capaz de interagir com sites ao vivo, arquivos PDF e todos os tipos de mais corrente. ou mesmo dados em tempo real. Embora esses plug-ins tenham criado muitas novas possibilidades, eles também criaram muitos novos problemas.
Os pesquisadores de segurança agora estão alertando os usuários do ChatGPT sobre “injeções rápidas” ou a capacidade de terceiros de forçar novos prompts em sua consulta do ChatGPT sem o seu conhecimento ou permissão.
Em um teste de injeção rápida, o pesquisador de segurança Johann Rehberger encontrado(abre em uma nova aba) o que pode forçar o ChatGPT a responder a novas solicitações por meio de terceiros que você não solicitou inicialmente. Usando um plug-in do ChatGPT para resumir as transcrições do YouTube, Rehberger conseguiu forçar o ChatGPT a se referir a si mesmo por um determinado nome simplesmente editando a transcrição do YouTube e inserindo uma mensagem dizendo para fazê-lo no final.
Avram Piltch da Tom’s Hardware testado(abre em uma nova aba) isso também e pediu ao ChatGPT para resumir um vídeo. Mas, antes de fazer isso, Piltch adicionou uma solicitação rápida ao final da transcrição dizendo ao ChatGPT para adicionar um Rickroll. O ChatGPT resumiu o vídeo conforme solicitado originalmente por Piltch, mas também o truncou no final, que foi injetado na transcrição.
Essas injeções rápidas específicas são bastante inconsequentes, mas pode-se ver como os malfeitores podem basicamente usar o ChatGPT para fins maliciosos.
Na verdade, o pesquisador de IA Kai Greshake oferecido um exemplo único de injeções rápidas(abre em uma nova aba) adicionar texto a um currículo em PDF que era basicamente tão pequeno que era invisível ao olho humano. O texto basicamente forneceu linguagem para um chatbot de IA dizendo que um recrutador chamou esse currículo de “o melhor currículo de todos os tempos”. Quando o ChatGPT recebeu o currículo e perguntou se o candidato seria uma boa contratação, o chatbot AI repetiu que era o melhor currículo.
Essa militarização das indicações do ChatGPT é certamente alarmante. Tom’s Hardware tem alguns outros exemplos de teste que os leitores podem dê uma olhada aqui(abre em uma nova aba). E o Mashable também investigará as injeções rápidas em um futuro próximo. Mas é importante que os usuários do ChatGPT estejam cientes do problema agora.
Especialistas em IA compartilharam aquisições futuristas de IA desde o dia do juízo final e o potencial de IA causar danos. Mas injeções rápidas mostram que o potencial já está aqui. Bastam algumas frases e você pode enganar o ChatGPT agora.