O Bing Chat com inteligência artificial ganha três personalidades distintas – Ars Technica

O Bing Chat com inteligência artificial ganha três personalidades distintas – Ars Technica

Benj Edwards / Ars Technica

Na quarta-feira, o funcionário da Microsoft Mike Davidson Anunciado que a empresa lançou três estilos de personalidade distintos para seu bot experimental do Bing Chat com inteligência artificial: criativo, equilibrado ou preciso. Microsoft tem sido evidência o recurso a partir de 24 de fevereiro com um conjunto limitado de usuários. Alternar entre os modos produz resultados diferentes que mudam sua balançado entre precisão e criatividade.

O Bing Chat é um assistente com inteligência artificial baseado em um modelo avançado de linguagem longa (LLM) desenvolvido pela OpenAI. Um recurso importante do Bing Chat é que você pode pesquisar na web e incorporar os resultados em suas respostas.

A Microsoft anunciou o Bing Chat em 7 de fevereiro e, logo após seu lançamento, os ataques adversários levaram regularmente uma versão mais antiga do Bing Chat à insanidade simulada, com os usuários descobrindo que o bot poderia ser persuadido a ameaçar eles. Não muito tempo depois, a Microsoft reduziu drasticamente as explosões do Bing Chat ao impor limites estritos à duração das conversas.

Desde então, a empresa vem experimentando maneiras de trazer de volta um pouco da personalidade ousada do Bing Chat para aqueles que o desejam, mas também permitir que outros usuários busquem respostas mais precisas. Isso resultou na nova interface de três opções de “estilo de conversa”.

Em nossos experimentos com os três estilos, notamos que o modo “Criativo” produzia sugestões mais curtas e peculiares que nem sempre eram seguras ou práticas. O modo “preciso” errou por excesso de cautela, às vezes não sugerindo nada se não pudesse ver uma maneira segura de obter um resultado. No meio, o modo “Equilibrado” geralmente produzia as respostas mais longas com os resultados de pesquisa mais detalhados e citações de sites em suas respostas.

Com modelos de linguagem grandes, imprecisões inesperadas (alucinações) geralmente aumentam de frequência com maior “criatividade”, o que geralmente significa que o modelo de IA se desviará mais das informações que aprendeu em seu conjunto de dados. Pesquisadores de IA costumam chamar essa propriedade de “temperaturamas os membros da equipe do Bing dizem que há mais trabalho com os novos estilos de conversação.

De acordo com um funcionário da Microsoft mikhail parakhinalterar os modos no Bing Chat altera aspectos fundamentais do comportamento do bot, incluindo a alternância entre os diferentes modelos de IA recebidos treino adicional de respostas humanas à sua saída. Modos diferentes também usam prompts iniciais diferentes, o que significa que a Microsoft altera o prompt de definição de personalidade, como o revelado no ataque de injeção de prompt sobre o qual escrevemos em fevereiro.

Embora o Bing Chat ainda esteja disponível apenas para aqueles que se inscreveram em uma lista de espera, a Microsoft continua a refinar o Bing Chat e outros recursos de pesquisa do Bing com inteligência artificial enquanto se prepara para distribuí-lo mais amplamente aos usuários. A Microsoft anunciou recentemente planos para integrar a tecnologia ao Windows 11.

You May Also Like

About the Author:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *