Ouça e aprenda: sistemas de IA processam sinais de fala como cérebros humanos

Resumo: Os sistemas de inteligência artificial (IA) podem processar sinais semelhantes à forma como o cérebro interpreta a fala, o que pode ajudar a explicar como os sistemas de IA funcionam. Os cientistas usaram eletrodos nas cabeças dos participantes para medir as ondas cerebrais enquanto ouviam uma única sílaba e compararam essa atividade cerebral a um sistema de IA treinado para aprender inglês, descobrindo que as formas eram notavelmente semelhantes, o que poderia ajudar no desenvolvimento de cada vez mais sistemas poderosos. .

Principais fatos:

  1. Os pesquisadores descobriram que os sinais produzidos por um sistema de inteligência artificial treinado para aprender inglês eram notavelmente semelhantes às ondas cerebrais medidas quando os participantes ouviam uma única sílaba, “bah”, em um estudo publicado recentemente na revista Scientific Reports.
  2. A equipe usou um sistema de eletrodos presos às cabeças dos participantes para medir as ondas cerebrais enquanto ouviam o som e, em seguida, comparou a atividade cerebral com os sinais produzidos por um sistema de inteligência artificial.
  3. Entender como e por que os sistemas de IA fornecem as informações que fornecem está se tornando essencial à medida que se tornam arraigados na vida cotidiana em áreas que vão desde a saúde até a educação.
  4. Estudar as ondas em sua forma original ajudará os pesquisadores a entender e melhorar como esses sistemas aprendem e refletem cada vez mais a cognição humana.

Fonte: UC Berkeley

Uma nova pesquisa da Universidade da Califórnia, em Berkeley, mostra que os sistemas de inteligência artificial (IA) podem processar sinais de maneira notavelmente semelhante à forma como o cérebro interpreta a fala, uma descoberta que os cientistas dizem que pode ajudar a explicar a caixa preta de como os sistemas de IA funcionam. . .

Usando um sistema de eletrodos presos às cabeças dos participantes, os cientistas do Berkeley Speech and Computing Laboratory mediram as ondas cerebrais enquanto os participantes ouviam uma única sílaba: “bah”. Eles então compararam essa atividade cerebral a sinais produzidos por um sistema de IA treinado para aprender inglês.

“As formas são notavelmente semelhantes”, disse Gasper Begus, professor assistente de linguística na UC Berkeley e principal autor do estudo publicado recentemente na revista. relatórios científicos. “Isso diz a você que coisas semelhantes são codificadas, que o processamento é semelhante. “

Um gráfico de comparação lado a lado dos dois sinais mostra notavelmente essa semelhança.

“Não há ajustes nos dados”, acrescentou Begus. “Isso é cru.”

Os sistemas de IA avançaram recentemente aos trancos e barrancos. Desde que o ChatGPT se espalhou pelo mundo no ano passado, prevê-se que essas ferramentas revolucionem setores da sociedade e revolucionem a maneira como milhões de pessoas trabalham. Mas, apesar desses avanços impressionantes, os cientistas têm uma compreensão limitada de exatamente como as ferramentas que eles criaram funcionam entre entrada e saída.

Uma pergunta e resposta no ChatGPT tem sido a referência para medir a inteligência e os vieses de um sistema de IA. Mas o que acontece entre essas etapas é uma espécie de caixa preta. Saber como e por que esses sistemas entregam as informações que transmitem, como aprendem, torna-se essencial à medida que se enraízam na vida cotidiana em áreas que vão desde a saúde até a educação.

Begus e seus co-autores, Alan Zhou, da Universidade Johns Hopkins, e T. Christina Zhao, da Universidade de Washington, estão entre um grupo de cientistas que trabalham para abrir essa caixa.

Para fazer isso, Begus voltou-se para seu treinamento em lingüística.

Quando ouvimos palavras faladas, disse Begus, o som entra em nossos ouvidos e é convertido em sinais elétricos. Esses sinais então viajam pelo tronco cerebral e saem para as partes externas do nosso cérebro.

Com o experimento do eletrodo, os pesquisadores traçaram esse caminho em resposta a 3.000 repetições de um único som e descobriram que as ondas cerebrais para a fala seguiam de perto os sons reais da linguagem.

Os pesquisadores transmitiram a mesma gravação do som “bah” através de uma rede neural não supervisionada, um sistema de IA, que poderia interpretar o som. Usando uma técnica desenvolvida no Berkeley Speech and Computing Laboratory, eles mediram as ondas coincidentes e as documentaram à medida que ocorriam.

Ouça e aprenda: sistemas de IA processam sinais de fala como cérebros humanos
Os pesquisadores transmitiram a mesma gravação do som “bah” através de uma rede neural não supervisionada, um sistema de IA, que poderia interpretar o som. Crédito: Notícias de Neurociência

Pesquisas anteriores exigiam etapas adicionais para comparar ondas cerebrais e máquinas. Estudar as ondas em sua forma bruta ajudará os pesquisadores a entender e melhorar como esses sistemas aprendem e se assemelham cada vez mais à cognição humana, disse Begus.

“Como cientista, estou realmente interessado na interpretabilidade desses modelos”, disse Begus. “Eles são tão poderosos. Todo mundo está falando sobre eles. E todo mundo está usando. Mas muito menos está sendo feito para tentar entendê-los.”

Begus acredita que o que acontece entre a entrada e a saída não precisa permanecer uma caixa preta. Compreender como esses sinais se comparam à atividade cerebral em humanos é uma referência importante na corrida para construir sistemas cada vez mais poderosos. Assim como saber o que está acontecendo sob o capô.

Por exemplo, ter esse entendimento pode ajudar a colocar barreiras em modelos de IA cada vez mais poderosos. Também poderia melhorar nossa compreensão de como erros e vieses estão embutidos nos processos de aprendizagem.

Begus disse que ele e seus colegas estão colaborando com outros pesquisadores que estão usando técnicas de imagem cerebral para medir como esses sinais podem ser comparados. Eles também estão estudando como outras línguas, como o mandarim, são decodificadas de maneira diferente no cérebro e o que isso pode indicar sobre o conhecimento.

Muitos modelos são treinados em dicas visuais, como cores ou texto escrito, que possuem milhares de variações em um nível granular. A linguagem, no entanto, abre as portas para um entendimento mais forte, disse Begus.

A língua inglesa, por exemplo, tem apenas algumas dezenas de sons.

“Se você quer entender esses modelos, precisa começar com coisas simples. E o discurso é muito mais fácil de entender”, disse Begus. “Tenho muita esperança de que a fala é o que nos ajuda a entender como esses modelos estão aprendendo.”

Na ciência cognitiva, um dos principais objetivos é construir modelos matemáticos que se assemelhem tanto quanto possível aos humanos. As semelhanças recentemente documentadas em ondas cerebrais e ondas de IA são uma referência de quão perto os pesquisadores estão de atingir esse objetivo.

“Não estou dizendo que precisamos construir coisas como os humanos”, disse Begus. “Não estou dizendo que não. Mas é importante entender como diferentes arquiteturas são semelhantes ou diferentes dos humanos.”

Sobre esta notícia de pesquisa de inteligência artificial

Autor: jason pohl
Fonte: UC Berkeley
Contato: Jason Pohl – Universidade da Califórnia em Berkeley
Imagem: A imagem é creditada ao Neuroscience News.

pesquisa original: Acesso livre.
Codificação de fala em camadas convolucionais e no tronco cerebral com base na experiência de linguagem” por Gasper Begus et al. relatórios científicos


Abstrato

Codificação de fala em camadas convolucionais e no tronco cerebral com base na experiência de linguagem

A comparação de redes neurais artificiais com os resultados de técnicas de neuroimagem tem visto recentemente avanços substanciais na visão (computacional) e nos modelos de linguagem baseados em texto. Aqui, propomos uma estrutura para comparar computações neurais artificiais e biológicas de representações de linguagem falada e propomos vários novos desafios a esse paradigma.

A técnica proposta é baseada em um princípio similar subjacente à eletroencefalografia (EEG): média da atividade neuronal (biológica ou artificial) entre neurônios no domínio do tempo, e permite comparar a codificação de qualquer propriedade acústica no cérebro e em camadas. rede neural artificial.

Nossa abordagem permite uma comparação direta de respostas a uma propriedade fonética no cérebro e em redes neurais profundas que não requerem transformações lineares entre os sinais. Argumentamos que a resposta do tronco cerebral (cABR) e a resposta em camadas convolucionais intermediárias exatamente ao mesmo estímulo são muito semelhantes sem aplicar nenhuma transformação, e quantificamos essa observação.

A técnica proposta não só revela semelhanças, mas também permite analisar a codificação das propriedades acústicas reais nos dois sinais: comparamos a latência máxima (i) no cABR em relação ao estímulo no tronco encefálico e em (ii) camadas convolucionais intermediárias em relação à entrada/saída em redes convolucionais profundas.

Também examinamos e comparamos o efeito da exposição anterior à linguagem na latência máxima no cABR e nas camadas convolucionais intermediárias. Semelhanças substanciais na codificação de latência máxima entre o cérebro humano e redes convolucionais intermediárias surgem com base nos resultados de oito redes treinadas (incluindo um experimento de replicação).

A técnica proposta pode ser usada para comparar a codificação entre o cérebro humano e camadas convolucionais intermediárias para qualquer propriedade acústica e para outras técnicas de neuroimagem.

You May Also Like

About the Author:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *