Method Article
Algoritmos de aprendizado de máquina foram treinados para usar padrões de atividade cerebral para "decodificar" estímulos apresentados aos humanos. Aqui, demonstramos que a mesma técnica pode decodificar conteúdo de vídeo naturalista do cérebro de dois cães domésticos. Descobrimos que os decodificadores baseados nas ações dos vídeos foram bem-sucedidos em cães.
Avanços recentes usando aprendizado de máquina e ressonância magnética funcional (fMRI) para decodificar estímulos visuais do córtex humano e não humano resultaram em novos insights sobre a natureza da percepção. No entanto, essa abordagem ainda não foi aplicada substancialmente a outros animais além dos primatas, levantando questões sobre a natureza de tais representações em todo o reino animal. Aqui, usamos fMRI acordado em dois cães domésticos e dois humanos, obtidos enquanto cada um assistia a vídeos naturalistas especialmente criados para cães. Em seguida, treinamos uma rede neural (Ivis) para classificar o conteúdo do vídeo de um total de 90 minutos de atividade cerebral registrada de cada um. Testamos um classificador baseado em objetos, tentando discriminar categorias como cachorro, humano e carro, e um classificador baseado em ação, tentando discriminar categorias como comer, cheirar e falar. Em comparação com os dois sujeitos humanos, para os quais ambos os tipos de classificadores tiveram um desempenho bem acima do acaso, apenas os classificadores baseados em ação foram bem-sucedidos na decodificação do conteúdo de vídeo dos cães. Esses resultados demonstram a primeira aplicação conhecida de aprendizado de máquina para decodificar vídeos naturalistas do cérebro de um carnívoro e sugerem que a visão do mundo com o olho do cão pode ser bem diferente da nossa.
Os cérebros dos humanos, como de outros primatas, demonstram o parcelamento do fluxo visual em vias dorsais e ventrais com funções distintas e bem conhecidas - o "o quê" e o "onde" dos objetos1. Essa dicotomia o que/onde tem sido uma heurística útil por décadas, mas sua base anatômica agora é conhecida por ser muito mais complexa, com muitos pesquisadores favorecendo uma parcelação baseada em reconhecimento versus ação ("o que" vs. "como")2,3,4,5. Além disso, embora nossa compreensão da organização do sistema visual dos primatas continue a ser refinada e debatida, muito permanece desconhecido sobre como os cérebros de outras espécies de mamíferos representam a informação visual. Em parte, essa lacuna é resultado do foco histórico em um punhado de espécies na neurociência visual. Novas abordagens para imagens cerebrais, no entanto, estão abrindo a possibilidade de estudar de forma não invasiva os sistemas visuais de uma gama mais ampla de animais, o que pode produzir novos insights sobre a organização do sistema nervoso dos mamíferos.
Os cães (Canis lupus familiaris) apresentam uma rica oportunidade para estudar a representação de estímulos visuais em uma espécie evolutivamente distante dos primatas, pois podem ser o único animal que pode ser treinado para participar cooperativamente de exames de ressonância magnética sem a necessidade de sedação ou restrições 6,7,8. Devido à sua coevolução com os humanos nos últimos 15.000 anos, os cães também habitam nossos ambientes e são expostos a muitos dos estímulos que os humanos encontram diariamente, incluindo telas de vídeo, que são a forma preferida de apresentar estímulos em um scanner de ressonância magnética. Mesmo assim, os cães podem processar esses estímulos ambientais comuns de maneiras bem diferentes dos humanos, o que levanta a questão de como seu córtex visual é organizado. Diferenças básicas - como a falta de uma fóvea ou o fato de ser um dicromata - podem ter consequências significativas a jusante, não apenas para a percepção visual de nível inferior, mas também para a representação visual de nível superior. Vários estudos de fMRI em cães demonstraram a existência de regiões de processamento facial e de objeto que parecem seguir a arquitetura geral do fluxo dorsal/ventral observada em primatas, embora ainda não esteja claro se os cães têm regiões de processamento facial per se ou se essas regiões são seletivas para a morfologia da cabeça (por exemplo, cão vs. humano)9, 10,11,12,13. Independentemente disso, o cérebro de um cão, sendo menor do que a maioria dos primatas, seria previsto para ser menos modularizado14, então pode haver mais mistura de tipos de informação nos fluxos ou mesmo privilegiar certos tipos de informação, como ações. Foi sugerido, por exemplo, que o movimento pode ser uma característica mais saliente na percepção visual canina do que a textura ou a cor15. Além disso, como os cães não têm mãos, um dos principais meios pelos quais interagimos com o mundo, seu processamento visual, principalmente de objetos, pode ser bem diferente do dos primatas. Em consonância com isso, recentemente encontramos evidências de que a interação com objetos pela boca versus pata resultou em maior ativação em regiões seletivas de objetos no cérebro do cão16.
Embora os cães possam estar acostumados a telas de vídeo em seu ambiente doméstico, isso não significa que eles estejam acostumados a ver imagens em um ambiente experimental da mesma forma que um humano faria. O uso de estímulos mais naturalistas pode ajudar a resolver algumas dessas questões. Na última década, os algoritmos de aprendizado de máquina alcançaram um sucesso considerável na decodificação de estímulos visuais naturalistas da atividade cerebral humana. Os primeiros sucessos se concentraram na adaptação de designs clássicos e bloqueados para usar a atividade cerebral para classificar os tipos de estímulos que um indivíduo estava vendo, bem como as redes cerebrais que codificavam essas representações 17,18,19. À medida que algoritmos mais poderosos foram desenvolvidos, especialmente redes neurais, estímulos mais complexos puderam ser decodificados, incluindo vídeos naturalistas20,21. Esses classificadores, que normalmente são treinados em respostas neurais a esses vídeos, generalizam para novos estímulos, permitindo que eles identifiquem o que um determinado sujeito estava observando no momento da resposta de fMRI. Por exemplo, certos tipos de ações em filmes podem ser decodificados com precisão do cérebro humano, como pular e girar, enquanto outros (por exemplo, arrastar) não podem22. Da mesma forma, embora muitos tipos de objetos possam ser decodificados a partir de respostas de fMRI, as categorias gerais parecem ser mais difíceis. A decodificação do cérebro não se limita aos humanos, fornecendo uma ferramenta poderosa para entender como as informações são organizadas nos cérebros de outras espécies. Experimentos análogos de fMRI com primatas não humanos encontraram representações distintas no lobo temporal para dimensões de animacidade e faciness / corporalidade, que são paralelas às dos humanos23.
Como um primeiro passo para entender as representações dos cães de estímulos visuais naturalistas, a fMRI acordada foi usada em dois cães domésticos altamente adeptos à ressonância magnética para medir as respostas corticais a vídeos apropriados para cães. Neste estudo, vídeos naturalistas foram usados por causa de sua validade ecológica potencialmente maior para um cão e por causa de seu sucesso demonstrado com redes neurais que mapeiam o conteúdo de vídeo para o movimento do cão24. Em três sessões separadas, 90 minutos de dados de fMRI foram obtidos das respostas de cada cão a 256 videoclipes exclusivos. Para comparação, o mesmo procedimento foi realizado em dois voluntários humanos. Em seguida, usando uma rede neural, treinamos e testamos classificadores para discriminar "objetos" (por exemplo, humano, cachorro, carro) ou "ações" (por exemplo, falar, comer, cheirar) usando números variados de classes. Os objetivos deste estudo foram duplos: 1) determinar se os estímulos de vídeo naturalistas poderiam ser decodificados do córtex canino; e 2) em caso afirmativo, forneça uma primeira olhada se a organização era semelhante à dos humanos.
O estudo com cães foi aprovado pela Emory University IACUC (PROTO201700572), e todos os proprietários deram consentimento por escrito para a participação de seus cães no estudo. Os procedimentos do estudo em humanos foram aprovados pelo IRB da Emory University e todos os participantes forneceram consentimento por escrito antes da digitalização (IRB00069592).
1. Participantes
2. Estímulos
3. Desenho experimental
4. Exames por imagem
5. Rótulos de estímulo
6. Pré-processamento de fMRI
7. Análises
As métricas mais comuns para avaliar o desempenho do modelo em análises de aprendizado de máquina incluem precisão, exatidão, recall e pontuação F1. A precisão é a porcentagem geral de previsões do modelo que estão corretas, considerando os dados verdadeiros. A precisão é a porcentagem de previsões positivas do modelo que são realmente positivas (ou seja, a taxa de verdadeiros positivos), enquanto a lembrança é a porcentagem de verdadeiros positivos nos dados originais que o modelo é capaz de prever com sucesso. A pontuação F1 é a média ponderada de precisão e recordação e atua como uma medida alternativa de precisão que é mais robusta para o desequilíbrio de classe. No entanto, o Ivis difere de outros algoritmos de aprendizado de máquina comumente usados, pois sua saída não é binária. Dada uma entrada particular de voxels cerebrais, cada elemento de saída representa as probabilidades correspondentes a cada uma das classes. Calcular exatidão, precisão, recall e F1 para essas saídas exigia binarizá-los de uma forma "o vencedor leva tudo", onde a classe com a maior probabilidade era considerada a prevista para aquele volume. Essa abordagem eliminou informações importantes sobre a classificação dessas probabilidades que eram relevantes para avaliar a qualidade do modelo. Assim, embora ainda calculássemos essas métricas tradicionais, usamos a pontuação Label Ranking Average Precision (LRAP) como a métrica principal para calcular a precisão do modelo no conjunto de teste. Essa métrica mede essencialmente até que ponto o classificador atribuiu probabilidades mais altas a rótulos verdadeiros37.
Em diferentes graus, o classificador de rede neural foi bem-sucedido para humanos e cães. Para humanos, o algoritmo foi capaz de classificar objetos e ações, com modelos de três classes para ambos, alcançando uma precisão média de 70%. A pontuação LRAP foi usada como métrica primária para calcular a precisão do modelo no conjunto de teste; Essa métrica mede até que ponto o classificador atribuiu probabilidades mais altas a rótulos verdadeiros37. Para ambos os humanos, os escores LRAP medianos foram maiores que o percentil 99 de um conjunto de rótulos permutados aleatoriamente para todos os modelos testados (Tabela 1; Figura 2). Para os cães, apenas o modelo de ação teve uma classificação mediana do percentil LRAP significativamente maior do que o acaso em ambos os participantes (Tabela 1; p = 0,13 para objetos e p < 0,001 para ações; pontuação média do modelo de ação de três classes LRAP para cães = 78º percentil). Esses resultados foram verdadeiros para todos os indivíduos individualmente, bem como quando agrupados por espécies.
Dado o sucesso do classificador, treinamos e testamos com classes adicionais para determinar os limites do modelo. Isso incluiu o cálculo de matrizes de dissimilaridade para todas as 52 classes potenciais de interesse usando o algoritmo de agrupamento hierárquico do pacote Python scipy, que agrupou classes com base na semelhança da resposta cerebral de um indivíduo a cada uma, conforme definido pela correlação em pares. Dos modelos adicionais testados, o modelo com a maior classificação do percentil LRAP mediano em ambos os cães tinha cinco classes: o original "falar", "comer" e "cheirar", além de duas novas classes, "acariciar" e "brincar" (Figura 2). Esse modelo teve uma classificação mediana do percentil LRAP significativamente maior do que a prevista pelo acaso para todos os participantes (Tabela 1; p < 0,001 para cães e humanos; pontuação média do modelo de ação de cinco classes LRAP para cães = 81º percentil).
Quando mapeados de volta para seus respectivos atlas cerebrais, os escores de importância de característica dos voxels revelaram vários grupos de voxels informativos nos córtices occipital, parietal e temporal de cães e humanos (Figura 3). Em humanos, os modelos baseados em objetos e baseados em ação revelaram um padrão mais focal do que nos cães e em regiões tipicamente associadas ao reconhecimento de objetos, embora com pequenas diferenças na localização espacial de voxels baseados em objetos e voxels baseados em ação.
Verificamos que essas diferenças de espécies não eram resultado do movimento correlacionado à tarefa dos cães se movendo mais para alguns tipos de vídeos do que outros (por exemplo, vídeos que não sejam cães, digamos, carros). Calculamos a norma euclidiana dos seis parâmetros de movimento e ajustamos um modelo linear de efeitos mistos usando o pacote R lme4, com classe como efeito fixo e número de corrida como efeito aleatório para cada cão. Para cada um dos modelos finais, não encontramos efeito significativo do tipo de classe no movimento para Daisy (F (2, 2252) = 0,83, p = 0,44 para baseado em objeto e F (4, 1235) = 1,87, p = 0,11 para baseado em ação) ou Bhubo (F (2, 2231) = 1,71, p = 0,18 para baseado em objeto e F (4, 1221) = 0,94, p = 0,45 para baseado em ação).
Figura 1: Vídeos naturalistas e apresentação em ressonância magnética. (A) Exemplos de quadros de videoclipes mostrados aos participantes. (B) Bhubo, um Boxer-mix de 4 anos, assistindo a vídeos enquanto passava por fMRI acordado. Clique aqui para ver uma versão maior desta figura.
Figura 2: Desempenho do modelo em cães e humanos. A distribuição das pontuações LRAP, apresentadas como classificações percentuais de suas distribuições nulas, mais de 100 iterações de treinamento e teste do algoritmo de aprendizado de máquina Ivis para um modelo baseado em objeto de três classes, um modelo baseado em ação de três classes e um modelo baseado em ação de cinco classes, onde os modelos tentaram classificar as respostas BOLD a estímulos de vídeo naturalistas obtidos por meio de fMRI acordado em cães e humanos. As pontuações são agregadas por espécie. Uma pontuação LRAP com uma classificação de percentil muito alta indica que é muito improvável que o modelo atinja essa pontuação LRAP por acaso. Um modelo com desempenho não melhor do que o acaso teria uma classificação média do percentil de pontuação LRAP de ~ 50. As linhas tracejadas representam a classificação média do percentil de pontuação LRAP para cada espécie em todas as 100 execuções. Clique aqui para ver uma versão maior desta figura.
Figura 3: Regiões importantes para a discriminação de modelos de ação de objeto de três classes e ação de cinco classes. (A) Participantes humanos e (B) cães. Os voxels foram classificados de acordo com a importância de sua característica usando um classificador de floresta aleatório, calculado em média em todas as iterações dos modelos. Os 5% principais dos voxels (ou seja, aqueles usados para treinar modelos) são apresentados aqui, agregados por espécie e transformados em espaço de grupo para fins de visualização (atlas: humanos34 e cães35). Os rótulos mostram regiões cerebrais de cães com altos escores de importância de características, com base naqueles identificados por Johnson et al.35. Abreviatura: SSM = giro suprasylviano. Clique aqui para ver uma versão maior desta figura.
Tipo de modelo | Precisão do treinamento | Precisão do teste | Pontuação F1 | Precisão | Lembrar | Percentil mediano da pontuação LRAP | |
Humano 1 | Objeto (3 classes) | 0.98 | 0.69 | 0.48 | 0.52 | 0.49 | >99 |
Ação (3 aulas) | 0.98 | 0.72 | 0.51 | 0.54 | 0.54 | >99 | |
Ação (5 aulas) | 0.97 | 0.51 | 0.28 | 0.37 | 0.27 | >99 | |
Humano 2 | Objeto (3 classes) | 0.98 | 0.68 | 0.45 | 0.5 | 0.47 | >99 |
Ação (3 aulas) | 0.98 | 0.69 | 0.46 | 0.5 | 0.48 | >99 | |
Ação (5 aulas) | 0.97 | 0.53 | 0.3 | 0.4 | 0.27 | >99 | |
Bhubo | Objeto (3 classes) | 0.99 | 0.61 | 0.38 | 0.41 | 0.39 | 57 |
Ação (3 aulas) | 0.98 | 0.63 | 0.38 | 0.4 | 0.4 | 87 | |
Ação (5 aulas) | 0.99 | 0.45 | 0.16 | 0.29 | 0.13 | 88 | |
Margarida | Objeto (3 classes) | 1 | 0.61 | 0.38 | 0.43 | 0.39 | 43 |
Ação (3 aulas) | 0.97 | 0.62 | 0.35 | 0.38 | 0.35 | 60 | |
Ação (5 aulas) | 0.99 | 0.44 | 0.16 | 0.27 | 0.13 | 76 |
Tabela 1: Métricas agregadas do algoritmo de aprendizado de máquina Ivis em mais de 100 iterações de treinamento e teste em respostas BOLD a estímulos de vídeo naturalísticos obtidos por meio de fMRI acordado em cães e humanos. Os modelos de objetos tinham três classes-alvo ("cachorro", "humano", "carro"), e os modelos de ação tinham três ou cinco classes (três classes: "falar", "comer", "cheirar"; cinco classes: "falar", "comer", "cheirar", "acariciar", "brincar"). Valores significativamente maiores que o acaso são mostrados em negrito.
Tabela suplementar 1: Rótulos de classe. Clique aqui para baixar este arquivo.
Filme Suplementar 1: Exemplo de videoclipe. Clique aqui para baixar este arquivo.
Os resultados deste estudo demonstram que os vídeos naturalistas induzem representações no cérebro dos cães que são estáveis o suficiente em várias sessões de imagem para que possam ser decodificadas com fMRI - semelhantes aos resultados obtidos em humanos e macacos20,23. Embora estudos anteriores de fMRI do sistema visual canino tenham apresentado estímulos despojados, como um rosto ou objeto contra um fundo neutro, os resultados aqui demonstram que vídeos naturalistas, com várias pessoas e objetos interagindo uns com os outros, induzem padrões de ativação no córtex canino que podem ser decodificados com uma confiabilidade próxima à observada no córtex humano. Essa abordagem abre novos caminhos de investigação sobre como o sistema visual do cão é organizado.
Embora o campo da fMRI canina tenha crescido rapidamente, até o momento, esses experimentos se basearam em estímulos relativamente empobrecidos, como fotos de pessoas ou objetos contra fundos neutros 10,12,13. Além disso, embora esses experimentos tenham começado a identificar regiões cerebrais análogas à área facial fusiforme de primatas (FFA), envolvidas no processamento facial, e o córtex occipital lateral (LOC), para processamento de objetos, permanece discordância sobre a natureza dessas representações, como se os cães têm áreas faciais per se respondendo a características salientes semelhantes às dos primatas ou se eles têm representações separadas para cães e humanos ou rostos e cabeças, por exemplo, 9,13. Os cães, é claro, não são primatas, e não sabemos como eles interpretam esses estímulos artificiais divorciados de seus contextos multissensoriais usuais com sons e cheiros. Algumas evidências sugerem que os cães não tratam imagens de objetos como representações de coisas reais12. Embora não seja possível criar uma verdadeira experiência multissensorial no scanner, o uso de vídeos naturalistas pode mitigar parte da artificialidade, fornecendo estímulos dinâmicos que correspondem mais ao mundo real, pelo menos para um cão. Pelas mesmas razões, o uso de estímulos naturalistas na pesquisa de fMRI humana ganhou popularidade, demonstrando, por exemplo, que sequências de eventos em um filme são representadas no córtex em várias escalas de tempo e que os filmes são eficazes em induzir a ativação confiável de emoções38. Como tal, embora os vídeos naturalistas continuem sendo estímulos relativamente empobrecidos, seu sucesso na neurociência humana levanta a questão de saber se resultados semelhantes podem ser obtidos em cães.
Nossos resultados mostram que um classificador de rede neural foi bem-sucedido em decodificar alguns tipos de conteúdo naturalista de cérebros de cães. Esse sucesso é um feito impressionante, dada a complexidade dos estímulos. É importante ressaltar que, como o classificador foi testado em videoclipes não vistos, o modelo de decodificação captou categorias amplas que eram identificáveis em clipes, em vez de propriedades específicas de cenas individuais. Devemos observar que existem várias métricas para quantificar o desempenho de um classificador de aprendizado de máquina (Tabela 1). Como os vídeos naturalistas, por sua natureza, não terão ocorrências iguais de todas as classes, adotamos uma abordagem prudente ao construir uma distribuição nula a partir da permutação aleatória de rótulos e avaliar a significância referenciada a isso. Em seguida, descobrimos que o sucesso dos modelos de cães foi estatisticamente significativo, alcançando pontuações de 75º a 90º percentil, mas apenas quando os vídeos foram codificados com base nas ações presentes, como brincar ou falar.
Os conjuntos de teste, ao contrário dos conjuntos de treinamento, não foram equilibrados entre as classes. Compreendendo apenas 20% dos dados, a subamostragem para o menor tamanho de classe teria resultado em tamanhos de amostra muito pequenos para cada classe, de modo que quaisquer estatísticas calculadas não seriam confiáveis. Para evitar a possibilidade de precisão inflada desse desequilíbrio, a distribuição nula do LRAP foi calculada permutando aleatoriamente a ordem das classes 1.000 vezes para cada iteração do modelo. Essa distribuição nula atuou como uma referência para o desempenho do modelo por acaso. Em seguida, o LRAP verdadeiro foi convertido em uma classificação de percentil nessa distribuição nula. Uma classificação percentual muito alta, por exemplo, 95%, indicaria que uma pontuação tão alta surgiu apenas 5% das vezes em 1.000 permutações aleatórias. Tal modelo poderia, portanto, ser considerado como tendo um desempenho bem acima do acaso. Para determinar se essas classificações percentuais são significativamente maiores do que o esperado pelo acaso - ou seja, o 50º percentil - estatisticamente, a classificação média do percentil LRAP em todas as 100 iterações para cada modelo foi calculada e um teste de classificação assinada de Wilcoxon de uma amostra foi realizado.
Embora o objetivo principal fosse desenvolver um decodificador de estímulos visuais naturalistas para cães, as comparações com humanos são inevitáveis. Aqui, notamos duas grandes diferenças: para cada tipo de classificador, os modelos humanos tiveram melhor desempenho do que os modelos de cães; e os modelos humanos tiveram um bom desempenho para modelos baseados em objetos e ações, enquanto os modelos de cães tiveram um desempenho apenas para modelos baseados em ação. O desempenho superior dos modelos humanos pode ser devido a vários fatores. Os cérebros humanos são cerca de 10 vezes maiores do que os cérebros dos cães, então há mais voxels para escolher construir um classificador. Para colocar os modelos em pé de igualdade, deve-se usar o mesmo número de voxels, mas isso pode ser em um sentido absoluto ou relativo. Embora o modelo final tenha sido baseado nos 5% principais de voxels informativos em cada cérebro (uma medida relativa), resultados semelhantes foram obtidos usando um número fixo de voxels. Assim, parece mais provável que as diferenças de desempenho estejam relacionadas à forma como humanos e cães percebem os estímulos de vídeo. Como observado acima, embora cães e humanos sejam multissensoriais em sua percepção, os estímulos podem ser mais empobrecidos para um cão do que para um humano. As dicas de tamanho, por exemplo, podem ser perdidas, com tudo parecendo ser uma versão de brinquedo do mundo real. Há algumas evidências de que os cães categorizam objetos com base no tamanho e textura antes da forma, o que é quase oposto aos humanos39. Além disso, o cheiro, não considerado aqui, é provavelmente uma importante fonte de informação para a discriminação de objetos em cães, particularmente na identificação de coespecíficos ou humanos 40,41,42. No entanto, mesmo na ausência de pistas de tamanho ou cheiro, no ambiente incomum do scanner de ressonância magnética, o fato de o classificador ter funcionado diz que ainda havia informações relevantes para os cães que poderiam ser recuperadas de seus cérebros. Com apenas dois cães e dois humanos, as diferenças entre as espécies também podem ser devidas a diferenças individuais. Os dois cães, no entanto, representaram o melhor dos cães treinados em ressonância magnética e se destacaram em ficar parados enquanto assistiam a vídeos. Embora um tamanho de amostra maior certamente permita que distinções mais confiáveis sejam feitas entre as espécies, o pequeno número de cães que são capazes de fazer fMRI acordados e que assistirão a vídeos por períodos longos o suficiente sempre limitará a generalização para todos os cães. Embora seja possível que raças especializadas, como galgos, possam ter respostas cerebrais visuais mais ajustadas, acreditamos que o temperamento individual e o treinamento são mais prováveis de serem os principais determinantes do que é recuperável do cérebro de um cão.
Essas diferenças de espécies levantam a questão de qual aspecto dos vídeos os cães estavam prestando atenção. Uma abordagem para responder a essa pergunta depende de estímulos de vídeo mais simples. Então, usando imagens isoladas de, digamos, humanos, cães e carros, tanto individualmente quanto juntos contra fundos neutros, podemos ser capazes de fazer engenharia reversa das dimensões salientes de um cão. No entanto, isso é metodologicamente ineficiente e empobrece ainda mais os estímulos do mundo real. A questão da atenção pode ser resolvida apenas pela abordagem de decodificação, com efeito, usando o desempenho do modelo para determinar o que está sendo atendido43. Nesse sentido, os resultados aqui sugerem que, enquanto os humanos atendiam tanto aos atores quanto às ações, os cães estavam mais focados nas ações em si. Isso pode ser devido a diferenças nas características de movimento de baixo nível, como a frequência de movimento quando os indivíduos estão brincando versus comendo, ou pode ser devido a uma representação categórica dessas atividades em um nível superior. A distribuição de voxels informativos em todo o córtex do cão sugere que essas representações não são apenas características de baixo nível que, de outra forma, estariam confinadas a regiões visuais. Um estudo mais aprofundado usando uma variedade maior de estímulos de vídeo pode iluminar o papel do movimento na discriminação de categorias por cães.
Em resumo, este estudo demonstrou a viabilidade de recuperar informações visuais naturalistas do córtex canino usando fMRI da mesma forma que é feito para o córtex humano. Esta demonstração mostra que, mesmo sem som ou cheiros, dimensões salientes de cenas complexas são codificadas por cães assistindo a vídeos e que essas dimensões podem ser recuperadas de seus cérebros. Em segundo lugar, com base no pequeno número de cães que podem realizar esse tipo de tarefa, a informação pode ser mais amplamente distribuída no córtex do que normalmente visto em humanos, e os tipos de ações parecem ser mais facilmente recuperados do que a identidade dos atores ou objetos. Esses resultados abrem uma nova maneira de examinar como os cães percebem os ambientes que compartilham com os humanos, incluindo telas de vídeo, e sugerem caminhos ricos para a exploração futura de como eles e outros animais não primatas "veem" o mundo.
Nenhum.
Agradecemos a Kate Revill, Raveena Chhibber e Jon King por seus insights úteis no desenvolvimento desta análise, Mark Spivak por sua assistência no recrutamento e treinamento de cães para ressonância magnética e Phyllis Guo por sua ajuda na criação e rotulagem de vídeos. Também agradecemos aos nossos dedicados donos de cães, Rebecca Beasley (Daisy) e Ashwin Sakhardande (Bhubo). Os estudos em humanos foram apoiados por uma bolsa do National Eye Institute (Grant R01 EY029724 para DDD).
Name | Company | Catalog Number | Comments |
3 T MRI Scanner | Siemens | Trio | |
Audio recordings of scanner noise | homemade | none | |
Camera gimbal | Hohem | iSteady PRO 3 | |
Dog-appropriate videos | homemade | none | |
fMRI processing software | AFNI | 20.3.01 | |
Mock scanner components | homemade | none | Mock head coil and scanner tube |
Neural net software | Ivis | 1.7.1 | |
Optical flow software | OpenCV | 4.2.0.34 | |
Projection system for scanner | homemade | none | |
Trophy Cam HD | Bushnell | 119874 | |
Video camera | GoPro | HERO7 | |
Visualization software | ITK-SNAP | 3.6.0 | |
Windows Video Editor | Microsoft | Windows 11 version |
Solicitar permissão para reutilizar o texto ou figuras deste artigo JoVE
Solicitar PermissãoThis article has been published
Video Coming Soon
Copyright © 2025 MyJoVE Corporation. Todos os direitos reservados