Method Article
機械学習アルゴリズムは、脳活動のパターンを使用して、人間に提示される刺激を「解読」するように訓練されています。ここでは、同じ手法で2匹の飼い犬の脳から自然主義的なビデオコンテンツを解読できることを示しています。ビデオのアクションに基づくデコーダーは、犬で成功したことがわかりました。
近年、機械学習と機能的磁気共鳴画像法(fMRI)を用いて、ヒトおよびヒト以外の皮質からの視覚刺激を解読する進歩により、知覚の性質に関する新たな知見が得られた。しかし、このアプローチは霊長類以外の動物にはまだ実質的に適用されておらず、動物界全体でのそのような表現の性質について疑問が提起されています。ここでは、2匹の飼い犬と2匹の人間で覚醒fMRIを使用し、それぞれが特別に作成された犬に適した自然主義的なビデオを見ながら取得しました。次に、ニューラルネット(Ivis)を訓練して、それぞれから合計90分間の記録された脳活動からビデオコンテンツを分類しました。犬、人間、車などのカテゴリを区別しようとするオブジェクトベースの分類子と、食べる、匂いを嗅ぐ、話すなどのカテゴリを区別しようとするアクションベースの分類子の両方をテストしました。2人の人間の被験者と比較して、両方のタイプの分類器が偶然をはるかに上回るパフォーマンスを発揮したのに対し、アクションベースの分類器のみが犬のビデオコンテンツの解読に成功しました。これらの結果は、肉食動物の脳から自然主義的なビデオを解読するための機械学習の初めての既知の応用を示しており、犬の視点の世界観が私たちのものとはかなり異なる可能性があることを示唆しています。
人間の脳は、他の霊長類と同様に、視覚流が背側と腹側の経路に細分化されており、物体の「何を」と「どこで」という明確でよく知られた機能を持つことを示しています1。この「何を/どこで」の二分法は何十年にもわたって有用なヒューリスティックであったが、その解剖学的基礎は現在でははるかに複雑であることが知られており、多くの研究者が認識対行動(「何を」対「どのように」)に基づく分割を支持している2,3,4,5。さらに、霊長類の視覚系の組織化に関する私たちの理解は洗練され、議論され続けていますが、他の哺乳類種の脳が視覚情報をどのように表現しているかについては、多くのことがわかっていません。部分的には、この欠落は、視覚神経科学における一握りの種に歴史的に焦点を当ててきた結果です。しかし、脳イメージングへの新しいアプローチは、より広範な動物の視覚系を非侵襲的に研究する可能性を開きつつあり、哺乳類の神経系の組織化に関する新たな知見をもたらす可能性があります。
イヌ(Canis lupus familiaris)は、霊長類から進化的に遠い種における視覚刺激の表現を研究する豊富な機会を提供し、鎮静剤や拘束を必要とせずにMRIスキャンに協力して参加するように訓練できる唯一の動物である可能性がある6,7,8.過去15,000年にわたる人間との共進化により、犬も私たちの環境に生息し、MRIスキャナーで刺激を提示するのに適した方法であるビデオ画面など、人間が日常的に遭遇する多くの刺激にさらされています。それでも、犬はこれらの一般的な環境刺激を人間とはまったく異なる方法で処理する可能性があり、視覚野がどのように組織化されているかという疑問を投げかけます。中心窩の欠如や二色性であることなどの基本的な違いは、低レベルの視覚だけでなく、高レベルの視覚表現にも重大な下流の結果をもたらす可能性があります。イヌを用いたいくつかのfMRI研究は、霊長類に見られる一般的な背側/腹側の流れの構造に従って見える顔と物体の両方の処理領域の存在を実証しているが、イヌがそれ自体に顔処理領域を持っているのか、それともこれらの領域が頭の形態に対して選択的であるかどうか(例えば、イヌ対ヒト)なのかは不明である。10、11、12、13。いずれにせよ、犬の脳は、ほとんどの霊長類よりも小さいため、モジュール化されていないと予測される14ため、ストリーム内の情報の種類がより混ざり合ったり、行動などの特定の種類の情報に特権が与えられたりする可能性があります。例えば、犬の視覚では、質感や色よりも動きがより顕著な特徴である可能性があることが示唆されている15。さらに、犬には手がないため、私たちが世界と交流する主要な手段の1つであり、特に物体の視覚処理は霊長類のそれとはかなり異なる可能性があります。これに沿って、我々は最近、口と足による物体との相互作用が、犬の脳の物体選択領域におけるより大きな活性化をもたらしたという証拠を発見した16。
犬は自宅の環境でビデオスクリーンを見ることに慣れているかもしれませんが、だからといって、人間と同じように実験的な環境で画像を見ることに慣れているわけではありません。より自然な刺激を用いることで、これらの疑問のいくつかを解決することができるかもしれません。過去10年間で、機械学習アルゴリズムは、人間の脳活動から自然主義的な視覚刺激を解読することにかなりの成功を収めました。初期の成功は、個人が見ていた刺激の種類と、これらの表現をコード化する脳ネットワークの両方を分類するために脳活動を使用するために、古典的なブロック化されたデザインを適応させることに焦点を当てていました17,18,19。より強力なアルゴリズム、特にニューラルネットワークが開発されるにつれて、より複雑な刺激を解読することができ、これには自然主義的なビデオ20,21が含まれる。これらの分類器は、通常、これらのビデオに対する神経応答で訓練され、新規刺激に一般化され、fMRI応答の時点で特定の被験者が何を観察していたかを特定できます。例えば、映画の中の特定の種類の動作、例えばジャンプや回転などは人間の脳から正確に解読できるが、他のもの(例えば、ドラッグ)は解読できない22。同様に、fMRIの応答から多くの種類の物体を解読することができますが、一般的なカテゴリーはより困難であるように思われます。脳の解読は人間に限らず、他の種の脳内で情報がどのように組織化されているかを理解するための強力なツールを提供します。ヒト以外の霊長類を用いた類似のfMRI実験では、側頭葉におけるアニマシーとファシネス/身体性の次元について、ヒトのそれと平行する明確な表現が発見された23。
犬による自然視刺激の表現を理解するための第一歩として、覚醒fMRIを、MRIに長けた2匹の飼い犬に使用して、犬に適したビデオに対する皮質反応を測定しました。この研究では、犬にとっての生態学的妥当性が潜在的であるため、また、ビデオコンテンツを犬の動きにマッピングするニューラルネットでの成功が実証されたため、自然主義的なビデオが使用された24。3回のセッションで、256のユニークなビデオクリップに対する各犬の反応から90分間のfMRIデータを取得しました。比較のために、同じ手順を2人の人間のボランティアに対して実行しました。次に、ニューラルネットワークを使用して、さまざまな数のクラスを使用して「オブジェクト」(人間、犬、車など)または「アクション」(話す、食べる、匂いを嗅ぐなど)のいずれかを識別するように分類器を訓練およびテストしました。この研究の目標は2つありました:1)自然なビデオ刺激が犬の皮質から解読できるかどうかを決定します。2)もしそうなら、その組織が人間の組織と類似していたかどうかを最初に調べてください。
この犬の研究は、エモリー大学のIACUC(PROTO201700572)によって承認され、すべての飼い主が犬の研究への参加に書面で同意しました。ヒトでの研究手順はエモリー大学IRBによって承認され、すべての参加者はスキャン前に書面による同意を提供しました(IRB00069592)。
1. 参加者
2.刺激
3. 実験計画
4. イメージング
5.刺激ラベル
6. fMRIの前処理
7. 分析
機械学習分析でモデルのパフォーマンスを評価するための最も一般的なメトリックには、精度、精度、再現率、F1 スコアなどがあります。精度は、実際のデータに基づいて、モデル予測の全体的な精度を示します。精度は、モデルの肯定的な予測のうち、実際に正であるものの割合(つまり、真陽性率)であり、再現率は、モデルが正常に予測できる元のデータ内の真陽性の割合です。F1 スコアは、精度と再現率の加重平均であり、クラスの不均衡に対してより堅牢な精度の代替尺度として機能します。ただし、Ivis は、出力がバイナリではないという点で、他の一般的に使用される機械学習アルゴリズムとは異なります。脳ボクセルの特定の入力を指定すると、各出力要素は各クラスに対応する確率を表します。これらの出力の精度、精度、再現率、および F1 を計算するには、それらを "勝者総取り" 方式で二値化する必要があり、確率が最も高いクラスがそのボリュームで予測されたクラスと見なされました。このアプローチでは、モデルの品質評価に関連するこれらの確率のランク付けに関する重要な情報が排除されました。したがって、これらの従来のメトリックを引き続き計算しましたが、ラベル ランキング平均精度 (LRAP) スコアを主要なメトリックとして使用して、テスト セットのモデルの精度を計算しました。このメトリックは、基本的に、分類器が真のラベル37に高い確率をどの程度割り当てたかを測定する。
程度の差こそあれ、ニューラルネット分類器は人間と犬の両方に成功しました。人間の場合、アルゴリズムはオブジェクトとアクションの両方を分類することができ、両方に3つのクラスモデルを使用して平均70%の精度を達成しました。LRAP スコアは、テスト セットのモデルの精度を計算するための主要なメトリックとして使用されました。このメトリックは、分類器が真のラベル37に高い確率を割り当てた程度を測定する。両者とも、LRAPスコアの中央値は、テストしたすべてのモデルについてランダムに並べ替えられたラベルセットの99パーセンタイルよりも大きかった(表1; 図 2)。犬の場合、アクションモデルのみが、両方の参加者でLRAPパーセンタイルランクの中央値が偶然よりも有意に高かった(表1; オブジェクトの場合はp = 0.13、 アクションの場合はp < 0.001です。犬の平均3クラスアクションモデルLRAPスコア= 78パーセンタイル)。これらの結果は、すべての被験者に個別に当てはまるだけでなく、種ごとにグループ化した場合にも当てはまりました。
分類器の成功を受けて、モデルの限界を決定するために、追加のクラスでトレーニングとテストを行いました。これには、Pythonパッケージscipyの階層クラスタリングアルゴリズムを使用して、関心のある52の潜在的なクラス全体の非類似度行列を計算することが含まれていました。このアルゴリズムは、ペアワイズ相関によって定義されるように、各々に対する個人の脳の反応の類似性に基づいてクラスをクラスタリングしました。テストした追加のモデルのうち、両方の犬でLRAPパーセンタイルランキングの中央値が最も高いモデルには、元の「話す」、「食べる」、「匂いを嗅ぐ」の5つのクラスに加えて、「撫でる」と「遊ぶ」の2つの新しいクラスがありました(図2)。このモデルのLRAPパーセンタイルランクの中央値は、すべての参加者の偶然によって予測されたものよりも有意に高かった(表1; p < 0.001 (犬と人間の両方)。犬の平均5クラスアクションモデルLRAPスコア= 81パーセンタイル)。
それぞれの脳アトラスにバックマッピングすると、ボクセルの特徴重要度スコアにより、イヌとヒトの両方の後頭皮質、頭頂葉皮質、および側頭皮質に情報量の多いボクセルのクラスターが多数あることが明らかになりました(図3)。人間では、オブジェクトベースのモデルとアクションベースのモデルは、イヌや、オブジェクト認識に通常関連する領域よりも焦点の定型パターンを示しましたが、オブジェクトベースのボクセルとアクションベースのボクセルの空間位置にわずかな違いがありました。
これらの種の違いは、犬が他の種類のビデオ(例えば、犬以外のビデオ、例えば車)よりも多く動くという課題相関運動の結果ではないことを確認しました。6つのモーションパラメータのユークリッドノルムを計算し、Rパッケージlme4を使用して線形混合効果モデルを適合させ、クラスを固定効果として、実行回数を各犬のランダム効果として使用します。最終モデルのそれぞれについて、デイジー(オブジェクトベースはF(2, 2252) = 0.83、 p = 0.44、アクションベースはF(4, 1235) = 1.87、アクションベースは p = 0.11)またはブボ(F(2, 2231) = 1.71、オブジェクトベースは p = 0.18、アクションベースはF(4, 1221) = 0.94、 p = 0.45)のいずれについても、クラスタイプが運動に有意な影響を与えることはなかった。
図1:MRIボアでの自然なビデオとプレゼンテーション (A)参加者に見せられたビデオクリップのフレーム例。(B) 4歳のボクサーミックスのブボが、覚醒状態でfMRIを受けながらビデオを見ている。 この図の拡大版を表示するには、ここをクリックしてください。
図2:犬と人間のモデルパフォーマンス。LRAPスコアの分布は、帰無分布のパーセンタイルランキングとして提示され、3クラスオブジェクトベースモデル、3クラスアクションベースモデル、および5クラスアクションベースモデルのIvis機械学習アルゴリズムのトレーニングとテストを100回以上繰り返しました。犬と人間の覚醒fMRI。スコアは種ごとに集計されます。パーセンタイル ランキングが非常に高い LRAP スコアは、モデルが偶然にその LRAP スコアを達成する可能性が非常に低いことを示します。偶然以上のパフォーマンスを発揮するモデルの場合、LRAP スコアのパーセンタイル ランキングの中央値は ~50 になります。破線は、100回の実行すべてにおける各種のLRAPスコアパーセンタイルランキングの中央値を表しています。この図の拡大版を表示するには、ここをクリックしてください。
図3:3クラスオブジェクトと5クラスアクションモデルの識別に重要な領域(A)人間と(B)犬の参加者。ボクセルは、ランダムフォレスト分類器を使用して、モデルのすべての反復で平均化された特徴の重要度に従ってランク付けされました。ボクセル(つまり、モデルのトレーニングに使用されるボクセル)の上位5%がここに提示され、種ごとに集約され、視覚化の目的でグループ空間に変換されます(アトラス:人間34と犬35)。ラベルは、Johnson et al.35によって特定されたものに基づいて、特徴重要度スコアが高い犬の脳領域を示しています。略語:SSM =上シルビア回。この図の拡大版を表示するには、ここをクリックしてください。
モデルタイプ | トレーニングの精度 | テスト精度 | F1スコア | 精度 | 思い出す | LRAPスコアの中央パーセンタイル | |
人間 1 | オブジェクト(3クラス) | 0.98 | 0.69 | 0.48 | 0.52 | 0.49 | 99> |
アクション(3クラス) | 0.98 | 0.72 | 0.51 | 0.54 | 0.54 | 99> | |
アクション(5クラス) | 0.97 | 0.51 | 0.28 | 0.37 | 0.27 | 99> | |
人間2 | オブジェクト(3クラス) | 0.98 | 0.68 | 0.45 | 0.5 | 0.47 | 99> |
アクション(3クラス) | 0.98 | 0.69 | 0.46 | 0.5 | 0.48 | 99> | |
アクション(5クラス) | 0.97 | 0.53 | 0.3 | 0.4 | 0.27 | 99> | |
ブボ | オブジェクト(3クラス) | 0.99 | 0.61 | 0.38 | 0.41 | 0.39 | 57 |
アクション(3クラス) | 0.98 | 0.63 | 0.38 | 0.4 | 0.4 | 87 | |
アクション(5クラス) | 0.99 | 0.45 | 0.16 | 0.29 | 0.13 | 88 | |
雛菊 | オブジェクト(3クラス) | 1 | 0.61 | 0.38 | 0.43 | 0.39 | 43 |
アクション(3クラス) | 0.97 | 0.62 | 0.35 | 0.38 | 0.35 | 60 | |
アクション(5クラス) | 0.99 | 0.44 | 0.16 | 0.27 | 0.13 | 76 |
表1:犬と人間の覚醒fMRI を介して 得られた自然主義的なビデオ刺激に対するBOLD応答に関する100回以上のトレーニングとテストのIvis機械学習アルゴリズムの集計メトリック 。オブジェクトモデルには3つのターゲットクラス(「犬」、「人間」、「車」)があり、アクションモデルには3つまたは5つのクラス(「話す」、「食べる」、「匂いを嗅ぐ」の3つのクラス、「話す」、「食べる」、「匂いを嗅ぐ」、「撫でる」、「遊ぶ」の5つのクラス)がありました。chance よりも大幅に大きい値は太字で示されています。
補足表1:クラスラベル。このファイルをダウンロードするには、ここをクリックしてください。
補足ムービー1:サンプルビデオクリップ。このファイルをダウンロードするには、ここをクリックしてください。
この研究の結果は、自然主義的なビデオが、複数のイメージングセッションにわたって十分に安定しているイヌの脳内の表現を誘導し、fMRIで解読できることを実証している-ヒトとサルの両方で得られた結果と類似している20,23。イヌの視覚系に関するこれまでのfMRI研究では、中立的な背景を背景にした顔や物体など、質の削ぎ落とされた刺激が示されていましたが、今回の結果は、複数の人や物が相互作用する自然主義的なビデオが、イヌの皮質に活性化パターンを誘導し、人間の皮質に見られる信頼性に近い信頼性で解読できることを示しています。このアプローチは、犬の視覚系がどのように組織化されているかについて、新たな研究の道を切り開きます。
イヌのfMRIの分野は急速に成長しているが、今日まで、これらの実験は、中立的な背景を背景とした人や物体の写真など、比較的貧弱な刺激に依存してきた10,12,13。また、これらの実験により、顔の処理に関与する霊長類の紡錘状顔面領域(FFA)や、物体処理のための外側後頭皮質(LOC)に類似した脳領域が同定され始めている一方で、イヌが霊長類と同様の顕著な特徴に対応する顔領域自体を持っているのか、イヌと人間や顔と頭に対して別々の表象を持っているのかなど、これらの表象の性質については意見の相違が残っています。 たとえば、9,13 です。もちろん、犬は霊長類ではなく、音や匂いという通常の多感覚的な文脈から切り離されたこれらの人工的な刺激をどのように解釈するかはわかりません。いくつかの証拠は、犬が物体のイメージを現実のものの表現として扱わないことを示唆しています12。スキャナーで真の多感覚体験を作り出すことはできませんが、自然主義的なビデオを使用すると、少なくとも犬にとっては、現実世界により近いダイナミックな刺激を提供することで、人工性の一部を軽減できる可能性があります。同じ理由で、ヒトのfMRI研究における自然刺激の使用が人気を博しており、例えば、映画の中の一連の出来事が複数の時間スケールにわたって皮質で表現されていること、そして映画が信頼性の高い感情活性化を誘発するのに効果的であることが実証されている38。このように、自然主義的なビデオは比較的貧弱な刺激のままですが、人間の神経科学での成功は、犬でも同様の結果が得られるかどうかという疑問を投げかけています。
私たちの結果は、ニューラルネット分類器が犬の脳からある種の自然主義的な内容を解読することに成功したことを示しています。この成功は、刺激の複雑さを考えると、印象的な偉業です。重要なのは、分類子が未公開のビデオ クリップでテストされたため、デコード モデルでは、個々のシーンに固有のプロパティではなく、クリップ間で識別可能な広範なカテゴリが選択されたことです。機械学習分類器のパフォーマンスを定量化するための複数の指標があることに注意する必要があります(表1)。自然主義的なビデオは、その性質上、すべてのクラスが等しく出現するわけではないため、ラベルのランダムな順列からヌル分布を構築し、それに関連する重要性を評価するという慎重なアプローチを取りました。次に、犬モデルの成功は統計的に有意であり、75〜90パーセンタイルスコアを達成しましたが、それはビデオがプレイや会話などの存在するアクションに基づいてコード化された場合に限られることがわかりました。
テストセットは、トレーニングセットとは異なり、クラス間でバランスが取れていませんでした。データの 20% しか含んでいないため、最小のクラス サイズにアンダーサンプリングすると、各クラスのサンプル サイズが非常に小さくなり、計算された統計量の信頼性が低下します。この不均衡によって精度が高まる可能性を回避するために、LRAP の零分布は、モデルの反復ごとにクラスの順序を 1,000 回ランダムに並べ替えることによって計算されました。この帰無分布は、モデルが偶然にどの程度うまく機能する可能性が高いかの参照として機能しました。次に、真の LRAP をこの null 分布のパーセンタイル ランキングに変換しました。非常に高いパーセンタイルランキング(たとえば、95%)は、1,000のランダムな順列でこれほど高いスコアが5%の確率でしか発生しなかったことを示します。したがって、このようなモデルは、偶然をはるかに超えて機能していると見なすことができます。これらのパーセンタイルランキングが偶然に予想されたもの、つまり50パーセンタイルよりも大幅に大きいかどうかを判断するために、各モデルの100回の反復すべてにわたるLRAPパーセンタイルランキングの中央値が計算され、1サンプルのWilcoxon符号付きランク検定が実行されました。
主な目標は、犬の自然主義的な視覚刺激のデコーダーを開発することでしたが、人間との比較は避けられません。ここでは、2つの大きな違いに注目します:分類器の種類ごとに、人間のモデルは犬のモデルよりも優れたパフォーマンスを発揮しました。また、人間モデルはオブジェクトベースモデルとアクションベースモデルの両方で優れたパフォーマンスを発揮しましたが、犬のモデルはアクションベースでのみパフォーマンスを発揮しました。人間モデルの優れたパフォーマンスは、いくつかの要因によるものである可能性があります。人間の脳は犬の脳の約 10 倍大きいため、分類器を構築するために選択できるボクセルはもっとあります。モデルを対等な立場に置くには、同じ数のボクセルを使用する必要がありますが、これは絶対的な意味でも相対的な意味でもかまいません。最終的なモデルは、各脳の情報ボクセルの上位5%(相対的な尺度)に基づいていましたが、固定数のボクセルを使用して同様の結果が得られました。したがって、パフォーマンスの違いは、人間と犬がビデオ刺激をどのように知覚するかに関連している可能性が高いようです。上記のように、犬と人間はどちらも知覚において多感覚的ですが、刺激は人間よりも犬にとってより貧弱である可能性があります。たとえば、サイズの手がかりが失われ、すべてが現実世界のおもちゃバージョンのように見える場合があります。犬が形状よりもサイズと質感に基づいて物体を分類するという証拠がいくつかあり、これは人間とほぼ逆です39。さらに、ここでは考慮されていない匂いは、犬の物体識別、特に同種またはヒトの識別のための重要な情報源である可能性が高い40,41,42。しかし、サイズや匂いの手がかりがなくても、MRIスキャナーの異常な環境で、分類器がまったく機能しなかったという事実は、犬の脳から回復できる情報がまだあったことを示しています。犬が2匹と人間が2匹しかいない場合、種の違いは個体差によるものかもしれません。しかし、この2匹の犬は、MRIで訓練された犬の中で最も優れており、ビデオを見ながらじっとしているのが得意でした。サンプルサイズが大きければ、種間でより信頼性の高い区別ができるようになるのは確かですが、覚醒状態でのfMRIを行う能力があり、長時間ビデオを見る犬の数が少ないため、一般化可能性は常にすべての犬に限定されます。サイトハウンドのような特殊な犬種は、視覚の脳の反応がより細かく調整されている可能性がありますが、私たちは、個々の気質と訓練が犬の脳から回復可能なものの主要な決定要因である可能性が高いと考えています。
これらの種の違いは、犬がビデオのどの側面に注意を払っていたのかという疑問を提起します。この質問に答える1つのアプローチは、より単純なビデオ刺激に依存しています。次に、たとえば、人間、犬、車の孤立した画像を、中立的な背景に対して個別に、または一緒に使用することで、犬の顕著な次元をリバースエンジニアリングできる可能性があります。しかし、これは方法論的に非効率的であり、現実世界からの刺激をさらに弱めます。注意の問題は、デコードアプローチのみによって、事実上、モデルのパフォーマンスを使用して、何に注意が向けられているかを決定することによって解決できる43。これらの線に沿って、ここでの結果は、人間が俳優と行動の両方に注意を払った一方で、犬は行動自体にもっと集中していたことを示唆しています。これは、個人が遊んでいるときと食事をしているときの動きの頻度など、低レベルの運動機能の違いによるものかもしれませんし、より高いレベルでのこれらの活動のカテゴリー表現によるものかもしれません。犬の皮質全体に情報量の多いボクセルが分布していることは、これらの表現が視覚領域に限定される低レベルの特徴だけではないことを示唆しています。より多様なビデオ刺激を用いたさらなる研究により、イヌによるカテゴリー識別における運動の役割が明らかになるかもしれない。
要約すると、この研究は、人間の皮質に対して行われるのと同じ方法でfMRIを使用して犬の皮質から自然な視覚情報を回復することの実現可能性を実証しました。このデモンストレーションは、音や匂いがなくても、複雑なシーンの顕著な次元がビデオを見ている犬によってエンコードされ、これらの次元が犬の脳から回復できることを示しています。第二に、この種のタスクを実行できる犬の数が少ないことに基づいて、情報は人間で通常見られるよりも皮質に広く分布している可能性があり、行動の種類は、アクターやオブジェクトのアイデンティティよりも簡単に回復できるようです。これらの結果は、イヌがビデオ画面など、人間と共有する環境をどのように認識しているかを調べる新たな方法を開くものであり、イヌや他の霊長類以外の動物がどのように世界を「見る」かについての将来の探求のための豊富な道筋を示唆している。
何一つ。
この分析の開発に有益な洞察を提供してくださったKate Revill氏、Raveena Chhibber氏、Jon King氏、MRI用の犬の募集と訓練を支援してくださったMark Spivak氏、ビデオ制作とラベリングに協力してくださったPhyllis Guo氏に感謝します。また、献身的な犬の飼い主であるレベッカ・ビーズリー(デイジー)とアシュウィン・サハルダンデ(ブボ)にも感謝します。ヒト研究は、国立眼科研究所からの助成金(Grant R01 EY029724 to D.D.D.)によって支援されました。
Name | Company | Catalog Number | Comments |
3 T MRI Scanner | Siemens | Trio | |
Audio recordings of scanner noise | homemade | none | |
Camera gimbal | Hohem | iSteady PRO 3 | |
Dog-appropriate videos | homemade | none | |
fMRI processing software | AFNI | 20.3.01 | |
Mock scanner components | homemade | none | Mock head coil and scanner tube |
Neural net software | Ivis | 1.7.1 | |
Optical flow software | OpenCV | 4.2.0.34 | |
Projection system for scanner | homemade | none | |
Trophy Cam HD | Bushnell | 119874 | |
Video camera | GoPro | HERO7 | |
Visualization software | ITK-SNAP | 3.6.0 | |
Windows Video Editor | Microsoft | Windows 11 version |
このJoVE論文のテキスト又は図を再利用するための許可を申請します
許可を申請This article has been published
Video Coming Soon
Copyright © 2023 MyJoVE Corporation. All rights reserved