È necessario avere un abbonamento a JoVE per visualizzare questo. Accedi o inizia la tua prova gratuita.
Method Article
L'eye tracking è un metodo non invasivo per sondare l'elaborazione delle informazioni. Questo articolo descrive come l'eye tracking può essere utilizzato per studiare il comportamento dello sguardo durante un'attività di emergenza di simulazione di volo nei piloti a basso tempo (ad esempio, <350 ore di volo).
L'eye tracking è stato ampiamente utilizzato come proxy per ottenere informazioni sui processi cognitivi, percettivi e sensomotori che sono alla base delle prestazioni delle abilità. Lavori precedenti hanno dimostrato che le metriche dello sguardo tradizionali e avanzate dimostrano in modo affidabile solide differenze nell'esperienza del pilota, nel carico cognitivo, nell'affaticamento e persino nella consapevolezza della situazione (SA).
Questo studio descrive la metodologia per l'utilizzo di un eye tracker indossabile e di un algoritmo di mappatura dello sguardo che cattura i movimenti naturali della testa e degli occhi (cioè lo sguardo) in un simulatore di volo immobile ad alta fedeltà. Il metodo descritto in questo articolo descrive l'analisi dello sguardo basata sull'area di interesse (AOI), che fornisce un contesto più ampio in relazione a dove i partecipanti stanno guardando, e la durata del tempo di permanenza, che indica l'efficienza con cui elaborano le informazioni fissate. Il protocollo illustra l'utilità di un eye tracker indossabile e di un algoritmo di visione artificiale per valutare i cambiamenti nel comportamento dello sguardo in risposta a un'emergenza imprevista in volo.
Risultati rappresentativi hanno dimostrato che lo sguardo è stato influenzato in modo significativo quando è stato introdotto l'evento di emergenza. In particolare, l'allocazione dell'attenzione, la dispersione dello sguardo e la complessità della sequenza degli sguardi sono diminuiti significativamente e si sono concentrati molto sul guardare fuori dal finestrino anteriore e sull'indicatore di velocità durante lo scenario di emergenza (tutti i valori p < 0,05). Vengono discussi l'utilità e i limiti dell'impiego di un eye tracker indossabile in un ambiente di simulazione di volo immobile ad alta fedeltà per comprendere le caratteristiche spazio-temporali del comportamento dello sguardo e la sua relazione con l'elaborazione delle informazioni nel dominio dell'aviazione.
Gli esseri umani interagiscono prevalentemente con il mondo che li circonda muovendo prima gli occhi e la testa per focalizzare la loro linea di vista (cioè lo sguardo) verso un oggetto specifico o un luogo di interesse. Ciò è particolarmente vero in ambienti complessi come le cabine di pilotaggio degli aerei, dove i piloti si trovano di fronte a molteplici stimoli concorrenti. I movimenti dello sguardo consentono la raccolta di informazioni visive ad alta risoluzione che consentono agli esseri umani di interagire con il loro ambiente in modo sicuro e flessibile1, il che è di fondamentale importanza nell'aviazione. Gli studi hanno dimostrato che i movimenti oculari e il comportamento dello sguardo forniscono informazioni sui processi percettivi, cognitivi e motori sottostanti in vari compiti 1,2,3. Inoltre, dove guardiamo ha un'influenza diretta sulla pianificazione e l'esecuzione dei movimenti degli arti superiori3. Pertanto, l'analisi del comportamento dello sguardo durante le attività di aviazione fornisce un metodo oggettivo e non invasivo, che potrebbe rivelare come i modelli di movimento degli occhi si riferiscono a vari aspetti dell'elaborazione delle informazioni e delle prestazioni.
Diversi studi hanno dimostrato un'associazione tra lo sguardo e le prestazioni del compito in vari paradigmi di laboratorio, nonché in compiti complessi del mondo reale (ad esempio, la gestione di un aereo). Ad esempio, le aree rilevanti per il compito tendono ad essere fissate più frequentemente e per durate totali più lunghe, suggerendo che la posizione di fissazione, la frequenza e il tempo di permanenza sono proxy per l'allocazione dell'attenzione nei compiti neurocognitivi e aeronautici 4,5,6. I performer e gli esperti di grande successo mostrano significativi pregiudizi di fissazione verso le aree critiche per i compiti rispetto ai performer o ai principianti di minor successo 4,7,8. Gli aspetti spazio-temporali dello sguardo sono catturati attraverso cambiamenti nei modelli di tempo di permanenza in varie aree di interesse (AOI) o misure di distribuzione della fissazione (ad esempio, Entropia dello sguardo stazionario: SGE). Nel contesto dei paradigmi di laboratorio, la durata media della fissazione, la lunghezza del percorso di scansione e la complessità della sequenza dello sguardo (ad esempio, Gaze Transition Entropy: GTE) tendono ad aumentare a causa dell'aumento della scansione e dell'elaborazione necessarie per risolvere i problemi ed elaborare obiettivi/soluzioni di compiti più impegnativi 4,7.
Al contrario, gli studi sull'aviazione hanno dimostrato che la lunghezza del percorso di scansione e la complessità della sequenza di sguardi diminuiscono con la complessità del compito e il carico cognitivo. Questa discrepanza evidenzia il fatto che la comprensione delle componenti del compito e delle esigenze del paradigma impiegato è fondamentale per l'interpretazione accurata delle metriche dello sguardo. Nel complesso, la ricerca fino ad oggi supporta che le misure dello sguardo forniscono una visione significativa e obiettiva dell'elaborazione delle informazioni specifiche del compito che sono alla base delle differenze nella difficoltà del compito, nel carico cognitivo e nelle prestazioni del compito. Con i progressi nella tecnologia di tracciamento oculare (ad esempio, portabilità, calibrazione e costi), l'esame del comportamento dello sguardo in "natura" è un'area di ricerca emergente con applicazioni tangibili per far progredire la formazione professionale nei campi della medicina 9,10,11 e dell'aviazione 12,13,14.
Il lavoro attuale mira a esaminare ulteriormente l'utilità dell'utilizzo di metriche basate sullo sguardo per ottenere informazioni sull'elaborazione delle informazioni, impiegando in modo specifico un eye tracker indossabile durante un'attività di simulazione di volo di emergenza nei piloti a basso tempo. Questo studio amplia il lavoro precedente che ha utilizzato un eye tracker stabilizzato della testa (ad esempio, EyeLink II) per esaminare le differenze nelle metriche di comportamento dello sguardo in funzione della difficoltà di volo (ad esempio, i cambiamenti nelle condizioni meteorologiche)5. Il lavoro presentato in questo manoscritto si estende anche ad altri lavori che descrivono gli approcci metodologici e analitici per l'utilizzo dell'eye tracking in un sistema di realtà virtuale15. Il nostro studio ha utilizzato un simulatore immobile ad alta fedeltà e riporta un'analisi aggiuntiva dei dati sui movimenti oculari (cioè l'entropia). Questo tipo di analisi è stato riportato in articoli precedenti; Tuttavia, un limite nella letteratura attuale è la mancanza di standardizzazione nella segnalazione delle fasi analitiche. Ad esempio, la segnalazione della definizione delle aree di interesse è di fondamentale importanza perché influenza direttamente i valori di entropia risultanti16.
Per riassumere, il lavoro attuale ha esaminato le metriche di comportamento dello sguardo tradizionali e dinamiche, mentre la difficoltà del compito è stata manipolata attraverso l'introduzione di uno scenario di emergenza in volo (ad esempio, guasto totale imprevisto del motore). Ci si aspettava che l'introduzione di uno scenario di emergenza in volo avrebbe fornito informazioni sui cambiamenti del comportamento dello sguardo alla base dell'elaborazione delle informazioni durante le condizioni di compito più difficili. Lo studio qui riportato fa parte di uno studio più ampio che esamina l'utilità dell'eye tracking in un simulatore di volo per informare l'addestramento dei piloti basato sulle competenze. I risultati qui presentati non sono stati pubblicati in precedenza.
Il seguente protocollo può essere applicato a studi che coinvolgono un eye tracker indossabile e un simulatore di volo. Il presente studio coinvolge dati di tracciamento oculare registrati insieme a complesse attività relative all'aviazione in un simulatore di volo (vedi Tabella dei materiali). Il simulatore è stato configurato per essere rappresentativo di un Cessna 172 ed è stato utilizzato con il necessario pannello strumenti (configurazione dell'indicatore di vapore), un sistema avionico/GPS, un pannello audio/luci, un pannello interruttori e un'unità di controllo di volo (FCU) (vedi Figura 1). Il dispositivo del simulatore di volo utilizzato in questo studio è certificabile per scopi di addestramento e utilizzato dalla scuola di volo locale per addestrare le competenze necessarie per rispondere a vari scenari di emergenza, come un guasto al motore, in un ambiente a basso rischio. I partecipanti a questo studio erano tutti autorizzati; Pertanto, hanno sperimentato lo scenario del simulatore di guasto al motore in precedenza nel corso della loro formazione. Questo studio è stato approvato dall'Ufficio di etica della ricerca dell'Università di Waterloo (43564; Data: 17 novembre 2021). Tutti i partecipanti (N = 24; 14 maschi, 10 femmine; età media = 22 anni; ore di volo: 51-280 ore) hanno fornito il consenso informato scritto.
Figura 1: Ambiente del simulatore di volo. Un'illustrazione dell'ambiente del simulatore di volo. Il punto di vista del partecipante sulla cabina di pilotaggio ha replicato quello di un pilota che vola su un Cessna 172, preimpostato per un avvicinamento sottovento alla base fino alla fine all'aeroporto internazionale di Waterloo, Breslau, Ontario, CA. I riquadri arancioni rappresentano le dieci principali aree di interesse utilizzate nelle analisi dello sguardo. Questi includono (1) la velocità, (2) l'assetto, (3) l'altimetro, (4) il coordinatore di virata, (5) la direzione, (6) la velocità verticale e (7) gli indicatori di potenza, nonché i (8) finestrini anteriori, (9) sinistro e (10) destro. Questa cifra è stata modificata da Ayala et al.5. Clicca qui per visualizzare una versione più grande di questa figura.
1. Screening dei partecipanti e consenso informato
2. Requisiti hardware/software e avviamento
3. Raccolta dei dati
NOTA: Ripetere questi passaggi per ogni prova. Si consiglia di posizionare il laptop sulla panca all'esterno della cabina di pilotaggio.
4. Elaborazione e analisi dei dati
Termine | Definizione |
Successo (%) | Percentuale di prove di atterraggio riuscite |
Tempo di completamento (s) | Durata del tempo dall'inizio dello scenario di atterraggio all'arresto completo dell'aereo sulla pista |
Durezza di atterraggio (fpm) | Il tasso di decente al punto di atterraggio |
Errore di atterraggio (°) | La differenza tra il centro dell'aereo e il centro dell'indicatore della pista di 500 piedi nel punto di atterraggio |
Tabella 1: Variabili di risultato delle prestazioni del simulatore. Variabili dipendenti dalle prestazioni degli aeromobili e loro definizioni.
Figura 2: Percorso di volo dello scenario di atterraggio. Schema di (A) il circuito di atterraggio completato in tutte le prove e (B) la pista con i marcatori di 500 piedi che sono stati utilizzati come punto di riferimento per la zona di atterraggio (cioè, cerchio arancione centrale). Clicca qui per visualizzare una versione più grande di questa figura.
Figura 3: Mappatura dell'area di interesse. Illustrazione dello script batch che illustra una finestra per la selezione dei fotogrammi. La selezione di un fotogramma ottimale comporta la scelta di un fotogramma video che includa la maggior parte o tutte le aree di interesse da mappare. Clicca qui per visualizzare una versione più grande di questa figura.
Figura 4: Generazione delle coordinate "sullo schermo" della mappatura dell'area di interesse. Un'illustrazione dello script batch che mostra una finestra per la selezione delle coordinate "sullo schermo". Questa fase prevede la selezione di una regione quadrata/rettangolare che rimane visibile per tutta la durata della registrazione, è unica per l'immagine e rimane statica. Clicca qui per visualizzare una versione più grande di questa figura.
Figura 5: Identificazione dell'area di interesse da mappare. Un'illustrazione della finestra di script batch che consente la selezione e l'etichettatura delle aree di interesse. Abbreviazione: AOI = aree di interesse. Clicca qui per visualizzare una versione più grande di questa figura.
Figura 6: Elaborazione di script batch. Un'illustrazione dello script batch che elabora il video e mappa lo sguardo delle fissazioni effettuate durante il processo. Clicca qui per visualizzare una versione più grande di questa figura.
Termine | Definizione |
Tempo di permanenza (%) | Percentuale della somma di tutte le durate di fissazione accumulate su un'AOI rispetto alla somma delle durate di fissazione accumulate su tutte le AOI |
Durata media della fissazione (ms) | Durata media di una fissazione su un'AOI dall'ingresso all'uscita |
Frequenza di lampeggio (lampeggiamenti/s) | Numero di lampeggi al secondo |
SGE (bit) | Dispersione di fissazione |
GTE (bit) | Complessità della sequenza di scansione |
Numero di attacchi | Numero di eventi di tunneling cognitivo (>10 s) |
Tempo totale dell'incontro (s) | Tempo totale degli eventi di tunneling cognitivo |
Tabella 2: Variabili di esito dell'eye tracking. Variabili dipendenti dal comportamento dello sguardo e loro definizioni.
L'impatto delle richieste di attività sulle prestazioni di volo
I dati sono stati analizzati sulla base di prove di atterraggio riuscite in condizioni di base e di emergenza. Tutte le misure sono state sottoposte a un test t di campioni accoppiati (fattore all'interno del soggetto: condizione del compito (base, emergenza)). Tutti i test t sono stati eseguiti con un livello alfa impostato a 0,05. Quattro partecipanti si sono schiantati durante la pro...
Il metodo di tracciamento oculare qui descritto consente la valutazione dell'elaborazione delle informazioni in un ambiente di simulatore di volo tramite un eye tracker indossabile. La valutazione delle caratteristiche spaziali e temporali del comportamento dello sguardo fornisce informazioni sull'elaborazione delle informazioni umane, che è stata ampiamente studiata utilizzando paradigmi di laboratorio altamente controllati 4,7,28
Non esistono interessi finanziari concorrenti.
Questo lavoro è sostenuto in parte dalla Canadian Graduate Scholarship (CGS) del Natural Sciences and Engineering Research Council (NSERC) del Canada e dall'Exploration Grant (00753) del New Frontiers in Research Fund. Tutte le opinioni, i risultati, le conclusioni o le raccomandazioni espresse in questo materiale sono dell'autore o degli autori e non riflettono necessariamente quelle degli sponsor.
Name | Company | Catalog Number | Comments |
flight simulator | ALSIM | AL-250 | fixed fully immersive flight simulation training device |
laptop | Hp | Lenovo | eye tracking data collection laptop; requirements: Windows 10 and python 3.0 |
portable eye-tracker | AdHawk | MindLink eye tracking glasses (250 Hz, <2° gaze error, front-facing camera); eye tracking batch script is made available with AdHawk device purchase |
Richiedi autorizzazione per utilizzare il testo o le figure di questo articolo JoVE
Richiedi AutorizzazioneThis article has been published
Video Coming Soon