Su “NeuroImage” uno studio del Dipartimento di Neuroscienze dell’Ateneo di Parma
Gli autori riportano che, se il significato di un gesto è congruente col significato di una parola (per esempio: gesto “pollice su” e parola “bene”) a 250ms (millisecondi) dalla presentazione di un gesto, la parola è integrata col gesto. Ne risulta un’amplificazione dei parametri cinematici del movimento delle labbra e dei parametri vocali della parola, e conseguentemente un rafforzamento del significato della parola. Inoltre, usando tecniche neurofisiologiche di stimolazione magnetica transcranica applicata alla corteccia motoria, gli autori hanno mostrato che, a 100 ms dalla sua presentazione, il gesto viene automaticamente simulato verosimilmente per comprenderne il significato. Di conseguenza, il significato del gesto incomincerebbe a essere compreso a 100ms dalla sua presentazione e sarebbe poi integrato con la parola a 250ms.
Questo studio supporta l’ipotesi secondo la quale il linguaggio parlato deriverebbe da un sistema di comunicazione gestuale (pubblicazioni di Gentilucci e Corballis del 2006). E ciò potrebbe avere significative ricadute: un avanzamento delle conoscenze dei rapporti tra i circuiti legati al controllo dei gesti e delle parole potrebbe ad esempio trovare un’applicazione anche nella riabilitazione delle afasie.