/Новости медицины/Новая слуховая модель может помочь людям локализовать звуки

Новая слуховая модель может помочь людям локализовать звуки

Одной из вечных загадок потери слуха является снижение способности человека определять, откуда исходит звук, ключевая способность выживания, которая позволяет животным - от ящериц до людей точно определять местоположение опасности, добычи и членов группы.

В отличие от других сенсорных восприятий, таких как ощущение, когда капли дождя падают на кожу, или способность отличать высокие ноты от низких на пианино, направление звуков должно быть вычислено точно; мозг оценивает их, обрабатывая разницу во времени прибытия через два уха, так называемую межауральную разницу во времени (ITD).

Давний консенсус среди биомедицинских инженеров состоит в том, что люди локализуют звуки с помощью схемы, похожей на пространственную карту или компас, с нейронами, выровненными слева направо, которые срабатывают индивидуально, когда активируются звуком, идущим под определенным углом - скажем, на 30 градусов влево от центра головы.

Но в исследовании, опубликованном в этом месяце в журнале eLife, Антье Илефельд, директор Лаборатории нейронной инженерии для речи и слуха NJIT, предлагает другую модель, основанную на более динамичном нейронном коде. Открытие дает новую надежду, говорит она, что инженеры могут однажды изобрести слуховые аппараты, которые теперь, как известно, плохо восстанавливают направление звука, чтобы исправить этот дефицит.

Илефельд продолжил: "Мы будем программировать слуховые аппараты и кохлеарные имплантаты не только для компенсации потери слуха у человека, но и на основе того, насколько хорошо этот человек может адаптироваться к использованию сигналов от своих устройств. Это особенно важно для ситуаций с фоновым звуком, когда ни одно слуховое устройство в настоящее время не может восстановить способность выделять целевой звук. Мы знаем, что предоставление сигналов для восстановления направления звука действительно поможет."

К такому выводу ее привела научная работа, начавшаяся с разговора с Робертом Шепли, выдающимся нейрофизиологом из Нью - Йоркского университета, который отметил особенность человеческого бинокулярного восприятия глубины - способность определять, насколько далеко находится зрительный объект, - которая также зависит от вычисления, сравнивающего входные данные, полученные обоими глазами.

Шепли отметил, что эти оценки расстояния систематически менее точны для низкоконтрастных стимулов (изображений, которые труднее отличить от их окружения), чем для высококонтрастных.

Илефельд и Шепли задавались вопросом, применим ли тот же нейронный принцип к локализации звука: является ли он менее точным для более мягких звуков, чем для более громких. Но это будет отходить от преобладающей теории пространственных карт, известной как модель Джеффресса, которая утверждает, что звуки всех томов обрабатываются - и, следовательно, воспринимаются - одинаково.

Физиологи, которые предполагают, что млекопитающие полагаются на более динамичную нейронную модель, уже давно не согласны с ней. Они считают, что нейроны млекопитающих имеют тенденцию "стрелять" с разной скоростью в зависимости от направленных сигналов, и что мозг затем сравнивает эти скорости между наборами нейронов, чтобы динамически построить карту звуковой среды.

Они исследовали литературу в поисках доказательств и нашли только две бумаги, которые записывались из нервной ткани при этих низких звуках. Одно исследование проводилось на сипухах-разновидности, которая полагалась на модель Джеффресса, основанную на записях высокого разрешения в мозговой ткани птиц , а другое исследование было проведено на млекопитающем, макаке резуса, животном, которое считалось использующим динамическое кодирование скорости.

Затем они тщательно реконструировали свойства возбуждения нейронов, записанные в этих старых исследованиях, и использовали их реконструкции для оценки направления звука как функции ITD, так и громкости.

"Мы построили очень тихую, звуконепроницаемую комнату со специализированным калиброванным оборудованием, которое позволило нам представлять звуки с высокой точностью нашим добровольцам и записывать, где они воспринимали звук, чтобы возникнуть. И конечно же, люди неправильно идентифицировали более мягкие звуки", - отмечает Аламацаз.

"На сегодняшний день мы не можем точно описать вычисления локализации звука в мозге", - добавляет Илефельд. "Однако текущие результаты не согласуются с представлением о том, что человеческий мозг полагается на вычисление, подобное Джеффрессу. Вместо этого мы полагаемся на несколько менее точный механизм.

В более широком смысле, говорят исследователи, их исследования указывают на прямые параллели в слухе и зрительном восприятии, которые были упущены до сих пор и которые предполагают, что кодирование на основе скорости является основной базовой операцией при вычислении пространственных измерений с двух сенсорных входов.

"Поскольку наша работа раскрывает принципы объединения двух чувств, мы ожидаем, что заинтересованные аудитории будут включать когнитивистов, физиологов и специалистов по компьютерному моделированию как в области слуха, так и зрения", - говорит Илефельд. "Интересно сравнить, как мозг использует информацию, достигающую наших глаз и ушей, чтобы понять мир вокруг нас, и обнаружить, что два, казалось бы, несвязанных восприятия - зрение и слух - на самом деле могут быть очень похожи."