Система, устройство и способ для совместимого воспроизведения акустической сцены на основе адаптивных функций

Изобретение относится к средствам для воспроизведения акустической сцены. Технический результат заключается в повышении эффективности обработки аудиосигнала. Принимают сигнал прямых компонент, содержащий компоненты прямых сигналов из двух или более исходных аудиосигналов. Принимают сигнал диффузных компонент, содержащий компоненты диффузных сигналов из упомянутых двух или более исходных аудиосигналов. Принимают информацию направления, при этом упомянутая информация направления зависит от направления прибытия компонент прямых сигналов из упомянутых двух или более исходных аудиосигналов. Генерируют один или более обработанных диффузных сигналов в зависимости от сигнала диффузных компонент. Для каждого выходного аудиосигнала из упомянутых одного или более выходных аудиосигналов определяют в зависимости от направления прибытия усиление прямого звука, применяют упомянутое усиление прямого звука к сигналу прямых компонент, чтобы получить обработанный прямой сигнал. 3 н. и 14 з.п. ф-лы, 21 ил.

 

Настоящее изобретение относится к обработке аудиосигналов, и, в частности, к системе, устройству и способу для совместимого воспроизведения акустической сцены на основе информированной пространственной фильтрации.

В воспроизведении пространственного звука звук в местоположении записи (стороне ближнего конца) захватывается с помощью множества микрофонов и затем воспроизводится на стороне воспроизведения (стороне дальнего конца) с использованием множества громкоговорителей или наушников. Во многих применениях, требуется воспроизводить записанный звук таким образом, чтобы пространственное изображение, воссоздаваемое на стороне дальнего конца, было совместимо с исходным пространственным изображением на стороне ближнего конца. Это означает, например, что звук источников звука воспроизводится из направлений, где источники присутствовали в исходном сценарии записи. Альтернативно, когда, например, видео дополняет записанное аудио, является желательным, чтобы звук воспроизводился таким образом, чтобы воссоздаваемое акустическое изображение было совместимо с видеоизображением. Это означает, например, что звук источника звука воспроизводится из направления, где источник является видимым на видео. Дополнительно, видеокамера может оснащаться функцией визуального масштабирования или пользователь на стороне дальнего конца может применять цифровое масштабирование к видео, которое изменяет визуальное изображение. В этом случае, акустическое изображение воспроизводимого пространственного звука должно изменяться соответствующим образом. Во многих случаях, сторона дальнего конца определяет пространственное изображение, с которым воспроизводимый звук должен быть совместимым, при этом оно определяется либо на стороне дальнего конца, либо во время проигрывания, например, когда вовлечено видеоизображение. Следовательно, пространственный звук на стороне ближнего конца должен записываться, обрабатываться, и передаваться таким образом, чтобы на стороне дальнего конца мы все еще могли управлять воссоздаваемым акустическим изображением.

Возможность воспроизводить записанную акустическую сцену совместимым образом с требуемым пространственным изображением требуется во многих современных применениях. Например, современные пользовательские устройства, такие как цифровые камеры или мобильные телефоны, часто оснащены видеокамерой и множеством микрофонов. Это обеспечивает возможность записывать видео вместе с пространственным звуком, например, стереозвуком. При воспроизведении записанного аудио вместе с видео, требуется, чтобы визуальное и акустическое изображение были совместимыми. Когда пользователь увеличивает масштаб с помощью камеры, является желательным воссоздавать эффект визуального масштабирования акустически, чтобы визуальное и акустическое изображения были выровнены при просмотре видео. Например, когда пользователь увеличивает масштаб на человеке, речь этого человека должна становиться менее реверберационной по мере того, как человек показывается более близко к камере. Более того, речь человека должна воспроизводиться из того же направления, где человек показывается в визуальном изображении. Имитация визуального масштабирования камеры акустически в последующем упоминается как акустическое масштабирование и представляет один пример совместимого воспроизведения аудио-видео. Совместимое воспроизведение аудио-видео, которое может включать в себя акустическое масштабирование, также является полезным в телеконференцсвязи, где пространственный звук на стороне ближнего конца воспроизводится на стороне дальнего конца вместе с визуальным изображением. Более того, является желательным воссоздавать эффект визуального масштабирования акустически, чтобы визуальное и акустическое изображения были выровнены.

Первый вариант осуществления акустического масштабирования был представлен в [1], где эффект масштабирования получается посредством увеличения направленности направленного микрофона второго порядка, чей сигнал генерируется на основе сигналов линейного массива микрофонов. Этот подход был расширен в [2] до стерео масштабирования. Более недавний подход для моно или стерео масштабирования был представлен в [3], который состоит в изменении уровней источников звука таким образом, чтобы источник из фронтального направления сохранялся, тогда как источники, приходящие из других направлений, и диффузный звук ослаблялись. Подходы, предложенные в [1, 2], дают результатом увеличение отношения прямого звука к реверберации (DRR) и подход в [3] дополнительно обеспечивает возможность для подавления нежелательных источников. Вышеупомянутые подходы предполагают, что источник звука располагается спереди камеры, и не имеют целью захватывать акустическое изображение, которое является совместимым с видеоизображением.

Хорошо известный подход для гибких записи и воспроизведения пространственного звука представлен посредством направленного аудио кодирования (DirAC) [4]. В DirAC, пространственный звук на стороне ближнего конца описывается исходя из аудиосигнала и параметрической вспомогательной информации, именно направления прибытия (DOA) и диффузности звука. Параметрическое описание обеспечивает возможность воспроизведения исходного пространственного изображения с произвольными установками громкоговорителей. Это означает, что воссоздаваемое пространственное изображение на стороне дальнего конца является совместимым с пространственным изображением во время записи на стороне ближнего конца. Однако, если, например, видео дополняет записанное аудио, то воспроизводимый пространственный звук не необходимо выровнен с видеоизображением. Более того, воссоздаваемое акустическое изображение не может регулироваться, когда визуальное изображение изменяется, например, когда направление просмотра и масштабирование камеры изменяется. Это означает, что DirAC не обеспечивает никакой возможности регулировать воссоздаваемое акустическое изображение для произвольного требуемого пространственного изображения.

В [5], акустическое масштабирование реализовано на основе DirAC. DirAC представляет разумную основу для реализации акустического масштабирования, так как оно основывается на простой, но все же мощной модели сигналов, предполагающей, что звуковое поле в частотно-временной области состоит из одиночной плоской волны плюс диффузный звук. Лежащие в основе параметры модели, например, DOA и диффузность, используются, чтобы разделять прямой звук и диффузный звук и создавать эффект акустического масштабирования. Параметрическое описание пространственного звука обеспечивает возможность эффективной передачи звуковой сцены стороне дальнего конца, при этом еще обеспечивает пользователя полным управлением над эффектом масштабирования и воспроизведением пространственного звука. Даже хотя DirAC использует множество микрофонов, чтобы оценивать параметры модели, применяются только одноканальные фильтры, чтобы извлекать прямой звук и диффузный звук, что ограничивает качество воспроизводимого звука. Более того, предполагается, что все источники в звуковой сцене располагаются на окружности и воспроизведение пространственного звука выполняется со ссылкой на изменяющееся положение аудиовизуальной камеры, что является несовместимым с визуальным масштабированием. Фактически, масштабирование изменяет угол обзора камеры, в то время как расстояние до визуальных объектов и их относительные положения в изображении остаются неизменными, что отличается от перемещения камеры.

Родственный подход является так называемым способом виртуальных микрофонов (VM) [6,7], который учитывает такую же модель сигналов как DirAC, но обеспечивает возможность синтезировать сигнал несуществующего (виртуального) микрофона в произвольном положении в звуковой сцене. Перемещение VM в направлении к источнику звука является аналогичным перемещению камеры в новое положение. VM реализуется с использованием многоканальных фильтров, чтобы улучшать качество звука, но требует несколько распределенных массивов микрофонов, чтобы оценивать параметры модели.

Однако было бы весьма предпочтительным, если бы были обеспечены дополнительно улучшенные концепции для обработки аудиосигналов.

Таким образом, цель настоящего изобретения состоит в том, чтобы обеспечить улучшенные концепции для обработки аудиосигналов. Цель настоящего изобретения решается посредством системы согласно пункту 1 формулы изобретения, посредством устройства согласно пункту 14 формулы изобретения, посредством способа согласно пункту 15 формулы изобретения, посредством способа согласно пункту 16 формулы изобретения и посредством компьютерной программы согласно пункту 17 формулы изобретения.

Обеспечивается система для генерирования одного или более выходных аудиосигналов. Система содержит модуль генерирования сигнала компонент, сигнальный процессор, и интерфейс вывода. Модуль генерирования сигнала компонент сконфигурирован с возможностью принимать два или более входных аудиосигналов, при этом модуль генерирования сигнала компонент сконфигурирован с возможностью генерировать сигнал прямых компонент, содержащий компоненты прямых сигналов упомянутых двух или более входных аудиосигналов, и при этом модуль генерирования сигнала компонент сконфигурирован с возможностью генерировать сигнал диффузных компонент, содержащий компоненты диффузных сигналов упомянутых двух или более входных аудиосигналов. Сигнальный процессор сконфигурирован с возможностью принимать сигнал прямых компонент, сигнал диффузных компонент и информацию направления, при этом упомянутая информация направления зависит от направления прибытия компонент прямых сигналов упомянутых двух или более входных аудиосигналов. Более того, сигнальный процессор сконфигурирован с возможностью генерировать один или более обработанных диффузных сигналов в зависимости от сигнала диффузных компонент. Для каждого выходного аудиосигнала из упомянутых одного или более выходных аудиосигналов, сигнальный процессор сконфигурирован с возможностью определять, в зависимости от направления прибытия, усиление прямого звука, сигнальный процессор сконфигурирован с возможностью применять упомянутое усиление прямого звука к сигналу прямых компонент, чтобы получать обработанный прямой сигнал, и сигнальный процессор сконфигурирован с возможностью комбинировать упомянутый обработанный прямой сигнал и один из упомянутых одного или более обработанных диффузных сигналов, чтобы генерировать упомянутый выходной аудиосигнал. Интерфейс вывода сконфигурирован с возможностью выводить упомянутые один или более выходных аудиосигналов. Сигнальный процессор содержит модуль вычисления функций усиления для вычисления одной или более функций усиления, при этом каждая функция усиления из упомянутых одной или более функций усиления содержит множество значений аргумента функции усиления, при этом возвращаемое значение функции усиления назначено каждому из упомянутых значений аргумента функции усиления, при этом, когда упомянутая функция усиления принимает одно из упомянутых значений аргумента функции усиления, упомянутая функция усиления сконфигурирована с возможностью возвращать возвращаемое значение функции усиления, которое назначено упомянутому одному из упомянутых значений аргумента функции усиления. Более того, сигнальный процессор дополнительно содержит модуль модификации сигналов для выбора, в зависимости от направления прибытия, зависящего от направления значения аргумента из значений аргумента функции усиления для функции усиления из упомянутых одной или более функций усиления, для получения возвращаемого значения функции усиления, которое назначено упомянутому зависящему от направления значению аргумента, от упомянутой функции усиления, и для определения значения усиления, по меньшей мере, одного из упомянутых одного или более выходных аудиосигналов в зависимости от упомянутого возвращаемого значения функции усиления, полученного от упомянутой функции усиления.

Согласно одному варианту осуществления, модуль вычисления функций усиления может, например, быть сконфигурирован с возможностью генерировать таблицу поиска для каждой функции усиления из упомянутых одной или более функций усиления, при этом таблица поиска содержит множество записей, при этом каждая из записей таблицы поиска содержит одно из значений аргумента функции усиления и возвращаемое значение функции усиления, которое назначено упомянутому значению аргумента функции усиления, при этом модуль вычисления функций усиления может, например, быть сконфигурирован с возможностью хранить таблицу поиска каждой функции усиления в постоянной или непостоянной памяти, и при этом модуль модификации сигналов может, например, быть сконфигурирован с возможностью получать возвращаемое значение функции усиления, которое назначено упомянутому зависящему от направления значению аргумента, посредством считывания упомянутого возвращаемого значения функции усиления из одной из упомянутых одной или более таблиц поиска, которые сохранены в памяти.

В одном варианте осуществления, сигнальный процессор может, например, быть сконфигурирован с возможностью определять два или более выходных аудиосигналов, при этом модуль вычисления функций усиления может, например, быть сконфигурирован с возможностью вычислять две или более функции усиления, при этом, для каждого выходного аудиосигнала из упомянутых двух или более выходных аудиосигналов, модуль вычисления функций усиления может, например, быть сконфигурирован с возможностью вычислять функцию усиления панорамирования, которая назначена упомянутому выходному аудиосигналу в качестве одной из упомянутых двух или более функций усиления, при этом модуль модификации сигналов может, например, быть сконфигурирован с возможностью генерировать упомянутый выходной аудиосигнал в зависимости от упомянутой функции усиления панорамирования.

Согласно одному варианту осуществления, функция усиления панорамирования каждого из упомянутых двух или более выходных аудиосигналов может, например, иметь один или более глобальных максимумов, являющихся одним из значений аргумента функции усиления упомянутой функции усиления панорамирования, при этом для каждого из упомянутых одного или более глобальных максимумов упомянутой функции усиления панорамирования, не существует никакое другое значение аргумента функции усиления, для которого упомянутая функция усиления панорамирования возвращает более большое возвращаемое значение функции усиления, чем для упомянутых глобальных максимумов, и при этом, для каждой пары из первого выходного аудиосигнала и второго выходного аудиосигнала из упомянутых двух или более выходных аудиосигналов, по меньшей мере, один из упомянутых одного или более глобальных максимумов функции усиления панорамирования первого выходного аудиосигнала может, например, отличаться от любого из упомянутых одного или более глобальных максимумов функции усиления панорамирования второго выходного аудиосигнала.

Согласно одному варианту осуществления, для каждого выходного аудиосигнала из упомянутых двух или более выходных аудиосигналов, модуль вычисления функций усиления может, например, быть сконфигурирован с возможностью вычислять оконную функцию усиления, которая назначена упомянутому выходному аудиосигналу в качестве одной из упомянутых двух или более функций усиления, при этом модуль модификации сигналов может, например, быть сконфигурирован с возможностью генерировать упомянутый выходной аудиосигнал в зависимости от упомянутой оконной функции усиления, и при этом, если значение аргумента упомянутой оконной функции усиления больше, чем нижний порог окна и меньше, чем верхний порог окна, оконная функция усиления сконфигурирована с возможностью возвращать возвращаемое значение функции усиления, которое больше, чем любое возвращаемое значение функции усиления, возвращаемое упомянутой оконной функцией усиления, если значение аргумента оконной функции меньше, чем нижний порог, или больше, чем верхний порог.

В одном варианте осуществления, оконная функция усиления каждого из упомянутых двух или более выходных аудиосигналов имеет один или более глобальных максимумов, являющихся одним из значений аргумента функции усиления упомянутой оконной функции усиления, при этом для каждого из упомянутых одного или более глобальных максимумов упомянутой оконной функции усиления, не существует никакое другое значение аргумента функции усиления, для которого упомянутая оконная функция усиления возвращает более большое возвращаемое значение функции усиления, чем для упомянутых глобальных максимумов, и при этом, для каждой пары из первого выходного аудиосигнала и второго выходного аудиосигнала из упомянутых двух или более выходных аудиосигналов, по меньшей мере, один из упомянутых одного или более глобальных максимумов оконной функции усиления первого выходного аудиосигнала может, например, быть равным одному из упомянутых одного или более глобальных максимумов оконной функции усиления второго выходного аудиосигнала.

Согласно одному варианту осуществления, модуль вычисления функций усиления может, например, быть сконфигурирован с возможностью дополнительно принимать информацию ориентации, указывающую угловой сдвиг направления просмотра по отношению к направлению прибытия, и при этом модуль вычисления функций усиления может, например, быть сконфигурирован с возможностью генерировать функцию усиления панорамирования каждого из выходных аудиосигналов в зависимости от информации ориентации.

В одном варианте осуществления, модуль вычисления функций усиления может, например, быть сконфигурирован с возможностью генерировать оконную функцию усиления каждого из выходных аудиосигналов в зависимости от информации ориентации.

Согласно одному варианту осуществления, модуль вычисления функций усиления может, например, быть сконфигурирован с возможностью дополнительно принимать информацию масштабирования, при этом информация масштабирования указывает угол раскрыва камеры, и при этом модуль вычисления функций усиления может, например, быть сконфигурирован с возможностью генерировать функцию усиления панорамирования каждого из выходных аудиосигналов в зависимости от информации масштабирования.

В одном варианте осуществления, модуль вычисления функций усиления может, например, быть сконфигурирован с возможностью генерировать оконную функцию усиления каждого из выходных аудиосигналов в зависимости от информации масштабирования.

Согласно одному варианту осуществления, модуль вычисления функций усиления может, например, быть сконфигурирован с возможностью дополнительно принимать параметр калибровки для выравнивания визуального изображения и акустического изображения, и при этом модуль вычисления функций усиления может, например, быть сконфигурирован с возможностью генерировать функцию усиления панорамирования каждого из выходных аудиосигналов в зависимости от параметра калибровки.

В одном варианте осуществления, модуль вычисления функций усиления может, например, быть сконфигурирован с возможностью генерировать оконную функцию усиления каждого из выходных аудиосигналов в зависимости от параметра калибровки.

Система согласно одному из предшествующих утверждений, в которой модуль вычисления функций усиления может, например, быть сконфигурирован с возможностью принимать информацию о визуальном изображении, и модуль вычисления функций усиления может, например, быть сконфигурирован с возможностью генерировать, в зависимости от информации о визуальном изображении, функцию размытия, возвращающую комплексные усиления, чтобы реализовать перцепционное рассеивание источника звука.

Более того, обеспечивается устройство для генерирования одного или более выходных аудиосигналов. Устройство содержит сигнальный процессор и интерфейс вывода. Сигнальный процессор сконфигурирован с возможностью принимать сигнал прямых компонент, содержащий компоненты прямых сигналов из упомянутых двух или более исходных аудиосигналов, при этом сигнальный процессор сконфигурирован с возможностью принимать сигнал диффузных компонент, содержащий компоненты диффузных сигналов из упомянутых двух или более исходных аудиосигналов, и при этом сигнальный процессор сконфигурирован с возможностью принимать информацию направления, при этом упомянутая информация направления зависит от направления прибытия компонент прямых сигналов упомянутых двух или более входных аудиосигналов. Более того, сигнальный процессор сконфигурирован с возможностью генерировать один или более обработанных диффузных сигналов в зависимости от сигнала диффузных компонент. Для каждого выходного аудиосигнала из упомянутых одного или более выходных аудиосигналов, сигнальный процессор сконфигурирован с возможностью определять, в зависимости от направления прибытия, усиление прямого звука, сигнальный процессор сконфигурирован с возможностью применять упомянутое усиление прямого звука к сигналу прямых компонент, чтобы получать обработанный прямой сигнал, и сигнальный процессор сконфигурирован с возможностью комбинировать упомянутый обработанный прямой сигнал и один из упомянутых одного или более обработанных диффузных сигналов, чтобы генерировать упомянутый выходной аудиосигнал. Интерфейс вывода сконфигурирован с возможностью выводить упомянутые один или более выходных аудиосигналов. Сигнальный процессор содержит модуль вычисления функций усиления для вычисления одной или более функций усиления, при этом каждая функция усиления из упомянутых одной или более функций усиления содержит множество значений аргумента функции усиления, при этом возвращаемое значение функции усиления назначено каждому из упомянутых значений аргумента функции усиления, при этом, когда упомянутая функция усиления принимает одно из упомянутых значений аргумента функции усиления, упомянутая функция усиления сконфигурирована с возможностью возвращать возвращаемое значение функции усиления, которое назначено упомянутому одному из упомянутых значений аргумента функции усиления. Более того, сигнальный процессор дополнительно содержит модуль модификации сигналов для выбора, в зависимости от направления прибытия, зависящего от направления значения аргумента из значений аргумента функции усиления для функции усиления из упомянутых одной или более функций усиления, для получения возвращаемого значения функции усиления, которое назначено упомянутому зависящему от направления значению аргумента, от упомянутой функции усиления, и для определения значения усиления, по меньшей мере, одного из упомянутых одного или более выходных аудиосигналов в зависимости от упомянутого возвращаемого значения функции усиления, полученного от упомянутой функции усиления.

Дополнительно, обеспечивается способ для генерирования одного или более выходных аудиосигналов. Способ содержит:

- Прием двух или более входных аудиосигналов.

- Генерирование сигнала прямых компонент, содержащего компоненты прямых сигналов упомянутых двух или более входных аудиосигналов.

- Генерирование сигнала диффузных компонент, содержащего компоненты диффузных сигналов упомянутых двух или более входных аудиосигналов.

- Прием информации направления в зависимости от направления прибытия компонент прямых сигналов упомянутых двух или более входных аудиосигналов.

- Генерирование одного или более обработанных диффузных сигналов в зависимости от сигнала диффузных компонент.

- Для каждого выходного аудиосигнала из упомянутых одного или более выходных аудиосигналов, определение, в зависимости от направления прибытия, усиления прямого звука, применение упомянутого усиления прямого звука к сигналу прямых компонент, чтобы получать обработанный прямой сигнал, и комбинирование упомянутого обработанного прямого сигнала и одного из упомянутых одного или более обработанных диффузных сигналов, чтобы генерировать упомянутый выходной аудиосигнал. И:

- Вывод упомянутых одного или более выходных аудиосигналов.

Генерирование упомянутых одного или более выходных аудиосигналов содержит вычисление одной или более функций усиления, при этом каждая функция усиления из упомянутых одной или более функций усиления содержит множество значений аргумента функции усиления, при этом возвращаемое значение функции усиления назначено каждому из упомянутых значений аргумента функции усиления, при этом, когда упомянутая функция усиления принимает одно из упомянутых значений аргумента функции усиления, упомянутая функция усиления сконфигурирована с возможностью возвращать возвращаемое значение функции усиления, которое назначено упомянутому одному из упомянутых значений аргумента функции усиления. Более того, генерирование упомянутых одного или более выходных аудиосигналов содержит выбор, в зависимости от направления прибытия, зависящего от направления значения аргумента из значений аргумента функции усиления для функции усиления из упомянутых одной или более функций усиления, для получения возвращаемого значения функции усиления, которое назначено упомянутому зависящему от направления значению аргумента, от упомянутой функции усиления, и для определения значения усиления, по меньшей мере, одного из упомянутых одного или более выходных аудиосигналов в зависимости от упомянутого возвращаемого значения функции усиления, полученного от упомянутой функции усиления.

Более того, обеспечивается способ для генерирования одного или более выходных аудиосигналов. Способ содержит:

- Прием сигнала прямых компонент, содержащего компоненты прямых сигналов из упомянутых двух или более исходных аудиосигналов.

- прием сигнала диффузных компонент, содержащего компоненты диффузных сигналов из упомянутых двух или более исходных аудиосигналов.

- Прием информации направления, при этом упомянутая информация направления зависит от направления прибытия компонент прямых сигналов упомянутых двух или более входных аудиосигналов.

- Генерирование одного или более обработанных диффузных сигналов в зависимости от сигнала диффузных компонент.

- Для каждого выходного аудиосигнала из упомянутых одного или более выходных аудиосигналов, определение, в зависимости от направления прибытия, усиления прямого звука, применение упомянутого усиления прямого звука к сигналу прямых компонент, чтобы получать обработанный прямой сигнал, и комбинирование упомянутого обработанного прямого сигнала и одного из упомянутых одного или более обработанных диффузных сигналов, чтобы генерировать упомянутый выходной аудиосигнал. И:

- Вывод упомянутых одного или более выходных аудиосигналов.

Генерирование упомянутых одного или более выходных аудиосигналов содержит вычисление одной или более функций усиления, при этом каждая функция усиления из упомянутых одной или более функций усиления содержит множество значений аргумента функции усиления, при этом возвращаемое значение функции усиления назначено каждому из упомянутых значений аргумента функции усиления, при этом, когда упомянутая функция усиления принимает одно из упомянутых значений аргумента функции усиления, упомянутая функция усиления сконфигурирована с возможностью возвращать возвращаемое значение функции усиления, которое назначено упомянутому одному из упомянутых значений аргумента функции усиления. Более того, генерирование упомянутых одного или более выходных аудиосигналов содержит выбор, в зависимости от направления прибытия, зависящего от направления значения аргумента из значений аргумента функции усиления для функции усиления из упомянутых одной или более функций усиления, для получения возвращаемого значения функции усиления, которое назначено упомянутому зависящему от направления значению аргумента, от упомянутой функции усиления, и для определения значения усиления, по меньшей мере, одного из упомянутых одного или более выходных аудиосигналов в зависимости от упомянутого возвращаемого значения функции усиления, полученного от упомянутой функции усиления.

Более того, обеспечиваются компьютерные программы, при этом каждая из компьютерных программ сконфигурирована с возможностью осуществлять один из вышеописанных способов, когда исполняется на компьютере или сигнальном процессоре, так что каждый из вышеописанных способов осуществляется посредством одной из компьютерных программ.

Дополнительно, обеспечивается система для генерирования одного или более выходных аудиосигналов. Система содержит модуль генерирования сигнала компонент, сигнальный процессор, и интерфейс вывода. Модуль генерирования сигнала компонент сконфигурирован с возможностью принимать два или более входных аудиосигналов, при этом модуль генерирования сигнала компонент сконфигурирован с возможностью генерировать сигнал прямых компонент, содержащий компоненты прямых сигналов упомянутых двух или более входных аудиосигналов, и при этом модуль генерирования сигнала компонент сконфигурирован с возможностью генерировать сигнал диффузных компонент, содержащий компоненты диффузных сигналов упомянутых двух или более входных аудиосигналов. Сигнальный процессор сконфигурирован с возможностью принимать сигнал прямых компонент, сигнал диффузных компонент и информацию направления, при этом упомянутая информация направления зависит от направления прибытия компонент прямых сигналов упомянутых двух или более входных аудиосигналов. Более того, сигнальный процессор сконфигурирован с возможностью генерировать один или более обработанных диффузных сигналов в зависимости от сигнала диффузных компонент. Для каждого выходного аудиосигнала из упомянутых одного или более выходных аудиосигналов, сигнальный процессор сконфигурирован с возможностью определять, в зависимости от направления прибытия, усиление прямого звука, сигнальный процессор сконфигурирован с возможностью применять упомянутое усиление прямого звука к сигналу прямых компонент, чтобы получать обработанный прямой сигнал, и сигнальный процессор сконфигурирован с возможностью комбинировать упомянутый обработанный прямой сигнал и один из упомянутых одного или более обработанных диффузных сигналов, чтобы генерировать упомянутый выходной аудиосигнал. Интерфейс вывода сконфигурирован с возможностью выводить упомянутые один или более выходных аудиосигналов.

Согласно вариантам осуществления, обеспечиваются концепции, чтобы достигать записи и воспроизведения пространственного звука таким образом, чтобы воссоздаваемое акустическое изображение могло, например, быть совместимым с требуемым пространственным изображением, которое, например, определяется пользователем на стороне дальнего конца или посредством видеоизображения. Предложенный подход использует массив микрофонов на стороне ближнего конца, который обеспечивает нам возможность разлагать захваченный звук на компоненты прямого звука и компоненту диффузного звука. Извлеченные компоненты звука затем передаются стороне дальнего конца. Совместимое воспроизведение пространственного звука может, например, реализовываться посредством взвешенной суммы извлеченных прямого звука и диффузного звука, где веса зависят от требуемого пространственного изображения, с которым воспроизводимый звук должен быть совместим, например, веса зависят от направления просмотра и коэффициента масштабирования видеокамеры, которые могут, например, дополнять запись аудио. Обеспечиваются концепции, которые используют информированные многоканальные фильтры для извлечения прямого звука и диффузного звука.

Согласно одному варианту осуществления, сигнальный процессор может, например, быть сконфигурирован с возможностью определять два или более выходных аудиосигналов, при этом для каждого выходного аудиосигнала из упомянутых двух или более выходных аудиосигналов функция усиления панорамирования может, например, быть назначена упомянутому выходному аудиосигналу, при этом функция усиления панорамирования каждого из упомянутых двух или более выходных аудиосигналов содержит множество значений аргумента функции панорамирования, при этом возвращаемое значение функции панорамирования может, например, быть назначено каждому из упомянутых значений аргумента функции панорамирования, при этом, когда упомянутая функция усиления панорамирования принимает одно из упомянутых значений аргумента функции панорамирования, упомянутая функция усиления панорамирования может, например, быть сконфигурирована с возможностью возвращать возвращаемое значение функции панорамирования, которое назначено упомянутому одному из упомянутых значений аргумента функции панорамирования, и при этом сигнальный процессор может, например, быть сконфигурирован с возможностью определять каждый из упомянутых двух или более выходных аудиосигналов в зависимости от зависящего от направления значения аргумента из значений аргумента функции панорамирования для функции усиления панорамирования, которая назначена упомянутому выходному аудиосигналу, при этом упомянутое зависящее от направления значение аргумента зависит от направления прибытия.

В одном варианте осуществления, функция усиления панорамирования каждого из упомянутых двух или более выходных аудиосигналов имеет один или более глобальных максимумов, являющихся одним из значений аргумента функции панорамирования, при этом для каждого из упомянутых одного или более глобальных максимумов каждой функции усиления панорамирования, не существует никакое другое значение аргумента функции панорамирования, для которого упомянутая функция усиления панорамирования возвращает более большое возвращаемое значение функции панорамирования, чем для упомянутых глобальных максимумов, и при этом, для каждой пары из первого выходного аудиосигнала и второго выходного аудиосигнала из упомянутых двух или более выходных аудиосигналов, по меньшей мере, один из упомянутых одного или более глобальных максимумов функции усиления панорамирования первого выходного аудиосигнала может, например, отличаться от любого из упомянутых одного или более глобальных максимумов функции усиления панорамирования второго выходного аудиосигнала.

Согласно одному варианту осуществления, сигнальный процессор может, например, быть сконфигурирован с возможностью генерировать каждый выходной аудиосигнал из упомянутых одного или более выходных аудиосигналов в зависимости от оконной функции усиления, при этом оконная функция усиления может, например, быть сконфигурирована с возможностью возвращать возвращаемое значение оконной функции при приеме значения аргумента оконной функции, при этом, если значение аргумента оконной функции может, например, быть больше, чем нижний порог окна и меньше, чем верхний порог окна, оконная функция усиления может, например, быть сконфигурирована с возможностью возвращать возвращаемое значение оконной функции, которое больше, чем любое возвращаемое значение оконной функции, возвращаемое оконной функцией усиления, если значение аргумента оконной функции может, например, быть меньше, чем нижний порог, или больше, чем верхний порог.

В одном варианте осуществления, сигнальный процессор может, например, быть сконфигурирован с возможностью дополнительно принимать информацию ориентации, указывающую угловой сдвиг направления просмотра по отношению к направлению прибытия, и при этом, по меньшей мере, одна из функции усиления панорамирования и оконной функции усиления зависит от информации ориентации; или при этом модуль вычисления функций усиления может, например, быть сконфигурирован с возможностью дополнительно принимать информацию масштабирования, при этом информация масштабирования указывает угол раскрыва камеры, и при этом, по меньшей мере, одна из функции усиления панорамирования и оконной функции усиления зависит от информации масштабирования; или при этом модуль вычисления функций усиления может, например, быть сконфигурирован с возможностью дополнительно принимать параметр калибровки, и при этом, по меньшей мере, одна из функции усиления панорамирования и оконной функции усиления зависит от параметра калибровки.

Согласно одному варианту осуществления, сигнальный процессор может, например, быть сконфигурирован с возможностью принимать информацию расстояния, при этом сигнальный процессор может, например, быть сконфигурирован с возможностью генерировать каждый выходной аудиосигнал из упомянутых одного или более выходных аудиосигналов в зависимости от информации расстояния.

Согласно одному варианту осуществления, сигнальный процессор может, например, быть сконфигурирован с возможностью принимать исходное угловое значение в зависимости от исходного направления прибытия, которое является направлением прибытия компонент прямых сигналов упомянутых двух или более входных аудиосигналов, и может, например, быть сконфигурирован с возможностью принимать информацию расстояния, при этом сигнальный процессор может, например, быть сконфигурирован с возможностью вычислять модифицированное угловое значение в зависимости от исходного углового значения и в зависимости от информации расстояния, и при этом сигнальный процессор может, например, быть сконфигурирован с возможностью генерировать каждый выходной аудиосигнал из упомянутых одного или более выходных аудиосигналов в зависимости от модифицированного углового значения.

Согласно одному варианту осуществления, сигнальный процессор может, например, быть сконфигурирован с возможностью генерировать упомянутые один или более выходных аудиосигналов посредством выполнения низкочастотной фильтрации, или посредством добавления задержанного прямого звука, или посредством выполнения ослабления прямого звука, или посредством выполнения временного сглаживания, или посредством выполнения рассеивания направления прибытия, или посредством выполнения декорреляции.

В одном варианте осуществления, сигнальный процессор может, например, быть сконфигурирован с возможностью генерировать два или более выходных аудиоканалов, при этом сигнальный процессор может, например, быть сконфигурирован с возможностью применять усиление диффузного звука к сигналу диффузных компонент, чтобы получать промежуточный диффузный сигнал, и при этом сигнальный процессор может, например, быть сконфигурирован с возможностью генерировать один или более декоррелированных сигналов из промежуточного диффузного сигнала посредством выполнения декорреляции, при этом упомянутые один или более декоррелированных сигналов формируют упомянутые один или более обработанных диффузных сигналов, или при этом промежуточный диффузный сигнал и упомянутые один или более декоррелированных сигналов формируют упомянутые один или более обработанных диффузных сигналов.

Согласно одному варианту осуществления, сигнал прямых компонент и один или более дополнительных сигналов прямых компонент формируют группу из двух или более сигналов прямых компонент, при этом модуль генерирования сигнала компонент может, например, быть сконфигурирован с возможностью генерировать упомянутые один или более дополнительных сигналов прямых компонент, содержащих дополнительные компоненты прямых сигналов упомянутых двух или более входных аудиосигналов, при этом направление прибытия и одно или более дополнительные направления прибытий формируют группу из двух или более направлений прибытий, при этом каждое направление прибытия из группы из упомянутых двух или более направлений прибытий может, например, быть назначено в точности одному сигналу прямых компонент из группы из упомянутых двух или более сигналов прямых компонент, при этом количество сигналов прямых компонент из упомянутых двух или более сигналов прямых компонент и количество направлений прибытий из упомянутых двух направлений прибытий могут, например, быть равными, при этом сигнальный процессор может, например, быть сконфигурирован с возможностью принимать группу из упомянутых двух или более сигналов прямых компонент, и группу из упомянутых двух или более направлений прибытий, и при этом, для каждого выходного аудиосигнала из упомянутых одного или более выходных аудиосигналов, сигнальный процессор может, например, быть сконфигурирован с возможностью определять, для каждого сигнала прямых компонент из группы из упомянутых двух или более сигналов прямых компонент, усиление прямого звука в зависимости от направления прибытия упомянутого сигнала прямых компонент, сигнальный процессор может, например, быть сконфигурирован с возможностью генерировать группу из двух или более обработанных прямых сигналов посредством применения, для каждого сигнала прямых компонент из группы из упомянутых двух или более сигналов прямых компонент, усиления прямого звука упомянутого сигнала прямых компонент к упомянутому сигналу прямых компонент, и сигнальный процессор может, например, быть сконфигурирован с возможностью комбинировать один из упомянутых одного или более обработанных диффузных сигналов и каждый обработанный сигнал из группы из упомянутых двух или более обработанных сигналов, чтобы генерировать упомянутый выходной аудиосигнал.

В одном варианте осуществления, количество сигналов прямых компонент из группы из упомянутых двух или более сигналов прямых компонент плюс 1 может, например, быть меньше, чем количество входных аудиосигналов, которые принимаются интерфейсом приема.

Более того, может, например, обеспечиваться слуховой аппарат или вспомогательное слуховое устройство, содержащее систему, как описана выше.

Более того, обеспечивается устройство для генерирования одного или более выходных аудиосигналов. Устройство содержит сигнальный процессор и интерфейс вывода. Сигнальный процессор сконфигурирован с возможностью принимать сигнал прямых компонент, содержащий компоненты прямых сигналов из упомянутых двух или более исходных аудиосигналов, при этом сигнальный процессор сконфигурирован с возможностью принимать сигнал диффузных компонент, содержащий компоненты диффузных сигналов из упомянутых двух или более исходных аудиосигналов, и при этом сигнальный процессор сконфигурирован с возможностью принимать информацию направления, при этом упомянутая информация направления зависит от направления прибытия компонент прямых сигналов упомянутых двух или более входных аудиосигналов. Более того, сигнальный процессор сконфигурирован с возможностью генерировать один или более обработанных диффузных сигналов в зависимости от сигнала диффузных компонент. Для каждого выходного аудиосигнала из упомянутых одного или более выходных аудиосигналов, сигнальный процессор сконфигурирован с возможностью определять, в зависимости от направления прибытия, усиление прямого звука, сигнальный процессор сконфигурирован с возможностью применять упомянутое усиление прямого звука к сигналу прямых компонент, чтобы получать обработанный прямой сигнал, и сигнальный процессор сконфигурирован с возможностью комбинировать упомянутый обработанный прямой сигнал и один из упомянутых одного или более обработанных диффузных сигналов, чтобы генерировать упомянутый выходной аудиосигнал. Интерфейс вывода сконфигурирован с возможностью выводить упомянутые один или более выходных аудиосигналов.

Дополнительно, обеспечивается способ для генерирования одного или более выходных аудиосигналов. Способ содержит:

- Прием двух или более входных аудиосигналов.

- Генерирование сигнала прямых компонент, содержащего компоненты прямых сигналов упомянутых двух или более входных аудиосигналов.

- Генерирование сигнала диффузных компонент, содержащего компоненты диффузных сигналов упомянутых двух или более входных аудиосигналов.

- Прием информации направления в зависимости от направления прибытия компонент прямых сигналов упомянутых двух или более входных аудиосигналов.

- Генерирование одного или более обработанных диффузных сигналов в зависимости от сигнала диффузных компонент.

- для каждого выходного аудиосигнала из упомянутых одного или более выходных аудиосигналов, определение, в зависимости от направления прибытия, усиления прямого звука, применение упомянутого усиления прямого звука к сигналу прямых компонент, чтобы получать обработанный прямой сигнал, и комбинирование упомянутого обработанного прямого сигнала и одного из упомянутых одного или более обработанных диффузных сигналов, чтобы генерировать упомянутый выходной аудиосигнал. И:

- Вывод упомянутых одного или более выходных аудиосигналов.

Более того, обеспечивается способ для генерирования одного или более выходных аудиосигналов. Способ содержит:

- Прием сигнала прямых компонент, содержащего компоненты прямых сигналов из упомянутых двух или более исходных аудиосигналов.

- Прием сигнала диффузных компонент, содержащего компоненты диффузных сигналов из упомянутых двух или более исходных аудиосигналов.

- Прием информации направления, при этом упомянутая информация направления зависит от направления прибытия компонент прямых сигналов упомянутых двух или более входных аудиосигналов.

- Генерирование одного или более обработанных диффузных сигналов в зависимости от сигнала диффузных компонент.

- Для каждого выходного аудиосигнала из упомянутых одного или более выходных аудиосигналов, определение, в зависимости от направления прибытия, усиления прямого звука, применение упомянутого усиления прямого звука к сигналу прямых компонент, чтобы получать обработанный прямой сигнал, и комбинирование упомянутого обработанного прямого сигнала и одного из упомянутых одного или более обработанных диффузных сигналов, чтобы генерировать упомянутый выходной аудиосигнал. И:

- Вывод упомянутых одного или более выходных аудиосигналов.

Более того, обеспечиваются компьютерные программы, при этом каждая из компьютерных программ сконфигурирована с возможностью осуществлять один из вышеописанных способов, когда исполняется на компьютере или сигнальном процессоре, так что каждый из вышеописанных способов осуществляется посредством одной из компьютерных программ.

В последующем, варианты осуществления настоящего изобретения описываются более подробно со ссылкой на фигуры, на которых:

Фиг. 1a иллюстрирует систему согласно одному варианту осуществления,

Фиг. 1b иллюстрирует устройство согласно одному варианту осуществления,

Фиг. 1c иллюстрирует систему согласно другому варианту осуществления,

Фиг. 1d иллюстрирует устройство согласно другому варианту осуществления,

Фиг. 2 показывает систему согласно другому варианту осуществления,

Фиг. 3 изображает модули генерирования сигнала компонент для разложения на прямой/диффузный звук и для параметра оценки системы согласно одному варианту осуществления,

Фиг. 4 показывает первую геометрию для воспроизведения акустической сцены с акустическим масштабированием согласно одному варианту осуществления, при этом источник звука располагается на фокальной плоскости,

Фиг. 5 иллюстрирует функции панорамирования для совместимого воспроизведения сцены и для акустического масштабирования,

Фиг. 6 изображает дополнительные функции панорамирования для совместимого воспроизведения сцены и для акустического масштабирования согласно вариантам осуществления,

Фиг. 7 иллюстрирует примерные оконные функции усиления для различных ситуаций согласно вариантам осуществления,

Фиг. 8 показывает функцию усиления диффузного звука согласно одному варианту осуществления,

Фиг. 9 изображает вторую геометрию для воспроизведения акустической сцены с акустическим масштабированием согласно одному варианту осуществления, при этом источник звука не располагается на фокальной плоскости,

Фиг. 10 иллюстрирует функции для описания размытия прямого звука, и

Фиг. 11 визуализирует слуховые аппараты согласно вариантам осуществления.

Фиг. 1a иллюстрирует систему для генерирования одного или более выходных аудиосигналов. Система содержит модуль 101 генерирования сигнала компонент, сигнальный процессор 105, и интерфейс 106 вывода.

Модуль 101 генерирования сигнала компонент сконфигурирован с возможностью генерировать сигнал прямых компонент Xdir(k, n), содержащий компоненты прямых сигналов упомянутых двух или более входных аудиосигналов x1(k, n), x2(k, n),... xp(k, n). Более того, модуль 101 генерирования сигнала компонент сконфигурирован с возможностью генерировать сигнал диффузных компонент Xdiff(k, n), содержащий компоненты диффузных сигналов упомянутых двух или более входных аудиосигналов x1(k, n), x2(k, n),... xp(k, n).

Сигнальный процессор 105 сконфигурирован с возможностью принимать сигнал прямых компонент Xdir(k, n), сигнал диффузных компонент Xdiff(k, n) и информацию направления, при этом упомянутая информация направления зависит от направления прибытия компонент прямых сигналов упомянутых двух или более входных аудиосигналов x1(k, n), x2(k, n),... xp(k, n).

Более того, сигнальный процессор 105 сконфигурирован с возможностью генерировать один или более обработанных диффузных сигналов Ydiff,1(k, n), Ydiff,2(k, n),..., Ydiff,v(k, n) в зависимости от сигнала диффузных компонент Xdiff(k, n).

Для каждого выходного аудиосигнала Yi(k, n) из упомянутых одного или более выходных аудиосигналов Y1(k, n), Y2(k, n),..., Yv(k, n), сигнальный процессор 105 сконфигурирован с возможностью определять, в зависимости от направления прибытия, усиление прямого звука Gi(k, n), сигнальный процессор 105 сконфигурирован с возможностью применять упомянутое усиление прямого звука Gi(k, n) к сигналу прямых компонент Xdir(k, n), чтобы получать обработанный прямой сигнал Ydir,i(k, n), и сигнальный процессор 105 сконфигурирован с возможностью комбинировать упомянутый обработанный прямой сигнал Ydir,i(k, n) и один Ydiff,i(k, n) из упомянутых одного или более обработанных диффузных сигналов Ydiff,1(k, n), Ydiff,2(k, n),..., Ydiff,v(k, n), чтобы генерировать упомянутый выходной аудиосигнал Yi(k, n).

Интерфейс 106 вывода сконфигурирован с возможностью выводить упомянутые один или более выходных аудиосигналов Y1(k, n), Y2(k, n),..., Yv(k, n).

Как описано, информация направления зависит от направления прибытия ϕ(k, n) компонент прямых сигналов упомянутых двух или более входных аудиосигналов x1(k, n), x2(k, n),... xp(k, n). Например, направление прибытия компонент прямых сигналов упомянутых двух или более входных аудиосигналов x1(k, n), x2(k, n),... xp(k, n) может, например, само быть информацией направления. Или, например, информация направления, может, например, быть направлением распространения компонент прямых сигналов упомянутых двух или более входных аудиосигналов x1(k, n), x2(k, n),... xp(k, n). В то время как направление прибытия обращено от массива микрофонов приема к источнику звука, направление распространения обращено от источника звука к массиву микрофонов приема. Таким образом, направление распространения обращено в точности в противоположном направлении по отношению к направлению прибытия и, поэтому, зависит от направления прибытия.

Чтобы генерировать один Yi(k, n) из упомянутых одного или более выходных аудиосигналов Y1(k, n), Y2(k, n),..., Yv(k, n), сигнальный процессор 105

- определяет, в зависимости от направления прибытия, усиление прямого звука Gi(k, n),

- применяет упомянутое усиление прямого звука Gi(k, n) к сигналу прямых компонент Xdir(k, n), чтобы получать обработанный прямой сигнал Ydir,i(k, n), и

- комбинирует упомянутый обработанный прямой сигнал Ydir,i(k, n) и один Ydiff,i(k, n) из упомянутых одного или более обработанных диффузных сигналов Ydiff,1(k, n), Ydiff,2(k, n),..., Ydiff,v(k, n), чтобы генерировать упомянутый выходной аудиосигнал Yi(k, n)

Это осуществляется для каждого из упомянутых одного или более выходных аудиосигналов Y1(k, n), Y2(k, n),..., Yv(k, n), которые должны генерироваться Y1(k, n), Y2(k, n),..., Yv(k, n). Сигнальный процессор может, например, быть сконфигурирован с возможностью генерировать один, два, три или более выходных аудиосигналов Y1(k, n), Y2(k, n),..., Yv(k, n).

Относительно упомянутых одного или более обработанных диффузных сигналов Ydiff,1(k, n), Ydiff,2(k, n),..., Ydiff,v(k, n), согласно одному варианту осуществления, сигнальный процессор 105 может, например, быть сконфигурирован с возможностью генерировать упомянутые один или более обработанных диффузных сигналов Ydiff,1(k, n), Ydiff,2(k, n),..., Ydiff,v(k, n) посредством применения усиления диффузного звука Q(k, n) к сигналу диффузных компонент Xdiff(k, n).

Модуль 101 генерирования сигнала компонент может, например, быть сконфигурирован с возможностью генерировать сигнал прямых компонент Xdir(k, n), содержащий компоненты прямых сигналов упомянутых двух или более входных аудиосигналов x1(k, n), x2(k, n),... xp(k, n), и сигнал диффузных компонент Xdiff(k, n), содержащий компоненты диффузных сигналов упомянутых двух или более входных аудиосигналов x1(k, n), x2(k, n),... xp(k, n), посредством разложения упомянутых одного или более входных аудиосигналов на сигнал прямых компонент и на сигнал диффузных компонент.

В одном конкретном варианте осуществления, сигнальный процессор 105 может, например, быть сконфигурирован с возможностью генерировать два или более выходных аудиоканалов Y1(k, n), Y2(k, n),..., Yv(k, n). Сигнальный процессор 105 может, например, быть сконфигурирован с возможностью применять усиление диффузного звука Q(k, n) к сигналу диффузных компонент Xdiff(k, n), чтобы получать промежуточный диффузный сигнал. Более того, сигнальный процессор 105 может, например, быть сконфигурирован с возможностью генерировать один или более декоррелированных сигналов из промежуточного диффузного сигнала посредством выполнения декорреляции, при этом упомянутые один или более декоррелированных сигналов формируют упомянутые один или более обработанных диффузных сигналов Ydiff,1(k, n), Ydiff,2(k, n),..., Ydiff,v(k, n), или при этом промежуточный диффузный сигнал и упомянутые один или более декоррелированных сигналов формируют упомянутые один или более обработанных диффузных сигналов Ydiff,1(k, n), Ydiff,2(k, n),..., Ydiff,v(k, n).

Например, количество обработанных диффузных сигналов Ydiff,1(k, n), Ydiff,2(k, n),..., Ydiff,v(k, n) и количество выходных аудиосигналов Y1(k, n), Y2(k, n),..., Yv(k, n) могут, например, быть равными.

Генерирование упомянутых одного или более декоррелированных сигналов из промежуточного диффузного сигнала может, например, выполняться посредством применения задержек к промежуточному диффузному сигналу, или, например, посредством свертки промежуточного диффузного сигнала с шумовым выбросом, или, например, посредством свертки промежуточного диффузного сигнала с импульсной характеристикой, и т.д. Альтернативно или дополнительно может, например, применяться любой другой известный из уровня техники способ декорреляции.

Для получения v выходных аудиосигналов Y1(k, n), Y2(k, n),..., Yv(k, n), могут, например, применяться v определений v усилений прямого звука G1(k, n), G2(k, n),..., Gv(k, n) и v применений соответствующего усиления к упомянутым одному или более сигналам прямых компонент Xdir(k, n), чтобы получать v выходных аудиосигналов Y1(k, n), Y2(k, n),..., Yv(k, n).

Только одиночный сигнал диффузных компонент Xdiff(k, n), только одно определение одиночного усиления диффузного звука Q(k, n) и только одно применение усиления диффузного звука Q(k, n) к сигналу диффузных компонент Xdiff(k, n) могут, например, требоваться, чтобы получать v выходных аудиосигналов Y1(k, n), Y2(k, n),..., Yv(k, n). Чтобы достигать декорреляции, способы декорреляции могут применяться только после того, как усиление диффузного звука было уже применено к сигналу диффузных компонент.

Согласно варианту осуществления из фиг. 1a, один и тот же обработанный диффузный сигнал Ydiff(k, n) затем комбинируется с соответствующим одним (Ydir,i(k, n)) из обработанных прямых сигналов, чтобы получать соответствующий один (Yi(k, n)) из выходных аудиосигналов.

Вариант осуществления из фиг. 1a учитывает направление прибытия компонент прямых сигналов упомянутых двух или более входных аудиосигналов x1(k, n), x2(k, n),... xp(k, n). Таким образом, выходные аудиосигналы Y1(k, n), Y2(k, n),..., Yv(k, n) могут генерироваться посредством гибкой регулировки сигналов прямых компонент Xdir(k, n) и сигналов диффузных компонент Xdiff(k, n) в зависимости от направления прибытия. Достигаются усовершенствованные возможности адаптации.

Согласно вариантам осуществления, выходные аудиосигналы Y1(k, n), Y2(k, n),..., Yv(k, n) могут, например, определяться для каждого время-частотного интервала (k, n) частотно-временной области.

Согласно одному варианту осуществления, модуль 101 генерирования сигнала компонент может, например, быть сконфигурирован с возможностью принимать два или более входных аудиосигналов x1(k, n), x2(k, n),... xp(k, n). В другом варианте осуществления, модуль 101 генерирования сигнала компонент может, например, быть сконфигурирован с возможностью принимать три или более входных аудиосигналов x1(k, n), x2(k, n),... xp(k, n). Модуль 101 генерирования сигнала компонент может, например, быть сконфигурирован с возможностью разлагать упомянутые два или более (или три или более входных аудиосигналов) x1(k, n), x2(k, n),... xp(k, n) на сигнал диффузных компонент Xdiff(k, n), который не является многоканальным сигналом, и на упомянутые один или более сигналы прямых компонент Xdir(k, n). То, что аудиосигнал не является многоканальным сигналом, означает, что сам аудиосигнал не содержит более, чем один аудиоканал. Таким образом, аудиоинформация множества входных аудиосигналов передается внутри упомянутых двух сигналов компонент (Xdir(k, n), Xdiff(k, n)) (и возможно в дополнительной вспомогательной информации), что обеспечивает возможность эффективной передачи.

Сигнальный процессор 105, может, например, быть сконфигурирован с возможностью генерировать каждый выходной аудиосигнал Yi(k, n) из двух или более выходных аудиосигналов Y1(k, n), Y2(k, n),..., Yv(k, n) посредством определения усиления прямого звука Gi(k, n) для упомянутого выходного аудиосигнала Yi(k, n), посредством применения упомянутого усиления прямого звука Gi(k, n) к упомянутым одному или более сигналам прямых компонент Xdir(k, n), чтобы получать обработанный прямой сигнал Ydir,i(k, n) для упомянутого выходного аудиосигнала Yi(k, n), и посредством комбинирования упомянутого обработанного прямого сигнала Ydir,i(k, n) для упомянутого выходного аудиосигнала Yi(k, n) и обработанного диффузного сигнала Ydiff(k, n), чтобы генерировать упомянутый выходной аудиосигнал Yi(k, n). Интерфейс 106 вывода сконфигурирован с возможностью выводить упомянутые два или более выходных аудиосигналов Y1(k, n), Y2(k, n),..., Yv(k, n). Генерирование двух или более выходных аудиосигналов Y1(k, n), Y2(k, n),..., Yv(k, n) посредством определения только одиночного обработанного диффузного сигнала Ydiff(k, n) является особенно предпочтительным.

Фиг. 1b иллюстрирует устройство для генерирования одного или более выходных аудиосигналов Y1(k, n), Y2(k, n),..., Yv(k, n) согласно одному варианту осуществления. Устройство осуществляет так называемую сторону "дальнего конца" системы из фиг. 1a.

Устройство из фиг. 1b содержит сигнальный процессор 105, и интерфейс 106 вывода.

Сигнальный процессор 105 сконфигурирован с возможностью принимать сигнал прямых компонент Xdir(k, n), содержащий компоненты прямых сигналов из упомянутых двух или более исходных аудиосигналов x1(k, n), x2(k, n),... xp(k, n) (например, входных аудиосигналов из фиг. 1a). Более того, сигнальный процессор 105 сконфигурирован с возможностью принимать сигнал диффузных компонент Xdiff(k, n), содержащий компоненты диффузных сигналов из упомянутых двух или более исходных аудиосигналов x1(k, n), x2(k, n),... xp(k, n). Дополнительно, сигнальный процессор 105 сконфигурирован с возможностью принимать информацию направления, при этом упомянутая информация направления зависит от направления прибытия компонент прямых сигналов упомянутых двух или более входных аудиосигналов.

Сигнальный процессор 105 сконфигурирован с возможностью генерировать один или более обработанных диффузных сигналов Ydiff,1(k, n), Ydiff,2(k, n),..., Ydiff,v(k, n) в зависимости от сигнала диффузных компонент Xdiff(k, n).

Для каждого выходного аудиосигнала Yi(k, n) из упомянутых одного или более выходных аудиосигналов Y1(k, n), Y2(k, n),..., Yv(k, n), сигнальный процессор 105 сконфигурирован с возможностью определять, в зависимости от направления прибытия, усиление прямого звука Gi(k, n), сигнальный процессор 105 сконфигурирован с возможностью применять упомянутое усиление прямого звука Gi(k, n) к сигналу прямых компонент Xdir(k, n), чтобы получать обработанный прямой сигнал Ydir,i(k, n), и сигнальный процессор 105 сконфигурирован с возможностью комбинировать упомянутый обработанный прямой сигнал Ydir,i(k, n) и один Ydiff,i(k, n) из упомянутых одного или более обработанных диффузных сигналов Ydiff,1(k, n), Ydiff,2(k, n),..., Ydiff,v(k, n), чтобы генерировать упомянутый выходной аудиосигнал Yi(k, n).

Интерфейс 106 вывода сконфигурирован с возможностью выводить упомянутые один или более выходных аудиосигналов Y1(k, n), Y2(k, n),..., Yv(k, n).

Все конфигурации сигнального процессора 105, описываемые со ссылкой на систему в последующем, также могут осуществляться в устройстве согласно фиг. 1b. Это относится, в частности, к различным конфигурациям модуля 103 модификации сигналов и модуля 104 вычисления функций усиления, которые описываются ниже. То же применяется для различных примеров применений концепций, описанных ниже.

Фиг. 1c иллюстрирует систему согласно другому варианту осуществления. На фиг. 1c, генератор 105 сигналов из фиг. 1a дополнительно содержит модуль 104 вычисления функций усиления для вычисления одной или более функций усиления, при этом каждая функция усиления из упомянутых одной или более функций усиления содержит множество значений аргумента функции усиления, при этом возвращаемое значение функции усиления назначено каждому из упомянутых значений аргумента функции усиления, при этом, когда упомянутая функция усиления принимает одно из упомянутых значений аргумента функции усиления, упомянутая функция усиления сконфигурирована с возможностью возвращать возвращаемое значение функции усиления, которое назначено упомянутому одному из упомянутых значений аргумента функции усиления.

Дополнительно, сигнальный процессор 105 дополнительно содержит модуль 103 модификации сигналов для выбора, в зависимости от направления прибытия, зависящего от направления значения аргумента из значений аргумента функции усиления для функции усиления из упомянутых одной или более функций усиления, для получения возвращаемого значения функции усиления, которое назначено упомянутому зависящему от направления значению аргумента, от упомянутой функции усиления, и для определения значения усиления, по меньшей мере, одного из упомянутых одного или более выходных аудиосигналов в зависимости от упомянутого возвращаемого значения функции усиления, полученного от упомянутой функции усиления.

Фиг. 1d иллюстрирует систему согласно другому варианту осуществления. На фиг. 1d, генератор 105 сигналов из фиг. 1b дополнительно содержит модуль 104 вычисления функций усиления для вычисления одной или более функций усиления, при этом каждая функция усиления из упомянутых одной или более функций усиления содержит множество значений аргумента функции усиления, при этом возвращаемое значение функции усиления назначено каждому из упомянутых значений аргумента функции усиления, при этом, когда упомянутая функция усиления принимает одно из упомянутых значений аргумента функции усиления, упомянутая функция усиления сконфигурирована с возможностью возвращать возвращаемое значение функции усиления, которое назначено упомянутому одному из упомянутых значений аргумента функции усиления.

Дополнительно, сигнальный процессор 105 дополнительно содержит модуль 103 модификации сигналов для выбора, в зависимости от направления прибытия, зависящего от направления значения аргумента из значений аргумента функции усиления для функции усиления из упомянутых одной или более функций усиления, для получения возвращаемого значения функции усиления, которое назначено упомянутому зависящему от направления значению аргумента, от упомянутой функции усиления, и для определения значения усиления, по меньшей мере, одного из упомянутых одного или более выходных аудиосигналов в зависимости от упомянутого возвращаемого значения функции усиления, полученного от упомянутой функции усиления.

Варианты осуществления обеспечивают запись и воспроизведение пространственного звука таким образом, чтобы акустическое изображение было совместимым с требуемым пространственным изображением, которое определяется, например, посредством видео, которое дополняет аудио на стороне дальнего конца. Некоторые варианты осуществления основываются на записях с помощью массива микрофонов, расположенного в реверберационной стороне ближнего конца. Варианты осуществления обеспечивают, например, акустическое масштабирование, которое является совместимым с визуальным масштабированием камеры. Например, при увеличении масштаба, прямой звук громкоговорителей воспроизводится из направления, где громкоговорители располагались бы в масштабированном визуальном изображении, чтобы визуальное и акустическое изображение были выровнены. Если громкоговорители располагаются вне визуального изображения (или вне требуемой пространственной области) после увеличения масштаба, прямой звук этих громкоговорителей может ослабляться, так как эти громкоговорители более не видны, или, например, так как прямой звук от этих громкоговорителей не требуется. Более того, отношение прямого звука к реверберации может, например, увеличиваться при увеличении масштаба, чтобы имитировать более малый угол раскрыва визуальной камеры.

Варианты осуществления основываются на концепции для разделения записанных сигналов микрофонов на прямой звук источников звука и диффузный звук, например, реверберационный звук, посредством применения двух недавних многоканальных фильтров на стороне ближнего конца. Эти многоканальные фильтры могут, например, основываться на параметрической информации звукового поля, такой как DOA прямого звука. В некоторых вариантах осуществления, разделенные прямой звук и диффузный звук могут, например, передаваться стороне дальнего конца вместе с параметрической информацией.

Например, на стороне дальнего конца, к извлеченным прямому звуку и диффузному звуку могут, например, применяться конкретные веса, которые регулируют воспроизводимое акустическое изображение, чтобы результирующие выходные аудиосигналы были совместимыми с требуемым пространственным изображением. Эти веса моделируют, например, эффект акустического масштабирования и зависят, например, от направления прибытия (DOA) прямого звука и, например, от коэффициента масштабирования и/или направления просмотра камеры. Окончательные выходные аудиосигналы могут, например, затем получаться посредством суммирования взвешенных прямого звука и диффузного звука.

Обеспеченные концепции реализуют эффективное использование в вышеупомянутом сценарии записи видео с пользовательскими устройствами или в сценарии телеконференцсвязи: Например, в сценарии записи видео, может, например, быть достаточным сохранять или передавать извлеченные прямой звук и диффузный звук (вместо всех сигналов микрофонов), при этом еще имеется возможность управлять воссоздаваемым пространственным изображением.

Это означает, что, если, например, визуальное масштабирование применяется на этапе последующей обработки (цифровое масштабирование), акустическое изображение может все еще модифицироваться соответствующим образом без необходимости сохранять и осуществлять доступ к исходным сигналам микрофонов. В сценарии телеконференцсвязи, предложенные концепции также могут эффективно использоваться, так как извлечение прямого и диффузного звуков может выполняться на стороне ближнего конца, при этом еще имеется возможность управлять воспроизведением пространственного звука (например, изменением установки громкоговорителей) на стороне дальнего конца и выравнивать акустическое и визуальное изображение. Поэтому, только необходимо передавать только несколько аудиосигналов и оцененные направления DOA в качестве вспомогательной информации, при этом вычислительная сложность на стороне дальнего конца является низкой.

Фиг. 2 иллюстрирует систему согласно одному варианту осуществления. Сторона ближнего конца содержит модули 101 и 102. Сторона дальнего конца содержит модуль 105 и 106. Сам модуль 105 содержит модули 103 и 104. Когда ссылка делается на сторону ближнего конца и на сторону дальнего конца, следует понимать, что в некоторых вариантах осуществления, первое устройство может осуществлять сторону ближнего конца (например, содержащую модули 101 и 102), и второе устройство может осуществлять сторону дальнего конца (например, содержащую модули 103 и 104), в то время как в других вариантах осуществления, одиночное устройство осуществляет как сторону ближнего конца, так и сторону дальнего конца, при этом такое одиночное устройство, например, содержит модули 101, 102, 103 и 104.

В частности, фиг. 2 иллюстрирует систему согласно одному варианту осуществления, содержащую модуль 101 генерирования сигнала компонент, модуль 102 оценки параметров, сигнальный процессор 105, и интерфейс 106 вывода. На фиг. 2, сигнальный процессор 105 содержит модуль 104 вычисления функций усиления и модуль 103 модификации сигналов. Сигнальный процессор 105 и интерфейс 106 вывода могут, например, реализовать устройство, как проиллюстрировано посредством фиг. 1b.

На фиг. 2, среди прочего, модуль 102 оценки параметров может, например, быть сконфигурирован с возможностью принимать упомянутые два или более входных аудиосигналов x1(k, n), x2(k, n),... xp(k, n). Дополнительно модуль 102 оценки параметров может, например, быть сконфигурирован с возможностью оценивать направление прибытия компонент прямых сигналов упомянутых двух или более входных аудиосигналов x1(k, n), x2(k, n),... xp(k, n) в зависимости от упомянутых двух или более входных аудиосигналов. Сигнальный процессор 105 может, например, быть сконфигурирован с возможностью принимать информацию направления прибытия, содержащую направление прибытия компонент прямых сигналов упомянутых двух или более входных аудиосигналов, от модуля 102 оценки параметров.

Вход системы из фиг. 2 состоит из M сигналов микрофонов X1...M(k, n) в частотно-временной области (индекс частоты k, временной индекс n). Можно, например, предполагать, что звуковое поле, которое захватывается посредством микрофонов, состоит для каждых (k, n) из плоской волны, распространяющейся в изотропном диффузном поле. Плоская волна моделирует прямой звук источников звука (например, громкоговорителей), в то время как диффузный звук моделирует реверберацию.

Согласно такой модели, сигнал m-ого микрофона может быть записан как

(1)

где Xdir,m(k, n) является измеренным прямым звуком (плоской волной), Xdiff,m(k, n) является измеренным диффузным звуком, и Xn,m(k, n) является компонентой шума (например, собственным шумом микрофона).

В модуле 101 генерирования сигнала компонент на фиг. 2 (разложение на прямой/диффузный звук), прямой звук Xdir(k, n) и диффузный звук Xdiff(k, n) извлекается из сигналов микрофонов. Для этой цели могут использоваться, например, информированные многоканальные фильтры, как описано ниже. Для разложения на прямой/диффузный звук, может, например, использоваться конкретная параметрическая информация о звуковом поле, например, DOA прямого звука ϕ(k, n). Эта параметрическая информация может, например, оцениваться из сигналов микрофонов в модуле 102 оценки параметров. Помимо DOA ϕ(k, n) прямого звука, в некоторых вариантах осуществления, может, например, оцениваться информация расстояния r(k, n). Эта информация расстояния может, например, описывать расстояние между массивом микрофонов и источником звука, который испускает плоскую волну. Для оценки параметров, могут, например, использоваться средства оценки расстояния и/или известные из уровня техники средства оценки DOA. Соответствующие средства оценки могут, например, описываться ниже.

Извлеченный прямой звук Xdir(k, n), извлеченный диффузный звук Xdiff(k, n), и оцененная параметрическая информация прямого звука, например, DOA ϕ(k, n) и/или расстояние r(k, n), могут, например, затем сохраняться, передаваться стороне дальнего конца, или немедленно использоваться, чтобы генерировать пространственный звук с требуемым пространственным изображением, например, чтобы создавать эффект акустического масштабирования.

Требуемое акустическое изображение, например, эффект акустического масштабирования, генерируется в модуле 103 модификации сигналов с использованием извлеченного прямого звука Xdir(k, n), извлеченного диффузного звука Xdiff(k, n), и оцененной параметрической информации ϕ(k, n) и/или r(k, n).

Модуль 103 модификации сигналов может, например, вычислять один или более выходных сигналов Yi(k, n) в частотно-временной области, которые воссоздают акустическое изображение, чтобы оно было совместимым с требуемым пространственным изображением. Например, выходные сигналы Yi(k, n) имитируют эффект акустического масштабирования. Эти сигналы могут, в конечном счете, преобразовываться назад во временную область и проигрываться, например, посредством громкоговорителей или наушников. i-ый выходной сигнал Yi(k, n) вычисляется как взвешенная сумма извлеченного прямого звука Xdir(k, n) и диффузного звука Xdiff(k, n), например,

В формулах (2a) и (2b), веса Gi(k, n) и Q являются параметрами, которые используются, чтобы создавать требуемое акустическое изображение, например, эффект акустического масштабирования. Например, при увеличении масштаба, параметр Q может уменьшаться, чтобы воспроизводимый диффузный звук ослаблялся.

Более того, с помощью весов Gi(k, n) можно управлять тем, из какого направления прямой звук воспроизводится, чтобы визуальное и акустическое изображение были выровнены. Более того, эффект акустического размытия может выравниваться с прямым звуком.

В некоторых вариантах осуществления, веса Gi(k, n) и Q могут, например, определяться в блоках 201 и 202 выбора усиления. Эти блоки могут, например, выбирать соответствующие веса Gi(k, n) и Q из двух функций усиления, обозначенных посредством gi и q, в зависимости от оцененной параметрической информации ϕ(k, n) и r(k, n). Выражая математически,

(3a)

(3b)

В некоторых вариантах осуществления, функции усиления gi и q могут зависеть от применения и могут, например, генерироваться в модуле 104 вычисления функций усиления. Функции усиления описывают то, какие веса Gi(k, n) и Q должны использоваться в (2a) для заданной параметрической информации ϕ(k, n) и/или r(k, n), чтобы получалось требуемое совместимое пространственное изображение.

Например, при увеличении масштаба с помощью визуальной камеры, функции усиления регулируются, чтобы звук воспроизводился из направлений, где источники являются видимыми на видео. Веса Gi(k, n) и Q и лежащие в основе функции усиления gi и q дополнительно описываются ниже. Следует отметить, что веса Gi(k, n) и Q и лежащие в основе функции усиления gi и q могут, например, быть комплекснозначными. Вычисление функций усиления требует информации, такой как коэффициент масштабирования, ширина визуального изображения, требуемое направление просмотра, и установка громкоговорителей.

В других вариантах осуществления, веса Gi(k, n) и Q вычисляются непосредственно внутри модуля 103 модификации сигналов, вместо того, чтобы сначала вычислять функции усиления в модуле 104 и затем выбирать веса Gi(k, n) и Q из вычисленных функций усиления в блоках 201 и 202 выбора усиления.

Согласно вариантам осуществления, более, чем одна плоская волна в расчете на время-частоту может, например, конкретно обрабатываться. Например, две или более плоские волны в одном и том же частотном диапазоне из двух разных направлений могут, например, прибывать и записываться посредством массива микрофонов в одной и той же точке во времени. Эти две плоские волны могут, каждая, иметь разное направление прибытия. В таких сценариях, компоненты прямых сигналов из упомянутых двух или более плоских волн и их направление прибытий могут, например, учитываться отдельно.

Согласно вариантам осуществления, сигнал прямых компонент Xdir1(k, n) и один или более дополнительных сигналов прямых компонент Xdir2(k, n),..., Xdir q(k, n) могут, например, формировать группу из двух или более сигналов прямых компонент Xdir1(k, n), Xdir2(k, n),..., Xdir q(k, n), при этом модуль 101 генерирования сигнала компонент может, например, быть сконфигурирован с возможностью генерировать упомянутые один или более дополнительных сигналов прямых компонент Xdir2(k, n),..., Xdir q(k, n), содержащих дополнительные компоненты прямых сигналов упомянутых двух или более входных аудиосигналов x1(k, n), x2(k, n),... xp(k, n).

Направление прибытия и одно или более дополнительных направлений прибытий формируют группу из двух или более направлений прибытий, при этом каждое направление прибытия из группы из упомянутых двух или более направлений прибытий назначено в точности одному сигналу прямых компонент Xdir j(k, n) из группы из упомянутых двух или более сигналов прямых компонент Xdir1(k, n), Xdir2(k, n),..., Xdir q,m(k, n), при этом количество сигналов прямых компонент из упомянутых двух или более сигналов прямых компонент и количество направлений прибытий из упомянутых двух направлений прибытий является равным.

Сигнальный процессор 105 может, например, быть сконфигурирован с возможностью принимать группу из упомянутых двух или более сигналов прямых компонент Xdir1(k, n), Xdir2(k, n),..., Xdir q(k, n), и группу из упомянутых двух или более направлений прибытий.

Для каждого выходного аудиосигнала Yi(k, n) из упомянутых одного или более выходных аудиосигналов Y1(k, n), Y2(k, n),..., Yv(k, n),

- Сигнальный процессор 105 может, например, быть сконфигурирован с возможностью определять, для каждого сигнала прямых компонент Xdir j(k, n) из группы из упомянутых двух или более сигналов прямых компонент Xdir1(k, n), Xdir2(k, n),..., Xdir q(k, n), усиление прямого звука Gj,i(k, n) в зависимости от направления прибытия упомянутого сигнала прямых компонент Xdir j(k, n),

- Сигнальный процессор 105 может, например, быть сконфигурирован с возможностью генерировать группу из двух или более обработанных прямых сигналов Ydir1,i(k, n), Ydir2,i(k, n),..., Ydir q,i(k, n) посредством применения, для каждого сигнала прямых компонент Xdir j(k, n) из группы из упомянутых двух или более сигналов прямых компонент Xdir1(k, n), Xdir2(k, n),..., Xdir q(k, n), усиления прямого звука Gj,i(k, n) упомянутого сигнала прямых компонент Xdir j(k, n) к упомянутому сигналу прямых компонент Xdir j(k, n). И:

- Сигнальный процессор 105 может, например, быть сконфигурирован с возможностью комбинировать один Ydiff,i(k, n) из упомянутых одного или более обработанных диффузных сигналов Ydiff,1(k, n), Ydiff,2(k, n),..., Ydiff,v(k, n) и каждый обработанный сигнал Ydir j,i(k, n) из группы из упомянутых двух или более обработанных сигналов Ydir1,i(k, n), Ydir2,i(k, n),..., Ydir q,i(k, n), чтобы генерировать упомянутый выходной аудиосигнал Yi(k, n).

Таким образом, если две или более плоские волны учитываются отдельно, модель формулы (1) становится:

Xm(k, n)=Xdir1,m(k, n)+Xdir2,m(k, n) +...+Xdir q,m(k, n)+Xdiff,m(k, n)+Xn,m(k, n)

и веса могут, например, вычисляться аналогично формулам (2a) и (2b) согласно:

Yi(k, n)=G1,i(k, n) Xdir1(k, n)+G2,i(k, n) Xdir2(k, n) +...+Gq,i(k, n) Xdir q(k, n)+Q Xdiff,m(k, n)

= Ydir1,i(k, n)+Ydir2,i(k, n) +...+Ydir q,i(k, n)+Ydiff,i(k, n)

Является достаточным, чтобы только малое количество сигналов прямых компонент, сигнал диффузных компонент и вспомогательная информация передавались от стороны ближнего конца стороне дальнего конца. В одном варианте осуществления, количество сигналов (сигнала) прямых компонент из группы из упомянутых двух или более сигналов прямых компонент Xdir1(k, n), Xdir2(k, n),..., Xdir q(k, n) плюс 1 меньше, чем количество входных аудиосигналов x1(k, n), x2(k, n),... xp(k, n), которые принимаются интерфейсом 101 приема, (с использованием индексов: q+1<p) "плюс 1" представляет сигнал диффузных компонент Xdiff(k, n), который необходим.

Когда в последующем, обеспечиваются описания в отношении одиночной плоской волны, одиночного направления прибытия и одиночного сигнала прямых компонент, следует понимать, что описанные концепции одинаковым образом применимы к более, чем одной плоской волне, более, чем одному направлению прибытия и более, чем одному сигналу прямых компонент.

В последующем, описывается извлечение прямого и диффузного звуков. Обеспечиваются практические реализации модуля 101 генерирования сигнала компонент из фиг. 2, который реализует разложение на прямой/диффузный звук.

В вариантах осуществления, чтобы реализовать совместимое воспроизведение пространственного звука, вывод двух недавно предложенных информированных фильтров с линейно ограниченной минимальной дисперсией (LCMV), описанных в [8] и [9], комбинируются, что обеспечивает возможность точного многоканального извлечения прямого звука и диффузного звука с требуемым произвольной характеристикой при предположении аналогичной модели звукового поля как в DirAC (направленном аудио кодировании). Теперь в последующем описывается конкретный способ комбинирования этих фильтров согласно одному варианту осуществления:

Сначала, описывается извлечение прямого звука согласно одному варианту осуществления.

Прямой звук извлекается с использованием недавно предложенного информированного пространственного фильтра, описанного в [8]. Этот фильтр кратко обозревается в последующем и затем определяется таким образом, чтобы он мог использоваться в вариантах осуществления согласно фиг. 2.

Оцененный требуемый прямой сигнал для i-ого канала громкоговорителя в (2b) и фиг. 2 вычисляется посредством применения линейного многоканального фильтра к сигналам микрофонов, например

(4)

где вектор x(k, n)=[X1(k, n),..., XM(k, n)]T содержит M сигналов микрофонов и wdir,i является комплекснозначным весовым вектором. Здесь, веса фильтра минимизируют шумовой и диффузный звук, составляемый микрофонами при захвате прямого звука с требуемым усилением Gi(k, n). Выражая математически, веса, могут, например, вычисляться как

,(5)

при условии линейного ограничения

(6)

Здесь, a(k, ϕ) является так называемым вектором распространения массива. m-ый элемент этого вектора является относительной передаточной функцией прямого звука между m-ым микрофоном и опорным микрофоном массива (без потери общности в последующем описании используется первый микрофон в положении d1). Этот вектор зависит от DOA ϕ(k, n) прямого звука.

Вектор распространения массива, например, определяется в [8]. В формуле (6) из документа [8], вектор распространения массива определяется согласно

,

где ϕl является азимутальным углом направления прибытия l-й плоской волны. Таким образом, вектор распространения массива зависит от направления прибытия. Если существует или рассматривается только одна плоская волна, индекс l может пропускаться.

Согласно формуле (6) из [8], i-й элемент ai вектора распространения массива a описывает фазовый сдвиг l-й плоской волны от первого к i-му микрофону и определяется согласно

Например, ri равняется расстоянию между первым и i-м микрофоном, κ обозначает волновое число плоской волны и является мнимым числом.

Больше информации о векторе распространения массива a и его элементах ai может быть найдено в [8], который явно включается сюда по ссылке.

M×M матрица Φu(k, n) в (5) является матрицей спектральной плотности мощности (PSD) шумового и диффузного звука, которая может определяться, как описано в [8]. Решение для (5) задается посредством

(7)

где

(8)

Вычисление фильтра требует вектора распространения массива a(k, ϕ), который может определяться после того, как было оценено DOA ϕ(k, n) прямого звука [8]. Как описано выше, вектор распространения массива и, таким образом, фильтр, зависит от DOA. DOA может оцениваться как описано ниже.

Информированный пространственный фильтр, предложенный в [8], например, извлечение прямого звука с использованием (4) и (7), не может напрямую использоваться в варианте осуществления из фиг. 2. Фактически, для вычисления требуются сигналы микрофонов x(k, n) также как усиление прямого звука Gi(k, n). Как можно видеть на фиг. 2, сигналы микрофонов x(k, n) являются доступными только на стороне ближнего конца, в то время как усиление прямого звука Gi(k, n) доступно только на стороне дальнего конца.

Чтобы использовать информированный пространственный фильтр в вариантах осуществления изобретения, обеспечивается модификация, при этом мы подставляем (7) в (4), что ведет к

(9)

где

(10)

Этот модифицированный фильтр hdir(k, n) является независимым от весов Gi(k, n). Таким образом, фильтр может применяться на стороне ближнего конца, чтобы получать прямой звук , который может затем передаваться стороне дальнего конца вместе с оцененными направлениями DOA (и расстоянием) в качестве вспомогательной информации, чтобы обеспечивать полное управление над воспроизведением прямого звука. Прямой звук может определяться по отношению к опорному микрофону в положении d1. Поэтому, он может также относится к компонентам прямого звука как , и, таким образом:

(10a)

Таким образом, согласно одному варианту осуществления, модуль 101 генерирования сигнала компонент может, например, быть сконфигурирован с возможностью генерировать сигнал прямых компонент посредством применения фильтра к упомянутым двум или более входным аудиосигналам согласно

где k обозначает частоту, и где n обозначает время, где обозначает сигнал прямых компонент, где x(k, n) обозначает упомянутые два или более входных аудиосигналов, где hdir(k, n) обозначает фильтр, где

где Φu(k, n) обозначает матрицу спектральной плотности мощности шумового и диффузного звука упомянутых двух или более входных аудиосигналов, где a(k, ϕ) обозначает вектор распространения массива, и где ϕ обозначает азимутальный угол направления прибытия компонент прямых сигналов упомянутых двух или более входных аудиосигналов.

Фиг. 3 иллюстрирует модуль 102 оценки параметров и модуль 101 генерирования сигнала компонент, осуществляющий разложение на прямой/диффузный звук, согласно одному варианту осуществления.

Вариант осуществления, проиллюстрированный посредством фиг. 3, реализует извлечение прямого звука посредством модуля 203 извлечения прямого звука и извлечение диффузного звука посредством модуля 204 извлечения диффузного звука.

Извлечение прямого звука выполняется в модуле 203 извлечения прямого звука посредством применения весов фильтра к сигналам микрофонов, как задано в (10). Веса фильтра прямого звука вычисляются в блоке 301 вычисления весов прямого звука, который может реализовываться, например, с помощью (8). Усиления Gi(k, n) из, например, уравнения (9), затем применяются на стороне дальнего конца, как показано на фиг. 2.

В последующем, описывается извлечение диффузного звука. Извлечение диффузного звука может, например, осуществляться посредством модуля 204 извлечения диффузного звука из фиг. 3. Веса фильтра диффузного звука вычисляются в блоке 302 вычисления весов диффузного звука из фиг. 3, например, как описано в последующем.

В вариантах осуществления, диффузный звук может, например, извлекаться с использованием пространственного фильтра, который был недавно предложен в [9]. Диффузный звук Xdiff(k, n) в (2a) и фиг. 2 может, например, оцениваться посредством применения второго пространственного фильтра к сигналам микрофонов, например,

(11)

Чтобы находить оптимальный фильтр для диффузного звука hdiff(k, n), мы рассматриваем недавно предложенный фильтр в [9], который может извлекать диффузный звук с требуемой произвольной характеристикой при минимизации шума на выходе фильтра. Для пространственно белого шума, фильтр задается посредством

(12)

при условии hHa(k, ϕ)=0 и hHγ1(k)=1. Первое линейное ограничение обеспечивает, что прямой звук подавляется, в то время как второе ограничение обеспечивает, что в среднем, диффузный звук захватывается с требуемым усилением Q, см. документ [9]. Отметим, что γ1(k) является вектором когерентности диффузного звука, определенным в [9]. Решение для (12) задается посредством

(13)

где

,(14)

где I является единичной матрицей размера M×M. Фильтр hdiff(k, n) не зависит от весов Gi(k, n) и Q, и, таким образом, он может вычисляться и применяться на стороне ближнего конца, чтобы получать . Таким образом, необходимо передавать только одиночный аудиосигнал стороне дальнего конца, именно , при этом еще имеется возможность полностью управлять воспроизведением пространственного звука диффузного звука.

Фиг. 3, более того, иллюстрирует извлечение диффузного звука согласно одному варианту осуществления. Извлечение диффузного звука выполняется в модуле 204 извлечения диффузного звука посредством применения весов фильтра к сигналам микрофонов, как задано в формуле (11). Веса фильтра вычисляются в блоке 302 вычисления весов диффузного звука, который может реализовываться, например, посредством использования формулы (13).

В последующем, описывается оценка параметров. Оценка параметров может, например, выполняться посредством модуля 102 оценки параметров, в котором может, например, оцениваться параметрическая информация о записанной звуковой сцене. Эта параметрическая информация используется для вычисления двух пространственных фильтров в модуле 101 генерирования сигнала компонент и для выбора усиления в совместимом пространственном воспроизведении аудио в модуле 103 модификации сигналов.

Сначала, описывается определение/оценка информации DOA.

В последующем описываются варианты осуществления, где модуль (102) оценки параметров содержит средство оценки DOA для прямого звука, например, для плоской волны, которая исходит из положения источника звука и прибывает в массив микрофонов. Без потери общности, предполагается, что для каждого момента времени и частоты существует одиночная плоская волна. Другие варианты осуществления учитывают случаи, когда существует множество плоских волн, и расширение концепций одиночной плоской волны, описанных здесь, на множество плоских волн является непосредственным. Поэтому, настоящее изобретение также охватывает варианты осуществления с множеством плоских волн.

Узкополосные направления DOA могут оцениваться из сигналов микрофонов с использованием одного из известных из уровня техники узкополосных средств оценки DOA, таких как ESPRIT [10] или MUSIC на основе корней [11]. Вместо азимутального угла ϕ(k, n), информация DOA также может обеспечиваться в форме пространственной частоты μ[k|ϕ(k, n)], фазового сдвига, или вектора распространения a[k|ϕ(k, n)] для одной или более волн, прибывающих в массив микрофонов. Следует отметить, что информация DOA также может обеспечиваться внешним образом. Например, DOA плоской волны может определяться посредством видеокамеры вместе с алгоритмом распознавания лиц при предположении, что акустическую сцену формируют говорящие люди.

В заключение, следует отметить, что информация DOA также может оцениваться в 3D (в трех измерениях). В этом случае, углы как азимута ϕ(k, n), так и возвышения ϑ(k, n) оцениваются в модуле 102 оценки параметров и DOA плоской волны в таком случае обеспечивается, например, как (ϕ, ϑ).

Таким образом, когда ссылка делается ниже на азимутальный угол направления DOA, следует понимать, что все описания также применимы к углу возвышения направления DOA, к углу или выведенному из азимутального угла направления DOA, к углу или выведенному из угла возвышения направления DOA или к углу, выведенному из азимутального угла и угла возвышения направления DOA. В более общем, все описания, обеспеченные ниже, равным образом применимы к любому углу, зависящему от DOA.

Теперь, описывается определение/оценка информации расстояния.

Некоторые варианты осуществления относятся к акустическому масштабированию на основе направлений DOA и расстояний. В таких вариантах осуществления, модуль 102 оценки параметров может, например, содержать два подмодуля, например, подмодуль средства оценки DOA, описанный выше, и подмодуль оценки расстояния, который оценивает расстояние от положения записи до источника звука r(k, n). В таких вариантах осуществления, можно, например, предполагать, что каждая плоская волна, которая прибывает в записывающий массив микрофонов, исходит от источника звука и распространяется вдоль прямой линии к массиву (которая также известна как прямой путь распространения).

Существует несколько известных из уровня техники подходов для оценки расстояния с использованием сигналов микрофонов. Например, расстояние до источника может находиться посредством вычисления отношений мощности между сигналами микрофонов, как описано в [12]. Альтернативно, расстояние до источника r(k, n) в акустических огороженных местах (например, помещениях) может вычисляться на основе оцененного отношения сигнала к диффузному звуку (SDR) [13]. Оценки SDR могут затем комбинироваться с временем реверберации помещения (известным или оцененным с использованием известных из уровня техники способов), чтобы вычислять расстояние. Для высокого SDR, энергия прямого звука является высокой по сравнению с диффузным звуком, что указывает, что расстояние до источника является малым. Когда значение SDR является низким, мощность прямого звука является слабой по сравнению с реверберацией помещения, что указывает большое расстояние до источника.

В других вариантах осуществления, вместо вычисления/оценки расстояния посредством использования модуля вычисления расстояния в модуле 102 оценки параметров, может, например, приниматься внешняя информация расстояния, например, от визуальной системы. Например, могут, например, использоваться известные из уровня техники способы, используемые в системах технического зрения, которые могут обеспечивать информацию расстояния, например, время пролета (ToF), стереоскопическое зрение, и структурированный свет. Например, в камерах ToF, расстояние до источника может вычисляться из измеренного времени пролета сигнала света, испущенного камерой и перемещающегося к источнику и обратно к датчику камеры. Компьютерное стерео зрение, например, использует две точки наблюдения, из которых захватывается визуальное изображение, чтобы вычислять расстояние до источника.

Или, например, могут использоваться камеры структурированного света, где на визуальную сцену проецируется известный шаблон пикселей. Анализ деформаций после проекции обеспечивает возможность визуальной системе оценивать расстояние до источника. Следует отметить, что для совместимого воспроизведения аудиосцены требуется информация расстояния r(k, n) для каждого время-частотного интервала. Если информация расстояния обеспечивается внешним образом посредством визуальной системы, расстояние до источника r(k, n), которое соответствует DOA ϕ(k, n), может, например, выбираться как значение расстояния от визуальной системы, которое соответствует этому конкретному направлению ϕ(k, n).

В последующем, рассматривается совместимое воспроизведение акустической сцены. Сначала, рассматривается воспроизведение акустической сцены на основе направлений DOA.

Воспроизведение акустической сцены может выполняться таким образом, чтобы оно было совместимым с записанной акустической сценой. Или, воспроизведение акустической сцены может выполняться таким образом, чтобы оно было совместимым с визуальным изображением. Соответствующая визуальная информация может обеспечиваться, чтобы достигать согласованность с визуальным изображением.

Согласованность может, например, достигаться посредством регулировки весов Gi(k, n) и Q в (2a). Согласно вариантам осуществления, модуль 103 модификации сигналов, который может, например, существовать, на стороне ближнего конца, или, как показано на фиг. 2, на стороне дальнего конца, может, например, принимать прямой и диффузный звуки в качестве ввода, вместе с оценками DOA ϕ(k, n) в качестве вспомогательной информации. На основе этой принятой информации, выходные сигналы Yi(k, n) для доступной системы воспроизведения могут, например, генерироваться, например, согласно формуле (2a).

В некоторых вариантах осуществления, параметры Gi(k, n) и Q выбираются в блоках 201 и 202 выбора усиления, соответственно, из двух функций усиления gi(ϕ(k, n)) и q(k, n), обеспеченных посредством модуля 104 вычисления функций усиления.

Согласно одному варианту осуществления, Gi(k, n) может, например, выбираться на основе только информации DOA и Q может, например, иметь постоянное значение. В других вариантах осуществления, однако, другой вес Gi(k, n) может, например, определяться на основе дополнительной информации, и вес Q может, например, определяться переменным образом.

Сначала, рассматриваются варианты осуществления, которые реализуют согласованность с записанной акустической сценой. После этого, рассматриваются варианты осуществления, которые реализуют согласованность с информацией изображения/с визуальным изображением.

В последующем, описывается вычисление весов Gi(k, n) и Q, чтобы воспроизводить акустическую сцену, которая является совместимой с записанной акустической сценой, например, таким образом, чтобы слушатель, расположенный в зоне наилучшего восприятия системы воспроизведения, воспринимал источники звука как прибывающие из направлений DOA источников звука в записанной звуковой сцене, имеющими такую же мощность как в записанной сцене, и воспроизводящими такое же восприятие объемного диффузного звука.

Для известной установки громкоговорителей, воспроизведение источника звука из направления ϕ(k, n) может, например, достигаться посредством выбора усиления прямого звука Gi(k, n) в блоке 201 выбора усиления ("выбор усиления прямого звука") из фиксированной таблицы поиска, обеспеченной модулем 104 вычисления функций усиления для оцененного DOA ϕ(k, n), что может быть записано как

(15)

где gi(ϕ)=pi(ϕ) является функцией, возвращающей усиление панорамирования по всем направлениям DOA для i-ого громкоговорителя. Функция усиления панорамирования pi(ϕ) зависит от установки громкоговорителей и схемы панорамирования.

Пример функции усиления панорамирования pi(ϕ), как определено векторным амплитудным панорамированием (VBAP) [14], для левого и правого громкоговорителя в стерео воспроизведении показан на фиг. 5(a).

На фиг. 5(a), проиллюстрирован пример функции усиления панорамирования VBAP pb,i для стерео установки, и на фиг. 5(b) и иллюстрируются усиления панорамирования для совместимого воспроизведения.

Например, если прямой звук прибывает из ϕ(k, n)=30°, усиление правого громкоговорителя равняется Gr(k, n)=gr(30°)=pr(30°)=1 и усиление левого громкоговорителя равняется Gl(k, n)=gl(30°)=pl(30°)=0. Для прямого звука, прибывающего из ϕ(k, n)=0°, окончательные усиления стерео громкоговорителя равняются Gr(k, n)=Gl(k, n)=.

В одном варианте осуществления, функция усиления панорамирования, например, pi(ϕ), может, например, быть передаточной функцией головы (HRTF) в случае бинаурального воспроизведения звука.

Например, если HRTF gi(ϕ)=pi(ϕ) возвращает комплексные значения, то усиление прямого звука Gi(k, n), выбранное в блоке 201 выбора усиления, может, например, быть комплекснозначным.

Если должны генерироваться три или более выходных аудиосигналов, могут, например, использоваться соответствующие известные из уровня техники концепции панорамирования, чтобы панорамировать входной сигнал на три или более выходных аудиосигналов. Например, может использоваться VBAP для трех или более выходных аудиосигналов.

В совместимом воспроизведении акустической сцены, мощность диффузного звука должна оставаться такой же как в записанной сцене. Поэтому, для системы громкоговорителей, например, с равноотстоящими громкоговорителями, усиление диффузного звука имеет постоянное значение:

(16)

где I является количеством выходных каналов громкоговорителей. Это означает, что модуль 104 вычисления функций усиления обеспечивает одиночное выходное значение для i-ого громкоговорителя (или канала наушника) в зависимости от количества громкоговорителей, доступных для воспроизведения, и эти значения используется в качестве усиления диффузного звука Q по всем частотам. Окончательный диффузный звук Ydiff,i(k, n) для i-ого канала громкоговорителя получается посредством декоррелирования Ydiff(k, n), полученного в (2b).

Таким образом, воспроизведение акустической сцены, которое является совместимым с записанной акустической сценой, может достигаться, например, посредством определения усилений для каждого из выходных аудиосигналов в зависимости, например, от направления прибытия, посредством применения множества определенных усилений Gi(k, n) к сигналу прямого звука , чтобы определять множество прямых компонент выходного сигнала , посредством применения определенного усиления Q к сигналу диффузного звука , чтобы получать диффузную компоненту выходного сигнала , и посредством комбинирования каждой из множества прямых компонент выходного сигнала с диффузной компонентой выходного сигнала , чтобы получать упомянутые один или более выходных аудиосигналов .

Теперь, описывается генерирование выходных аудиосигналов согласно вариантам осуществления, которое достигает согласованность с визуальной сценой. В частности, описывается вычисление весов Gi(k, n) и Q согласно вариантам осуществления, которые используются, чтобы воспроизводить акустическую сцену, которая является совместимой с визуальной сценой. Целью является воссоздавать акустическое изображение, в котором прямой звук от источника воспроизводится из направления, где источник является видимым на видео/изображении.

Может рассматриваться геометрия, как изображено на фиг. 4, где l соответствует направлению просмотра визуальной камеры. Без потери общности, мы можем определять l на оси y системы координат.

Азимут направления DOA прямого звука в изображенной системе координат (x, y) задается посредством ϕ(k, n) и местоположение источника на оси x задается посредством xg(k, n). Здесь, предполагается, что все источники звука располагаются на одном и том же расстоянии g до оси x, например, положения источников располагаются на левой пунктирной линии, которая упоминается в оптике как фокальная плоскость. Следует отметить, что это предположение делается, только чтобы обеспечивать, чтобы визуальное и акустическое изображения были выровненными, и фактическое значение расстояния g не необходимо для представленной обработки.

На стороне воспроизведения (стороне дальнего конца), устройство отображения располагается в b и положение источника на устройстве отображения задается посредством xb(k, n). Более того, xd является размером устройства отображения (или, в некоторых вариантах осуществления, например, xd обозначает половину размера устройства отображения), ϕd является, соответствующим максимальным визуальным углом, S является зоной наилучшего восприятия системы воспроизведения звука, и ϕb(k, n) является углом, из которого прямой звук должен воспроизводиться, чтобы визуальное и акустическое изображения были выровнены. ϕb(k, n) зависит от xb(k, n) и от расстояния между зоной наилучшего восприятия S и устройством отображения, расположенным в b. Более того, xb(k, n) зависит от нескольких параметров, таких как расстояние g источника от камеры, размер датчика изображений, и размер устройства отображения xd. К сожалению, по меньшей мере, некоторые из этих параметров часто являются неизвестными на практике, так что xb(k, n) и ϕb(k, n) не могут определяться для заданного DOA ϕg(k, n). Однако при предположении, что оптическая система является линейной, согласно формуле (17):

(17)

где c является неизвестной постоянной, компенсирующей вышеупомянутые неизвестные параметры. Следует отметить, что c является постоянной, только если все положения источников имеют одно и то же расстояние g до оси x.

В последующем, предполагается, что c является параметром калибровки, который должен регулироваться во время этапа калибровки до тех пор, когда визуальное и акустическое изображения будут совместимыми. Чтобы выполнять калибровку, источники звука должны располагаться на фокальной плоскости и значение c находится таким образом, чтобы визуальное и акустическое изображения были выровнены. Когда откалибровано, значение c остается неизменным и угол, из которого прямой звук должен воспроизводиться, задается посредством

(18)

Чтобы обеспечивать, что как акустическая, так и визуальная сцены являются совместимыми, исходная функция панорамирования pi(ϕ) модифицируется в совместимую (модифицированную) функцию панорамирования pb,i(ϕ). Усиление прямого звука Gi(k, n) теперь выбирается согласно

(19)

(20)

где pb,i(ϕ) является совместимой функцией панорамирования, возвращающей усиления панорамирования для i-ого громкоговорителя по всем возможным направлениям DOA источников. Для фиксированного значения c, такая совместимая функция панорамирования вычисляется в модуле 104 вычисления функций усиления из исходной (например, VBAP) таблицы усилений панорамирования как

(21)

Таким образом, в вариантах осуществления, сигнальный процессор 105 может, например, быть сконфигурирован с возможностью определять, для каждого выходного аудиосигнала из упомянутых одного или более выходных аудиосигналов, таким образом, что усиление прямого звука Gi(k, n) определяется согласно

Gi(k, n)=pi(tan-1[c tan(ϕ(k, n))]),

где i обозначает индекс упомянутого выходного аудиосигнала, где k обозначает частоту, и где n обозначает время, где Gi(k, n) обозначает усиление прямого звука, где ϕ(k, n) обозначает угол, зависящий от направления прибытия (например, азимутальный угол направления прибытия), где c обозначает постоянное значение, и где pi обозначает функцию панорамирования.

В вариантах осуществления, усиление прямого звука Gi(k, n) выбирается в блоке 201 выбора усиления на основе оцененного DOA ϕ(k, n) из фиксированной таблицы поиска, обеспеченной модулем 104 вычисления функций усиления, которая вычисляется один раз (после этапа калибровки) с использованием (19).

Таким образом, согласно одному варианту осуществления, сигнальный процессор 105 может, например, быть сконфигурирован с возможностью получать, для каждого выходного аудиосигнала из упомянутых одного или более выходных аудиосигналов, усиление прямого звука для упомянутого выходного аудиосигнала из таблицы поиска в зависимости от направления прибытия.

В одном варианте осуществления, сигнальный процессор 105 вычисляет таблицу поиска для функции усиления прямого звука gi(k, n). Например, для каждой возможной полной степени, например, 1°, 2°, 3°,..., для значения азимута ϕ направления DOA, усиление прямого звука Gi(k, n) может вычисляться и сохраняться заранее. Затем, когда принимается текущее значение азимута ϕ направления прибытия, сигнальный процессор 105 считывает усиление прямого звука Gi(k, n) для текущего значения азимута ϕ из таблицы поиска. (Текущее значение азимута ϕ, может, например, быть значением аргумента таблицы поиска; и усиление прямого звука Gi(k, n) может, например, быть возвращаемым значением таблицы поиска). Вместо азимута ϕ направления DOA, в других вариантах осуществления, таблица поиска может вычисляться для любого угла, зависящего от направления прибытия. Это имеет преимущество в том, что значение усиления не всегда должно вычисляться для каждой точки во времени, или для каждого время-частотного интервала, но вместо этого, таблица поиска вычисляется однократно и затем, для принятого угла ϕ, усиление прямого звука Gi(k, n) считывается из таблицы поиска.

Таким образом, согласно одному варианту осуществления, сигнальный процессор 105 может, например, быть сконфигурирован с возможностью вычислять таблицу поиска, при этом таблица поиска содержит множество записей, при этом каждая из записей содержит значение аргумента таблицы поиска и возвращаемое значение таблицы поиска, которое назначено упомянутому значению аргумента. Сигнальный процессор 105 может, например, быть сконфигурирован с возможностью получать одно из возвращаемых значений таблицы поиска из таблицы поиска посредством выбора одного из значений аргумента таблицы поиска для таблицы поиска в зависимости от направления прибытия. Дополнительно, сигнальный процессор 105 может, например, быть сконфигурирован с возможностью определять значение усиления для, по меньшей мере, одного из упомянутых одного или более выходных аудиосигналов в зависимости от упомянутого одного из возвращаемых значений таблицы поиска, полученного из таблицы поиска.

Сигнальный процессор 105 может, например, быть сконфигурирован с возможностью получать другое одно из возвращаемых значений таблицы поиска из (той же) таблицы поиска посредством выбора другого одного из значений аргумента таблицы поиска в зависимости от другого направления прибытия, чтобы определять другое значение усиления. Например, сигнальный процессор может, например, принимать дополнительную информацию направления, например, в более поздний момент во времени, которая зависит от упомянутого дополнительного направления прибытия.

Пример функций панорамирования VBAP и совместимых функций усиления панорамирования показан на фиг. 5(a) и 5(b).

Следует отметить, что вместо пересчета таблиц усилений панорамирования, можно альтернативно вычислять DOA ϕb(k, n) для устройства отображения и применять его в исходной функции панорамирования как ϕi(ϕb(k, n)). Это является верным, так как имеет место следующее отношение:

(22)

Однако это требует, чтобы модуль 104 вычисления функций усиления также принимал оцененные направления DOA ϕ(k, n) в качестве ввода, и пересчет DOA, например, выполняемый согласно формуле (18), будет затем выполняться для каждого временного индекса n.

Что касается воспроизведения диффузного звука, акустические и визуальные изображения совместимо воссоздаются, когда обрабатываются таким же образом, как описано для случая без визуальных изображений, например, когда мощность диффузного звука остается такой же, что и мощность диффузного звука в записанной сцене и сигналы громкоговорителей являются некоррелированными версиями Ydiff(k, n). Для равноотстоящих громкоговорителей, усиление диффузного звука имеет постоянное значение, например, заданное посредством формулы (16). Как результат, модуль 104 вычисления функций усиления обеспечивает одиночное выходное значение для i-ого громкоговорителя (или канала наушника), которое используется в качестве усиления диффузного звука Q по всем частотам. Окончательный диффузный звук Ydiff,i(k, n) для i-ого канала громкоговорителя получается посредством декоррелирования Ydiff(k, n), например, как задается посредством формулы (2b).

Теперь, рассматриваются варианты осуществления, где обеспечивается акустическое масштабирование на основе направлений DOA. В таких вариантах осуществления, может рассматриваться обработка для акустического масштабирования, которая является совместимой с визуальным масштабированием. Это совместимое аудиовизуальное масштабирование достигается посредством регулировки весов Gi(k, n) и Q, например, используемых в формуле (2a), как изображено в модуле 103 модификации сигналов из фиг. 2.

В одном варианте осуществления, усиление прямого звука Gi(k, n) может, например, выбираться в блоке 201 выбора усиления от функции усиления прямого звука gi(k, n), вычисленной в модуле 104 вычисления функций усиления, на основе направлений DOA, оцененных в модуле 102 оценки параметров. Усиление диффузного звука Q выбирается в блоке 202 выбора усиления от функции усиления диффузного звука q(β), вычисленной в модуле 104 вычисления функций усиления. В других вариантах осуществления, усиление прямого звука Gi(k, n) и усиление диффузного звука Q вычисляются модулем 103 модификации сигналов без вычисления сначала соответствующих функций усиления и затем выбора усилений.

Следует отметить, что в отличие от вышеописанного варианта осуществления, функция усиления диффузного звука q(β) определяется на основе коэффициента масштабирования β. В вариантах осуществления, информация расстояния не используется, и, таким образом, в таких вариантах осуществления, она не оценивается в модуле 102 оценки параметров.

Чтобы выводить параметры масштабирования Gi(k, n) и Q в (2a), учитывается геометрия из фиг. 4. Параметры, обозначенные на фигуре, являются аналогичными параметрам, описанным по отношению к фиг. 4 в варианте осуществления выше.

Аналогично вышеописанному варианту осуществления, предполагается, что все источники звука располагаются на фокальной плоскости, которая располагается параллельно оси x на расстоянии g. Следует отметить, что некоторые системы с автофокусировкой являются способными обеспечивать g, например, расстояние до фокальной плоскости. Это обеспечивает возможность предполагать, что все источники в изображении являются отчетливыми. На стороне воспроизведения (дальнего конца), DOA ϕb(k, n) и положение xb(k, n) на устройстве отображения зависят от многих параметров, таких как расстояние g источника от камеры, размер датчика изображений, размер устройства отображения xd, и коэффициент масштабирования камеры (например, угол раскрыва камеры) β. При предположении, что оптическая система является линейной, согласно формуле (23):

(23)

где c является параметром калибровки, компенсирующим неизвестные оптические параметры и β≥1 является управляемым пользователем коэффициентом масштабирования. Следует отметить, что в визуальной камере, увеличение масштаба с коэффициентом β является эквивалентным умножению xb(k, n) на β. Более того, c является постоянной, только если все положения источников имеют одно и то же расстояние g до оси x. В этом случае, c может рассматриваться как параметр калибровки, который регулируется однократно таким образом, чтобы визуальное и акустическое изображения были выровнены. Усиление прямого звука Gi(k, n) выбирается от функции усиления прямого звука gi(ϕ) как

(24)

(25)

где pb,i(ϕ) обозначает функцию усиления панорамирования и wb(ϕ) является оконной функцией усиления для совместимого аудиовизуального масштабирования. Функция усиления панорамирования для совместимого аудиовизуального масштабирования вычисляется в модуле 104 вычисления функций усиления из исходной (например, VBAP) функции усиления панорамирования pi(ϕ) как

(26)

Таким образом, усиление прямого звука Gi(k, n), например, выбираемое в блоке 201 выбора усиления, определяется на основе оцененного DOA ϕ(k, n) из таблицы поиска для панорамирования, вычисленной в модуле 104 вычисления функций усиления, которая является фиксированной, если β не изменяется. Следует отметить, что, в некоторых вариантах осуществления, pb,i(ϕ) должна пересчитываться, например, посредством использования формулы (26) каждый раз, когда коэффициент масштабирования β модифицируется.

Иллюстративные стерео функции усиления панорамирования для β=1 и β=3 показаны на фиг. 6 (см. фиг. 6(a) и фиг. 6(b)). В частности, фиг. 6(a) иллюстрирует иллюстративную функцию усиления панорамирования pb,i для β=1; фиг. 6(b) иллюстрирует усиления панорамирования после масштабирования с β=3; и фиг. 6(c) иллюстрирует усиления панорамирования после масштабирования с β=3 с угловым сдвигом.

Как можно видеть в примере, когда прямой звук прибывает из ϕ(k, n)=10°, усиление панорамирования для левого громкоговорителя увеличивается для больших значений β, в то время как функция панорамирования для правого громкоговорителя и β=3 возвращает более малое значение, чем для β=1. Такое панорамирование эффективно перемещает воспринимаемое положение источника больше к внешним направлениям, когда коэффициент масштабирования β увеличивается.

Согласно вариантам осуществления, сигнальный процессор 105 может, например, быть сконфигурирован с возможностью определять два или более выходных аудиосигналов. Для каждого выходного аудиосигнала из упомянутых двух или более выходных аудиосигналов, функция усиления панорамирования назначена упомянутому выходному аудиосигналу.

Функция усиления панорамирования каждого из упомянутых двух или более выходных аудиосигналов содержит множество значений аргумента функции панорамирования, при этом возвращаемое значение функции панорамирования назначено каждому из упомянутых значений аргумента функции панорамирования, при этом, когда упомянутая функция панорамирования принимает одно из упомянутых значений аргумента функции панорамирования, упомянутая функция панорамирования сконфигурирована с возможностью возвращать возвращаемое значение функции панорамирования, которое назначено упомянутому одному из упомянутых значений аргумента функции панорамирования. и

Сигнальный процессор 105 сконфигурирован с возможностью определять каждый из упомянутых двух или более выходных аудиосигналов в зависимости от зависящего от направления значения аргумента из значений аргумента функции панорамирования для функции усиления панорамирования, которая назначена упомянутому выходному аудиосигналу, при этом упомянутое зависящее от направления значение аргумента зависит от направления прибытия.

Согласно одному варианту осуществления, функция усиления панорамирования каждого из упомянутых двух или более выходных аудиосигналов имеет один или более глобальных максимумов, являющихся одним из значений аргумента функции панорамирования, при этом для каждого из упомянутых одного или более глобальных максимумов каждой функции усиления панорамирования, не существует никакое другое значение аргумента функции панорамирования, для которого упомянутая функция усиления панорамирования возвращает более большое возвращаемое значение функции панорамирования, чем для упомянутых глобальных максимумов.

Для каждой пары из первого выходного аудиосигнала и второго выходного аудиосигнала из упомянутых двух или более выходных аудиосигналов, по меньшей мере, один из упомянутых одного или более глобальных максимумов функции усиления панорамирования первого выходного аудиосигнала отличается от любого из упомянутых одного или более глобальных максимумов функции усиления панорамирования второго выходного аудиосигнала.

Формулируя кратко, функции панорамирования осуществляются таким образом, чтобы (по меньшей мере, один из) глобальные максимумы разных функций панорамирования отличались.

Например, на фиг. 6(a), локальные максимумы для pb,l(ϕ) находятся в диапазоне от -45° до -28° и локальные максимумы для pb,r(ϕ) находятся в диапазоне от +28° до +45° и, таким образом, глобальные максимумы отличаются.

Например, на фиг. 6(b), локальные максимумы для pb,l(ϕ) находятся в диапазоне от -45° до -8° и локальные максимумы для pb,r(ϕ) находятся в диапазоне от +8° до +45° и, таким образом, глобальные максимумы также отличаются.

Например, на фиг. 6(c), локальные максимумы для pb,l(ϕ) находятся в диапазоне от -45° до +2° и локальные максимумы для pb,r(ϕ) находятся в диапазоне от +18° до +45° и, таким образом, глобальные максимумы также отличаются.

Функция усиления панорамирования может, например, осуществляться как таблица поиска.

В таком варианте осуществления, сигнальный процессор 105 может, например, быть сконфигурирован с возможностью вычислять таблицу поиска панорамирования для функции усиления панорамирования, по меньшей мере, одного из выходных аудиосигналов.

Таблица поиска панорамирования каждого выходного аудиосигнала из упомянутых, по меньшей мере, одного из выходных аудиосигналов может, например, содержать множество записей, при этом каждая из записей содержит значение аргумента функции панорамирования для функции усиления панорамирования упомянутого выходного аудиосигнала и возвращаемое значение функции панорамирования для функции усиления панорамирования, которое назначено упомянутому значению аргумента функции панорамирования, при этом сигнальный процессор 105 сконфигурирован с возможностью получать одно из возвращаемых значений функции панорамирования из упомянутой таблицы поиска панорамирования посредством выбора, в зависимости от направления прибытия, зависящего от направления значения аргумента из таблицы поиска панорамирования, и при этом сигнальный процессор 105 сконфигурирован с возможностью определять значение усиления для упомянутого выходного аудиосигнала в зависимости от упомянутого одного из возвращаемых значений функции панорамирования, полученного из упомянутой таблицы поиска панорамирования.

В последующем, описываются варианты осуществления, которые используют окно прямого звука. Согласно таким вариантам осуществления, окно прямого звука для совместимого масштабирования wb(ϕ) вычисляется согласно

(27)

где wb(ϕ) является оконной функцией усиления для акустического масштабирования, которая ослабляет прямой звук, если источник отображается в положение вне визуального изображения для коэффициента масштабирования β.

Оконная функция w(ϕ) может, например, устанавливаться для β=1, чтобы прямой звук источников, которые находятся вне визуального изображения, уменьшался на требуемый уровень, и она может пересчитываться, например, посредством использования формулы (27), каждый раз, когда параметр масштабирования изменяется. Следует отметить, что wb(ϕ) является одной и той же для всех каналов громкоговорителей. Иллюстративные оконные функции для β=1 и β=3 показаны на фиг. 7(a-b), где для увеличенного значения β ширина окна уменьшается.

На фиг. 7 проиллюстрированы примеры совместимых оконных функций усиления. В частности, фиг. 7(a) иллюстрирует оконную функцию усиления wb без масштабирования (коэффициент масштабирования β=1), фиг. 7(b) иллюстрирует оконную функцию усиления после масштабирования (коэффициент масштабирования β=3), фиг. 7(c) иллюстрирует оконную функцию усиления после масштабирования (коэффициент масштабирования β=3) с угловым сдвигом. Например, угловой сдвиг может реализовать вращение окна в направлении просмотра.

Например, на фиг. 7(a), 7(b) и 7(c) оконная функция усиления возвращает усиление, равное 1, если DOA ϕ располагается внутри окна, оконная функция усиления возвращает усиление, равное 0.18, если ϕ располагается вне окна, и оконная функция усиления возвращает усиление между 0.18 и 1, если ϕ располагается на границе окна.

Согласно вариантам осуществления, сигнальный процессор 105 сконфигурирован с возможностью генерировать каждый выходной аудиосигнал из упомянутых одного или более выходных аудиосигналов в зависимости от оконной функции усиления. Оконная функция усиления сконфигурирована с возможностью возвращать возвращаемое значение оконной функции при приеме значения аргумента оконной функции.

Если значение аргумента оконной функции больше, чем нижний порог окна и меньше, чем верхний порог окна, оконная функция усиления сконфигурирована с возможностью возвращать возвращаемое значение оконной функции, которое больше, чем любое возвращаемое значение оконной функции, возвращаемое оконной функцией усиления, если значение аргумента оконной функции меньше, чем нижний порог, или больше, чем верхний порог.

Например, в формуле (27)

азимутальный угол направления прибытия ϕ является значением аргумента оконной функции для оконной функции усиления . Оконная функция усиления зависит от информации масштабирования, здесь, коэффициента масштабирования β.

Чтобы объяснить определение оконной функции усиления, можно ссылаться на фиг. 7(a).

Если азимутальный угол направления DOA ϕ больше, чем -20° (нижний порог) и меньше, чем +20° (верхний порог), все значения, возвращаемые оконной функцией усиления, больше, чем 0.6. В противном случае, если азимутальный угол направления DOA ϕ меньше, чем -20° (нижний порог) или больше, чем +20° (верхний порог), все значения, возвращаемые оконной функцией усиления, меньше, чем 0.6.

В одном варианте осуществления, сигнальный процессор 105 сконфигурирован с возможностью принимать информацию масштабирования. Более того сигнальный процессор 105 сконфигурирован с возможностью генерировать каждый выходной аудиосигнал из упомянутых одного или более выходных аудиосигналов в зависимости от оконной функции усиления, при этом оконная функция усиления зависит от информации масштабирования.

Это можно видеть для (модифицированных) оконных функций усиления из фиг. 7(b) и фиг. 7(c), если другие значения рассматриваются как нижний/верхний пороги или если другие значения рассматриваются как возвращаемые значения. На фиг. 7(a), 7(b) и 7(c), можно видеть, что оконная функция усиления зависит от информации масштабирования: коэффициента масштабирования β.

Оконная функция усиления может, например, осуществляться как таблица поиска. В таком варианте осуществления, сигнальный процессор 105 сконфигурирован с возможностью вычислять таблицу поиска окна, при этом таблица поиска окна содержит множество записей, при этом каждая из записей содержит значение аргумента оконной функции для оконной функции усиления и возвращаемое значение оконной функции для оконной функции усиления, которое назначено упомянутому значению аргумента оконной функции. Сигнальный процессор 105 сконфигурирован с возможностью получать одно из возвращаемых значений оконной функции из таблицы поиска окна посредством выбора одного из значений аргумента оконной функции для таблицы поиска окна в зависимости от направления прибытия. Более того, сигнальный процессор 105 сконфигурирован с возможностью определять значение усиления для, по меньшей мере, одного из упомянутых одного или более выходных аудиосигналов в зависимости от упомянутого одного из возвращаемых значений оконной функции, полученного из таблицы поиска окна.

В дополнение к концепции масштабирования, функции окна и панорамирования могут сдвигаться на угол сдвига θ. Этот угол может соответствовать либо вращению направления просмотра камеры l, либо перемещению внутри визуального изображения по аналогии с цифровым масштабированием в камерах. В первом случае, угол вращения камеры пересчитывается для угла на устройстве отображения, например, аналогично формуле (23). Во втором случае, θ может быть прямым сдвигом функций окна и панорамирования (например, wb(ϕ) и pb,i(ϕ)) для совместимого акустического масштабирования. Иллюстративный пример сдвига обеих функций изображен на фиг. 5(c) и 6(c).

Следует отметить, что вместо пересчета функций усиления панорамирования и окна, можно вычислять DOA ϕb(k, n) для устройства отображения, например, согласно формуле (23), и применять его в исходных функциях панорамирования и окна как pi(ϕ) и w(ϕb), соответственно. Такая обработка является эквивалентной, так как имеют место следующие отношения:

(28)

(29)

Однако это требует, чтобы модуль 104 вычисления функций усиления принимал оцененные направления DOA ϕ(k, n) в качестве ввода, и пересчет DOA, например, согласно формуле (18), может, например, выполняться в каждом последовательном временном кадре, независимо, изменилось ли β или нет.

Что касается диффузного звука, вычисление функции усиления диффузного звука q(β), например, в модуле 104 вычисления функций усиления, требует только знание количества громкоговорителей I, доступных для воспроизведения. Таким образом, оно может устанавливаться независимо от параметров визуальной камеры или устройства отображения.

Например, для равноотстоящих громкоговорителей, действительнозначное усиление диффузного звука в формуле (2a) выбирается в блоке 202 выбора усиления на основе параметра масштабирования β. Цель использования усиления диффузного звука состоит в том, чтобы ослаблять диффузный звук в зависимости от коэффициента масштабирования, например, масштабирование увеличивает DRR воспроизводимого сигнала. Это достигается посредством понижения Q для более большого β. Фактически, увеличение масштаба означает, что угол раскрыва камеры становится более малым, например, естественным акустическим соответствием будет более направленный микрофон, который захватывает меньше диффузного звука.

Чтобы имитировать этот эффект, один вариант осуществления может, например, использовать функцию усиления, показанную на фиг. 8. Фиг. 8 иллюстрирует пример функции усиления диффузного звука q(β).

В других вариантах осуществления, функция усиления определяется другим образом. Окончательный диффузный звук Ydiff,i(k, n) для i-ого канала громкоговорителя достигается посредством декоррелирования Ydiff(k, n), например, согласно формуле (2b).

В последующем, рассматривается акустическое масштабирование на основе направлений DOA и расстояний.

Согласно некоторым вариантам осуществления, сигнальный процессор 105 может, например, быть сконфигурирован с возможностью принимать информацию расстояния, при этом сигнальный процессор 105 может, например, быть сконфигурирован с возможностью генерировать каждый выходной аудиосигнал из упомянутых одного или более выходных аудиосигналов в зависимости от информации расстояния.

Некоторые варианты осуществления используют обработку для совместимого акустического масштабирования, которое основывается как на оцененном DOA ϕ(k, n), так и на значении расстояния r(k, n). Концепции этих вариантов осуществления также могут применяться, чтобы выравнивать записанную акустическую сцену с видео без масштабирования, где источники не располагаются на одном и том же расстоянии, как ранее предполагалось, доступная информация расстояния r(k, n) обеспечивает нам возможность создавать эффект акустического размытия для источников звука, которые не проявляются отчетливыми в визуальном изображении, например, для источников, которые не располагаются на фокальной плоскости камеры.

Чтобы обеспечивать совместимое воспроизведение звука, например, акустическое масштабирование, с размытием для источников, расположенных на разных расстояниях, усиления Gi(k, n) и Q могут регулироваться в формуле (2a), как изображено в модуле 103 модификации сигналов из фиг. 2, на основе двух оцененных параметров, именно ϕ(k, n) и r(k, n), и в зависимости от коэффициента масштабирования β. Если никакое масштабирование не вовлекается, β может устанавливаться на β=1.

Параметры ϕ(k, n) и r(k, n) могут, например, оцениваться в модуле 102 оценки параметров, как описано выше. В этом варианте осуществления, усиление прямого звука Gi(k, n) определяется (например, посредством выбора в блоке 201 выбора усиления) на основе DOA и информации расстояния из одной или более функций усиления прямого звука gi,j(k, n) (которые могут, например, вычисляться в модуле 104 вычисления функций усиления). Аналогично, как описано для вариантов осуществления выше, усиление диффузного звука Q может, например, выбираться в блоке 202 выбора усиления от функции усиления диффузного звука q(β), например, вычисленной в модуле 104 вычисления функций усиления на основе коэффициента масштабирования β.

В других вариантах осуществления, усиление прямого звука Gi(k, n) и усиление диффузного звука Q вычисляются модулем 103 модификации сигналов без вычисления сначала соответствующих функций усиления и затем выбора усилений.

Чтобы описать воспроизведение акустической сцены и акустическое масштабирование для источников звука на разных расстояниях, ссылка делается на фиг. 9. Параметры, обозначенные на фиг. 9, являются аналогичными параметрам, описанным выше.

На фиг. 9, источник звука располагается в положении P′ на расстоянии R(k, n) до оси x. Расстояние r, которое может, например, быть зависящим от (k, n) (зависящим от времени-частоты: r(k, n)), обозначает расстояние между положением источника и фокальной плоскостью (левой вертикальной линией, проходящей через g). Следует отметить, что некоторые системы с автофокусировкой являются способными обеспечивать g, например, расстояние до фокальной плоскости.

DOA прямого звука из точки обзора массива микрофонов обозначается посредством ϕ'(k, n). В отличие от других вариантов осуществления, не предполагается, что все источники расположены на одном и том же расстоянии g от объектива камеры. Таким образом, например, положение P′ может иметь произвольное расстояние R(k, n) до оси x.

Если источник не располагается на фокальной плоскости, источник будет проявляться размытым на видео. Более того, варианты осуществления основываются на обнаружении, что, если источник располагается в любом положении на пунктирной линии 910, он будет появляться в том же положении xb(k, n) на видео. Однако варианты осуществления основываются на обнаружении, что оцененное DOA ϕ'(k, n) прямого звука изменяется, если источник перемещается вдоль пунктирной линии 910. Другими словами, на основе обнаружений, используемых вариантами осуществления, если источник перемещается параллельно оси y, оцененное DOA ϕ'(k, n) будет изменяться, в то время как xb (и, таким образом, DOA ϕb(k, n), из которого звук должен воспроизводиться) остается одним и тем же. Следовательно, если оцененное DOA ϕ'(k, n) передается стороне дальнего конца и используется для воспроизведения звука, как описано в предыдущих вариантах осуществления, то акустическое и визуальное изображение более не выровнены, если источник изменяет свое расстояние R(k, n).

Чтобы компенсировать этот эффект и достигать совместимого воспроизведения звука, оценка DOA, например, выполняемая в модуле 102 оценки параметров, оценивает DOA прямого звука, как если бы источник располагался на фокальной плоскости в положении P. Это положение представляет проекцию P′ на фокальную плоскость. Соответствующее DOA обозначается посредством ϕ(k, n) на фиг. 9 и используется на стороне дальнего конца для совместимого воспроизведения звука, аналогично тому, как в предыдущих вариантах осуществления. (Модифицированное) DOA ϕ(k, n) может вычисляться из оцененного (исходного) DOA ϕ'(k, n) на основе геометрических рассмотрений, если r и g являются известными.

Например, на фиг. 9, сигнальный процессор 105 может, например, вычислять ϕ(k, n) из ϕ'(k, n), r и g согласно:

.

Таким образом, согласно одному варианту осуществления, сигнальный процессор 105 может, например, быть сконфигурирован с возможностью принимать исходный азимутальный угол ϕ'(k, n) направления прибытия, которое является направлением прибытия компонент прямых сигналов упомянутых двух или более входных аудиосигналов, и сконфигурирован с возможностью дополнительно принимать информацию расстояния, и может, например, быть сконфигурирован с возможностью дополнительно принимать информацию расстояния r. Сигнальный процессор 105 может, например, быть сконфигурирован с возможностью вычислять модифицированный азимутальный угол ϕ(k, n) направления прибытия в зависимости от азимутального угла исходного направления прибытия ϕ'(k, n) и в зависимости от информации расстояния r и g. Сигнальный процессор 105 может, например, быть сконфигурирован с возможностью генерировать каждый выходной аудиосигнал из упомянутых одного или более из выходных аудиосигналов в зависимости от азимутального угла модифицированного направления прибытия ϕ(k, n).

Требуемая информация расстояния может оцениваться как описано выше (расстояние g фокальной плоскости может получаться из системы объектива или информации автофокуса). Следует отметить, что, например, в этом варианте осуществления, расстояние r(k, n) между источником и фокальной плоскостью передается стороне дальнего конца вместе с (отображенным) DOA ϕ(k, n).

Более того, по аналогии с визуальным масштабированием, источники, лежащие на большом расстоянии r от фокальной плоскости, не проявляются отчетливыми в изображении. Этот эффект является хорошо известным в оптике как так называемая глубина поля (DOF), которая определяет диапазон расстояний источников, которые проявляются приемлемо отчетливо в визуальном изображении.

Пример кривой DOF как функции расстояния r изображен на фиг. 10(a).

Фиг. 10 иллюстрирует примерные фигуры для глубины поля (фиг. 10(a)), для обрезающей частоты фильтра нижних частот (фиг. 10(b)), и для временной задержки в мс для повторного прямого звука (фиг. 10(c)).

На фиг. 10(a), источники на малом расстоянии от фокальной плоскости являются все еще отчетливыми, тогда как источники на более больших расстояниях (либо ближе, либо дополнительно дальше от камеры) проявляются как размытые. Таким образом, согласно одному варианту осуществления, соответствующие источники звука размываются, чтобы их визуальное и акустическое изображения были совместимыми.

Чтобы выводить усиления Gi(k, n) и Q в (2a), которые реализуют акустическое размытие и совместимое воспроизведение пространственного звука, учитывается угол, под которым источник, расположенный в P(ϕ, r), будет появляться на устройстве отображения. Размытый источник будет отображаться под

(30)

где c является параметром калибровки, β≥1 является управляемым пользователем коэффициентом масштабирования, ϕ(k, n) является (отображенным) DOA, например, оцененным в модуле 102 оценки параметров. Как упомянуто ранее, усиление прямого звука Gi(k, n) в таких вариантах осуществления может, например, вычисляться из множества функций усиления прямого звука gi,j. В частности, могут, например, использоваться две функции усиления gi,1(ϕ(k, n)) и gi,2(r(k, n)), при этом первая функция усиления зависит от DOA ϕ(k, n), и при этом вторая функция усиления зависит от расстояния r(k, n). Усиление прямого звука Gi(k, n) может вычисляться как:

,(31)

,(32)

,(33)

где pb,i(ϕ) обозначает функцию усиления панорамирования (чтобы гарантировать, что звук воспроизводится из правильного направления), где wb(ϕ) является оконной функцией усиления (чтобы гарантировать, что прямой звук ослабляется, если источник не является видимым на видео), и где b(r) является функцией размытия (чтобы размывать источники акустически, если они не располагаются на фокальной плоскости).

Следует отметить, что все функции усиления могут определяться в зависимости от частоты (что пропускается здесь для краткости). Следует дополнительно отметить, что в этом варианте осуществления усиление прямого звука Gi находится посредством выбора и умножения усилений от двух разных функций усиления, как показано в формуле (32).

Обе функции усиления pb,i(ϕ) и wb(ϕ) определяются аналогично тому, как описано выше. Например, они могут вычисляться, например, в модуле 104 вычисления функций усиления, например, с использованием формул (26) и (27), и они остаются фиксированными, пока коэффициент масштабирования β не изменяется. Подробное описание этих двух функций было обеспечено выше. Функция размытия b(r) возвращает комплексные усиления, которые вызывают размытие, например, перцепционное рассеивание, источника, и, таким образом, вся функция усиления gi также будет обычно возвращать комплексное число. Для простоты, в последующем, размытие обозначается как функция расстояния до фокальной плоскости b(r).

Эффект размытия может получаться как выбранный один или комбинация из следующих эффектов размытия: низкочастотная фильтрация, добавление задержанного прямого звука, ослабление прямого звука, временное сглаживание и/или рассеивание DOA. Таким образом, согласно одному варианту осуществления, сигнальный процессор 105 может, например, быть сконфигурирован с возможностью генерировать упомянутые один или более выходных аудиосигналов посредством выполнения низкочастотной фильтрации, или посредством добавления задержанного прямого звука, или посредством выполнения ослабления прямого звука, или посредством выполнения временного сглаживания, или посредством выполнения рассеивания направления прибытия.

Низкочастотная фильтрация: В системах технического зрения, неотчетливое визуальное изображение может получаться посредством низкочастотной фильтрации, которая эффективно осуществляет слияние соседних пикселей в визуальном изображении. По аналогии, эффект акустического размытия может получаться посредством низкочастотной фильтрации прямого звука с обрезающей частотой, выбранной на основе оцененного расстояния источника до фокальной плоскости r. В этом случае, функция размытия b(r, k) возвращает усиления фильтра нижних частот для частоты k и расстояния r. Иллюстративная кривая для обрезающей частоты фильтра нижних частот первого порядка для частоты дискретизации, равной 16 кГц, показана на фиг. 10(b). Для малых расстояний r, обрезающая частота является близкой к частоте Найквиста, и, таким образом, почти никакая низкочастотная фильтрация фактически не выполняется. Для значений более большого расстояния, обрезающая частота уменьшается до тех пор, когда она выравнивается на 3 кГц, где акустическое изображение является достаточно размытым.

Добавление задержанного прямого звука: Чтобы делать акустическое изображение источника менее резким, мы можем декоррелировать прямой звук, например, посредством повторения ослабления прямого звука после некоторой задержки τ (например, между 1 и 30 мс). Такая обработка может, например, выполняться согласно комплексной функции усиления из формулы (34):

,(34)

где α обозначает усиление ослабления для повторного звука и τ является задержкой, после которой прямой звук повторяется. Иллюстративная кривая задержки (в мс) показана на фиг. 10(c). Для малых расстояний, задержанный сигнал не повторяется и α устанавливается на нуль. Для более больших расстояний, временная задержка увеличивается с увеличением расстояния, что вызывает перцепционное рассеивание акустического источника.

Ослабление прямого звука: Источник также может восприниматься как размытый, когда прямой звук ослабляется посредством постоянного коэффициента. В этом случае b(r)=const<1. Как упомянуто выше, функция размытия b(r) может состоять из любого из упомянутых эффектов размытия или как комбинация этих эффектов. В дополнение, может использоваться альтернативная обработка, которая размывает источник.

Временное сглаживание: Сглаживание прямого звука по времени может, например, использоваться, чтобы перцепционно размывать акустический источник. Это может достигаться посредством сглаживания огибающей извлеченного прямого сигнала по времени.

Рассеивание DOA: Другой способ, чтобы делать акустический источник менее резким, состоит в воспроизведении исходного сигнала из диапазона направлений вместо воспроизведения только из оцененного направления. Это может достигаться посредством рандомизации угла, например, посредством взятия случайного угла из гауссовского распределения, центрированного около оцененного ϕ. Увеличение дисперсии такого распределения, и, таким образом, расширение возможного диапазона DOA, увеличивает восприятие размытия.

Аналогично тому, как описано выше, вычисление функции усиления диффузного звука q(β) в модуле 104 вычисления функций усиления, может, в некоторых вариантах осуществления, требовать только знание количества громкоговорителей I, доступных для воспроизведения. Таким образом, функция усиления диффузного звука q(β) может, в таких вариантах осуществления, устанавливаться, как требуется для применения. Например, для равноотстоящих громкоговорителей, действительнозначное усиление диффузного звука в формуле (2a) выбирается в блоке 202 выбора усиления на основе параметра масштабирования β. Цель использования усиления диффузного звука состоит в том, чтобы ослаблять диффузный звук в зависимости от коэффициента масштабирования, например, масштабирование увеличивает DRR воспроизводимого сигнала. Это достигается посредством понижения Q для более большого β. Фактически, увеличение масштаба означает, что угол раскрыва камеры становится более малым, например, естественным акустическим соответствием будет более направленный микрофон, который захватывает меньше диффузного звука. Чтобы имитировать этот эффект, мы можем использовать, например, функцию усиления, показанную на фиг. 8. Ясно, что, функция усиления также может определяться различным образом. Необязательно, окончательный диффузный звук Ydiff,i(k, n) для i-ого канала громкоговорителя получается посредством декоррелирования Ydiff(k, n), полученного в формуле (2b).

Теперь, рассматриваются варианты осуществления, которые реализуют применение к слуховым аппаратам и вспомогательным слуховым устройствам. Фиг. 11 иллюстрирует такое применение к слуховым аппаратам.

Некоторые варианты осуществления относятся к бинауральным слуховым аппаратам. В этом случае, предполагается, что каждый слуховой аппарат оснащен, по меньшей мере, одним микрофоном и что информация может обмениваться между упомянутыми двумя слуховыми аппаратами. Вследствие некоторой потери слуха, человек с нарушением слуха может испытывать трудности сосредоточения (например, концентрирования на звуках, идущих из конкретной точки или направления) на требуемом звуке или звуках. Чтобы помогать мозгу человека с нарушением слуха обрабатывать звуки, которые воспроизводятся слуховыми аппаратами, акустическое изображение делается совместимым с точкой фокуса или направлением пользователя слуховых аппаратов. Предполагается, что точка фокуса или направление является предварительно определенной, определяемой пользователем, или определяемой интерфейсом мозг-машина. Такие варианты осуществления обеспечивают, что требуемые звуки (которые предполагается, что прибывают из точки фокуса или направления фокуса) и нежелательные звуки проявляются пространственно разделенными.

В таких вариантах осуществления, направления прямых звуков могут оцениваться разными способами. Согласно одному варианту осуществления, направления определяются на основе интерауральных различий уровней (ILD) и/или интерауральных временных различий (ITD), которые определяются с использованием обоих слуховых аппаратов (см. [15] и [16]).

Согласно другим вариантам осуществления, направления прямых звуков на левой стороне и правой стороне оцениваются независимо с использованием слухового аппарата, который оснащен, по меньшей мере, двумя микрофонами (см. [17]). Оцененные направления могут использоваться на основе уровней звукового давления в левом и правом слуховом аппарате, или пространственной когерентности в левом и правом слуховом аппарате. Из-за эффекта затенения головой, разные средства оценки могут использоваться для разных частотных диапазонов (например, различия ILD при высоких частотах и различия ITD при низких частотах).

В некоторых вариантах осуществления, сигналы прямого и диффузного звуков могут, например, оцениваться с использованием вышеупомянутых способов информированной пространственной фильтрации. В этом случае, прямые и диффузные звуки, как принимаются в левом и правом слуховом аппарате, могут оцениваться отдельно (например, посредством изменения опорного микрофона), или левый и правый выходные сигналы могут генерироваться с использованием функции усиления для вывода левого и правого слухового аппарата, соответственно, аналогичным образом разные сигналы громкоговорителей или наушников получаются в предыдущих вариантах осуществления.

Чтобы пространственно разделять требуемый и нежелательный звуки, может применяться акустическое масштабирование, описанное в вышеупомянутых вариантах осуществления. В этом случае, точка фокуса или направление фокуса определяет коэффициент масштабирования.

Таким образом, согласно одному варианту осуществления, может обеспечиваться слуховой аппарат или вспомогательное слуховое устройство, при этом слуховой аппарат или вспомогательное слуховое устройство содержит систему, как описано выше, при этом сигнальный процессор 105 вышеописанной системы определяет усиление прямого звука для каждого из упомянутых одного или более выходных аудиосигналов, например, в зависимости от направления фокуса или точки фокуса.

В одном варианте осуществления, сигнальный процессор 105 вышеописанной системы может, например, быть сконфигурирован с возможностью принимать информацию масштабирования. Сигнальный процессор 105 вышеописанной системы может, например, быть сконфигурирован с возможностью генерировать каждый выходной аудиосигнал из упомянутых одного или более выходных аудиосигналов в зависимости от оконной функции усиления, при этом оконная функция усиления зависит от информации масштабирования. Используются такие же концепции, как описано со ссылкой на фиг. 7(a), 7(b) и 7(c).

Если аргумент оконной функции, в зависимости от направления фокуса или от точки фокуса, больше, чем нижний порог и меньше, чем верхний порог, оконная функция усиления сконфигурирована с возможностью возвращать усиление окна, которое больше, чем любое усиление окна, возвращаемое оконной функцией усиления, если аргумент оконной функции меньше, чем нижний порог, или больше, чем верхний порог.

Например, в случае направления фокуса, направление фокуса может само быть аргументом оконной функции (и, таким образом, аргумент оконной функции зависит от направления фокуса). В случае положения фокуса, аргумент оконной функции, может, например, выводиться из положения фокуса.

Аналогично, изобретение может применяться к другим носимым устройствам, которые включают в себя вспомогательные слуховые устройства или устройства, такие как Google Glass®. Следует отметить, что некоторые носимые устройства также оснащаются одной или более камерами или датчиком ToF, который может использоваться, чтобы оценивать расстояние объектов до человека, носящего устройство.

Хотя некоторые аспекты были описаны в контексте устройства, должно быть ясно, что эти аспекты также представляют описание соответствующего способа, где блок или устройство соответствует этапу способа или признаку этапа способа. Аналогично, аспекты, описанные в контексте этапа способа, также представляют описание соответствующего блока или элемента или признака соответствующего устройства.

Новый разложенный сигнал может сохраняться в цифровом запоминающем носителе или может передаваться посредством носителя передачи, такого как беспроводной носитель передачи или проводной носитель передачи, такой как сеть Интернет.

В зависимости от некоторых требований вариантов осуществления, варианты осуществления изобретения могут осуществляться в аппаратном обеспечении или в программном обеспечении. Вариант осуществления может выполняться с использованием цифрового запоминающего носителя, например, гибкого диска, DVD, CD, ROM, PROM, EPROM, EEPROM или флэш-памяти, имеющего электронно-читаемые сигналы управления, сохраненные на нем, которые взаимодействуют (или являются способными взаимодействовать) с программируемой компьютерной системой, чтобы выполнялся соответствующий способ.

Некоторые варианты осуществления согласно изобретению содержат нетранзиторный носитель данных, имеющий электронно-читаемые сигналы управления, которые являются способными взаимодействовать с программируемой компьютерной системой, чтобы выполнялся один из способов, здесь описанных.

В общем, варианты осуществления настоящего изобретения могут осуществляться как компьютерный программный продукт с программным кодом, при этом программный код является работоспособным для выполнения одного из способов, когда компьютерный программный продукт исполняется на компьютере. Программный код может, например, быть сохранен на машиночитаемом носителе.

Другие варианты осуществления содержат компьютерную программу для выполнения одного из способов, здесь описанных, сохраненную на машиночитаемом носителе.

Другими словами, один вариант осуществления нового способа является, поэтому, компьютерной программой, имеющей программный код для выполнения одного из способов, здесь описанных, когда компьютерная программа исполняется на компьютере.

Один дополнительный вариант осуществления новых способов является, поэтому, носителем данных (или цифровым запоминающим носителем, или компьютерно-читаемым носителем), содержащим, записанную на нем, компьютерную программу для выполнения одного из способов, здесь описанных.

Один дополнительный вариант осуществления нового способа является, поэтому, потоком данных или последовательностью сигналов, представляющим компьютерную программу для выполнения одного из способов, здесь описанных. Поток данных или последовательность сигналов может, например, быть сконфигурирован с возможностью передаваться посредством соединения передачи данных, например, посредством сети Интернет.

Один дополнительный вариант осуществления содержит средство обработки, например, компьютер, или программируемое логическое устройство, сконфигурированное с возможностью или выполненное с возможностью выполнять один из способов, здесь описанных.

Один дополнительный вариант осуществления содержит компьютер, имеющий, установленную на нем компьютерную программу для выполнения одного из способов, здесь описанных.

В некоторых вариантах осуществления, программируемое логическое устройство (например, программируемая пользователем вентильная матрица) может использоваться, чтобы выполнять некоторые или все из функциональных возможностей способов, здесь описанных. В некоторых вариантах осуществления, программируемая пользователем вентильная матрица может взаимодействовать с микропроцессором, чтобы выполнять один из способов, здесь описанных. В общем, способы предпочтительно выполняются посредством любого аппаратного устройства.

Вышеописанные варианты осуществления являются всего лишь иллюстративными для принципов настоящего изобретения. Следует понимать, что модификации и изменения компоновок и подробностей, здесь описанных, должны быть ясны другим специалистам в данной области техники. Поэтому предполагается ограничение только посредством объема приложенной патентной формулы изобретения и не посредством конкретных подробностей, представленных посредством описания и объяснения вариантов осуществления отсюда.

ССЫЛОЧНЫЕ ИСТОЧНИКИ

[1] Y. Ishigaki, M. Yamamoto, K. Totsuka, and N. Miyaji, "Zoom microphone", in Audio Engineering Society Convention 67, Paper 1713, October 1980.

[2] M. Matsumoto, H. Naono, H. Saitoh, K. Fujimura, and Y. Yasuno, "Stereo zoom microphone for consumer video cameras", Consumer Electronics, IEEE Transactions on, vol. 35, no. 4, pp. 759-766, November 1989. August 13, 2014

[3] T. van Waterschoot, W. J. Tirry, and M. Moonen, "Acoustic zooming by multi microphone sound scene manipulation", J. Audio Eng. Soc, vol. 61, no. 7/8, pp. 489-507, 2013.

[4] V. Pulkki, "Spatial sound reproduction with directional audio coding", J. Audio Eng. Soc, vol. 55, no. 6, pp. 503-516, June 2007.

[5] R. Schultz-Amling, F. Kuech, O. Thiergart, and M. Kallinger, "Acoustical zooming based on a parametric sound field representation", in Audio Engineering Society Convention 128, Paper 8120, London UK, May 2010.

[6] O. Thiergart, G. Del Galdo, M. Taseska, and E. Habets, "Geometry-based spatial sound acquisition using distributed microphone arrays", Audio, Speech, and Language Processing, IEEE Transactions on, vol. 21, no. 12, pp. 2583-2594, December 2013.

[7] K. Kowalczyk, O. Thiergart, A. Craciun, and E. A. P. Habets, "Sound acquisition in noisy and reverberant environments using virtual microphones", in Applications of Signal Processing to Audio and Acoustics (WASPAA), 2013 IEEE Workshop on, October 2013.

[8] O. Thiergart and E. A. P. Habets, "An informed LCMV filter based on multiple instantaneous direction-of-arrival estimates", in Acoustics Speech and Signal Processing (ICASSP), 2013 IEEE International Conference on, 2013, pp. 659-663.

[9] O. Thiergart and E. A. P. Habets, "Extracting reverberant sound using a linearly constrained minimum variance spatial filter", Signal Processing Letters, IEEE, vol. 21, no. 5, pp. 630-634, May 2014.

[10] R. Roy and T. Kailath, "ESPRIT-estimation of signal parameters via rotational invariance techniques", Acoustics, Speech and Signal Processing, IEEE Transactions on, vol. 37, no. 7, pp. 984-995, July 1989.

[11] B. Rao and K. Hari, "Performance analysis of root-music", in Signals, Systems and Computers, 1988. Twenty-Second Asilomar Conference on, vol. 2, 1988, pp. 578-582.

[12] H. Teutsch and G. Elko, "An adaptive close-talking microphone array", in Applications of Signal Processing to Audio and Acoustics, 2001 IEEE Workshop on the, 2001, pp. 163-166.

[13] O. Thiergart, G. D. Galdo, and E. A. P. Habets, "On the spatial coherence in mixed sound fields and its application to signal-to-diffuse ratio estimation", The Journal of the Acoustical Society of America, vol. 132, no. 4, pp. 2337-2346, 2012.

[14] V. Pulkki, "Virtual sound source positioning using vector base amplitude panning", J. Audio Eng. Soc, vol. 45, no. 6, pp. 456-466, 1997.

[15] J. Blauert, Spatial hearing, 3rd ed. Hirzel-Verlag, 2001.

[16] T. May, S. van de Par, and A. Kohlrausch, "A probabilistic model for robust localization based on a binaural auditory front-end", IEEE Trans. Audio, Speech, Lang. Process., vol. 19, no. 1, pp. 1-13, 2011.

[17] J. Ahonen, V. Sivonen, and V. Pulkki, "Parametric spatial sound processing applied to bilateral hearing aids", in AES 45th International Conference, Mar. 2012.

1. Устройство для генерирования одного или более выходных аудиосигналов, содержащее:

сигнальный процессор (105) и

интерфейс (106) вывода,

при этом сигнальный процессор (105) сконфигурирован с возможностью принимать сигнал прямых компонент, содержащий компоненты прямых сигналов из двух или более исходных аудиосигналов, при этом сигнальный процессор (105) сконфигурирован с возможностью принимать сигнал диффузных компонент, содержащий компоненты диффузных сигналов из упомянутых двух или более исходных аудиосигналов, и при этом сигнальный процессор (105) сконфигурирован с возможностью принимать информацию направления, при этом упомянутая информация направления зависит от направления прибытия компонент прямых сигналов из упомянутых двух или более исходных аудиосигналов,

при этом сигнальный процессор (105) сконфигурирован с возможностью генерировать один или более обработанных диффузных сигналов в зависимости от сигнала диффузных компонент,

при этом для каждого выходного аудиосигнала из упомянутых одного или более выходных аудиосигналов сигнальный процессор (105) сконфигурирован с возможностью определять, в зависимости от направления прибытия, усиление прямого звука, которое является значением усиления, сигнальный процессор (105) сконфигурирован с возможностью применять упомянутое усиление прямого звука к сигналу прямых компонент, чтобы получать обработанный прямой сигнал, и сигнальный процессор (105) сконфигурирован с возможностью комбинировать упомянутый обработанный прямой сигнал и один из упомянутых одного или более обработанных диффузных сигналов, чтобы генерировать упомянутый выходной аудиосигнал, и

при этом интерфейс (106) вывода сконфигурирован с возможностью выводить упомянутые один или более выходных аудиосигналов,

при этом сигнальный процессор (105) содержит модуль (104) вычисления функций усиления для вычисления одной или более функций усиления, при этом каждая функция усиления из упомянутых одной или более функций усиления содержит множество значений аргумента функции усиления, при этом возвращаемое значение функции усиления назначено каждому из упомянутых значений аргумента функции усиления, при этом, когда упомянутая функция усиления принимает одно из упомянутых значений аргумента функции усиления, упомянутая функция усиления сконфигурирована с возможностью возвращать возвращаемое значение функции усиления, которое назначено упомянутому одному из упомянутых значений аргумента функции усиления, и

при этом сигнальный процессор (105) дополнительно содержит модуль (103) модификации сигналов для выбора, в зависимости от направления прибытия, зависящего от направления значения аргумента из значений аргумента функции усиления для функции усиления из упомянутых одной или более функций усиления, для получения возвращаемого значения функции усиления, которое назначено упомянутому зависящему от направления значению аргумента, от упомянутой функции усиления, и для определения значения усиления по меньшей мере одного из упомянутых одного или более выходных аудиосигналов в зависимости от упомянутого возвращаемого значения функции усиления, полученного от упомянутой функции усиления.

2. Система для генерирования одного или более выходных аудиосигналов, содержащая:

устройство по п. 1 и

модуль (101) генерирования сигнала компонент,

при этом модуль (101) генерирования сигнала компонент сконфигурирован с возможностью принимать два или более входных аудиосигналов, которые являются упомянутыми двумя или более исходными аудиосигналами,

при этом модуль (101) генерирования сигнала компонент сконфигурирован с возможностью генерировать сигнал прямых компонент, содержащий компоненты прямых сигналов из упомянутых двух или более исходных аудиосигналов, и

при этом модуль (101) генерирования сигнала компонент сконфигурирован с возможностью генерировать сигнал диффузных компонент, содержащий компоненты диффузных сигналов из упомянутых двух или более исходных аудиосигналов.

3. Система по п. 2,

в которой модуль (104) вычисления функций усиления сконфигурирован с возможностью генерировать таблицу поиска для каждой функции усиления из упомянутых одной или более функций усиления, при этом таблица поиска содержит множество записей, при этом каждая из записей таблицы поиска содержит одно из значений аргумента функции усиления и возвращаемое значение функции усиления, которое назначено упомянутому значению аргумента функции усиления,

при этом модуль (104) вычисления функций усиления сконфигурирован с возможностью сохранять таблицу поиска каждой функции усиления в постоянной или непостоянной памяти и

при этом модуль (103) модификации сигналов сконфигурирован с возможностью получать возвращаемое значение функции усиления, которое назначено упомянутому зависящему от направления значению аргумента, посредством считывания упомянутого возвращаемого значения функции усиления из одной из упомянутых одной или более таблиц поиска, которые сохранены в памяти.

4. Система по п. 2,

в которой сигнальный процессор (105) сконфигурирован с возможностью определять два или более выходных аудиосигналов,

при этом модуль (104) вычисления функций усиления сконфигурирован с возможностью вычислять две или более функций усиления,

при этом для каждого выходного аудиосигнала из упомянутых двух или более выходных аудиосигналов модуль (104) вычисления функций усиления сконфигурирован с возможностью вычислять функцию усиления панорамирования, которая назначена упомянутому выходному аудиосигналу в качестве одной из упомянутых двух или более функций усиления, при этом модуль (103) модификации сигналов сконфигурирован с возможностью генерировать упомянутый выходной аудиосигнал в зависимости от упомянутой функции усиления панорамирования.

5. Система по п. 4,

в которой функция усиления панорамирования каждого из упомянутых двух или более выходных аудиосигналов имеет один или более глобальных максимумов, являющихся одним из значений аргумента функции усиления упомянутой функции усиления панорамирования, при этом для каждого из упомянутых одного или более глобальных максимумов упомянутой функции усиления панорамирования не существует никакое другое значение аргумента функции усиления, для которого упомянутая функция усиления панорамирования возвращает более большое возвращаемое значение функции усиления, чем для упомянутых глобальных максимумов, и

при этом для каждой пары из первого выходного аудиосигнала и второго выходного аудиосигнала из упомянутых двух или более выходных аудиосигналов по меньшей мере один из упомянутых одного или более глобальных максимумов функции усиления панорамирования первого выходного аудиосигнала отличается от любого из упомянутых одного или более глобальных максимумов функции усиления панорамирования второго выходного аудиосигнала.

6. Система по п. 4,

в которой для каждого выходного аудиосигнала из упомянутых двух или более выходных аудиосигналов модуль (104) вычисления функций усиления сконфигурирован с возможностью вычислять оконную функцию усиления, которая назначена упомянутому выходному аудиосигналу в качестве одной из упомянутых двух или более функций усиления,

при этом модуль (103) модификации сигналов сконфигурирован с возможностью генерировать упомянутый выходной аудиосигнал в зависимости от упомянутой оконной функции усиления и

при этом если значение аргумента упомянутой оконной функции усиления больше, чем нижний порог окна, и меньше, чем верхний порог окна, оконная функция усиления сконфигурирована с возможностью возвращать возвращаемое значение функции усиления, которое больше, чем любое возвращаемое значение функции усиления, возвращаемое упомянутой оконной функцией усиления, если значение аргумента оконной функции меньше, чем нижний порог, или больше, чем верхний порог.

7. Система по п. 6,

в которой оконная функция усиления каждого из упомянутых двух или более выходных аудиосигналов имеет один или более глобальных максимумов, являющихся одним из значений аргумента функции усиления упомянутой оконной функции усиления, при этом для каждого из упомянутых одного или более глобальных максимумов упомянутой оконной функции усиления не существует никакое другое значение аргумента функции усиления, для которого упомянутая оконная функция усиления возвращает более большое возвращаемое значение функции усиления, чем для упомянутых глобальных максимумов, и

при этом для каждой пары из первого выходного аудиосигнала и второго выходного аудиосигнала из упомянутых двух или более выходных аудиосигналов по меньшей мере один из упомянутых одного или более глобальных максимумов оконной функции усиления первого выходного аудиосигнала является равным одному из упомянутых одного или более глобальных максимумов оконной функции усиления второго выходного аудиосигнала.

8. Система по п. 6,

в которой модуль (104) вычисления функций усиления сконфигурирован с возможностью дополнительно принимать информацию ориентации, указывающую угловой сдвиг направления просмотра по отношению к направлению прибытия, и

при этом модуль (104) вычисления функций усиления сконфигурирован с возможностью генерировать функцию усиления панорамирования каждого из выходных аудиосигналов в зависимости от информации ориентации.

9. Система по п. 8, в которой модуль (104) вычисления функций усиления сконфигурирован с возможностью генерировать оконную функцию усиления каждого из выходных аудиосигналов в зависимости от информации ориентации.

10. Система по п. 6,

в которой модуль (104) вычисления функций усиления сконфигурирован с возможностью дополнительно принимать информацию масштабирования, при этом информация масштабирования указывает угол раскрыва камеры, и

при этом модуль (104) вычисления функций усиления сконфигурирован с возможностью генерировать функцию усиления панорамирования каждого из выходных аудиосигналов в зависимости от информации масштабирования.

11. Система по п. 10, в которой модуль (104) вычисления функций усиления сконфигурирован с возможностью генерировать оконную функцию усиления каждого из выходных аудиосигналов в зависимости от информации масштабирования.

12. Система по п. 6,

в которой модуль (104) вычисления функций усиления сконфигурирован с возможностью дополнительно принимать параметр калибровки для выравнивания визуального изображения и акустического изображения, и

при этом модуль (104) вычисления функций усиления сконфигурирован с возможностью генерировать функцию усиления панорамирования каждого из выходных аудиосигналов в зависимости от параметра калибровки.

13. Система по п. 12, в которой модуль (104) вычисления функций усиления сконфигурирован с возможностью генерировать оконную функцию усиления каждого из выходных аудиосигналов в зависимости от параметра калибровки.

14. Система по п. 2,

в которой модуль (104) вычисления функций усиления сконфигурирован с возможностью принимать информацию о визуальном изображении, и

при этом модуль (104) вычисления функций усиления сконфигурирован с возможностью генерировать, в зависимости от информации о визуальном изображении, функцию размытия, возвращающую комплексные усиления, чтобы реализовать перцепционное рассеивание источника звука.

15. Способ для генерирования одного или более выходных аудиосигналов, содержащий:

прием сигнала прямых компонент, содержащего компоненты прямых сигналов из двух или более исходных аудиосигналов,

прием сигнала диффузных компонент, содержащего компоненты диффузных сигналов из упомянутых двух или более исходных аудиосигналов,

прием информации направления, при этом упомянутая информация направления зависит от направления прибытия компонент прямых сигналов из упомянутых двух или более исходных аудиосигналов,

генерирование одного или более обработанных диффузных сигналов в зависимости от сигнала диффузных компонент,

для каждого выходного аудиосигнала из упомянутых одного или более выходных аудиосигналов определение, в зависимости от направления прибытия, усиления прямого звука, применение упомянутого усиления прямого звука к сигналу прямых компонент, чтобы получать обработанный прямой сигнал, и комбинирование упомянутого обработанного прямого сигнала и одного из упомянутых одного или более обработанных диффузных сигналов, чтобы генерировать упомянутый выходной аудиосигнал, и

вывод упомянутых одного или более выходных аудиосигналов,

при этом генерирование упомянутых одного или более выходных аудиосигналов содержит вычисление одной или более функций усиления, при этом каждая функция усиления из упомянутых одной или более функций усиления содержит множество значений аргумента функции усиления, при этом возвращаемое значение функции усиления назначено каждому из упомянутых значений аргумента функции усиления, при этом, когда упомянутая функция усиления принимает одно из упомянутых значений аргумента функции усиления, упомянутая функция усиления сконфигурирована с возможностью возвращать возвращаемое значение функции усиления, которое назначено упомянутому одному из упомянутых значений аргумента функции усиления, и

при этом генерирование упомянутых одного или более выходных аудиосигналов содержит выбор, в зависимости от направления прибытия, зависящего от направления значения аргумента из значений аргумента функции усиления для функции усиления из упомянутых одной или более функций усиления, для получения возвращаемого значения функции усиления, которое назначено упомянутому зависящему от направления значению аргумента, от упомянутой функции усиления и для определения значения усиления по меньшей мере одного из упомянутых одного или более выходных аудиосигналов в зависимости от упомянутого возвращаемого значения функции усиления, полученного от упомянутой функции усиления.

16. Способ по п. 15, в котором способ дополнительно содержит:

прием двух или более входных аудиосигналов, которые являются упомянутыми двумя или более исходными аудиосигналами,

генерирование сигнала прямых компонент, содержащего компоненты прямых сигналов из упомянутых двух или более исходных аудиосигналов, и

генерирование сигнала диффузных компонент, содержащего компоненты диффузных сигналов из упомянутых двух или более исходных аудиосигналов.

17. Машиночитаемый носитель, имеющий компьютерную программу для осуществления способа по п. 15 или 16, когда исполняется на компьютере или сигнальном процессоре.



 

Похожие патенты:

Изобретение относится к средствам для рендеринга многоканального аудиоконтента. Технический результат заключается в повышении качества генерируемого аудиоконтента.

Изобретение относится к области обработки звуковых сигналов. Технический результат – повышение вычислительной эффективности понижающего микширования входных сигналов за счет предотвращения создания искажений.

Изобретение относится к области стереофонического воспроизведения. Технический результат – обеспечение более гибкого распределения стереофонических передаточных функций с учетом положений головы.

Изобретение относится к средствам для пространственного повышающего микширования. Технический результат заключается в повышении эффективности кодирования.

Изобретение относится к метрологии, в частности к устройствам для оценки размеров помещения. Устройство содержит приемник звука, фиксирующий акустический отклик, пиковый детектор, выполненный с возможностью детектировать набор пиков, присутствующих в акустическом отклике, средство хранения информации содержит набор профилей пиков с ассоциированными данными о размерах помещения, а средство оценки определяет оценку размеров помещения из ассоциированных данных о размерах помещения и путем сравнения набора пиков с профилями пиков.

Изобретение относится к обработке аудиоданных. Технический результат изобретения заключается в улучшенной обработке сигналов звуковых объектов за счет указания местоположения каждого динамика внутри среды проигрывания.

Изобретение относится к обработке аудиосигнала. Технический результат - уменьшение искажения звукового сигнала.

Изобретение относится к обработке аудиоданных. Технический результат изобретения заключается в возможности разделения рассеянных и нерассеянных частей N входных звуковых сигналов.

Изобретение относится к области кодирования/декодирования аудиоданных, в особенности к пространственному объектному кодированию аудиоданных, например к области трехмерных систем кодирования/декодирования аудиоданных.

Изобретение относится к области кодирования аудиосигналов и предназначено для преобразования первого и второго входных каналов в один выходной канал, и в частности, предназначено для использования при преобразовании формата между различными конфигурациями каналов громкоговорителей.

Изобретение относится к акустике, в частности к слуховым аппаратам, имеющим защиту от попадания влаги. Водонепроницаемый акустический порт содержит герметичную камеру внутри корпуса, впускные микротрубки, расположенные в стенке корпуса, гидрофобное покрытие, перекрывающее по меньшей мере часть стенок впускной микротрубки.

Изобретение относится к способу преобразования звукового сигнала в сигнал, способный компенсировать потерю слуха человека с нарушением слуха, с использованием слухового прибора с приемником, блоком обработки и передатчиком, при этом упомянутый способ содержит следующие этапы: a) принимают входной сигнал приемником, причем упомянутый входной сигнал является характерным для звукового сигнала; b) обрабатывают принятый сигнал блоком обработки, причем упомянутая обработка содержит этап фильтрации; и c) обеспечивают обработанный сигнал передатчиком; причем этап обработки дополнительно содержит этап возведения в квадрат принятого сигнала, причем фильтрации подвергают квадратичный сигнал.

Изобретение относится к области медицинского оборудования и предназначено для диагностики и лечения нейросенсорной тугоухости. Аппарат содержит генератор колебаний ультразвуковой частоты, полосовой фильтр, усилитель с дискретно регулируемым коэффициентом усиления, усилитель мощности, датчик тока, преобразователь тока в напряжение, блок коммутации, амплитудный детектор тока и амплитудный детектор напряжения.

Изобретение относится к медицинской технике, а именно к системам для электрической стимуляции нерва и кохлеарным имплантатам. Способ одновременной активации электродов заключается в вычислении амплитуд импульсов электродов многоканальной матрицы с помощью параметров пространственного взаимодействия каналов.

Изобретение относится к тренажерам, в частности к способам тренировки навыков психофизиологического состояния человека и к устройствам для тренировки навыков расслабления или активизации психофизиологических процессов.

Изобретение относится к способу обеспечения пользователя слуховым аппаратом, адаптированным к индивидуальным потребностям пользователя слухового аппарата, согласно преамбуле п.1 формулы настоящего изобретения.

Изобретение относится к медицинской технике, а именно к матрицам для датчиков и имплантируемых устройств. .

Изобретение относится к средствам для кодирования и декодирования аудиосигналов. Технический результат заключается в повышении качества кодированного аудиосигнала.

Изобретение относится к средствам для воспроизведения акустической сцены. Технический результат заключается в повышении эффективности обработки аудиосигнала. Принимают сигнал прямых компонент, содержащий компоненты прямых сигналов из двух или более исходных аудиосигналов. Принимают сигнал диффузных компонент, содержащий компоненты диффузных сигналов из упомянутых двух или более исходных аудиосигналов. Принимают информацию направления, при этом упомянутая информация направления зависит от направления прибытия компонент прямых сигналов из упомянутых двух или более исходных аудиосигналов. Генерируют один или более обработанных диффузных сигналов в зависимости от сигнала диффузных компонент. Для каждого выходного аудиосигнала из упомянутых одного или более выходных аудиосигналов определяют в зависимости от направления прибытия усиление прямого звука, применяют упомянутое усиление прямого звука к сигналу прямых компонент, чтобы получить обработанный прямой сигнал. 3 н. и 14 з.п. ф-лы, 21 ил.

Наверх