Способ улучшения плотной и разреженной карт диспарантности, точности реконструируемой трехмерной модели и устройство для реализации способа

Изобретение относится к области реконструкции трехмерных объектов и сцен путем обработки их двухмерных изображений, полученных с разных точек наблюдения. Техническим результатом является улучшение качества карт диспарантности и точности реконструируемой трехмерной модели за счет упрощения задачи сопоставления элементов стереопар. В способе и устройстве методами компьютерной графики первичная трехмерная модель проецируется (отображается, осуществляется рендеринг) на виртуальные позиции наблюдения, совпадающие с позициями точек съемки исходных изображений. Осуществляется расчет декодирующей текстуры, позволяющей ассоциировать координаты пикселей проекции с параметрами геометрических лучей, выпущенных к соответствующим точкам трехмерной модели. Осуществляется стереосопоставление фактических изображений с соответствующими отображенными проекциями. Осуществляется уточнения трехмерных координат цифровой модели путем трансляции найденных таким образом диспарантностей, имеющих физический смысл ошибок обратного проектирования, в поправки к трехмерной модели при помощи декодирующего изображения. Процесс может происходить итеративно до сходимости, в ходе него будет получена более точная плотная и разреженная карты диспарантности и трехмерная модель. 2 н. и 7 з.п. ф-лы, 15 ил.

 

Изобретение относится к средствам формирования трехмерных моделей (3D-моделей) на основе двумерных изображений, полученных от камер, а именно к способу улучшения плотной и разреженной карт диспарантности, точности реконструируемой трехмерной модели и устройству для реализации способа.

В настоящее время все чаще и чаще возникает потребность в формировании различных трехмерных моделей, которые могут применяться для различных целей в разных областях. Для этого разработано и существует множество способов и устройств формирования трехмерных сцен.

Задача реконструкции трехмерных поверхностей объектов и сцен по двухмерным изображениям актуальна на данный момент в связи с потребностями технологий визуализации трехмерных данных, индустрии развлечений, медицины и других областей. Существующий уровень техники располагает достаточным количеством стереоскопических методов построения карт диспарантностей (англ. "disparity map") и их улучшения методами фильтрации, поскольку карты диспарантностей в сочетании с информацией о параметрах камер, осуществлявших съемку стереопар, позволяют построить трехмерную модель наблюдаемой сцены и содержащихся в ней объектов.

Всевозможным проблемам вычисления карт диспарантностей посвящается множество публикаций, проанализированных в обзорных работах, посвященных классификации и сравнению различных подходов ([1] D.Scharstein and R.Szeliski, "A taxonomy and evaluation of dense two-frame stereo correspondence algorithms", International Journal of Computer Vision 47 (1/2/3), pp.7-42, 2002, [2] Myron Z.Brown, Darius Burschka and Gregory D.Hager, "Advances in Computational Stereo", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.25, NO.8, August 2003).

Построение плотных карт диспарантностей (dense disparity maps) связано с применением прямоугольных окрестностей пикселей для оценки степени корреляции элементов сопоставляемых изображений. Для построения разреженных карт диспарантностей (sparse disparity maps) путем сопоставления ключевых точек (feature points) на изображениях применяются масштабонезависимые и инвариантные к поворотам дескрипторы ([3] Lowe, David G. (1999). "Object recognition from local scale-invariant features". Proceedings of the International Conference on Computer Vision. 2. pp.1150-1157, [4] David Gossow, Peter Decker and Dietrich Paulus, "An Evaluation of Open Source SURF Implementations", Lecture Notes in Computer Science, 2011, Volume 6556/2011, 169-179), которые обычно являются опорными для последующего построения плотных карт диспарантностей ([5] Ju Yong Chang, Kyoung Mu Lee, Sang Uk Lee. Stereo matching using iterative reliable disparity map expansion in the color-spatial-disparity space. Pattern Recognition 40(12): 3705-3713 (2007)).

Однако при наблюдении объектов с разных ракурсов пропорции двухмерных изображений объектов, составляющих их элементов и текстур отличаются. Например, прямоугольный участок одного изображения может соответствовать трапециевидному участку на другом, при этом форма соответствующего участка зависит от трехмерного расположения данного элемента трехмерного объекта; наблюдаемая с одной точки наблюдения окружность может выглядеть как эллипс с другой (см. пример на ФИГ.2). Это приводит к двум осложнениям. Во-первых, в ходе построения плотной карты диспарантностей вычисление корреляции обычным методом при помощи скользящих окон одинаковой формы для обоих сопоставляемых изображений может давать неоптимальное решение, так как для соответствующих пикселей окрестности не представляются схожими. Во-вторых, поиск соответствий ключевых точек на изображениях от разных точек наблюдения по дескрипторам, устойчивым к поворотам и изменению масштаба, позволяет найти меньшее число соответствий из-за присутствия проективных искажений. Вычисление дескрипторов, инвариантных к проективным искажениям, на практике нецелесообразно, так как многократно увеличит объем вычислений. С ростом базы, то есть расстояния между точками съемки, проблема усугубляется, так как 2D-изображения объектов получаются заснятыми под существенно различающимися углами. Актуальность изобретения повышается в связи с тем, что для получения более точных трехмерных моделей желательно увеличение базы между точками съемки для увеличения точности определения трехмерных координат точек поверхностей объектов методом триангуляции.

Способам уточнения карт диспарантностей и трехмерных моделей посвящается множество таких изобретений, как: US 2006056727 A1, WO 2009069958 A2, US 2011080466 A1, KR 20110090488 A, WO 2009125988 A2, RU 2010103906 A, US 2011222756 A1, US 7561732 B1, KR 20070061094 A, WO 2008029345 A1, CN 101557534 A, US 2010309292 A1, US 2005190180 A1, SU 1830447 A1, SU 1793226 A1, KR 20020095752 A, WO 2004049255 A2, US 2004105580 A1, KR 20070061011 A, US 2011026809 A1, US 2005286758 A1, KR 100943635 B1, WO 2009008864 A1, US 2009324059 A1, WO 2011104151 A1, WO 2011104151 A1, WO 2011081646 A1, KR 20050058085 A, WO 2009134155 A1, RU 2008144840 A, KR 20100088774 A, US 6046763 A, US 2004223640 A1, US 2003091225 A1, WO 2006046180 A1, US 2010182406 A1, JP 2009043221 A, US 2009067705 A1, KR 100762670 B1, US 2011044531 A1, US 2006029270 A1, US 2011080464 A1, WO 2008156450 A1, US 2010208034 A1, US 2009073170 A1, WO 2009061305 A1, US 2006140510 A1, WO 2009124663 A1, KR 20080052363 A, WO 2010007285 A1, US 2010020178 A1, RU 2382406 C1, GB 2478156 A, KR 20100049855 A, US 2010220932 A1, RU 2009110511 A, US 2007286476 A1, WO 2010028718 A2, RU 2008144840 A, RU 2009110511 A, JP 2006012166 A, WO 2011103865 A2, WO 2011118077 A1, WO 2011123174 A1, US 2011304708 A1, WO 2011157454 A1, US 2011091096 A1, WO 2008075271 A2, US 4695156 A, KR 100257335 B1, US 2010053416 A1, KR 20100135032 A, WO 2011014229 A1, KR 20110055020 A. Однако в данных изобретениях в отличие от предлагаемого способа:

(а) синтетические виды (virtual view) производятся только как конечный результат, служащий целью просмотра человеком трехмерной сцены с различных точек наблюдения, а не для целей сопоставления с оригинальными изображениями;

(б) не адресуется проблема перспективных искажений в сопоставляемых изображениях;

(в) модули генерации синтетических видов не рассчитывают декодирующие текстуры;

(г) не предлагается вычислять декодирующее изображение (текстуру) и применять его для трансляции диспарантностей между оригинальными и синтетическими видами в поправки к исходным картам диспарантностей.

Например, в патенте RU 2382406 C1, как и во многих аналогичных патентах из приведенного выше списка, рендерер (отрисовщик, генератор) виртуального вида упомянут, но не имеет обратной связи к блоку вычисления диспарантностей и не осуществляет расчет декодирующего изображения. То есть является только средством отображения информации и не принимает участия в расчетах самой карты диспарантности или ее улучшений. В патенте RU 2419880 C2 в обратной связи, обеспечивающей итеративное улучшение карты диспарантностей, рендерер вида не упомянут, то есть виртуальный вид и декодирующая текстура, как источник дополнительной информации для уточнения карты диспарантности, не рассматривается.

В заявке US 2010295853, опубликована 25.11.2010, описываются способ и система построения трехмерной модели на основе карты глубины и рендеринга.

Однако в известном способе и системе не осуществляется обработка получаемого от камеры изображения путем удаления движущихся объектов, не составляется карта диспаритетов, которая затем учитывается при построении трехмерной модели, а также не осуществляется наложение различных дополнительных объектов.

В статье Sang-Beom LEE, Sung-Yeol KIM и Yo-Sung HO «Multi-view image generation from depth maps and texture images using adaptive smoothing filter», The 2008 International conference on Embedded Systems and Intelligent Technology, February 27-29, 2008, Grand Mercure Fortune Hotel, Bangkok, Thailand, найдена в Интернете по адресу http://imaging.utk.edu/people/sykim/paper/2008_ICESIT_sblee.pdf, описывается способ формирования трехмерной сцены с использованием процесса сглаживания путем удаления пустот, построения карты глубины и рендеринга.

Однако в известном способе не осуществляется обработка получаемого от камеры изображения путем удаления движущихся объектов, не составляется карта диспаритетов, которая затем учитывается при построении трехмерной модели, а также не осуществляется наложение различных дополнительных объектов.

В патенте RU 2423018, опубл. 27.06.2011, описывается способ и система построения трехмерной модели. Для построения трехмерной модели вычисляется карта диспарантности исходного изображения и карта глубины, после чего выполняют сглаживание карты глубины и формируют трехмерную модель.

Однако в этом патенте не раскрываются такие этапы, как удаление движущихся объектов с последующим заполнением пустых мест, образованных после удаления объектов. Также в этом патенте не описывается этап выполнения рендеринга с наложением различных дополнительных объектов на карту диспаритетов.

Задача, на решение которой направлено заявляемое изобретение, заключается в улучшении качества карт диспарантности и точности реконструируемой трехмерной модели за счет упрощения задачи сопоставления элементов стереопар, что достигается путем устранения отличий в пропорциях и масштабах двухмерных изображений объектов, составляющих их элементов и текстур, обусловленных наблюдением сцены с разных ракурсов и расстояний.

Техническим результатом, достигаемым заявленным изобретением, является обеспечение улучшенной системы, способа и машиночитаемого носителя, которые предоставляют расширенные возможности по формированию трехмерных моделей на основе изображений, полученных от камер, с возможностью наложения дополнительных объектов на эти модели, отсутствующих в изображениях, получаемых от камер, без потери реалистичности изображения.

Дополнительным техническим результатом является сокращение времени на обработку изображений от камер за счет использования кластеров и распределения заданий между этими кластерами.

Указанный технический результат достигается тем, что предложен способ и устройство уточнения карты диспарантности (ФИГ.1).

При этом способ улучшения плотной и разреженной карт диспарантности, точности реконструируемой трехмерной модели включает выполнение следующих операций:

методами компьютерной графики первичную трехмерную модель проецируют (отображают, осуществляют рендеринг) на виртуальную позицию наблюдения, совпадающую с позицией точки съемки первого исходного изображения стереопары, используя в качестве текстуры второе исходное изображение стереопары;

в ходе проецирования осуществляют расчет декодирующей текстуры, позволяющей ассоциировать координаты пикселей проекции с параметрами геометрических лучей, выпущенных к соответствующим точкам трехмерной модели;

осуществляют стереосопоставление фактических изображений с соответствующими отображенными проекциями, при этом методы построения плотных карт диспарантностей и поиска точечных соответствий (разреженной карты диспарантности) работают более продуктивно и в состоянии найти большее число соответствий, чем при сопоставлении исходных изображений;

транслируют найденные таким образом диспарантности между оригинальным и синтетическим изображением (проекцией), имеющие физический смысл ошибок обратного проектирования, в поправки к исходной плотной и/или разреженной карте диспарантности при помощи декодирующей текстуры;

осуществляют пересчет трехмерной модели на основе уточненной карты диспарантности.

Дополнительно, первоначальное приближение трехмерной модели строят при помощи сопоставления других стереопар, полученных в ходе съемки сцены с множества различных точек съемки, операцию, изложенную в п.1 формулы, производят попарно для нескольких или всех точек съемки сцены или повторяют итеративно, вплоть до сходимости (до отсутствия значимых изменений-улучшений в карте диспарантности). Кроме того, для получения исходных изображений используются сферические или цилиндрические камеры; исходную карту диспарантности подвергают фильтрации медианным фильтром или иным фильтром, осуществляющим выравнивание карты диспарантности для исключения импульсного шума; для вычисления (рендеринга) виртуального вида и декодирующей текстуры применяется графический процессор (GPU) и одна из аналогичных технологий программирования графических процессоров или реализации шейдеров (Cg, CUDA, Direct3D, DirectCompute, DirectX, OpenGL, GLSL и т.п.).

Способ может включать то, что исходные изображения получаются съемкой сцены не одной камерой из различных точек, а набором камер, находящихся в различных точках сцены.

Технический результат обеспечивается также тем, что устройство для улучшения плотной и разреженной карт диспарантности, точности реконструируемой трехмерной модели включает:

блок формирования исходной трехмерной модели из исходной карты диспарантности и известных параметров камер, осуществлявших съемку;

блок рендеринга виртуального вида, осуществляющего расчет проекции виртуального вида трехмерной модели, совпадающего с исходной точкой съемки, и соответствующей декодирующей текстуры, позволяющей ассоциировать координаты пикселей проекции с параметрами геометрических лучей, выпущенных к соответствующим точкам трехмерной модели;

блок вычисления плотной и разреженной карт диспарантностей между оригинальным изображением и синтетической проекцией;

блок декодирования (трансляции) карты диспарантности в поправки к исходной карте диспарантности при помощи декодирующего изображения.

При этом методами компьютерной графики первичная трехмерная модель, построенная на основе входной карты диспарантности, проецируется (отображается, осуществляется рендеринг) на виртуальные позиции наблюдения, совпадающие с позициями точек съемки исходных изображений. Важную часть изобретения составляет расчет декодирующей текстуры в ходе проецирования, позволяющей ассоциировать координаты пикселей проекции с параметрами геометрических лучей, выпущенных к соответствующим точкам трехмерной модели. Осуществляется стереосопоставление фактических изображений с соответствующими отображенными проекциями. При этом методы построения плотных карт диспарантностей и поиска точечных соответствий (разреженной карты диспарантности) работают более продуктивно и в состоянии найти большее число соответствий, чем при сопоставлении исходных изображений. Это позволяет осуществить уточнение трехмерных координат цифровой модели путем трансляции найденных таким образом диспарантностей, имеющих физический смысл ошибок обратного проектирования, в поправки к трехмерной модели при помощи декодирующего изображения. Процесс может происходить итеративно до сходимости, в ходе него будет получена более точная плотная и разреженная карты диспарантности и трехмерная модель.

Способ можно описать и в виде этапов, на которых:

а) расщепляют каждое изображение, полученное от каждой камеры, на три изображения;

б) фильтруют расщепленные изображения, полученные на этапе а), путем удаления движущихся объектов с каждого расщепленного изображения и объединяют отфильтрованные три изображения в одно изображение;

в) разделяют каждое объединенное изображение, полученное на этапе б), для каждой камеры на непересекающиеся блоки;

г) составляют карту диспаритетов для каждого разделенного изображения, полученного на этапе в), на основе кросс-корреляции;

д) объединяют фрагменты карты диспаритетов для формирования вновь объединенного изображения;

е) выбирают значения карты диспаритетов, которые больше заданного значения;

ж) осуществляют фильтрацию упомянутой карты диспаритетов путем удаления частей изображения, в которых диспаритет часто меняется, и заполняют полученные пустые места с учетом средних значений областей, находящихся рядом с границами пустых мест;

з) сглаживают каждое отфильтрованное изображение, полученное на этапе ж);

и) строят карту глубины для каждого изображения, полученного на этапе з);

к) формируют трехмерную модель путем объединения изображений, полученных на этапе з), для всех камер с учетом полученной карты глубины и выполнения рендеринга объединенных изображений с наложением, по меньшей мере, одного дополнительного объекта на полученное объединенное изображение.

В частном варианте выполнения способа, изображения получают от семи камер. Камеры имеют два положения: верхнее и нижнее. Каждая камера формирует два изображения, которые смещены относительно друг друга по вертикальной оси.

Для расщепления изображения, выполняемого на этапе а), применяют метод кросс-корреляции. При этом фильтрацию расщепленного изображения выполняют путем попиксельного сравнения трех изображений, полученных от каждой камеры, и выбора среднего значения пикселя.

На этапе г) непересекающиеся блоки, полученные на этапе в), распределяются по узлам кластера. При этом кластеры являются многопоточными или однопоточными.

Кросс-корреляцию, применяемую на этапе г), выполняют путем перемещения шаблона-окна определенного размера по изображению, полученному от верхней камеры, и сравнения изображения в шаблоне-окне с изображением от нижней камеры. Диспаритет, определяемый на этапе г), определяется как функция сдвига по изображению. Причем объединение изображений на этапе к) выполняют в соответствии с алгоритмом разбиения, выполняемым на этапе в).

Заданное значение, используемое на этапе е), является значением корреляции. При этом частями изображения, в которых диспаритет часто меняется, являются области соединения двух фрагментов изображений места, где стоят упомянутые камеры, или другие предметы.

Заполнение пустых мест, выполняемое на этапе ж), осуществляют итерационно.

Каждая камера формирует два изображения, каждое из которых является панорамой 1105°×180°. Каждое расщепленное изображение, полученное на этапе а), имеет размер 360°×180°.

Таким образом, в отличие от известных из уровня техники способов и устройств, заявляемое изобретение представляет собой устройство и способ для улучшения карты диспарантности, основанные на сопоставлении схожих по геометрии синтетических и реальных изображений и позволяющие избежать неэффективности работы алгоритмов сопоставления элементов стереоизображений, обусловленной различиями в ракурсах съемки. Дополнительным положительным эффектом данного изобретения является сокращение диапазона поиска диспарантностей по координате x и y, так, требуемый диапазон поиска величины диспарантности пикселей между синтетическим и реальным изображениями пропорционален величине ошибки в исходной карте диспарантности, которая, как правило, значительно ниже, чем диапазон изменения диспарантности в ходе расчета исходной карты диспарантности. Этот положительный эффект особенно важен в случае, если эпиполярные линии для сопоставления исходных изображений не являются прямыми линиями (например, если съемка производилась сферическими камерами).

Далее существо заявляемого технического решения поясняется в деталях с привлечением графических материалов.

Фиг.1. Общая принципиальная схема заявляемого устройства.

Фиг.2. Иллюстрация проблемы сопоставления стереоскопических изображений, связанной с перспективными искажениями проекций, полученных при различающихся ракурсах съемки.

Фиг.3. Пояснение принципа синтеза декодирующего изображения и сопоставления реальных и синтетических изображений (видов сцены).

Фиг.4. Перечень входных и выходных сигналов предлагаемого устройства.

Фиг.5. Внутренняя структура предлагаемого устройства с описанием работы составляющих его блоков.

Фиг.6. Пример изображения «Mountain», снятого в точке А.

Фиг.7. Пример изображения, снятого в точке Б.

Фиг.8. Пример синтетического вида из точки А, полученного с использованием изображения Б, в качестве текстуры, исходной трехмерной модели и данных о параметрах камер (внутренних и внешних). Очевидность сходства с фактическим изображением, полученным из точки А.

Фиг.9. Визуализация точечных соответствий, полученных для синтеза разреженной карты диспарантностей, в случае сопоставления оригинальных изображений А и В.

Фиг.10. Визуализация примера точечных соответствий, полученных в ходе сопоставления изображения "Mountain" А, и синтетического вида модели, полученной из точки А (изображение А*).

Фиг.11. Визуализация точечных соответствий для примера «NYS», полученных с использованием сопоставления исходных изображений А и В.

Фиг.12. Визуализация точечных соответствий для примера «NYS», полученных в ходе сопоставления изображения А, и синтетического вида модели, полученной из точки А (изображение А*).

Фиг.13. Пример входной карты диспарантности «NYS», построенной методом SAD.

Фиг.14. Улучшенная предложенным способом плотная карта диспарантности «NYS».

Фиг.15. Столбчатая диаграмма числа найденных точечных соответствий разреженной карты диспарантностей для примеров «Mountain» и «NYS» в случае сопоставления исходных видов, или видов, полученных в результате применения предложенного в данном изобретении способа.

На Фиг.2 видно, что камера, наблюдающая трехмерный объект «3D OBJECT» «справа», формирует проекцию В, которая имеет существенные отличия от проекции А, сформированной «левой» камерой. Известные из уровня техники методы сопоставления таких стереопар, применяющие прямоугольные окна для сопоставления (корреляции, совмещения) элементов изображений, будут работать неэффективно, так как они предполагают незначительность геометрических искажений элементов в рамках окна поиска соответствия.

Для преодоления указанной проблемы в данном способе предлагается формировать для сопоставления изображения В с изображением А синтетическое изображение А*, представляющее собой проекцию для виртуальной точки наблюдения CA трехмерной модели сцены с наложенной на нее текстурой в виде изображения В, полученного из точки наблюдения CB (см. Фиг.3). Если трехмерная модель сцены, использованная для синтеза проекции А*, является приближением к истинной трехмерной модели, то проекция А* будет схожа с исходным изображением А и известные из уровня техники методы построения плотных карт диспарантности (такие как SAD, например), а также методы построения разреженных карт диспарантностей (поиск соответствующих ключевых точек по дескрипторам) будут работать существенно более эффективно, поскольку основные отличия пропорций элементов изображений, связанных с отличающимся ракурсом наблюдения, будут устранены. Степень отличия пропорций будет уменьшаться с улучшением качества трехмерной модели, что позволяет использовать предложенный способ в итеративном режиме. В идеальном (предельном, асимптотическом) случае, если отсутствуют ошибки в определенных положениях (точек съемки) и значениях внутренних параметров камер, трехмерные модели изображения А и А* должны попиксельно совпасть. Различия в изображениях А и А* суть карта диспарантностей между А и А*, которая может быть транслирована в поправки к карте диспарантностей между А и В по формуле:

где x - двумерный координатный вектор {х,у};

DAB(x)* - новые значения карты диспарантности между изображениями A и B (вектор-функция, имеющая две компоненты, - диспарантность по оси x и диспарантность по оси у изображения);

DAA*(x) - значение карты диспарантности между А и А* (аналогичная по возвращаемым значениям вектор-функция диспарантностей по осям x и y);

U(x) - вектор-функция (декодирующая текстура), рассчитанная модулем синтеза виртуального вида, значения которой суть значения координат пикселей текстуры В, цвет которых определил цвет пикселя проекции А* с координатой х. Поскольку процесс наложения текстуры известен из уровня техники, можно считать доказанным возможность построения U(x), так как для отображения пикселя x проекции А* в ходе процесса наложения текстуры (определения цвета пикселя x) необходимо получить доступ на чтение к соответствующему элементу текстуры (которым является изображение В), следовательно, необходим расчет адреса текстуры, который по сути и является (с точностью до известного линейного преобразования) значением U(x). На практике, наиболее удобно реализовать расчет U(x) при помощи шейдеров графического процессора, что является понятным для специалиста в области компьютерной графики.

Для повышения устойчивости процесса сходимости формула (1) может быть модифицирована путем слияния нового и предыдущего значений карт диспарантностей по формуле

,

где Ф - решающее правило, по которому происходит слияние старых и новых значений диспарантности (например, могут быть разрешены только незначительные изменения диспарантности, не превышающие порога или относительной степени изменения, выраженные в процентном отношении к самой величине диспарантности, и т.п.). Частным случаем функции Ф является взвешенная сумма

,

где параметр k=0…1 имеет физический смыл скорости сходимости.

Симметричность процедуры относительно изображений А и В позволяет получить способ уточнения карты диспарантности DBA(x)* путем смены мест переменных А и В.

Таким образом, для осуществления вышеописанной процедуры необходимо иметь следующий набор входных данных (см. Фиг.4): исходные изображения (стереопара); исходные карты диспарантности, полученные известным уровнем техники, которые играют роль первых приближений; параметры камер.

Принципиальная схема устройства, осуществляющего указанный способ, отражена на Фиг.5. Блок А1 осуществляет известным из уровня техники методом формирование трехмерной модели исходя из полученных данных о параметрах камеры (точки съемки) Б и карты диспарантности. Выходом модуля является трехмерная модель сцены в мировой системе координат, которая подается в блок А2, осуществляющий ее рендеринг в виртуальный вид А*, являющийся видом на трехмерную модель из позиции А (используя для этого параметры камеры А), накладывая изображение Б в качестве текстуры модели. Блок А2 имеет два выходных сигнала. Помимо синтеза изображения А*, блок А2 осуществляет расчет декодирующей текстуры U(x) в соответствии с данным выше определением. Первый выход блока А2 (изображение А*) подключен к блоку A3. А второй выход блока А2 (декодирующая текстура) подключен к блоку А4. Блок A3 осуществляет вычисление разреженной и плотной карт диспарантностей между изображениями А и А* одним из известных специалисту способов (например, при помощи SAD). Блок А4 осуществляет декодирование карты диспарантности АА* с применением декодирующего изображения, выполняя вычисления по формуле (1), выходом блока А4 является улучшенное значение карт диспарантностей для точки наблюдения А.

На Фиг.6-15 показаны примеры технического результата применения данного способа. Фиг.6 показывает пример оригинального изображения А сцены под кодовым названием «Mountain». Фиг.7 показывает пример оригинального изображения Б, полученного с другой точки съемки. Фиг.8 показывает синтетический вид модели, текструрированной изображением Б с точки наблюдения А. Видно, что пропорции элементов объектов на изображении на Фиг.8 в значительной мере больше соответствуют наблюдаемым пропорциям элементов на Фиг.6. На Фиг.9 отражены результаты запуска процесса поиска точечных соответствий на изображении с применением дескрипторов ключевых точек, инвариантных к масштабу и повороту (построение разреженной карты диспарантности). Фиг.9 представляет собой наложенные друг на друга изображения А и Б, совмещенные ключевые точки которых соединены линиями. Фиг.10 представляет собой аналогичную картину, но для изображений АА*. Видно, что на Фиг.10 количество линий в несколько раз больше, а значит, и найденных соответствий, и следовательно, качество разреженной карты диспарантности лучше, чем на Фиг.9. Также видно, что линии, соединяющие точки на Фиг.10, существенно короче, что позволяет использовать локальность для уточнения и упрощения поиска соответствий. Аналогичные примеры приведены для сцены под кодовым названием «NYS» (Фиг.11 и Фиг.12). На Фиг.13 показана исходная плотная карта диспарантности для точки А сцены «NYS», полученная методом SAD. На Фиг.14 показана улучшенная предлагаемым в данной заявке способом карта диспарантности после трех итераций работы устройства. Визуально наблюдается уменьшение числа артефактов, спеклов и увеличение степени детализации некоторых элементов карты диспарантности. Количественная характеристика увеличения в результате применения способа числа найденных соответствий для сцен «Mountain» и «NYS» приведена на Фиг.15 и отражает приблизительно трехкратное увеличение количества найденных соответствий (столбики диаграммы для сцены «Moutain» были увеличены в 10 раз для удобства восприятия).

1. Способ улучшения плотной и разреженной карт диспарантности, точности реконструируемой трехмерной модели, включающий в себя выполнение следующих операций:
методами компьютерной графики первичную трехмерную модель проецируют (отображают, осуществляют рендеринг) на виртуальную позицию наблюдения, совпадающую с позицией точки съемки первого исходного изображения стереопары, используя в качестве текстуры второе исходное изображение стереопары;
в ходе проецирования осуществляют расчет декодирующей текстуры, позволяющей ассоциировать координаты пикселей проекции с параметрами геометрических лучей, выпущенных к соответствующим точкам трехмерной модели;
осуществляют стереосопоставление фактических изображений с соответствующими отображенными проекциями, при этом методы построения плотных карт диспарантностей и поиска точечных соответствий (разреженной карты диспарантности) работают более продуктивно и в состоянии найти большее число соответствий, чем при сопоставлении исходных изображений;
транслируют найденные таким образом диспарантности между оригинальным и синтетическим изображениями (проекциями), имеющие физический смысл ошибок обратного проектирования, в поправки к исходной плотной и/или разреженной карте диспарантности при помощи декодирующей текстуры;
осуществляют пересчет трехмерной модели на основе уточненной карты диспарантности.

2. Способ по п.1, отличающийся тем, что первоначальное приближение трехмерной модели строят при помощи сопоставления других стереопар, полученных в ходе съемки сцены с множества различных точек съемки.

3. Способ по п.1, отличающийся тем, что операцию, изложенную в п.1, производят попарно для нескольких или всех точек съемки сцены.

4. Способ по п.1, отличающийся тем, что операции из п.1 повторяют итеративно, вплоть до сходимости (до отсутствия значимых изменений-улучшений в карте диспарантности).

5. Способ по п.1, отличающийся тем, что для получения исходных изображений используются сферические или цилиндрические камеры.

6. Способ по п.1, отличающийся тем, что исходную карту диспарантности подвергают фильтрации медианным фильтром или иным фильтром, осуществляющим выравнивание карты диспарантности для исключения импульсного шума.

7. Способ по п.1, отличающийся тем, что для вычисления (рендеринга) виртуального вида и декодирующей текстуры применяется графический процессор (GPU) и одна из аналогичных технологий программирования графических процессоров или реализации шейдеров (Cg, CUDA, Direct3D, DirectCompute, DirectX, OpenGL, GLSL, и т.п.).

8. Способ по п.1, отличающийся тем, что исходные изображения получаются не съемкой сцены одной камерой из различных точек, а набором камер, находящихся в различных точках сцены.

9. Устройство для улучшения плотной и разреженной карт диспарантности, точности реконструируемой трехмерной модели, включающее в себя:
блок формирования исходной трехмерной модели из исходной карты диспарантности и известных параметров камер, осуществлявших съемку;
блок рендеринга виртуального вида, осуществляющего расчет проекции виртуального вида трехмерной модели, совпадающего с исходной точкой съемки, и соответствующей декодирующей текстуры, позволяющей ассоциировать координаты пикселей проекции с параметрами геометрических лучей, выпущенных к соответствующим точкам трехмерной модели;
блок вычисления плотной и разреженной карт диспарантностей между оригинальным изображением и синтетической проекцией;
блок декодирования (трансляции) карты диспарантности в поправки к исходной карте диспарантности при помощи декодирующего изображения.



 

Похожие патенты:

Изобретение относится к геологии, строительству и архитектуре, медицине, робототехнике, фотовидеотехнике, киноиндустрии, управлению движением транспорта. .

Изобретение относится к вычислительной технике и, в частности, к системе отображения на экране цифрового макета объекта в виде синтезированного изображения. .

Изобретение относится к фильтрации данных. .

Изобретение относится к средствам формирования ультразвукового медицинского изображения. .

Изобретение относится к созданию компьютерной графики. .

Изобретение относится к графической обработке для устройств обработки интегральных схем. .

Изобретение относится к способам и системам обработки стереоизображений и видеоинформации и, в частности, к способам и устройствам для преобразования стереоконтента в целях снижения усталости глаз при просмотре трехмерного видео.

Изобретение относится к области двумерной/трехмерной комбинированной визуализации. .

Изобретение относится к способам обработки изображений. .

Изобретение относится к области обработки и отображения пространственной информации

Изобретение относится к технологии обработки видео. Заявлены способ и система для решения конкретной задачи преобразования видео из монокулярного в стереоскопическое и из черно-белого - в цветное в полуавтоматическом режиме. При этом способ выделения ключевых кадров и дополнения видео последовательности информацией о глубине или цвете включает в себя следующие операции: получают данные для инициализации объектов каждого ключевого объекта в каждом кадре; выявляют смены сцен во входной видео последовательности и разбивают видео последовательность на сцены; для каждой сцены выявляют данные о деятельности каждого объекта посредством модуля анализа видеоданных и данных глобального движения (GM) по всем кадрам сцены и сохраняют эти данные в накопителе результатов видеоанализа; причем после обработки видео сцены сначала анализируют сохраненные данные о деятельности каждого объекта, выделяют ключевые кадры, затем анализируют данные GM и ключевых кадров объекта, извлекают и выводят ключевые кадры посредством модуля анализа видеоданных; после чего очищают накопитель результатов видеоанализа и переходят к следующей сцене входной видео последовательности до достижения конца видео последовательности. Система состоит из трех основных частей: модуля анализа видеоданных; накопителя результатов видеоанализа; модуля обработки результатов видеоанализа. Технический результат - преобразование видео из монокулярного в стереоскопическое и из черно-белого - в цветное в полуавтоматическом режиме. 2 н. и 19 з.п. ф-лы, 7 ил.

Изобретение относится к вычислительной технике. Технический результат заключается в повышении эффективности кодирования. Способ локальной коррекции изменения яркости и контрастности опорного кадра для кодирования многоракурсной видеопоследовательности, в котором: получают значения пикселей текущего кодируемого блока, принадлежащего кодируемому кадру, и значения пикселей опорного блока, принадлежащего опорному кадру; получают восстановленные значения пикселей, соседних по отношению к текущему блоку кодируемого кадра, и значения пикселей, соседних по отношению к опорному блоку опорного кадра; определяют числовые соотношения между значениями пикселей опорного блока и значениями пикселей, соседних по отношению к опорному блоку, и соотношения между восстановленными значениями пикселей, соседних по отношению к текущему кодируемому блоку, и значениями пикселей, соседних по отношению к опорному блоку; на основе найденных на предыдущем шаге числовых соотношений определяют параметры коррекции яркости и контрастности для коррекции различия в яркости и контрастности для опорного блока в сравнении с текущим кодируемым блоком; выполняют коррекцию различия в яркости и контрастности для опорного блока, используя найденные параметры коррекции. 3 н. и 10 з.п. ф-лы, 10 ил.

Изобретение относится к средствам объемной визуализации медицинских данных. Техническим результатом является оптимизация отображения объемных изображений интересующей структуры за счет автоматического определения ее положения на изображении. В способе автоматически определяют первые параметры с учетом выбранного пользователем положения и вторых параметров, характеризующих объект, интересующую структуру, текущее отображаемое изображение (12, 22) среза и предыдущие объемные визуализации интересующей структуры, получают оптимизированное изображение интересующей структуры, выводят информацию для вторых параметров, касающуюся качества точек обзора, на основании вторых параметров, и путем вычисления деформированной сферы (27, 42, 46, 55, 57, 61, 62) обзора для этого второго параметра, при этом положения точек обзора с большим расстоянием по радиусу от сферы обзора считаются лучшими, чем точек обзора с меньшим расстоянием по радиусу от сферы обзора. 2 н. и 28 з.п. ф-лы, 11 ил.

Изобретение относится к средствам обработки сигналов для генерации трехмерных изображений. Техническим результатом является формирование единого изображения из двух изображений за счет сведения по фазе двух сигналов изображения. Процессор включает: блок согласования фазы, выполненный с возможностью сведения в фазу двух сигналов изображения, подаваемых из двух камер; блок регулирования фазы, изменяющий горизонтальную фазу сигнала левого и/или правого изображения на основе ее смещения для перемещения левого и/или правого изображений горизонтально на заданное расстояние и вывода сигналов изображения с измененным параллаксом между левым и правым изображениями; блок считывания, выполненный с возможностью вывода сигнала левого и/или правого изображения, в котором из областей, отображаемых трехмерно, и других областей, где двумерно отображается только левое или правое изображение, изображение в двумерно отображаемых областях заменено изображением, отличающимся от изображения в трехмерно отображаемых областях. 4 н. и 7 з.п. ф-лы, 70 ил.

Изобретение относится к вычислительной технике, а именно к области широковещательной передаче спортивных состязаний. Техническим результатом является ускорение автоматического детектирования места, где произошло событие, что позволяет пользователю быстрее перейти к соответствующим кадрам. Способ генерирования регистрационной записи событий для игровых событий, ассоциированных с физическим объектом, присутствующим в спортивном событии. Способ включает в себя этап отслеживания в пределах последовательности видеоизображений особенностей изображения, которые соответствуют соответствующим физическим объектам в спортивном событии. Далее согласно способу отображают на устройстве отображения последовательность видеоизображений, которая включает отслеживаемые особенности изображения. Выбирают из отслеживаемых особенностей изображения первую отображаемую особенность изображения, которая соответствует одному из физических объектов, для обозначения этого физического объекта в качестве выбранного физического объекта, при этом при выборе выделяют первую особенность изображения. Отображают при выборе первой особенности изображения заданный список событий возможных игровых событий, рядом с выделенной, выбранной первой особенностью изображения и наложенным на отображаемую последовательность видеоизображений. 5 н. и 12 з.п. ф-лы, 21 ил.

Изобретение относится к воспроизведению трехмерного видеоизображения. Техническим результатом является повышение эффективности отображения субтитров при воспроизведении трехмерного видеоизображения. Способ обработки сигнала включает в себя извлечение трехмерной информации воспроизведения из данных текстовых субтитров. При этом данные текстовых субтитров содержат информацию об области, в которой отображают субтитр. Информация трехмерного воспроизведения содержит значение смещения, указывающее значение глубины и направление смещения. Направление смещения указывает направление, в котором применяют значение смещения для каждой из упомянутой, по меньшей мере, одной области. 3 н. и 1 з.п. ф-лы, 30 ил., 35 табл.

Изобретение относится к вычислительной технике, а именно к технологиям обработки цифровых сигналов. Техническим результатом является повышение эффективности кодирования. Предложен способ адаптивной локальной коррекции изменения яркости опорного кадра для кодирования многоракурсной видеопоследовательности, в котором получают значения пикселей текущего кодируемого блока, принадлежащего кодируемому кадру, и значения пикселей опорного блока, принадлежащего опорному кадру. Далее согласно способу получают восстановленные, то есть закодированные и затем декодированные, значения пикселей, соседних по отношению к текущему блоку кодируемого кадра, и значения пикселей, соседних по отношению к опорному блоку опорного кадра. А также исключают из рассмотрения пиксели, которые отличаются от общей совокупности полученных восстановленных пикселей по заранее заданному критерию. 3 н. и 18 з.п. ф-лы, 10 ил.

Изобретение относится к способу и устройству для предоставления многослойной модели с глубиной трехмерной сцены. Техническим результатом является уменьшение артефактов, получающихся в результате уменьшения многослойной модели с глубиной. Способ предоставления многослойной модели, содержащей информацию основного вида для основного вида сцены с основного направления просмотра (PVD) и информацию окклюзии, связанную с информацией основного вида для использования при отображении других видов сцены, в котором информация основного вида содержит сегменты слоя модели, которые являются ближайшими по глубине по отношению к основному направлению просмотра, и информация окклюзии содержит дополнительные сегменты слоя модели и при этом информация окклюзии содержит область безопасности (SR), прилегающую к переходу глубины, для которого предоставляется информация окклюзии (J1, J2, J3, J4), и при этом область безопасности содержит соответствующие сегменты информации основного вида, и при этом область безопасности расположена на той стороне соответствующего перехода глубины, которая является самой дальней по глубине по отношению к основному направлению просмотра. 3 н. и 10 з.п. ф-лы, 17 ил.
Наверх