Телевизионные измерительные системы контроля скоростного режима дорожного движения

№ 4’2007
В статье предложены структурная схема и алгоритмы работы телевизионной системы для определения скоростных характеристик транспортных средств, а также варианты алгоритмов обработки изображений в системе для выделения информации о скорости автомобилей и подавления помех на изображении.

В статье предложены структурная схема и алгоритмы работы телевизионной системы для определения скоростных характеристик транспортных средств, а также варианты алгоритмов обработки изображений в системе для выделения информации о скорости автомобилей и подавления помех на изображении.

Внастоящее время для контроля скоростного режима дорожного движения используются в основном радиолокационные системы различного типа. Они позволяют достаточно просто и точно определить скорость движущегося автомобиля в практически любых погодных условиях. Однако подобным системам присущ ряд недостатков, которые затрудняют их применение в условиях интенсивного дорожного движения. В первую очередь это относится к проблеме измерения скорости отдельного автомобиля, движущегося в потоке транспортных средств. Поскольку диаграмма направленности радара имеет сравнительно большую ширину (как правило, не менее 5–8 угловых градусов, что связано с габаритами антенны и удобством эксплуатации), в зону измерения попадает несколько автомобилей, и отраженный сигнал содержит составляющие от нескольких транспортных средств, движущихся с различной скоростью. Надежное различение и идентификация источника сигнала от автомобиля в этом случае затруднено. Частичное решение, используемое на практике, состоит в комплексировании радара с цифровой фото- или видеокамерой, фотографирующийся объект при этом размещается в центре диаграммы направленности радара, однако максимальный сигнал может быть получен от объекта с большей эффективной поверхностью рассеяния, находящегося не в направлении максимума диаграммы направленности антенны.

В то же время для контроля дорожной обстановки на трассах с большой интенсивностью движения широко используются камеры видеонаблюдения. Информация, поступающая с видеокамер, содержит данные об изменении положения в пространстве автомобилей, находящихся в поле зрения системы. Обработка этой информации на основе алгоритмов, используемых в телевизионных измерительных системах [1], позволяет определить скорость движения отдельных (выделенных оператором на изображении) транспортных средств. Именно этими факторами объясняется возрастание интереса к телевизионному мониторингу транспортных магистралей [2].

Однако практическая реализация данного метода встречает целый ряд трудностей, среди которых основными являются:

  • необходимость решения задач выделения отдельного объекта из нескольких, находящихся в поле зрения;
  • преобразование двумерных координат объекта в плоскости фотоприемной матрицы в трехмерные пространственные координаты;
  • вычисление вектора скорости объекта при различных ситуациях (поперечное движение, сближение, удаление, комбинированное движение) и другие;
  • определение оптимальных параметров системы с точки зрения минимизации погрешности измерений (интервал времени между обрабатываемыми кадрами; фокусное расстояние оптической системы; размеры и разрешение матричного фотоприемника и др.).

Структурная схема телевизионной системы контроля дорожного движения представлена на рис. 1.

Структурная схема телевизионной системы контроля дорожного движения
Рис. 1. Структурная схема телевизионной системы контроля дорожного движения

Изображения объектов (в общем случае их может быть несколько, отличающихся размерами, формой и параметрами движения) формируются оптической системой видеокамеры в плоскости фотоприемной матрицы. Аналоговый видеосигнал с выхода видеоматрицы преобразуется в цифровой сигнал с помощью АЦП и поступает для обработки в микропроцессор. Результаты обработки отображаются на мониторе. Для упрощения алгоритмов обработки целесообразно использовать неподвижную (статическую для данного процесса измерения) видеокамеру, что позволяет избежать необходимости компенсации глобального движения изображения.

Оптическая система видеокамеры Л (рис. 2) формирует на поверхности матричного фотоприемника, расположенного в фокальной плоскости объектива ƒ, плоское (так называемое видимое) изображение наблюдаемого объекта.

Преобразование координат объекта оптической системой видеокамеры
Рис. 2. Преобразование координат объекта оптической системой видеокамеры

Основная система координат расположена в центре оптической системы (объектива Л). Плоское изображение объекта формируется в системе координат матрицы, которая представляет собой результат параллельного переноса основной системы на расстояние ym.

Исходное изображение объекта с совокупностью координат всех его точек x0, y0, z0 преобразуется оптической системой в плоское изображение с координатами точек xm, ym, zm при ym ≈ ƒ (поскольку в рассматриваемом случае объект расположен на расстоянии Ly >> ƒ ).

В соответствии с законами геометрической оптики связь между координатами плоского изображения объекта на матрице и реальными координатами в пространстве определяется соотношениями:

а расстояние до объекта Ly:

Из выражения (1) следует, что объективное измерение скорости автомобиля по видимому изображению возможно только при априорно известном расстоянии до него Ly. Эта затруднение может быть решено двумя методами: измерение параметров движения на предварительно калиброванном расстоянии; измерение расстояния телевизионной измерительной системой по объекту в поле зрения с известными геометрическими размерами (дорожный знак, указатель, рекламный щит и т. д.).

Общий алгоритм обработки изображений дорожной обстановки должен включать выполнение операций предварительной обработки:

  1. Коррекция цветовой гаммы, яркости и контраста изображения для оптимального выделения интересующих объектов. Данная операция позволяет повысить контраст обрабатываемого изображения, используя спектральные различия между фоном и объектом-автомобилем. Спектральная селекция может производиться в оптическом канале или в процессе обработки различных цветовых составляющих видеосигнала. Критерием оптимальности обработки является максимальный контраст (перепад средней яркости) выделенного оператором объекта по сравнению с фоном.
  2. Фильтрация изображения с целью подавления фона и помех. Удаление фона приводит к сокращению времени обработки видеоданных и повышению точности обнаружения интересующих объектов в пределах сцены. Фильтрация изображения может производиться с помощью спектральных методов, методов вейвлет-анализа, медианных фильтров. В частном случае видеонаблюдения неподвижной видеокамерой с фиксированным полем обзора, так называемый статический фон может быть оценен количественно. В общем случае название «статический фон» условно, поскольку распределение яркости в нем постоянно меняется и для правильного выделения подвижных объектов необходима его периодическая переоценка. Оценка фона необходима по следующим основным причинам: распределение яркости статического фона не всегда известно, поскольку из-за непрерывного движения его невозможно точно зафиксировать; фон непрерывно изменяется из-за смены освещенности, зашумленности изображения фона, появления в поле зрения посторонних объектов.
  3. Выделение движущихся объектов. Одним из основных признаков полезных объектов при анализе видеопоследовательностей является движение. Реальное движение транспортных средств является трехмерным. Телевизионная измерительная система использует только двухмерное (плоское) изображение, называемое видимым изображением, которое существенно отличается от действительного. Выделение движущихся объектов и подавление стационарного фона на плоском изображении может производиться с помощью простого разностного алгоритма, однако он неустойчив к изменениям яркости фона и объектов и отличается большой ресурсоемкостью.
  4. Видимое движение характеризуют полем векторов смещений или полем оптического потока:

    Чтобы определить оптический поток, обычно применяют два метода: дифференциальный анализ, позволяющий связывать временные и пространственные рассогласования, а также поиск наилучшего согласования блоков, относящихся к различным кадрам [4].

    Для реализации первого метода вводят предположение, что вдоль малого отрезка траектории яркость объекта остается неизменной:

    где выражение в угловых скобках обозначает скалярное произведение векторов, а I — вектор-градиент.

    Для реализации второго метода текущий кадр разбивают на прямоугольные блоки одинакового размера, и для каждого блока вычисляют наилучшее соответствие в предыдущем кадре. В качестве меры соответствия используют значение взаимно корреляционной функции, требующей большого объема вычислений, или суммы модулей разности яркостей пикселей MAD в пределах блока:

    где m, n — число пикселей в блоке.

    Предполагается, что все пиксели блока претерпевают одинаковое перемещение, и им приписывают один и тот же вектор смещения. Достоверные векторы смещений получают от объектов (блоков), содержащих неоднородности яркости. На объектах (или их областях) с постоянной яркостью возможно появление аномальных векторов за счет влияния шума.

    Использование второго метода в сочетании с прогнозированием траектории видимого движения позволяет существенно повысить скорость обработки, исключая из анализа блоки, в которых появление объекта маловероятно. Кроме того, этот же эффект обеспечивает оптимизация размеров блоков, проводимая на основе оценки размеров и скорости движения объекта.

    Анализ поля векторов скоростей позволяет разделить видеопоследовательность на двумерные слои когерентного движения для объектов, двигающихся с различными скоростями на неподвижном или перемещающемся фоне. Дополнительными признаками являются пространственная близость пикселей, принадлежащих одному слою движения, форма, внешний вид и размеры объектов.

    Для снижения объема вычислений форму объектов целесообразно описывать достаточно простой определенной функцией, для определения которой достаточно небольшого числа переменных (например, круг, прямоугольник, эллипс). Устойчивость алгоритмам слежения придает учет поведения объектов в предшествующих кадрах видеопоследовательности.

  5. Выделение на изображении связанных областей повышенной яркости (сегментация объектов). После выделения на изображении областей, обладающих высокой энергией движения, производится их сегментация, позволяющая сформировать объект как единый образ, характеризующийся определенной формой и размерами. Признаками для сегментации блоков объекта являются их пространственная и временная корреляция. Блоки, принадлежащие одному объекту, должны располагаться на кадре в одной области и образовывать связанную группу, а также иметь сонаправленные и близкие по амплитуде векторы движения. Присутствие нескольких признаков сегментации позволяет однозначно разделить и сегментировать несколько объектов одновременно, даже если они расположены в непосредственной близости друг от друга.
  6. Определение координат центров тяжести объектов и их характерных размеров. Эти данные являются первым шагом в вычислительной процедуре расчета параметров движения. Одним из вариантов алгоритма является обработка разностного изображения объекта, которое при небольшом временном интервале существенно отличается по форме от реального изображения. В этом случае определяются координаты не центра тяжести объекта, а его края в сторону смещения плоского изображения.
  7. Наложение строба на изображение для выделения интересующего объекта из группы. Эта операция позволяет перейти от режима наблюдения дорожной обстановки к режиму измерения параметров движения конкретного выделенного автомобиля и одновременно резко сократить объем вычислений.
  8. Определение размеров и дальности до объекта (дальность может быть априорно известной величиной или определяться по известным линейным размерам какого-либо объекта).
  9. При известном размере объекта калибровки A расстояние до него y0 может быть рассчитано по соотношению:

    где am — размер объекта на фотоприемной матрице. Абсолютная погрешность Δy0 измерения расстояния в этом случае:

  10. Вычисление текущих координат центра тяжести объекта и их изменения во времени по смещению объекта в плоскости изображения камеры и изменению его размера.
  11. Вычисление всех составляющих скорости объекта в системе координат местности (при поперечном движении определение скорости производится непосредственно по изменению координат центра тяжести изображения в системе координат местности; при продольном — по изменению масштаба изображения; при произвольном движении используется комбинированный алгоритм).
  12. Составляющие линейной скорости автомобиля определяются по формулам:

    где Δxp , Δzp — изменение поперечных координат центра тяжести автомобиля на фотоприемной матрице в пикселях; h — шаг расположения фотоприемных элементов на матрице; ƒ — фокусное расстояние объектива; Δap , Δbp — изменение размеров плоского изображения автомобиля на матрице (в пикселях)

    Величина полной скорости в этом случае определяется следующим образом (10).

    Учет двух составляющих скорости по направлению y (по изменению размеров изображения ax и bz) обеспечивает снижение погрешности измерений (экспериментальные измерения показывают, что вертикальный размер изображения автомобиля меньше подвержен изменениям в процессе движения).

В настоящее время разработаны алгоритмы и программы для всех этапов обработки телевизионного изображения. Тестирование алгоритмов производилось на специально сформированных изображениях, моделирующих различные дорожные ситуации, а также на реальных видеорядах. Разработанные алгоритмы позволяют рассчитывать скорость движения автомобиля при различных направлениях его движения. Оценены погрешности определения скорости для различных вариантов движения. Минимальные погрешности определения скорости имеют место при поперечном варианте движения автомобиля.

В качестве примера ниже приведен предложенный авторами алгоритм спектральной селекции изображений. Алгоритм включает выполнение следующих операций:

  1. Для каждой точки цветного изображения на выходе многоэлементной фотоприемной матрицы определяются цветовые составляющие ri , bi , gi каждого элемента изображения; общая яркость изображения ci = ri + bi + gi
  2. «Образцовый» цвет определяется оператором при выборе объекта на телевизионном изображении. Для исключения влияния на результаты спектральной фильтрации разброса цветовых координат отдельных пикселей область определения «образцового» цвета выбирается размерами 5×5 или 10×10 пикселей, внутри которой производится усреднение значений цветовых координат пикселей:
  3. где N — размер области усреднения.

  4. Вычисляются коэффициенты, определяющие нормированные цветовые координаты элементов изображения:
  5. Для каждого пикселя вычисляются углы Δi между i-м вектором цвета и вектором образцового цвета:
  6. Массив пикселей цветного изображения для дальнейшей обработки преобразуется в изображение в градациях серого с яркостью пикселей cni по одному из алгоритмов:
  7. где n — показатель степени спектральной фильтрации (при обработке значения степени задавались равными 10–80); 255 — максимальная яркость изображения.

На рис. 3 приведены примеры спектральной селекции изображений автомобилей различного цвета с помощью предложенных алгоритмов.

Примеры цифровой спектральной селекции автомобилей
Рис. 3. Примеры цифровой спектральной селекции автомобилей (верхнее изображение автомобиля — до обработки; нижнее — после обработки; справа показаны трехмерные распределения яркости изображений): а) автомобиль желтого цвета; б) автомобиль белого цвета; в) автомобиль красного цвета; г) автомобиль черного цвета

Моделирование предложенных алгоритмов спектральной селекции показало, что они позволяют существенно снизить яркость общего фона изображения (особенно для фона, имеющего общую однотонную окраску, такого как небо, растительность) и повысить яркость полезного изображения до максимальной. В то же время на эффективность фильтрации значительное влияние оказывает выбор участка полезного объекта в качества образцового.

Литература

  1. Тимофеев Б. С. Сегментация и сопровождение движущихся объектов // Телевидение: передача и обработка изображений. Материалы международной конференции. 21–22 мая 2002 г. СПб., 2002.
  2. Обухова Н. А. Алгоритмы обнаружения и идентификации транспортных средств в телевизионных системах мониторинга городских магистралей // Телевидение: передача и обработка изображений. Материалы международной конференции. 21–22 мая 2002 г. СПб., 2002.
  3. Астратов О. С., Чернышова Н. В. Компенсация фона при выделении подвижных объектов // Телевидение: передача и обработка изображений. Материалы международной конференции. 21–22 мая 2002 г. СПб., 2002.
  4. Tao H., Sawhney H. S., Kumar R. Object Tracking with Bayesian Estimation of Dynamic Layer Representations // IEEE transactions on pattern analysis and machine intelligence, 2002. Vol. 24. № 1.
  5. McCandless. Detection of Aircraft in Video Sequences Using a Predictive Optical Flow Algorithm // Optical Engineering. 1999. № 3.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *