<?xml version="1.0" encoding="UTF-8"?>
<article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:ali="http://www.niso.org/schemas/ali/1.0/" article-type="research-article" dtd-version="1.2" xml:lang="en">
  <front>
    <journal-meta>
      <journal-id journal-id-type="issn">1561-5405</journal-id>
	    <journal-id journal-id-type="doi">10.24151/1561-5405</journal-id>	  
      <journal-id journal-id-type="publisher-id">Proceedings of Universities. Electronics</journal-id>
      <journal-title-group>
        <journal-title xml:lang="en">Scientifical and technical journal "Proceedings of Universities. Electronics"</journal-title>
        <trans-title-group xml:lang="ru">
          <trans-title>Научно-технический журнал «Известия высших учебных заведений. Электроника»</trans-title>
        </trans-title-group>        
      </journal-title-group>      
      <issn publication-format="print">1561-5405</issn>
      <issn publication-format="online">2587-9960</issn>
      <publisher>
        <publisher-name xml:lang="en">National Research University of Electronic Technology</publisher-name>
        <publisher-name xml:lang="ru">Национальный исследовательский университет "Московский институт электронной техники"</publisher-name>
      </publisher>
    </journal-meta>
    <article-meta>                                    
      
    <article-id pub-id-type="doi">10.24151/1561-5405-2025-30-1-94-106</article-id><article-id pub-id-type="risc">BKBAAG</article-id><article-id pub-id-type="udk">004.932.2+519.688</article-id><article-categories><subj-group><subject>Информационно-коммуникационные технологии</subject></subj-group></article-categories><title-group><article-title xml:lang="en">An adaptive algorithm for object tracking in video images</article-title><trans-title-group xml:lang="ru"><trans-title>Адаптивный алгоритм сопровождения объектов на видеоизображении</trans-title></trans-title-group></title-group><contrib-group><contrib contrib-type="author"><string-name xml:lang="ru">Сотников Александр Васильевич</string-name><name-alternatives><name xml:lang="ru"><surname>Сотников</surname><given-names>Александр Васильевич</given-names></name><name xml:lang="en"><surname>Sotnikov</surname><given-names>Alexander V.</given-names></name></name-alternatives><string-name xml:lang="en">Alexander V. Sotnikov</string-name><xref ref-type="aff" rid="AFF-1"/></contrib><contrib contrib-type="author"><string-name xml:lang="ru">Шипатов Андрей Владимирович</string-name><name-alternatives><name xml:lang="ru"><surname>Шипатов</surname><given-names>Андрей Владимирович</given-names></name><name xml:lang="en"><surname>Shipatov</surname><given-names>Andrey V.</given-names></name></name-alternatives><string-name xml:lang="en">Andrey V. Shipatov</string-name><xref ref-type="aff" rid="AFF-1"/></contrib><aff id="AFF-1" xml:lang="ru">National Research University of Electronic Technology (Russia, 124498, Moscow, Zelenograd, Shokin sq., 1); JSC “Zelenograd Innovation and Technology Center” (Russia, 124527, Moscow, Zelenograd, Solnechnaya Prwy, 8); Sirius University of Science and Techno</aff></contrib-group><pub-date iso-8601-date="2025-09-04" date-type="pub" publication-format="electronic"><day>04</day><month>09</month><year>2025</year></pub-date><volume>Том. 30 №1</volume><issue>1</issue><fpage>94</fpage><lpage>106</lpage><self-uri>http://ivuz-e.ru/en/issues/Том+30+№1/adaptivnyy_algoritm_soprovozhdeniya_obektov_na_videoizobrazhenii/</self-uri><abstract xml:lang="en"><p>Most existing video object tracking algorithms either implement short-term object tracking until the point of tracking failure without the possibility of its recovery, or detect the tracked object in each frame based on some pre-built object model, adapting to changes in its image. In the first case, a separate algorithm for object re-localization after a tracking failure is required; in the second, it is necessary to somehow compensate for tracking errors due to the problem of drift of the predicted bounding box when the object appearance changes. In this work, a method for solving the problem of robust object tracking is presented based on the universal approach to the building of adaptive tracking algorithms that include three components: tracking, learning and detection. The algorithm for object contour tracking has been developed to be used as a tracking component, as part of complex algorithm that implements the described approach. The use of this algorithm in the developed tracking system made it possible to increase the adaptability of tracking to severe changes in object appearance and to achieve robust object tracking in video sequences that are difficult to analyze. The functionality of the software developed on the basis of the proposed algorithm has been confirmed.</p></abstract><trans-abstract xml:lang="ru"><p>В большинстве существующих алгоритмов сопровождения объектов на видеоизображении либо реализовано кратковременное слежение за объектом до момента срыва сопровождения без возможности его восстановления, либо выполняется обнаружение сопровождаемого объекта в каждом кадре на основе некоторой заранее построенной модели объекта, адаптирующейся к изменениям его образа. В первом случае необходим отдельный алгоритм захвата объекта после срыва, во втором - требуется каким-либо образом компенсировать ошибки сопровождения из-за проблемы дрейфа рамки слежения при изменении внешнего вида объекта. В работе представлен метод решения задачи устойчивого сопровождения объектов на видеоизображении, основанный на универсальном подходе к построению адаптивных алгоритмов сопровождения, включающем в себя три компонента: слежение, обучение и обнаружение. Разработан алгоритм слежения за контуром объекта, использованный в качестве следящего компонента в составе комплексного алгоритма, реализующего описанный подход. Применение данного алгоритма в разработанной системе сопровождения позволяет повысить адаптивность сопровождения к сильным изменениям образа объекта и добиться устойчивого сопровождения объекта в сложных для анализа видеопоследовательностях. Подтверждена работоспособность программного обеспечения, разработанного на основе предложенного алгоритма.</p></trans-abstract><kwd-group xml:lang="ru"><kwd>automatic tracking</kwd><kwd>object contour tracking</kwd><kwd>object detector</kwd><kwd>detector training</kwd><kwd>object detection</kwd></kwd-group><kwd-group xml:lang="en"><kwd>automatic tracking</kwd><kwd>object contour tracking</kwd><kwd>object detector</kwd><kwd>detector training</kwd><kwd>object detection</kwd></kwd-group><funding-group><funding-statement xml:lang="ru">Работа выполнена при финансовой поддержке Минобрнауки России (Соглашение 075-10-2021-093, проект RAI-RND-2126).</funding-statement><funding-statement xml:lang="ru">The work has been supported by the Ministry of Education and Science of the Russian Federation (Agreement 075-10-2021-093, project RAI-RND-2126).</funding-statement></funding-group></article-meta>
  </front>
  <body/>
  <back>
    <ref-list><ref id="B1"><label>1.</label><mixed-citation xml:lang="ru">Kalal Z., Mikolajczyk K., Matas J. Tracking-learning-detection // IEEE Trans. Pattern Anal. Mach.Intell. 2012. Vol. 34. No. 7. P. 1409-1422. DOI: 10.1109/TPAMI.2011.239</mixed-citation></ref><ref id="B2"><label>2.</label><mixed-citation xml:lang="ru">Lucas B. D., Kanade T. An iterative image registration technique with an application to stereo vision // Proceedings of the 7th International Joint Conference on Artificial Intelligence (IJCAI'81). San Francisco, CA: Morgan Kaufmann Publ., 1981. Vol. 2. P. 674-679.</mixed-citation></ref><ref id="B3"><label>3.</label><mixed-citation xml:lang="ru">Kalal Z., Matas J., Mikolajczyk K. P-N learning: Bootstrapping binary classifiers by structural constraints // 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. San Francisco, CA: IEEE, 2010. P. 49-56. DOI: 10.1109/CVPR.2010.5540231</mixed-citation></ref><ref id="B4"><label>4.</label><mixed-citation xml:lang="ru">Blake A., Isard M. Dynamic contour tracking // Active contours / A. Blake, M. Isard. London: Springer, 1998. P. 213-234. DOI: 10.1007/978-1-4471-1555-7_10</mixed-citation></ref><ref id="B5"><label>5.</label><mixed-citation xml:lang="ru">Cao S., Wang X. Visual contour tracking based on inner-contour model particle filter under complex background // J. Image Video Proc. 2019. Vol. 2019. Art No. 85. DOI: 10.1186/s13640-019-0487-7</mixed-citation></ref><ref id="B6"><label>6.</label><mixed-citation xml:lang="ru">A fast region-based active contour for non-rigid object tracking and its shape retrieval / H. Mewada, J. F. Al-Asad, A. Patel et al. // PeerJ Comput. Sci. 2021. Vol. 7. Art. ID: e373. DOI: 10.7717/peerj-cs.373 EDN: OAZQQM</mixed-citation></ref><ref id="B7"><label>7.</label><mixed-citation xml:lang="ru">Mansouri A.-R. Region tracking via level set PDEs without motion computation // IEEE Trans. Pattern Anal. Mach.Intell. 2002. Vol. 24. No. 7. P. 947-961. DOI: 10.1109/TPAMI.2002.1017621</mixed-citation></ref><ref id="B8"><label>8.</label><mixed-citation xml:lang="ru">Caselles V., Catté F., Coll T., Dibos F. A geometric model for active contours in image processing // Numer. Math. 1993. Vol. 66. P. 1-31. DOI: 10.1007/BF01385685</mixed-citation></ref><ref id="B9"><label>9.</label><mixed-citation xml:lang="ru">Osher S., Fedkiw R. Level set methods and dynamic implicit surfaces. New York: Springer, 2002. XIII, 273 p. DOI: 10.1007/b98879</mixed-citation></ref><ref id="B10"><label>10.</label><mixed-citation xml:lang="ru">Сотников А. В., Шипатов Е. А., Шипатов А. В. Алгоритм выделения объектов на изображениях на основе слияния суперпикселей // Изв. вузов. Электроника. 2023. Т. 28. № 1. С. 129-139. DOI: 10.24151/1561-5405-2023-28-1-129-139 EDN: VZAJVI</mixed-citation></ref><ref id="B11"><label>12.</label><mixed-citation xml:lang="ru">Sotnikov A. V., Shipatov E. A., Shipatov A. V. An algorithm for object extraction in images based on</mixed-citation></ref><ref id="B12"><label>13.</label><mixed-citation xml:lang="ru">superpixel fusion. Izv. vuzov. Elektronika = Proc. Univ. Electronics, 2023, vol. 28, no. 1, pp. 129–139. (In Russian). https://doi.org/10.24151/1561-5405-2023-28-1-129-139</mixed-citation></ref><ref id="B13"><label>11.</label><mixed-citation xml:lang="ru">TDL dataset // Yumpu [Электронный ресурс]. URL: https://www.yumpu.com/en/document/view/18189558/tld-dataset (дата обращения: 06.11.2024).</mixed-citation></ref><ref id="B14"><label>12.</label><mixed-citation xml:lang="ru">Разработка и создание универсальной открытой программно-аппаратной платформы для проектирования устройств обработки потокового видео для беспилотных летающих аппаратов мониторинга экологической ситуации и состояния природных объектов // ФЦП "Исследования и разработки по приоритетным направлениям развития научно-технологического комплекса России на 2014-2021 годы" [Электронный ресурс] / Министерство науки и высшего образования Российской Федерации. URL: https://fcpir.fcntp.ru/participation_in_program/contracts/05.605.21.0181/(дата обращения: 06.11.2024).</mixed-citation></ref><ref id="B15"><label>16.</label><mixed-citation xml:lang="ru">Development and establishment of a universal open hardware and software platform for designing streaming video processing devices for unmanned aerial vehicles monitoring ecological situation and natural objects condition. Ministry of Education and Science of the Russian Federation. FTsP “Issledovaniya i razrabotki po prioritetnym napravleniyam razvitiya nauchno-tekhnologicheskogo kompleksa Rossii na 2014–2021 gody”. Available at: https://fcpir.fcntp.ru/participation_in_program/contracts/05.605.21.0181/ (accessed: 06.11.2024).</mixed-citation></ref></ref-list>    
  </back>
</article>
