я могу 
Все гениальное просто!
Машины и Механизмы
Все записи
текст

Ученые Белгородского ГАУ занимаются разработкой систем компьютерного зрения для мониторинга роста птицы

Современное развитие агропромышленного комплекса требует внедрения интеллектуальных цифровых технологий, позволяющих повышать эффективность производства и обеспечивать постоянный контроль за состоянием сельскохозяйственных животных. Одним из перспективных направлений является применение систем компьютерного зрения и методов машинного обучения в птицеводстве. Исследования в данной области активно ведутся учеными Белгородского государственного аграрного университета.
Ученые Белгородского ГАУ занимаются разработкой систем компьютерного зрения для мониторинга роста птицы

Научная работа направлена на разработку методов автоматизированного анализа состояния стаи птицы на основе обработки изображений, получаемых с камер видеонаблюдения. Основной задачей исследования является повышение точности классификации этапов роста и поведения птицы в производственных условиях крупных птицеводческих комплексов. Традиционные методы контроля предполагают визуальное наблюдение специалистами, что требует значительных трудозатрат и не всегда позволяет оперативно выявлять изменения состояния поголовья.

Анализ состояния исследования в области автоматизированного определения состояния стаи птицы показал, что существующие подходы не позволяют динамически учитывать положение птицы относительно зон пребывания в больших птицеводческих помещениях. В работе предлагается подход определения состояния стаи птицы, основанный на классификации птицы и зон пребывания с использованием сверточной нейронной сети (CNN). Разработанный подход предполагает выполнение следующих этапов: получение изображения с камеры видеонаблюдения, преобразование с использованием скользящего окна, классификация окон с помощью CNN. Используемый классификатор на основе CNN обучен на наборе данных, содержащем информацию о птице в различном состоянии и зонах ее пребывания. В результате экспериментов классификации птицы и ее зон пребывания были получены значения метрик «Точность» и «Полнота», соответственно равные 99.74% и 98.61%.

Предложенный учеными подход основан на использовании алгоритмов компьютерного зрения и сверточных нейронных сетей. Система анализирует изображения из птичника, разделяя их на фрагменты с помощью метода скользящего окна. Каждый фрагмент изображения затем обрабатывается нейронной сетью, которая выполняет классификацию объектов и определяет наличие птицы, а также особенности ее расположения в различных зонах помещения.

Особое внимание в исследовании уделено оценке качества классификации. Для обучения и тестирования модели была сформирована специализированная база изображений, отражающая различные стадии роста птицы и варианты ее поведения. Использование сверточных нейронных сетей позволило значительно повысить точность распознавания и обеспечить возможность автоматического мониторинга состояния стаи в режиме реального времени.

Разработанная система может использоваться для анализа распределения птицы по площади птичника, выявления зон повышенной активности и определения отклонений в поведении. Такие данные позволяют оперативно принимать управленческие решения, корректировать условия содержания и оптимизировать технологические процессы выращивания.

Результаты исследования демонстрируют высокий потенциал применения технологий искусственного интеллекта в аграрной отрасли. Внедрение систем компьютерного зрения в птицеводстве способствует цифровизации производства, снижению затрат на мониторинг и повышению биологической безопасности предприятий.

Таким образом, исследования ученых Белгородского ГАУ подтверждают перспективность использования методов машинного обучения и компьютерного зрения для автоматизации контроля роста и состояния птицы. Дальнейшее развитие данных технологий позволит создать интеллектуальные системы управления птицеводческими комплексами и повысить эффективность отрасли в целом.

Фото: пресс-служба Белгородского ГАУ


Наука

Машины и Механизмы
Всего 0 комментариев
Комментарии

Рекомендуем

OK OK OK OK OK OK OK