La productividad en la producción comercial de lechones depende en gran medida de la cantidad de lechones destetados por cerda. Sin embargo, una de las principales razones de la alta mortalidad previa al destete es la inanición.
La productividad en la producción comercial de lechones depende en gran medida de la cantidad de lechones destetados por cerda. Sin embargo, una de las principales razones de la alta mortalidad previa al destete es la inanición.
Además, el comportamiento de los cerdos acostados y otros también son características importantes para juzgar la dieta saludable y la enfermedad de los cerdos. En la etapa inicial, Yuan et al. utilizaron el momento de Zernike y la máquina de vectores de soporte para reconocer cuatro poses de cerdos. Sin embargo, frente a problemas complejos de reconocimiento de poses y comportamientos, los algoritmos de aprendizaje automático tradicionales a menudo no pueden funcionar bien.
Con el desarrollo de algoritmos de inteligencia artificial (IA), se han propuesto una variedad de enfoques basados en el aprendizaje profundo para detectar el comportamiento de los cerdos para maximizar el bienestar y el beneficio económico de los cerdos. El comportamiento de alimentación de los cerdos basado en el aprendizaje profundo, la postura y otros reconocimientos de comportamiento a menudo entrenan modelos utilizando imágenes, video y datos 3D.
Con respecto a los enfoques basados en datos de imágenes, Xue et al. propusieron el modelo ZF con capas más profundas y dos marcos de aprendizaje residual para lograr el reconocimiento efectivo del comportamiento de las cerdas lactantes, que logró una precisión promedio de los métodos de 96,73%, 94,62%, 86,28%, 89,57% y 99,04% para cinco posturas de cerdas lactantes (por ejemplo, de pie, sentada, acostada, acostada boca abajo y acostada de lado, respectivamente).
Sin embargo, este modelo es grande y es difícil de migrar e implementar en los sistemas integrados. Riekert et al. consideraron la postura acostada del cerdo como un problema de detección de objetos que utilizó NASNet y Faster R-CNN para lograr un mAP del 80,20% para la detección de la posición y las posturas del cerdo.
Desde la perspectiva de los datos de vídeo, Li et al. propusieron una red convolucional espaciotemporal para el reconocimiento de múltiples comportamientos de cerdos basada en la estructura de ruta lenta-rápida de dos vías y el modelo 3D ResNet (R3D).
Los resultados experimentales mostraron que el modelo todavía tenía una capacidad de generalización significativa en las tareas de detección de cerdos posteriores. De manera similar, considerando la información de movimiento del comportamiento de los cerdos en los datos de vídeo, se propuso un modelo de red convolucional de doble flujo basado en aprendizaje profundo para reconocer el comportamiento de los cerdos.
En el mismo año, Alameer et al. mapearon el área del pecho al marco de flujo óptico correspondiente al comportamiento de la lactancia y extrajeron las características temporales de la intensidad del ejercicio de las cerdas y el índice de ocupación para extraer características temporales y espaciales para distinguir la lactancia materna y comportamientos similares.
En 2021, Gan et al. Ubicaron el área de lactancia de las cerdas a través de la red de posicionamiento espacial compuesta por detectores de cerdas y detectores de puntos clave, y utilizaron información de características espaciotemporales de las cerdas para identificar un clasificador de comportamiento de lactancia de las cerdas.
En términos de datos 3D (por ejemplo, imágenes RGB-D), basados en imágenes RGB-D de los cerdos, Zheng et al. utilizaron la arquitectura mejorada Fast R-CNN como un detector de pose a nivel de marco de cerda, que logró un 92,70% mAP para la detección de cuatro posturas (de pie, sentado, acostado ventralmente y acostado lateralmente). lechones
Los resultados experimentales mostraron que este método podría monitorear las posturas de los cerdos en tiempo real y proporcionar información de referencia efectiva para la agricultura.
Artículo completo: Wang S, Jiang H, Qiao Y, Jiang S, Lin H, Sun Q. The Research Progress of Vision-Based Artificial Intelligence in Smart Pig Farming. Sensors (Basel). 2022 Aug 30;22(17):6541. doi: 10.3390/s22176541. PMID: 36080994; PMCID: PMC9460267.
Más sobre inteligencia artificial: Enriquecimiento ambiental en gestación: supervivencia neonatal y respuesta inmune