Articles
BioAuxNet: Reconnaissance de la faune nocturne vivant au sol à l'aide d'un réseau neuronal convolutionnel à régions masquées
Publié : 1 septembre 2023
Résumé
L'étude de la faune nocturne vivant au sol est une tâche de recherche stimulante en raison de ses multiples implications dans différents domaines tels que la lutte biologique par conservation ou l'identification des ravageurs des cultures. Cet article présente une méthode automatique de reconnaissance de cette faune à partir d'images de terrain acquises sur plusieurs années. Cette méthode, appelée BioAuxNet, est basée sur un algorithme d’apprentissage profond qui combine les dernières avancées dans les domaines des réseaux neuronaux et de la vision par ordinateur.
À partir de plus de 100 000 images brutes prises sur le terrain pendant quatre ans, nous avons créé un premier jeu de données réaliste de 8 espèces communes de la faune nocturne vivant au sol : carabes, souris, opilion, limaces, musaraigne et vers de terre.
Pour notre modèle, nous avons classiquement utilisé de l’apprentissage par transfert (affinant un réseau pré-entraîné) et de l’augmentation de données (démultipliant certaines images pour mieux généraliser). Le résultat est que notre modèle peut reconnaître notre type de faune avec un critère de précision de 84,31 %, ce qui est très encourageant. Les perspectives de cette étude sont multiples, on citera typiquement la possibilité d’un suivi au champ du nombre de certains auxiliaires.
À partir de plus de 100 000 images brutes prises sur le terrain pendant quatre ans, nous avons créé un premier jeu de données réaliste de 8 espèces communes de la faune nocturne vivant au sol : carabes, souris, opilion, limaces, musaraigne et vers de terre.
Pour notre modèle, nous avons classiquement utilisé de l’apprentissage par transfert (affinant un réseau pré-entraîné) et de l’augmentation de données (démultipliant certaines images pour mieux généraliser). Le résultat est que notre modèle peut reconnaître notre type de faune avec un critère de précision de 84,31 %, ce qui est très encourageant. Les perspectives de cette étude sont multiples, on citera typiquement la possibilité d’un suivi au champ du nombre de certains auxiliaires.
Références
- He K., Georgia, Gkioxari G., Dollar P., Girshick R. Facebook AI Research (FAIR), Mask R-CNN. Cornell University, 2018. Disponible sur : https://arxiv.org/abs/1703.06870
- Abdulla W. Matterport_maskrcnn_2017, Mask R-CNN for object detection and instance segmentation on Keras and TensorFlow. 2017. Disponible sur : https://github.com/matterport/Mask_RCNN
- Lin T., Maire M., Belongie S., Bourdev L., Girshick R., Hays J., Perona P., Ramanan D., Zitnick C., Dollar P. Microsoft COCO: Common Objects in Context. European conference on computer vision, 2014/9/6 ; Pages 740-755. Springer, Cham editor.
- Grieshop M.J., Werling B., Buehrer K., Perrone J., Isaacs R., Landis D. Big Brother is Watching: Studying Insect Predation in the Age of Digital Surveillance. American Entomologist; Volume 58; Number 3; 2012.
- Collett R.A., Fisher D.O. Time-lapse camera trapping as an alternative to pitfall trapping for estimating activity of leaf litter arthropods. Ecology Evolution, 2017,7:7527–7533. Disponible sur : https://doi.org/10.1002/ece3.3275
- Jiao L., Zhang F., Liu F., Yang S., Li L., Feng Z. & al. A survey of deep learning-based object detection. IEEE Access, 2019, arXiv:1907.09408v2
Pièces jointes
Pas de document complémentaire pour cet articleStatistiques de l'article
Vues: 8
Téléchargements
PDF: 6