Articles

BioAuxNet: Reconnaissance de la faune nocturne vivant au sol à l'aide d'un réseau neuronal convolutionnel à régions masquées

Résumé

L'étude de la faune nocturne vivant au sol est une tâche de recherche stimulante en raison de ses multiples implications dans différents domaines tels que la lutte biologique par conservation ou l'identification des ravageurs des cultures. Cet article présente une méthode automatique de reconnaissance de cette faune à partir d'images de terrain acquises sur plusieurs années. Cette méthode, appelée BioAuxNet, est basée sur un algorithme d’apprentissage profond qui combine les dernières avancées dans les domaines des réseaux neuronaux et de la vision par ordinateur.
À partir de plus de 100 000 images brutes prises sur le terrain pendant quatre ans, nous avons créé un premier jeu de données réaliste de 8 espèces communes de la faune nocturne vivant au sol : carabes, souris, opilion, limaces, musaraigne et vers de terre.
Pour notre modèle, nous avons classiquement utilisé de l’apprentissage par transfert (affinant un réseau pré-entraîné) et de l’augmentation de données (démultipliant certaines images pour mieux généraliser). Le résultat est que notre modèle peut reconnaître notre type de faune avec un critère de précision de 84,31 %, ce qui est très encourageant. Les perspectives de cette étude sont multiples, on citera typiquement la possibilité d’un suivi au champ du nombre de certains auxiliaires.

Références

  • He K., Georgia, Gkioxari G., Dollar P., Girshick R. Facebook AI Research (FAIR), Mask R-CNN. Cornell University, 2018. Disponible sur : https://arxiv.org/abs/1703.06870
  • Abdulla W. Matterport_maskrcnn_2017, Mask R-CNN for object detection and instance segmentation on Keras and TensorFlow. 2017. Disponible sur : https://github.com/matterport/Mask_RCNN
  • Lin T., Maire M., Belongie S., Bourdev L., Girshick R., Hays J., Perona P., Ramanan D., Zitnick C., Dollar P. Microsoft COCO: Common Objects in Context. European conference on computer vision, 2014/9/6 ; Pages 740-755. Springer, Cham editor.
  • Grieshop M.J., Werling B., Buehrer K., Perrone J., Isaacs R., Landis D. Big Brother is Watching: Studying Insect Predation in the Age of Digital Surveillance. American Entomologist; Volume 58; Number 3; 2012.
  • Collett R.A., Fisher D.O. Time-lapse camera trapping as an alternative to pitfall trapping for estimating activity of leaf litter arthropods. Ecology Evolution, 2017,7:7527–7533. Disponible sur : https://doi.org/10.1002/ece3.3275
  • Jiao L., Zhang F., Liu F., Yang S., Li L., Feng Z. & al. A survey of deep learning-based object detection. IEEE Access, 2019, arXiv:1907.09408v2

Auteurs


Yassine Sohbi

yassine.sohbi@inrae.fr

Affiliation : UMR Agronomie, INRAE AgroParisTech, Université-Paris-Saclay, 22 place de l'agronomie, bâtiment F, F-91123 Palaiseau, France

Pays : France


Corentin Barbu

https://orcid.org/0000-0001-6869-5345

Affiliation : UMR Agronomie, INRAE AgroParisTech, Université-Paris-Saclay, 22 place de l'agronomie, bâtiment F, F-91123 Palaiseau, France

Pays : France


Antoine Gardarin

Affiliation : UMR Agronomie, INRAE AgroParisTech, Université-Paris-Saclay, 22 place de l'agronomie, bâtiment F, F-91123 Palaiseau, France

Pays : France


Nicolas Parisey

https://orcid.org/0000-0003-2439-3809

Affiliation : UMR IGEPP, INRAE, Domaine de La Motte, F-35653 Le Rheu, France.

Pays : France

Pièces jointes

Pas de document complémentaire pour cet article

Statistiques de l'article

Vues: 8

Téléchargements

PDF: 6