<?xml version="1.0" encoding="UTF-8"?>
<article xml:lang="fr" dtd-version="1.1" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:oasis="http://www.niso.org/standards/z39-96/ns/oasis-exchange/table" xmlns="http://jats.nlm.nih.gov" xmlns:ali="http://www.niso.org/schemas/ali/1.0/" xmlns:xlink="http://www.w3.org/1999/xlink">
<front><journal-meta>
<journal-id>NOV'AE - Ingénierie et savoir-faire innovants</journal-id>
<issn>2823-3980</issn>
</journal-meta>
<article-meta>
<title-group>
<article-title xml:lang="fr">Classification des symptômes causés par le watermelon mosaic virus (WMV) sur melon par Deep Learning : conception d’un modèle léger et déploiement mobile</article-title>
<trans-title-group xml:lang="en">
<trans-title>Classification of symptoms caused by watermelon mosaic virus (WMV) on melons using Deep Learning: design of a lightweight model and mobile deployment</trans-title>
</trans-title-group>
</title-group>
<contrib-group><contrib contrib-type="dc:creator">
<name><surname>Dambrine</surname>
<given-names>Naïma</given-names></name>
<email>naima.dambrine@inrae.fr</email>
<xref ref-type="aff" rid="aff1"><sup>1</sup></xref></contrib>
<contrib contrib-type="dc:contributor">
<name><surname>Deloget</surname>
<given-names>Matthieu</given-names></name>
<email>naima.dambrine@inrae.fr</email>
<xref ref-type="aff" rid="aff2"><sup>2</sup></xref></contrib>
<contrib contrib-type="dc:contributor">
<name><surname>Lagnel</surname>
<given-names>Jacques</given-names></name>
<email>naima.dambrine@inrae.fr</email>
<xref ref-type="aff" rid="aff3"><sup>3</sup></xref></contrib>
<contrib contrib-type="dc:contributor">
<name><surname>Tamisier</surname>
<given-names>Lucie</given-names></name>
<email>naima.dambrine@inrae.fr</email>
<xref ref-type="aff" rid="aff3"><sup>3</sup></xref></contrib>
</contrib-group><aff id="aff1"><sup>1</sup>INRAE, EPIdémiologie des maladies Animales et zoonotiques, 69280, Marcy L’Etoile, France</aff><aff id="aff2"><sup>2</sup>Avignon Université, Master Ingénierie M1 Intelligence Artificielle, 84000, Avignon, France</aff><aff id="aff3"><sup>3</sup>INRAE, Génétique et Amélioration des Fruits et Légumes, F-84143 Montfavet, France</aff><pub-date date-type="created">
<day>4</day>
<month>0</month>
<year>2026</year>
</pub-date>
<permissions>
<copyright-statement>Copyright © 1970 Naïma Dambrine, Matthieu Deloget, Jacques Lagnel, Lucie Tamisier</copyright-statement>
<copyright-year>1970</copyright-year>
<copyright-holder>Naïma Dambrine, Matthieu Deloget, Jacques Lagnel, Lucie Tamisier</copyright-holder>
<license>
<license-p></license-p>
</license>
</permissions>
<abstract xml:lang="en"><p>This project explores the application of Deep Learning to the automatic classification of symptoms caused by the watermelon mosaic virus (WMV) on melon, a crop heavily affected by this virus. A lightweight classification model was designed and trained on leaf images, then converted to TFLite format for on-board deployment on smartphones. Particular attention was paid to data preparation, visual noise reduction and mobile compatibility. The resulting mobile application enables rapid, localised prediction of disease stages, paving the way for diagnostic support in experimental conditions.</p></abstract><abstract xml:lang="fr"><p>Ce projet explore l’application du Deep Learning à la classification automatique des symptômes causés par le watermelon mosaic virus (WMV) sur melon, une culture fortement affectée par ce virus. Un modèle léger de classification a été conçu et entraîné à partir d’images de feuilles, puis converti au format TFLite pour un déploiement embarqué sur smartphone. Une attention particulière a été portée à la préparation des données, à la réduction du bruit visuel et à la compatibilité mobile. L’application mobile obtenue permet une prédiction rapide et localisée des stades de la maladie, ouvrant la voie à une aide au diagnostic en conditions expérimentales.</p></abstract>
<kwd-group>
<kwd>Apprentissage Profond</kwd>
<kwd>classification d’images</kwd>
<kwd>YOLOv8</kwd>
<kwd>cls</kwd>
<kwd>réseaux de neurones convolutifs</kwd>
<kwd>melon</kwd>
<kwd>watermelon mosaic virus (WMV)</kwd>
<kwd>détection de maladies des plantes</kwd>
<kwd>phénotypage</kwd>
<kwd>application mobile</kwd>
<kwd>modèles légers</kwd>
<kwd>Deep Learning</kwd>
<kwd>image classification</kwd>
<kwd>YOLOv8</kwd>
<kwd>cls</kwd>
<kwd>convolutional neural networks</kwd>
<kwd>melon</kwd>
<kwd>watermelon mosaic virus (WMV)</kwd>
<kwd>plant disease detection</kwd>
<kwd>phenotyping</kwd>
<kwd>mobile application</kwd>
<kwd>lightweight models</kwd>
</kwd-group>
</article-meta>
</front>
<body>
<sec id="h0-introduction"><title>Introduction</title>
<p>Les virus des plantes représentent une menace majeure en agriculture, compromettant à la fois les rendements et la qualité des récoltes. Le watermelon mosaic virus (WMV ; genre <italic>Potyvirus</italic>, famille <italic>Potyviridae</italic>) est un des principaux virus infectant les cucurbitacées comme le melon, la pastèque, la courgette ou le concombre. Présent dans le monde entier, le WMV est particulièrement répandu dans les zones tempérées et méditerranéennes (<xref ref-type="bibr" rid="ref2">Desbiez, 2020</xref>).</p>
<p>En l’absence de méthodes curatives, l’utilisation de variétés de plantes génétiquement résistantes constitue l’un des principaux moyens de lutte contre les virus (<xref ref-type="bibr" rid="ref7">Kang et al., 2005</xref>). Le développement de ces variétés nécessite de phénotyper plusieurs centaines de génotypes de plante afin d’évaluer leur niveau de résistance à l’agent pathogène, puis d’exploiter ces données à l’aide de modèles génétiques permettant d’identifier les gènes de résistance impliqués (<xref ref-type="bibr" rid="ref8">Korte &amp; Farlow, 2013</xref>).</p>
<p>Chez le pathosystème melon-WMV, une méthode de phénotypage couramment employée consiste à noter la sévérité des symptômes foliaires selon une échelle de notation standardisée (<xref ref-type="bibr" rid="ref3">Díaz-Pendón et al., 2005</xref> ; <xref ref-type="bibr" rid="ref6">Gilbert et al., 1994</xref> ; <xref ref-type="bibr" rid="ref10">López-Martín et al., 2024</xref> ; <xref ref-type="bibr" rid="ref13">Palomares-Rius et al., 2011</xref>). Les symptômes peuvent aller de faibles mosaïques à des déformations foliaires sévères selon les souches virales et les génotypes de plante (<xref ref-type="bibr" rid="ref9">Lecoq &amp; Desbiez, 2012</xref>). Ce phénotypage visuel reste cependant subjectif et dépend fortement de l’expertise de l’observateur, ce qui peut introduire des variations entre évaluateurs. De plus, ce travail de phénotypage demeure une étape longue et fastidieuse dans les programmes de recherche et de sélection variétale. Le développement d’outils permettant de standardiser et d’automatiser la reconnaissance et la quantification des symptômes ouvre donc des perspectives majeures pour l’amélioration génétique des cucurbitacées et la gestion durable des maladies virales.</p>
<p>Dans ce contexte, nous avons cherché à développer un outil d’analyse automatisée des symptômes du WMV, en nous appuyant sur des approches de vision par ordinateur et d’intelligence artificielle (<xref ref-type="bibr" rid="ref4">Ferentinos, 2018</xref> ; <xref ref-type="bibr" rid="ref11">Mohanty et al., 2016</xref> ). L’objectif est de concevoir un modèle léger, embarquable sur smartphone, capable de classifier l’intensité des symptômes à partir de photos de feuilles asymptomatiques ou infectées, dans le cadre du phénotypage de masse.</p>
<p>L’essor de l’intelligence artificielle (IA) et des méthodes d’analyse d’image offre de nouvelles perspectives pour automatiser et standardiser ces observations. L’analyse par Deep Learning, en particulier, permet de classifier automatiquement les symptômes à partir de simples photographies de feuilles (<xref ref-type="bibr" rid="ref1">Barbedo, 2019</xref>).</p>
<p>Une étude exploratoire a été menée pour évaluer cette approche dans le contexte du WMV, en s’appuyant sur la constitution d’un jeu d’images annotées et l’expérimentation de plusieurs architectures de classification, jusqu’au déploiement du modèle retenu dans une application mobile dédiée (<xref ref-type="bibr" rid="ref12">Mrisho et al., 2020</xref>). Nous en présentons ici les principales étapes : préparation et traitement du jeu de données, entraînement et évaluation du modèle retenu, puis intégration dans un outil léger, simple d’usage et adapté aux besoins du phénotypage en conditions expérimentales.</p>
</sec>
<sec id="h1-preparation-et-traitement-du-jeu-de-donnees"><title>Préparation et traitement du jeu de données</title>
<sec id="h0-constitution-du-jeu-de-donnees"><title>Constitution du jeu de données</title>
<p>Le jeu de données a été obtenu en semant 130 génotypes de melon (<italic>Cucumis</italic> <italic>melo</italic>) représentatifs de la diversité mondiale de l’espèce et présentant différents niveaux de résistance au WMV, avec 6 plantes par génotype. Une semaine après semis, les plantes ont été inoculées mécaniquement avec la souche LL1A. Un mois après inoculation, une feuille par plante a été prélevée pour réaliser la prise de photo. L’expérience a été effectuée en conditions contrôlées en chambre de culture (photopériode : 16h lumière/8h obscurité, températures : 24°C jour/18°C nuit).</p>
<p>Les photographies ont été réalisées dans des conditions maîtrisées (fond noir, distance fixe grâce à un trépied) afin d’assurer l’homogénéité des images et de limiter les biais d’analyse. Les images ont ensuite été classées manuellement selon une échelle en quatre stades, du stade 0 : feuille asymptomatique au stade 3 : forte déformation foliaire (figure 1).</p>
<p>En vue de leur utilisation dans un modèle d’apprentissage automatique, les images ont ensuite fait l’objet d’un prétraitement structuré comprenant les étapes suivantes : un nettoyage des images (recadrage, redimensionnement, suppression des doublons ou images floues), une gestion des déséquilibres entre classes (par échantillonnage et équilibrage), ainsi qu’une augmentation des données via des transformations simples (rotations, symétries, variations de luminosité).</p>
<p><fig><caption><title><bold>Figure 1. Exemples d’images de feuilles de melon représentatives de l’intensité des symptômes causés par le WMV pour chacun des 4 stades (0 à 3)</bold></title>
<p>Prétraitement des images</p>
</caption><graphic xlink:href="media/image1.jpg" /></fig></p>
<p>Les images brutes, d’une résolution initiale de 4496×3000 pixels, ont fait l’objet d’un prétraitement systématique (figure 2) visant à améliorer la qualité du signal et à normaliser les entrées du modèle. Une procédure automatique a permis de détecter la feuille dominante en exploitant son contraste avec le fond noir et la proportion de pixels verts. Le contour présentant le meilleur ratio de pixels verts dans l’espace HSV était sélectionné, puis utilisé pour extraire la feuille sous forme de masque binaire.</p>
<p>Le fond était ensuite remplacé par une couleur uniforme (gris moyen), et l’image recadrée autour de la feuille. Chaque image était finalement redimensionnée à 640×640 pixels sans distorsion, via une mise à l’échelle conservant le rapport hauteur/largeur, suivie d’un padding homogène sur fond gris.</p>
<p><fig><caption><title>Figure 2. Prétraitement : détection et sélection de la feuille dominante, fond uniforme, redimensionnement pour l’entraînement</title>
</caption><graphic xlink:href="media/image2.jpg"><alt-text>Une image contenant feuille, plante Le contenu généré par l’IA peut être incorrect.</alt-text></graphic></fig></p>
</sec>
<sec id="h2-equilibrage-du-jeu-de-donnees"><title>Équilibrage du jeu de données</title>
<p>Le jeu de données ainsi obtenu présente un déséquilibre notable entre classes, en particulier pour le stade 3 (formes sévères). Pour anticiper les biais d’apprentissage, les données ont été réparties de manière stratifiée en deux ensembles : 80% pour l’entrainement et 20% pour la validation, tout en conservant une distribution représentative des stades dans les ensembles originaux (figure 3).</p>
<p><fig><caption><title><bold>Figure 3. Distribution des classes dans le jeu de données complet, puis dans les ensembles d’entraînement et de validation après répartition stratifiée (80% / 20%).</bold></title>
<p>Le déséquilibre du stade 3, motive l’exploration d’une augmentation ciblée.</p>
</caption><graphic xlink:href="media/image3.jpg" /></fig></p>
</sec>
<sec id="h2-augmentation-de-donnees-ciblee"><title>Augmentation de données ciblée</title>
<p>Afin d’atténuer le déséquilibre observé, une stratégie d’augmentation de données ciblée a été mise en œuvre pour la classe 3. A chaque image ont été appliquées des transformations contrôlées : retournement horizontal, zoom, translation, rotation légère, et flou modéré.</p>
<p>Cette démarche a permis d’augmenter la diversité intra-classe sans introduire d’artéfacts visuels.</p>
<p>Les matrices de confusion ont été établies à partir des prédictions du modèle de classification YOLOv8m-cls (Ultralytics) sur l’ensemble de validation : chaque image est affectée à la classe la plus probable (argmax), puis la matrice est normalisée par classe vraie afin d’exprimer des proportions. Compte tenu du faible effectif de validation pour la classe 3 (n = 14), nous rapportons en complément une analyse sur une validation enrichie (169 images originales + 28 variantes transformées), interprétée comme un test de sensibilité à des transformations légères. Les matrices de confusion correspondantes sont présentées en Figure 4. Les résultats suggèrent une amélioration de la détection du stade 3, au prix d’une baisse du score top-1 global (0.905 sans augmentation vs 0.878 avec augmentation).</p>
<p><fig><caption><title>Figure 4. Matrices de confusion normalisées obtenues avec un réseau de classification YOLOv8m-cls (Ultralytics), avant et après augmentation ciblée de la classe 3 appliquée à l’ensemble d’entraînement.</title>
<p>L’évaluation est réalisée sur une validation enrichie utilisée comme test de sensibilité aux transformations.</p>
</caption><graphic xlink:href="media/image4.jpg" /></fig></p>
</sec>
</sec>
<sec id="h1-entrainement-et-evaluation-du-modele"><title>Entrainement et évaluation du modèle</title>
<p>Cette étude vise avant tout à illustrer une démarche de classification supervisée et un pipeline d’entraînement reproductible dans un contexte de données limitées. En l’absence d’un volume suffisant pour constituer un ensemble de test indépendant, les performances sont rapportées sur un ensemble de validation, complétées par une analyse par classe (matrices de confusion) et une évaluation de sensibilité aux transformations lorsque pertinent.</p>
<p>Plusieurs modèles de classification visuelle ont été évalués : YOLOv11n-cls, YOLOv8n-cls, et YOLOv8m-cls. Le modèle YOLOv8m-cls a été retenu pour son bon compromis entre robustesse et rapidité d’inférence.</p>
<p>L’entrainement a été réalisé avec la bibliothèque Ultralytics, en mode classification supervisée, sur des images 640x640 pixels avec les paramètres suivants :</p>
<list list-type="bullet"><list-item><p><bold>Nombre d’époques</bold> : 50</p>
</list-item><list-item><p><bold>Batch size</bold> : 16</p>
</list-item><list-item><p><bold>Optimiseur</bold> : Adam avec un taux d’apprentissage initial de 0.001</p>
</list-item><list-item><p><bold>Scheduler du taux d’apprentissage</bold> : automatique (avec <italic>early</italic> <italic>stopping</italic> si stagnation)</p>
</list-item><list-item><p><bold>Patience</bold> : 10</p>
</list-item><list-item><p><bold>Augmentations</bold> : désactivées initialement, car les transformations par défaut d’Ultralytics introduisaient des artefacts visuels peu cohérents avec les cas réels</p>
</list-item><list-item><p><bold>Classes</bold> : 4 niveaux de gravité (de l’absence de symptômes jusqu’à la forte déformation de la feuille)</p>
</list-item><list-item><p><bold>Répartition</bold> : 80 % entraînement, 20 % validation (aléatoire mais stratifiée)</p>
</list-item><p>Une expérimentation ultérieure avec la bibliothèque Albumentations a permis d’identifier des augmentations plus adaptées, notamment pour la classe 3, sous-représentée. En appliquant des transformations réalistes (rotation légère, flou modéré, etc), il a été possible d’augmenter la diversité sans nuire à la lisibilité des symptômes.</p>
<p>Sur la validation originale, le modèle atteint une précision top-1 de 0.905. L’augmentation ciblée de la classe 3 vise à améliorer la reconnaissance des formes sévères et est analysée via les matrices de confusion (Figure 4) ; sur l’évaluation enrichie, le score top-1 global est de 0.878. Ces tendances devront être confirmées sur un jeu de données de validation plus large.</p>
</list></sec>
<sec id="h1-integration-dans-une-application-mobile"><title>Intégration dans une application mobile</title>
<sec id="h0-conversion-et-deploiement-mobile"><title>Conversion et déploiement mobile</title>
<p>Le modèle final a été converti au format TFLite pour permettre son exécution directe sur smartphone. Deux optimisations complémentaires ont été appliquées :</p>
<list list-type="bullet"><list-item><p>Quantification float16 lors de l’export TFLite (half=True), réduisant la taille du modèle sans perte notable de précision.</p>
</list-item><list-item><p>Chargement avec délégation GPU (GpuDelegateV2) assurant une inférence fluide : </p>
</list-item><list-item><list list-type="bullet"><list-item><p>moins de 700 ms sur smartphone récent (moins d’un an).</p>
</list-item><list-item><p>moins de 2700 ms sur un appareil ancien (6 à 7 ans).</p>
</list-item></list></list-item></list></sec>
<sec id="h2-developpement-de-l-application-mobile"><title>Développement de l’application mobile</title>
<p>L’application mobile, développée avec Flutter pour une compatibilité Android/iOS, permet à l’utilisateur de prendre une photo ou d’en sélectionner une dans la galerie, d’envoyer l’image au modèle embarqué, puis d’afficher le stade estimé accompagné d’une probabilité (Figure 5).</p>
<p>L’inférence se fait hors-ligne, garantissant un usage autonome sans connexion réseau.</p>
<p>L’interface est minimaliste et accessible à un public non spécialiste. Elle sert également de pré-test avant une phase 2 axée sur la détection en temps réel sur le terrain.</p>
<p><fig><caption><title>Figure 5. Aperçu de l’interface mobile (iPhone)</title>
</caption><graphic xlink:href="media/image5.jpg"><alt-text>Une image contenant texte, légume, capture d’écran Le contenu généré par l’IA peut être incorrect.</alt-text></graphic></fig></p>
</sec>
</sec>
<sec id="h1-resultats"><title>Résultats</title>
<sec id="h0-precision-de-classification"><title>Précision de classification</title>
<p>Le modèle YOLOv8m-cls atteint une précision top-1 de 0.905 sur l’ensemble de validation, avec un bon équilibre entre les différentes classes (Tableau 1).</p>
<table-wrap orientation="portrait" position="float"><caption><title>Tableau 1. Récapitulatif des classes / métriques</title>
</caption><table><tbody><tr>	<td><p><bold>Classe</bold></p>
</td>
	<td><p><bold>Label</bold></p>
</td>
	<td><p><bold>Nombre d’images</bold></p>
</td>
	<td><p><bold>Précision top-1 (%)</bold></p>
</td>
</tr>
<tr>	<td><p>0</p>
</td>
	<td><p>asymptomatique</p>
</td>
	<td><p>212</p>
</td>
	<td><p>92.0</p>
</td>
</tr>
<tr>	<td><p>1</p>
</td>
	<td><p>mosaïque faible</p>
</td>
	<td><p>259</p>
</td>
	<td><p>85.3</p>
</td>
</tr>
<tr>	<td><p>2</p>
</td>
	<td><p>mosaïque forte</p>
</td>
	<td><p>309</p>
</td>
	<td><p>84.2</p>
</td>
</tr>
<tr>	<td><p>3</p>
</td>
	<td><p>forte déformation</p>
</td>
	<td><p>71</p>
</td>
	<td><p>91.1</p>
</td>
</tr>
</tbody></table>
</table-wrap><p>L’augmentation ciblée de la classe 3 s’est avérée déterminante pour améliorer la détection des formes sévères, initialement sous-représentées.</p>
<p>La matrice de confusion indique une nette amélioration de la reconnaissance du stade 3, sans dégradation significative des performances globales (Figure 4).</p>
</sec>
<sec id="h2-temps-d-inference"><title>Temps d'inférence</title>
<p>Des tests ont été réalisés sur différents appareils afin d’évaluer le temps d’inférence du modèle embarqué. Les résultats varient selon les performances matérielles, allant de 700 ms sur les smartphones récents à 2700 ms sur des smartphones plus anciens (&gt; 5 ans) (Tableau 2).</p>
<p />
<table-wrap orientation="portrait" position="float"><caption><title>Tableau 2. Comparaison des temps d’inférence par plateforme</title>
</caption><table><tbody><tr>	<td><p><bold>Plateforme</bold></p>
</td>
	<td><p><bold>Délégateur</bold></p>
</td>
	<td><p><bold>Temps moyen (ms)</bold></p>
</td>
	<td><p><bold>Commentaire technique</bold></p>
</td>
</tr>
<tr>	<td><p>MacBook (YOLO)</p>
</td>
	<td><p>CPU/GPU natif</p>
</td>
	<td><p>~55</p>
</td>
	<td><p>YOLOv8m, inférence directe avec Ultralytics</p>
</td>
</tr>
<tr>	<td><p>MacBook (TFLite)</p>
</td>
	<td><p>CPU TFLite</p>
</td>
	<td><p>~800</p>
</td>
	<td><p>Modèle float16, sans délégué GPU</p>
</td>
</tr>
<tr>	<td><p>Galaxy A40</p>
</td>
	<td><p>CPU (sans délégué)</p>
</td>
	<td><p>~9000</p>
</td>
	<td><p>Très lent, traitement purement CPU</p>
</td>
</tr>
<tr>	<td><p>Galaxy A40</p>
</td>
	<td><p>GPUDelegateV2</p>
</td>
	<td><p>~3600</p>
</td>
	<td><p>Temps divisé par 2–3 grâce au GPU Delegate</p>
</td>
</tr>
<tr>	<td><p>iPhone XR</p>
</td>
	<td><p>CPU uniquement</p>
</td>
	<td><p>~1800</p>
</td>
	<td><p>Bonne performance sans Metal</p>
</td>
</tr>
<tr>	<td><p>iPhone 16</p>
</td>
	<td><p>CPU uniquement</p>
</td>
	<td><p>~720</p>
</td>
	<td><p>Excellente réactivité malgré l’absence de support Metal</p>
</td>
</tr>
</tbody></table>
</table-wrap></sec>
<sec id="h2-precisions-techniques"><title>Précisions techniques</title>
<list list-type="bullet"><list-item><p>Android : Le délégué GpuDelegateV2 de TensorFlow Lite est disponible et améliore nettement les performances. À activer dès que possible.</p>
</list-item><list-item><p>iOS : Le plugin tflite_flutter ne prend pas encore en charge Metal (GPU d’Apple). L’inférence se fait donc sur CPU, mais les appareils récents (comme l’iPhone 16) montrent une excellente réactivité.</p>
</list-item><list-item><p>L’application adapte dynamiquement la configuration de l’interpréteur selon la plateforme, (Platform.isAndroid, Platform.isIOS).</p>
</list-item></list></sec>
<sec id="h2-precision-et-robustesse"><title>Précision et robustesse</title>
<p>Les prédictions faites avec le modèle TFLite float16 sont cohérentes avec celles générées en Python avec le modèle YOLOv8 natif, avant conversion. Cela confirme la fidélité de la conversion et la robustesse du modèle embarqué.</p>
</sec>
</sec>
<sec id="h1-conclusion"><title>Conclusion</title>
<p>Ce projet confirme la faisabilité d’un diagnostic embarqué des symptômes foliaires induits par le WMV chez le melon basé sur l’intelligence artificielle, via un modèle de classification intégré à une application mobile.</p>
<p>Il démontre la possibilité d’un cycle complet, de l’annotation à l’inférence sur smartphone, sans infrastructure serveur ni connexion Internet.</p>
<p>Le prototype mis en place est robuste, rapide (inférence &lt; 1 seconde sur iPhone récent), et facilement transposable. Il pourrait être adapté à d’autres maladies du melon ou à d’autres cultures, en ajustant les jeux de données et les classes.</p>
<p>Enfin, ce travail montre qu’un tel système peut être conçu en autonomie par une petite équipe, dans une logique ouverte et réutilisable. Bien qu’à ce stade aucun test collectif structuré n’a encore été réalisé, il constitue un socle utile pour une phase 2, axée sur les tests en conditions réelles et l’amélioration du système pour un usage terrain, dans un esprit de réplicabilité et d’application concrète.</p>
</sec>
<sec id="h1-perspectives"><title>Perspectives</title>
<p>Le prototype développé ouvre plusieurs pistes d’évolution.</p>
<list list-type="bullet"><list-item><p>Généralisation à d’autres maladies ou espèces :</p>
</list-item><p>La chaîne de traitement (constitution du jeu de données, entraînement, conversion, intégration mobile) est entièrement réplicable. Un projet similaire pourrait être mené sur d’autres virus du melon, ou élargi à d’autres cultures présentant des symptômes visuels (tomate, vigne, etc.). </p>
<p>Dans cette perspective, une phase d’extension du jeu de données, en particulier pour les stades sévères, serait nécessaire pour renforcer la robustesse du modèle. L’objectif serait de disposer de plusieurs centaines, voire milliers d’images par classe, afin d’améliorer la généralisation et de préparer un déploiement en conditions réelles.</p>
<list-item><p>Ajout d’un module de traçabilité :</p>
</list-item><p>Un historique local ou exportable (par exemple en CSV) pourrait être ajouté afin de suivre des diagnostics dans le temps, associant à chaque image sa date, sa localisation et le stade détecté.</p>
<list-item><p>Plateforme collaborative :</p>
</list-item><p>L’application pourrait s’intégrer à une plateforme web ouverte, dans une logique de science participative, permettant à des collecteurs de transmettre leurs observations et de contribuer à la veille sanitaire.</p>
<list-item><p>Amélioration du traitement IA :</p>
</list-item><p>Des pistes plus avancées peuvent être explorées :</p>
<list-item><list list-type="bullet"><list-item><p>étude du développement de la maladie sur plante entière (et non feuille détachée) comme l’ont déjà entrepris <xref ref-type="bibr" rid="ref5">Fuentes et al. (2017)</xref> pour la tomate,</p>
</list-item><list-item><p>segmentation des zones atteintes (et non une simple classification),</p>
</list-item><list-item><p>analyse de courtes vidéos pour stabiliser les prédictions,</p>
</list-item><list-item><p>intégration de modèles multitâches (diagnostic, géolocalisation, suivi temporel).</p>
</list-item><p>Ces développements pourraient être amorcés dans le cadre d’un stage de Master 2, notamment pour explorer l’extension du diagnostic de la feuille isolée à la plante entière, étape plus complexe nécessitant un jeu de données adapté.</p>
</list></list-item></list></sec>
</body>
<back>
<fn-group /><ref-list><ref id="ref1"><label>1</label><mixed-citation><name><surname>Barbedo</surname><given-names>J. G. A.</given-names></name><year>2019</year><article-title>Plant disease identification from individual lesions and spots using deep learning</article-title><source>Biosystems Engineering</source><volume>180</volume><page-range>96107</page-range><ext-link ext-link-type="doi" xlink:href="https://doi.org/10.1016/j.biosystemseng.2019.02.002">https://doi.org/10.1016/j.biosystemseng.2019.02.002</ext-link></mixed-citation></ref>
<ref id="ref2"><label>2</label><mixed-citation><name><surname>Desbiez</surname><given-names>C.</given-names></name><year>2020</year><article-title>The never-ending story of cucurbits and viruses</article-title><source>Acta Horticulturae</source><volume>1294</volume><page-range>173192</page-range><ext-link ext-link-type="doi" xlink:href="https://doi.org/10.17660/actahortic.2020.1294.23">https://doi.org/10.17660/actahortic.2020.1294.23</ext-link></mixed-citation></ref>
<ref id="ref3"><label>3</label><mixed-citation><name><surname>Díaz-Pendón</surname><given-names>J. A.</given-names></name><name><surname>Fernández-Muñoz</surname><given-names>R.</given-names></name><name><surname>Gómez-Guillamón</surname><given-names>M. L.</given-names></name><name><surname>Moriones</surname><given-names>E.</given-names></name><year>2005</year><article-title>Inheritance of resistance to Watermelon mosaic virus in Cucumis melo that impairs virus accumulation, symptom expression, and aphid transmission</article-title><source>Phytopathology</source><volume>95</volume><issue>7</issue><page-range>840846</page-range><ext-link ext-link-type="doi" xlink:href="https://doi.org/10.1094/phyto-95-0840">https://doi.org/10.1094/phyto-95-0840</ext-link></mixed-citation></ref>
<ref id="ref4"><label>4</label><mixed-citation><name><surname>Ferentinos</surname><given-names>K. P.</given-names></name><year>2018</year><article-title>Deep learning models for plant disease detection and diagnosis</article-title><source>Computers and Electronics in Agriculture</source><volume>145</volume><page-range>311318</page-range><ext-link ext-link-type="doi" xlink:href="https://doi.org/10.1016/j.compag.2018.01.009">https://doi.org/10.1016/j.compag.2018.01.009</ext-link></mixed-citation></ref>
<ref id="ref5"><label>5</label><mixed-citation><name><surname>Fuentes</surname><given-names>A.</given-names></name><name><surname>Yoon</surname><given-names>S.</given-names></name><name><surname>Kim</surname><given-names>S.</given-names></name><name><surname>Park</surname><given-names>D.</given-names></name><year>2017</year><article-title>A robust deep-learning-based detector for real-time tomato plant diseases and pests recognition</article-title><source>Sensors</source><volume>17</volume><issue>9</issue><page-range>2022</page-range><ext-link ext-link-type="doi" xlink:href="https://doi.org/10.3390/s17092022">https://doi.org/10.3390/s17092022</ext-link></mixed-citation></ref>
<ref id="ref6"><label>6</label><mixed-citation><name><surname>Gilbert</surname><given-names>R. Z.</given-names></name><name><surname>Kyle</surname><given-names>M. M.</given-names></name><name><surname>Munger</surname><given-names>H. M.</given-names></name><name><surname>Gray</surname><given-names>S. M.</given-names></name><year>1994</year><article-title>Inheritance of resistance to Watermelon Mosaic Virus in Cucumis melo L</article-title><source>HortScience</source><volume>29</volume><issue>2</issue><page-range>107110</page-range><ext-link ext-link-type="doi" xlink:href="https://doi.org/10.21273/hortsci.29.2.107">https://doi.org/10.21273/hortsci.29.2.107</ext-link></mixed-citation></ref>
<ref id="ref7"><label>7</label><mixed-citation><name><surname>Kang</surname><given-names>B.</given-names></name><name><surname>Yeam</surname><given-names>I.</given-names></name><name><surname>Jahn</surname><given-names>M. M.</given-names></name><year>2005</year><article-title>Genetics of plant virus resistance</article-title><source>Annual Review of Phytopathology</source><volume>43</volume><issue>1</issue><page-range>581621</page-range><ext-link ext-link-type="doi" xlink:href="https://doi.org/10.1146/annurev.phyto.43.011205.141140">https://doi.org/10.1146/annurev.phyto.43.011205.141140</ext-link></mixed-citation></ref>
<ref id="ref8"><label>8</label><mixed-citation><name><surname>Korte</surname><given-names>A.</given-names></name><name><surname>Farlow</surname><given-names>A.</given-names></name><year>2013</year><article-title>The advantages and limitations of trait analysis with GWAS : a review</article-title><source>Plant Methods</source><volume>9</volume><issue>1</issue><page-range>29</page-range><ext-link ext-link-type="doi" xlink:href="https://doi.org/10.1186/1746-4811-9-29">https://doi.org/10.1186/1746-4811-9-29</ext-link></mixed-citation></ref>
<ref id="ref9"><label>9</label><mixed-citation><name><surname>Lecoq</surname><given-names>H.</given-names></name><name><surname>Desbiez</surname><given-names>C.</given-names></name><year>2012</year><article-title>Viruses of cucurbit crops in the mediterranean region</article-title><source>Advances in Virus Research</source><volume>84</volume><page-range>67126</page-range><ext-link ext-link-type="doi" xlink:href="https://doi.org/10.1016/b978-0-12-394314-9.00003-8">https://doi.org/10.1016/b978-0-12-394314-9.00003-8</ext-link></mixed-citation></ref>
<ref id="ref10"><label>10</label><mixed-citation><name><surname>López-Martín</surname><given-names>M.</given-names></name><name><surname>Montero-Pau</surname><given-names>J.</given-names></name><name><surname>Ylla</surname><given-names>G.</given-names></name><name><surname>Gómez-Guillamón</surname><given-names>M. L.</given-names></name><name><surname>Picó</surname><given-names>B.</given-names></name><name><surname>Pérez-De-Castro</surname><given-names>A.</given-names></name><year>2024</year><article-title>Insights into the early transcriptomic response against watermelon mosaic virus in melon</article-title><source>BMC Plant Biology</source><volume>24</volume><issue>1</issue><page-range>58</page-range><ext-link ext-link-type="doi" xlink:href="https://doi.org/10.1186/s12870-024-04745-x">https://doi.org/10.1186/s12870-024-04745-x</ext-link></mixed-citation></ref>
<ref id="ref11"><label>11</label><mixed-citation><name><surname>Mohanty</surname><given-names>S. P.</given-names></name><name><surname>Hughes</surname><given-names>D. P.</given-names></name><name><surname>Salathé</surname><given-names>M.</given-names></name><year>2016</year><article-title>Using deep learning for image-based plant disease detection</article-title><source>Frontiers in Plant Science</source><volume>7</volume><page-range>1419</page-range><ext-link ext-link-type="doi" xlink:href="https://doi.org/10.3389/fpls.2016.01419">https://doi.org/10.3389/fpls.2016.01419</ext-link></mixed-citation></ref>
<ref id="ref12"><label>12</label><mixed-citation><name><surname>Mrisho</surname><given-names>L. M.</given-names></name><name><surname>Mbilinyi</surname><given-names>N. A.</given-names></name><name><surname>Ndalahwa</surname><given-names>M.</given-names></name><name><surname>Ramcharan</surname><given-names>A. M.</given-names></name><name><surname>Kehs</surname><given-names>A. K.</given-names></name><name><surname>Mccloskey</surname><given-names>P. C.</given-names></name><name><surname>Murithi</surname><given-names>H.</given-names></name><name><surname>Hughes</surname><given-names>D. P.</given-names></name><name><surname>Legg</surname><given-names>J. P.</given-names></name><year>2020</year><article-title>Accuracy of a smartphone-based object detection model, PlantVillage Nuru, in identifying the foliar symptoms of the viral diseases of Cassava–CMD and CBSD</article-title><source>Frontiers in Plant Science</source><volume>11</volume><page-range>590889</page-range><ext-link ext-link-type="doi" xlink:href="https://doi.org/10.3389/fpls.2020.590889">https://doi.org/10.3389/fpls.2020.590889</ext-link></mixed-citation></ref>
<ref id="ref13"><label>13</label><mixed-citation><name><surname>Palomares-Rius</surname><given-names>F. J.</given-names></name><name><surname>Viruel</surname><given-names>M. A.</given-names></name><name><surname>Yuste-Lisbona</surname><given-names>F. J.</given-names></name><name><surname>López-Sesé</surname><given-names>A. I.</given-names></name><name><surname>Gómez-Guillamón</surname><given-names>M. L.</given-names></name><year>2011</year><article-title>Simple sequence repeat markers linked to QTL for resistance to Watermelon mosaic virus in melon</article-title><source>Theoretical and Applied Genetics</source><volume>123</volume><issue>7</issue><page-range>12071214</page-range><ext-link ext-link-type="doi" xlink:href="https://doi.org/10.1007/s00122-011-1660-2">https://doi.org/10.1007/s00122-011-1660-2</ext-link></mixed-citation></ref>
</ref-list></back>
</article>