Accueil » Conception et réalisation d’un système avancé de drone pour la détection et la classification des objets marins

Conception et réalisation d’un système avancé de drone pour la détection et la classification des objets marins

Ce projet vise à développer un système avancé de drone pour la détection et la classification des objets marins en utilisant des techniques d’apprentissage automatique et de vision par ordinateur. Les simulations ont démontré l’efficacité des algorithmes intégrés pour identifier et classer les objets avec précision.

CRMN SOUSSE
IA & Data Science | Génie Logiciel
[PROJECT_IMAGE]
Conception et réalisation d’un système avancé de drone pour la détection et la classification des objets marins
BAOULA N. Abdoul – Aziz
Dr. Fakher BEN FTIMA, Dr. Houneida SAKLY, Ing. Dhaker MNARINGOULALY WA M. Cleeve
2023/2024

Contenu du document
Remerciements

Nous tenons tout d’abord a` exprimer notre gratitude envers Dieu, le Tout-Puissant, pour nous avoir accord´e la force et le courage n´ecessaires pour mener `a bien ce travail.

Nous souhaitons adresser nos plus sinc`eres remerciements a` notre directeur de m´emoire, le Dr. Fakher BEN FTIMA, pour son soutien constant, ses pr´ecieux conseils, et sa patience tout au long de cette recherche. Sa disponibilit´e et son int´erˆet pour nos travaux ont ´et´e d’une aide inestimable.

Nous tenons ´egalement `a exprimer notre reconnaissance envers nos encadrants pro- fessionnels, la Dr. Houneida SAKLY et Mr Dhaker Boubaker MNARI, pour leur soutien et leur contribution a` ce projet.

Nous souhaitons ´egalement remercier tous les professeurs qui ont partag´e leurs connaissances et leur expertise avec nous au cours de nos ´etudes, ainsi que tous les intervenants professionnels qui ont enrichi notre parcours acad´emique.

Nous ne saurions oublier nos amis de l’EPI Sousse, de la Tunisie et du Burkina Faso, qui ont ´et´e une source constante de soutien moral et intellectuel tout au long de cette aventure.

Enfin, un immense merci `a notre famille pour son soutien ind´efectible. Nos parents, en particulier, ont ´et´e une source in´epuisable de motivation, et nos fr`eres et sœurs ont toujours ´et´e l`a pour nous encourager dans nos projets.

Nous sommes profond´ement reconnaissants envers chacune de ces personnes qui ont contribu´e, de pr`es ou de loin, `a la r´ealisation de ce travail.

D´edicaces

Je d´edie ce travail a` ma m`ere Mahoua BAOULA, a` mon p`ere Poh´e Issa BAOULA et a` mes deux fr`eres B´echir BAOULA et Yassir BAOULA.

Acronymes

CRMN : Centre de Recherche en Micro´electronique et Nanotechnologie UML : Unified Modeling Language (Langage de Mod´elisation Unifi´e) YOLO : You Only Look Once

FASTER RCNN : Faster Region-Based Convolutional Neural Network AUV : Autonomous Underwater Vehicle (V´ehicule Sous-Marin Autonome) IA : Intelligence Artificielle

UUV : Unmanned Underwater Vehicle (V´ehicule Sous-Marin T´el´ecommand´e) CNN : Convolutional Neural Network (R´eseau de Neurones Convolutifs) PID : Proportionnel-Int´egral-D´eriv´e (Proportional-Integral-Derivative)

GPS : Global Positioning System (Syst`eme de Positionnement Global)

CIoU : Complete Intersection over Union

MixUp : Technique de Data Augmentation pour les R´eseaux Neurones CFD : Computational Fluid Dynamics (Dynamique des Fluides Num´eriques) FEA : Finite Element Analysis (Analyse par E´l´ements Finis)

CAO/CAD : Conception Assist´ee par Ordinateur

3D : Trois Dimensions

CRISP-DM : Cross Industry Standard Process for Data Mining

KDD : Knowledge Discovery in Databases (D´ecouverte de Connaissances dans les Bases de Donn´ees)

SEMMA : Sample, Explore, Modify, Model, and Assess (E´chantillonner, Explorer, Modifier, Mod´eliser et E´valuer)

TDSP : Team Data Science Process (Processus d’E´quipe en Science des Donn´ees)

OBIS : Ocean Biogeographic Information System

STEP : Standard for the Exchange of Product model data

IGES : Initial Graphics Exchange Specification

STL : Stereolithography (Format de Fichier pour Mod´elisation 3D)

OBJ : Object File Format (Format de Fichier pour Mod´elisation 3D)

Table des mati`eres

R´esum´e i

Abstract ii

Remerciements iii

D´edicaces iv

Acronymes v

Table des mati`eres vi

Table des figures ix

Liste des tableaux xi

Introduction g´en´erale 1

• Cadre G´eneral du Projet 5Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5Pr´esentation de l’organisme d’accueil . . . . . . . . . . . . . . . . . . . . 5Probl´ematique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5Pr´esentation des travaux ant´erieurs dans le domaine de l’exploration sous- marine et de l’utilisation de drone . . . . . . . . . . . . . . . . . . . . . . 6Drones et capteurs . . . . . . . . . . . . . . . . . . . . . . . . . . 7D´etection et classification des objets marins . . . . . . . . . . . . 9Critique des solutions existantes 12Limitations des technologies existantes 12D´efis Non R´esolus 14Aspects Non Explor´es 14Solution propos´ee 15Pr´esentation des technologies utilis´ees 15SimScale 16Blender 17Streamlit 18Planification 19Conclusion 19
• Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
• Pr´esentation de l’organisme d’accueil . . . . . . . . . . . . . . . . . . . . 5
• Probl´ematique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
• Pr´esentation des travaux ant´erieurs dans le domaine de l’exploration sous- marine et de l’utilisation de drone . . . . . . . . . . . . . . . . . . . . . . 6Drones et capteurs . . . . . . . . . . . . . . . . . . . . . . . . . . 7D´etection et classification des objets marins . . . . . . . . . . . . 9
• Drones et capteurs . . . . . . . . . . . . . . . . . . . . . . . . . . 7
• D´etection et classification des objets marins . . . . . . . . . . . . 9
• Critique des solutions existantes 12Limitations des technologies existantes 12D´efis Non R´esolus 14Aspects Non Explor´es 14
• Limitations des technologies existantes 12
• D´efis Non R´esolus 14
• Aspects Non Explor´es 14
• Solution propos´ee 15
• Pr´esentation des technologies utilis´ees 15SimScale 16Blender 17Streamlit 18
• SimScale 16
• Blender 17
• Streamlit 18
• Planification 19
• Conclusion 19
• M´ethodologie de D´eveloppement 20Introduction 20Comparaison des diff´erentes m´ethodologies 20Compr´ehension du domaine 22Objectif 23R´esum´e des fonds marins 23Importance g´eoclimatique et environnementale 24Impact humain 24Analyse des donn´ees existantes 25Conditions m´et´eorologiques et climatiques 25Compr´ehension des donn´ees 26Pr´eparation des donn´ees 28Redimensionnement des images 28Normalisation des valeurs de pixels 28Augmentation des donn´ees 29Mod´elisation 30YOLO (You Only Look Once) 30Faster R-CNN : 32Comparaison des Mod`eles 34Tableau Comparatif 35Justification du Choix 36E´valuation 36Pr´ecision moyenne (mAP) 36Score F1 37Rappel moyen (mR) 37Pr´ecision moyenne par classe (mAPc) 38Nombre d’erreurs de localisation (LOC) 38Taux d’erreurs de localisation (LOCerr) 39Choix des m´etriques d’´evaluation 40D´eploiement 40Cr´eation de l’environnement marin 40Int´egration du mod`ele de d´etection d’objets 40Impl´ementation 40SimScale 40Blender 41Interface 41Conclusion 41
• Introduction 20
• Comparaison des diff´erentes m´ethodologies 20
• Compr´ehension du domaine 22Objectif 23R´esum´e des fonds marins 23Importance g´eoclimatique et environnementale 24Impact humain 24Analyse des donn´ees existantes 25Conditions m´et´eorologiques et climatiques 25
• Objectif 23
• R´esum´e des fonds marins 23
• Importance g´eoclimatique et environnementale 24
• Impact humain 24
• Analyse des donn´ees existantes 25
• Conditions m´et´eorologiques et climatiques 25
• Compr´ehension des donn´ees 26
• Pr´eparation des donn´ees 28Redimensionnement des images 28Normalisation des valeurs de pixels 28Augmentation des donn´ees 29
• Redimensionnement des images 28
• Normalisation des valeurs de pixels 28
• Augmentation des donn´ees 29
• Mod´elisation 30YOLO (You Only Look Once) 30Faster R-CNN : 32
• YOLO (You Only Look Once) 30
• Faster R-CNN : 32
• Comparaison des Mod`eles 34Tableau Comparatif 35Justification du Choix 36
• Tableau Comparatif 35
• Justification du Choix 36
• E´valuation 36Pr´ecision moyenne (mAP) 36Score F1 37Rappel moyen (mR) 37Pr´ecision moyenne par classe (mAPc) 38Nombre d’erreurs de localisation (LOC) 38Taux d’erreurs de localisation (LOCerr) 39Choix des m´etriques d’´evaluation 40
• Pr´ecision moyenne (mAP) 36
• Score F1 37
• Rappel moyen (mR) 37
• Pr´ecision moyenne par classe (mAPc) 38
• Nombre d’erreurs de localisation (LOC) 38
• Taux d’erreurs de localisation (LOCerr) 39
• Choix des m´etriques d’´evaluation 40
• D´eploiement 40Cr´eation de l’environnement marin 40Int´egration du mod`ele de d´etection d’objets 40
• Cr´eation de l’environnement marin 40
• Int´egration du mod`ele de d´etection d’objets 40
• Impl´ementation 40SimScale 40Blender 41Interface 41
• SimScale 40
• Blender 41
• Interface 41
• Conclusion 41
• Tests et Validation 42Introduction 43Distribution des classes 43Algorithmes utilis´es 44YOLOv8 44YOLOv9 44FASTER RCNN 45Tableau r´ecapitulatif des performances 45Visualisation des graphes 46YOLOv8 46YOLOv9 48FASTER RCNN 50R´esultats 52Interpr´etation des r´esultats 64Analyse critique de la m´ethodologie 64Comparaison avec les travaux ant´erieurs 65Identification des limitations de l’´etude 65D´efis rencontr´es au cours du projet 66Conclusion 67
• Introduction 43
• Distribution des classes 43
• Algorithmes utilis´es 44YOLOv8 44YOLOv9 44FASTER RCNN 45
• YOLOv8 44
• YOLOv9 44
• FASTER RCNN 45
• Tableau r´ecapitulatif des performances 45
• Visualisation des graphes 46YOLOv8 46YOLOv9 48FASTER RCNN 50
• YOLOv8 46
• YOLOv9 48
• FASTER RCNN 50
• R´esultats 52
• Interpr´etation des r´esultats 64
• Analyse critique de la m´ethodologie 64
• Comparaison avec les travaux ant´erieurs 65
• Identification des limitations de l’´etude 65
• D´efis rencontr´es au cours du projet 66
• Conclusion 67

Conclusion g´enerale et suggestions pour des travaux futurs 68

Bibliographie 70

Annexes 73

Table des figures

• Pr´esentation de SimScale 16Pr´esentation de Blender 17Pr´esentation de Streamlit 18Diagramme de GANTT 19Pr´esentation de CRISP-DM 22Illustration de fond marin 23E´pave d’avion 24Base de donn´ees OBIS 25Exemple de r´ecifs corailliens 26Pr´esentation de Roboflow 26Annotation Roboflow 27Pr´esentation des options de pr´etraitement 28Pr´esentation des options d’augmentation des donn´ees 29Pr´esentation de YOLO 30Pr´esentation de Faster R-CNN 32Distribution des classes 43Performance Entraˆınement YOLOv8 46Performance Validation YOLOv8 46Performance Pr´ecision et Rappel YOLOv8 47Pr´ecision YOLOv8 47Performance Entraˆınement YOLOv9 48Performance Validation YOLOv9 48Performance Pr´ecision et Rappel YOLOv9 49Pr´ecision YOLOv9 49Performance Entraˆınement FASTER RCNN 50Performance Validation FASTER RCNN 50Performance Pr´ecision et Rappel FASTER RCNN 51Pr´ecision FASTER RCNN 51Page de connexion 52Tableau de bord 53Visualisation des statistiques 54Visualisation des graphes 55Fenˆetre de d´etection d’objets 56Visualisation des d´etections en temps r´eel 57D´etection de crash d’avion 58D´ecouverte oc´eanographique 59Fenˆetre Modeling de Blender 60Fenˆetre UV Editing de Blender 61Simulation CFD Drone Sur Simscale 62G´eom´etrie du drone et exportation en format STL 63Extrait du code source pour la conversion des fichiers XML en format Coco YOLO 73Extrait du code source pour le fichier config.yaml de YOLO 74Extrait du code source pour l’inference en YOLO 74Extrait du code source pour la d´etection dans l’interface streamlit 75Extrait du code source pour la d´etection dans l’interface streamlit 75Extrait du code source pour la d´etection dans l’interface streamlit 76Extrait du code source pour la d´etection dans l’interface streamlit 76Extrait du code source pour la d´etection dans l’interface streamlit 77Extrait du code source en python pour le chargement des mod`eles 77Extrait du code en Streamlit pour l’interface utilisateur 78Extrait du code source en Streamlit pour l’interface utilisateur 78Extrait du code source en Streamlit pour l’interface utilisateur 79Extrait du code en Streamlit pour l’interface utilisateur 79
• Pr´esentation de SimScale 16
• Pr´esentation de Blender 17
• Pr´esentation de Streamlit 18
• Diagramme de GANTT 19
• Pr´esentation de CRISP-DM 22
• Illustration de fond marin 23
• E´pave d’avion 24
• Base de donn´ees OBIS 25
• Exemple de r´ecifs corailliens 26
• Pr´esentation de Roboflow 26
• Annotation Roboflow 27
• Pr´esentation des options de pr´etraitement 28
• Pr´esentation des options d’augmentation des donn´ees 29
• Pr´esentation de YOLO 30
• Pr´esentation de Faster R-CNN 32
• Distribution des classes 43
• Performance Entraˆınement YOLOv8 46
• Performance Validation YOLOv8 46
• Performance Pr´ecision et Rappel YOLOv8 47
• Pr´ecision YOLOv8 47
• Performance Entraˆınement YOLOv9 48
• Performance Validation YOLOv9 48
• Performance Pr´ecision et Rappel YOLOv9 49
• Pr´ecision YOLOv9 49
• Performance Entraˆınement FASTER RCNN 50
• Performance Validation FASTER RCNN 50
• Performance Pr´ecision et Rappel FASTER RCNN 51
• Pr´ecision FASTER RCNN 51
• Page de connexion 52
• Tableau de bord 53
• Visualisation des statistiques 54
• Visualisation des graphes 55
• Fenˆetre de d´etection d’objets 56
• Visualisation des d´etections en temps r´eel 57
• D´etection de crash d’avion 58
• D´ecouverte oc´eanographique 59
• Fenˆetre Modeling de Blender 60
• Fenˆetre UV Editing de Blender 61
• Simulation CFD Drone Sur Simscale 62
• G´eom´etrie du drone et exportation en format STL 63
• Extrait du code source pour la conversion des fichiers XML en format Coco YOLO 73
• Extrait du code source pour le fichier config.yaml de YOLO 74
• Extrait du code source pour l’inference en YOLO 74
• Extrait du code source pour la d´etection dans l’interface streamlit 75
• Extrait du code source pour la d´etection dans l’interface streamlit 75
• Extrait du code source pour la d´etection dans l’interface streamlit 76
• Extrait du code source pour la d´etection dans l’interface streamlit 76
• Extrait du code source pour la d´etection dans l’interface streamlit 77
• Extrait du code source en python pour le chargement des mod`eles 77
• Extrait du code en Streamlit pour l’interface utilisateur 78
• Extrait du code source en Streamlit pour l’interface utilisateur 78
• Extrait du code source en Streamlit pour l’interface utilisateur 79
• Extrait du code en Streamlit pour l’interface utilisateur 79

Liste des tableaux

• Comparaison des diff´erentes m´ethodologies 20Comparaison des mod`eles 35Mesures de performance de YOLOv8. 44Mesures de performance de YOLOv9. 44Mesures de performance de FASTER RCNN. 45R´ecapitulatif des performances des mod`eles 45
• Comparaison des diff´erentes m´ethodologies 20
• Comparaison des mod`eles 35
• Mesures de performance de YOLOv8. 44
• Mesures de performance de YOLOv9. 44
• Mesures de performance de FASTER RCNN. 45
• R´ecapitulatif des performances des mod`eles 45

Bibliographie

• Paul G Fernandes, Pete Stevenson, & aI. (2003, Janvier 01). ICES Journal of Marine Science. R´ecup´er´e sur Oxford Academic :

https://doi.org/10.1016/S1054-3139(03)00038-9, consult´e le 5 Mars 2024 `a 13h

• Radhwan Adnan Dakhil, & Ali Retha Hasoon Khayeat. (2022, Septembre). Review on Deep Learning Techniques for Underwater Object Detection. R´ecup´er´e sur ResearchGate : https://www.researchgate.net/publication/363684765_Review_ on_Deep_Learning_Techniques_for_Underwater_Object_Detection, consult´e le 10 Mars 2024 a` 10h
• Raygosa-Barahona, Garcia-Ter´an, & aI. (2017, Juillet 01). Ingenta Connect. R´ecup´er´e sur Marine Technology Society Journal : https://doi.org/10.4031/MTSJ.51.4.7, consult´e le 15 Mars 2024 `a 15h
• Rong Jia, Bin Lv, & aI. (2023, D´ecembre 25). Underwater Object Detection in Marine Ranching Based on Improved YOLOv8. R´ecup´er´e sur MDPI : https://doi.org/10.3390/jmse12010055, consult´e le 20 Mars 2024 `a 11h
• Sivamani Kalyana Sundara Rajan, & Nedumaran Damodaran. (2023, Janvier 19). MAFFN YOLOv5 : Multi-Scale Attention Feature Fusion Network on the YOLOv5 Model for the Health Detection of Coral-Reefs Using a Built-In Benchmark Dataset. R´ecup´er´e sur MPDI : https://doi.org/10.3390/analytics2010006, consult´e le 03 Avril 2024 a` 17h
• Kai Hu, Feiyu Lu, & aI. (2020, Janvier 14). A Marine Object Detection Algorithm Based on SSD and Feature Enhancement. R´ecup´er´e sur ResearchGate : https://www.researchgate.net/publication/345999565_A_Marine_Object_ Detection_Algorithm_Based_on_SSD_and_Feature_Enhancement, consult´e le 20 Avril 2024 `a 17h
• Hao Wang, & Nanfeng Xiao. (2023, F´evrier 20). Underwater Object Detection Method Based on Improved Faster RCNN. R´ecup´er´e sur MDPI : https://doi.org/10.3390/app13042746, consult´e le 03 Juin 2024 `a 11h
• Pr´esentation de SimScale :

https://www.simscale.com/product/simulation-features/, consult´e le 09 Juin 2024 `a 15h

• Pr´esentation de Blender : https://www.blender.org/features/, consult´e le 15 Juin 2024 a` 12h
• Pr´esentation de Streamlit : https:

//blog.streamlit.io/crafting-a-dashboard-app-in-python-using-streamlit/, consult´e le 17 Juin 2024 a` 09h

• Pr´esentation de CRISP-DM : https://www.datascience-pm.com/crisp-dm-2/, consult´e le 20 Juin 2024 a` 13h
• Pr´esentation de KDD :

https://www.datascience-pm.com/kdd-and-data-mining/, consult´e le 28 Juin 2024 a` 15h

• Pr´esentation de SEMMA : https://www.datascience-pm.com/semma/, consult´e le 09 Juillet 2024 a` 11h
• Pr´esentation de TDSP : https://www.datascience-pm.com/tdsp/, consult´e le 15 Juillet 2024 a` 16h
• Explications des diff´erents fonds marins :

https://fr.wikipedia.org/wiki/Fond_marin, consult´e le 20 Juillet 2024 `a 14h

• R´ef´erence OBIS : https://obis.org/, consult´e le 25 Juillet 2024 `a 11h
• Appauvrissement de la biodiversit´e marine : https:

//www.un.org/sites/un2.un.org/files/data-viz-coral-reefs-fr-slide_02.png, consult´e le 05 Aout 2024 a` 13h

• Pr´esentation de ROBOTFLOW : https://roboflow.com/universe, consult´e le 15 Aout 2024 a` 10h
• Pr´esentation de YOLO :

https://www.innovatiana.com/post/what-is-yolo-in-ai, consult´e le 20 Aout 2024 a` 18h

• Pr´esentation de FASTER RCNN : https://arxiv.org/pdf/1506.01497v3, consult´e le 25 Aout 2024 a` 14h
• Rigou, Yves (2022). Une approche de d´ecouverte des diagrammes de classes UML par l’apprentissage profond. M´emoire. Rimouski, Universit´e du Qu´ebec a` Rimouski : https://semaphore.uqar.ca/id/eprint/2117/1/Yves_Rigou_avril2022.pdf, consult´e le 30 Aout 2024 a` 08h

Annexes

Les annexes regroupent toutes les informations suppl´ementaires pertinentes qui compl`etent le contenu du rapport principal. Elles permettent de fournir des d´etails techniques sur les extraits du code source.

[detection-objets-marins-par-drone-avance_\1]

Figure 3.26 – Extrait du code source pour la conversion des fichiers XML en format Coco YOLO

La figure 3.26 ci dessus convertit les fichiers XML en format COCO YOLO. Le code montr´e illustre les principales ´etapes du processus de conversion, y compris la lecture des fichiers XML, le traitement des annotations, et la g´en´eration des fichiers au format YOLO compatible avec les exigences du mod`ele de d´etection d’objets. Cette conversion est cruciale pour pr´eparer les donn´ees d’entraˆınement dans un format adapt´e aux algorithmes de d´etection bas´es sur YOLO.

La figure 3.27 ci dessous est utilis´e pour le mod`ele YOLO (You Only Look Once). Le fichier de configuration config.yaml joue un roˆle crucial dans le param´etrage du mod`ele, d´efinissant des param`etres essentiels tels que les chemins d’acc`es aux donn´ees d’entraˆınement et de validation.

[detection-objets-marins-par-drone-avance_\1]

Figure 3.27 – Extrait du code source pour le fichier config.yaml de YOLO

[detection-objets-marins-par-drone-avance_\1]

Figure 3.28 – Extrait du code source pour l’inference en YOLO

La figure 3.28 ci dessus est utilis´e pour r´ealiser l’inf´erence avec le mod`ele YOLO (You Only Look Once). L’inf´erence est la phase du processus ou` le mod`ele, une fois entraˆın´e, est utilis´e pour d´etecter et classer des objets dans de nouvelles images.

[detection-objets-marins-par-drone-avance_\1]

Figure 3.29 – Extrait du code source pour la d´etection dans l’interface streamlit

[detection-objets-marins-par-drone-avance_\1]

Figure 3.30 – Extrait du code source pour la d´etection dans l’interface streamlit

La figure 3.30 ci dessus v´erifie quel mod`ele de d´etection est utilis´e parmi YOLOv8, YOLOv9 ou Faster R-CNN. En fonction du mod`ele s´electionn´e, le code ajuste les dimensions des donn´ees d’entr´ee par un reshape appropri´e.

[detection-objets-marins-par-drone-avance_\1]

Figure 3.31 – Extrait du code source pour la d´etection dans l’interface streamlit

[detection-objets-marins-par-drone-avance_\1]

Figure 3.32 – Extrait du code source pour la d´etection dans l’interface streamlit

La figure 3.32 ci dessus v´erifie quel mod`ele de d´etection est utilis´e parmi YOLOv8, YOLOv9 ou Faster R-CNN. En fonction du mod`ele s´electionn´e, le code ajuste les dimensions des donn´ees d’entr´ee par un reshape appropri´e.

[detection-objets-marins-par-drone-avance_\1]

Figure 3.33 – Extrait du code source pour la d´etection dans l’interface streamlit

[detection-objets-marins-par-drone-avance_\1]

Figure 3.34 – Extrait du code source en python pour le chargement des mod`eles

La figure 3.34 ci dessus inclut les ´etapes pour charger les mod`eles depuis les fichiers sauvegard´es, les pr´eparer pour l’inf´erence.

[detection-objets-marins-par-drone-avance_\1]

Figure 3.35 – Extrait du code en Streamlit pour l’interface utilisateur

[detection-objets-marins-par-drone-avance_\1]

Figure 3.36 – Extrait du code source en Streamlit pour l’interface utilisateur

La figure 3.36 ci dessus comprend des instructions pour afficher les images, s´electionner les mod`eles de d´etection, et visualiser les r´esultats.

[detection-objets-marins-par-drone-avance_\1]

Figure 3.37 – Extrait du code source en Streamlit pour l’interface utilisateur

[detection-objets-marins-par-drone-avance_\1]

Figure 3.38 – Extrait du code en Streamlit pour l’interface utilisateur

La figure 3.38 ci dessus comprend des instructions pour afficher les images, s´electionner les mod`eles de d´etection, et visualiser les r´esultats.

Scroll to Top