Comment les applications pratiques transforment la détection de véhicules?

Pour citer ce mémoire et accéder à toutes ses pages
🏫 Université Ain Temouchent Belhadj Bouchaib - Faculté des Sciences et de Technologie - Département des Mathématiques et de l'Informatique
📅 Mémoire de fin de cycle en vue de l'obtention du diplôme de Master - 2021/2022
🎓 Auteur·trice·s
BENZAZOU Aïcha, SAHRAOUI Yasmine Tekfa
BENZAZOU Aïcha, SAHRAOUI Yasmine Tekfa

Les applications pratiques de détection de véhicules révèlent une précision impressionnante de 89 % avec Faster R-CNN, transformant ainsi la sécurité routière. Comment ces algorithmes révolutionnent-ils notre compréhension de la vision par ordinateur ? Découvrez les résultats surprenants de cette étude comparative.


Les algorithmes de détection et de reconnaissance de véhicules dans une vidéo

Nôtre étude bibliographique s’est concentrée sur une problématique qui est la détection et la reconnaissance de véhicules dans une séquence d’images. Pour cela notre recherche s’est fondée sur quelques travaux existants.

        1. L’augmentation des données et RCNN plus rapide améliorent la détection et la reconnaissance des véhicules

La détection et la reconnaissance des véhicules sont améliorées par l’augmentation des données et un RCNN plus rapide. Cet article aborde l’idée comment un ordinateur peut reconnaitre un véhicule de la même manière qu’une personne le ferait. Comparées aux méthodes traditionnelles, les technologies actuelles de la détection et la reconnaissance des véhicules basées sur les vidéos sont divisées en deux catégories. La première catégorie qui est basée sur les caractéristiques de mouvement de véhicule consiste à utiliser la corrélation d’image pour séparer le véhicule de l’arrière-plan, tandis que la deuxième catégorie est basée sur les caractéristiques d’apparence son ; concept est l’apprentissage profond pour classer les véhicules, pour cela il utilise le réseau de neurones de convolution et l’AlexNet.

Les auteurs ont adopté une architecture entièrement convolutive, pour leur modèle avancé, qui se fragmente en quatre différentes étapes :

  • L’augmentation des données ;
  • L’extraction de caractéristiques ;
  • La proposition de zone réseau : production des RoIP en prenant comme entrée les cartes de caractéristiques ;
  • Prédictions finales.

Les résultats des recherches montrent que l’augmentation des données améliore le résultat de 18 à 23 % par rapport à la référence. D’autre part elle a été utilisée pour reproduire les images qui pourraient être produites pour améliorer la précision. [Harianto et al., 2021]

La base de données utilisée :

Google Open Image Dataset v6 a été utilisé pour ce processus, pour cela chaque véhicule est classé en quatre types (voiture, bus, camion et moto). 1000 photos de chaque classe ont été pris de la base, et chaque classe a été divisée en 80 % de données d’entraînement et 20 % de données de recherche. De plus chaque image est de dimension (685×1024) pixels. Pour l’environnement de travail ils ont utilisé Google Collab.

        1. Détection de véhicule et classification de type basée sur CNN-SVM

Les auteurs de cet article se concentrent sur la détection et la classification des véhicules à l’aide d’un AlexNet amélioré et modifié pour cela deux méthodes différentes ont été utilisées. Tout d’abord, pour la détection des véhicules ils ont utilisé l’algorithme d’apprentissage en profondeur YOLO qui consiste à extraire les cibles avec Yolov2-tiny, son principe est d’améliorer considérablement la précision tout en la rendant plus rapide. Ils utilisent ensuite le réseau neuronal CNN en le combinant avec SVM pour la classification des objets. Le CNN est utilisé pour l’extraction des caractéristiques et il est basé sur AlexNet.

Afin d’améliorer la mobilité du réseau dans la détection de véhicules les auteurs prévoient d’augmenter le nombre d’ensembles de données, cette méthode sera également adoptée pour résoudre le problème de mauvaise précision dans la classification des véhicules. La méthode améliorée d’AlexNet utilisée par les auteurs est plus rapide que l’AlexNet original. En ajoutant SVM, la précision de la classification s’améliore et peut s’affiner dans une certaine mesure également le rappel de chaque catégorie augmente, comme illustré dans le tableau 1. [S.Karungaru et al. 2021]

– La base de données utilisée :

L’ensemble de données utilisé dans cet article est basé sur BIT-Vehicle, cette base de données se compose de 9850 images de véhicules. Les images contenues dans cette base sont extraites de vidéo obtenues par un appareil photo Canon EOS 550D à 24 endroits différents à Pékin et Tianjin en Chine, ces vidéos sont enregistrées à 25 images par seconde avec une performance de 960×540 pixels.

Methods

Car

Bus

Van

Others

AlexNet

98.17%

91.24%

68.44%

49.35%

Improved AlexNet

98.37%

93.81%

76.07%

71.43%

Improved AlexNet + SVM

98.87%

95.02%

76.50%

74.03%

Tableau 1: Résultats du test comparatif des trois méthodes à l’époque 10.

        1. Une approche de détection de véhicule robuste basée sur un algorithme R-CNN plus rapide

Cet article propose une méthode robuste pour la détection des véhicules qui offre des résultats acceptables en termes de temps d’exécution et temps de précision. Les auteurs ont pu transformer l’architecture principale d’un réseau résiduel ResNet-50 pré-entrainé en un réseau neuronal convolutionnel basé sur le Faster R-CNN.

Les principales contributions de ce travail sont les suivantes :

  • Evoluer l’impact d’un réglage correct des paramètres de l’algorithme Faster R-CNN ;
  • Tester le modèle généré sur des données en conditions réelles avec différentes conditions météorologiques, temps et résolution.

Les résultats expérimentaux montrent que le facteur de sensibilité du système est très élevé et que dans quelques millisecondes les véhicules peuvent être détecter, ce qui permet d’obtenir des résultats plus précis. [Tourani et al, 2019]

La base de données utilisée

L’ensemble de données Cars Dataset est sélectionné dans ce travail qui contient 16 185 images de 196 classes de véhicules. La largeur des images était redimensionnée à 300 tout en conservant le rapport d’aspect principal. Le modèle final a été entraîné sur 8 144 images d’entraînement de l’ensemble de données et les 8 041 images restantes ont été utilisées pour le test. La méthode a été mise en œuvre dans MATLAB.

        1. Détection de véhicules à l’aide de différents algorithmes d’apprentissage profond à partir d’une séquence d’images

Pour cette approche, les auteurs se sont basés sur les modèles YOLO-v3, YOLO-v3-spp et YOLO-v3-tiny pour la détection de véhicules en temps réel. Ils ont fait une comparaison de ces modèles YOLO sur deux vidéos obtenues de manières différentes une terrestre et l’autre aérienne. Bien que la faible précision obtenue dans la vidéo aérienne, la vidéo terrestre a donné une bonne précision de 80.49%. Pour cela les auteurs constatent que leur étude présente des valeurs de précision élevées par rapport à d’autres. [Atik et al, 2020]

– La base donnée utilisées

Pour réaliser la détection des véhicules deux vidéos ont été utilisées, une obtenue à partir d’un drone avec 1280×720 de résolution et une autre avec une résolution terrestre de 1080×1920. Le modèle YOLO utilise la base de données COCO, cet ensemble de données comporte 80 classes distinctes, 80 000 images d’entraînement et 40 000 images de vérification. L’étude a été réalisée sur le service Google Colab.

        1. Détection de véhicules à l’aide de modèles d’apprentissage profond Alexnet et R-CNN plus rapide : Une étude comparative

Cet article vise à faire une étude comparative de deux modèles d’apprentissage profond utilisés pour la détection et la classification des véhicules, AlexNet et Faster R-CNN.

Pour le modèle AlexNet, la détection des objets a été effectuée sur la base de la soustraction de l’arrière-plan, tandis que la classification a été faite par un classifieur entrainé avec des caractéristiques d’images obtenues à partir d’un CNN. Le deuxième modèle utilisé est Faster R-CNN, ce dernier est un cadre de détection d’objet basé sur des réseaux de neurones convolutifs. Ce modèle a été utilisé sur la base de VGG16 qui donne des meilleurs résultats de performances.

Les auteurs ont effectué plusieurs tests pour évaluer la qualité des détections, les taux d’échec et les temps employés pour effectuer la tâche de détection. Et les résultats obtenus montrent que Faster R-CNN surpasse le modèle AlexNet, non seulement dans le taux de détection mais aussi dans le temps d’analyse. [John W.Branch et al, 2017]

– La base de données utilisées

Pour cette recherche les auteurs utilisent une séquence vidéo d’environnement urbain. La séquence comporte 1812 images, ces images comprennent 36 voitures différentes, 7 motos et 1 bus. De plus, le modèle basé sur VGG16 est pré-entraîné avec le jeu de données ImageNet.

Nous pouvons résumer ces travaux existants sous le tableau suivant (Tableau 2) :

Article

Méthodes Utilisées

Base Utilisée

Taux de Précision

Perspectives ou Travaux Futures

Article 1 :

Avril 2021

Faster R-CNN et VGG16

Google open image v6

79%

-L’augmentation des données ;

-Combinaison avec une autre approche d’augmentation de donnée basée sur une classification différente.

Article 2 :

Mars 2020

YOLOv2-tiny et AlexNet

BIT-Vehicle

94.45%

-Résoudre le problème de faible mobilité du réseau dans la détection de véhicules ;

-Améliorer la précision de certaines catégories dans la classification des véhicules.

Article 3 :

Mars 2019

Faster R-CNN

Cars Dataset

98%

-Augmentation de la vitesse de détection ;

-Fournir une application de détection de véhicule basée sur YOLO ;

Article 4 :

2020

YOLOv3-supp

COCO

72.02%

Article 5 :

2017

AlexNet et Faster R-CNN VGG16

ImageNet

97%

-Amélioration des résultats du modèle Faster R-CNN ;

-Utiliser l’extraction de caractéristiques

à base d’AlexNet ou VGG pour

améliorer la classification.

Tableau 2: Tableau récapitulatif des algorithmes étudiés pour la détection de véhicules.

Conclusion

Dans ce chapitre, nous avons présenté les différentes techniques d’un système de détection et de reconnaissance de véhicules, en définissant quelques algorithmes de détection des véhicules tel que YOLO et Faster R-CNN que nous allons en discuter dans le dernier chapitre.

Nous avons vu aussi quelques travaux sur la détection de véhicules qui présentent des avantages et des inconvénients pour différentes situations. On peut tirer de là que les détecteurs à un étage sont rapides en détection d’objets.


Questions Fréquemment Posées

Quels algorithmes sont comparés dans l’étude sur la détection de véhicules?

L’étude compare les performances des modèles YOLOv5 et Faster R-CNN dans le cadre de la vision par ordinateur.

Quelle est la précision obtenue par le modèle Faster R-CNN?

Les résultats montrent que Faster R-CNN obtient les meilleures performances avec une précision de 89%.

Comment l’augmentation des données améliore-t-elle la détection de véhicules?

L’augmentation des données améliore le résultat de 18 à 23 % par rapport à la référence et a été utilisée pour reproduire les images qui pourraient être produites pour améliorer la précision.

Rechercher
Télécharger ce mémoire en ligne PDF (gratuit)

Laisser un commentaire

Votre adresse courriel ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top