Models.tex 2.0 KB

12345678910111213141516171819202122232425262728293031323334353637383940
  1. \chapter{Modèles utilisés}
  2. \label{appendices_models_architecture}
  3. \section{M1 : SVM classique}
  4. Nous utilisons le fameux modèle SVM (Support Vector Machine) pour prédire le bruit et non les images bruyantes. SVM est principalement utilisé et fonctionne très bien pour les problèmes NR-IQA (No Reference Image Quality Assessment) avec ces paramètres :
  5. \begin{itemize}
  6. \item Kernel : \textit{rbf}
  7. \item $C \in \{0.001, 0.01, 0.1, 1, 10, 100, 1000\}$
  8. \item $\gamma \in \{0.001, 0.01, 0.1, 1, 5, 10, 100\}$
  9. \item $cv = 10$ (paramètre de validation croisée pour les données d'entraînement, ce qui augmente la précision et évite le surapprentissage)
  10. \end{itemize}
  11. Ensuite, tous ces paramètres sont testés à l'aide du principe de recherche par grille et le meilleur modèle est obtenu.
  12. \vspace{2mm}
  13. \section{M2 : Voting classifier avec 3 estimateurs}
  14. Nous proposons également un modèle Voting classifier (ensemble de modèles) qui est composé de 3 sous modèles :
  15. \begin{itemize}
  16. \item \textbf{\textit{SVM}} avec un kernel RBF comme présenté précédemment.
  17. \item \textbf{\textit{Random Forest}} avec 100 estimateurs
  18. \item \textbf{\textit{Logistic Regression}} avec le noyau \textit{liblinear} et le paramètre \textit{ovr} pour la classification
  19. \end{itemize}
  20. \vspace{2mm}
  21. \section{M3 : Voting classifier avec 5 estimateurs}
  22. Ce nouveau modèle est aussi un Voting classifier et est composé de 5 sous modèles :
  23. \begin{itemize}
  24. \item \textbf{\textit{SVM}} avec le RBF Kernel comme présenté précédemment
  25. \item \textbf{\textit{Random Forest}} avec 100 estimaeurs
  26. \item \textbf{\textit{Logistic Regression}} avec le noyau \textit{liblinear} et le paramètre \textit{ovr} pour la classification
  27. \item \textbf{\textit{KNeighbors Classifier}} avec seulement deux voisins (bruité, non bruité)
  28. \item \textbf{\textit{Gradient Boosting Classifier}} avec 100 estimateurs, une fonction de perte réglée sur \textit{déviance} et \textit{pas d'apprentissage} de 1.0
  29. \end{itemize}