\chapter{Modèles utilisés} \label{appendices_models_architecture} \section{M1 : SVM classique} Nous utilisons le fameux modèle SVM (Support Vector Machine) pour prédire le bruit et non les images bruyantes. SVM est principalement utilisé et fonctionne très bien pour les problèmes NR-IQA (No Reference Image Quality Assessment) avec ces paramètres : \begin{itemize} \item Kernel : \textit{rbf} \item $C \in \{0.001, 0.01, 0.1, 1, 10, 100, 1000\}$ \item $\gamma \in \{0.001, 0.01, 0.1, 1, 5, 10, 100\}$ \item $cv = 10$ (paramètre de validation croisée pour les données d'entraînement, ce qui augmente la précision et évite le surapprentissage) \end{itemize} Ensuite, tous ces paramètres sont testés à l'aide du principe de recherche par grille et le meilleur modèle est obtenu. \vspace{2mm} \section{M2 : Voting classifier avec 3 estimateurs} Nous proposons également un modèle Voting classifier (ensemble de modèles) qui est composé de 3 sous modèles : \begin{itemize} \item \textbf{\textit{SVM}} avec un kernel RBF comme présenté précédemment. \item \textbf{\textit{Random Forest}} avec 100 estimateurs \item \textbf{\textit{Logistic Regression}} avec le noyau \textit{liblinear} et le paramètre \textit{ovr} pour la classification \end{itemize} \vspace{2mm} \section{M3 : Voting classifier avec 5 estimateurs} Ce nouveau modèle est aussi un Voting classifier et est composé de 5 sous modèles : \begin{itemize} \item \textbf{\textit{SVM}} avec le RBF Kernel comme présenté précédemment \item \textbf{\textit{Random Forest}} avec 100 estimaeurs \item \textbf{\textit{Logistic Regression}} avec le noyau \textit{liblinear} et le paramètre \textit{ovr} pour la classification \item \textbf{\textit{KNeighbors Classifier}} avec seulement deux voisins (bruité, non bruité) \item \textbf{\textit{Gradient Boosting Classifier}} avec 100 estimateurs, une fonction de perte réglée sur \textit{déviance} et \textit{pas d'apprentissage} de 1.0 \end{itemize}