Parcourir la source

Update of Latex report

Jérôme BUISINE il y a 4 ans
Parent
commit
36630c578f

Fichier diff supprimé car celui-ci est trop grand
+ 2 - 0
01.Introduction/Introduction.tex


+ 2 - 0
02.Bibliography/Bilbiography.tex

@@ -1,3 +1,5 @@
+\chapter{Bibliographie}
+
 \section{Bibliographie}
 
 Découper ici la bibliographie en sous sections :

Fichier diff supprimé car celui-ci est trop grand
+ 63 - 61
03.Research/00.Research.tex


Fichier diff supprimé car celui-ci est trop grand
+ 119 - 2
03.Research/01.SVD.tex


BIN
03.Research/01.SVD/position_selection.png


BIN
03.Research/01.SVD/recap_scheme.png


+ 1 - 1
03.Research/03.SampleAnalysis.tex

@@ -1 +1 @@
-\subsection{Etude des échantillons de rendu}
+\section{Etude des échantillons de rendu}

+ 1 - 1
03.Research/04.FutureWorks.tex

@@ -1 +1 @@
-\subsection{Les approches futures}
+\section{Les approches futures}

+ 9 - 9
Annexes/MSCN.tex

@@ -1,21 +1,21 @@
-\chapter{ Mean Subtracted Contrast Normalized (MSCN)}
-\label{appendices_mscn_transformation}
-
-In order to compute MSCN matrix, we first need to convert our rgb image in grayscale image. MSCN will extract (Natural Scene Structure) NSS information from this grayscale image. An operation is applied to luminance image $I(i, j)$ to produce :
-
+\chapter{ Mean Subtracted Contrast Normalized (MSCN)}
+\label{appendices_mscn_transformation}
+
+Pour construire la matrice MSCN, il faut premièrement convertir l'image RGB en une image de niveau de gris. La matrice MSCN va permettre d'extraire les informations naturelles de structures de la scène (Natural Scene Structure : NSS) de cette image en niveau de gris. Une opération est appliquée An operation is applied à la luminance de l'image $I(i, j)$ pour obtenir :
+
 \begin{equation}
-\hat{I}(i, j) = {I(i, j) - \mu(i, j)} \over {\sigma(i, j) + C}
 \label{mscn_equation}
+\hat{I}(i, j)= \frac{I(i, j) - \mu(i, j)}{\sigma(i, j) + C}
 \end{equation}
-
+
 \noindent
 où $i \in 1, 2...M, j \in 1, 2...N$ sont les indices spatiaux, $M$, $N$ sont la hauteur et la largeur de l'image respectivement, $C$ est une constante, de valeur $1$ pour prévenir des instabilité et où 
-
+
 \begin{equation}
 \mu(i, j) = \sum_{k=-K}^{K}{\sum_{l=-L}^{L} w_{k,l}I_{k,l}(i, j)}
 \label{mscn_mu_equation}
 \end{equation}
-
+
 \begin{equation}
 \sigma(i, j) = \sqrt{\sum_{k=-K}^{K}{\sum_{l=-L}^{L} w_{k,l}(I_{k,l}(i, j) - \mu(i, j))^2}}
 \label{mscn_sigma_equation}

+ 40 - 0
Annexes/Models.tex

@@ -0,0 +1,40 @@
+\chapter{Modèles utilisés}
+
+\label{appendices_models_architecture}
+
+\section{M1 : SVM classique}
+
+Nous utilisons le fameux modèle SVM (Support Vector Machine) pour prédire le bruit et non les images bruyantes. SVM est principalement utilisé et fonctionne très bien pour les problèmes NR-IQA (No Reference Image Quality Assessment) avec ces paramètres :
+
+\begin{itemize}
+	\item Kernel : \textit{rbf}
+	\item $C \in \{0.001, 0.01, 0.1, 1, 10, 100, 1000\}$
+	\item $\gamma \in \{0.001, 0.01, 0.1, 1, 5, 10, 100\}$
+	\item $cv = 10$ (paramètre de validation croisée pour les données d'entraînement, ce qui augmente la précision et évite le surapprentissage)
+\end{itemize}
+
+Ensuite, tous ces paramètres sont testés à l'aide du principe de recherche par grille et le meilleur modèle est obtenu.
+
+\vspace{2mm}
+\section{M2 : Voting classifier avec 3 estimateurs}
+
+Nous proposons également un modèle Voting classifier (ensemble de modèles) qui est composé de 3 sous modèles :
+
+\begin{itemize}
+	\item \textbf{\textit{SVM}} avec un kernel RBF comme présenté précédemment.
+	\item \textbf{\textit{Random Forest}} avec 100 estimateurs
+	\item \textbf{\textit{Logistic Regression}} avec le noyau \textit{liblinear} et le paramètre \textit{ovr} pour la classification
+\end{itemize}
+
+\vspace{2mm}
+\section{M3 : Voting classifier avec 5 estimateurs}
+
+Ce nouveau modèle est aussi un Voting classifier et est composé de 5 sous modèles :
+
+\begin{itemize}
+	\item \textbf{\textit{SVM}} avec le RBF Kernel comme présenté précédemment
+	\item \textbf{\textit{Random Forest}} avec 100 estimaeurs
+	\item \textbf{\textit{Logistic Regression}} avec le noyau \textit{liblinear} et le paramètre \textit{ovr} pour la classification
+	\item \textbf{\textit{KNeighbors Classifier}} avec seulement deux voisins (bruité, non bruité)
+	\item \textbf{\textit{Gradient Boosting Classifier}} avec 100 estimateurs, une fonction de perte réglée sur \textit{déviance} et \textit{pas d'apprentissage} de 1.0
+\end{itemize}

BIN
main.pdf


+ 4 - 5
main.tex

@@ -7,7 +7,7 @@
 \usepackage[french]{babel}
 
 % other packages
-\usepackage{graphicx}
+\usepackage{graphicx}
 \usepackage{subcaption}
 \usepackage{csquotes}
 \usepackage[locale=FR]{siunitx}
@@ -31,16 +31,13 @@ automatiques}}
 
 \listoftables
 
-% Section 1 : introduction\\
-\chapter{Introduction}
+% Section 1 : Introduction
 \include{01.Introduction/Introduction}
 
 % Section 2 : Bibliography
-\chapter{Bibliographie}
 \include{02.Bibliography/Bilbiography}
 
 % Section 3 : Research
-\chapter{Travaux réalisés}
 \include{03.Research/00.Research}
 \include{03.Research/01.SVD}
 \include{03.Research/03.SampleAnalysis}
@@ -67,6 +64,8 @@ automatiques}}
 	\include{Annexes/lab}
 	
 	\include{Annexes/MSCN}
+	
+	\include{Annexes/Models}
 \end{appendices} 
 
 \bibliographystyle{plain}