浏览代码

Update of Latex report

Jérôme BUISINE 4 年之前
父节点
当前提交
36630c578f

文件差异内容过多而无法显示
+ 2 - 0
01.Introduction/Introduction.tex


+ 2 - 0
02.Bibliography/Bilbiography.tex

@@ -1,3 +1,5 @@
+\chapter{Bibliographie}
+
 \section{Bibliographie}
 
 Découper ici la bibliographie en sous sections :

文件差异内容过多而无法显示
+ 63 - 61
03.Research/00.Research.tex


文件差异内容过多而无法显示
+ 119 - 2
03.Research/01.SVD.tex


二进制
03.Research/01.SVD/position_selection.png


二进制
03.Research/01.SVD/recap_scheme.png


+ 1 - 1
03.Research/03.SampleAnalysis.tex

@@ -1 +1 @@
-\subsection{Etude des échantillons de rendu}
+\section{Etude des échantillons de rendu}

+ 1 - 1
03.Research/04.FutureWorks.tex

@@ -1 +1 @@
-\subsection{Les approches futures}
+\section{Les approches futures}

+ 9 - 9
Annexes/MSCN.tex

@@ -1,21 +1,21 @@
-\chapter{ Mean Subtracted Contrast Normalized (MSCN)}
-\label{appendices_mscn_transformation}
-
-In order to compute MSCN matrix, we first need to convert our rgb image in grayscale image. MSCN will extract (Natural Scene Structure) NSS information from this grayscale image. An operation is applied to luminance image $I(i, j)$ to produce :
-
+\chapter{ Mean Subtracted Contrast Normalized (MSCN)}
+\label{appendices_mscn_transformation}
+
+Pour construire la matrice MSCN, il faut premièrement convertir l'image RGB en une image de niveau de gris. La matrice MSCN va permettre d'extraire les informations naturelles de structures de la scène (Natural Scene Structure : NSS) de cette image en niveau de gris. Une opération est appliquée An operation is applied à la luminance de l'image $I(i, j)$ pour obtenir :
+
 \begin{equation}
-\hat{I}(i, j) = {I(i, j) - \mu(i, j)} \over {\sigma(i, j) + C}
 \label{mscn_equation}
+\hat{I}(i, j)= \frac{I(i, j) - \mu(i, j)}{\sigma(i, j) + C}
 \end{equation}
-
+
 \noindent
 où $i \in 1, 2...M, j \in 1, 2...N$ sont les indices spatiaux, $M$, $N$ sont la hauteur et la largeur de l'image respectivement, $C$ est une constante, de valeur $1$ pour prévenir des instabilité et où 
-
+
 \begin{equation}
 \mu(i, j) = \sum_{k=-K}^{K}{\sum_{l=-L}^{L} w_{k,l}I_{k,l}(i, j)}
 \label{mscn_mu_equation}
 \end{equation}
-
+
 \begin{equation}
 \sigma(i, j) = \sqrt{\sum_{k=-K}^{K}{\sum_{l=-L}^{L} w_{k,l}(I_{k,l}(i, j) - \mu(i, j))^2}}
 \label{mscn_sigma_equation}

+ 40 - 0
Annexes/Models.tex

@@ -0,0 +1,40 @@
+\chapter{Modèles utilisés}
+
+\label{appendices_models_architecture}
+
+\section{M1 : SVM classique}
+
+Nous utilisons le fameux modèle SVM (Support Vector Machine) pour prédire le bruit et non les images bruyantes. SVM est principalement utilisé et fonctionne très bien pour les problèmes NR-IQA (No Reference Image Quality Assessment) avec ces paramètres :
+
+\begin{itemize}
+	\item Kernel : \textit{rbf}
+	\item $C \in \{0.001, 0.01, 0.1, 1, 10, 100, 1000\}$
+	\item $\gamma \in \{0.001, 0.01, 0.1, 1, 5, 10, 100\}$
+	\item $cv = 10$ (paramètre de validation croisée pour les données d'entraînement, ce qui augmente la précision et évite le surapprentissage)
+\end{itemize}
+
+Ensuite, tous ces paramètres sont testés à l'aide du principe de recherche par grille et le meilleur modèle est obtenu.
+
+\vspace{2mm}
+\section{M2 : Voting classifier avec 3 estimateurs}
+
+Nous proposons également un modèle Voting classifier (ensemble de modèles) qui est composé de 3 sous modèles :
+
+\begin{itemize}
+	\item \textbf{\textit{SVM}} avec un kernel RBF comme présenté précédemment.
+	\item \textbf{\textit{Random Forest}} avec 100 estimateurs
+	\item \textbf{\textit{Logistic Regression}} avec le noyau \textit{liblinear} et le paramètre \textit{ovr} pour la classification
+\end{itemize}
+
+\vspace{2mm}
+\section{M3 : Voting classifier avec 5 estimateurs}
+
+Ce nouveau modèle est aussi un Voting classifier et est composé de 5 sous modèles :
+
+\begin{itemize}
+	\item \textbf{\textit{SVM}} avec le RBF Kernel comme présenté précédemment
+	\item \textbf{\textit{Random Forest}} avec 100 estimaeurs
+	\item \textbf{\textit{Logistic Regression}} avec le noyau \textit{liblinear} et le paramètre \textit{ovr} pour la classification
+	\item \textbf{\textit{KNeighbors Classifier}} avec seulement deux voisins (bruité, non bruité)
+	\item \textbf{\textit{Gradient Boosting Classifier}} avec 100 estimateurs, une fonction de perte réglée sur \textit{déviance} et \textit{pas d'apprentissage} de 1.0
+\end{itemize}

二进制
main.pdf


+ 4 - 5
main.tex

@@ -7,7 +7,7 @@
 \usepackage[french]{babel}
 
 % other packages
-\usepackage{graphicx}
+\usepackage{graphicx}
 \usepackage{subcaption}
 \usepackage{csquotes}
 \usepackage[locale=FR]{siunitx}
@@ -31,16 +31,13 @@ automatiques}}
 
 \listoftables
 
-% Section 1 : introduction\\
-\chapter{Introduction}
+% Section 1 : Introduction
 \include{01.Introduction/Introduction}
 
 % Section 2 : Bibliography
-\chapter{Bibliographie}
 \include{02.Bibliography/Bilbiography}
 
 % Section 3 : Research
-\chapter{Travaux réalisés}
 \include{03.Research/00.Research}
 \include{03.Research/01.SVD}
 \include{03.Research/03.SampleAnalysis}
@@ -67,6 +64,8 @@ automatiques}}
 	\include{Annexes/lab}
 	
 	\include{Annexes/MSCN}
+	
+	\include{Annexes/Models}
 \end{appendices} 
 
 \bibliographystyle{plain}