Parcourir la source

SVD and others attributes section updates

Jérôme BUISINE il y a 4 ans
Parent
commit
7d53f34338

Fichier diff supprimé car celui-ci est trop grand
+ 54 - 49
03.Research/01.SVD.tex


+ 73 - 11
03.Research/02.OthersAttributes.tex

@@ -3,16 +3,78 @@
 Après les différents résultats d'autres approches ont été explorées dans le but d'améliorer la prédiction du modèle. La remarque quand aux problème rencontrés précédemment concernés le fait que le modèle ne pouvait pas comprendre correctement un interval de données, d'où la transition sur la sélection automatisées de composantes du vecteur SV. Ici, nous nous intéresserons à des approches orientées statistiques.
 
 
-L'idée principale de ces nouveaux calculs d'attributs viennent du fait que l'on va s'interesser à des valeurs statistiques issues des valeurs de pixels de la zone voire à des sous-zones (redécoupage de l'image). L'hypothèse était ici que le fait de travailler directement sur les propriétés des pixels permettraient de mettre en avant leurs variations durant le rendu et donc le bruit générée.
+\subsection{Description des extractions}
+
+L'idée principale de ces nouveaux calculs d'attributs viennent du fait que l'on va s'interesser à des valeurs statistiques issues des valeurs de pixels des blocs de la zone (redécoupage de l'image).  L'hypothèse était ici que le fait de travailler directement sur des parties plus petites de l'image permettrait d'extraire des propriétés plus intéressantes. La compression SVD est aussi étudiée dans le cadre de ces approches.
+
+\vspace{2mm}
+\noindent
+Voici la liste des extractions statistiques d'une zone proposées dans le cadre de la thèse :
+
+
+\begin{itemize}
+	\item \textbf{sub\_blocks\_stats :} la zone est découpée en 4 blocs de taille identiques ($100x100$). Pour chaque bloc on extrait des statistiques telles que la moyenne, la médiane, le premier quartil, le troisième quartil et la variance du vecteur SV extrait de ce bloc. L'aire sous la courbe (l'intégrale) SV est également calculée (suivant la méthode trapézoidale). L'ensemble des statistiques de chaque bloc sont concaténées et utilisées comme entrée au modèle. 
+	
+	\item \textbf{sub\_blocks\_area :} la zone est découpée en 16 blocs de taille identiques ($50x50$). Pour chaque bloc l'aire sous la courbe (l'intégrale) SV est calculée (suivant la méthode trapézoidale). L'ensemble des aires de chaque bloc sont concaténées et utilisées comme entrée au modèle. 
+	
+	\item \textbf{ sub\_blocks\_stats\_reduced :} la zone est découpée en 4 blocs de taille identiques ($100x100$). Pour chaque bloc on extrait des statistiques telles que la moyenne, la médiane, le premier quartil, le troisième quartil et la variance du vecteur SV extrait de ce bloc. L'ensemble des statistiques de chaque bloc sont concaténées et utilisées comme entrée au modèle. 
+	
+	\item \textbf{sub\_blocks\_area\_normed :} Les valeurs utilisées en entrée sont identiques à la l'extraction \enquote{sub\_blocks\_area :} mais sont ici normalisées.
+	
+	\item \textbf{mscn\_var\_4 :} la zone est découpée en 4 blocs. Pour chaque bloc on réalisé la transformation MSCN (voir annexe \ref{appendices_mscn_transformation}). Pour chaque nouvelle matrice on calcule la variance. Le vecteur d'information statistiques est ensuite utilisé comme entrée au modèle.
+	
+	\item \textbf{mscn\_var\_16 :} Même processus que pour l'extraction proposée dans \enquote{mscn\_var\_4} mais avec ici 16 blocs.
+	
+	\item \textbf{mscn\_var\_64 :} Même processus que pour l'extraction proposée dans \enquote{mscn\_var\_4} mais avec ici 64 blocs.
+	
+	
+	\item \textbf{mscn\_var\_16\_max :} Même processus que pour l'extraction proposée \enquote{mscn\_var\_16} mais les valeurs du vecteur d'entrée sont ordonnées de la valeur de variance la plus grande à la plus petite.
+	
+	\item \textbf{mscn\_var\_64\_max :} Même processus que pour l'extraction proposée \enquote{mscn\_var\_64} mais les valeurs du vecteur d'entrée sont ordonnées de la valeur de variance la plus grande à la plus petite.
+\end{itemize}
+
+
+\subsection{Paramètres et résultats}
+
+\subsubsection{Paramètres}
+Tout comme les calculs effectués sur les composantes du vecteur de valeurs singulières, les paramètres concernant les modèles et la normalisation des données sont identiques. Pour rappel, l'annexe \ref{appendices_models_architecture} présente ces différents modèles. Enfin, comme précédemment, la normalisation des données d'entrée est effectuée de la manière suivante :
 
 \begin{itemize}
-	\item sub\_blocks\_stats
-	\item sub\_blocks\_area
-	\item sub\_blocks\_stats\_reduced
-	\item sub\_blocks\_area\_normed
-	\item mscn\_var\_4
-	\item mscn\_var\_16
-	\item mscn\_var\_64
-	\item mscn\_var\_16\_max
-	\item mscn\_var\_64\_max
-\end{itemize}
+	\item \textbf{svd :} sans normalisation
+	\item \textbf{svdn :} le sous-vector est normalisé avec ces propres valeurs
+	\item \textbf{svdne :} le sous-vector est normalisé en utilisant les valeurs minimale et maximale
+	des sous-vectors ou composantes de l'ensemble du dataset.
+\end{itemize}
+
+\subsubsection{Résultats}
+
+Le tableau \ref{table:03_Research_02_best_models_statistics} indique les 5 meilleurs modèles obtenus dans le cadre de cette étude. Les simulations du meilleur modèle obtenu sont également disponibles.
+
+% TODO : ajout simulation
+%\ref{simu1} et \ref{simu2}.
+
+\begin{table}[h!]
+	\centering
+	\begin{tabular}{|>{\scriptsize}l|>{\scriptsize}c|>{\scriptsize}r|>{\scriptsize}r|>{\scriptsize}r|>{\scriptsize}r|>{\scriptsize}r|}
+		\hline
+		Model & feature & size & zones & ROC Train & ROC Val & ROC Test\\
+		\hline
+		M3 & sub\_block\_stats\_reduced (svd) & 24 & 12 & 1 & 0.8288 & 0.8565 \\
+		M2 & sub\_block\_stats\_reduced (svd) & 24 & 10 & 1 & 0.8714 & 0.8539 \\
+		M2 & sub\_block\_stats\_reduced (svd) & 24 & 12 & 1 & 0.8030 & 0.8342 \\
+		M2 & sub\_block\_stats\_reduced (svd) & 24 & 8 & 1 & 0.8119 & 0.8294 \\
+		M1 & sub\_block\_stats (svd) & 24 & 8 & 1 & 0.8595 & 0.8376 \\
+		\hline
+	\end{tabular}
+	\caption{5 meilleurs modèles avec approche statistiques sur le score ROC AUC}
+	\label{table:03_Research_02_best_models_statistics}
+\end{table}
+
+\subsection{Conclusion}
+
+% TODO : finir conclusion
+- Overfitting
+
+\vspace{2mm}
+\noindent
+\textbf{Ressources :} \href{https://github.com/prise-3d/Thesis-NoiseDetection-attributes}{Projet github} comprenant l'ensemble des développements réalisés dans cette section.

+ 21 - 1
03.Research/03.SampleAnalysis.tex

@@ -1 +1,21 @@
-\section{Etude des échantillons de rendu}
+\section{Etude des échantillons de rendu}
+
+Dans le cadre d'une étude plus minutieuse, nous nous sommes intéressés à l'étude de l'évolution des valeurs de pixels et des approximations durant le rendu. A chaque échantillon, une approximation du pixel est réalisée, c'est enfin la moyenne empirique de ces esttimations qui permet de représenter la valeur finale d'un pixel. Une base de données d'images a été créée dans le but de pouvoir étudier sur 1000 échantillons chacun des valeurs.
+
+Cette base comprend pour chaque pixel les 1000 estimations (échantillons) réalisés lors du rendu sur son niveau de gris (canal de luminance).
+
+
+\subsection{Description de l'objectif}
+
+L'objectif au travers de cette base d'images disponibles et de pouvoir chercher un modèle pouvant prédire la moyenne empirique (de l'image de référence) en ayant pris connaissance des $n$ premiers échantillons. Cela revient à dire que le problème et d'estimer par rapport à la distribution actuelle, la distribution finale des estimations des pixels afin d'en obtenir la moyenne empirique comme présente sur l'image de référence.
+
+\subsection{Paramètres et modèles}
+
+
+
+\subsection{Conclusion}
+
+
+\vspace{2mm}
+\noindent
+\textbf{Ressources :} \href{https://github.com/prise-3d/Thesis-SampleAnalysis}{Projet github} comprenant l'ensemble des développements réalisés dans cette section.

+ 9 - 1
03.Research/04.FutureWorks.tex

@@ -1 +1,9 @@
-\section{Les approches futures}
+\section{Les approches futures}
+
+\begin{itemize}
+	
+	\item Filtres par convolution
+	\item Lancement calculs deep learning sur les méthodes de compression via convolution
+	\item Utilisation algorithmes évolutionnaires pour trouver les $n$ meilleurs filtres sur les travaux d'André
+	\item Others...
+\end{itemize}

BIN
main.pdf


+ 2 - 1
main.tex

@@ -13,6 +13,7 @@
 \usepackage[locale=FR]{siunitx}
 
 \usepackage[toc,page]{appendix} 
+\usepackage{hyperref}
 
 \title{Rapport CST : \textit{Détection de
 bruit dans les images de synthèses
@@ -58,7 +59,7 @@ automatiques}}
 
 % Tableau récapitulatif des formations
 
-\section{Conclusion}
+\chapter{Conclusion}
 
 \begin{appendices}