diff --git a/docs/udelartex/anexo/anexoInteraccion.tex b/docs/udelartex/anexo/anexoInteraccion.tex
index 60b7347de04cb370e2ba9679d1bc025d24309212..f4c243f3a267c90c0658f6efbbbf2519064b6703 100644
--- a/docs/udelartex/anexo/anexoInteraccion.tex
+++ b/docs/udelartex/anexo/anexoInteraccion.tex
@@ -306,7 +306,7 @@ Finalmente, para acceder a la consola de la instancia creada a través de SSH de
 $ ssh -i keypair-test-1.pem cirros@10.0.4.17
 \end{lstlisting}		
 
-Una vez dentro, para tener conectividad a internet se debe configurar el mismo proxy que fue asignado a todos los nodos de OpenStack, es decir:
+Una vez dentro, para tener conectividad a Internet se debe configurar el mismo proxy que fue asignado a todos los nodos de OpenStack, es decir:
 \begin{lstlisting}
 $ export http_proxy="http://10.0.1.1:3128"
 \end{lstlisting}		
diff --git a/docs/udelartex/anexo/anexoQueens.tex b/docs/udelartex/anexo/anexoQueens.tex
index 375f050a74cdb977eef60eaa8a71175d56d0a864..87708f2dfd949515dfb348baf892d88bafdc01a4 100644
--- a/docs/udelartex/anexo/anexoQueens.tex
+++ b/docs/udelartex/anexo/anexoQueens.tex
@@ -4,7 +4,7 @@ Queens es la décimo séptima versión liberada por OpenStack. La misma fue publ
 
 \section{Preparación de nodos}
 En la siguiente sección se detallan los pasos necesarios a seguir en cada uno de los nodos para iniciar con la instalación de OpenStack.
-Para realizar dicha configuración inicial será necesario que los nodos cuenten con conexión a internet. En el ambiente de trabajo actual, esto es equivalente a verificar que las variables del proxy estén bien configuradas.
+Para realizar dicha configuración inicial será necesario que los nodos cuenten con conexión a Internet. En el ambiente de trabajo actual, esto es equivalente a verificar que las variables del proxy estén bien configuradas.
 
 \subsection*{Deploy}
 \begin{enumerate}
@@ -20,44 +20,44 @@ Para realizar dicha configuración inicial será necesario que los nodos cuenten
 	
 	\item Por simplificación , cambiar el hostname de la máquina a ‘deploy’ con el comando:
 \begin{lstlisting}
-$ hostname deploy
+# hostname deploy
 \end{lstlisting}
 	
 	\item Configurar las variables de proxy en \path{/etc/environment} con los siguientes comandos:
 \begin{lstlisting}
-$ echo "http_proxy=http://10.0.1.1:3128" >> /etc/environment
-$ echo "https_proxy=http://10.0.1.1:3128" >> /etc/environment
-$ echo "HTTP_PROXY=http://10.0.1.1:3128" >> /etc/environment
-$ echo "HTTPS_PROXY=http://10.0.1.1:3128" >> /etc/environment
-$ source /etc/environment
+# echo "http_proxy=http://10.0.1.1:3128" >> /etc/environment
+# echo "https_proxy=http://10.0.1.1:3128" >> /etc/environment
+# echo "HTTP_PROXY=http://10.0.1.1:3128" >> /etc/environment
+# echo "HTTPS_PROXY=http://10.0.1.1:3128" >> /etc/environment
+# source /etc/environment
 \end{lstlisting}
 	
-	Verificar el acceso a internet mediante el comando:
+	Verificar el acceso a Internet mediante el comando:
 \begin{lstlisting}
-$ curl www.google.com.
+# curl www.google.com.
 \end{lstlisting}
 	
 	\item Instalaciones necesarias:
 	\begin{enumerate}[label*=\arabic*.]
 		\item Actualizar repositorios y reiniciar:
 \begin{lstlisting}
-$ yum upgrade -y
-$ reboot
+# yum upgrade -y
+# reboot
 \end{lstlisting}
 		\item Instalar repositorio OpenStack Queens:
 \begin{lstlisting}
-$ yum install -y https://rdoproject.org/repos/openstack-queens/rdo-release-queens.rpm
+# yum install -y https://rdoproject.org/repos/openstack-queens/rdo-release-queens.rpm
 \end{lstlisting}
 		\item Instalar herramientas auxiliares:
 \begin{lstlisting}
-$ yum install -y git ntp nano net-tools ntpdate openssh-server python-devel sudo '@Development Tools'
+# yum install -y git ntp nano net-tools ntpdate openssh-server python-devel sudo '@Development Tools'
 \end{lstlisting}
 	\end{enumerate}
 	
 	\item Deshabilitar firewall de CentOS:
 \begin{lstlisting}
-$ systemctl stop firewalld
-$ systemctl mask firewalld
+# systemctl stop firewalld
+# systemctl mask firewalld
 \end{lstlisting}		
 	
 	\item Configurar el servicio de NTP mediante Chrony, sustituyendo en el archivo \path{/etc/chrony.conf} las siguientes líneas:
@@ -70,28 +70,28 @@ server 3.south-america.pool.ntp.org
 	
 	Reiniciar el servicio mediante:
 \begin{lstlisting}
-$ systemctl restart chronyd
+# systemctl restart chronyd
 \end{lstlisting}
 	
 	\item Clonar el repositorio de OpenStack Ansible Queens
 \begin{lstlisting}
-$ git clone -b 17.1.10 https://git.openstack.org/openstack/openstack-ansible /opt/openstack-ansible
+# git clone -b 17.1.10 https://git.openstack.org/openstack/openstack-ansible /opt/openstack-ansible
 \end{lstlisting}		
 	
 	\item Preparar openstack-ansible:
 \begin{lstlisting}
-$ /opt/openstack-ansible/scripts/bootstrap-ansible.sh 
+# /opt/openstack-ansible/scripts/bootstrap-ansible.sh 
 \end{lstlisting}	
 	Este script se utiliza para asegurar que Ansible y todas las dependencias necesarias para la instalación de OSA están instaladas en el nodo de deploy.
 	
 	\item Copiar el contenido de configuración al \path{/etc}:
 \begin{lstlisting}
-$ cp -r /opt/openstack-ansible/etc/openstack_deploy /etc/
+# cp -r /opt/openstack-ansible/etc/openstack_deploy /etc/
 \end{lstlisting}	
 	
 	\item Crear la carpeta para logs de la instalación:
 \begin{lstlisting}
-$ mkdir /var/log/openstack
+# mkdir /var/log/openstack
 \end{lstlisting}			
 	
 \end{enumerate}
@@ -144,47 +144,47 @@ $ mkdir /var/log/openstack
 	
 	\item Cambiar el hostname de la máquina a ‘infra1’ con el comando:
 \begin{lstlisting}
-$ hostname infra1
+# hostname infra1
 \end{lstlisting}
 	
 	\item Configurar las variables de proxy en la sesión pero no en el sistema, porque luego el nodo deploy configura el \path{/etc/environment} en todos los nodos.
 \begin{lstlisting}
-$ export http_proxy=http://10.0.1.1:3128
-$ export https_proxy=http://10.0.1.1:3128
-$ export HTTP_PROXY=http://10.0.1.1:3128
-$ export HTTPS_PROXY=http://10.0.1.1:3128
+# export http_proxy=http://10.0.1.1:3128
+# export https_proxy=http://10.0.1.1:3128
+# export HTTP_PROXY=http://10.0.1.1:3128
+# export HTTPS_PROXY=http://10.0.1.1:3128
 \end{lstlisting}	
 	
-	Verificar el acceso a internet mediante el comando:
+	Verificar el acceso a Internet mediante el comando:
 \begin{lstlisting}
-$ curl www.google.com
+# curl www.google.com
 \end{lstlisting}
 	
 	\item Actualizar repositorios y reiniciar:
 \begin{lstlisting}
-$ yum upgrade -y
-$ reboot
+# yum upgrade -y
+# reboot
 \end{lstlisting}
 	
 	\item Instalar herramientas auxiliares:
 \begin{lstlisting}
-$ yum install bridge-utils iputils lsof lvm2 ntp ntpdate openssh-server sudo tcpdump python net-tools nano
+# yum install bridge-utils iputils lsof lvm2 ntp ntpdate openssh-server sudo tcpdump python net-tools nano
 \end{lstlisting}
 	
 	\item Deshabilitar el Network Manager:
 \begin{lstlisting}
-$ chkconfig NetworkManager off
-$ chkconfig network on
-$ service NetworkManager stop
-$ service network start
+# chkconfig NetworkManager off
+# chkconfig network on
+# service NetworkManager stop
+# service network start
 \end{lstlisting}
 	
 	\item Deshabilitar el SELinux, cambiando en \path{/etc/sysconfig/selinux}, "SELINUX=enforcing" por "SELINUX=disabled".
 	
 	\item Habilitar bonding de interfaces y VLANs:
 \begin{lstlisting}
-$ echo 'bonding' >> /etc/modules-load.d/openstack-ansible.conf
-$ echo '8021q' >> /etc/modules-load.d/openstack-ansible.conf
+# echo 'bonding' >> /etc/modules-load.d/openstack-ansible.conf
+# echo '8021q' >> /etc/modules-load.d/openstack-ansible.conf
 \end{lstlisting}	
 	
 	\item Configurar el servicio de NTP mediante Chrony, sustituyendo en el archivo \path{/etc/chrony.conf} las siguientes líneas:
@@ -197,25 +197,25 @@ server 3.south-america.pool.ntp.org
 	
 	Reiniciar el servicio mediante:
 \begin{lstlisting}
-$ systemctl restart chronyd
+# systemctl restart chronyd
 \end{lstlisting}
 	
 	\item Eliminar reglas de firewall que bloquean el tráfico:
 	\begin{enumerate}[label*=\arabic*.]
 		\item Eliminar las reglas manualmente:
 \begin{lstlisting}
-$ iptables -D INPUT -j REJECT --reject-with icmp-host-prohibited
-$ iptables -D FORWARD -j REJECT --reject-with icmp-host-prohibited
+# iptables -D INPUT -j REJECT --reject-with icmp-host-prohibited
+# iptables -D FORWARD -j REJECT --reject-with icmp-host-prohibited
 \end{lstlisting}
 		
 		\item Exportar las reglas a un archivo:
 \begin{lstlisting}
-$ iptables-save > /etc/sysconfig/iptables
+# iptables-save > /etc/sysconfig/iptables
 \end{lstlisting}
 		
 		\item En cada reboot de la máquina, importar las reglas del archivo anterior:
 \begin{lstlisting}
-$ iptables-restore < /etc/sysconfig/iptables
+# iptables-restore < /etc/sysconfig/iptables
 \end{lstlisting}				
 		
 	\end{enumerate}
@@ -269,7 +269,7 @@ $ iptables-restore < /etc/sysconfig/iptables
 	
 	\item Cambiar el hostname de la máquina a 'compute1' con el comando:
 \begin{lstlisting}
-$ hostname compute1
+# hostname compute1
 \end{lstlisting}
 	
 \end{enumerate}
@@ -310,7 +310,7 @@ A partir de este punto, el procedimiento es idéntico al nodo infra1. Se deben r
 	
 	\item Cambiar el hostname de la máquina a 'storage1' con el comando:
 \begin{lstlisting}
-$ hostname storage1
+# hostname storage1
 \end{lstlisting}
 	
 \end{enumerate}
@@ -324,22 +324,22 @@ A partir de este punto, el procedimiento es idéntico al nodo infra1. Se deben r
 	\begin{enumerate}[label*=\arabic*.]
 		\item Listar los devices en la máquina:
 \begin{lstlisting}
-$ lvmdiskscan
+# lvmdiskscan
 \end{lstlisting}
 		
 		\item Formatear la pieza física de almacenamiento de 200 GB:
 \begin{lstlisting}
-$ pvcreate --metadatasize 2048 physical_volume_device_path
+# pvcreate --metadatasize 2048 physical_volume_device_path
 \end{lstlisting}		
 		
 		\item Crear el nuevo grupo de almacenamiento que será utilizado por OpenStack:
 \begin{lstlisting}
-$ vgcreate cinder-volumes physical_volume_device_path
+# vgcreate cinder-volumes physical_volume_device_path
 \end{lstlisting}			
 		
 		\item Verificar que el grupo quedó creado correctamente:
 \begin{lstlisting}
-$ vgdisplay
+# vgdisplay
 \end{lstlisting}			
 		
 	\end{enumerate}
@@ -366,7 +366,7 @@ $ vgdisplay
 	
 	\item Cambiar el hostname de la máquina a 'haproxy1' con el comando:
 \begin{lstlisting}
-$ hostname haproxy1
+# hostname haproxy1
 \end{lstlisting}
 	
 \end{enumerate}
@@ -381,7 +381,7 @@ Como se menciona en la sección de Ansible, el nodo de deploy requiere de una co
 El comando que se debe ejecutar para crear las claves es el siguiente:
 
 \begin{lstlisting}
-$ ssh-keygen -t rsa -f ~/.ssh/id_rsa -N ""
+# ssh-keygen -t rsa -f ~/.ssh/id_rsa -N ""
 \end{lstlisting}
 
 Donde:
@@ -394,10 +394,10 @@ Donde:
 Esto genera dos archivos (\path{id_rsa} y \path{id_rsa.pub}) donde el primero es la clave privada (que no se deberá compartir) y el segundo la clave pública que se copiará al resto de los servidores con los siguientes comandos:
 
 \begin{lstlisting}
-$ ssh-copy-id root@10.0.1.11
-$ ssh-copy-id root@10.0.1.12
-$ ssh-copy-id root@10.0.1.13
-$ ssh-copy-id root@10.0.1.15
+# ssh-copy-id root@10.0.1.11
+# ssh-copy-id root@10.0.1.12
+# ssh-copy-id root@10.0.1.13
+# ssh-copy-id root@10.0.1.15
 \end{lstlisting}
 
 Para verificar la configuración bastará con realizar un ssh a cada servidor desde el deploy con el usuario root,  accediendo en forma directa al prompt de dicho servidor. 
@@ -596,8 +596,8 @@ is_metal: true
 Se deben configurar las passphrases requeridas por OpenStack durante su instalación y posterior uso. Esto se alcanza mediante:
 
 \begin{lstlisting}
-$ cd /opt/openstack-ansible
-$ ./scripts/pw-token-gen.py --file /etc/openstack_deploy/user_secrets.yml
+# cd /opt/openstack-ansible
+# ./scripts/pw-token-gen.py --file /etc/openstack_deploy/user_secrets.yml
 \end{lstlisting}
 
 \subsection{Correcciones}
@@ -609,8 +609,8 @@ Concretamente el commit consiste en:
 \begin{itemize}
 	\item Eliminar los siguientes archivos:
 \begin{lstlisting}
-$ rm /etc/ansible/roles/os_nova/files/osa-nova.te
-$ rm /etc/ansible/roles/os_nova/tasks/nova_selinux.yml
+# rm /etc/ansible/roles/os_nova/files/osa-nova.te
+# rm /etc/ansible/roles/os_nova/tasks/nova_selinux.yml
 \end{lstlisting}
 	
 	\item Modificar el archivo \path{/etc/ansible/roles/os_nova/tasks/nova_post_install.yml} eliminando las siguientes líneas:
diff --git a/docs/udelartex/anexo/anexoStein.tex b/docs/udelartex/anexo/anexoStein.tex
index 4b0f5aad5842bd70dc26228ab9dba99b50501e8d..b681f8bc066ad6d007489f27494cd522df16a86c 100644
--- a/docs/udelartex/anexo/anexoStein.tex
+++ b/docs/udelartex/anexo/anexoStein.tex
@@ -5,7 +5,7 @@ Al bridge br-mgmt ubicado en el servidor físico renata y conectado a la interfa
 
 \section{Preparación de nodos}\label{chap5:preparacion:nodos}
 Preparación de nodos
-En esta sección se detallan los pasos necesarios a seguir en cada uno de los nodos para iniciar con la instalación de OpenStack. Al igual que en la instalación previa es necesario contar con conexión a internet en todos los nodos. La guía de referencia utilizada para setear el ambiente se encuentra en [página de openstack]. 
+En esta sección se detallan los pasos necesarios a seguir en cada uno de los nodos para iniciar con la instalación de OpenStack. Al igual que en la instalación previa es necesario contar con conexión a Internet en todos los nodos. La guía de referencia utilizada para setear el ambiente se encuentra en [página de openstack]. 
 
 \subsection*{Deploy}
 \begin{enumerate}
@@ -28,7 +28,7 @@ $ echo "HTTPS_PROXY=http://192.168.60.242:3128" >> /etc/environment
 $ source /etc/environment
 \end{lstlisting}	
 
-	Verificar el acceso a internet mediante el comando:
+	Verificar el acceso a Internet mediante el comando:
 \begin{lstlisting}
 $ curl www.google.com
 \end{lstlisting}
diff --git a/docs/udelartex/tesis.pdf b/docs/udelartex/tesis.pdf
index 3530b7471164ff140bcbf696e7371bc2ca8b3c8b..3532f498b026af5449244853c055f5972975898d 100644
Binary files a/docs/udelartex/tesis.pdf and b/docs/udelartex/tesis.pdf differ
diff --git a/docs/udelartex/tesis.synctex.gz b/docs/udelartex/tesis.synctex.gz
index d819169dc2a5ee3269df819b2fa58ceb65358af7..5692f2e74a619dfd6d474cc46887f5fbbccb970e 100644
Binary files a/docs/udelartex/tesis.synctex.gz and b/docs/udelartex/tesis.synctex.gz differ