MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se...
Transcript of MARCO TEÓRICOvirtual.urbe.edu/tesispub/0094367/cap02.pdf · Para el desarrollo de la propuesta se...
Capítulo II
MARCO TEÓRICO
13
CAPÍTULO II
MARCO TEÓRICO
El presente capítulo tiene como propósito reunir información documental y
bibliográfica para formular argumentos que sirvan de base para el desarrollo
de la investigación, por consiguiente el mismo está compuesto por el estudio
de trabajos realizados previamente, así como algunos aspectos teóricos o
conceptuales relacionados con la situación objeto de estudio.
1. ANTECEDENTES DE LA INVESTIGACIÓN
Para la elaboración del presente trabajo especial de grado se tomó como
base la variable objeto de la investigación y estudios similares (Protocolo
para auditar sistemas y Tecnologías para el desarrollo de un sistema) Que
aportarán información y datos para contribuir con el apoyo en la realización
del mismo.
Como primer antecedente se consideró a Moronta quien desarrollo el
proyecto titulado: “SISTEMA DE COMUNICACIÓN INTELIGENTE PARA
PROVEER MECANISMOS DE CALIDAD DE SERVICIO (QoS) EN LA
TRANSMISIÓN DE VOZ, DATO Y VIDEO” en la Universidad Rafael Belloso
Chacín. Esta investigación estuvo dirigida al diseño de un sistema de
comunicación inteligente para proveer mecanismos de calidad de servicios
14
en la transmisión de voz, dato y video. El enfoque teórico de la investigación
se sustentó en diversos autores como Stewart y Gough (2008),Ranjbar
(2007), Szigeti (2004), Wallace (2007), Vagesna (2001), entre otros. El tipo
de investigación se ajustó a la categoría de proyectos factibles, prospectiva,
documental, de campo, transversal, no experimental y descriptiva. La
metodología seleccionada se basó en la planteada por el autor Fitzgerald
(1981). La cual ilustra el proceso de diseño de un sistema de comunicación a
través de diez(10) pasos, los cuales para efectos de este estudio fueron
agrupados en fases de acuerdo a los objetivos de la investigación, quedando
la metodología conformada por un total de cuatro fases, a saber: Fase I:
Análisis de la situación actual, Fase II: Definición de los requerimientos del
sistema de comunicación propuesto, Fase III: Diseño del sistema de
comunicación propuesto, y por último la Fase IV: Evaluación del diseño
propuesto. La recolección de datos se realizó a través de un guión de
observación y guión de entrevista estructurada abierta.
Para el desarrollo de la propuesta se utilizaron herramientas como:
Wireshark Network Analizer, Colasoft Packet Analizer, Cisco IP
Communicator, Packet Tracer, VLC Player, entre otras. Los resultados
arrojaron que los sistemas de comunicación inteligentes proporcionan
mecanismos efectivos para la implementación de calidad de servicio, lo cual
mejora significativamente el desempeño de las redes, recomendándose así
como una solución viable para ser implementada en cualquier organización.
15
En relación con la propuesta de investigación en este trabajo de
grado, se analizaron las herramientas ya que se podrían utilizar para obtener
información sobre la calidad de servicio mediante un monitoreo para
sistemas con tecnología “Cloud Computing”, es decir información que mejora
significativamente el desempeño de las redes.
En comparación con la investigación nombrada anteriormente, la
propuesta de investigación en este trabajo de grado estuvo relacionada con
el protocolo que permita auditar sistemas con tecnología “Cloud
Computing”, lo cual permitirá evaluar ciertos parámetros para determinar la
calidad de servicio.
En segundo lugar, se tiene la investigación realizada por Gutiérrez,
Angeles quienes desarrollaron el proyecto titulado: “SISTEMA DE
COMUNICACIÓN PRIVADO BASADO EN CLOUD COMPUTING PARA
INSTITUCIONES DE EDUCACIÓN SUPERIOR” en la Universidad Rafael
Belloso Chacín. Como propósito principal de éste proyecto fue, desarrollar un
sistema de comunicación privado basado en Cloud Computing para
Instituciones de Educación Superior. Desde el punto de vista de Hernández,
Fernández y Baptista (2006), y Hurtado (2000).
Esta investigación se presenta como descriptiva y como un proyecto
factible, ya que la misma describe la situación objeto de estudio y se
fundamenta en la planificación y en la intención de solucionar un problema;
en cuanto al diseño, se determinó que es de campo; dado que los datos de
interés se tomaron en forma directa de la realidad, según explica Sabino
16
(1992). Como técnica de recolección de datos, se usaron la entrevista y la
observación, para lo cual los instrumentos seleccionados fueron un guión de
Sondeo, así como un guión de observación. Dicho proyecto, trabajó con una
metodología ecléctica, compuesta por los siguientes autores, Menken (2008),
Reese (2009) y Miller (2009); que guiaron a los investigadores durante la
ejecución del proyecto. Tomando como base los fundamentos teóricos de la
investigación se buscó la reestructuración del sistema actual usando los
recursos ya existentes en la institución, dando como resultado, desde el
punto de vista teórico, el máximo aprovechamiento y disponibilidad de los
equipos, centralización de los datos y servicios tecnológicos, además de la
oportunidad latente de usar esta tecnología como plataforma educativa.
En relación con la propuesta de investigación en este trabajo de
grado, se analizara la estructura del sistema de comunicación privado en la
tecnología “Cloud Computing”, Lo que aporta dicha investigación, es en
cuanto a los estudios del desempeño del sistema de comunicación, a su vez
aplicaron una reestructuración del sistema usando los recursos existentes,
esto dice que a través de este proyecto de grado se puede implementar el
protocolo para auditar sistemas basados en tecnología “Cloud Computing”,
y así saber que la estructura realizada en la investigación de dicho autor está
bien implementada y darle énfasis al punto de vista teórico del proyecto
realizado anteriormente.
Como tercer antecedente, se tiene la investigación realizada por
Chourio, Karen quienes desarrollaron el proyecto titulado: “DESARROLLO
17
DE UNA METODOLOGIA DE AUDITORIA OPERACIONAL PARA EL
PROCESO DE CERTIFICACION DE REDES SAN” en la Universidad Rafael
Belloso Chacín. Como propósito principal de éste proyecto fue, el desarrollo
de una Metodología de Auditoria Operacional para el proceso de
Certificación de Redes SAN, con la finalidad de lograr la eficiencia y la
calidad de las empresas, así como a su vez una red con una infraestructura
más fuerte y segura desde el punto de vista lógico y físico.
El trabajo de investigación se clasifico según su propósito de tipo
aplicada, según su método como descriptiva y por la forma de obtención de
datos como de campo. La técnica de recolección de datos de la investigación
se basó en la observación directa, entrevista y documental. La técnica de
recolección de datos de la investigación se basó en la observación directa,
entrevista y documental. La metodología utilizada de basó en la propuesta
por la norma ISO 19011 y Piattini, Navarro y Ruiz (2008), estructurada por
fases de la siguiente manera: Fase I. Diagnostico de la situación actual de
las redes SAN instaladas; Fase II. Identificación de los requisitos técnicos y
funcionales que determinan la calidad de una red SAN; Fase III. Desarrollo
de un Manual de Auditoria Operacional para la certificación de calidad de las
redes SAN; Fase IV. Validación del manual de auditoría operacional para la
certificación de calidad de las redes SAN, obteniendo como resultado la
metodología de auditoría operacional, y concluyendo así con la correcta
implementación del manua l de auditoría operacional en una red SAN
18
En relación con la propuesta de investigación en este trabajo de
grado, se analizara la metodología utilizada en cuanto a la elaboración del
manual de auditoría operacional para la certificación de calida de las redes
SAN, Lo que aporta dicha investigación, es en cuanto a los estudios de la
selección del equipo de auditoría , la comunicación de los datos durante la
recopilación de los datos, la formulación del informe final y a su vez la
ejecución de la misma para dar Calidad de servicio (QoS) a la red SAN,
asegurándose de cumplir con los parámetros para su optimo funcionamiento ,
esto dice que a través de este proyecto de grado se puede elaborar el
protocolo para auditar sistemas basados en tecnología “Cloud Computing”,
teniendo la certeza de que al momento de hacer uso de este manual el
mismo esta certificado por expertos en áreas tanto de Sistemas como de
Cloud computing y así saber que la estructura realizada en la investigación
de dicho autor está bien implementada ya que han de utilizar una
metodología válida para su formulación.
Finalmente, la investigación realizada por Ferrer, Nava y Sánchez que
desarrollaron el proyecto titulado: “PROTOCOLO PARA AUDITAR REDES
LOCALES INALAMBRICAS BAJO ESTANDAR 802.11G” en la Universidad
Rafael Belloso Chacín. Para mejorar el proceso de auditoría, la investigación
tuvo como objetivo general diseñar un protocolo para auditar redes locales
inalámbricas bajo estándar 802.11g.
La teorización considero los aportes de los autores Muñoz (1998),
Solís (2002), Rojas Hallberg (2007), Forouzan (2002) y Herrera (2003), entre
19
otros. A su vez la investigación se clasifico como tipo proyectiva, descriptiva y
de campo, considerando la finalidad, el método y la forma de obtener los
datos. Se aplicaron como técnica de recolección de datos, la observación
directa, revisión documental, entrevista y una encuesta orientada a expertos
en el área de redes inalámbricas como instrumento de recolección de datos.
Las fases del desarrollo utilizadas indicaron una adaptación de las
metodologías de Smith (2000), Grech (2001), Savant (1992) y FitzGerald
(1988), por lo cual se considera una metodología ecléctica.
Dichas fases se especifican de la siguiente forma: estudio preliminar,
análisis funcional, identificar los indicadores de calidad, elaborar el protocolo
y validar el diseño de dicho protocolo propuesto, dando como resultado de
esta investigación se tiene un protocolo para validar y certificar redes locales
inalámbricas bajo estándar 802.11g, validado por expertos en el área, donde
se toman en cuenta distintos criterios de calidad del aspecto funcional y
operacional de las redes inalámbricas bajo estándar 802.11g.
En relación con la propuesta de investigación, se analizaron todos los
procesos de la creación del protocolo validado por experto para redes locales
inalámbricas bajo el estándar 802.11g y toda información referente sobre el
protocolo por lo cual permite adquirir información necesaria para estructurar
el protocolo, lo que aporta información al presente proyecto, ya que se está
trabajando con el protocolo para auditar, lo que cambian son los estándares
y lo que se quiere auditar (En el proyecto anterior “Redes” y en el actual
“Sistemas bajo plataforma de Cloud Computing ”).
20
2. BASES TEORICAS
Para los fundamentos teóricos de esta investigación, se procedió a
desarrollar dos (2) temas primordiales de la misma, la primera referente a la
variable de estudio, y la otra, relacionada con el instrumento propuesto para
dar solución al problema planteado. Dicha teoría, se desarrolló de tal forma
que pueda despejar las dudas y puntualizar los aspectos más importantes,
para dar a los investigadores y al lector, las herramientas necesarias para la
correcta implementación de un sistema de comunicación basado en Cloud
Computing.
2.1. AUDITORÍA DE SISTEMAS.
Por otro lado, Hernández (1997, p. 17) afirma que es el conjunto de
acciones que realiza el personal especializado en las área de auditoría e
informática para el aseguramiento continuo de que todos los recursos de
informática operen en un ambiente de seguridad y control eficientes, con la
finalidad de que la información que pasa por el área se maneje con los
conceptos básicos de integridad, totalidad, exactitud, confiabilidad, etc.
2.1.1. AUDITORIA AL SISTEMA DE CÓMPUTO
Según Muñoz (2002, p. 30) es la auditoría técnica y especializada que se
enfoca únicamente a la evaluación del funcionamiento y uso correctos del
equipo de cómputo, su hardware, software y periféricos asociados. Esta
21
auditoría también se realiza a la composición y arquitectura de las parles
físicas y demás componentes del hardware, incluyendo equipos asociados,
instalaciones y comunicaciones internas o externa, así como al diseño,
desarrollo y uso del software de operación, de apoyo y de aplicación, ya sean
sistemas operativos, lenguajes de procesamiento y programas de desarrollo,
o paquetería de aplicación institucional que se utiliza en la empresa donde se
encuentra el equipo de cómputo que será evaluado.
2.1.2. AUDITORIA OPERACIONAL
Según Muñoz (2002, p. 17) la auditoria operacional es la revisión
exhaustiva, sistemática y especifica que se realiza a las actividades de una
empresa, con el fin de evaluar su existencia, suficiencia, eficacia, eficiencia y
el correcto desarrollo de sus operaciones, cualesquiera que estas sean, tanto
en el establecimiento y cumplimiento de los métodos, técnicas y
procedimientos de trabajo necesarios para el desarrollo de sus operaciones,
en coordinación con los recursos disponibles, como en las normas, políticas,
lineamientos y capacitación que regulan el buen funcionamiento de la
empresa.
2.1.2.1. AUDITORIA ALREDEDOR DE LA COMPUTADORA
Es el diagnóstico que se le aplica a todo lo que está alrededor de un
equipo de cómputo (Software, Hardware y funcionamiento), es decir se
22
evalúan sus métodos y procedimientos de: acceso y datos; como se envían,
muestran y almacenan los resultado y también como se gestionan las
comunicaciones internas y externas.
2.1.2.2. AUDITORIA ERGONÓMICA DE SISTEMAS
COMPUTACIONALES
Según Muñoz (2002, p. 43) es la revisión técnica, específica y
especializada que se realizara para evaluar la calidad, eficiencia y utilidad del
entorno hombre-máquina-medio ambiente que rodea el uso de sistemas
computacionales, en una empresa la revisión se realiza también con el
propósito de evaluar la correcta adquisición y uso del mobiliario, equipo y
sistemas, a fin de proporcionar el bienestar, confort y comodidad que
requieren los usuarios o de los sistemas de cómputo de la empresa, así
como evaluar la detección de los posibles problemas y sus repercusiones, y
la determinación de las soluciones relacionadas con la salud física y
bienestar de los usuarios de los sistemas de la empresa.
2.1.3. NIVEL DE SERVICIO.
En opinión de Piattini (2008, p. 411) dichas actividades, paradas por
instalación de nuevos dispositivos, cambios de versiones del sistema
operativo, puesta en servicio de nuevas herramientas, averías de máquinas,
fallos de corriente o elementos de acondicionamiento, arranque o
23
modificación de enlaces de comunicaciones, incluso de nuevos usuarios o
cualquier tipo de problemas como el hardware o el software puede degradar
el servicio, como el consiguiente perjuicio para la organización, que no podrá
desarrollar sus funciones adecuadamente o en el tiempo preciso, con el
correspondiente impacto económico que esto supone y que, generalmente,
resultarán difícil de calcular, pero, en cualquier caso, importante.
2.1.4. PROCEDIMIENTOS.
Según Tamayo (2001, p. 43), los procedimientos incluyen pruebas que
requieren la inspección de documentos que apoyan operaciones para
obtener evidencia de que los controles han operado con propiedad, e
investigaciones acerca de los controles que no dejan rastro de auditoría, así
como la observación de los mismos, donde que toda tarea organizada debe
cumplir con la descomposición en series de acciones a realizar con sus
procedimientos específicos que permitan la garantía del funcionamiento.
2.1.5. CONTROLES.
Según Piattini y otros (2008, p. 417), Deberían determinar el
comportamiento del sistema y prevenir situaciones no deseadas desde
cualquier punto de vista.
• Hardware
o Existe los componentes adquiridos (inventario)
24
o Están correctamente instalados
o Se mantienen adecuadamente
o Dan el rendimiento requerido
• Software
o Se dispone de las correspondientes licencias
o Está correctamente instalado
o Se mantiene adecuadamente(versión oficialmente soportadas)
o Dan el rendimiento adecuado
• Comunicaciones
o Existen componentes
o Existen los contratos o servicios
• Conmutación
o Están Correctamente instalados
o Se mantienen adecuadamente
o Dan el rendimiento adecuado
• Enlaces
o Están correctamente parametrizados
o Se mantienen adecuadamente
o Dan el ancho de banda y respuesta necesaria
• Seguridad
o Existen los procedimientos
o Se llevan a cabo
25
o Se controlan las excepciones
o Se toman medidas
• Información
o Se dispone de procedimientos de back-up
o Se realizan los back-up correspondientes
o Se guardan adecuadamente
o Se comprueban por muestreo
• Plan de contingencias
o Se dispone de un procedimiento
o Están contratados los servicios necesarios
o Está debidamente actualizado
o Se realizan los ensayos periódicos
2.1.6. AUDITORÍA DE LA FUNCIÓN.
No se repetirán conceptos clásicos de auditoría, como la necesidad de
confeccionar un plan de la misma que incluya el análisis de ejercicios
anteriores, determinando objetivos precisos y estableciendo un conjunto de
pruebas: sustantivas y de cumplimiento que permitan obtener unas
conclusiones reflejadas en el informe correspondiente. Se trata pues de
aplicar las ideas anteriores al segmento de actividad al que nos estamos
refiriendo: Técnica de sistema.
26
2.1.7. CONSIDERACIONES SOBRE LA TECNOLOGÍA Y SU
EVOLUCIÓN.
Es cada vez mas importante disponer de unos estándares contratados
(Auditados) para no “reinventar la rueda” continuamente y convertir la gestión
de los sistemas en una “Torre de Babel”. Es básico disponer de los
mecanismos de control (Y auditoría) para verificar que se efectúan la
comprobaciones necesarias en la instalación de nuevos aplicativos y
modificación de los existentes, evitando compatibilidad y/o fallos posteriores
que siempre repercuten el negocio negativo.
2.2. CLOUD COMPUTING.
Según Velte, A. Velte y Elsenpeter (2010, p. 3), el Cloud Computing ,
obtiene su nombre como una metáfora del Internet, ya que la Internet es
típicamente representada en los diagramas como una nube, simbolizando
todo aquello que hace funcional a una red. Sin embargo, Resse (2009, p. 2),
aclara que la nube no es el último término de moda para referirse a la
Internet, y a pesar de ser la clave fundamental de su funcionamiento, es
mucho más que solo la Internet, y la define como “el lugar donde se usa la
tecnología cuando se necesita, por el tiempo que se necesita y ni un minuto
más”. Al mismo tiempo, no requiere de instalación y el usuario no paga la
tecnología más allá de lo que usa.
27
De la misma forma, Miller (2009, p. 8), explica que mientras en el modelo
tradicional se ejecuta una copia del software en cada computador, con el
Cloud Computing, el software no se ejecuta en el computador del usuario,
más bien son almacenados en servidores y accedidos a través de la Internet.
Su principal ventaja, radica en la disponibilidad tanto de la aplicación como
de los archivos creados, ya que en caso que el equipo sufra algún daño
irreparable, tanto la aplicación como sus archivos pueden ser fácilmente
accedidos desde otro equipo, sin ningún tipo de instalación o configuración
adicional.
Otra manera de manifestar estos sistemas, es que incluyen entre sus
componentes una plataforma basada en tecnología Cloud Computing y
comparten sus protocolo.
2.2.1. SERVICIOS DEL CLOUD COMPUTING.
Rittinghouse y Ransome (2010, p. 50), explican como las ofertas de
servicios web tienen un número de características comunes, como su baja
resistencia inicial de adaptación, en especial aquellos que están destinados a
consumidores particulares o negocio pequeños, el poco capital que requiere
la adquisición de infraestructura, la escalabilidad masiva es en estos tipos de
ofertas y la capacidad multiusuario que permite que costos y recursos por
igual se compartan entre todos los usuarios. Y finalmente, la independencia
entre los dispositivos y la ubicación de los usuarios hace posible el acceso a
los servicios sin importar donde estén ubicados ambos.
28
También hacen mención de un modelo de servicio denominado CaaS,
“Comunication as a Service”, referido a una solucion de comunicaciones
empresarial contratada a terceros, en la cual los proveedores de este tipo de
soluciones son responsables por la administracion del hardware y el software
requeridos para entregar servicios de VoIP, mensajeria instantanea (IM) y
videoconferencia a sus clientes.
Asimismo, explican como el Monitoreo como servicio, o por sus siglas
en ingles MaaS, es la contratacion a terceros de la seguridad, primariamente
en plataformas de negocios que hacen uso de la internet para sus
conexiones. Según Rittinghouse y otros (2010, p. 29), el monitoreo de
seguridad involucra proteger a un cliente privado o gubernamental ante
posibles amenazas. En éste caso el equipo de seguridad contratado juega un
rol crucial en asegurar la confidencialidad, integridad y disponibilidad de los
recursos de TIC. Y para garantizar su efectividad, la vigilancia debe ser
constante sobre los recursos criticos de información.
No obstante, como se puede observar, el centro o énfasis de éste nuevo
modelo de computación busca ofrecer todos los elementos de comunicación,
software, infraestructura y demás como servicios a la disposición del usuario
donde y cuando los necesite. De esta forma, se presentan a continuación los
servicios más comunes: SaaS, PaaS, IaaS.
29
2.2.1.1. SOFTWARE COMO SERVICIO (SaaS).
De acuerdo con Rittinghouse y Ransome (2010, p. 50), “Software as a
Service” o Software como Servicio (SaaS), se refiere a un nuevo modelo de
distribución de software, que, a diferencia del modelo tradicional, al cual
denominan Software as a Product; como un modelo en el que las
aplicaciones son alojadas en un proveedor de servicio y puestos a
disposición de los clientes de una red, típicamente, a través de Internet.
Resse (2009, p. 3), también menciona otras características del SaaS,
comenzando por la disponibilidad de éste software a través de un navegador
Web, dónde y cuándo se necesite, y aún más importante, los pocos recursos
y conocimientos técnicos de infraestructura TIC que debe manejar el usuario
para hacer funcionar ésta tecnología.
En este contexto, cabe destacar como otro punto importante, la
característica que poseen algunas implementaciones de SaaS, capacidad
multiusuario, que describe a una aplicación, basado en servidor y que
soporta el despliegue de varios usuarios en una instancia de software. En
ese sentido, éste software permite al proveedor de SaaS, realizar tareas
como instalación de parches y actualizaciones de una forma más rápida y
sencilla, ofreciendo soporte a más usuarios en menos equipos de hardware.
En el mismo sentido, la mayor ventaja de éste software, se presenta al
cliente o usuario en la reducción de costos por dicho servicio, ya que en lugar
30
de pagar una instancia de software por cada equipo en su red, sólo adquiere
una, que es cargada a todos los equipos si así lo requiere.
Mientras, Rittinghouse y Ransome (2010, p. 52), clasifica la arquitectura
del SaaS en cuatro (4) niveles de madurez. En el primero, explica que no hay
madurez en absoluto, cada cliente tiene una versión personalizada de
manera única y que es ejecutada directamente desde el servidor del
proveedor. En el segundo nivel, ofrece una mayor flexibilidad del programa a
través de metadatos en la configuración, permitiendo a los usuarios utilizar
muchas instancias independientes de la misma aplicación.
2.2.1.2. PLATAFORMA COMO SERVICIO (PaaS).
En opinión de Miller (2009, p. 41), éste servicio como una variante del
SaaS, en el cual, el ambiente de desarrollo se ofrece como servicio,
entregando a los desarrolladores las herramientas para crear una aplicación
propia. En complemento con la opinión del autor citado, cabe destacar que
no sólo suele considerarse como una evolución del Saas, sino que es un
modelo que ofrece todo lo necesario para soportar el ciclo de vida y puesta
en marcha de aplicaciones y servicios web disponibles en la internet.
A su vez, Blockdijk y Menken (2008, p. 68), se refieren al PaaS a la forma
en que las aplicaciones son implementadas, lo que incluye los entornos de
aplicaciones Web, como el lenguaje Ruby onRails, también se puede incluir
el Google App Engine, que se sale de Python, el servicio de alojamiento web
Mosso, entre otras plataformas como Microsoft Azure que serán explicadas
31
con más detalles, más adelante. En base a lo expuesto, es importante
resaltar una característica muy importante, a cual es que no hay descarga de
software que instalar en los equipos de los desarrolladores, debido a los
múltiples servicios que ofrece, pero todos aprovisionados como una solución
integral en la web.
2.2.1.3. INFRAESTRUCTURA COMO SERVICIO (IaaS).
Para Gillam (2010, p. 26), IaaS es la entrega de equipo de infraestructura
como servicio, que aparte de ofrecer mayor flexibilidad, el régimen de pago
basado en el uso; esto permite a los clientes pagar a medida que crecen.
También hace mención de otra ventaja muy importante, que siempre hace
uso de la última tecnología. Los clientes pueden lograr una prestación de
servicios y tiempo de comercialización mucho más rápidos.
En este contexto, Buyya, Broberg y Goscinski (2011, p. 20), afirman que
IaaS ofrece servidores virtuales que contienen uno o más CPU’s, la
ejecución de varias opciones de sistemas operativos y una pila de software
personalizado. Además se proporcionan a menudo las instalaciones de
almacenamiento de espacio y de comunicación. En cuanto a lo que hace
posible la infraestructura de la nube, nos asegura que se fundamenta en la
virtualización del hardware. El cual, por ser un punto clave para éste proyecto
y su propuesta, será explicado con mucho más cuidado próximamente.
32
Cabe destacar, que la mayoría de los usuarios ven el hardware como
algo a lo que tienen acceso y pueden tocar. Sin embargo, esta alternativa,
permite a los usuarios tener acceso a tecnología de servidores, con una
simple solicitud, sin necesidad de complicadas instalaciones ni
configuraciones.
2.2.2. CLASIFICACIÓN DEL CLOUD COMPUTING.
Básicamente existen tres (3) tipos de nubes: públicas, privadas e híbridas.
Para Rao y Kumari (2009, p. 74), una nube pública se trata de un ambiente
usado por el público en general, incluyendo algunas organizaciones. Según
indican, estas nubes son administradas por un proveedor a través de
Internet, en las cuales se ofrecen servicios bajo la política de pago por uso.
También mencionan como SaaS, complementan las nubes públicas y
viceversa, permitiendo a las compañías compartir recursos y servicios.
Aunque su principal limitación es el concepto de seguridad, ya que en estos
entornos, los datos son almacenados directamente en los servidores del
proveedor.
En cambio, una nube privada reside dentro de la propia organización que
la utiliza. Según Rao y otros (2009), son construidas por departamentos de
TIC dentro de aquellas empresas que buscan optimizar y maximizar el uso
de la infraestructura y tecnología que ya poseen, a través de aplicaciones y
sistemas virtualizados. Al mismo tiempo, presentan una desventaja a la
33
empresa, ya que en muchos casos, requieren de una inversión de capital
para la construcción de la nube.
Es preciso o/y tomar en cuenta que esta tecnología solo puede ser
ventajosa para la empresa si esta ya posee la infraestructura o en el caso de
aquellas que requieren tener bajo control total sobre su infraestructura. Una
ventaja adicional para la empresa, es que bajo esta modalidad, puede
disfrutar de todas las ventajas de la virtualización.
A su vez, Hurwitz y otros (2010, p. 87), aseguran que ésta alternativa
podría hacerse muy popular, debido a la privacidad y seguridad de los datos,
que ofrece dicha tecnología a las empresas. Al mismo tiempo concuerda con
Resse (2009, p.18), explicado como las empresas se ven atraídas por la
nube privada, para no perder la inversión en hardware y software que ya
poseen. En último lugar, estarían las nubes híbridas, que básicamente serían
una combinación de las dos modalidades mencionadas anteriormente.
2.2.3. CARACTERÍSTICA DE CLOUD COMPUTING.
Con lo anteriormente explicado, se puede nombrar la característica que
hacen del Cloud Computing un servicio totalmente adaptable , la cual sería: la
redundancia, ya que se trata de la disponibilidad continua de múltiples
recursos respaldados de manera segura y efectiva por una plataforma de
despliegue repetible.
34
2.2.4. ARQUITECTURA.
De acuerdo con los estudios de Rao y otros (2009, p. 73), la arquitectura
del Cloud Computing como en cualquier sistema, se divide en dos
categorías: la primera referida a los usuarios finales o aplicaciones y la
segunda a la red de servidores. Asimismo, enfatizan que la tecnología del
Cloud Computing, tiene un sistema centralizado de administración de
servidores. Dicho servidor o servidores centralizados administran el sistema,
los planes de abastecimiento del cliente, ajustan las demandas, monitorean
el tráfico y evitan la congestión. A su vez, el servidor sigue un protocolo,
comúnmente conocido como middleware, que controla la comunicación de la
red de nubes entre los clientes.
De un modo similar, Velte y otros (2010, p. 91), afirman que para obtener
el máximo rendimiento en un sistema basado en Cloud Computing, es
necesario tener el hardware correcto y la infraestructura en su lugar. También
menciona dos componentes: los clientes y la red. En otras palabras, señalan
que una nube está compuesta por dos elementos básicos: los dispositivos de
usuario final o clientes, y los dispositivos de la red.
Sin embargo, Blockdijk y otros (2008, p. 66), propone siete componentes
Cloud Computing, que son: aplicación, cliente, infraestructura, plataforma,
servicio, almacenamiento y poder de procesamiento. No obstante, para la
aplicación del presente proyecto, estudiarán los siguientes como
35
componentes del Cloud Computing: cliente, infraestructura, servicio, poder
de procesamiento y seguridad.
2.2.4.1. CLIENTE.
Para Blockdijk y Menken (2008, p. 66), el cliente o usuario final,
normalmente un cliente ligero es generalmente un navegador web, como
Mozilla Firefox, Microsoft Internet Explorer o el Google Chrome. También se
puede mencionar otro tipo de clientes, los móviles, tales como teléfonos
iPhone o el Google Android, cuyas plataformas ejecutan una serie de
aplicaciones desde una nube.
Velte y otros (2010, p. 91), profundizan un poco más en la descripción de
los clientes, describiendo a los mismos, como los equipos que estarán sobre
los escritorios de los usuarios finales, también establece que hay distintos
tipos de clientes que pueden conectarse a la nube, y cada uno ofrece una
forma diferente de interacción con los datos y aplicaciones.
El citado autor también hace mención de tres tipos de clientes o
dispositivos de usuario final, en primer lugar están los clientes móviles, que
se refieren, básicamente, a todo dispositivo portable con acceso a Internet;
luego hablan de los clientes ligeros, que no cuentan con unidades de disco; y
por último los clientes pesados, que son los equipos más usados
actualmente.
En este contexto se puede acotar que la tecnología Cloud permite a los
usuarios móviles conectarse a Internet y acceder a aplicaciones tal como lo
36
haría en un computador convencional, ya que los clientes móviles abarcan la
gama desde laptops, PDAs y teléfonos inteligentes, como el iPhone o
BlackBerry.
También es importante resaltar, que aspectos como la velocidad y la
seguridad de los clientes móviles también deben cuidarse, algunas
aplicaciones pueden requerir una conexión optimizada, sin embargo, no
todas las aplicaciones necesitan conexiones rápidas, asimismo, los clientes
móviles también pueden crear sus propias aplicaciones en la nube desde el
dispositivo móvil, en otras palabras, aun cuando un cliente móvil no pueda
cargar toneladas de información a una base de datos, se puede desarrollar
una aplicación para acceder a ella.
Por otra parte, Haren (2011, p. 44) expone que el cliente ligero no es una
idea nueva, y se puede utilizar con las soluciones tradicionales; y que
asimismo clasificados con forma de computación en la nube debido a que el
proceso es la decisión del cliente a la nube.
Por último, los clientes pesados o thickclients, son los clientes más
utilizados en los sistemas de redes actuales y pueden con seguridad,
conectarse a un servidor virtualizado y utilizar aplicaciones de la nube. Más
aún, son las mejores opciones si los usuarios necesitan mantener archivos
en sus propias máquinas o ejecutar programas que no existen en la nube.
37
2.2.4.2. PODER DE PROCESAMIENTO.
Según Rittinghouse y Ransome (2010, p. 62), Cloud Computing como es
conocida, ofrece a sus clientes la flexibilidad necesaria para especificar la
cantidad exacta de potencia de cálculo, datos o aplicaciones que necesitan
para satisfacer los requerimientos de su negocio. Por lo cual, los clientes no
tienen que invertir un gran capital para tener estos servicios, la alternativa
disponible permite a los usuarios conectarse a la nube sin necesidad de
instalar software o comprar hardware específico.
De manera similar, Blockdijk y Menken (2008, p. 71), indican que el Cloud
Computing posee gran potencia de almacenamiento con costos mínimos.
También señala que esta tecnología puede usarse para tareas como; las
pruebas de nuevos mercados, y probar nuevas aplicaciones a través de
Internet.
Ahora bien, estadísticamente se dice que los servidores de la empresa
suelen estar inactivos más de un cincuenta por ciento del tiempo, lo que
conlleva a una gran pérdida de dinero y recursos de energía. En otras
palabras, la mayoría de los servidores corporativos pierden valiosos recursos
de procesamiento disponibles. Razón por la cual, se recomienda a las
corporaciones investigar completamente los inconvenientes y beneficios del
uso de recursos compartidos en lugar de perder dinero en poder de
procesamiento que no utilizan plenamente.
38
2.2.4.3. SEGURIDAD.
Para Gillam (2010, p. 31) la seguridad es uno de los principales
obstáculos para que las empresas muevan sus “Datos de la casa” a una
nube. La mayoría de los proveedores no garantizan la seguridad de los datos
durante su traslado a la nube. También expone que la información
corporativa no es sólo una ventaja competitiva, sino que contiene información
de clientes, consumidores, y empleados que, en las manos equivocadas
podría crear una responsabilidad civil. Es importante acotar que el
establecimiento de mejores prácticas de seguridad en la nube para un
usuario final es una buena idea, como por ejemplo: los clientes deben hablar
con el proveedor de software acerca de las licencias.
Según Furht (2010, p. 12) una de las cuestiones críticas de implementar
computación en la nube, es tomar máquinas virtuales, que contienen
aplicaciones y datos críticos sensibles, para entornos públicos y colectivos;
por lo tanto, potenciales usuarios de Cloud Computing están preocupados
por los problemas de seguridad.
Sin embargo, tal como explican Rittinghouse y Ransome (2010, p. 155) la
seguridad en la nube será planteada dentro de los términos del servicio,
basándose en la modalidad de IT-as-a-service, TIC como servicio, en donde
los proveedores asumen la responsabilidad no solo del almacenamiento y la
seguridad de la data, sino también de los procesos complejos de
administración y estrategias operacionales, así el usuario tendrá como única
39
tarea el acceso y modificación de la información. Esta transformación no es
trivial y representa un cambio en los paradigmas de seguridad informática,
así como en el flujo de trabajo de los departamentos de TIC de cada
organización, más los beneficios estratégicos son innegables.
2.2.5. ALMACENAMIENTO.
En opinión de Mahmood y Hill (2011, p. 164), el usuario final se ve como
un espacio virtual abierto en la nube, los datos se almacenan en servidores
múltiples en lugar de los servidores dedicados utilizados en la red tradicional
de almacenamiento de datos. Dichos datos se pueden almacenar en
cualquiera o más servidores utilizados para crear la nube. En este contexto
es importante mencionar ciertas ventajas de la virtualización, entre las cuales
están: espacio y energía, utilización, costos, recuperación de datos, manejo,
entre otras.
Según Blockdijk y Menken (2008, p. 70), una de las mayores ventajas de
Cloud Computing es en el almacenamiento, esto debido a que lo primero en
fallar en un ordenador común son las condiciones de almacenaje. De la
misma forma, continúa explicando, que mediante el uso de la tecnología
Cloud y la redundancia de la información que ésta ofrece, las empresas
pueden estar seguras de que sus datos están realmente resguardados.
Razón por la cual, los proveedores de Cloud Computing por lo general serán
capaces de ofrecer acuerdos de servicio a sus clientes, garantizando la
seguridad y fiabilidad de sus datos.
40
Cabe destacar, que este aspecto es una de las primeras características
de la tecnología Cloud Computing, y se define como una forma de
almacenamiento de datos en red en los cuales, los archivos y datos son
almacenados en múltiples servidores virtuales. En ése sentido, Miller (2009,
p. 208), explica que los servicios de almacenamiento, normalmente son
ofrecidos por terceros, empresas que operan grandes centros de datos y
ofrecen dicho servicio por suscripción, típicamente se arrienda capacidad de
almacenamiento a éstas empresas, posteriormente se tiene acceso a
la cantidad contratada de espacio de almacenamiento, el cual se accede por
internet.
Hasta cierto punto, lo que se ve es un único servidor o disco duro, sin
embargo no deja de ser un servidor virtual. Aunque en realidad los datos son
almacenados a través de servicios múltiples y a veces hasta ubicaciones o
continentes diferentes.
2.2.5.1. PROVEEDORES.
Según Harding (2011, p. 96), los proveedores de nubes cuentan con
mecanismos para asegurar que los programas estén bien divididos. Pero aún
así, puede ser que el cliente desee hacer de la seguridad de acceso a través
de recursos compartidos un requisito y una condición de su contrato.
Blockdijk y Menken (2008, p. 71), hace referencia a varias compañías que
ofrecen este servicio. Algunas compañías que ofrecen servicio de
41
almacenamiento para bases de datos en la nube incluyen
Amazon’sSimpleDB y Google App Engine’sBigtable servicio de
almacenamiento de datos. Al mismo tiempo Microsoft ofrece un servicio
online de sincronización llamado Live Mesh, el cual es parte del servicio Live
Desktop.
También se pueden mencionar las recientes alternativas de
almacenamiento propuestas por empresas como Dropbox; varios
proveedores de servicios de correo, tales como los mencionados por Velte y
otros (2010, p. 137) Hotmail, Gmail y Yahoo! Mail; Flickr, Picasa y Youtube
que almacenan millones de imágenes y videos en sus servidores; aún
Facebook y MySpace, permiten a los usuarios cargar imágenes que son
almacenadas en sus servidores.
2.2.5.2. SEGURIDAD.
Ante todo Blockdijk y Menken (2008, p. 70) señala cómo Cloud
Computing puede mantener los datos seguros en caso de que haya una
situación de emergencia, debido a la gran cantidad de equipos que se
encuentran en este entorno, lo que reduce en gran medida las posibilidades
de una completa pérdida de la información.
De forma similar, Miller (2009, p. 208), señala una de las ventajas
primordiales de éste servicio, la escalabilidad, ya que le permite al cliente o
usuario contratar la cantidad exacta de almacenamiento que necesita, sin
42
importar su tamaño, sin mencionar, lo fácil que puede ser incrementar o
decrementar el espacio de almacenamiento contratado de forma que se
ajuste perfectamente a las necesidades del cliente. Por lo que no sería
necesario comprar nuevos equipos ni preocuparse por la configuración ni el
mantenimiento de los mismos.
Es importante hacer mención de la importancia de respaldar los datos del
servidor, y que al contar con el servicio de almacenamiento en nube, el
mismo puede ser usado como un gigante dispositivo de respaldo online.
Igualmente, los datos almacenados en la nube están a salvo de borrados
accidentales o fallos del hardware, ya que se duplican a través de múltiples
máquinas físicas, ya que varias copias de los datos se mantienen
continuamente, la nube sigue funcionando con normalidad incluso si uno o
más máquinas se desactivan. Y por último, el costo del servicio, los recursos
virtuales de la nube son generalmente más baratos que los recursos
dedicados físicamente conectados a un ordenador personal.
2.2.5.3. PRECAUSIONES.
Según Li y Chen (2012, p. 349), en el proceso de construir los servidores
de computación en la nube, se pueden usar los servidores de gran tamaño.
Aplicando este enfoque, aunque la capacidad de este almacenamiento
cumpla los requisitos de los usuarios, el gasto es relativamente excesivo.
Con la extensión de capacitación de discos duros podemos integrar una gran
43
cantidad de discos juntos y construir una gran capacidad y un servidor de
bajo costo.
Por su parte, Reese (2009, p. 7), indica en términos generales que el
almacenamiento en nube no siempre es lo más apropiado para el software
basado en nube, recomienda más bien, usarlo como método de respaldo. De
igual manera, el autor citado plantea la necesidad de elaborar un plan de
recuperación en caso de desastre que especifique claramente la máxima
cantidad de datos que sería tolerable perder, denominado Punto de
Recuperación Objetivo (RPO), así como la mayor cantidad de tiempo que el
sistema puede pasar inactivo, denominado Tiempo de Recuperación Objetivo
(RTO), ambos, con el fin de determinar el plan de contingencia adecuado
para dichas necesidades.
En cierto modo, Herrera (candadodigital.blogspot.com), describe estos
problemas y explica las principales preocupaciones de los clientes en cuanto
almacenamiento en nube se refiere, “confidencialidad de la información,
propiedad de la información, en específico, la capacidad de recuperarla
en cualquier momento y usarla; y continuidad operativa y disponibilidad de la
información”.
En relación al último aspecto citado, Herrera comenta que la arquitectura
del Cloud Computing tiende a resolver dicho problema de forma natural, lo
cual tiene relación con lo dicho por Miller (2009), cuando reseña como la
nube dinámicamente gestiona el espacio de almacenamiento disponible
44
copiando la data en múltiples servidores y cambiando la ubicación de la
misma constantemente, para mayor fiabilidad de los datos.
Al mismo tiempo, Herrera recomienda cambiar de mentalidad, y hallar
soluciones para este nuevo entorno. Lo que implica “aplicar controles de
seguridad a nivel de los datos y no a nivel de infraestructura ni de red”; la
alternativa que Herrera ofrece es el uso de herramientas de encriptación
controladas por el cliente y aplicadas directamente a los datos. Así mismo,
explica que dicha alternativa sería muy eficiente con servicios como los
ofrecidos por Dropbox, o el Amazon’sSimple Storage Service, no obstante
para otras aplicaciones no sería tan sencillo, particularmente aquellas que se
dedican exclusivamente al procesamiento de datos tal como antivirus y
similares, ya que en éste caso, el proveedor necesita manejar los datos para
procesarlos.
2.2.6. ACCESO A LA NUBE.
Según Resse (2009, p. 2), el Cloud Computing puede ser dos cosas,
software e infraestructura, puede ser una aplicación que se acceso a través
de la Web o bien a través de una Interfaz de Programación de Aplicaciones
(API). En ésta sección se explicarán las alternativas de acceso que ofrece el
software y el hardware, conexiones de red, que hacen posible el acceso al
Cloud Computing.
45
2.2.6.1. NAVEGADORES WEB.
Según Velte y otros (2010, p. 126), para ingresar a la nube, la mayoría
de los usuarios usarán un navegador Web, la elección del mismo dependerá
del usuario propiamente. Típicamente, los navegadores Web son
básicamente iguales, excepto por algunas ligeras diferencias funcionales. Al
mismo tiempo, comentan que en algunos casos el uso de Internet Explorer
podría ser obligatorio, sin embargo, la mayor parte del tiempo, puede usarse
cualquier navegador Web.
Esto último se debe, en base a la experiencia de los investigadores, a que
muchos de los desarrolladores de aplicaciones o sitios Web, diseñan estos
espacios con la intención de hacerlos lo más compatible posibles con los
navegadores Web más usados en la actualidad, en éste caso, a Internet
Explorer, por ser precisamente uno de los navegadores Web más populares
actualmente.
2.2.6.2. APLICACIONES WEB.
Miller (2009, p. 38), explica como, para la mayoría de las empresas puede
ser arriesgado, económicamente hablando, invertir en servidores o licencias
de software nuevos que serán usados durante un pequeño porcentaje de
tiempo. Es por ello que una aplicación alojada en la nube es más económica
y más fácil de administrar que las copias individuales de software similar
instaladas en la PC de escritorio de cada usuario. La misma facilidad se tiene
46
al momento de actualizar una aplicación en nube, ya que sólo debe hacerse
una vez, cuando la actualización del software tradicional se tiene que hacer
para cada PC en el que está instalado el software.
2.2.6.3. INTERFAZ DE PROGRAMACIÓN DE APLICACIONES (API).
Miller (2009, p. 40), explica muy brevemente lo que es una API,
definiéndola como una interfaz de desarrollo que permite a un programa a
distancia comunicarse o utilizar los recursos de otro programa o servicio. Sin
embargo, Velte y otros (2010, p. 120), lo denominan interface de
programación, y se refieren a éstas como un grupo de instrucciones estándar
para accesar a programas basados en Web; éstas APIs son creadas por
algunas empresas de software para que otros desarrolladores de software
puedan diseñar productos que son alimentados por sus servicios.
En pocas palabras, al ser las API (aplicación que permite a un programa
comunicarse con otro, sin que el usuario tenga que intervenir) de uso casi
exclusivo para los desarrolladores de software, es evidente que en este
proyecto no se han de explicar más a fondo, ya que el mismo se centra en
demostrar y probar que la tecnología del Cloud Computing no sólo es
funcional y factible, sino que además sería muy beneficiosa para las
empresas.
47
2.2.6.4. RED.
Cabe destacar que el Internet público básico se refiere a la conexión
usada comúnmente en las oficinas y casas, ésta sería la opción más básica
para conectarse a la nube. En ese sentido, cualquiera con Internet puede
usar dicha alternativa, otra ventaja es la gran lista de proveedores
disponibles. Por otra parte. Su principal desventaja es la alta probabilidad de
baja respuesta que aumenta por la ineficiencia de los protocolos TCP, HTTP.
Además del tiempo de inactividad debido a problemas con los cables o con el
Proveedor de Servicio de Internet (ISP) o similares.
Según Velte y otros (2010, p. 102), la Internet acelerada usa funciones
avanzadas de gestión de aplicaciones en la parte superior de la conexión a
Internet, las cuales benefician tanto al prestador del servicio como al cliente.
Afirma que las mejoras en la nube se incrementarían desde un veinte por
ciento a un cincuenta por ciento, mediante la descarga de las funciones
relacionadas con la red del servidor. Este método se orienta principalmente
hacia el proveedor de servicios en la nube, pero también beneficia al usuario
final. En la nube, este método de aceleración requiere la instalación de un
aparato del lado del servidor. Igualmente, el usuario final, precisará la
instalación de un cliente descargable.
2.2.7. VIRTUALIZACIÓN.
Según Rittinghouse y otros (2010, p. 61), con el creciente avance de la
tecnología se ha llegado a un punto en el que la infraestructura se ha vuelto
48
un aspecto secundario para los proveedores de servicios. Por lo cual, al
permitir que la infraestructura sea virtualizada y compartida entre varios
clientes, éstos proveedores cambian su forma de hacer negocios, al otorgar
servicios de administración a tan bajos precios, haciendo de la
infraestructura, un aspecto interactivo para los clientes. Por lo cual,
Rittinghouse y otros (2010), garantizan que modelos como SaaS, IaaS, PaaS
y similares seguirán creciendo sin freno aparente en los próximos años.
Según VMware (2010, p. 255), se puede reducir la carga administrativa
de 1:10 a 1:30, tomando en cuenta los siguientes factores, a través de una
consola centralizada que facilite el acceso a los servidores, sustituir CDs y
DVDs por imágenes dentro del sistema, lo que permitirá que nuevos
servidores puedan ser implementados rápidamente y servidores virtuales aun
más rápido que los físicos, de igual forma la RAM puede ser localizada de
manera inmediata por los discos duros y los servidores virtuales pueden ser
trasladados fácilmente de un servidor físico a otro.
Para realizar una virtualización, primero debe observarse con
detenimiento el ambiente actual de servidores disponibles. Pueden
identificarse y consolidarse todas las aplicaciones con procesos compatibles
en un solo servidor, o se puede virtualizar la arquitectura existente para que
utilice los recursos comunes disponibles.
Luego, deben identificarse los servidores con tareas criticas, estos son
buenos candidatos para ser conservados dentro de la organización en una
relación de uno a uno. Por lo general, esos servidores son los que soportan
49
las aplicaciones y servicios referentes al núcleo productivo, como por ejemplo
SAP, PeopleSoft y Siebel. Las aplicaciones que no sean de alto consumo de
recursos como Exchange e impresión deben ser consolidadas, y aplicadas
dentro de servidores virtualizados que aprovechen los recursos comunes.
Después, deben configurarse los servidores donde se encuentren
ubicadas las aplicaciones consolidadas para que compartan sus recursos de
hardware con los servidores de tareas críticas en caso de que sea necesario.
Actualmente los servidores tienen un promedio de uso del diez (10) al quince
(15) por ciento, luego de aplicadas las virtualizaciones, el uso ascenderá
hasta ochenta (80) por ciento.
Velte y otros (2010, p. 255), recomiendan reducir el número de servidores
ocupados para aumentar la capacidad de recursos en demanda. Si se
virtualizan los servidores existentes, puede obtenerse un ahorro significativo
aprovechando al máximo los equipos existentes y eliminando la necesidad
de adquirir nuevos. Los servidores virtualizados serán capaces de identificar
sus propios requerimientos de hardware, localizarlos en servidores físicos
vecinos en caso de necesitarlos y liberarlos una vez haya concluido sus
tareas.
Sin embargo, hay momentos cuando virtualizar aplicaciones y servidores
no es lo ideal, como por ejemplo, las aplicaciones que hacen uso intensivo
de la capacidad grafica del hardware, como los juegos, programas de diseño
en 3D y CAD, por lo general este tipo de aplicaciones depende de
adaptadores gráficos especializados.
50
Por otra parte, las máquinas virtuales necesitan las mismas
consideraciones de seguridad que se tendrían en una red con terminales y
servidores físicos, como son la protección contra virus, spyware y malware.
Asimismo, aplicaciones fuera de las necesarias podrían generar
complicaciones de administración. Una virtualización defectuosa o con su
seguridad comprometida puede conducir al fallo de otras virtualizaciones
ubicadas dentro del mismo servidor físico. También es ideal, usar
contraseñas fuertes y altamente resguardada y al mismo tiempo ejecutar la
imagen a virtualizar con el menor número de privilegios.
3. SISTEMAS DE VARIABLES.
A continuación se definirán tanto conceptual, como operacionalmente las
variables de la investigación, como lo describe la definición nominal:
3.1. DEFINICIÓN NOMINAL.
- Protocolo para auditar operativamente
- Sistemas basados en tecnologías “Cloud Computing”.
3.2. DEFINICIÓN CONCEPTUAL.
“Para hacer posible el intercambio fiable y eficaz de información entre
computadores y otros dispositivos, es necesario disponer de un conjunto de
reglas y normas denominado Protocolo.” (Alcantud 1997, p. 204).
51
Auditoría es un proceso de “recoger, agrupar y evaluar evidencias para
determinar si un sistema informatizado salvaguarda los activos, mantiene la
integridad de los datos, lleva a cabo los fines de la organización y utiliza
eficientemente los recursos.” (Piattini y otros 2008, p. 34).
“Cuando se habla de sistemas, se trata de un conjunto de elementos
que cooperan en un todo armónico. En ocasiones se entrelazan unos con
otros para mejor integrarse en el conjunto, de manera que a veces resulta
difícil identificar los componentes parciales”. (Piattini y otros 2008, p. 407).
3.3. DEFINICIÓN OPERACIONAL.
El protocolo para auditar es el procedimiento mediante el cual a través de
la determinación del comportamiento de un sistema se expresa mediante un
informe de auditoría, el nivel de cumplimiento del sistema auditado y los
incumplimientos de determinados parámetros si los hubiera.
En cuanto al sistema basado en tecnología “Cloud Computing”, se
refiere al hardware, el software de, sistemas y aplicaciones que se entregan
sus servicios a través de Internet. Una infraestructura que puede estar
disponible para el público en general o para un gran sector de la industria, y
es provista por una organización que comercializa servicios por demanda se
llamará nube pública. La nube privada término que se utiliza cuando la
infraestructura de nube se utiliza exclusivamente para una empresa o una
organización. Una composición de los dos tipos (pública y privada) se
denomina híbrido. Y agrega Sistemas informáticos cuya plataforma
52
tecnológica se basa en la web (World Wide Web), susceptible de ser
auditado operativamente para comprobar su calidad de servicio(QoS).