maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo...

146
UNIVERSIDAD DE GUAYAQUIL FACULTAD DE CIENCIAS MATEMATICAS Y FISICAS CARRERA DE INGENIERIA EN SISTEMAS COMPUTACIONALES “ESTUDIO DEL DISEÑO DE TRANSFORMACIÓN DE DATOS UTILIZANDO LA HERRAMIENTA SPOON DE PENTAHO OPEN SOURCE BUSINESS INTELLIGENCE SOBRE PLATAFORMA LINUX” TESIS DE GRADO Previa a la obtención del Título de: INGENIERO EN SISTEMAS COMPUTACIONALES AUTOR: JOHANNA ALEXANDRA HERNANDEZ VELASCO GUAYAQUIL – ECUADOR 2013

Transcript of maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo...

Page 1: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

UNIVERSIDAD DE GUAYAQUIL

FACULTAD DE CIENCIAS MATEMATICAS Y FISICAS

CARRERA DE INGENIERIA EN SISTEMAS COMPUTACIONALES

“ESTUDIO DEL DISEÑO DE TRANSFORMACIÓN DE DATOS UTILIZANDO LA HERRAMIENTA SPOON DE PENTAHO OPEN SOURCE BUSINESS INTELLIGENCE SOBRE PLATAFORMA LINUX”

TESIS DE GRADO

Previa a la obtención del Título de:

INGENIERO EN SISTEMAS COMPUTACIONALES

AUTOR:

JOHANNA ALEXANDRA HERNANDEZ VELASCO

GUAYAQUIL – ECUADOR

2013

UNIVERSIDAD DE GUAYAQUIL

Page 2: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

FACULTAD DE CIENCIAS MATEMATICAS Y FISICAS

CARRERA DE INGENIERIA EN SISTEMAS COMPUTACIONALES

“ESTUDIO DEL DISEÑO DE TRANSFORMACIÓN DE DATOS UTILIZANDO LA HERRAMIENTA SPOON DE PENTAHO OPEN SOURCE BUSINESS INTELLIGENCE SOBRE PLATAFORMA LINUX”

TESIS DE GRADO

Previa a la obtención del Título de:

INGENIERO EN SISTEMAS COMPUTACIONALES

JOHANNA ALEXANDRA HERNANDEZ VELASCO

TUTOR: ING. FRANCISCO PALACIOS

GUAYAQUIL – ECUADOR

2013

I

Page 3: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

REPOSITORIO NACIONAL EN CIENCIAS Y TECNOLOGÍA

FICHA DE REGISTRO DE TESIS

TÍTULO “ ESTUDIO DEL DISEÑO DE TRANSFORMACIÓN DE DATOS UTILIZANDO LA HERRAMIENTA SPOON DE PENTAHO OPEN SOURCE BUSINESS INTELLIGENCE SOBRE PLATAFORMA LINUX ”

REVISORES:

INSTITUCIÓN: Universidad de Guayaquil FACULTAD: Ciencias Matemáticas y Físicas

CARRERA: INGENIERÍA EN SISTEMAS COMPUTACIONALES

FECHA DE PUBLICACIÓN: 11/11/2013 N° DE PÁGS.: 125

ÁREA TEMÁTICA: BASE DE DATOS

PALABRAS CLAVES:

RESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos (DBMS); no resulta extraño para un DBMS manipular base de datos

con tamaños que van desde los cientos de gigabytes hasta terabytes. La migración de bases de datos es generalmente una tarea compleja que no sólo supone transferir datos entre tipos de almacenaje y formatos de

un servidor de base de datos a otro; sino que también supone reescribir sentencias SQL o incluso procedimientos (SPL) de lógica de negocio. Aparte de la dificultad de transferir la información entre los dos sistemas gestores de base de datos, también influirá en la complejidad el tipo de los datos de las tablas que estamos utilizando. Por ejemplo, las fechas, los campos numéricos con decimales o los boleanos pueden dar

problemas al pasar de un sistema a otro porque pueden almacenarse de maneras distintas o, en el caso de los números, con una precisión distinta. El objetivo del estudio en el diseño de la transformación es demostrar cómo esta interesante y útil herramienta Open Source llamada SPOON puede transponer la información de

manera sencilla mediante parámetros y configuraciones del usuario de manera íntegra y confiable.

N° DE REGISTRO(en base de datos): N° DE CLASIFICACIÓN:

DIRECCIÓN URL (tesis en la web):

ADJUNTO PDF

SI NO

CONTACTO CON AUTOR: Teléfono: E-mail:

Page 4: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

JOHANNA ALEXANDRA HERNANDEZ VELASCO 0996697285 [email protected]

CONTACTO DE LA INSTITUCIÓN Nombre:

Teléfono:

I

Page 5: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Guayaquil, Noviembre de 2013

ARTA DE ACEPTACIÓN DEL TUTOR

APROBACION DEL TUTOR

En mi calidad de Tutor del trabajo de investigación, “ESTUDIO DEL DISEÑO DE TRANSFORMACIÓN DE DATOS UTILIZANDO LA HERRAMIENTA SPOON DE PENTAHO OPEN

SOURCE BUSINESS INTELLIGENCE SOBRE PLATAFORMA LINUX “ elaborado por la Srta. JOHANNA ALEXANDRA HERNANDEZ VELASCO, egresado de la Carrera de Ingeniería en

Sistemas Computacionales, Facultad de Ciencias Matemáticas y Físicas de la Universidad de Guayaquil, previo a la obtención del Título de Ingeniero en Sistemas, me permito declarar que

luego de haber orientado, estudiado y revisado, la Apruebo en todas sus partes.

Atentamente,

………………………………….

Ing. Francisco Palacios

TUTOR

II

Page 6: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

DEDICATORIA

El logro de esta etapa en mi vida quiero dedicárselo a mis padres, a mi hijo y a todos quienes en algún momento colaboraron directa o indirectamente en este maravilloso resultado.

Gracias a Dios por haberme dado fortaleza para salir avante en mi carrera.

III

Page 7: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

III

Page 8: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

AGRADECIMIENTO

Gracias Papá y Mamá por sus valores e ímpetu de superación que nos inculcaron desde pequeños a sus hijos para que seamos personas de bien. Lo lograron.

Por toda la entrega, cuidado y amor mientras mi compañía estaba ausente en horas de estudio para con mi hijo, gracias Sra. Pilar Flores Lucín.

Gracias a mis hermanos y a toda mi familia por su apoyo absoluto en cada momento de mi vida, los quiero mucho.

Por su puesto no pueden faltar los amigos y amigas, que siempre estuvieron ahí para animarme, alentarme y con todo esto lograr crecer como persona cada día más.

IV

Page 9: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

TRIBUNAL DE GRADO

Ing. Fernando Abad Montero, M. Sc Ing. Julio César Castro Rosado

DECANO DE LA FACULTAD DIRECTOR

CIENCIAS MATEMATICAS Y CISC, CIN

FISICAS

V

Page 10: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Nombres y Apellidos Nombres y Apellidos

DIRECTOR DE TESIS PROFESOR DEL ÁREA –

TRIBUNAL

Ab. Juan Chávez Atocha

SECRETARIO

V

Page 11: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

DECLARACIÓN EXPRESA

“La responsabilidad del contenido de esta Tesis de Grado, me corresponden exclusivamente; y el patrimonio intelectual de la misma a la UNIVERSIDAD DE GUAYAQUIL”

Johanna Alexandra Hernández Velasco

VI

Page 12: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

.

UNIVERSIDAD DE GUAYAQUIL

FACULTAD DE CIENCIAS MATEMÁTICAS Y FÍSICAS

CARRERA DE INGENIERIA EN SISTEMAS COMPUTACIONALES

ESTUDIO DEL DISEÑO DE TRANSFORMACIÓN DE DATOS UTILIZANDO LA HERRAMIENTA SPOON DE PENTAHO OPEN SOURCE BUSINESS INTELLIGENCE SOBRE PLATAFORMA LINUX

VII

Page 13: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Tesis de Grado que se presenta como requisito para optar por el título de INGENIERO en SISTEMAS COMPUTACIONALES

Auto/a: JOHANNA HERNÁNDEZ VELASCO

C.I. 0919227801

Tutor: ING. FRANCISCO PALACIOS

Guayaquil, Noviembre de 2013

VII

Page 14: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

CERTIFICADO DE ACEPTACIÓN DEL TUTOR

En mi calidad de Tutor de Tesis de Grado, nombrado por el Consejo Directivo de la Facultad de Ciencias Matemáticas y Físicas de la Universidad de Guayaquil.

CERTIFICO:

Que he analizado el Proyecto de Grado presentado por el/la estudiante JOHANNA ALEXANDRA HERNÁNDEZ VELASCO, como requisito previo para optar por el título de Ingeniero en Sistemas Computacionales cuyo problema es:

“ESTUDIO DEL DISEÑO DE TRANSFORMACIÓN DE DATOS UTILIZANDO LA HERRAMIENTA SPOON DE PENTAHO OPEN SOURCE BUSINESS INTELLIGENCE SOBRE PLATAFORMA LINUX”.

Considero aprobado el trabajo en su totalidad.

Presentado por:

HERNÁNDEZ VELASCO JOHANNA ALEXANDRA 091922780-1

VIII

Page 15: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Tutor: ING. FRANCISCO PALACIOS

Guayaquil, Noviembre de 2013

UNIVERSIDAD DE GUAYAQUIL

FACULTAD DE CIENCIAS MATEMÁTICAS Y FÍSICAS

CARRERA DE INGENIERIA EN SISTEMAS COMPUTACIONALES

Autorización para Publicación de Tesis en Formato Digital

1. Identificación de la Tesis

IX

Page 16: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Nombre Alumno: Johanna Alexandra Hernández Velasco

Dirección: 7 lagos mz 41 villa 6

Teléfono: 0996697285 E-mail: [email protected]

Facultad: Matemáticas y Físicas

Carrera: Ingeniería en Sistemas Computacionales

Título al que opta: Ingeniero en Sistemas Computacionales

Profesor guía: Ing. Francisco Palacios

Título de la Tesis: “ESTUDIO DEL DISEÑO DE TRANSFORMACIÓN DE DATOS UTILIZANDO LA HERRAMIENTA SPOON DE PENTAHO OPEN SOURCE BUSINESS INTELLIGENCE SOBRE PLATAFORMA LINUX”

Temas Tesis: SPOON, PENTAHO, OPEN SOURCE, PLATAFORMA, LINUX

2. Autorización de Publicación de Versión Electrónica de la Tesis

A través de este medio autorizo a la Biblioteca de la Universidad de Guayaquil y a la Facultad de Ciencias Matemáticas y Físicas a publicar la versión electrónica de esta tesis.

Publicación electrónica:

Inmediata X Después de 1 año

Firma Alumno:

3. Forma de envío:

X

Page 17: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

El texto de la Tesis debe ser enviado en formato Word, como archivo .Doc. O .RTF y .Puf para PC. Las imágenes que la acompañen pueden ser: .gif, .jpg o .TIFF.

DVDROM CDROM X

XI

Page 18: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

ÍNDICE GENERAL

CARTA DE ACEPTACIÓN DEL TUTOR Ii

DEDICATORIA IIi

AGRADECIMIENTO.. IIIi

ÍNDICE GENERAL XI

ÍNDICE DE CUADROS XII

ÍNDICE DE GRAFICOS XIII

RESUMEN XIVi

ABSTRACT XVi

INTRODUCCIÓN 1

CAPITULO I – El PROBLEMA 3

UBICACIÓN DEL PROBLEMA EN UN CONTEXTO 3

SITUACIÓN CONFLICTO NUDOS CRÍTICOS 7

CAUSAS Y CONSECUENCIAS DEL PROBLEMA 8

DELIMITACIÓN DEL PROBLEMA 10

PLANTEAMIENTO 11

EVALUACIÓN DEL PROBLEMA 11

OBJETIVO DE LA INVESTIGACION 12

JUSTIFICACION E IMPORTANCIA DE LA INVESTIGACIÓN 58

BENEFICIOS 59

CAPITULO II – MARCO TEÓRICO 60

ANTECEDENTES DEL ESTUDIO 60

FUNDAMENTACIÓN TEÓRICA 63

BENEFICIOS DE LA HERRAMIENTA SPOON 68

EXTRACCIÓN Y TRANSFORMACIÓN 85

FUNDAMENTACIÓN LEGAL 98

XII

Page 19: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

HIPÓTESIS O PREGUNTAS A OBJETAR. 101

DEFINICIONES CONCEPTUALES 102

CAPITULO III - METODOLOGIA 103

DISEÑO DEL ESTUDIO 103

MODALIDAD DEL DISEÑO DE TRANSFORMACIÓN 103

TIPO DE ESTUDIO 103

XIII

Page 20: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

POBLACIÓN Y MUESTRA 104

OPERACIONALIZACIÓN DE LAS VARIABLES 106

INSTRUMENTOS DE RECOLECCIÓN DE DATOS 109

PROCESAMIENTO DE LA INFORMACIÓN109

RECOLECCIÓN DE LA INFORMACIÓN 110

PROCESAMIENTO Y ANÁLISIS 113

CRITERIOS PARA LA ELABORACIÓN DE LA PROPUESTA 128

CAPITULO IV – MARCO ADMINISTRATIVO 82

CRONOGRAMA 82

PRESUPUESTO 85

CAPITULO V – CONCLUSIONES Y RECOMENDACIONES 90

CONCLUSIONES90

RECOMENDACIONES 91

XIV

Page 21: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

XV

Page 22: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

ÍNDICE DE CUADROS

Pág.IL

CUADRO N°. 1

MENSAJES QUE ARROJA LA HERRAMIENTA

CUADRO N°. 2

BARRAS DE HERRAMIENTAS – SPOON

CUADRO N°. 3

VARIABLES DEL ESTUDIO

CUADRO N°. 4

Datos Obtenidos de la Empresa

CUADRO N°. 5 Estimación de Porcentaje

CUADRO N°. 6MATRIZ DE OPERACIONALIZACIÓN DE VARIABLES

CUADRO N°. 7 DIAGRAMA DE LA TÉCNICA UTILIZADA

CUADRO N°. 8 HA RECIBIDO CURSOS DE CAPACITACIÒN

CUADRO N°. 9 DESEA QUE LAS TRANSACCIONES SE VALIDEN DESDE EL SISTEMA

CUADRO N°. 10 INVENTARIO ACTUAL DE LAS DIFERENTES AGENCIAS

CUADRO N°. 11 SEGURIDADES EN REGISTRO DE TRANSACCIONES

CUADRO N°. 12 GARANTIZAR LA INVIOLABILIDAD DE SUS DATOS

CUADRO N°. 13 TECNOLOGÍA DE PUNTA PARA SER CAPACITADO

CUADRO N°. 14 AHORRAR TIEMPO Y DINERO EN TODAS LAS AGENCIAS

CUADRO N°. 15 PLANIFICACIÓN DETALLADO DEL TRABAJO REALIZADO

XVI

Page 23: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

CUADRO N°. 16 REFERENCIA DE EGRESOS DEL PROYECTO

NDICE DE GRAFICOS

Pág.

GRÁFICO N°. 1

ETAPAS DEL ESTUDIO DE TRANSFORMACIÓN DE BASE DE DATOS 61

GRÁFICO N°. 3

PROCESO DE MIGRACIÓN EN SITIO 65

GRÁFICO N°. 4 PROCESO DE MIGRACIÓN GRADUAL 66

GRÁFICO N°. 5 PROCESO DE MIGRACIÓN DE BASE DE DATOS 67

GRÁFICO N°. 6 PROCESO DE MIGRACIÓN 68

GRÁFICO N°. 7 PROCESO DE INTEGRACIÓN DE DATOS - PENTAHO 71

GRÁFICO N°. 8 PROCESO DE INTEGRACIÓN DE DATOS – PENTAHO 73

GRÁFICO N°. 9 INTERFACE MODO GRÁFICO - SPOON PENTAHO 79

GRÁFICO N°. 10 PROCESO DE EXTRACCIÓN DE LOS DATOS – SPOON PENTAHO 81

GRÁFICO N°. 11 DISEÑO DE TRANSFORMACIÓN DE DATOS 85

GRÁFICO N°. 12 TRANSFORMACIÓN DE DATOS - SPOON 86

GRÁFICO N°. 13 LOGO DE BÚSQUEDA DE CONEXIONES 86

GRÁFICO N°. 14 MUESTRA LOS PASOS DE CONSTRUCCIÓN 87

GRÁFICO N°. 15TRANSFORMACIÓN DE DATOS ENTREDA/SALIDA – SPOON 89

XVII

Page 24: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

GRÁFICO N°. 16 CONFIGURACIÓN VARIABLES DE ENTORNO 93

GRÁFICO N°. 17MAPEO DE FLOJOS EN DATOS ACTUALES 94

GRÁFICO N°. 18 Tabla de Cuestionario Capacitación 115

GRÁFICO N°. 19 Tabla de Cuestionario Ventas y Pagos 82

GRÁFICO N°. 20

Tabla de Cuestionario Inventario 83

GRÁFICO N°. 21

Tabla de Cuestionario Seguridades 84

GRÁFICO N°. 22 Tabla de Cuestionario Garantizar transacciones 85

GRÁFICO N°. 23 Tabla de Cuestionario Tecnología 86

GRÁFICO N°. 24 Tabla de Cuestionario Ahorrar tiempo y dinero 87

GRÁFICO N°. 25 Hipótesis Seguridad de la Información 88

GRÁFICO N°. 26 Hipótesis Inviolabilidad 89

GRÁFICO N°. 27 Hipótesis Garantizar transferencias 90

GRÁFICO N°. 28 Hipótesis Cursos de Capacitación 125

GRÁFICO N°. 29 Hipótesis Ahorrar tiempo y dinero 92

GRÁFICO N°. 30 CRONOGRAMA DE TRABAJO 82

XVIII

Page 25: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

ABREVIATURAS

DBMS Es un sistema de gestión de bases de datos.

SQL Se trata del lenguaje de consulta estructurado, para realizar consultas a nivel de base de datos.

ETL Estas siglas corresponden a Extraer, transformar y cargar.

FCE Dichas iniciales significan: Factores Críticos de Éxito.

AWT Referencia al Kit de herramientas de ventana abstracta.

SWT Es un componentes para construir interfaces gráficas.

SAP Se trata de un sistema de aplicaciones y productos en procesamiento de datos.

BI Las siglas significan Inteligencia de negocios.

FCE Las iniciales se refieren a los Factores críticos de éxito.

TI Las siglas corresponde a la Tecnología de la información.

OLTP Se refiere al procesamiento de transacciones en línea.

OLAP Trata sobre el procesamiento analítico en línea.

XML Es un lenguaje de marcas extensible.

ETTL Dichas iniciales se refieren a la extracción, transformación, transporte y carga de datos.

OSX Estas abreviaturas describen los sistemas operativos basados en Unix.

GTK Es una biblioteca para crear la interfaz gráfica de usuario.

HP-UX Es la versión de Unix desarrollada y mantenida.

MOTIF Se trata de una biblioteca para la creación de entornos gráficos.

FreeBSD Es un sistema operativo para arquitecturas x86 compatibles.

JVM Dichas iniciales referencian a la máquina virtual Java.

KDE Es la comunidad internacional que desarrolla software libre.

ODBC Se refiere a la comunicación estándar de acceso a las bases de datos.

LGPL Es la licencia pública general reducida de GNU.

GNU Se trata de un sistema operativo similar a Unix que es de software libre.

XV

Page 26: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

JDBC Es usado para enviar comandos sql hacia una base de datos relacional.

FCI Se refiere al fondo competitivo de investigaciones

CTT-UGSignifica que se debe coordinar con el centro de transferencia y desarrollo de tecnologías de la universidad de Guayaquil.

CONESUP Dichas iniciales son referidas al consejo de educación superior del ecuador.

SPSS Se refiere al software y soluciones de análisis predictivos.

BDD Siglas que referencias a la base de datos de un sistema.

SIMBOLOGÍA

Pro base actual

Co y C1 son los factores estimados.

Y es la variable independiente

R composición lineal:

H1, H2, coeficientes dependientes

X1, X2 valores que consiguen adoptar las variables independientes.

€ Representa el término de error de estimación.

PQ Varianza =0.25

XVI

Page 27: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

N Población

E Margen de error

K Constante de corrección del error =2

F Número de veces que se repite el dato.

XVII

Page 28: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

UNIVERSIDAD DE GUAYAQUIL

FACULTAD DE CIENCIAS MATEMATICAS Y FISICAS

CARRERA DE INGENIERIA EN SISTEMAS COMPUTACIONALES

“ESTUDIO DEL DISEÑO DE TRANSFORMACIÓN DE DATOS UTILIZANDO LA HERRAMIENTA SPOON DE PENTAHO OPEN SOURCE BUSINESS INTELLIGENCE SOBRE PLATAFORMA LINUX”

RESUMEN

En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos (DBMS); no resulta extraño para un DBMS manipular base de datos con tamaños que van desde los cientos de gigabytes hasta terabytes. La migración de bases de datos es generalmente una tarea compleja que no sólo supone transferir datos entre tipos de almacenaje y formatos de un servidor de base de datos a otro; sino que también supone reescribir sentencias SQL o incluso procedimientos (SQL) de lógica de negocio. Aparte de la dificultad de transferir la información entre los dos sistemas gestores de base de datos, también influirá en la complejidad el tipo de los datos de las tablas que estamos utilizando. Por ejemplo, las fechas, los campos numéricos con decimales o los boleanos pueden dar problemas al pasar de un sistema a otro porque pueden almacenarse de maneras distintas o, en el caso de los números, con una precisión distinta. El objetivo del estudio en el diseño de la transformación es demostrar cómo esta interesante y útil

XVII

Autor: Johanna Hernández Velasco

Tutor: Ing. Francisco Palacios

Page 29: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

herramienta Open Source llamada SPOON puede transponer la información de manera sencilla mediante parámetros y configuraciones del usuario de manera íntegra y confiable.

XVIII

Page 30: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

UNIVERSIDAD DE GUAYAQUIL

FACULTAD DE CIENCIAS MATEMATICAS Y FISICAS

CARRERA DE INGENIERIA EN SISTEMAS COMPUTACIONALES

“ESTUDIO DEL DISEÑO DE TRANSFORMACIÓN DE DATOS UTILIZANDO LA HERRAMIENTA SPOON DE PENTAHO OPEN SOURCE BUSINESS INTELLIGENCE SOBRE PLATAFORMA LINUX”

ABSTRACT

The goal of this migration is to centralize and data structures that are hosted locally on 4 Access database, fully and safely into a relational database on an open source platform.

The process of this migration is complex, in addition to the normal difficulty of the process of moving data stored in a data source to another, there is also an influence on the complexity of the problem the type of data tables that are using that can be stored differently in each of the management systems, origin and destination. For example, dates are subject to change format, while in Access appear in Castilian (dd / mm / yyyy) in PostgreSQL appear in the format yyyy-mm-dd format, numeric fields with decimals or boolean can also give us problems because can be stored in different ways.

XVIII

Page 31: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

PostgreSQL is a database manager object oriented, open source, stable, secure, flexible and high performance. The tool with which to filter data from one platform to another is of Java Scipt Pentaho.

UNIVERSIDAD DE GUAYAQUIL

FACULTAD DE CIENCIAS MATEMATICAS Y FISICAS

CARRERA DE INGENIERIA EN SISTEMAS COMPUTACIONALES

“ESTUDIO DEL DISEÑO DE TRANSFORMACIÓN DE DATOS UTILIZANDO LA HERRAMIENTA SPOON DE PENTAHO OPEN SOURCE BUSINESS INTELLIGENCE SOBRE PLATAFORMA LINUX”

Proyecto de trabajo de grado que se presenta como requisito para optar por el título de INGENIERO en SISTEMAS COMPUTACIONALES.

XIX

Autor: Johanna Hernández Velasco

Tutor: Ing. Francisco Palacios

Page 32: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Auto/a: Johanna Hernández Velasco

C.I.0919227801

Tutor: Ing. Francisco Palacios

XIX

Page 33: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Guayaquil, Noviembre de 2013

CERTIFICADO DE ACEPTACIÓN DEL TUTOR

En mi calidad de Tutor del Primer Curso de Fin de Carrera, nombrado por el Departamento de Graduación y la Dirección de la Carrera de Ingeniería en Sistemas Computacionales de la Universidad de Guayaquil,

CERTIFICO:

Que he analizado el Proyecto de Grado presentado por el egresado (a) Johanna Alexandra Hernández Velasco, como requisito previo para optar por el título de Ingeniero cuyo problema es:

“ESTUDIO DEL DISEÑO DE TRANSFORMACIÓN DE DATOS UTILIZANDO LA HERRAMIENTA SPOON DE PENTAHO OPEN SOURCE BUSINESS INTELLIGENCE SOBRE PLATAFORMA LINUX”

Considero aprobado el trabajo en su totalidad.

Presentado por:

XX

Page 34: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Johanna Alexandra Hernández Velasco 0919227801

Tutor: Ing. Francisco Palacios

Guayaquil, Noviembre de 2013

XIX

Page 35: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

INTRODUCCIÓN

Tradicionalmente cuando pensamos en un modelo de base de datos, se nos vienen muchas ideas a la mente, en este estudio tomaremos un diseño como aquel que puede representar la solución a un problema del mundo real, para lo cual se usará una herramienta de código abierto, manteniendo una estructura segura y confiable para la demostración más óptima a la interrogante planteada.

Uno de los paradigmas que a través de los años se ha mantenido en el mundo, es la seguridad y confidencialidad que deben poseer las bases de datos, ya que representa un pilar fundamental para la continuidad de todo negocio.

En sus inicios la empresa Servicios Nacionales explotó sus actividades promoviendo servicios exequiales con formas de pago muy cómodas y económicas para el sector de clase media baja, en referencia a este mecanismo la institución pudo mantenerse progresivamente en sus dos primeros años con su agencia matriz. La solución tecnológica con la que operaba la institución, cumplía con las actividades diarias que necesitaba la empresa en referencia al registro de sus transacciones, es decir, ingreso de clientes, afiliaciones y recepción de pagos.

En virtud a la operatividad de la institución tuvieron la oportunidad de abrir otras sucursales a nivel nacional, en este punto iniciaron sus actividades realizando el almacenado de la información de los clientes de forma aislada, es decir, se realizaba toda la gestión del negocio guardando la data en repositorios de base de datos no relacionales, aislando la información del resto de agencias, causando de a poco diferentes molestias para el personal de ventas.

Con el pasar del tiempo la información seguía creciendo, causando disgustos al departamento de cobranzas en su gestión en la recuperación de la cartera, pues los datos de los clientes no se encontraban del todo claros, adicionalmente existían transacciones que se registraban de manera manual, es decir, que se recaudaban de puerta a puerta, estas transacciones eran ingresadas al final del día en la agencia más cercana al vendedor, existiendo un alto riesgo en la perdida de información y de dinero por parte del empleado.

En virtud de las observaciones planteadas era notable la necesidad de una implementación de migración de datos, asegurando la información de los clientes, mejorando el rendimiento de las transacciones, optimizando los recursos existentes y brindando confianza a la operatividad del negocio.

En este estudio pudimos notar que durante los dos últimos años la institución se ha visto afectada por las quejas y molestias que causan la inconsistencia de los datos almacenados, reclamos por transacciones inexistentes, entre otros.

El objetivo fundamental de este estudio del diseño es demostrar que es posible realizar una transformación o migración de una base de datos no relacional hacia otra de una manera sencilla, sin herramientas costosas ni excesivo personal, optimizando costos y tiempo de respuesta.

Uno de los prototipos que a través de los años ha permanecido es de pensar que las organizaciones o empresas emplean sistemas basados en ordenadores no sólo para el

1

Page 36: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

tratamiento administrativo de sus datos operacionales (como son la contabilidad, gestión de nóminas, etc.), sino también para tareas relativas a función de almacenamiento de los datos dando soporte a la toma decisiones.

Cabe exaltar la importancia de migrar o cambiar los sistemas actuales de información de una empresa, por otros productos o versiones que se adapten mejor a las necesidades actuales y/o futuras de dicha empresa. Dentro de los objetivos principales de esta demostración es disminuir los siguientes aspectos:

REDUNDANCIA E INCONSISTENCIA DE DATOS

Es decir diversas copias de un mismo dato no concuerdan entre sí, por ejemplo: que se actualiza la dirección de un cliente en una agencia y que en otra permanezca la anterior.

DIFICULTAD PARA TENER ACCESO A LOS DATOS

Debe contemplar un entorno de datos que facilite al usuario el manejo de los mismos.

AISLAMIENTO DE LOS DATOS

Es difícil escribir nuevos programas de aplicación para obtener los datos apropiados.

ANOMALÍAS DE ACCESOS CONCURRENTES

Optimizar el funcionamiento global del sistema y obtener un tiempo de respuesta óptimo.

PROBLEMAS DE SEGURIDAD

Se debe considerar el control de acceso a los datos, por tal motivo debe ser confiable, manteniendo un grado de seguridad que garantice la autentificación y protección de los datos.

PROBLEMAS DE INTEGRIDAD

Una vez terminado el proceso de la migración se deben medir los resultados y entregar un reporte global del trabajo, mencionando los puntos más relevantes del proceso.

CAPÍTULO I

EL PROBLEMA

CAPITULO I – El PROBLEMA

PLANTEAMIENTO DEL PROBLEMA

UBICACIÓN DEL PROBLEMA EN UN CONTEXTO

2

Page 37: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Dentro de nuestra investigación daremos a notar la facilidad, seguridad y confianza que posee una herramienta de código abierto, para lo cual se promovió nuestro proyecto de tesis hacia una compañía en especial.

Con fecha 11 de Enero del 2010, la empresa Servicios Nacionales Guayas Servinacional Cia. Ltda., tuvo un crecimiento de sus agencias a nivel nacional, logrando abrir tres agencias adicionales en provincias como Manabí, Esmeraldas y El Oro. Con este incremento empiezan aumentar las operaciones en la empresa y a superar sus ventas. Siendo una institución controlada por la Superintendencia de Compañías, deben reportar balances o estados de situación anuales, en sustento a la instrumentación de Ventas de Cofres y Servicios de Cremación, Velación, Capillas entre otros productos que ofrece la institución al público. Adicionalmente posee vendedores en sitio o de puerta en puerta ofreciendo los productos y servicios generando contratos de forma manual que posteriormente serán ingresados al sistema.

El sistema que poseían era un aplicativo realizado en Power Builder con una base de datos Access 2003, este tipo de repositorio cubría las necesidades de la empresa desde que se inició hasta unos meses antes de que se ampliaran sus agencias.

Con el pasar de los meses el departamento de cobranzas pudo notar que la información que se estaba ingresando en su base de datos se encontraba errada o inconsistente ya que les era imposible ubicar a muchos clientes, adicionalmente existían pagos duplicados afectando la empresa, todas estas anomalías aumentaban conforme iban creciendo las operaciones.

Anualmente las instituciones que están controladas por la Superintendencia de Compañías están en la obligación de entregar estados de situación o balances que sustenten la continuidad del negocio, estos reportes tienen un tiempo máximo de entrega, el cual consta de 5 días laborables. A principios del año 2011, Servicios Nacionales fue observada por la Superintendencia de Compañías debido atrasos en la entrega del balance anual, después de esta molestia la empresa decidió auditar los costos generados en todo el año debido a gastos que se habían generado debido al consumo de horas extras al personal.

La empresa Servicios Nacionales estaba consciente de que poseía un problema con la información que era ingresada en el sistema, por este motivo utilizaban como mecanismo de escape corregir la data en la base de datos, con el objetivo de solventar la inconvenientes mensuales y posteriormente anuales con los entes de control. A pesar de las molestias o trabajos extras para los empleados no se tomaba una solución definitiva para corregir el problema de raíz ya que al tener varias agencias a nivel nacional era complicado tener un control sobre todas de forma eficiente. Como medida de corrección para futuros malos ingresos de la data se realizaron campañas de concientización en el ingreso de la información en el sistema, capacitando así a una persona por agencia con el objeto que se imparta o se difunda el mensaje.

El mecanismo de capacitación fue satisfactorio, sin embargo los problemas no se solucionaron del todo ya que no solo poseen empleados atendiendo en las agencias sino también empleados de campo. El purgado de los datos se seguía realizando de forma mensual, ya que se debía seguir cumpliendo con los tiempos de entrega y erradicar las molestias de los clientes.

3

Page 38: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

El contador interno de la compañía realizó un análisis profundo del gasto que estaba teniendo Servicios Nacionales, considerando un semestre de las agencias con mayor movimiento. El 5 de Julio del 2011 el contador notificó formalmente que la empresa en un lapso de seis meses pierde 2 días de labores al 50% y esto representa una pérdida aproximada de $38.160,00 (treinta y ocho mil ciento sesenta dólares) semestrales por motivos de pagos de horas extras en virtud de gestiones de campo y modificaciones realizadas manualmente de forma emergente en la base de datos para subsanar la información de los clientes, esto incurre de forma alarmante para una empresa mediana. La detección y clausura de anomalías son realizadas por una secuencia de operaciones sobre los datos sabidos como el flujo de trabajo. Para alcanzar un correcto flujo de trabajo, se ha identificado las causas de las anomalías y errores. Estas inconsistencias se dan como resultado por errores de máquina en etapas de entrada de datos, poca claridad sobre el formato de ingreso al sistema, error humano, falta de retroalimentación en el ingreso de información, avería con el teclado, etc.

La transformación de los datos es una necesidad que surge debido al costo representativo de la pérdida utilitaria hacia la empresa, ya que esto adicional aportaría con mejoras en la seguridad o el control de la información entre otras agencias o escenarios posibles ya sean estos de lentitud en sus procesos, perdida de los datos por falta de espacio, poco rendimiento, entre otros.

A finales del año 2011 el comité de la compañía acuerda considerar en el presupuesto 2012 una mejora en cuanto a la infraestructura que requieren adquirir para solventar sus gastos, desde ahí la construcción del estudio de la transformación de datos fue diseñada en base a las necesidades de esta empresa, ya que constituye un gran problema a nivel nacional. En los actuales momentos existe el paradigma en las empresas pequeñas de poseer bases de datos no relacionales, lo cual esto con el tiempo se ve afectado debido a su continuo crecimiento causándoles inconsistencia, desgaste de tiempo al realizar un mantenimiento, sistemas no interrumpidos y baja disponibilidad.

Necesidades del negocio

Para el desarrollo e implantación de este estudio de diseño fue forzosa una evaluación de las insuficiencias que existen dentro de la institución y del manejo del ejercicio. Para esto es inevitable entender el ciclo del negocio y los requerimientos que posee:

Cuando el ciclo de suscripción de un servicio se logra, se le ingresan los datos del cliente al sistema ya sea esta de forma automática es decir, el funcionario ingresa la información del cliente en su presencia en el computador o manual es decir, se le llena al cliente un documento a pulso donde firma la suscripción y posteriormente esos documentos son trasladados a una agencia donde serán ingresados al sistema por el vendedor.

Cuando el ciclo de afiliación de un servicio llega a su fin, el cliente procederá con la firma del contrato, el cual contiene como elemento principal la tabla de amortización de sus pagos mensuales. Estas tablas son creadas por el sistema y mantenidas en su base de datos Microsoft Access 2003 y que contienen todas las alícuotas de cada mes entre otros rubros que se pudieran haber contratado. En el transcurso del tiempo cuando el cliente empieza a cancelar sus alícuotas, la recaudación de los valores se realiza mediante la emisión de planillas de cobro

4

Page 39: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

que son atesoradas en cualquier agencia, siendo este cobro guardado en la base de datos de forma aislada ya que si el cliente vuelve a realizar el mismo pago en otra agencia se le cobra con el mismo número de cuota siendo ésta a pagar la cuota siguiente. Sin embargo, existen numerosas causales por las cuales estos valores no pueden ser recaudados, lo que ocasionan que las tablas de amortización no estén actualizadas en virtud a lo contabilizado por el cliente. Como se puede observar este es un lazo continuo entre las agencias y la matriz.

La parvedad de la empresa se origina en el instante que empieza a crecer debido al aumento de agencias a nivel nacional, acrecentando así la cartera de clientes y la transaccionalidad, en virtud de todos los sucesos empiezan a surgir “novedades” que en primera instancia es detectado por el área de Cobranzas, ya que al momento de ubicar al cliente para recordarle sus pagos, encontraban información errada accionando un problema en la recuperación de la cartera y como última coacción el llamado de atención por los entes de control.

La situación se tornaba crítica especialmente durante el cierre anual en consecuencia a cuadre de balance, por lo que frecuentemente el departamento de Operaciones solicita a Sistemas que se realicen cambios manuales a fin de contar con la data actualizada. Es importante indicar que la información requerida para el cierre contable es la relacionada con la recaudación de los dividendos mensuales y ventas realizadas en las agencias.

Para este estudio del diseño se realizó un análisis del porcentaje de inconsistencia que existía por agencia, lo que pudimos observar que en las agencias nuevas se presentaba con mayor frecuencia la inconsistencia de los datos, por lo tanto se evaluó mediante un método matemático el porcentaje de la muestra a ser tomada.

Para nuestro estudio la muestra representó el 36.7% en referencia a la población, lo cual constituye como tamaño muestral solo la agencia Manabí.

Dentro de esta muestra se realizó un segundo análisis en base a la data existente, validando el porcentaje de error de los siguientes puntos: campos, columnas, tipos de datos, cantidad de registros de las tablas, claves primarias y foráneas. En el análisis univariado todos los factores constituyeron riesgo para el traspaso de la data, mientras que el análisis multivariado, mostró que el factor con independencia más importante es la inconsistencia de la data. Se concluye que con la metamorfosis de los datos todas estas falencias se corrijan y mejore su rendimiento a un 100%.

En este estudio, para exponer la utilidad de la transformación de los datos, se propone realizar una demostración con un ejemplar estimado de 30GB, que representa una muestra de nuestro universo, la misma que servirá para resolver el problema. La herramienta que usaremos para demostrar el estudio de la transformación de los datos se llama Spoon de Pentaho, es un diseñador gráfico de transformaciones y trabajos del sistema de ETTLs, una solución en curso de la comunidad open source que provee a las organizaciones para sus necesidades de inteligencia de negocios.

SITUACIÓN CONFLICTO NUDOS CRÍTICOS

A partir de esta inconsistencia resulta indispensable considerar de forma inmediata una solución permanente que aplaque el malestar y desgaste económico que posee la empresa.

5

Page 40: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Todas estas variantes crearon la necesidad de realizar un estudio de diseño con el objetivo de trasladar toda la información a una base de datos relacional. Cabe mencionar las desventajas que tiene la base de datos que posee la empresa, como son:

No es Multiplataforma.

Su uso es inadecuado para grandes proyectos.

Su centralización hace que sea vulnerable ante fallos.

No puede ser accedida simultáneamente.

Posee un máximo de capacidad por archivos.

No es una base de datos relacional.

Limitaciones en el procesamiento de búsqueda.

Una migración o transformación de datos no es más que un problema del mundo real, por lo que se conllevó a utilizar diversas alternativas, hasta concluir que la mejor opción para esta empresa era realizarlo con una herramienta de código abierto, aportando así con la utilidad financiera de la institución. Dado que el objetivo principal de realizar una transformación de datos es descartar toda la data inconsistente, crear una estructura de base de datos uniforme y amigable para el usuario final, mantener un ambiente seguro y confiable de sus datos incluso para el registro de pistas de auditorías.

En el levantamiento de información pudimos evaluar que poseían un procesamiento de información no acorde al crecimiento de la empresa, la cual provenía por varios factores no considerados dentro de su arquitectura de su sistema, entre los que podemos destacar, su base de datos (Access) y el sistema de recolección de datos. Constan varias opciones para estimar un estudio del diseño de trasformación de datos, entre los que podemos mencionar: su optimización de recursos y estandarización de estructuras, transformación lineal y transformación logística. Teniendo en cuenta el tipo de variable que deseemos agregar al estudio (variable dependiente o respuesta) aplicaremos un estudio u otro.

Al momento de plasmar el estudio se pudo constatar que adicional a la transformación de los datos se debía rediseñar arquitectónicamente la estructura de la base de datos de acuerdo al giro del negocio, ya que al realizar el análisis de la data nos dimos cuenta que la inconsistencia de la información debió ser prevista en las parametrizaciones que se programaban dentro del sistema antes de ser puesto en Producción o antes de ser entregado a la empresa para su uso (tipos de datos en números de cédula, teléfonos, direcciones, genero, etc.), por lo que se llegó a la conclusión que se clasificaría en trabajos de campo y trabajos de oficina.

CAUSAS Y CONSECUENCIAS DEL PROBLEMA

CAUSAS:

Al realizar las investigaciones del problema pudimos constatar los orígenes tales como:

Falta de capacitación sobre el uso o ingreso de información en el sistema

6

Page 41: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

No hubo una arquitectura del sistema

Manual de usuario inexistente hacia los colaboradores

Desconocimiento de los estándares o formatos comunes

Falla en las herramientas de trabajo ya sea teclado, configuración regional o teclas direccionales.

Descuido de los usuarios al realizar el ingreso de los datos.

CONSECUENCIAS:

En resultado a la inconsistencia de la muestra analizada podemos definir que las consecuencias para este estudio son:

El desgaste de los empleados en las correcciones de la información.

La afectación de forma indirecta hacia los clientes.

Falta de control y seguridad en los procesos, esto produce que su riesgo se eleve y aumente la inconsistencia de los datos.

Las configuraciones que se realicen al transformar la data deben ser cuidadosamente realizadas para no perder información.

Mala imagen hacia los clientes o competencias.

Aborrecimiento al sistema por parte de los usuarios.

La herramienta que se analizó para la realización del estudio, puede incluir interacciones creadas en el diseño de la herramienta que impliquen una excesiva estratificación para la muestra disponible. En el análisis univariado, al realizar efectivamente las configuraciones y scripts en el diseño de transformación se observa que su tiempo de procesamiento de la data es bastante optimo, validando los resultados y analizando los datos, incluso puede decidirse diseñar una nueva alternativa que pueda afinar con mayor eficiencia los datos (esto dependerá mucho del porcentaje de inconsistencia de la data), e incluirlo como tal en el modelo.

La probabilidad en la transformación correcta es elevada en los diseños realizados con muestras de tamaños pequeños, sobre todo cuando poseen poca demanda de información.

Cabe señalar que al igual que en los temas anteriores, los estudios con multicolinealidad entre las variables introducidas llamarán la atención por la presencia de grandes errores estándares, y frecuentementes estimaciones de registros inconsistentes elevados. Sin embargo la multicolinealidad no afecta al sentido de las estimaciones (la multicolinealidad no hará que surja significación donde no la hay, e inversamente).

En aquellos escenarios del mundo real en las que no es viable experimentar con la realidad, ofrecen un marco teórico para evaluar la toma de decisiones así como sus resultados. Los diseños pueden ser estáticos o dinámicos, en un diseño estático, la variable tiempo no desempeña un papel relevante, por el contrario en un diseño dinámico si, ya que alguno(s) de

7

Page 42: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

los elementos que intervienen en este estudio no permanecen constantes, en este caso tenemos un estudio dinámico por que usamos la variable tiempo.

Habitualmente todos los estudios deterministas derivan diseños disparejos ya sean ordinarias o parciales, éstas se pueden resolver con técnicas ordenadas y/o numerarias.

DELIMITACIÓN DEL PROBLEMA

Después de haber realizado el análisis del diseño, se debe establecer una nueva estructura de base de datos a fin de modelar el diseño a implementar. Esta transformación filtrará todos los datos inconsistente con el objetivo de minimizar gastos innecesarios a la empresa y descartar llamados de atención por retrasos en la entrega de la información anual a los entes de control. Colindaremos el inconveniente haciendo referencia al gasto excesivo que tiene la empresa. Para dicho proceso hemos considerado una de las mejores herramientas de código abierto el cual posee como beneficio principal descartar el costo en licenciamiento, excluir el desgaste de tiempo en modificaciones de la data, cumplimiento ante los entes de control y credibilidad a nivel nacional de todos sus empleados, costo de servicio por mantenimiento de la data y mejorar su competitividad.

Para exponer que el estudio del diseño de transformación funciona, se elaboró una guía de recolección de datos basados en el diseño de transformación realizada en una agencia en particular, creando scripts de filtrado dentro de cada modelador que incluye la herramienta.

Considerando como base la transformación efectuada en una de las agencias se desarrolló un formulario para validar la migración de los datos, el mismo que fue validado por un experto en el área de base de datos (Ing. Cesar Cuenca, DBA).

En base a la necesidad de la transformación se crea un diseño relacional, que nos permitirá estar preparados hacia un alto crecimiento en la empresa.

La transformación de datos pretende medir los beneficios que posee esta herramienta de software libre migrando una base de datos de forma íntegra, rápida y segura, beneficiando a la empresa no solo en una baja estimación de tiempo sino en el ahorro que representa al eximirse de contrataciones externas y probable fuga de información.

PLANTEAMIENTO

FORMULACIÓN DEL PROBLEMA

¿Cómo realizar una migración que permita trasladar el 100% de la data que se encuentra almacenada de forma aislada, transformando estructuras sin perder información importante para la institución?

EVALUACIÓN DEL PROBLEMA

Evidente: Existen muchas formas de detectar que una base de datos posee almacenado sus datos de forma inconsistente, que puede ser, monitoreando el proceso de ingreso al sistema en forma de consulta directamente, o al actualizar información bajo demanda del cliente. Este estudio demostrará la necesidad de transformar los datos de forma íntegra hacia otra

8

Page 43: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

estructura relacional mediante el uso de la herramienta Spoon de Pentaho sobre plataforma Linux.

Relevante: El riesgo de que la empresa pueda generar más gastos operativos y posibles llamados de atención por los entes de control, pudiendo llegar a ser verdaderamente alarmante, esto pasa por varios factores principalmente el factor volumen, cabe señalar que la empresa posee 5 agencias a nivel nacional y posee una trayectoria de 8 años en el mercado, es por eso la necesidad de realizar una transformación eficiente que cubra a tiempo las necesidades de la empresa.

Original: Este es un campo bastante interesante, ya que en nuestro país ha sido poco explorado por el temor de fallas al momento de implementarse en cualquier empresa, debido a lo poco frecuente de poseer una data inconsistente.

Factible: La migración de los datos perfectamente realizable dado que no se trata de un estudio extenso sin ejecución real.

Identifica los productos esperados: Por medio de este estudio podríamos no solo demostrar la transformación de los datos en una base de datos no relacional sino también en muchas otras bases de datos soportadas por la herramienta.

OBJETIVO DE LA INVESTIGACION

Objetivo General:

Demostrar la habilidad, seguridad y rapidez que posee la herramienta Spoon de Pentaho, en la transformación de datos de un repositorio a otro. Ahorrando de esta manera contratación de personal especializado, soporte en sitio y minimizando largas horas de ejecución en el proceso de migración.

Objetivos Específicos:

Utilizar la herramienta Spoon de Pentaho como un instrumento de diseño, desarrollo, ejecución y seguimiento para todo el proceso de migración.

Analizar y diseñar los procesos de extracción, transformación y carga.

Transportar la data de forma íntegra y segura, validando posibles errores.

Promover la explotación del software libre en nuestro país.

Proveer disponibilidad en el repositorio de datos.

Estandarización de estructuras y tipos de datos, garantizando de esta manera la data almacenada.

JUSTIFICACION E IMPORTANCIA DE LA INVESTIGACIÓN

9

Page 44: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Este estudio ayudará a mantener un estándar en la estructura de la base, un rendimiento óptimo y una alta disponibilidad, adicionalmente servirá para darle mayor apertura a los software libres que en nuestro país que prácticamente es inexplorado.

También servirá para la correcta toma de decisiones en la arquitectura de algún diseño nuevo con respecto a otros aplicativos que se pueden llegar a implementar.

Con esta investigación ayudaremos a introducir en el Ecuador el estudio de nuevos diseños para mejorar procesos en las bases de datos, siendo mitigada la inconsistencia de los datos que es el eje central de toda empresa en crecimiento. En este estudio se demostrará que las herramientas de software libre, son los más útiles al momento de hacer diseños o manipulación de información de forma segura. La importancia de este estudio radica, en el logro, de un grupo de datos sospechosos que perjudican al crecimiento de la empresa. En virtud de los posibles llamados de atención por los entes de control, desgaste de utilidad para la compañía y pérdida de credibilidad de los clientes, se vio afectado el servicio que se ofrece.

Adicionalmente existían pagos que se receptaban de forma manual y automática, lo que generaba duplicidad de pagos entre agencias o hurto por parte de los empleados, a partir de este punto se realiza un análisis de las transacciones efectuadas mensuales, donde se descubren varios reclamos de los clientes que no han sido reportados. A través del departamento de cobranzas se realizaron las indagaciones de campo.

Este estudio, ayudará a disminuir los casos de reclamos por afectación no solo al cliente sino a la empresa ya que al momento de realizar una cobranza se realiza una validación de los datos. Secundariamente en la nueva estructura se prevé generar pistas de auditoria en las cuales ponga sobre aviso al administrador del sistema. Además por la frecuencia cada vez más alta de las empresas en crecimiento.

Como ejemplo podemos resaltar el estudio de la Metodología para la conversión del Modelo Entidad Relación al Modelo realizado por la Universidad Técnica de Ambato en el año 2001, que lo trata de introducir como una nueva área de investigación. En este estudio los campos de lenguajes de programación, inteligencia artificial e ingeniería de software han contribuido con el uso de la tecnología orientada a objetos en el área de las Bases de Datos. El desafío del área de Bases de Datos es integrarlos en un diseño de sistema simple que mantenga el equipo deseado para cada campo. El resultado de realizar la Conversión es la característica central de este trabajo para obtener una mejor idea y comprensión de Bases de Datos Orientas a Objetos (http://repo.uta.edu.ec/handle/123456789/372?show=full), en nuestro caso es lógico que sea de gran interés ya que al prescindir de multas y de información consistente para la validación de los reportes es un costo beneficio muy considerable hacia la empresa involucrada, como valor agregado se puede también mencionar que se descartarán gastos por licenciamiento del software a utilizar al tratarse de una herramienta de software libre. Precisamente uno de los factores de riesgo que se asocian es la probabilidad de pérdida de datos, teniendo en cuenta que una transformación mal realizada podría dar por terminada una estructura de información completa. Resulta evidente que en muchos procesos dicha probabilidad de fallo en la transformación o migración de datos depende del tiempo en el procesamiento de la data.

10

Page 45: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

La diferencia del estudio de Metodología para la Conversión del Modelo Entidad Relación al Modelo Orientado a Objetos con el estudio en el que he tenido la oportunidad de trabajar es que nosotros no necesitamos herramientas de alto tiempo de procesamiento ni se costosa inversión para la empresa, dado que nuestro estudio del diseño no intenta enriquecerse ni llevarle a un alto tiempo de recuperación, nuestro estudio de diseño de transformación de datos únicamente pretende demostrar que las herramientas de código abierto poseen muy buenas características que podemos explotar con un óptimo resultado.

BENEFICIOS

Entre los beneficios que se obtendría al resolver esta situación, podemos mencionar:

Agilidad en las consultas y trámites para los clientes

Optimización de gastos operativos por desgaste al personal

Fin de llamados de atención por los entes de control

Mejorado en el procesamiento de los datos

Inventarios, ventas y pagos actualizados a nivel nacional

Ahorro de costos en software y contratación de personal especializado para la solución del problema en la empresa.

Control total en el ingreso de la data, de acuerdo a los tipos de datos descritos

Competitividad y seguridad en la data existente de la institución.

REYES (2006) Expresa: La tecnología nació asociada con la actividad práctica del hombre. Miles de años después, se separaron como ocurrió con la ciencia. Ella es una fuerza poderosa en el desarrollo de la civilización, sobre todo, a partir del momento en que fraguó su vínculo con la ciencia. Ella -al igual que el lenguaje, los valores, el comercio y las artes- es una parte intrínseca de un sistema cultural, que forma y refleja los valores de un sistema.(pag. 12)

CAPÍTULO II

MARCO TEÓRICO

CAPITULO II – MARCO TEÓRICO

ANTECEDENTES DEL ESTUDIO

11

Page 46: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Antes de empezar a describir los factores de éxito del estudio haremos una breve explicación de los conceptos a tratarse dentro de este proyecto. Iniciando por la significación de una base de datos; en su concepto más simple, se refiere a un conjunto de datos relacionados entre sí con un objetivo común, de acuerdo con C. J. Date en su libro Introducción a la bases de datos: Una base de datos es una colección de datos integrados, con redundancia controlada y con una estructura que refleje las interrelaciones y restricciones existentes en el mundo real; los datos que han de ser compartidos por diferentes usuarios y aplicaciones, deben mantenerse independientes de éstas, y su definición y descripción, únicas para cada tipo de dato, han de estar almacenadas junto con los mismos. Los procedimientos de actualización y recuperación, comunes, y bien determinados habrán de ser capaces de conservar la integridad y confidencialidad del conjunto de datos.

¿Qué es una migración?

Una transformación o migración de datos es un proceso que se realiza para mover o trasladar los datos almacenados de un origen de datos a otro, para lo cual es indispensable que antes de empezar cualquier proceso de esta naturaleza, se tenga clara y documentada la razón por la cual se está migrando, además de elaborarse la planeación detallada de las actividades contempladas.

Objetivo del Proyecto

Dicha transformación en este caso lo realizaremos con el objetivo específico de subsanar el degradado en la inconsistencia de los datos en la base. El primordial escenario tiene como propósito de mejora: Descartar el alto gasto operativo generado por la mala gestión del sistema y llamados de atención por parte de los entes de control, optimar el desempeño de la base de datos, cumplir con políticas de seguridad o control de información, mayor compatibilidad con otras aplicaciones, estandarización de la tecnología de información y facilitar el intercambio de datos entre procesos. En este estudio se identificarán los elementos o aspectos que resultan esenciales para que se alcancen los mejores resultados del proyecto. A estos elementos se les denomina comúnmente Factores Críticos de Éxito (FCE), cuyos resultados satisfactorios aseguraran un diseño exitoso de transformación de datos. En el gráfico N°. 1 se muestran las etapas consideradas hacia un propósito de transformación de datos. Algunas de las etapas y actividades pueden realizarse en forma paralela o llevarse a cabo en varios ciclos.

GRÁFICO N°. 1

ETAPAS DEL ESTUDIO DE TRANSFORMACIÓN DE BASE DE DATOS

12

Page 47: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Es importante hacer distinguir que en la planeación del diseño de migración, se deben implantar los objetivos, colindar el alcance, puntualizar la estrategia a seguir, identificar en forma completa los requerimientos, crear métodos de contingencia para los riesgos de mayor impacto y probabilidad, así como analizar las condiciones actuales y finales. En esta fase se estipula la viabilidad técnica y la factibilidad económica de la solución que plantearemos.

A fin de contribuir al diseño de transformación de datos, uno de los temas obligados de discusión en todos los círculos empresariales es la “Reingeniería de Procesos”. Si bien el tema no es nuevo, el término acuñado por M. Hammer y J. Champy en 1993, se ha convertido en un fenómeno de éxito mercadotécnico.

Durante doscientos años se fundaron y se construyeron empresas sobre la base del brillante descubrimiento de Adam Smith, de que el trabajo mecánica debía dividirse en tareas más simples y básicas. La reingeniería de negocios significa volver a empezar, arrancando de cero. Lo que importa en la reingeniería es como queremos organizar hoy el trabajo, dadas las exigencias de los mercados actuales y el potencial de las nuevas tecnologías.

Hammer define la reingeniería de negocios como 'replanteo fundamental y rediseño radical de los procesos de negocios para alcanzar mejoras en orden de magnitud en el rendimiento de costos, calidad, servicios y rapidez'. Hammer y Champy, a diferencia de otros autores, sitúan a la Informática en el centro de la reingeniería de negocios. Presentan un planteamiento muy claro y radical ya que para ellos, la tecnología no debe verse como sinónimo de automatización. No se trata de utilizar la nueva tecnología para resolver mejor problemas antiguos, sino de aprovechar los conmovedores avances de las tecnologías modernas de la información para resolver los nuevos problemas.

Una transformación o migración de datos puede llegar a ser muy costosa para la empresa, incluso consumiendo varias horas de tiempo en la realización del proceso.

13

Page 48: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

En el año 2001, el belga Matt Casters empezó el desarrollo de una herramienta para uso personal, consciente de las dificultades que había tenido durante su experiencia laboral como constructor de Data Warehouse (colección de datos orientada a un determinado ámbito, integrado, no volátil y variable en el tiempo) para la integración de sistemas. Entretanto los siguientes años, fue desarrollando la herramienta, primero utilizando Java y su librería gráfica AWT (Abstract Window Toolkit), para finalmente pasar a SWT (Standard Widget Toolkit). La herramienta fue añadiendo funcionalidades, acceso a bases de datos, tratamiento de ficheros y componentes hasta llegar a 2004 con la versión 1.2. En la versión 2.0 se incluyó un sistema de plugins para permitir el desarrollo de conectores de Kettle con otros sistemas como SAP (Sistemas, Aplicaciones y Productos en Procesamiento de datos) y en 2005 fue liberado el código y puesto a disposición de la web. El proyecto creció con rapidez y la comunidad se involucró en su desarrollo con mucha actividad, hasta estar dentro de la órbita de Pentaho, que lo incluyo como herramienta ETL (extracción, transformación y carga) en su gama de productos. Matt Caster ha estado desde entonces trabajando en Pentaho y desarrollando su arquitectura como parte del equipo de Pentaho, interviniendo en las diferentes versiones hasta llegar a la 3.

Pentaho se define a sí mismo como una plataforma de BI (Business Intelligence) que contiene todos los principales componentes requeridos para implementar soluciones basadas en procesos. Las soluciones que Pentaho ofrece se componen fundamentalmente de una infraestructura de herramientas de análisis e informes integrados con un motor de workflow o flujo de trabajo de procesos de negocio. La plataforma será capaz de ejecutar las reglas de negocio necesarias, expresadas en forma de procesos y actividades y de presentar y entregar la información adecuada en el momento adecuado.

El primordial escenario tiene como propósito de mejora: Descartar llamados de atención o multas por parte de los entes de control, optimar el desempeño de la base de datos, cumplir con políticas de seguridad o control de información, mayor compatibilidad con otras aplicaciones, estandarización de la tecnología de información y facilitar el intercambio de datos entre procesos. En este estudio se identificarán los elementos o aspectos que resultan esenciales para que se alcancen los mejores resultados del proyecto. A estos elementos se les denomina comúnmente Factores Críticos de Éxito (FCE), cuyos resultados satisfactorios aseguraran un diseño exitoso de transformación de datos. En el gráfico N°. 2 se muestran las etapas consideradas como propósito de transformación de datos. Algunas de las etapas y actividades pueden realizarse en forma paralela o llevarse a cabo en varios ciclos.

El alcance de la migración de datos contempla el análisis, diseño, implementación y pruebas de la herramienta Spoon de Pentaho para la extracción, transformación y carga de la información de la base de datos actual hacia la nueva PostgreSql.

Desigualdades entre transformaciones de datos

Un diseño de transformación de datos es la grafía de una dificultad en el mundo real, basado en esto el estudio está obligado a encontrar la técnica más beneficiosa para desvanecer todas las inconsistencias de la base que representan el problema en cuestión, en los párrafos anteriores se resume la importancia que posee una transformación de datos en una empresa.

14

Page 49: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Los beneficios de la herramienta con la que realizaremos nuestra demostración y es costo beneficio de la misma.

FUNDAMENTACIÓN TEÓRICA

Transformación por inconsistencia de los datos

Una transformación o migración de datos es una excelente alternativa para corregir la data mal almacenada a nivel de base de datos. La transferencia de información entre un repositorio u otro permitirá cifrar y estructurar los datos en forma óptima. Podemos tener el mejor sistema, la base de datos más robusta o aplicable al negocio pero si no tenemos una buena arquitectura del negocio o una estructura de base de datos con políticas de seguridad, restricciones, parches o con tipos de datos controlados tiende a almacenar información inconsistente.

La migración de los datos consiste en convertir los datos desde un sistema de base de datos a otro. Esta migración conlleva la creación de tablas o modificación de las existentes, cambios en algunos tipos de datos que existen en una base de datos pero no en otras, etc.

Este estudio tiene como producto principal la herramienta Spoon de Pentaho, para el desarrollo del proyecto.

Ventajas

Aprovechar el uso de nuevas tecnologías de código abierto.

Erradicar costos altos en licenciamiento de software especializado.

Excluir costos operativos por pagos de horas extras al personal y llamados de atención por el ente de control por el atraso en la entrega del balance.

El alcance de la migración es pequeño y controlable.

La información histórica preserva su estructura original.

Los usuarios consultarían la información histórica en del sistema anterior (ventaja para los usuarios).

Menor capacitación.

Desventajas

Se debe modificar o cambiar el aplicativo actual.

Durante los primeros meses existirán dos fuentes válidas de información, la histórica y la vigente.

Molestia con los usuarios por adaptación al nuevo repositorio.

¿Existen diferentes tipos de migraciones?

15

Page 50: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

A continuación mencionaremos los diferentes tipos de migración que existen en el mercado como reseña percepción de lo que se puede realizar:

Migración en sitio

Actualiza automáticamente el Portal completo y todos los sitios. La migración sobre escribe las Bases de Datos originales, y convierte todos los datos a los formatos nuevos, incluyendo todos los documentos almacenados. Los sitios y el Portal no podrán ser utilizados durante el proceso.

GRÁFICO N°. 3

PROCESO DE MIGRACIÓN EN SITIO

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Recomendado para instancias de pequeña dimensión o instalaciones contenidas en un solo servidor.

Migración gradual

Los servidores contendrán varias versiones al mismo tiempo, y la migración se puede realizar por cada recopilación de sitio. El contenido de la recopilación que se está migrando en el momento es guardado primero en una Base de Datos temporal y luego migrado a las nuevas Bases de Datos. Los cambios se pueden revertir a la versión anterior porque las Bases de Datos no se alteran. Requiere más espacio físico en los servidores (porque hay que tener todo doble).

GRÁFICO N°. 4

PROCESO DE MIGRACIÓN GRADUAL

16

Page 51: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

CASTRO (2003) Expresa:” La habilidad de las sociedades para controlar la tecnología y en particular las tecnologías estratégicamente decisivas en cada época histórica tienen una gran influencia en su destino”. (pag. 12)

Permite más control sobre la migración y es recomendable cuando se han hecho personalizaciones avanzadas en el sistema. La migración es mucho más lenta que una en sitio.

Base de Datos

Se realiza poniendo las Bases de Datos fuera de conexión, copiándolas al nuevo servidor, conectándolas al nuevo sistema y realizando una migración en sitio por el resto.

GRÁFICO N°. 5

PROCESO DE MIGRACIÓN DE BASE DE DATOS

17

Page 52: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Solamente se pueden migrar Bases de Datos completas pero es la forma más rápida para migrar.

Factores de Riesgo en la transformación

Factor crítico para el éxito de la migración de la base de datos, es la realización de pruebas, las cuales inicialmente, pueden ser a pequeña escala para validar o modificar la arquitectura final y el plan de migración, así como para comprobar que las aplicaciones que harán uso de la base de datos funcionan correctamente y optimizar los tiempos y recursos necesarios. Es recomendable hacer pruebas generales para comprobar que el proceso completo funciona correctamente, medir los tiempos para tener una planeación integral y minimizar los riesgos como:

Sistemas con muchas identificaciones pueden ser entre muy difícil a imposible de ser migrados; la única forma de saberlo con certeza es hacer una migración de prueba.

Procedimientos que no son migrados y hay que compilarlos y aplicarlos manualmente de nuevo, pero luego de ser migrados manualmente continuaran funcionando sin problemas. Modificaciones hechas en las plantillas originales no son migradas.

18

Page 53: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Consideraciones que se tomaron para seleccionar la herramienta

Un aspecto crítico para el éxito del estudio del diseño de transformación es la selección de la herramienta que será utilizada para ejecutar el proceso de migración, es importante hacer un análisis de las diferentes alternativas existentes, buscando la mejor opción considerando la relación costo/beneficio de cada una de ellas hacia la empresa.

BENEFICIOS DE LA HERRAMIENTA SPOON

Spoon, nos permite realizar el diseño de las transformaciones y trabajos de forma gráfica. Inclusive admite previsualizar y testear los elementos desarrollados. Pan, es otra herramienta de Pentaho que asiente la ejecución de las transformaciones diseñadas en Spoon, puede ser de un fichero o del repositorio. Desde la línea de comandos nos permite preparar la ejecución mediante scripts.

GRÁFICO N°. 6

PROCESO DE MIGRACIÓN

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

¿Cómo se miden los resultados de la transformación?

Una vez terminado el proceso se deben medir los resultados y entregar un reporte global del trabajo realizado, mencionando cual es el producto que se entrega, cuantas tablas u otros objetos fueron migrados, cuantos registros se migraron exitosamente, cuantos no fueron migrados y cuál fue la causa de aquello.

19

Page 54: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Otro documento relevante para el cliente es la memoria técnica que contenga la configuración de los parámetros de la base de datos migrada, su estructura física y espacio disponible, entre otros datos relevantes.

RUIZ (2003) Expresa: Hoy, la tecnología puede definirse como la aplicación del conocimiento científico a la solución de problemas prácticos y la obtención de metas humanas; un cuerpo de conocimientos desarrollados por una cultura que provee métodos o medios para controlar el entorno, extraer las fuentes, producir bienes y servicios, así como mejorar las condiciones de vida. (pag 24)

Consideraciones antes de la transformación

Una actividad central es realizar un análisis del diseño de datos actual y del nuevo, para estipular cuáles son los campos y tablas críticas; posteriormente, se analizará y documentará la correspondencia campo por campo del nuevo modelo con el modelo actual, especificando las dependencias funcionales de cada una de ellas.

Adicionalmente se debe vislumbrar la verificación de la integridad referencial entre las tablas de acuerdo con los requerimientos del modelo en el nuevo ambiente y determinar las limitaciones existentes, sin destruir los datos almacenados ni las relaciones que existen entre ellas. De igual modo, es necesario considerar los diferentes tipos de datos entre el modelo actual y el nuevo, certificar que la información pueda ser almacenada en los campos bajo la nueva definición, contrastar el tamaño de los objetos y de la base de datos, considerar el tipo de índices que soporta la base de datos final y el manejo de sus transacciones.

Funcionamiento de Pentaho

La solución de Pentaho tiene un contexto de implementación basado en el lenguaje de programación Java. Eso hace que sea una solución muy flexible para cubrir una amplia gama de necesidades empresariales, también abre, limpia e integra toda la información valiosa de la empresa para que la misma pueda ser entregada al usuario de manera íntegra. Provee una estabilidad, una sola versión de todos los recursos de información, que es uno de los más grandes desafíos para las organizaciones de Tecnologías de la Información (TI). Pentaho Data Integration permite una poderosa ETL (Extracción, Transformación y Carga).

Pentaho Data Integration facilita una solución completa de ETL, incluyendo:

Delineante gráfico enriquecido para permitir a los desarrolladores ETL una amplia conectividad a cualquier tipo de datos (integer, char, etc).

Escalabilidad y rendimiento, incluyendo el almacenamiento en caché de la memoria.

Análisis y presentación de informes, incluyendo Hadoop, NoSQL, tradicionales y bases de datos OLTP de análisis

Moderno, abierto y posee una arquitectura basada en estándares.

20

Page 55: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Interfaz gráfica para la programación y seguimiento de Hadoop, NoSQL, y el procesamiento de datos relacional y el empleo de ETL.

Pentaho Data Integration tiene un diseñador gráfico automático que permite hacer exactamente lo que los desarrolladores de código más hábiles pueden lograr en una fracción de tiempo, y sin necesidad de código en forma manual. Integra en un único entorno de desarrollo la posibilidad de elaborar las ETL, el modelar los metadatos y la visualizarlos, ya sea a través del navegador OLAP o por reportes.

Esta herramienta puede de manera muy simple tomar datos de una fuente (archivos locales y remotos, bases de datos, repositorios), aplicar un procesamiento a dichos datos (filtros, condiciones, cálculos, consultas), y almacenar los resultados en un destino (archivos, base de datos, repositorio).

Ventajas de la herramienta

Logra facilitara la comunicación entre las partes interesadas y los desarrolladores. Estos últimos obtienen de forma más rápida prototipos funcionales (incluso en minutos) de cubos OLAP, reportes, etc. y a su vez, las partes interesadas pueden entregar su feedback a los desarrolladores en base a un prototipo que se ve exactamente como sería en un ambiente productivo.

Permite llegar a un resultado final de forma más efectiva.

Reduce riesgos y costos de implementación.

Admite probar de forma empírica y temprana la arquitectura de la aplicación BI (que los datos necesarios sean los correctos, que el tiempo de ejecución sea aceptable, que los reportes muestren la información que los usuarios necesiten, que el diseño del cubo OLAP satisface las necesidades de información de los analistas, etc.).

Permite a los desarrolladores enfocarse en funcionalidad de las diferentes soluciones informáticas.

GRÁFICO N°. 7

PROCESO DE INTEGRACIÓN DE DATOS - PENTAHO

21

Page 56: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Cuales con las características de Spoon de Pentaho?

Entorno gráfico de desarrollo

Uso de tecnologías estándar: Java, XML, JavaScript

Fácil de instalar y configurar

Multiplataforma: windows, macintosh, linux

Basado en dos tipos de objetos: Transformaciones (colección de pasos en un proceso ETL) y trabajos (colección de transformaciones)

Incluye herramientas como:

Spoon: para diseñar transformaciones ETTL usando el entorno gráfico

PAN: para ejecutar transformaciones diseñadas con Spoon

Que consideraciones debemos tener con Spoon?

Esta herramienta puede manipular y transformar información en todos aquellos proyectos dónde sea necesario trabajar con datos erróneos. Las diferentes soluciones para cubrir las necesidades de extracción, manipulación, validación y carga de datos desde múltiples fuentes de origen y en diferentes entornos esta puede resolverlos, permite implementar los procesos de extracción, transformación y carga de datos (ETL), la misma es de código abierto compuesta por cuatro componentes fundamentales: SPOON para el diseño gráfico de las transformaciones, PAN para la ejecución de los trabajos y las transformaciones, CHEF para el diseño de la carga de datos y KITCHEN para la ejecución de los trabajos Batch diseñados con CHEF.

22

Page 57: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

El uso de kettle permite evitar grandes cargas de trabajo manual frecuentemente difícil de mantener y de desplegar.

Los siguientes scripts permiten iniciar Spoon en diferentes plataformas:

spoon.bat: inicia Spoon en la plataforma Window$.

En esta plataforma basta con ejecutar el archivo .bat para iniciar Spoon.

spoon.sh: inicia Spoon en una plataforma tipo Unix, tal como GNU/Linux, Apple OSX, y Solaris. En este caso debemos ejecutar la siguiente sentencia:

cd /home/datos/programas/data-integration

sh spoon.sh

DELARBRE (2009) Expresa en donde según el ciudadano requiere de destrezas específicas para su supervivencia en este nuevo entorno: “La capacitación, no sólo para encontrar información y saber discriminar entre ella, sino también para colocar contenidos en las redes informáticas, se ha convertido en requisito indispensable en la formación cultural, la competitividad laboral y las opciones sociales de las personas.” (pag. 12)

Qué plataformas soporta Spoon?

La guía de Spoon es soportada en las siguientes plataformas:

Windows: todas las plataformas desde Windows 95, incluyendo Vista.

GNU/Linux: en procesadores i386 y x86_64, trabaja mejor en Gnome.

OSX de Apple: trabaja en ambas máquinas, PowerPC e Intel.

Solaris: utilizando una interface Motif (GTK opcional).

AIX: utilizando una interface Motif.

HP-UX: utilizando una interface Motif (GTK opcional).

FreeBSD: soporte preliminar i386, pero aún no en x86_64.

Cuáles son los problemas frecuentes que puede presentar Spoon?

Los problemas más conocidos asociados con Spoon son:

GNU/LinuxBloqueo ocasional de la JVM corriendo SuSE Linux y KDE. Corriendo bajo Gnome no

23

Page 58: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

presenta problemas (detectado en SUSE Linux 10.1 pero versiones anteriores también tienen el mismo problema).

FreeBSDProblemas con arrastrar y soltar. Utilizar el menú contextual del clic derecho sobre el lienzo como solución.Consultar las listas de seguimiento en http://jira.pentaho.com para encontrar información actualizada sobre los problemas recientemente descubiertos.

Definición del problema y recolección de datos

Dado a que las bases de datos entre agencias con relación a la matriz, no estrecha una estructura relacional y al momento de realizar la centralización de la información y consolidarla para todas las entidades implicadas, esta no mantiene un estándar. Al surgir este efecto, se obtiene como resultado la inconsistencia de los registros almacenados, según lo demuestra en el siguiente gráfico de ejemplo:

GRÁFICO N°. 8

PROCESO DE INTEGRACIÓN DE DATOS – PENTAHO

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Como nos muestra el gráfico, el esquema con que se dan las tablas de las diferentes bases de datos, señalan que en un mismo campo, tienen distintos tipos o formas de ser pobladas. Durante la traslado de los datos a la base de la matriz, se produce una variabilidad de los

24

Page 59: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

registros, ya que al momento de realizar consultas y/o reportes, estos traerán datos que no serán completos.

La principal actividad que perjudica a la empresa se debe al alto gasto que posee por el mal ingreso de la información en su base de datos, así como también se quiere erradicar llamados de atención por parte de los entes de control ya que esto también perjudica a la empresa. Notoriamente el área de cobranzas denotó que la información existente se encontraba errada para su gestión, ya que le era imposible ubicar a los clientes, otra área que se ve involucrada en esta afectación es el área comercial ya que se les imposibilita permitir enviar invitaciones para los eventos que realiza la empresa. Este proceso de concretar el problema es muy significativo ya que afectará en forma reveladora las conclusiones en el estudio, lo cual hace imposible extraer una respuesta correcta de un problema equivocado. Lo primero que hay que reconocer es que un grupo de desarrolladores expertos, por lo general trabajan en un alto nivel de asesoría. A los miembros del grupo no se les presenta un problema y se les dice que lo resuelvan, ya que por medio de este retroalimentación asesoran a la gerencia (casi siempre un tomador de decisiones). El grupo realiza un análisis técnico y después presentan un informe a los administradores de base de datos. Con frecuencia, el informe a la gerencia identifica cierto número de opciones atractivas y particular bajo diferentes suposiciones. El gerente evalúa, da sus recomendaciones y toma una decisión final basándose en su mejor juicio.

Una vez determinado el inconveniente el siguiente paso consiste en reformularlo para su análisis, mediante la arquitectura de un diseño que represente la esencia del inconveniente. El diseño es una representación idealizada de la situación de la empresa.

Formulación del Diseño

El diseño posee muchas ventajas sobre una descripción verbal del inconveniente, una ventaja obvia es que el diseño puntualiza un problema en forma mucho más concisa. Al desplegar el esquema, se recomienda empezar con una versión muy sencilla y moverse, en forma evolutiva, hacia diseños más elaborados que reflejen mejor la complejidad del inconveniente real. El diseño debe ser menos confuso que el sistema real, de otra manera, no tiene sentido trabajar con diseños si se puede trabajar con el sistema real en sí.

Como puntos clave en el diseño podemos destacar:

Documento del diseño

Detalle de las reglas de transformación y carga

Mapeos fuentes-destino a nivel global y detallado.

Elaboración de una solución a partir del diseño

Una vez expuesto el diseño para suplir el inconveniente, la consecuente etapa consiste en desarrollar un procedimiento para proceder a una solución al problema a partir de este diseño. Puede pensarse que esta debe ser la parte primordial del estudio, pero por lo general no lo es, hallar la solución es la parte entretenida del estudio, mientras que el auténtico trabajo se encuentra en las etapas anteriores y posteriores del estudio. Un argumento común es la

25

Page 60: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

búsqueda de una solución óptima, es decir, la mejor, es necesario reconocer que estas soluciones son óptimas sólo respecto al modelo que se está manejando. Como el diseño necesariamente es una abstracción y no una representación del inconveniente real, no puede existir una garantía de que la solución óptima del diseño resulte ser la mejor solución viable que pueda llevarse a la práctica para el inconveniente real. Esto es de esperarse si se toma en cuenta los muchos inestimables e inseguridad asociados a casi todos los problemas existentes, pero si el diseño está bien expresado la solución debe tener una buena aproximación de curso de acción ideal para el problema real.

Entre las ejecuciones que podemos mencionar tenemos:

Datos válidos cargados en la herramienta Spoon

Documento técnico de migración

Documento de resultado de la migración de datos

Inconsistencias cargadas en el repositorio.

El distinguido desarrollador de software estadounidense, autor y empresario Jeff Atwood, menciona que tenemos que dejar de optimizar para programadores y comenzar a optimizar para usuarios. Al ver este tema como una optimización hacia los usuarios finales el cual ayuda al crecimiento de la empresa, se contempla satisfacer y mejorar las necesidades del negocio. La distinción entre mejorar y satisfacer refleja la diferencia entre la teoría y la realidad.

Por lo tanto, la meta de un estudio debe ser llevarlo a cabo de una manera óptima, independientemente de si implica o no encontrar una solución recomendable para el diseño. Al reconocer este concepto, en ocasiones se utilizan solo procedimientos de diseño intuitivo para encontrar una buena solución sub-óptima.

Un procedimiento óptimo para el diseño original puede ser menos ideal para el inconveniente real, de manera que es obligatorio hacer un estudio adicional. El estudio pos-óptimo, establece una parte muy característica, éste determina qué medidas del diseño son los más críticos, las medidas críticas, del diseño son aquellos cuyos valores no se pueden modificar sin que la solución óptima se modifique.

Criterios de aceptación

El criterio de aceptación de la migración se determina a través del indicador de carga de información, que se define a continuación, de acuerdo con la estrategia escogida para la migración y los supuestos y restricciones del estudio.

Indicador de carga de información.- La herramienta Spoon pudo ser cargada con la información válida y se calcula con la siguiente fórmula:

26

Page 61: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

ESTEBAN (2009) Expresa: El conocimiento es más complejo, surge de la observación, el análisis y la experimentación; busca suministrar conjuntos de conceptos cada vez más abarcadores y, a su vez, en la medida de lo posible, más sencillos en relación a los fenómenos y sus vínculos, incluidas sus variaciones, así como las causas y las consecuencias de estos. (pag. 18)

# de datos cargados

Indicador de carga de información = __________________ * 100

# de datos válidos

La aceptación de la migración se da cuando:

El indicador de carga de información >= 98%

Ensayo del estudio

Sin vacilación podemos decir que la inicial versión de un diseño tenga fallas, por lo tanto previamente a usar el diseño realizado debe experimentarse para identificar y corregir todas las fallas que se puedan encontrar, este proceso de ensayo y mejoramiento se conoce como aprobación del diseño. Un diseño es legítimo si, libremente de sus inexactitudes, puede dar un pronóstico confiable del funcionamiento del sistema. Un procedimiento común para probar la eficacia de un diseño es confrontar su funcionamiento con algunos datos transitados disponibles en la base de datos existente (llamado comúnmente ensayo retrospectivo). Debe notarse que tal procedimiento de validación no es adecuado para información que no existe en la base de datos, ya que no habrá datos utilizables para poder confrontar. Otro procedimiento podría ser contener una información que no haya sido evaluada como existente en la formulación del diseño, para poder encontrar errores que la herramienta no haya encontrado.

Elaboración para la aplicación del diseño

El siguiente paso es colocar un procedimiento bien documentado para aplicar el diseño a implementar. Este estudio contendrá el diseño, procedimiento de solución y las tácticas operativas para su implantación (normalmente el diseño se lo realiza en un computador). El segmento de este arranque incluye el proceso de un mantenimiento durante su uso posterior, por lo tanto si las condiciones cambian con el tiempo, este proceso debe modificar la transformación del modelo.

Se definen las siguientes fases básicas dentro de un proceso de migración:

Análisis de las fuentes de datos.

Extracción y Transformación de los datos en el formato destino.

27

Page 62: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Validación de datos en un repositorio de preparación

Carga de datos en el sistema destino.

Sin embargo, con el fin de atacar los retos que implica el movimiento de datos hacia el nuevo repositorio, se define un proceso de migración cíclico en el cual se repite el mismo proceso de fases hasta que la migración se completa exitosamente.

Este acercamiento permite realizar análisis orientado al sistema destino, establecer premisas de validación, refinar los diseños y aplicar las mejores prácticas a medida que el proyecto progresa. Esta metodología usa las mismas 4 fases básicas (análisis, extracción / transformación, validación y carga) pero las fases no solamente iteran sino que se interconectan una con otra.

Establecimiento del diseño

Una vez terminado el período de desarrollado para aplicar el diseño, la última fase consiste en la implantación de las consecuencias probadas del diseño. Esto esencialmente implicaría la transcripción de estos resultados en instrucciones de operación particularizada, emitidas de forma evidente a los usuarios que administrarán y operarán la base de datos. A la culminación del estudio, es conveniente que al realizar la transformación se documente la metodología manejada con bastante claridad para que el trabajo sea reproducible.

Objetivo: Realizar un examen completo y establecer una lista de chequeo de los elementos de datos que serán migrados. Del mismo modo se realiza el mapeo de los elementos de datos de la fuente al destino.

Actividades: En el esquema iterativo, las actividades de análisis están dirigidas a suplir los requerimientos del sistema destino. Se deben hacer tres consideraciones.

Descubrimiento inicial.- Proceso que permite entender el valor de todos los elementos de datos, rangos, etc. y poner en evidencia las relaciones entre ellos.

Mapeo.- Permite entender cuales bases de datos, entidades y atributos satisfacen los requerimientos de información del sistema destino. Se debe evaluar qué relación origen-destino satisface el requerimiento de manera óptima y determinar los cambios requeridos (transformación) en los esquemas de datos incluyendo cuáles elementos no existen, y son necesarios, en la nueva aplicación.

El resultado de la fase de análisis y diseño es la especificación del mapeo entre los sistemas fuente y el sistema destino.- Entre mejor sea la especificación inicial menos iteraciones se tendrán que realizar.

Realizar el análisis de la topología y obtener estimados de desempeño.- Es necesario precisar la duración de la migración una vez se ejecuten las iteraciones previas a la migración final

Diseño de Transformación de Datos

Uso de la herramienta Spoon de Pentaho Business Intelligence

28

Page 63: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Una vez definido el diseño de la estructura a implementar en nuestro estudio, debemos considerar algunas instrucciones posteriores que harán triunfante nuestro proyecto. Se consideró que como mejor alternativa hacia la empresa Servicios Nacionales según la demanda de sus operaciones y el costo beneficio, la mejor alternativa como motor de base de datos es PostgreSql, esta alternativa se instalará en un servidor Suse Linux 12.1 ya que también posee el beneficio de ser libre en licenciamiento. Una vez creada la base de datos procedemos a configurar la herramienta Spoon, creando las conexiones a la base de datos, para este escenario estableceremos conexiones ODBC en el servidor, las conexiones que se representan serán hacia Access y PostgreSql.

Posteriormente se deben crear scripts que servirán para el traspaso de la información, de acuerdo al análisis de la estructura planteada debemos considerar a realizar el filtro de migración de la data, reflexionando en crear log (registros) de los posibles errores que se puedan generar. Estos log serán validados una vez que termine el proceso para considerar si debemos crear un script adicional considerando otras alternativas.

Se diseñará de manera gráfica modelos de flujos de transformación insertando bloques de códigos en forma de script, los cuales van a realizar como filtro para el traspaso de la data. A continuación se mostrará un gráfico donde se demostrarán los iconos de la factibilidad y lo amigable de la herramienta.

Se busca generar el mapeo de los correspondientes flujos de datos a una tabla de salida:

GRÁFICO N°. 9

INTERFACE MODO GRÁFICO - SPOON PENTAHO

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Es recomendable utilizar el "Modo seguro" cuando se mezclan filas de muchas fuentes para asegurarse de que todas las filas tengan el mismo diseño en todas las condiciones.Cuando se ejecuta en modo seguro, la transformación verifica cada fila que pasa y asegura que todos los diseños sean idénticos. Si una fila no tiene el mismo diseño que la que la primera fila, se genera e informa un error.

29

Page 64: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Saltos de Transformación

Existe una opción donde se debe configurar los saldos de la transformación de forma ‘habilitada’ ya que si no se lo realiza los pasos siguientes al mismo están aislados de cualquier flujo de datos previo al salto deshabilitado. Esto puede conducir a resultados inesperados al editar los pasos del flujo posterior.Saltos de Trabajo

Además del orden de ejecución, un salto igualmente especifica la condición en que será ejecutada la siguiente entrada de trabajo:

Incondicional: especifica que la siguiente entrada de trabajo será ejecutada a pesar del resultado de la entrada de Trabajo de origen.

Seguir este camino cuando el resultado sea verdadero: especifica que la siguiente entrada de Trabajo será ejecutada solamente cuando el resultado de la entrada de Trabajo de origen sea verdadero, que significa ejecución exitosa, archivo encontrado, tabla encontrada, sin error, que la evaluación sea verdadera, etc.

Seguir este camino cuando el resultado sea falso: especifica que la siguiente entrada de Trabajo será ejecutada solamente cuando el resultado de la entrada de Trabajo de origen sea falso, que significa fracaso de la ejecución, archivo no encontrado, tabla no encontrada, ocurrencia de error(es), que la evaluación sea falsa.

Crear un Salto

Para crear un nuevo salto entre 2 pasos, se puede utilizar alguna de las siguientes opciones:

Clic con el botón del medio en el paso origen, mantener presionado el botón y arrastrar el puntero hacia el paso destino.

Mantener presionada la tecla "SHIFT", hacer clic con el botón izquierdo en el paso origen, mantener presionado el botón izquierdo y arrastrar el puntero hacia el paso destino.

Ir a la opción "Árbol Principal" en el panel izquierdo y hacer clic derecho sobre el nodo "Saltos", esto abrirá una nueva ventana en donde debemos especificar cuál será el paso de origen y cuál será el destino.

Seleccionar los dos pasos que se desean unir utilizando "CTRL" + clic izquierdo sobre los mismos, luego hacer clic derecho en alguno de los dos pasos y seleccionar "Nuevo Salto". Esta característica trabaja solamente con pasos que aún no se han conectado a otro paso.

Regularmente el proceso se vería de la siguiente manera, y cada diseño o dibujo representa una acción o un paso a seguir. Dentro de cada uno de estos gráficos poseen script que realizan por debajo la transformación de los datos.

30

Page 65: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

CASTRO (2003) Expresa: El conocimiento tecnológico, a diferencia del científico, se conforma por nuevos procedimientos para alcanzar ciertos fines prácticos; pueden considerarse como el conocimiento de procedimientos probados por los que se logran objetivos predeterminados. (pag. 21)

GRÁFICO N°. 10

PROCESO DE EXTRACCIÓN DE LOS DATOS – SPOON PENTAHO

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Se consigue asegurar que la transformación de datos se encargue de convertir las inconsistencias de los datos y la codificación, que pueden existir dentro de una base de datos única y que casi siempre existen cuando múltiples bases de datos la contribuyen.

Una función lineal de las variables independientes que permita clasificar a las estructuras en uno de los dos niveles o grupos establecidos por los dos valores de la variable dependiente. (Ferrán: 2001, 32)

La transformación de datos es un modelo que, a partir del diseño estimado para cada

Para este proceso se crearon aproximadamente 11 pasos que abarcan la “preparación.ktr” que incluye la creación de las tablas, secuencias, creación de tablas que almacenarán los errores (log) y alterar la estructura de los campos antecediendo a un posible error. “beginning_step0.ktr” el cual realiza la inserción de los datos en las tablas padres filtrando campos reconocidos como inconsistentes, logrando realizar el traspaso optimizado. Posteriormente “cliente_step1.ktr” y “cliente_step2.ktr” inserta los registros de todos los clientes y realiza el filtrado de la data de acuerdo a las condicionantes del script.

31

Page 66: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Subsiguientemente se ejecutan los pasos “afiliacion_step1.ktr”, “afiliacion_step2.ktr”, “afiliacion_step3.ktr” y “afiliacion_step4.ktr” que realizan el barrido de los afiliados y de toda la información correspondiente a direcciones, cedulas, fechas de nacimientos, números celulares, etc.

Finalmente se ejecutan los scripts “cobros_step1.ktr” y “cobros_step2.ktr” que reprocesan todos los pagos por agencias asignándole secuenciales, índices y la depuración de la data. Adicionalmente para cada proceso se creó una taba donde se almacenarán los registros errados o inconsistentes sin consideraciones de migración. Estos registros deben ser verificados uno a uno manualmente con la ayuda de algún colaborador de la empresa que nos guie como podemos mejorarla a nivel de servicio. Una de las variables independientes y producto de la probabilidad de los cambios que se den en la variable dependiente, va a permitir asignar los mismos a una u otra categoría y opción de respuesta. (Visauta: 1998, 52).

La transformación de datos estima de forma muy parecida al traspaso de información de un computador a otro en la que se aprecia primero un estudio base para suministrar una referencia en la comparación. En la transformación múltiple, la media que emplea para establecer el estudio base y diagnosticar el espacio que ocupará el nuevo diseño. Sin embargo en la transformación logística, se utiliza el mismo proceso, con la media utilizada en el diseño estimado, pero no para diagnosticar el espacio que ocupará el nuevo diseño, sino la versatilidad y operatividad de mejora que se obtendrá con este proceso. (Hair, Anderson, Tatham y Black: 1999, 318).

A continuidad se definirán las dos opciones de refutación para los usuarios en la variable dependiente como respuesta base de datos Access y respuesta control y, por tanto, cuando se haga referencia en lo continuo a estos términos de probabilidad se hablará del pre (base actual) y pro (diseño de transformación) para la otra.

Perdida de datos en la transformación (razón de suceso) = M/1-p

Dónde:

M = probabilidad de que ocurra un suceso

1-p= probabilidad de que no ocurra un suceso

A partir de esta pérdida de datos en la transformación se puede deducir la probabilidad de un suceso:

Pro (base actual) = 1/1+Co+1Y

Dónde:

Co y C1, son los factores estimados.

Y, es la variable independiente

En este caso al describir más de una variable independiente los diseños que se han estimado quedarían de la siguiente forma:

32

Page 67: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Dónde: R es la composición lineal:

R = Ti+ H1X1+H2X2+……+ €

Ti, es la constante o intercepto y expresa el valor de la probabilidad de R cuando las variables independientes son cero.

H1, H2, son los coeficientes dependientes e informan cuanto varia la probabilidad de ocurrencia de R ante un cambio de mecanismo de la variable independiente correspondiente, manteniéndose las demás variables aclaratorias invariables.

X1, X2, valores que consiguen adoptar las variables independientes.

€, Representa el termino de error de estimación.

Finalmente se deducen los valores y se estima el o los diseños.

Requisitos y etapas de la regresión logística

Re catalogar las variables independientes ordinales en variables simuladas o supuestas y de la variable dependientes.

Analizar el tiempo, diseño, procedimientos y costo de los coeficientes, sus factores y estadísticas de éxito.

Diseño

Este bosquejo fue concebido en base al análisis que se realizó después del levantamiento de información, normalmente las estructuras de bases de datos deben ser realizadas por un arquitecto de sistemas que en este caso existe. Una vez bosquejada la solución estimada pasó por un proceso de aprobación por parte de la empresa a nivel Gerencial. La Economista Mariana Jácome, gerente de la empresa Servicios Nacionales fue el personaje céntrico que sustentó la nueva estructura entidad relación que se implementaría dentro de la empresa en dificultad.

El estudio del diseño de transformación de datos analiza la estructura funcional de la empresa que es hacia donde se quiere llegar con el diseñador gráfico. Hoy en día las empresas manejan una gran cantidad de datos por lo tanto es muy valioso que una base de datos posea una buena estructura relacional capaz de manejar bien sus transacciones.

No concierne si nuestra base de datos posea sólo 20 registros, o algunos cuantos miles, es importante asegurar que nuestra base de datos esté correctamente diseñada para que tenga eficiencia y que se pueda seguir utilizando por largo tiempo.

Adicionalmente no se puede descartar las consideraciones a tomar en cuenta al hacer el diseño de la base de datos:

La velocidad de acceso,

El tamaño de la información,

33

Page 68: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

El tipo de la información,

Facilidad de acceso a la información,

Facilidad para extraer la información requerida,

El comportamiento del manejador de bases de datos con cada tipo de información.

Para la realización de este proyecto hemos considerado todas las falencias que posee la base de datos actual de la empresa en la que se realizó el estudio, el cual posee varias bases de datos almacenadas de forma aislada de acuerdo a la agencias que posee la empresa, por lo tanto existen distintos formatos en el guardado de la información, claves primarias o foráneas inexistentes permitiendo la existencia de forma repetida incluso entre agencias.

EXTRACCIÓN Y TRANSFORMACIÓN

Objetivo: Desarrollar los procedimientos y scripts de transformación y validación

Actividades: Un análisis preciso permitirá un trabajo eficiente en las siguientes fases. Después de que se conoce que datos migrar, donde conseguirlos y como se mapean en el destino, el siguiente paso es construir los procedimientos necesarios para extraer los datos y transformarlos hacia el formato adecuado.

Durante la fase de desarrollo además de construir los scripts y el código específico de la migración utilizando la herramienta de migración seleccionada se deben enfrentar dos situaciones:

Manejo de irregularidades de datos y excepciones durante la transformación, tales como incompatibilidad de los tipos de datos. Idealmente la herramienta debe generar un reporte de violaciones de integridad e irregularidades, ya que los datos de la fuente deberán ser corregidos por los usuarios finales o el jefe de sistemas de la empresa.

Maximizar la eficiencia del código incrementando el grado de paralelismo y alto desempeño.

GRÁFICO N°. 11

DISEÑO DE TRANSFORMACIÓN DE DATOS

34

Page 69: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Una vez definido el diseño actual en beneficio de la empresa, mediante la herramienta Spoon realizaremos pasos o steps, que se enlazarán entre sí a través de los saltos o hops. Dentro de cada salto fluye la información entre los diferentes pasos, existirán pasos donde se recupere registros de las tablas de la base de datos antigua, y los registros recuperados van a ser transmitidos a los siguientes pasos que incluirán scripts con condicionantes que irán filtrando la data de acuerdo al nuevo diseño requerido como se muestra en la figura a continuación:

GRÁFICO N°. 12

TRANSFORMACIÓN DE DATOS - SPOON

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

En este proceso se llevarán a cabo varios pasos que estarán agrupados por categorías y cada uno de ellos está diseñado para cumplir una función específica.

35

Page 70: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Descripción de la Interfaz de Usuario

Una vez descargada la herramienta (Spoon) es bastante amigable la concordancia con el usuario, existen configuraciones que debe realizarse, como crear la conexión a las bases de datos relacionadas, para esto contiene distintos íconos en los cuales facilita la configuración y creación de scripts para el proceso de la transformación, que entre las opciones más destacadas tenemos:

La pestaña "Árbol Principal" permite ver las conexiones asociadas con los trabajos y transformaciones abiertas.

GRÁFICO N°. 13

LOGO DE BÚSQUEDA DE CONEXIONES

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Dentro de la pestaña "Objetos Principales" contiene los pasos disponibles para construir la transformación (entrada, salida, búsqueda, transformar, uniones, scripting, etc) o el trabajo (general, mail, scripting, etc), dependiendo el caso.

GRÁFICO N°. 14

MUESTRA LOS PASOS DE CONSTRUCCIÓN

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Opciones de la Línea de Comandos

Las opciones que se pueden utilizar al iniciar la aplicación son las siguientes:

36

Page 71: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

file = nombreArchivo

La elección anterior ejecuta la transformación.

Logfile = nombreArchivoAcceso

La opción anterior permite especificar la ubicación del archivo de log que por defecto es la salida estándar.

Level = nivelAcceso

La elección anterior establece el nivel de log para la transformación que se está ejecutando. Los valores posibles son:

CUADRO N°. 1

MENSAJES QUE ARROJA LA HERRAMIENTA

Nothing.- No muestra ninguna salida

Error.- Solamente muestra los errores

Minimal.- Usa logging mínimo

Basic.- Este es el nivel de logging básico por defecto

Detailed.- Da una salida detallada del logging

Debug.- Muestra una salida detallada para propósitos de depuración

Rowlevel.- Logging detallado a nivel de fila. Advertencia: esto genera una pérdida de datos.

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Rep = nombreCatalogo

La opción anterior permite conectar a un catálogo.

User = nombreUsuario

En el párrafo se establece el nombre de usuario con el cual se desea conectar al catálogo:

Pass = password

La elección anterior establece la contraseña utilizada para conectar al catálogo.

Trans = nombreTransformacion

37

Page 72: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Aquí se establece la transformación del catálogo que se desea ejecutar.

Job = nombreTrabajo

La opción anterior establece el trabajo del catálogo que se desea ejecutar.

Es significativo tomar en consideración las siguientes especificaciones:

Los campos en itálica (en cursiva) representan los valores que utilizan las opciones.

Utilizar comillas simples o comillas dobles si hay espacios en los valores de las opciones; las comillas aseguran que los valores de las opciones permanecen juntos.

Catálogo

Spoon permite almacenar los archivos de las Transformaciones y Trabajos en el sistema de archivos local o en un catálogo de Kettle, que puede ser alojado en cualquier base de datos relacional. Para cargar una Transformación o trabajo desde un catálogo de base de datos, debe conectarse a ese catálogo.

La información asociada con el catálogo se almacena en "repositories.xml". Este archivo está ubicado en el directorio oculto ".kettle" por defecto.

/home/<nombreUsuario>/.kettle/ or C:\Documents and Settings\<nombreUsuario>\.kettle

La ruta completa y el nombre del archivo asociado con "repositories.xml" se muestran en la consola de Spoon.

ESTEBAN (2009) Expresa: Pese a las limitaciones actuales, el país dispone del principal recurso para ello: el potencial humano, que unido a los grandes centros de investigación, integrados en polos científicos posibilita el acceso a este campo de la investigación, así como la generación de nuevas tecnologías propias. (pag. 18)

GRÁFICO N°. 15

TRANSFORMACIÓN DE DATOS ENTREDA/SALIDA – SPOON

38

Page 73: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Historia de Licenciamiento

Desde la versión 2.2.0, Spoon fue liberado al dominio público bajo la licencia LGPL.

Spoon es software libre; se puede redistribuir y/o modificar bajo los términos de la GNU Lesser General Public License publicada por la Free Software Foundation; ya sea la versión 2.1 de la Licencia, o (a elección) cualquier versión posterior.

Spoon se distribuye con la esperanza de que será útil, pero sin ninguna garantía; incluso sin la garantía implícita de comercialización o idoneidad para un propósito particular.

Iconos de la Barra de Herramientas

A continuación se detallará un diccionario de los íconos que facultan la herramienta en la barra de tareas de la pantalla principal.

FARREL GE, EGANA E, FERNÁNDEZ F. (2003) Expresa: La conformación de un nuevo escenario socio-económico, basado principalmente en el cambio y en el uso de recursos intangibles como la información, la investigación, los conocimientos y el aprendizaje configura una nueva forma para la gestión de los servicios en aras de un desarrollo sostenible de los pueblos. Cita larga. (pag. 14)

CUADRO N°. 2

BARRAS DE HERRAMIENTAS – SPOON

Icono Descripción Transformación Trabajo

Crea un nuevo Trabajo o Transformación

SI SI

Abre una Transformación/Trabajo desde un archivo si no está conectado a un Catálogo o desde el Catálogo si se está conectado a uno.

SI SI

Guarda la Transformación/Trabajo en un archivo o en el Catálogo.

SI SI

39

Page 74: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Guarda la Transformación/Trabajo con un nombre diferente y/o en diferente lugar.

SI SI

Ejecuta la Transformación/Trabajo actual desde el archivo XML o Catálogo.

SI SI

Pone en pausa la ejecución de la actual Transformación.

SI NO

Detiene la ejecución de la actual Transformación/Trabajo.

SI SI

Vista previa de la Transformación: ejecuta la Transformación actual desde la memoria. Puede obtener una vista previa de las filas generadas por los pasos seleccionados.

SI NO

Ejecuta la Transformación en el modo de depuración, lo cual permite detectar problemas y/o errores en la ejecución.

SI NO

Repite el procesamiento de una Transformación para una determinada fecha y hora. Esto hará que algunos pasos (entrada archivo de texto y entrada Excel) sólo procesen las filas que no fueron interpretadas correctamente durante la ejecución en una fecha y hora en particular.

SI NO

Verifica la Transformación: Spoon ejecuta varias pruebas para cada paso para ver si todo va a funcionar como debería.

SI NO

Ejecuta un análisis de impacto: analiza qué impacto tendrá la Transformación sobre las bases de datos utilizadas.

SI NO

Genera el SQL necesario para ejecutar la actual Transformación/Trabajo.

SI SI

40

Page 75: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Abre el explorador de bases de datos y permite realizar una vista previa de los datos, ejecutar las consultas SQL, generar DDL (Lenguaje de Definición de Datos), etc.

SI SI

/ Muestra u oculta el panel de resultados de la ejecución de la Transformación/Trabajo.

SI SI

Representa el tamaño de visualización (en porcentaje) del área de trabajo.

SI SI

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Configurar Variables de Entorno

Para configurar las variables de entorno que se utilizarán, se debe seleccionar en la barra de menú: Editar -> Establecer Variables de Entorno.

GRÁFICO N°. 16

CONFIGURACIÓN VARIABLES DE ENTORNO

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

En este caso se crearon dos variables de entorno, con sus respectivos valores, que serán utilizados en un paso de envío de mail.

Los valores asociados a las variables de entorno deben definirse a través de "Editar -> Establecer Variables de Entorno" se perderán al reiniciar Spoon. Para que esto no suceda y por cuestiones de integridad, es buena práctica configurar las variables de entorno en el archivo kettle.properties, que se encuentra en:

41

Page 76: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

GNU/Linux: home/<nombreUsuario>/.kettle/

Window$: C:\Documents and Settings\<nombreUsuario>\ .kettle\

Para crear las variables en este archivo, debe realizarse de la siguiente manera:

nombreVariable = valor

En este caso sería simplemente añadir al final del archivo las siguientes líneas

mail.puerto.gmail = 465

mail.server.gmail = smtp.gmail.com

En todo momento se pueden ver los valores que poseen las variables de entorno, a través de la siguiente opción: Editar -> Mostrar Variables de Entorno.Tal y como puede observarse estas variables son utilizadas en la sesión del usuario actual.

Si se configura un Trabajo o Transformación para guardar la información de log en una tabla de una base de datos, se puede ver la información de log de ejecuciones previas al hacer clic derecho en el Trabajo o Transformación en el Árbol Principal.

La característica “repetir” permite volver a ejecutar una Transformación que ha fallado. Repetir se implementa funcionalmente para "Entrada Archivo de Texto" y "Salida Excel".

Permite enviar los archivos que contenían errores de nuevo a la fuente y que se corrijan los datos. En casos donde se tiene una tabla destino fija, se puede mapear los campos del flujo de datos actual a los correspondientes campos de la tabla destino.

Esto puede hacerse desde una Transformación seleccionando en el paso "Selecciona/Renombra Valores" la opción "Editar Mapeo":

GRÁFICO N°. 17

MAPEO DE FLOJOS EN DATOS ACTUALES

42

Page 77: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Bases de Datos no soportadas

Unos pocos tipos de bases de datos no están soportados en esta versión debido a la falta de una muestra de la base de datos y/o el software.En general, se puede leer desde bases de datos no soportadas utilizando el controlador de base de datos Generic a través de una conexión ODBC o JDBC.

Limitaciones

El "Editor SQL simple" no reconoce los dialectos de todas las bases de datos soportadas. Esto significa que crear procedimientos almacenados, disparadores, y otros objetos específicos de base de datos pueden plantear problemas. En estos casos se debe considerar el uso de las herramientas que vienen con la base de datos.

Validación

Objetivo: Validación de datos en un repositorio de preparación.

Actividades: Una vez se tiene listo el mapeo el siguiente paso es chequear si los datos cumplen las validaciones del sistema destino, incluyendo reglas de negocio, restricciones de semántica o sintácticas. Estas actividades se la pueden realizar con la misma herramienta Spoon de tal manera que el resultado de esta fase es un conjunto de procedimientos o scripts a través de

43

Page 78: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

los cuales se realizarán las validaciones mencionadas. En este punto hay que considerar que el repositorio al que se aplica las validaciones de negocio, puede ser un repositorio temporal donde se almacenan los datos recibidos de la fuente con el fin de pasarlos luego de estas validaciones al esquema definitivo

Pruebas y cargue

Objetivo: Ejecutar los scripts o el código generados en la fase de desarrollo de la migración, enmarcándolos en un contexto de semántica del negocio que permita resolver los problemas lógicos así como los errores físicos.

Actividades: En la fase de pruebas del usuario se identifican y resuelven los errores lógicos. El primer paso es ejecutar los mapas. Así los mapas se ejecuten correctamente hay que identificar:

El número de registros que se espera que el script cree.

Si efectivamente ese número de registros se crearon, si no verificar el por qué no fue así.

Si los datos fueron cargados en los campos correctos.

Si el formato de los datos fue el adecuado.

Si el sistema destino permite limpiar los datos cargados si la carga no fue satisfactoria y existe el procedimiento para hacerlo, mediante el uso de la capa intermedia de transformación. El objeto es asegurar que la migración está correcta antes de poblar el sistema destino.

Pruebas del usuario

En estas pruebas los aspectos a tener en cuenta son:

Verificar que la información fue convertida en el formato correcto y transferida al campo especificado mediante el uso de cifras de control sobre los campos significativos entre el anterior y el nuevo, estableciendo una muestra estadística sobre el universo de datos convertidos y transferidos.

Los datos convertidos de forma automática deben ser formalmente verificados por los usuarios y el jefe de sistemas.

FUNDAMENTACIÓN LEGAL

En la “Estrategia para la Implantación de Software Libre en la Administración Pública Central”, el Presidente Constitucional de la República del Ecuador, Economista Rafael Correa Delgado emitió el Decreto Presidencial No. 1014 con fecha 10 de Abril del 2008, en el cual establece el uso del Software Libre.

De esta manera, en el Ecuador el Software Libre se convierte en una política tecnológica, en dónde el código abierto, las licencias de uso libre, el uso de estándares abiertos y el trabajo

44

Page 79: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

comunitario, facilitan la inclusión digital, la soberanía tecnológica y la innovación local, optimizando el gasto estatal, favoreciendo el desarrollo local y promoviendo la integración regional. La Subsecretaría de Informática de la Presidencia de la República, creada mediante el Acuerdo No. 119 el 1 de agosto del 2007, tiene entre sus atribuciones y responsabilidades elaborar y ejecutar planes, programas, proyectos, estrategias, políticas y reglamentos para el uso de Software Libre en las dependencias del gobierno central.

Como secundario en la REGLAMENTACIÓN DEL CURSO DE GRADUACIÓN la cual en su artículo 31 cita que La ley de sustentación consistirá en la defensa del proyecto, atendiendo a las preguntas que realicen los miembros del Tribunal. Las preguntas versarán sobre temas específicos del mismo.

Art. 1.- Los objetivos de la investigación en la Universidad de Guayaquil están concebidos como parte de un proceso de enseñanza único, de carácter docente-investigativo, orientado según norma el Estatuto Orgánico, para permitir el conocimiento de la realidad nacional y la creación de ciencia solución a los problemas del y tecnología, capaces de dar país. Las investigaciones dirigidas a la comunidad tienen por finalidad estimular las manifestaciones de la cultura popular, mejorar las condiciones intelectuales de los sectores que no han tenido acceso a la educación superior; la orientación del pueblo frente a los problemas que lo afectan; y la prestación de servicios, asesoría técnica y colaboración en los planes y proyectos destinados a mejorar las condiciones de vida de la comunidad.

Art. 2.- En tanto la actividad de investigación es una función de alta prioridad, consustancial a la misión de la universidad, sobre ella ejercen dirección, control, y responsabilidad decisoria, los máximos órganos de gobierno, y sus estrategias y planes deberán ser aprobados por la Comisión Académica y el Consejo Universitario.

Art. 3.- La actividad de investigación científica y tecnológica es un área de responsabilidad del Vicerrectorado Académico de la Universidad de Guayaquil, cuyo órgano operativo es la Investigación y Desarrollo de dicha Unidad de Posgrado, y se conforma de: una comisión asesora del Vicerrectorado Académico: la Comisión de Investigación y, una unidad de gerencia de ciencia, subordinada a la unidad de Posgrado, Investigación y Desarrollo: La Dirección de Investigación y Proyectos Académicos.

Art. 11.- La Dirección de Investigación y Proyectos Académicos, en tanto instancia de dirección operativa de la Unidad de Posgrado, Investigación y Desarrollo, es responsable de coordinar, sistematizar y administrar el investigación científica en la proceso de desarrollo de la Universidad de Guayaquil, la participación en redes nacionales e internacionales de bibliotecas virtuales y consorcios o redes internacionales de universidades. Estará a cargo del director (a) y contará con una coordinación académica y un equipo de documentación e informática.

Art. 12.- Sus atribuciones y funciones son las siguientes:

a) Representar al Vicerrectorado Académico, a la Unidad de Posgrado, Investigación y Desarrollo, y a la comunidad académica y científica de la Universidad de Guayaquil, a los efectos de coordinación y relacionamiento con la Secretaría Nacional de Ciencia y Técnica, la

45

Page 80: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Comisión para la Investigación Científica y Tecnológica y otras agencias e instituciones públicas y privadas que trabajan en la esfera de la competencia de esta Dirección.

b) Coordinar junto a la Comisión de Investigación, el trabajo de conformación del Plan Estratégico de Ciencia y Tecnología de la Universidad de Guayaquil, y someterlo a la aprobación de la Comisión Académica y del Consejo Universitario.

c) Coordinar y realizar el seguimiento del Plan Estratégico de la Universidad de Guayaquil.

d) Elaborar el Plan Operativo Anual de Investigación de la Universidad y las correspondientes evaluaciones trimestrales.

e) Coordinar la aprobación por la Comisión de Investigación, de los Planes Estratégicos de Ciencia y Tecnología de cada una de las facultades e institutos.

f) Formular y someter a aprobación de la Comisión Académica los reglamentos para la actividad científica.

g) Evaluar el cumplimiento de los Planes Operativos de Ciencia y Tecnología de cada una de las facultades y unidades académicas.

h) Desarrollar acciones de promoción, financiamiento, capacitación y marketing, en apoyo a la ejecución de los planes, políticas y líneas de investigación aprobadas por las autoridades y órganos de competencia.

i) Convocar el Fondo Competitivo de Investigaciones, previa autorización de la Comisión de Investigación y la Comisión Académica, administrar los fondos y evaluar los proyectos asociados al FCI.

j) Convocar las comisiones temporales integradas por la Comisión de Investigación y la Comisión Académica, para la revisión, evaluación, selección y aprobación de proyectos presentados al FCI.

k) Implementar programas continuos de capacitación, para elevar el nivel profesional de los especialistas y coordinadores de la actividad científico investigativa en el perfil de gerencia de ciencia, y en la evaluación y monitoreo de proyectos de ciencia y tecnología.

l) Promover programas continuos de capacitación para elevar el nivel profesional de los Profesores (as) e Investigadores (as).

m) Organizar concursos y proponer a la Comisión Académica el otorgamiento de reconocimientos a los Profesores (as) e Investigadores (as), y autores de Tesis de grado, maestría y doctorado, con destacados resultados en la investigación e introducción de sus obras en bien de la comunidad universitaria, la región y el país.

n) Establecer nexos de colaboración mutua con otros organismos de investigación y desarrollo., nacional e internacional.

p) Gestionar y divulgar oportunidades de colaboración nacional e internacional, de Financiamiento y capacitación en el campo de la ciencia y tecnología.

46

Page 81: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

q) Proteger la producción de los investigadores con la gestión del derecho de autor y la propiedad intelectual, y la difusión oportuna de la legislación vigente.

r) Coordinar con el Centro de Transferencia y Desarrollo de Tecnologías de la Universidad de Guayaquil (CTT-UG), la labor de estímulo a la investigación científica y tecnológica que debe realizar esta institución, así como su planes de canalización de las demandas de investigación, introducción de resultados científicos, promoción y Capacitación para lograr multiplicar las fortalezas de la universidad, evitar duplicidad de acciones y alcanzar una más profunda inserción en la solución de los problemas concretos que demanda el desarrollo de la región y el país.

s) Racionalizar el uso de los recursos destinados a la investigación y obtener fuentes de financiamiento externo

t) Informar periódicamente de las acciones realizadas a la Dirección de la Unidad de Postgrado, Investigación y Desarrollo, Vicerrectorado Académico y Rectorado.

u) Desarrollar el talento científico y la formación de investigadores en la educación de pregrado a través de becarios en preparación de tesis de grado.

Art. 18.- La Investigación en la Universidad de Guayaquil, estará orientada por el Plan Estratégico de Ciencia y Tecnología a elaborarse cada cinco años en concordancia con la Política Nacional de Ciencia, Tecnología e Innovación de la Secretaría Nacional de Ciencia y Técnica, y las Políticas de Ciencia y Tecnología del CONESUP, en el marco de una propuesta de la Universidad para el desarrollo local, regional y nacional.

HIPÓTESIS O PREGUNTAS A OBJETAR.

¿Cómo un Diseño de Transformación de Datos utilizando la Herramienta Spoon de Pentaho puede migrar varias bases de datos subsanando la data inconsistente?

CUADRO N°. 3

VARIABLES DEL ESTUDIO

47

HIPÓTESIS

¿Cómo un diseño de Transformación de Datos utilizando la herramienta Spoon de Pentaho puede migrar varias bases de datos subsanando la data inconsistente?

Variables Independientes

- Inconsistencia de los datos

Variable Dependiente.

- Multas por retrasos en la entrega de la Información.

Page 82: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Variable Dependiente.

Gastos operativos de la empresa y observaciones por retrasos de Balance hacia los entes de control: El objetivo del actual diseño de transformación es prescindir de los gastos operativos que se han ido presentando y de observaciones o llamados de atención por incumplimiento en los tiempos de entrega de balances hacia los entes de control, esto favorecería a la empresa tanto el su utilidad como en su crecimiento. Beneficiándonos de la herramienta Spoon que es de código abierto, útil para trasladar información desde un repositorio a otro y para tal objeto la transformación de datos nos permite demostrar que no es necesario desgastarse en horas de trabajo, costos altos para la empresa, riesgos de data perdida, funcionalidad óptima en los procesos que destacan a la herramienta Spoon como la mejor alternativa.

Variables independientes.

Inconsistencia de los datos: Desde el punto de vista de la administración podemos resumir que el 60% de la data a nivel nacional se encuentra inconsistente y esto repercute a gran escala a la empresa, ya sea al momento de reportar la información detallada así como también al área de cobranzas para realizar su trabajo de forma exitosa y recuperar la cartera vencida.

Falta de capacitación a los empleados: Para obtener una idea más clara del estudio que se va a realizar se analizaron varios motivos por el cual la data estaba mal ingresada., esto se debe a la falta de capacitación a los empleados, adicionalmente al repositorio decadente que poseen.

RUIZ (2003) Expresa: “La formación de recursos humanos con capacidades de aprendizaje, investigación, creatividad y una sólida formación socio humanista que les permita elegir con sencillez y sensibilidad la tecnología en beneficio del hombre y la naturaleza”. (pag. 8)

48

Page 83: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

CAPÍTULO III

METODOLOGÍA

CAPITULO III - METODOLOGIA

DISEÑO DEL ESTUDIO

MODALIDAD DEL DISEÑO DE TRANSFORMACIÓN

La modalidad a la que mejor se adecúa nuestro estudio de diseño es a la de propósito realizable por qué es factible la utilización de la herramienta ya que está libre de licenciamiento y es aplicable a cualquier migración de base de datos.

10%: Bibliografía.

10%: Campo “Entrevistas y Encuestas”.

30%: Creatividad Técnica “Instauración de scripts como filtros para el traspaso”.

50%: Software Open Source “Transformación de Datos”.

TIPO DE ESTUDIO

Por los objetivos.- Estudio básico, creación de la nueva estructura de datos relacional diseñado bajo el análisis de la transformación requerida por la empresa que nos permitan representar el inconveniente.

Por el Territorio.- De campo, el estudio debe originar conocimientos y enriquecerse mediante entrevistas a personas especializadas en el campo de la administración de base de datos.

Por el ambiente.- Para la toma de decisiones, el estudio debe comparar y plantear alternativas de solución para demostrar la hipótesis.

Por la trayectoria.- Empírico, predice lo que ocurre, el díselo de transformación de datos que se aplica para el estudio debe catalogar según el tamaño de la base de datos, la medición de las transacciones y la falta de personal a las agencias.

Por la factibilidad.- Proyecto realizable, se propondrá un diseño de transformación de datos práctico que tendrá la capacidad de migrar la información desde un repositorio a otro sin tener riesgos de perdida de data y como resultado nos arrojara la probabilidad que tiene la herramienta al realizar la transformación con éxito.

POBLACIÓN Y MUESTRA

Población:

El análisis elaborado para este estudio se lo realizó en la empresa Servicios Nacionales que tiene como sede principal Guayaquil, con sucursales en:

Manabí

49

Page 84: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

El Oro

Azuay

Tulcán y

Esmeraldas

Cabe mencionar que en todas las sucursales incluyendo matriz se tienen errores, los cuales provocan problemas de diferente índole, que afectan la productividad y eficiencia de la institución.

Muestra:

Para el análisis de la problemática existente en la empresa Servicios Nacionales, hemos considerado calcularlo mediante dos métodos matemáticos: Uno en el que calcularemos el tamaño de la muestra considerando el “Error de Estimación”, de la misma manera utilizaremos el segundo mecanismo para la validación del calculado de la muestra del primer mecanismo, el cual describimos a continuación:

CUADRO N°. 4.

Datos Obtenidos de la Empresa

POBLACIÓN N

Manabí 180

Otras agencias 320

TOTAL 500

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Se aplica la fórmula:

n= P .Q .∗N(N−1 )E2 /K2+P .Q

50

n: Tamaño de muestra PQ: Varianza =0.25

N: Población

E: Margen de error

Page 85: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

EL TAMAÑO DE LA MUESTRA

Dado a que la muestra seleccionada representa un 35,76% en relación a la población, se realizó un segundo análisis que se fundamentó al mayor número de incidencias a nivel de la base de datos, cuya referencia nos servirá para realizar las encuestas.

CUADRO N°. 5

Estimación de Porcentaje

51

n= P .Q .N(N−1 )E2 /K2+P .Q

n= me2 (m−1)+1

n=500(0 .06 )2(500−1 )+1

n=500(0 .0036 )(499)+1

n=5001.7964+1

n=5002.7964

n=178.80

PRIMER MÉTODO

n=0 .50 x 0. 50 x500(500−1)0 .062/22+0. 50 x0 . 50

n=125( 499)(0 . 0036) /4+0 . 25

n=125( 499)(0 . 0009)+0 . 25

n=1250 . 4491+0 .25

n=1250 .6991

n=178. 80

SEGUNDO MÉTODO

Cálculo de la fracción muestral:

f= nN

=178.80500

=0 . 3576

P = Probabilidad de éxito (0.50)

Q = Probabilidad de fracaso (0.50)

N= Tamaño de la población (500)

E= error de estimación (6%)

m= Tamaño de la población (500)

E= error de estimación (6%)

n = Tamaño de la muestra (180)

Agencias Población Porcentaje

Manabí 180 0.36 %

Matriz 120 0.24 %

Otras Agencias 190 0.38 %

Page 86: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

DELARBRE (2009) Expresa: “En la sociedad de la información (SI) ya no se aprende para la vida; se aprende toda la vida”. (pag. 10)

Luego de tener el porcentaje de la muestra de cada agencia se consideró validar la data de esa muestra para certificar su contenido, en todas las agencias se encontraron los mismos tipos de errores pero con mayor afluencia en la sucursal Manabí, ya que es la única agencia que posee servicio de puerta a puerta. Por tanto se decidió tomar la sucursal Manabí para nuestro estudio.

OPERACIONALIZACIÓN DE LAS VARIABLES

CUADRO DE VARIABLES

CUADRO N°. 6

MATRIZ DE OPERACIONALIZACIÓN DE VARIABLES

Variables Dimensiones Indicadores Técnicas y/o Instrumentos

Independientes.

Variables Dicotómicas

(Inconsistencia de los Datos).

Evaluación: Empresa Servicios Nacionales.

Comprensión formulario en un 60%

Interés del

Manual Básico SPSS ( cil.utalca.cl/docs/ estudios/Manual Basico SPSS.pdf)

52

Page 87: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Variables Categóricas (Falta de Capacitación a los empleados)

entrevistado 50%

Unidad de Información de la Carrera.

Registro de Usuarios matutino 100%

Synapsis Ltda. Diseño, desarrollo e implantación del sistema de información misional de la Procuraduría General de la Nación. Plan de Pruebas. Propuestas

Dependientes

Variables de Control (Gastos operativos de la empresa y observaciones por retrasos de Balance hacia los entes de Control).

Diseño Metodología Consulta a expertos.

Calidad de la investigación

Se usaron entrevistas y encuestas para englobar el problema.

Cuestionarios, entrevistas, test, conversatorios.

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

TIPOS DE INVESTIGACION

Se realizó un piloto de recaudación de datos basado principalmente en entrevistas y encuestas en el cual se puntualizan las etapas que se llevaron a cabo para organizar los datos en estudio. Al instante de recopilar datos se aplicó el software SPSS, para el mejor proceso de los datos. Se discurre que la técnica establecida que se utilizó es de campo.

CUADRO N°. 7

DIAGRAMA DE LA TÉCNICA UTILIZADA

53

Page 88: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

EN EL ESTUDIO

La técnica principal del estudio que se está realizando es la entrevista y basado en los datos que se obtengan se realizarán las encuestas, como se lo explica a continuación, los datos serán analizados por el software SPSS (Paquete estadístico potente y fiable) que servirá para el análisis estadístico y nos ayudará a exponer el estudio del diseño de transformación de datos.

LOS UTENSILIOS

Técnica Instrumento

Entrevista Guion de Entrevista

Encuesta Cuestionario

54

Diseño de Recaudación de Datos. (Objetivos, medios, formatos y tamaños de muestra)

Elaboración de Encuestas

Procreación de sucesos críticos

Diseñar Estructura Requerida por el Negocio

Especificar estructura de BDD a ser migrada y formato de presentación.

Evaluación de Incidentes Críticos

Page 89: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

INSTRUMENTOS DE RECOLECCIÓN DE DATOS

Se utilizaran entrevistas y encuestas.

Entrevistas.- Se consultó a varios expertos en administración e base de datos sobre el problema que causa la inconsistencia de los datos en los repositorios de las empresas para recolectar información.

Encuestas.- Se realizó un cuestionario fácil de entender y sobre todo que represente el problema.

Los resultados de las entrevistas fueron comparados con artículos de internet y sobre todo las respuestas fueron validadas por expertos.

Se efectuó el tipo de observación simple y participante.

Entrevistas; Cuestionarios y Encuestas.

Los Instrumentos de investigación fueron:

Libros e Internet.

PROCESAMIENTO DE LA INFORMACIÓN

EN EL PROYECTO

Se efectuaran la mayor cantidad de entrevistas y encuestas posibles con el objetivo de medir el problema y dar la solución óptima para la solución del problema.

Se indagara encontrar posibles formas o circunstancias en las cuales se filtre la información inconsistente en la base de datos de forma directa y se medirá el porcentaje de efecto que tienen los periféricos al no funcionar de la manera óptima en el mundo real.

RECOLECCIÓN DE LA INFORMACIÓN

ENTREVISTA A DBA’S

Preguntas claves sobre la importancia de los datos confiables en la base

1.- ¿La falta de Capacitación es indicativo del mal ingreso de datos por parte de los usuarios?

“Si, ya que el ingreso de la información en los distintos sistemas no siempre son las mismas y los usuarios suelen ingresar los datos a su elección“

2.- ¿Qué indicios son muestras de que una base de datos se encuentre inconsistente?

“Por lo general los síntomas más comunes se presentan cuando se repiten innecesariamente los datos en los archivos que conforman la base de datos y esto se debe a un grupo de factores que en su mayoría van asociados al ingreso de los datos desde algún aplicativo mal diseñado, al tipo de dato que le creemos a los campos de la base, a las longitudes, columnas, etc. Muchas

55

Page 90: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

veces este tipo de errores no causan molestia en el performance de la base, pero si al usuario final o a la gestión del servicio dependiendo del giro del negocio.”

3.- ¿La carencia de un Manual de Usuario provoca un alto porcentaje de inconsistencia de los datos?

“Si, en varias empresas no se camacita al personal por falta de tiempo y solo recibe una inducción sencilla que suele darse por la persona que renuncia, pero esta capacitación no siempre es entendida por tanto un empleado debe ser dotado por un Manual de Usuario con el que pueda acudir en casos de tener duda.”

4.- ¿Cuál es la causa principal de tener datos errados en la base?

“La causa principal se da por el mal ingreso de la información por parte del usuario y por la mala arquitectura que posee el software al permitir ese mal ingreso.”

5.- ¿Qué bases de datos están más propensas a tener inconsistencias?

“Por lo general los sistemas que poseen vulnerabilidades a nivel de estructuras, tipos de datos, ingresos sin validaciones son las más propensas a tener inconsistencias, dado que estas falencias permiten el ingreso de la información de forma desigual por tanto el usuario puede ingresarla descomunalmente sin que el sistema no se le permita.

6.- ¿Existe algún método para detectar con anticipación las falencias que pueda poseer un sistema en cuanto al ingreso de los datos?

“De hecho se la puede detectar en el ambiente de TEST o prueba, una vez que el proveedor entrega el software a ser implementado debe probarse todo el manual tanto técnico como de usuario con el fin de detectar problemas mucho antes de ponerlo en Producción y esto por lo general toma de una a dos semanas dependiendo de la complejidad del sistema.”

7.- ¿Qué tipo de base de datos es recomendable para una mediana empresa?

“Lo primero que debemos analizar es la transaccionalidad de la empresa, la cantidad de datos que va almacenar, el presupuesto asignado a gastar y el nivel de seguridad que necesitemos poseer. Para este proyecto se recomendó PostgreSql, ya que es una base de datos segura, confiable y sin costo de licenciamiento.”

LA ENCUESTA

CONTENIDOS.

Servicios Nacionales (Fue dirigida hacia los servicios funerales que ofrece esta institución).

Estudio del Diseño de Transformación de Datos utilizando la Herramienta Spoon de Pentaho Open Source Business Intelligence sobre Plataforma Linux.

ENCUESTA SOBRE EL TIPO DE RECLAMOS DE LOS CLIENTES

56

Page 91: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

1. Marque los tipos de reclamos que ha percibido, en caso de tenerlos.

___ Datos errados ___ Pagos inexistentes en el Sistema

___ Información duplicada ___ Inventario desactualizado

___ Lentitud del Sistema ___ Mala Cobranza

2. Datos Relevantes.

Edad _________ Hermanos _________ Hijos ___________

3. ¿Realiza pagos en las agencias? Si ___ No ___

¿Con qué frecuencia?

___ Una vez a la semana ___ Dos veces por semana

___Una vez al mes ___ Nunca

4. ¿Empleados de la empresa van a cobrar a su casa? Si___ No___

¿Con qué frecuencia?

___ Una vez a la semana ___ Dos veces por semana

___Una vez al mes ___ Nunca

5. Cuando realiza sus pagos, le solicitan actualizar sus datos? Si ___ No___

¿Con qué frecuencia?

___ Mensualmente ___ Raras veces

___ Casi siempre ___ Siempre

6. ¿Ha realizado algún tipo de reclamo por mal ingreso de sus pagos?

___ Siempre ___ A veces

___ Casi siempre ___ Nunca

7. ¿Sabe usted de algún caso de fraude por pagos realizados en agencias?

Si ___ No ___

8. Detalle el tipo de fraude

___________________________________________________________________

9.- Sexo:

Masculino: ____ Femenino: ____

57

Page 92: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

VALIDACIÓN

El trabajo fue revisado por expertos en el área de base de datos, como también en el campo de la arquitectura en diseño de software.

El diseño de la transformación de los datos fue validado probando que los resultados guarden coherencia con los datos de la muestra.

PROCEDIMIENTOS DE LA INVESTIGACIÓN

Demostrar que la herramienta Open Source “Spoon de Pentaho” sirve para transformar los datos desde una base de datos a otra y lo hace de forma fácil, rápida y segura, ahorrando costos hacia la empresa.

Elaboración del modelo entidad relación de los datos.

Entrevista a expertos, en el campo de la informática para aterrizar el estudio de la transformación de los datos.

Realizar el formulario de preguntas.

Realizar el formulario a la muestra.

Realizar scripts que permitan el filtrado de los datos como técnica para representar la transformación de manera íntegra.

Formulación del diseño de transformación.

Validación del diseño de transformación.

Representación del diseño que modele el problema.

Recolección de la información.

Los datos alcanzados para este estudio florecieron mediante la observación directa, ya que valieron para la corrección y mejora de los procesos actuales que poseía la empresa Servicios Nacionales tanto con los clientes como para control interno de los mismos y así tomar los correctivos necesarios para una mejora organizacional.

Formalmente este tema de investigación se lo realizó en la empresa privada Servicios Nacionales, se solicitó la autorización de los responsables departamentales para realizar las encuestas y las entrevistas.

1.- Se elaboró un modelo de recolección de datos.

2.- Para recolectar los datos se realizaran entrevistas y encuestas.

3.- Para las cuales usamos un modelo de regresión logística, y gracias a este modelo le pudimos dar un tratamiento adecuado a los datos.

PROCESAMIENTO Y ANÁLISIS

58

Page 93: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Se creó una base de datos para pruebas en un servidor virtual Suse Linux 12.1, para simular la migración y se efectuó el procesamiento de la información por medio de modelos determinísticos y para su análisis hemos considerado métodos estadísticos.

Una vez realizado el levantamiento de información a través de los cuestionarios descritos, comienza una fase esencial para nuestra investigación, me refiero a la clasificación o agrupación de los datos referentes a cada variable objetivo de estudio y su presentación conjunta. Hemos seguido cuatro pasos para el análisis de los datos.

Validación y Edición

Codificación

Introducción de datos

Tabulación y análisis estadísticos.

VALIDACIÓN

Es el proceso de verificar que las entrevistas se hayan hecho de acuerdo a lo establecido.La meta de la validación es exclusivamente detectar un fraude o una falla del entrevistador en seguir las instrucciones claves.

En nuestra entrevista, se explotó todos los conocimientos del jefe de sistemas de esa institución y tratamos de aclarar todas las dudas acerca de la mala arquitectura del sistema anterior, para poder darle el tratamiento más óptimo a los datos.

EDICIÓN

Implica verificar los errores del entrevistado. El proceso de edición para las encuestas por escrito implica una verificación manual de varios problemas, incluyendo los siguientes:

Si el entrevistado no registro las respuestas a ciertas preguntas.

Si el entrevistado comprendió de qué se trataba la encuesta.

CODIFICACIÓNSe refiere al proceso de agrupar o asignar los códigos numéricos a las varias respuestas, la mayoría de las preguntas de las entrevistas son cerradas y están pre-codificadas.

PROCESO DE CODIFICACIÓN

Luego de haber realizado la recolección de la información, la tabulación de estos datos es un factor importante que permitirá reflejar a través de porcentajes la situación actual del entorno en donde se desenvuelve nuestra población.

La tabulación se desarrolló a través de un conteo manual de cada una de las preguntas contestadas por los clientes. Donde se obtuvo como resultado los datos y gráficos estadísticos que se detallan a continuación:

59

Page 94: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

ANÁLISIS DE RESULTADOS

Para la tabulación de los datos se utilizó un cuadro haciendo un análisis individual por cada pregunta y una representación gráfica de los mismos, su cuantificación se realizó con el estadístico porcentaje cuya fórmula es:

%= F∗100N

% = Tanto por ciento que se encuentra en el total del estudio.

F = Número de veces que se repite el dato.

100 = Constante de la muestra

N = Total de Datos.

RUIZ (2003) Expresa: “La formación de recursos humanos con capacidades de aprendizaje, investigación, creatividad y una sólida formación socio humanista que les permita elegir con sencillez y sensibilidad la tecnología en beneficio del hombre y la naturaleza”. (pag. 8)

EL CUESTIONARIO

Pregunta 1:

1.- ¿Han recibido algún curso donde se los capacite en cuanto al manejo de Access?

CUADRO N°. 8

HA RECIBIDO CURSOS DE CAPACITACIÒN

DATOS UNIDADES PORCENTAJE

Si 72 3,8

No 108 96,2

Total 180 100%

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

GRÁFICO N°. 18

Tabla de Cuestionario Capacitación

60

Page 95: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Interpretación de Resultados: El 96% de usuarios encuestados no han recibido curso de capacitación de la herramientas Access.

Se debe invertir en el recurso humano ¿para qué? Son preguntas latentes e invalorables todavía de parte de la población y de algún sector empresarial, porque piensan en la utilidad y no en la productividad, por ello es bueno recordar que la “educación “no es otra cosa que una inversión.

2.- ¿Usted desearía que las ventas y pagos de las diferentes agencias se puedan verificar o validar con datos actuales desde el sistema?

CUADRO N°. 9

DESEA QUE LAS TRANSACCIONES SE VALIDEN DESDE EL SISTEMA

DATOS UNIDADES PORCENTAJE

No 10.8 6

Si 169.20 94

Total 180 100%

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

61

4%

96%

Ha recibido cursos de capacitación

No Sí

GRÁFICO N°. 19 Tabla de Cuestionario Ventas y Pagos

Page 96: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

6%

94%

Desearía que las ventas y pagos de las diferentes agencias Se puedan validar desde el sistema

No Si

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Interpretación de Resultados: El 94% de los informantes desean que las ventas y pagos de las diferentes agencias puedan ser verificadas desde el sistema.

Normalmente los aplicativos trabajan en línea ya sea en las diferentes agencias conectados a un servidor principal donde se configura en envío de paquetes en un determinado tiempo de diferencia en al cual se va actualizando la información, y así disminuir el riesgo de inseguridad o incongruencia de los datos almacenados.

3.- ¿Desearía poder revisar el inventario actual de las diferentes agencias?

CUADRO N°. 10

INVENTARIO ACTUAL DE LAS DIFERENTES AGENCIAS

DATOS UNIDADES PORCENTAJE

No 5.4 3

Si 174.6 97

Total 180 100%

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

62

Page 97: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

3%

97%

Poder ver el inventario Actual de las diferentes agencias

No Si

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Interpretación de Resultados: EL 97% de los encuestados desean poder revisar y tener actualizado el inventario de las diferentes agencias.

Las conexiones entre agencias hacia un servidor principal logran que aquello de ir actualizando el inventario de todas las agencias, ya que por medio de paquetes desarrollados en la base, logren mantener actualizada la información.

4.- ¿Cree usted que al registrar un pago o una venta, el sistema debe tener ciertas seguridades adicionales como ‘el ingreso de la clave de un Supervisor’?

CUADRO N°. 11

SEGURIDADES EN REGISTRO DE TRANSACCIONES

DATOS UNIDADES PORCENTAJE

Si 7.2 4

No 172.80 96

Total 180 100%

Elaboración: Johanna Hernández Velasco

63

GRÁFICO N°. 20 Tabla de Cuestionario Inventario

Page 98: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

4%

96%

Seguridades adicionales al registrar un pago o una venta en el sistema

No Si

Fuente: Servicios Nacionales

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Interpretación de Resultados: EL 96% de los informantes no están de acuerdo que sea necesaria la clave o la autorización del supervisor en el caso de realizar una venta o un pago desde el sistema.

Es importante tener en cuenta que la idea de realizar este tipo de seguridades adicionales es con el fin de minimizar posibles estafas o riesgos de perdida de dinero.

5.- ¿Cree usted necesario que Servicios Nacionales adquiera tecnología de punta en donde se pueda garantizar las transacciones e información de los clientes?

CUADRO N°. 12

GARANTIZAR LA INVIOLABILIDAD DE SUS DATOS

DATOS FRECUENCIA PORCENTAJE

No 7.20 4

Si 172.80 96

Total 180 100%

Elaboración: Johanna Hernández Velasco

64

GRÁFICO N°. 21 Tabla de Cuestionario Seguridades

Page 99: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

4%

96%

Garantizar las transacciones e información de Clientes

No Si

Fuente: Servicios Nacionales

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Interpretación de Resultados: EL 96% de los informantes están de acuerdo que Servicios Nacionales adquieran tecnología de punta para garantizar las transacciones e información de sus clientes.

Es importante tener en cuenta que la idea de tecnología de punta refiere a lo más avanzado que existe en un determinado momento. Con el avance del tiempo, los productos dejan de ser innovadores y se vuelven obsoletos, siendo reemplazados por otros. Estos nuevos productos son los que contarán, por un tiempo, con la denominación de tecnología de punta.

6.- ¿Está usted de acuerdo que Servicios Nacionales al adquirir tecnología de punta usted sea capacitado en las mismas?

CUADRO N°. 13

TECNOLOGÍA DE PUNTA PARA SER CAPACITADO

DATOS FRECUENCIA PORCENTAJE

No 9 5

Si 171 95,2

Total 180 100%

Elaboración: Johanna Hernández Velasco

65

GRÁFICO N°. 22 Tabla de Cuestionario Garantizar transacciones

Page 100: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

5%

95%

Servicios Nacionales adquiera tecnología de punta y que sea Capacitado en esta.

No

Si

Fuente: Servicios Nacionales

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Interpretación de Resultados: EL 95% están de acuerdo estar capacitados con la nueva tecnología adquirida por Servicios Nacionales para poder agilitar el proceso de venta, registro y pagos a realizar por cada agencia.

Norma establecida en la Ley Federal del Trabajo que obliga a toda entidad o empresa a proporcionar capacitación y adiestramiento a sus trabajadores, para elevar la producción y productividad y contribuir al logro de objetivos institucionales o empresariales, para lo cual es necesario que todo el personal participe activamente.

7.- ¿Le gustaría a usted poseer un sistema eficiente, relacional y seguro para ahorrar tiempo y dinero en todas las agencias que posee la empresa?

CUADRO N°. 14

AHORRAR TIEMPO Y DINERO EN TODAS LAS AGENCIAS

DATOS FRECUENCIA PORCENTAJE

No 9 5

Si 171 95

Total 180 100%

Elaboración: Johanna Hernández Velasco

66

GRÁFICO N°. 23 Tabla de Cuestionario Tecnología

Page 101: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

5%

95%

Ahorrar tiempo y dinero en todas las agencias

No Si

Fuente: Servicios Nacionales

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Interpretación de Resultados: EL 95% le gustaría firmar tener un sistema relacional, seguro y eficiente para poder agilitar sus trámites y por ende ahorra tiempo y dinero que a la larga le representa ganancias en sus respectivas transacciones.

Valor del dinero en el tiempo: Recompensa de sacrificar consumo presente para poder consumir en el futuro. La medida económica de este sacrificio es la tasa de interés. El dinero disponible hoy, vale más que la expectativa de la misma cantidad que se recibirá en el futuro.

LAS HIPÓTESIS

Hipótesis N° 1 – Seguridad de la Información

1.- Crecidamente el 97% de los usuarios aseguran requerir que la información de todas las agencias se encuentre centralizadas y actualizada.

CUADRO N°. 15

SEGURIDAD DE LA INFORMACIÓN

DATOS FRECUENCIA PORCENTAJE

No 5.4 3

67

GRÁFICO N°. 24Tabla de Cuestionario Ahorrar tiempo y dinero

Page 102: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

3%

97%

Seguridad de la Información

No Si

Si 174.6 97

Total 180 100%

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Esta hipótesis queda confirmada de acuerdo a la pregunta número tres que en su enunciado dice ¿Desearía poder revisar el inventario actual de las diferentes agencias?, donde el 97% de los encuestados están de acuerdo.

Hipótesis N° 2 - Inviolabilidad

2.- De 20 usuarios de la empresa Servicios Nacionales 18 de ellos aseguran que al tener la facilidad de registrar los pagos desde cualquier agencia a nivel nacional debería la funeraria poner seguridades en las diferentes transacciones.

CUADRO N°. 16

INVIOLABILIDAD

DATOS FRECUENCIA PORCENTAJE

68

GRÁFICO N°. 25 Hipótesis Seguridad de la Información

Page 103: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

4%

96%

Garantizar la inviolabilidad de sus pagos en cualquier agencia.

No Si

No 7.2 4

Si 172.80 96

Total 180 100%

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Esta hipótesis queda contestada de acuerdo a la pregunta número cinco que en su enunciado dice ¿Cree usted necesario que Servicios Nacionales adquiera tecnología de punta en donde se pueda garantizar las transacciones e información de los clientes?, donde el 96% de los encuestados están de acuerdo.

Hipótesis N° 3 - Garantizar transferencias

3.- Los usuarios del área de ventas necesitan emplear seguridades tecnológicas para realizar los diferentes trámites en línea.

CUADRO N°. 17

69

GRÁFICO N°. 26Hipótesis Inviolabilidad

Page 104: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

4%3%

4%

89%

Seguridades tecnológicas para garantizar las transferencias En línea

Muy bajas

Bajas

Altas

Muy altas

GARANTIZAR TRANSFERENCIAS

DATOS FRECUENCIA PORCENTAJE

No 19.8 11

Si 160,2 89

Total 180 100%

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Esta hipótesis queda confrontada de acuerdo a la pregunta número cuatro que en su enunciado dice ¿Cree usted que al registrar un pago o una venta, el sistema debe tener ciertas seguridades adicionales como ‘el ingreso de la clave de un Supervisor’?, están de acuerdo con el 89 %.

Hipótesis N° 4 - Cursos y Capacitación

70

GRÁFICO N°. 27 Hipótesis Garantizar transferencias

Page 105: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

4.- El personal técnico de la empresa plantea que la capacitación apropiada recibida les servirá para la correcta utilización de la herramienta tecnológica, ya que así podrán brindar algún soporte técnico al usuario.

CUADRO N°. 18

CURSOS Y CAPACITACION

DATOS FRECUENCIA PORCENTAJE

No 7.2 4

Si 172.8 96

Total 180 100%

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

GRÁFICO N°. 28

Hipótesis Cursos de Capacitación

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Esta hipótesis queda verificada de acuerdo a la pregunta número uno ¿Ha recibido un curso de capacitación en los sistemas que utiliza actualmente?, el 96% de los empleados de la compañía Servicios Nacionales no han recibido dicha capacitación o actualización.

71

4%

96%

Ha recibido cursos de capacitación

No Sí

Page 106: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

5%

95%

Ahorrar tiempo y dinero en su lugar de trabajo

No Si

Hipótesis N° 5 - Ahorrar tiempo y dinero

5.- Los usuarios de la funeraria Servicios Nacionales consideran que se ahorraría dinero al efectuar sus transacciones en un sistema centralizado.

CUADRO N°. 19

AHORRAR TIEMPO Y DINERO

DATOS FRECUENCIA PORCENTAJE

No 9 5

Si 171 95

Total 180 100%

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

72

GRÁFICO N°. 29 Hipótesis Ahorrar tiempo y dinero

Page 107: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Esta hipótesis queda verificada de acuerdo a la pregunta número uno ¿Han recibido algún curso donde se los capacite en cuanto al manejo de Access? con el 95%.

CRITERIOS PARA LA ELABORACIÓN DE LA PROPUESTA

Los inconsistencias encontradas en las data de la empresa Servicios Nacionales y razonamientos que se utilizaron para la proposición fueron por cumplir con las metas de cumplimiento reducir costos para la empresa, reducir gastos y velar por la seguridad, confiabilidad, garantía y el uso de las normas comerciales internacionales que rigen en el mercado actualmente. El Spoon que es la propuesta para la solución del problema a investigar, fue creado con criterios de seguridad informática basados en la enseñanza y amaestramiento continuo para la seguridad e integridad de la información de Servicios Nacionales.

Las herramientas a utilizar fueron:

PostgreSql

Spoon de Pentaho

Suse Linux 12.1

Access 2003

Las tipologías fundamentales que tendrá esta base de datos son las siguientes:

Inviolabilidad de la información.

Portabilidad.

Seguridad.

Adecuada distribución y almacenamiento de los datos.

Ahorro de tiempo y dinero.

HERNÁNDEZ (2010) Expresa: “Las tecnologías informáticas son una parte importante del desarrollo de las compañías, ellas conforman actualmente el tronco tecnológico del avance a nivel mundial”. (pag. 7).

73

Page 108: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

CAPÍTULO IV

MARCO ADMINISTRATIVO

CAPITULO IV – MARCO ADMINISTRATIVO

CRONOGRAMA

El cronograma de la migración se muestra a continuación. Los ajustes sobre el cronograma se darán por lineamientos del estudio por modificaciones realizadas a través de requerimientos formales por parte del jefe de sistema de la empresa.

GRÁFICO N°. 30

CRONOGRAMA DE TRABAJO

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Descripción de los procesos

De acuerdo con el análisis inicial de la información de los sistemas actuales y la planeación estimada se plantea ejecutar las siguientes iteraciones dentro del proceso de migración de datos:

94

Page 109: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

La iteración 1 corresponde a la migración de catálogos e inicio de la migración histórica. El proceso crítico es la homologación de datos para consolidar en las estructuras de referencia y debe ser adelantado en la fase de análisis y diseño.

La iteración 2 incluye la migración de casos activos y algunos otros datos históricos. En esta iteración la labor más importante es la definición de equivalencias entre etapas y actividades del proceso entre los sistemas actuales y Spoon.

La iteración 3 abarca los procesos de migración de relatoría y continuación de casos activos e históricos. Es importante resaltar en esta iteración la complejidad en la transformación de este tipo de objetos a la base de datos (datos de muy grande longitud).

En la iteración 4 se desarrollarán los procesos de migración de los históricos y activos pendientes.

El detalle de la migración será el resultado de la etapa de análisis y diseño de cada iteración y tendrá que estar sincronizado con las generaciones en los pasos del diseño.

CUADRO N°. 15

PLANIFICACIÓN DETALLADO DEL TRABAJO REALIZADO

Nombre Días Inicio Fin

Levantamiento de Información 24,875 14/05/2012 9:00

15/06/2012 17:00

Análisis de documentación de los procesos 14,375 18/06/2012 8:00

06/07/2012 11:00

Diseño de mapa de procesos 2,75 06/07/2012 12:00

11/07/2012 10:00

Identificación de procesos críticos 6,562 11/07/2012 11:30

19/07/2012 17:00

Diseño de indicadores de procesos 6,562 20/07/2012 8:00

30/07/2012 13:30

Diseño del espacio físico 4,312 30/07/2012 14:30

03/08/2012 17:00

Análisis- implementación de Servidores Linux 6 06/08/2012 8:00

13/08/2012 17:00

Creación Base de Datos PostgreSql 4 14/08/2012 17/08/2012

95

Page 110: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

8:00 17:00

Diseño de modelamiento de Bases de Datos 21 20/08/2012 8:00

17/09/2012 17:00

Seguridades lógicas 13 03/09/2012 8:00

19/09/2012 17:00

Análisis de alternativas – HARDWARE 8,75 19/09/2012 10:00

01/10/2012 17:00

Análisis de alternativas de seguridad lógicas 8 03/10/2012 8:00

12/10/2012 17:00

Instalación del Aplicativo en las diferentes agencias 13 15/10/2012 8:00

31/10/2012 17:00

Definiciones de acceso- usuarios- administradores 5 25/10/2012 8:00

31/10/2012 17:00

Implementación de contingencia 28 01/11/2012 8:00

10/12/2012 17:00

Diseño de respaldo 13 11/12/2012 8:00

27/12/2012 17:00

Verificación - afinamientos 27 28/12/2012 8:00

04/02/2013 17:00

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Manejo de inconsistencias

Los datos que no puedan ser ingresados en el modelo de datos, porque no cumplen con su estructura serán llevados a un repositorio de inconsistencias, a través del un procedimiento que abarca el registro y la corrección de la inconsistencia, que se describe a continuación:

Registro de inconsistencias

Los datos que no puedan ser cargados, por ser inválidos serán enviados a un repositorio de inconsistencias. Este repositorio contendrá una tabla de inconsistencias por cada tabla fuente de información. La tabla de inconsistencias contendrá los mismos campos de la tabla origen y un identificador de la inconsistencia. El registro origen será insertado en la tabla de inconsistencias, y el proceso generará un consecutivo que se convertirá en la llave de la tabla.

96

Page 111: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Existirá una estructura en la cual se registrarán todas las inconsistencias, referenciadas por el número de llave de la inconsistencia.

Corrección de inconsistencias

El jefe de sistemas en conjunto con los usuarios definidos para el proceso de corrección de la data, tendrán acceso al repositorio de inconsistencias y tomará la información para realizar la depuración correspondiente. Posteriormente deberá cargarse la información depurada al repositorio de fuentes de información y ejecutará nuevamente el proceso de migración, en un proceso cíclico, hasta que la totalidad de los datos sean cargados.

Pruebas

Un factor crítico para el éxito de la migración de datos es la realización de pruebas. Es recomendable hacer pruebas generales para comprobar que el proceso completo funciona correctamente, medir los tiempos para tener una planeación integral y minimizar los riesgos. Las pruebas generales corresponden a las pruebas del usuario que se ejecutan en cada iteración. También es indispensable la ejecución de transacciones de prueba con datos reales y con casos especiales (que no se presentan comúnmente pero generan inconvenientes), en el nuevo sistema para verificar que la información se está procesando como se espera. La ejecución en paralelo identifica errores en la conversión y transferencia de datos pues los resultados de una misma transacción, utilizando los mismos datos de entrada, pueden no generan los mismos resultados. Estas pruebas corresponden a pruebas funcionales. Se debe tener en cuenta que para la ejecución de estas pruebas, el proceso de migración debe ejecutarse en el ambiente de pruebas, con la realización previa de las pruebas de migración del usuario

PRESUPUESTO

Nuestro presupuesto comprende los diferentes gastos que se llevaran a efecto, para el cumplimiento del objetivo del proceso de la investigación.

CUADRO N°. 16

REFERENCIA DE EGRESOS DEL PROYECTO

EGRESOS DÓLARES

Suministros de oficina $ 90.00

Fotocopias 40.00

Libros y documentos 0.00

Computadora y servicios de Internet 400.00

Transporte 30.00

97

Page 112: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

Refrigerio 41.00

Empastado, anillado de tesis de grado 50.00

TOTAL……………………………………… $ 651.00

Elaboración: Johanna Hernández Velasco

Fuente: Servicios Nacionales

Ingresos.- La tesis fue solventada con mi trabajo de la empresa MACROSIGMA S.A., donde laboré como analista desarrollador junior, logrando solventar los $651,00 que invertí en mi tesis de grado.

Egresos (Detalle Egresos)

Entrevistas (Gasto en Transporte) $ 48.00

Realización de Encuestas (Gasto en Transporte) $ 65.00

Servicio de Internet y computadoras $ 410.00

Copias para Realización de Encuestas $ 56.00

Biblioteca (Transporte) $ 25.00

Impresoras $ 97.50

Empastado, anillado de tesis de grado $ 50.00

Refrigerio $ 42.00

REFERENCIAS BIBLIOGRÁFICAS

Castro Díaz Balart F., Ciencia, Tecnología y Sociedad.- La Habana.

Diseño, desarrollo e implantación del sistema de información misional de la Procuraduría General de la Nación. Plan de gestión del proyecto. Dic. 2006.

Visauta B.(1998), desarrollo e implantación del sistema de información misional de la Procuraduría General de la Nación. Plan de Pruebas. Propuesta.

Oracle. Oracle Warehouse Builder 10g Release 2 for Windows and Unix, Installation and Configuration Guide, Junio de 2006, p 1-3

Editorial Científico-Técnica, 450 Páginas. 2003 - Pag. 12, 21,

Esteban Martí José Ramón, Criptografía. - Buenos Aires, Argentina

98

Page 113: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

350 páginas. - 2009. Pag. 18

Farrel GE, Egana E, Fernández F., Investigación científica y nuevas tecnologías.

La Habana., Editorial Científico-Técnica. 150 Paginas. 2003. Pag. 14

Addison Wesley, Fundamentos de Sistemas de Bases de Datos

ELMASRI & NAVATHE, Capítulo 1,2,3,4,5,6,7,8,9,10,11.

Núñez Jover J., La ciencia y la tecnología como procesos sociales. En: Grupo de Estudios Sociales de la Tecnología. Tecnología y Sociedad.

La Habana: Editorial Félix Varela.- 80 Paginas 1999, Pag. 5

Sistemas de Bases de Datos, Ramez Elmasri & Shamkant B. Navathe2da Edición 885 Páginas, Español

Pearson – Prentice Hall , Introducción a los Sistemas de Base de Datos

Da Edicdión , 733 Páginas Español

Trejo Delarbre. La ciencia y la tecnología

Caracas, Venezuela. - Editorial Rial. 150 Paginas, 2009. Pag.8, 10, 12.

NETGRAFÍA

Date, C.J. (2001) "Introduction a los sistemas de Bases de datos", Prentice Hall, Mexico, 925 pp.

Miguel, A; Piattini, M; (2006) "Diseno de Bases de Datos Relacionales", Alfaomenga Ra-Ma, Mexico, 289-293 p.

Martin,J (1994) "Organization de las Base de Datos" Prentice Hall, México 33 p.

Castro Díaz Balart F., Ciencia, Tecnología y Sociedad.

La Habana. Editorial Científico-Técnica, 450 Páginas.2003 - Pag. 12, 21

Esteban Martí José Ramón, Criptografía.

Buenos Aires, Argentina, 350 páginas. 2009. Pag. 18

Farrel GE, Egana E, Fernández F., Investigación científica y nuevas tecnologías.

La Habana. Editorial Científico-Técnica. 150 Paginas. 2003. Pag. 14

Addison Wesley, Fundamentos de Sistemas de Bases de Datos

ELMASRI & NAVATHE, Capítulo 1,2,3,4,5,6,7,8,9,10,11., Núñez Jover J.

99

Page 114: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

La ciencia y la tecnología como procesos sociales. En: Grupo de Estudios Sociales de la Tecnología. Tecnología y Sociedad., La Habana:

Editorial Félix Varela., 80 Paginas, 1999, Pag. 5

Sistemas de Bases de Datos, Ramez Elmasri & Shamkant B. Navathe2da Edición, 885 Páginas, Español.

Pearson – Prentice Hall, Introducción a los Sistemas de Base de Datos

Da Edicdión, 733 Páginas, Español, Trejo Delarbre, La ciencia y la tecnología

Caracas, Venezuela, Editorial Rial, 150 Paginas, 2009, Pag.8, 10, 12.

Pérez López, C. (2004) "Técnicas de Análisis de Datos. Aplicaciones de Parches". Pearson Prentice Hall, Madrid.

REFERENCIAS WEB

http://wikinvestigacion.wikispaces.com , Universidad de Sevilla, España Sevilla, 2012

http://www.firmadigital.go.cr/gestionCA.html , Harley Villalobos, Caracas Venezuela, 2008

http://www.java.com/en/download/manual.jsp , Java Runtime Environment, JRE 1.4

Prof. Yaakov Benenson en el año 2004, Universidad Politécnica de Madrid, Extraído el 21 de Octubre de 2010.

(http://www.upm.es/portal/site/institucional/menuitem.fa77d63875fa4490b99bfa04d

ffb46a8/?vgnextoid=b713c85fb34c1210VgnVCM10000009c7648aRCRD).

Pentaho Data Integration Big Data and More: The Power to Access, Prepare and Deliver Data Faster

http://www.pentaho.com/explore/pentaho-data-integration/

100

Page 115: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

CONCLUSIONES Y RECOMENDACIONES

CAPITULO V – CONCLUSIONES Y RECOMENDACIONES

CONCLUSIONES

El 97% de los usuarios indican que desean realizar sus transacciones en línea y con las agencias interrelacionada, sobre todo evitar errores por duplicidad de pago y mal control de inventarios.

Como hemos estado hablando durante todo el documento, hoy en día, la información que se almacena en la base de datos que poseen las empresas es primordial, es considerado en mucho de los casos, como uno de los bienes más preciados de las distintas entidades. Así mismo, la desinformación, puede ser una de las armas con las que se puede atacar a alguien o alguna otra empresa.

En esta sociedad en la que vivimos se hace muy necesario la seguridad en las bases de datos, y como principal exponente en Internet ya que este método es cada vez más utilizado, no solo por estudiantes y comunidad universitaria, sino por empresas, particulares, etc.

El tema tratado será uno de los claros exponentes a tener muy en cuenta en el futuro de la informática, sobre todo a la velocidad que se implementan nuevas tecnologías.

El 89% de los empleados del área de ventas indican que al realizar sus ingresos de contratos o pagos ellos necesitan seguridades informáticas para que no sean modificadas ni eliminadas.

El traspaso de información de una base a otra cada vez es más valioso y que puede comprometer mucho a los sistemas en caso de que haya más de un sistema.

El tema tratado es un mundo muy amplio y fascinante, de la misma manera, tiene muchas posibilidades de investigación. Este efecto puede generar múltiples posibles estrategias a la hora de poder dar una solución en la mejora del traspaso de información. Hoy en día, existes muchas herramientas informáticas (software), las cuales nos ayudan en estos procesos de migración, sin embargo, el cómo se las emplee y se las configure para efectos de mitigar los tiempos en que esta procesa para tales fines, es lo que durante la redacción e investigación del presente documento, se logra evidenciar. Además de ello, obtener una alta disponibilidad con datos lo más reales y actualizados posible.

Conclusiones Del Ing. Cesar Cuenca

Pienso que las variables que se han incluido dentro de esta investigación son las más adecuadas para determinar el problema, ya que esta base de datos se la encontró totalmente aislada, con varios problemas de almacenamiento, sin condiciones de ingresos ni tipos de datos correctamente desarrollados dentro del aplicativo, afectando no solo la operatividad de la empresa sino también la seguridad de los datos de los clientes, los cuales deben ser guardado con mucho cuidado para mantener la confianza y continuidad del negocio.

103

Page 116: maiki87.weebly.com  · Web viewRESUMEN: En años recientes, se ha producido un incremento continuo en la cantidad de datos manipulados por los sistemas manejadores de bases de datos

RECOMENDACIONES

Se debe realizar los cambios tecnológicos respecto al área de sistemas, en especial la parte del hardware. Los cambios tecnológicos realizados deben estar de acuerdo a la tecnología aplicada en la metodología internacional de seguridad.

A los usuarios de las distintas agencias se los debe de capacitar acerca de las nuevas tecnologías, nuevos sistemas informáticos implementados para que tengan un buen manejo y control del mismo. Entre las conclusiones que podemos nombrar son:

Rapidez. Seguridad y optimización en el traslado de los datos

Seguridad y Confiabilidad de la información de clientes

Ahorro en contratación de soporte especializado

Siempre se debe realizar un análisis de las diferentes transacciones que realizan los clientes de la funeraria, para evitar fraudes que afecten al sistema.

Los empleados de la funeraria del área técnica deben estar siempre actualizados en los diferentes usos de la tecnología aplicada a la seguridad vía internet.

Así mismo, para futuros estudiantes que se interesen por la metodología implementada en esta investigación bajo la herramienta tecnológica sugerida, puedan de alguna forma optimizar los procesos mostrados y detallados, así como también, hacer uso de la misma, en combinación con otras aplicaciones para fine específicos.

Recomendaciones del Ing. Cesar Cuenca.

La migración de datos debe ser correctamente evaluada antes de ejecutarla, ya que esto tiene muchos tipos de riesgo en cuanto a la perdida de información. Por tanto para prevenir dichos riesgos debe tomarse consideraciones de respaldo de la data antes de iniciar el proceso.

104