6.- ANTECEDENTES DE LA INVESTIGACION.

42
Capitulo II 12 6.- ANTECEDENTES DE LA INVESTIGACION. Con respecto a las variables de estudio las cuales se encuentran dentro de este proyecto, se han realizado algunas investigaciones. Es decir, dado el procedimiento de búsqueda y recolección de datos se determinó que a nivel nacional Shell Venezuela sería la primera empresa en cubrir un proyecto de esta envergadura. Al utilizar las aplicaciones de FieldView y Oil Field Manager (OFM), para realizar de una manera totalmente diferente y revolucionaria el control estadístico de la producción petrolera proveniente del Campo Urdaneta Oeste. Cabe destacar, la investigación realizada por DELGADO, (1999 - 2000) titulada “ Software para automatizar las operaciones de producción y servicio a pozos petroleros”, consideró que dado el ambiente cambiante y aumento de la complejidad de los sistemas se han incrementado las necesidades de información por parte de los gerentes. La toma de decisiones, un paso que conduce a la acción, se basa en la información. Por tanto, esta puede definirse como datos organizados los cuales reducen la incertidumbre en el momento de tomar decisiones. En este sentido el Software, es un producto innovador a nivel de Shell Venezuela S.A., tiene como objetivo principal el incrementar y afirmar las fortalezas existentes en los diferentes procesos de petróleo y gas en el campo, con una

Transcript of 6.- ANTECEDENTES DE LA INVESTIGACION.

Page 1: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

12

6.- ANTECEDENTES DE LA INVESTIGACION.

Con respecto a las variables de estudio las cuales se encuentran

dentro de este proyecto, se han realizado algunas investigaciones. Es decir,

dado el procedimiento de búsqueda y recolección de datos se determinó que

a nivel nacional Shell Venezuela sería la primera empresa en cubrir un

proyecto de esta envergadura. Al utilizar las aplicaciones de FieldView y Oil

Field Manager (OFM), para realizar de una manera totalmente diferente y

revolucionaria el control estadístico de la producción petrolera proveniente

del Campo Urdaneta Oeste.

Cabe destacar, la investigación realizada por DELGADO, (1999 -

2000) titulada “Software para automatizar las operaciones de producción

y servicio a pozos petroleros”, consideró que dado el ambiente cambiante

y aumento de la complejidad de los sistemas se han incrementado las

necesidades de información por parte de los gerentes. La toma de

decisiones, un paso que conduce a la acción, se basa en la información.

Por tanto, esta puede definirse como datos organizados los cuales

reducen la incertidumbre en el momento de tomar decisiones. En este

sentido el Software, es un producto innovador a nivel de Shell Venezuela

S.A., tiene como objetivo principal el incrementar y afirmar las fortalezas

existentes en los diferentes procesos de petróleo y gas en el campo, con una

Page 2: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

13

alta capacidad de respuesta y así ser más flexible y compatible

operacionalmente.

Por otra parte, la investigación realizada por el Lic. En Computación

FERNÁNDEZ, Ramón (1998) titulada “Implantación de E & P Production

Ops Managment System (EPPROMS) para el control de la producción

petrolera en el Campo Urdaneta Oeste ”, consideró que los sistemas

automatizados garantizan la integridad de los datos, y a su vez tienen como

objetivo principal la transformación de los datos en información fácil de

entender y utilizar, señala también que la importancia de un sistema para el

control estadístico radica fundamentalmente en la automatización de

actividades rutinarias y obtención de resultados precisos y oportunos, donde

la información generada es confiable y fácil de obtener.

A su vez el proyecto investigativo realizado por el ING. HERNÁNDEZ

Albenis de Jesús titulado (2000) Desarrollo de un Sistema con Tecnología

“SPREAD SPECTRUM” que permita comunicar estaciones de flujo y sus

múltiples asociados en el Lago de Maracaibo, proyecto el cual consideró

como metodología para su investigación la correspondiente a desarrollo de

prototipos constando el mismo de cinco fases en donde en la primera se

describe la situación actual de las estaciones de flujo, en la segunda se

determinan los requerimientos básicos para los sistemas; en la tercera se

realiza un estudio técnico, económico y operacional de varias alternativas, en

la cuarta se procede con los cálculos y realización del diseño y por ultimo la

Page 3: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

14

quinta fase en la cual se realizan las pruebas piloto del sistema. Razón por

la cual dicha investigación fue seleccionada como antecendente del presente

proyecto de grado debido al aporte brindado en cuanto a la parte

metodológica por presentar similitud con respecto a la metodología a

emplear para efectos de la investigación.

Entre otros antecedentes se encuentra el siguiente por el ING.

SCHUART Jason (1999 L.A. University), Titulado Diseño e implantación de

un Sistema de Control Estadístico autónomo. El cual consideró que los

sistemas de control garantizan de manera eficiente y definitiva la veracidad y

confiabilidad de datos sin la necesidad de estimar un porcentaje de error en

cuanto a las operaciones realizadas en dicho sistema. Dicha Investigación

proporcionó datos importantes para efectos de este proyecto de

Investigación en el área de control estadístico.

Shell Venezuela S.A., tiene como aspiraciones realizar un proyecto el

cual permita automatizar el control estadístico de su producción petrolera con

las premisas en donde el mismo culmine de manera exitosa para el

constante mejoramiento en cuanto a tecnología se refiere dentro de la

Empresa mediante la utilización de nuevas herramientas de forma integrada.

Page 4: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

15

7.- FUNDAMENTACION TEORICA

7.1.- Tipos de Redes

Una red según el autor John Taylor (1999, http://nti.educa.rcanaria.es)

es un grupo de computadores interconectados entre si para compartir

archivos, datos, etc. Dichas redes tiene diversas clasificaciones entre las

cuales las podemos clasificar según su Extensión comenzando por las

Redes de Área Local (LAN) la cual es un sistema de interconexión de

equipos informáticos basado en líneas de alta velocidad (decenas o cientos

de megabits por segundo) y suele abarcar, como mucho, un edificio.

Las principales tecnologías usadas en una LAN son: Ethernet, Token

Ring, ARCNET y FDI.

Un caso típico de LAN según el autor antes mencionado, es en la que

existe un equipo servidor de LAN desde el cual los usuarios cargan las

aplicaciones y estas se ejecutarán en sus estaciones de trabajo.

Los usuarios pueden también solicitar tareas de impresión y otros

servicios los cuales están disponibles mediante aplicaciones ejecutables en

el servidor. Además pueden compartir ficheros con otros usuarios. Los

accesos a estos ficheros están controlados por un administrador de la LAN.

A su vez también se encuentran las Redes de Área Metropolitana

(MAN) según el autor antes mecionado, éstas representan un sistema de

Page 5: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

16

interconexión de equipos informáticos distribuidos en una zona que abarca

diversos edificios, por medios pertenecientes a la misma organización

propietaria de los equipos. Este tipo de redes se utiliza normalmente para

interconectar redes de área local.

Asimismo, según el autor John Taylor (1999,

http://nti.educa.rcanaria.es) además de las redes LAN y MAN pueden

encontrase las Redes de Área Extensa (WAN) las cuales representan un

sistema de interconexión de equipos informáticos geográficamente

dispersos, que pueden estar incluso en continentes distintos. El sistema de

conexión para estas redes normalmente involucra a redes públicas de

transmisión de datos.

También se pueden clasificar según su topología, esto se refiere a la

forma en que están interconectados los distintos equipos (nodos) de una red.

Un nodo es un dispositivo activo conectado a la red, como un ordenador o

una impresora. Un nodo también puede ser dispositivo o equipo de la red

como un concentrador, conmutador o un router.

Las topologías más usadas según el autor John Taylor (1999,

http://nti.educa.rcanaria.es), son las siguientes:

Anillo la cual esta distribuida en forma de círculo a través de un

mismo cable. Las señales circulan en un solo sentido por el círculo,

regenerándose en cada nodo. En la práctica, la mayoría de las topologías

Page 6: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

17

lógicas en anillo son en realidad una topología física en estrella. (Ver

Figura 1).

Figura 1. Topología anillo Fuente: http://nti.educa.rcanaria.es/

conocernos_mejor/apuntes/paginas/topolog.htm ( 2000)

Por otra parte la topología Bus consiste en que los nodos se unen en

serie con cada nodo conectado a un cable largo o bus, formando un único

segmento A diferencia del anillo, el bus es pasivo, no se produce

regeneración de las señales en cada nodo. Una rotura en cualquier parte del

cable causará, normalmente, que el segmento entero pase a ser inoperable

hasta que la rotura sea reparada. Como ejemplos de topología de bus se

tiene 10BASE-2 y 10BASE-5. (Ver Figura 2).

Page 7: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

18

Figura 2. Topología Bus Fuente:

http://nti.educa.rcanaria.es/conocernos_mejor/apuntes/paginas/topolog.htm

(2000).

Seguidamente se presenta la topología Estrella lo más usual en ésta

es que en un extremo del segmento se sitúe un nodo y el otro extremo se

termine en una situación central con un concentrador. La principal ventaja de

este tipo de red es la fiabilidad, dado que si uno de los segmentos tiene una

rotura, afectará sólo al nodo conectado en él. Otros usuarios de los

ordenadores de la red continuarán operando como si ese segmento no

existiera. 10BASE-T Ethernet y Fast Ethernet son ejemplos de esta

topología. (Ver Figura 3)

Page 8: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

19

Figura 3. Topología Estrella Fuente: http://nti.educa.rcanaria.es

/conocernos_mejor/apuntes/paginas/topolog.htm (2000).

A la interconexión de varias subredes en estrella se le conoce con el

nombre de topología en árbol.

Figura 4. Topología árbol. Fuente: http://nti.educa.rcanaria.es

/conocernos_mejor/apuntes/paginas/topolog.htm (2000)

Toda la información concerniente a las diferentes tipos de redes fue

suministrada por la Universidad de Canarias por medio de su página

Page 9: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

20

electrónica. (página web. Universidad de Canarias.

www.nti.educa.rcanarias.es , Junio 2000).

7.2.- Protocolos a Nivel de Red

Según la Universidad de Yale el autor R. SpHyDir en su página

electrónica (www.yale.edu/pclt/COMM/TCPIP.htm ) éstos protocolos se

encargan de controlar los mecanismos de transferencia de datos.

Normalmente son invisibles para el usuario y operan por debajo de la

superficie del sistema. Dentro de estos protocolos tenemos:

TCP. Controla la división de la información en unidades individuales

de datos (llamadas paquetes) para que estos paquetes sean encaminados

de la forma más eficiente hacia su punto de destino. En dicho punto, TCP se

encargará de reensamblar dichos paquetes para reconstruir el fichero o

mensaje que se envió. Por ejemplo, cuando se nos envía un fichero HTML

desde un servidor Web, el protocolo de control de transmisión en ese

servidor divide el fichero en uno o más paquetes, numera dichos paquetes y

se los pasa al protocolo IP. Aunque cada paquete tenga la misma dirección

IP de destino, puede seguir una ruta diferente a través de la red. Del otro

lado (el programa cliente en nuestro ordenador), TCP reconstruye los

paquetes individuales y espera hasta que hayan llegado todos para

presentárnoslos como un solo fichero.

Page 10: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

21

Asimismo, el autor antes mencionado dice que el IP por su parte se

encarga de repartir los paquetes de información enviados entre el ordenador

local y los ordenadores remotos. Esto lo hace etiquetando los paquetes con

una serie de información, entre la que cabe destacar las direcciones IP de los

dos ordenadores. Basándose en esta información, IP garantiza que los datos

se encaminarán al destino correcto. Los paquetes recorrerán la red hasta su

destino (que puede estar en el otro extremo del planeta) por el camino más

corto posible gracias a unos dispositivos denominados encaminadores o

routers.

TCP/IP (Fuente Universidad de Yale. Autor: R. SpHyDir)

Según el autor antes mencionado de la Universidad de Yale el TCP/IP

es realmente un conjunto de protocolos, donde los más conocidos son TCP

(Transmission Control Protocol o protocolo de control de transmisión) e IP

(Internet Protocol o protocolo Internet). Dicha conjunto o familia de protocolos

es el que se utiliza en Internet.

Internet es un conglomerado muy amplio y extenso en el que se

encuentran ordenadores con sistemas operativos incompatibles, redes más

pequeñas y distintos servicios con su propio conjunto de protocolos para la

comunicación. Ante tanta diversidad resulta necesario establecer un conjunto

de reglas comunes para la comunicación entre estos diferentes elementos y

Page 11: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

22

que además optimice la utilización de recursos tan distantes. Este papel lo

tiene el protocolo TCP/IP. TCP/IP también puede usarse como protocolo de

comunicación en las redes privadas intranet y extranet.

Las siglas TCP/IP se refieren a dos protocolos de red, que son

Transmission Control Protocol (Protocolo de Control de Transmisión) e

Internet Protocol (Protocolo de Internet) respectivamente. Estos protocolos

pertenecen a un conjunto mayor de protocolos. Dicho conjunto se denomina

suite TCP/IP.

Los diferentes protocolos de la suite TCP/IP trabajan conjuntamente

para proporcionar el transporte de datos dentro de Internet (o Intranet). En

otras palabras, hacen posible que accedamos a los distintos servicios de la

Red. Estos servicios incluyen, como se comento en el capítulo 1: transmisión

de correo electrónico, transferencia de ficheros, grupos de noticias, acceso a

la World Wide Web, etc.

Hay dos clases de protocolos dentro de la suite TCP/IP que son:

protocolos a nivel de red y protocolos a nivel de aplicación.

7.3.- Protocolos a Nivel de Aplicación. (Fuente Universidad de

Yale. Autor: R. SpHyDir)

Según el autor R. SpHyDir menciona que Protocolos vinculados a

nivel de aplicación son aquellos asociados a distintos servicios de Internet,

como FTP, Telnet, Gopher, HTTP, etc. Estos protocolos son visibles para el

Page 12: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

23

usuario en alguna medida. Por ejemplo, el protocolo FTP (File Transfer

Protocol) es visible para el usuario. El usuario solicita una conexión a otro

ordenador para transferir un fichero, la conexión se establece, y comienza la

transferencia. Durante dicha transferencia, es visible parte del intercambio

entre la máquina del usuario y la máquina remota (mensajes de error y de

estado de la transferencia, como por ejemplo cuantos bytes del fichero se

han transferido en un momento dado).

7.4.- Bases De Datos

Según información extraída de página electrónica (www.itlp.edu.mx

Fuente: desconocida), las bases de datos como fuente central de datos

significativos pueden clasificarse en varios tipos:

q Jerárquicos.

q En red.

q Relaciónales.

q Orientados a objetos.

Hoy día los más utilizados son los gestores de bases de datos

relaciónales. Para efectos de esta investigación se analizarán las bases de

datos relacionales.

Page 13: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

24

Una base de datos Relacional según Kendall y Kendall (1991) es una

fuente central de datos significativos, los cuales son compartidos por

numerosos usuarios para diversas aplicaciones. Su esencia es el Sistema

Administrador de la Base de Datos (DBMS: Data Base Management

System), el cual permite la creación, modificación y actualización de la

misma, recuperación de los datos y la emisión de reportes.

En el mismo orden de ideas, R. Pressman (1992), define Base de

datos como una colección grande y organizada de información, la cual se

accede mediante el software y que es una parte integral del funcionamiento

del sistema.

No obstante, que puedan desarrollarse sistemas de procesamiento de

archivo e incluso manejadores de bases de datos basándose en la

experiencia del equipo de desarrollo de software logrando resultados

altamente aceptables, siempre es recomendable la recomendación de

determinados estándares de diseño de esta forma éstos garantizan el nivel

de eficiencia mas alto en lo que se refiere a almacenamiento y recuperación

de la información. De igual manera se obtiene modelos los cuales optimizan

el aprovechamiento secundario y la sencillez y flexibilidad en las consultas

que pueden proporcionarse al usuario.

Según el autor antes expuesto, las bases de datos presentan las

siguientes características:

Page 14: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

25

q Están formadas por una serie de archivos que permiten la variación

entre los registros internos de la misma.

q Admiten la independencia de los archivos de programas y datos,

para facilitar la actualización y mantenimiento de la Base de Datos.

q Son diccionarios de datos, donde se almacena la información.

q Representan una memoria de acceso directo a gran escala para

obtener los datos y el DBMS.

q Programas de comunicaciones los cuales permiten que varios

usuarios tengan acceso a la Base de Datos simultáneamente.

q Es un lenguaje de consulta el cual permita cuestionamientos fáciles

en línea, así como la actualización de registros con la base a cada

transacción efectuada.

q Conlleva a la integración de los archivos de funciones cruzadas

para que los registros que antes hubieran estado en archivos

completamente independientes puedan asociarse y procesarse juntos

automáticamente.

q Son estándares comunes en todo el sistema con respecto a las

definiciones de los datos, formatos de registros, etc.

q Presentan técnicas depuradas de respaldo y recuperación para

permitir la construcción de archivos de las Bases de Datos si pierden o se

destruyen.

Page 15: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

26

Según los autores Kendall y Kendall (1991), el Objetivo de las Bases

de Datos es el almacenamiento computarizado en poco espacio y su gran

rapidez para la búsqueda de información.

Entre las metas más importantes que se persiguen al diseñar un

modelo de bases de datos, se encuentran las siguientes:

q Disminuir la redundancia de datos.

q Eliminar la inconsistencia entre datos redundantes.

q Compartir datos entre múltiples usuarios.

q Establecer estándares y procedimientos.

q Establecer normas de seguridad.

q Proteger la integridad de los datos.

q Independizar los programas de estructuras de datos.

q Acceso Eficiente a la información. (Fácil y rápido) con redundancia.

q Diseño de esquemas con la FORMA NORMAL.

q Información adicional.

q Especificación de las limitantes (Dependencias Funcionales).

Bases de Datos poseen un sistema de gestión (gestor de bases de

datos): un programa que sirve para gestionar bases de datos.

Funciones mínimas:

q Formularios: para añadir, modificar y mostrar los datos.

q Informes: para presentar datos cuidando la apariencia.

Page 16: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

27

q Consultas: para realizar preguntas y acciones. Hay acciones de

selección (visualizar, resumir, seleccionar) y de acción (añadir, actualizar,

eliminar).

Para efectos de la investigación se utilizará el manejador de base de

datos relacional Oracle versión 7.3.4 o superior.

Según información suministrada por los autores George Koch y Kenvin

Loney (1991) El manejador de Base de Datos Oracle posee una estructura la

cual esta conformada de la siguiente manera:

q Instancias: La base datos es el componente básico de Oracle

RDBMS. Para que una base de datos pueda ser utilizada debe ser conectada

a una instancia. Ésta comprime los procesos los cuales serán manejados por

la base de datos. Es posible conectar a una base datos en mas de una

instancia pero esto es raramente usado, es por ello los términos de instancia

y base de datos son efectivamente sinónimos. Una instancia se identifica por

un nombre que puede ser mayor de cuatro caracteres y se conoce como

Identificador del sistema (System Identifier SID).

q TableSpaces: Una base de datos Oracle se divide internamente en

áreas lógicas separadas conocidas como tablespace existen cinco tipos de

TableSpaces en Oracle Versión 7.3.4 (Utilizado por Shell Venezuela S.A.):

SYSTEM , RBS, TEMP TOOLS y USER.

Page 17: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

28

q Objetos de la Base de Datos: Oracle se interactúa vinculado a una

Base de Datos como lo son sus tablas, las vistas y los índices, Estos

conforman lo que se denomina Objetos de la Base de Datos. Cada objeto

posee en Oracle un identificador de usuario (User ID).

7.5.- Sistemas De Control Estadísticos.

Según el autor R. SpHyDir de la Universidad de Yale , los sistemas de

control estadísticos se refieren, a la aplicación o a las aplicaciones de los

principios de control de todo el funcionamiento de una organización,

presentando los siguientes propósitos:

q La obtención de información correcta y segura.

q La protección de los activos de la empresa.

q La promoción de la eficiencia en la operación.

q Calculación y recalculación de datos de la empresa.

Aunado a esto, información adicional proveniente de la Universidad

de Yale explica que el control tiene como objetivo cerciorarse de que los

hechos vayan de acuerdo con los planes establecidos, señalar las

Page 18: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

29

debilidades y errores a fin de rectificarlos e impedir que se produzcan

nuevamente, medir lo logrado en relación con el estándar.

Tomando en cuanta las consideraciones del autor antes

mencionado, el control estadístico, es un factor imprescindible para el

logro de los objetivos establecidos en una organización, y para ser

efectivo debe tomar en cuenta con los siguientes aspectos:

q Deberá ajustarse a las necesidades de la empresa y al tipo de

actividad que se desea controlar.

q Relacionarse con la estructura organizativa, al mismo tiempo

reflejar eficacia.

q Manifestar las desviaciones antes de producirse.

q Establecer medidas más sencillas y fáciles de interpretar para

facilitar su aplicación.

q Los datos o informes de los controles deben ser accesibles para

las personas a quienes van a ser dirigidos

q Establecer en áreas de acuerdo con los criterios de valor

estratégico.

Por lo antes expuesto, se determina que el control estadístico es

de vital importancia dentro de una organización, debido a:

Page 19: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

30

q Establece medidas para corregir las actividades especialmente

aquellas realizadas de manera manual, factibles a errores

humanos.

q Determina y analiza las causas potenciales generadoras de

desviaciones, para así realizar tomas de decisiones que permitan

solventar el problema.

q Proporciona información detallada y concisa acerca del

comportamiento de la variable que se tenga en estudio o dentro del

lineamiento de control estadístico.

q Su aplicación incide en la racionalización de la administración

consecuentemente en el logro de la productividad de todos los

recursos de la empresa.

Siguiendo este orden de ideas, los sistemas de control estadísticos

permiten la optimización del trabajo, a su vez, además de permitir la

optimización dentro de un área de trabajo también agilizar la toma de

decisiones concernientes a administración de activos de una empresa en

este proyecto investigación se enfoca hacia el área de producción

petrolera.

Page 20: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

31

7.6.- Interfaces de Usuario.

Según el autor Michael Darnell (1998) una interfaz de usuario es un

conjunto de elementos a través de los cuales un usuario interactúa con un

objeto que realiza una tarea determinada. Ejemplos: televisor, teléfono,

coche, despertador, puerta.

El ser humano está continuamente interactuando con los objetos que

le rodean, y tiene unas expectativas sobre cómo éstos deben comportarse,

basada en pasadas experiencias con estos objetos u otros similares. Si la

interfaz está bien diseñada, el usuario encontrará la respuesta que espera a

su acción; si no es así, puede ser frustrante para el usuario, que

habitualmente tiende a culparse a sí mismo por no saber usar el objeto.

En muchas ocasiones se trata de objetos mal diseñados, donde suele

primar la estética sobre la usabilidad, cuyas indicaciones de uso son

confusas, o no se considera la predisposición de los usuarios.

Cuando se diseña un objeto es preciso pensar en quiénes van a

utilizar dicho objeto, y qué expectativas van a tener sobre su forma de uso,

tanto si son objetos conocidos (el usuario espera que se comporte de una

forma determinada) como si se trata de objetos novedosos (el usuario trata

de asociarlos a los que conoce).

En cambio de una Interfaz de usuario de un programa es un conjunto

de elementos hardware y software de un ordenador que presentan

Page 21: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

32

información al usuario y le permiten interactuar con la información y con el

ordenador.

La interfaz incluye el hardware que forma el sistema, como el teclado,

un dispositivo apuntador tal como un ratón, joystick o trackball, la CPU y el

monitor.

Según el autor antes mencionado, Los componentes software son los

elementos que el usuario ve, oye, a los que apunta o toca en la pantalla para

interactuar con el ordenador, así como la información con la que trabaja.

También se puede considerar parte de la interfaz la documentación

(manuales, ayuda, referencia, tutoriales) que acompaña al hardware y al

software.

El diseño de una interfaz es fundamental para el éxito de un

programa. Un buen programa con una pobre interfaz tendrá una mala

imagen, y al contrario, una buena interfaz puede realzar un programa

mediocre.

Los objetivos de los usuarios son muy variables; incluso un usuario

puede cambiar su objetivo cuando realiza una misma tarea.

Los programas son usados por usuarios con distintos niveles de

conocimientos (desde novatos hasta expertos). Así pues, no existe una

interfaz válida para todos los usuarios y todas las tareas. Debe permitirse

libertad al usuario para que elija el modo de interacción que más se adecue a

Page 22: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

33

sus objetivos en cada momento. La mayoría de los programas y sistemas

operativos ofrecen varias formas de interacción al usuario.

Existen tres puntos de vista distintos en una interfaz de usuario: el del

usuario, el del programador y el del diseñador (analogía de la construcción

de una casa). Cada uno tiene un modelo mental propio de la interfaz, que

contiene los conceptos y expectativas acerca de la interfaz, desarrollados a

través de su experiencia.

El modelo permite, entre otras cosas, explicar o predecir

comportamientos del sistema y tomar las decisiones adecuadas para

modificar el mismo. Según el autor Michael Darnell (1998), los modelos

subyacen en la interacción con los ordenadores, de ahí su importancia.

q Modelo del usuario. El usuario tiene su visión personal del sistema, y

espera que éste se comporte de una cierta forma, que se puede conocer

estudiando al usuario (realizando tests de usabilidad, entrevistas, o a través

de una realimentación). Una interfaz debe facilitar el proceso de crear un

modelo mental efectivo.

q Modelo del programador. Es el más fácil de visualizar, al poderse

especificar formalmente. Está constituido por los objetos que manipula el

programador, distintos de los que trata el usuario (ejemplo: base de datos -

agenda telefónica). Estos objetos deben esconderse del usuario.

Page 23: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

34

q Los conocimientos del programador incluyen la plataforma de

desarrollo, el sistema operativo, las herramientas de desarrollo,

especificaciones. Sin embargo, esto no significa necesariamente que tenga

la habilidad de proporcionar al usuario los modelos y metáforas más

adecuadas. Muchos no consideran el modelo del usuario del programa, y sí

sus propias expectativas acerca de cómo trabaja el ordenador:

q Modelo del diseñador: El modelo del diseñador describe los objetos

que utiliza el usuario, su presentación al mismo y las técnicas de interacción

para su manipulación.

El modelo consta, pues, de tres partes: presentación, interacción y

relaciones entre los objetos.

La presentación es lo que primero capta la atención del usuario, pero

más tarde pasa a un segundo plano, y adquiere más importancia cómo el

producto cumple las expectativas del usuario. La presentación no es lo más

relevante, y un abuso en la misma (por ejemplo, en el color) puede ser

contraproducente, distrayendo al usuario; es el conocido

La segunda parte define las técnicas de interacción del usuario, a

través de diversos dispositivos.

Page 24: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

35

La tercera es la más importante, y es donde el diseñador determina la

metáfora adecuada que encaja con el modelo mental del usuario. El modelo

debe comenzar por esta parte e ir hacia arriba. Una vez definida la metáfora

y los objetos del interfaz, los aspectos visuales saldrán de una manera lógica

y fácil (Ver Figura 5).

Figura 5. el look-and-feel iceberg de IBM (1992)

http://protos.dis.ulpgc.es/docencia/lp/index.html (Consulta Julio del 2000).

Estos modelos deben estar claros para los participantes en el

desarrollo de un producto, de forma que se consiga una interfaz atractiva y a

la vez efectiva para el trabajo con el programa. Una interfaz no es

simplemente una cara bonita; esto puede impresionar a primera vista, pero

Page 25: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

36

decepcionar a la larga. Lo realmente importante es que el programa se

adapte bien al modelo del usuario, cosa que se puede comprobar utilizando

el programa más allá de la primera impresión.

Aspectos de la psicología humana. Al diseñar interfaces de usuario

deben tenerse en cuenta las habilidades cognitivas y de percepción de las

personas, y adaptar el programa a ellas.

Así, una de las cosas más importantes que una interfaz puede hacer

es reducir la dependencia de las personas de su propia memoria, no

forzándoles a recordar cosas innecesariamente (por ejemplo, información

que apareció en una pantalla anterior) o a repetir operaciones ya realizadas

(por ejemplo, introducir un mismo dato repetidas veces).

La persona tiene unas habilidades distintas de la máquina, y ésta

debe utilizar las suyas para soslayar las de aquella (como por ejemplo la

escasa capacidad de la memoria de corto alcance).

La Reglas de oro del diseño de interfaces de usuario son una serie de

principios a seguir en el desarrollo de interfaces de usuario. Son las

siguientes:

Regla 1: Dar control al usuario. El diseñador debe dar al usuario la

posibilidad de hacer su trabajo, en lugar de suponer qué es lo que éste

desea hacer. La interfaz debe ser suficientemente flexible para adaptarse a

las exigencias de los distintos usuarios del programa.

Page 26: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

37

En concreto, se pueden enumerar los siguientes principios que

permiten al usuario estar en posesión del control:

q Usar adecuadamente los modos de trabajo.

q Permitir a los usuarios utilizar el teclado o el ratón.

q Permitir al usuario interrumpir su tarea y continuarla más tarde.

q Utilizar mensajes y textos descriptivos.

q Permitir deshacer las acciones, e informar de su resultado

q Permitir una cómoda navegación dentro del producto y una fácil salida

del mismo.

q Permitir distintos niveles de uso del producto para usuarios con

distintos niveles de experiencia.

q Hacer transparente la interfaz al usuario, que debe tener la impresión

de manipular directamente los objetos con los que está trabajando.

q Permitir al usuario personalizar la interfaz (presentación,

comportamiento e interacción).

q Permitir al usuario manipular directamente los objetos de la interfaz.

Regla 2: Reducir la carga de memoria del usuario. La interfaz debe

evitar que el usuario tenga que almacenar y recordar información. Para ello,

debe seguir los siguientes principios:

Page 27: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

38

q Aliviar la carga de la memoria de corto alcance (permitir deshacer,

copiar y pegar; mantener los últimos datos introducidos).

q Basarse en el reconocimiento antes que en el recuerdo (ejemplo:

elegir de entre una lista en lugar de teclear de nuevo).

q Proporcionar indicaciones visuales de dónde está el usuario, qué está

haciendo y qué puede hacer a continuación

q Proporcionar funciones deshacer, rehacer y acciones por defecto.

q Proporcionar atajos de teclado (iniciales en menús, teclas rápidas).

q Asociar acciones a los objetos (menú contextual).

q Presentar al usuario sólo la información que necesita (menús simples /

avanzados, wizards, asistentes).

q Hacer clara la presentación visual

Regla 3: Consistencia. Permite al usuario utilizar conocimiento

adquirido en otros programas consistentes con el nuevo programa. Ejemplo:

mostrar siempre el mismo mensaje ante un mismo tipo de situación, aunque

se produzca en distintos lugares. Principios:

q Consistencia en la realización de las tareas: proporcionar al usuario

indicaciones sobre el proceso que está siguiendo.

q Consistencia dentro del propio producto y de un producto a otro. La

consistencia se aplica a la presentación (lo que es igual debe aparecer

igual: color del texto estático), el comportamiento (un objeto se

Page 28: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

39

comporta igual en todas partes) y la interacción (los atajos y

operaciones con el ratón se mantienen; el usuario espera los mismos

resultados cuando interactúa de la misma forma con objetos distintos).

q Consistencia en los resultados de las interacciones: misma respuesta

ante la misma acción. Los elementos estándar del interfaz deben

comportarse siempre de la misma forma (las barras de menús

despliegan menús al seleccionarse).

q Consistencia de la apariencia estética (iconos, fuentes, colores,

distribución de pantallas).

q Fomentar la libre exploración de la interfaz, sin miedo a consecuencias

negativas.

Guías de diseño. Los estándares definen las características de los

objetos y sistemas que se usan cada día. Ejemplo: disposición de las teclas

en un teléfono. Existen estándares en muchas industrias, y también en la

informática.

Los principios anteriores no bastan para construir interfaces correctos.

Las guías de diseño de interfaces afectan a la presentación, el

comportamiento y la interacción de los elementos de la interfaz, y son reglas

e indicaciones a seguir en cuanto a la apariencia y comportamiento de estos.

Las guías de diseño abarcan tres áreas del diseño de la interfaz: física

(el hardware de la interfaz; por ejemplo, efecto de los botones de un ratón),

Page 29: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

40

sintáctica (presentación de la información y secuencia y orden de las

acciones del usuario para realizar una tarea, como por ejemplo imprimir) y

semántica (significado de los objetos y acciones, como por ejemplo el de las

palabras Exit y Cancel). Un aspecto que deben cuidar las guías de diseño es

el soporte para diversos lenguajes, con vistas al uso del producto a nivel

internacional.

7.7.- Proceso de diseño de interfaces de usuario

Según el autor Laudon y Laudon (1996), en el proceso de diseño de

una interfaz de usuario se pueden distinguir cuatro fases:

Reunir y analizar la información del usuario: qué tipo de usuarios van a

utilizar el programa, qué tareas van a realizar los usuarios y cómo las van a

realizar, qué exigen los usuarios del programa, en qué entorno se

desenvuelven los usuarios (físico, social, cultural).

Diseñar la interfaz de usuario. Es importante dedicar tiempo y recursos

a esta fase, antes de entrar en la codificación. En esta fase se definen los

objetivos de usabilidad del programa, las tareas del usuario, los objetos y

acciones de la interfaz, los iconos, vistas y representaciones visuales de los

objetos, los menús de los objetos y ventanas. Todos los elementos visuales

se pueden hacer primero a mano y luego refinar con las herramientas

adecuadas.

Page 30: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

41

Construir la interfaz de usuario. Es interesante realizar un prototipo

previo, una primera versión del programa que se realice rápidamente y

permita visualizar el producto para poderlo probar antes de codificarlo

definitivamente.

Validar la interfaz de usuario. Se deben realizar pruebas de usabilidad

del producto, a ser posible con los propios usuarios finales del mismo.

Es importante, en suma, realizar un diseño que parta del usuario, y no

del sistema.

7.8.- Prototipo

Según el autor antes mencionado, un prototipo es un modelo de un

producto o sistema. Dependiendo del propósito del prototipo y la naturaleza

del producto, el prototipo demostrará varios aspectos del producto como su

interfase, funcionalidad y otros. Los prototipos son una de las herramientas

utilizadas en Rapid Application Development (RAD) o Desarrollo rápido de

aplicaciones, un enfoque que permite a las organizaciones poner sus

productos en el mercado en el menor tiempo posible.

La elaboración de prototipos consiste en el desarrollo de un sistema

no funcional rápido y barato para que los usuarios finales los evalúen. Al

interactuar con el prototipo, los usuarios pueden tener una mejor idea de sus

Page 31: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

42

requerimientos de información. El prototipo avalado por los usuarios puede

ser usado cómo marco de referencia para crear el sistema definitivo.

Según los autores Laudon & Laudon el prototipo es una versión

operativa de un sistema de información o parte del sistema, pero se trata

sólo de un modelo preliminar. Una vez que opera, el prototipo será luego

mejorado hasta que se apegue exactamente a los requerimientos de los

usuarios. Para muchas aplicaciones, un prototipo puede ser extendido y

mejorado una y otra vez antes de aceptar el diseño final.

En el proceso de desarrollo de software tradicional, el sistema a ser

construido es primeramente analizado, después diseñado, después

codificado y por ultimo probado antes de ser entregado al cliente. En este

momento, si el cliente decide que los requerimientos eran errados o que han

cambiado, o que se necesitan nuevas funcionalidades es demasiado tarde

para lograr los cambios sin recurrir a gastos. El prototipo permite ver al

usuario, en una etapa temprana, cómo va a ser el sistema, lo que va a hacer

y cómo va a operar.

Las características de los prototipos dependen del sistema y el

propósito del prototipo. Generalmente se considera que los prototipos deben

ser construidos basados en la regla 20/80, esta regla dice que por lo general

20% de las funciones proveen el 80% de la funcionalidad que necesita o

quiere el usuario. El prototipo debe concentrarse en estas funciones

permitiéndole al usuario refinar sus especificaciones lo más pronto posible.

Page 32: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

43

Es posible que el prototipo sea un modelo completo y en este caso puede ser

utilizado en una situación real para ver cómo funciona en una situación real y

lo que los usuarios reales piensan de el.

La idea es apuntar al prototipo en una dirección que demuestre el

comportamiento funcional del sistema propuesto. El prototipo es utilizado

para intentar proveerle al cliente una representación concreta de las

percepciones del desarrollador y como un vehículo en el cual los

requerimientos del sistema puedan ser validados.

El desarrollador procede entonces a escoger un modelo para cada

problema en particular. Este proceso de selección tomará en cuenta la

naturaleza de los requerimientos.

Según los autores Laudon & Laudon el prototipo tiene en común con

otros tipos de desarrollo las etapas de vida del proyecto que indican las

tareas a ser llevadas a cabo durante el proceso de desarrollo.

1. Análisis de requerimientos. Incluye el entendimiento del contenido y la

naturaleza de los requerimientos iniciales del cliente. En esta etapa el

desarrollador debe determinar la funcionalidad que representará el prototipo,

aquí se debe poner particular atención a los requerimientos que no son muy

claros

2. Diseño. En esta etapa, el desarrollador deberá escoger un enfoque de

implementación apropiado. Además se debe derivar un diseño basado en los

resultados del análisis.

Page 33: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

44

3. Construcción del prototipo. En esta etapa se da la codificación del

prototipo.

7.8.1.- Tipos de prototipos

Según los autores Laudon & Laudon (1996), se considera que existen

cuatro o cinco tipos de prototipos: prototipo evolucionador, prototipo

desechable, prototipo incremental, prototipo rápido y prototipo Operativo.

1. Prototipo evolucionador es un intento de tomar en perspectiva un

numero de imperfecciones en el desarrollo de software y el papel del cambio.

Durante un proyecto de software, el director de desarrollo es la víctima de un

numero de circunstancias que requieren que el producto siendo desarrollado

cambie. Entre las razones de este cambio podemos citar:

q Serán descubiertos errores en las especificaciones del sistema.

q Se producirán cambios de parte del cliente de las especificaciones.

q Es difícil predecir la respuesta de sistemas de tiempo real y muchos

desarrolladores han adoptado una estrategia de ajustar los algoritmos una

vez que el sistema está construido.

El prototipo evolucionador involucra al desarrollador en producir un

prototipo al principio del proyecto y no descartarlo y utilizarlo como la base de

desarrollo y así durante el proyecto siempre existirá un prototipo del sistema

Page 34: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

45

lo que implica que el varias versiones ejecutables del sistema existirán en

diferentes etapas de evolución.

2.- Prototipo descartable consiste en desarrollar una versión rápida de

un sistema o paquete de software y seguidamente llevar a cabo un proceso

clínico de evaluación y modificación hasta que el cliente se declara contento

con lo que se ha desarrollado. En este punto el prototipo se congela y se

comienza el desarrollo del software. El objetivo es asegurarse de la

veracidad de las especificaciones de requerimientos por medio de la

validación por parte del cliente de las mismas. Se debe de estar claro de que

el prototipo será desechado después de esto y que por lo tanto la

implementación no deberá ser mantenible o eficiente.

3.- Prototipo incremental consiste en producir un número de versiones

de un sistema. Cada versión brinda mayor funcionalidad. Esto en realidad es

entrega incremental, su conexión con los prototipos es que el desarrollador

puede utilizar entregas tempranas del sistema como prototipo. Además

incluye la división de los requerimientos del usuario en funciones

independientes que no traslapan. El prototipo incremental incluye la entrega

de un sistema en etapas planeadas donde cada etapa implementa una de las

funciones.

4.- El prototipo rápido es un enfoque que permite obtener una

visualización temprana de cómo será el producto final. Esta visualización le

da al cliente una oportunidad de decidir si la idea del ingeniero de software

Page 35: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

46

es lo que él quiere y le da la oportunidad al equipo de software de cambiar el

diseño lo más pronto posible. Este enfoque es particularmente útil para

estudiar la interfase entre el usuario y el sistema y depende de la habilidad

del equipo desarrollador de crear de una manera rápida y barata un sistema

que se verá como lo que el cliente puede esperar.

5.- Prototipo Operativo es un sistema el cual permite ser evaluado con

datos reales involucrados directamente con procesos internos de una

Empresa. Permitiendo de esta manera comparar de manera efectiva los

resultados obtenidos por medio de este y el sistema antiguo, con el fin de

realizar una visualización temprana del producto final. Este enfoque es muy

útil para el desarrollo rápido de sistemas.

7.8.2.- Razones para usar un Prototipo

Según los autores Laudon & Laudon existen varias razones por las

cuales utilizar un prototipo entre las cuales encontramos el ser dinámico.

El desarrollo interactivo de programas – ya sea para una terminal tonta

o para una estación de trabajo inteligente – es utilizado generalmente como

un método dinámico de componer programas.

Para experimentar con la interfase entre el humano y la computadora.

Page 36: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

47

El usuario puede ver e identificar fácilmente áreas que no son tan

fáciles de utilizar como deberían de ser o muy complejas para ser utilizadas

eficientemente.

• Para descubrir requerimientos que han sido pasados por alto

Si el problema a resolver es comprendido y si el análisis de

requerimientos fue efectivo y si los usuarios y analistas se comunicaron

efectivamente, un modelo de requerimientos será certero y adecuado para

ser entregado a los diseñadores y programadores. Desafortunadamente esto

no es siempre el caso.

• Para probar el diseño

El prototipo ayudan a probar diseños candidatos, demostrarán si la

estimación (en papel) de los requerimientos de hardware es certera o no.

• Para darle al cliente una idea de lo que se está haciendo

El prototipo puede servir como una herramienta para asegurarle al

cliente que el diseño del sistema en realidad funciona.

7.8.3.-Ventajas y Desventajas de los Prototipos.

Page 37: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

48

Desventajas de la utilización de prototipos.

q Es difícil manejar la elaboración de prototipos como un proyecto

dentro de un esfuerzo de sistemas más grande.

q Los usuarios y analistas pueden adoptar a un prototipo como un

sistema terminado cuando esto es inadecuado.

Ventajas de la utilización de prototipos.

q Existe el potencial para hacer cambios en el sistema en las primeras

etapas de sus desarrollo.

q Existen oportunidades para detener el desarrollo de un sistema que no

es funcional.

q Puede atacar necesidades de usuario y expectativas más de cerca.

8.- DEFINICION DE TERMINOS BASICOS.

q Alocaciones: Cálculo que se realiza para estimar la producción de

cada pozo. (Empresa Merak, 2000)

q Base de Datos: Es una colección integral e inteligible de datos

organizados para evitar la duplicación de los mismos, permitiendo la

recuperación de información para satisfacer una amplia variedad de

necesidades del usuario. (1993, p.340).

Page 38: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

49

q Ethernet: Es la tecnología de red de área local más extendida en la

actualidad. Fue diseñado originalmente por Digital, Intel y Xerox por lo cual,

la especificación original se conoce como Ethernet DIX. Posteriormente en

1.983, fue formalizada por el IEEE como el estándar Ethernet 802.3. La

velocidad de transmisión de datos en Ethernet es de 10Mbits/s en las

configuraciones habituales pudiendo llegar a ser de 100Mbits/s en las

especificaciones Fast Ethernet. ( http:// nti.educa.rcanaria.es/conocernos_

mejor/apuntes/).

q Facilidades: Se define como cualquier sitio dentro de la aplicación

FieldView bien sea un Pozo, una Plataforma o un Manifold.(Empresa Merak,

2000)

q FieldView: Es una aplicación que permite recolectar la data

proveniente de la producción petrolera a través de ventanas de dialogo,

cuadros gráficos, reportes etc, de manera diaria. (Empresa Merak, 2000)

q Hardware: Es una denominación general de las unidades materiales

que componen un sistema informático, es el conjunto de aparatos y equipos

materiales. Candor (1994, p.195).

Page 39: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

50

q Informática: son todas las tecnologías, que colectivamente tratan de

la recopilación, procesamiento y transmisión de información con la ayuda de

computadoras. Tejera (1993, p.620).

q Manifold: Lugar donde concurren las conexiones de varios pozos y a

la cual llega el petróleo y redireccionado hacia la plataforma. (Empresa

Merak, 2000)

q ODBC (Object Data Base Connection): es un intermediario entre

bases de datos y aplicaciones, cuya tarea es sostener una conversación de

preguntas y respuestas entre dos computadores que no hablan el mismo

idioma y que gestionan sus recursos de forma diferente.

q OFM: (Oil Field Manager, Administrador del petróleo de campo). Es

una aplicación que permite el almacenamiento, acceso y análisis de la

producción y datos de pozos o reservorios de petróleo y gas. (Empresa

Merak, 2000)

q ORACLE: Manejador de base de datos.

q Plataforma: Receptor principal de petróleo y sitio de tratamiento del

mismo para luego ser redireccionado a los tanques de almacenamiento.

Page 40: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

51

q Procesamiento De Datos: Es el que se ejecuta por un sistema de

maquinas eléctricas o electrónicas interconectadas e interactuando de tal

forma que reducen a un mínimo la necesidad de la ayuda o intervención

del hombre. Khorth y Silberschatz (1992 p.1).

q Scritp o Query: Grupo de sentencias mediante las cuales se ejecutan

rutinas a una base de Datos bien sean Simples Select o Delete.

q Servidor: Es un computador en el cual funciona un software

administrativo que controla el acceso hacia todos los enlaces o partes de una

red así como también de sus recursos (como discos duros o impresoras) un

computador que actúa como un servidor permite que los recursos sean

accesibles para los computadores que trabajen como estaciones de trabajo.

q TCP/IP: Es realmente un conjunto de protocolos, donde los más

conocidos son TCP (Transmission Control Protocol o protocolo de control de

transmisión) e IP (Internet Protocol o protocolo Internet).( http://

nti.educa.rcanaria.es/conocernos_mejor/apuntes/).

9.- SISTEMA DE VARIABLES

Page 41: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

52

Para efectos de este proyecto investigativo las variables de estudio

involucradas en el mismo, tomando en cuenta a la Universidad de Yale y el

autor Michael Darnell son las siguientes : Interfaz de usuario y los Sistemas

de control estadísticos.

9.1.-Sistema de Control Estadístico

Según la Universidad de Yale, conceptualmente los sistemas de

control estadísticos, se refieren, a la aplicación de los principios de control de

todo el funcionamiento de una organización. Tiene como objetivo cerciorarse

de que los hechos vayan de acuerdo con los planes establecidos, señalar las

debilidades y errores a fin de rectificarlos e impedir que se produzcan

nuevamente, medir lo logrado en relación con el estándar.

Operacionalmente los sistemas de control estadísticos tienen sus

bases en relación al análisis de manera eficiente, garantizando la integridad

de la información concerniente al proceso de producción petrolera.

La creación de sistemas que permitan llevar de manera automática

procesos estadísticos relacionados los mismos con producción vienen dados

a la necesidad imperiosa de un cambio a nivel mundial para procesar los

datos provenientes de los campos o zonas geográficas en donde están

localizados los pozos petroleros. Esto permite que sistemas como FieldView

y OFM (Oil Field Manager) logren llevar de manera rápida el control diario o

Page 42: 6.- ANTECEDENTES DE LA INVESTIGACION.

Capitulo II

53

mensual de las diversas operaciones y valores concernientes al campo

petrolero imponiendo así un estándar a nivel mundial en cuanto a lo que se

refiere al manejo estadístico de la producción en el ámbito petrolero.

9.2.- Interfaz de Usuario

Según el autor Michael Darnell, conceptualmente las interfaces son un

conjunto de elementos a través de los cuales un usuario interactúa con un

objeto que realiza una tarea determinada. Asimismo, Es una herramienta la

cual permite realizar cualquier tipo de tarea de manera automatizada.

Operacionalmente hablando una interfaz tomando en cuenta el

proyecto, se refiere a la o las herramientas en las cuales diversas

operaciones pueden ser realizadas y se encuentran directamente

involucradas con tareas de producción petrolera concerniente a coordenadas

de pozos, gráficos, información histórica entre otros, pero jugando un papel

importante para la integración de dos aplicaciones como los son FieldView y

OFM, dando paso a un nuevo modo para el control del proceso productivo de

la empresa.