Metodologia de Pruebas V2

18
Dirección de Sistemas de Información Metodología de Pruebas v2.1.doc Pág. 1 de 18 METODOLOGIA DE PRUEBAS Actualización: 2.1 Autor: OdP Calidad de Metodología

description

met prueba

Transcript of Metodologia de Pruebas V2

  • Direccin de Sistemas de Informacin Metodologa de Pruebas v2.1.doc Pg. 1 de 18

    METODOLOGIA DE PRUEBAS Actualizacin: 2.1 Autor: OdP Calidad de Metodologa

  • Direccin de Sistemas de Informacin Metodologa de Pruebas v2.1.doc Pg. 2 de 18

    Contenido

    1. OBJETIVOS Y ALCANCE .................................................................................................... 3

    2. METODOLOGA DE PRUEBAS ........................................................................................... 4

    2.1. FASE DE PLANIFICACIN............................................................................................................ 5

    2.2. FASE DE ESPECIFICACIN ......................................................................................................... 6

    2.2.1 Atributos de la Definicion de Casos de Prueba ........................................................................ 7

    2.2.2 Atributos de la Definicion de Escenarios de Prueba ................................................................. 8

    FASE DE EJECUCIN............................................................................................................................. 9

    2.2.3 Modelo de Ejecucin de Pruebas .......................................................................................... 10 2.2.4 Atributos del Registro de Ejecucion de Pruebas .................................................................... 11

    2.2.5 Atributos del Registro de Incidencias de Pruebas .................................................................. 11

    3. CLASIFICACION DE LAS PRUEBAS ................................................................................ 14

    3.1. ACTIVIDADES DE PRUEBAS...................................................................................................... 14

    3.2. TIPOS DE PRUEBAS .................................................................................................................. 15

    4. TRAZABILIDAD ................................................................................................................. 16

    5. ANEXO .............................................................................................................................. 16

    5.1. MTRICAS DURANTE CICLO DE PRUEBAS ............................................................................. 16

    5.2. GLOSARIO .................................................................................................................................. 17

    Versin Responsable Fecha Descripcin del cambio 1.0 CCA Primera versin del documento

    1.1 EFS 31/Oct/07 Apartado de Mtricas.

    1.2 CAC Marzo 2009 Actualizacion Puntos 2 y 4.1

    1.3 CAC Julio 2009 Adaptacin MGD 3.3

    2.0 CAC y JRA Noviembre 2011 Reformulacin Metodolgica (Taller Metodologa de Pruebas)

    2.1 CdM 19/04/2012 Atributos en la definicin de escenarios de prueba.

  • Direccin de Sistemas de Informacin Metodologa de Pruebas v2.1.doc Pg. 3 de 18

    1. OBJETIVOS Y ALCANCE

    El objetivo del presente documento es establecer una metodologa para la realizacin de Pruebas en los

    procesos de implementacin de Sistemas de Informacin (Proyectos y Mantenimiento), que pueda ser

    tomada como referencia para la definicin y ejecucin de pruebas para los sistemas de Repsol.

    Los procesos aqu descritos son independientes del uso de herramientas. Sin embargo, se mencionar su

    uso dentro de la metodologa, pues la utilizacin de una herramienta de gestin de pruebas es altamente

    recomendada.

    Est ampliamente probado que la ejecucin de actividades estructuradas de pruebas es una de las mejores

    prcticas de aseguramiento de la calidad y cuando se encuentra bien implementada puede significar un

    importante ahorro en costes ligados a la implementacin de Sistemas de Informacin.

  • Direccin de Sistemas de Informacin Metodologa de Pruebas v2.1.doc Pg. 4 de 18

    2. METODOLOGA DE PRUEBAS

    La Metodologa de Pruebas est integrada dentro de la Metodologa General de Desarrollo y est definida

    como parte independiente de esta, para establecer una mayor claridad en los procedimientos que se

    describen a continuacin. Si bien, debe de tenerse en cuenta en todo momento su integracin.

    La Metodologa de Pruebas, se basa principalmente en el concepto de caja negra, es decir, el elemento es

    estudiado desde el punto de vista de las entradas que recibe y las salidas que produce, sin tener en cuenta

    el funcionamiento interno. Se centran en probar funcionalidad.

    El ciclo de vida, en la Metodologa de Pruebas tiene tres fases:

    Planificacin, Especificacin y Ejecucin.

    En la Planificacin, se establece la estrategia a seguir para llevar a cabo la ejecucin de las pruebas. En la

    fase de Especificacin, se disean las pruebas y finalmente, en la fase de Ejecucin, se ejecutan las

    pruebas.

    Las Fases de la Metodologa de Pruebas se integran en la Metodologa General de Desarrollo (MGD) de la

    siguiente forma:

    A continuacin, se describen las fases:

  • Direccin de Sistemas de Informacin Metodologa de Pruebas v2.1.doc Pg. 5 de 18

    2.1. FASE DE PLANIFICACIN

    Objetivo: Formular una estrategia de cmo se realizaran las pruebas. Esta actividad sirve para informar al

    Cliente las actividades y tipos de pruebas a realizar durante el proceso de las pruebas y para acordar cules

    son los Escenarios de Negocio que se habrn de considerar en las Pruebas de Aceptacin como

    imprescindibles para aprobar la Puesta en Produccin del Sistema.

    En esta fase se realizan las tareas relacionadas con el comienzo de la actividad, encuadrndose en la Fase

    de Anlisis Funcional de la MGD.

    Las actividades de esta fase son las siguientes:

    Definicin de las actividades y tipos de pruebas a realizar

    Establecer el entorno de trabajo donde se realizarn las pruebas y los juegos de datos necesarios

    para la realizacin de las mismas

    Acordar el Modelo de Gestin de la actividad de Pruebas, Uso de Herramientas, etc. Se determinar

    el modo de registrar las pruebas, el levantamiento de incidencias y el modelo de trabajo para

    resolver las mismas

    Descripcin y Priorizacin de los Escenarios de Negocio para las Pruebas de Aceptacin

    Planificacin de necesidades para realizar las pruebas de aceptacin

    Definicin de los Criterios de aceptacin del Sistema y finalizacin de la Prueba

    Se deben de tener en cuenta la posibilidad ideal de tener un entorno de prueba independiente, de manera

    que no se vea afectado por las labores habituales de desarrollo con el fin de preservar la fiabilidad de la

    prueba. Esto es especialmente indicado en la realizacin de las Pruebas de Aceptacin del Usuario.

    Por otro lado, puede ser til confeccionar un conjunto de datos de prueba genrico que sirva como punto de

    partida en las distintas actividades de pruebas (ya sea generndolos manualmente o importando un

    subconjunto de datos de produccin).

    Es importante la definicin del Criterio de Aceptacin del Sistema, de tal modo que no existan incidencias

    con criticidad Invalidante, Alta o Media pendientes de correccin, una vez que hayan sido ejecutados

    aquellos Escenarios de Prueba acordados con el Negocio para obtener la aceptacin del Sistema.

    Esta actividad se soporta con la descripcin de un Plan de Pruebas. Este documento debe ser aprobado

    por el Cliente y es la base de la Aceptacin del Sistema.

  • Direccin de Sistemas de Informacin Metodologa de Pruebas v2.1.doc Pg. 6 de 18

    2.2. FASE DE ESPECIFICACIN

    Objetivo: Las pruebas requeridas deben estar especificadas. Se trata de hacer los trabajos preparatorios

    para la ejecucin de las pruebas, lo que incluye la definicin de las mismas, la preparacin de los juegos de

    datos y asegurar que el sistema y los entornos estn disponibles para la realizacin de la actividad

    planificada.

    En esta fase se realizan las tareas relacionadas con la preparacin de la ejecucin, encuadrndose en la

    Fase de Diseo Tcnico de la MGD.

    Las actividades de esta fase son las siguientes:

    Definir los casos de prueba a realizar con sus resultados esperados

    Detallar los escenarios de prueba que dirigirn la ejecucin de los casos de prueba

    Establecer prioridades para los casos de prueba

    Preparar y validar los datos de prueba a ser usados por los casos de prueba

    Preparar y verificar que el entorno de pruebas est en condiciones para la ejecucin de pruebas

    A partir de la elaboracin de la estrategia, se comienza con la definicin de los casos de prueba. Se

    recomienda el uso de alguna herramienta para especificar los casos de prueba. En esta etapa se generan

    conjuntos de casos de prueba clasificados por prioridad para cada funcionalidad.

    La definicin de casos de prueba constituye el primer paso a la hora de realizar las pruebas de un sistema.

    Es recomendable realizar la definicin de casos de prueba, para todo el sistema, al comienzo para luego

    dedicarse a la ejecucin (el conocimiento adquirido ser mayor), en determinadas situaciones, este

    esquema puede no ser practicable. Por ejemplo debido a que ciertos requerimientos del sistema no estn

    disponibles todava al momento de definir casos de prueba. En este tipo de situaciones, un esquema

    alternativo es realizar la definicin seguida de la ejecucin para los requerimientos disponibles solamente.

    La cantidad de informacin disponible como entrada para esta actividad vara mucho de acuerdo al

    Proyecto. En general los casos de prueba se derivan de las siguientes fuentes:

    Documentacin general del sistema u objeto a probar

    Documento de especificacin funcional (EDRF)

    Modelo de datos del sistema

    Prototipo o pantallas del sistema

    Una vez escritos los casos de prueba y el resultado esperado, es importante validarlos. El objetivo es

    reducir al mximo la brecha existente entre lo implementado y lo requerido o especificado. Es importante

    validar tanto la completitud en la definicin como la especificacin del resultado esperado de cada uno, as

    como tambin la prioridad de ejecucin asignada.

    Todos los Requisitos del Sistema deben estar cubiertos al menos con un Caso de Prueba y en el caso de

    ser descritos como Casos de Uso, deber de tener al menos tantos casos de Prueba como Flujos contenga

    (Normal y Alternativos).

  • Direccin de Sistemas de Informacin Metodologa de Pruebas v2.1.doc Pg. 7 de 18

    Esta actividad se soporta mediante el documento de Definicin de Pruebas, si bien se identificarn dos

    formatos dependiendo de la naturaleza de la prueba: Las Pruebas Funcionales se debern de trazar con

    los Casos de Uso de la aplicacin y se describen los pasos para la definicin de la Prueba. El Resto de

    Pruebas sern meramente descriptivas para facilitar su definicin. (Ver Captulo Clasificacin de Pruebas

    para ver los distintos Tipos de Prueba que se han contemplado y su definicin). Este documento tambin

    servir para realizar la carga automtica inicial de la Definicin de Pruebas en la herramienta de Gestin.

    Una vez definidos los casos de prueba, debern de definirse los escenarios de prueba, tanto los que se han

    previsto en el Plan de Pruebas para la aceptacin del sistema, como aquellos adicionales que se considere

    oportuno crear.

    Los Escenarios de Prueba deben de detallarse mediante la composicin de los distintos casos de prueba,

    de manera que permitan ejecutar un Proceso de Negocio completo o una parte del mismo. Normalmente los

    escenarios de prueba contienen casos de prueba que pueden ser de distintas aplicaciones, ya que permiten

    validar la integracin del Sistema construido dentro del mbito funcional existente.

    Con el objeto de asegurar un correcto mantenimiento futuro del sistema, se debe de identificar si el

    Escenario de Prueba pasar a Mantenimiento y si este deber ser ejecutado en la actividad de Pruebas de

    Regresin. Esta actividad debe ser verificada nicamente al final del proyecto.

    2.2.1 ATRIBUTOS DE LA DEFINICION DE CASOS DE PRUEBA

    Prioridad de Casos de Prueba

    A continuacin se dan las reglas bsicas para la priorizacin de los Casos de Prueba:

    Prioridad

    Caso de

    Prueba

    Descripcin

    Alta

    Funcionalidades bsicas que permiten probar rpidamente y a lo ancho el sistema. Estos casos permiten detectar tempranamente funcionalidades bsicas no implementadas o que no funcionan (ej: no se puede ingresar a una pantalla, al presionar el botn de alta se produce un error, etc.) No se incluyen en esta categora casos negativos o de pruebas de seguridad, ya que no deberan superar el 20% de los casos definidos.

    Media

    Estos casos permiten probar con mayor profundidad las funcionalidades ms crticas del sistema. Se plantean distintas variaciones y situaciones incluyendo las principales pruebas de seguridad. Se corresponden con situaciones cuya probabilidad de ocurrencia es alta o media. Se incluyen en esta categora todos los casos cuya ejecucin no puede ser pospuesta hasta la puesta en produccin. La falla de estos casos generara incidentes que impediran el pasaje a produccin del sistema o de alguna de sus funcionalidades.

    Baja

    Dentro de esta categora se incluyen los casos cuya probabilidad de ocurrencia es baja y cuyo impacto en caso de falla no se supone invalidante para la aceptacin de una funcionalidad o su pasaje a produccin. Si bien la ejecucin de estos casos es importante para garantizar el correcto funcionamiento de la aplicacin, se podr posponer o suspender la ejecucin de los mismos en caso de tener que recortar el alcance de las pruebas previas a la fecha de una puesta en produccin. La clasificacin de estos casos tambin depender mucho del usuario final del sistema y de las opciones de contingencia en caso de fallar determinadas funcionalidades o situaciones particulares.

  • Direccin de Sistemas de Informacin Metodologa de Pruebas v2.1.doc Pg. 8 de 18

    2.2.2 ATRIBUTOS DE LA DEFINICION DE ESCENARIOS DE PRUEBA

    Prioridad de Escenarios de Prueba

    A continuacin se dan las reglas bsicas para la priorizacin de los Escenarios de Prueba:

    Prioridad

    Escenario

    de

    Prueba

    Descripcin

    Alta

    Identifica aquellos escenarios de prueba que deben finalizar satisfactoriamente para que el software pueda ser aceptado por el negocio. Es decir, deber acordarse e identificar entre negocio y cuenta aquellos escenarios que cumplen esta prioridad y establecer el porcentaje de ejecuciones correctas de los mismos para aceptar el software. Se recomienda para esta prioridad establecer el 100% de los mismos.

    Media

    Identifica aquellos escenarios de prueba que deben finalizar satisfactoriamente para que el software pueda ser aceptado por el negocio. Es decir, deber acordarse e identificar entre negocio y cuenta aquellos escenarios que cumplen esta prioridad y establecer el porcentaje de ejecuciones correctas de los mismos para aceptar el software. Se recomienda para esta prioridad establecer el 50% de los mismos.

    Baja

    Identifica aquellos escenarios de prueba que deben finalizar satisfactoriamente para que el software pueda ser aceptado por el negocio. Es decir, deber acordarse e identificar entre negocio y cuenta aquellos escenarios que cumplen esta prioridad y establecer el porcentaje de ejecuciones correctas de los mismos para aceptar el software. Se recomienda para esta prioridad establecer un porcentaje inferior al 50% de los mismos.

    Regresin de Escenarios de Prueba

    A continuacin se dan las reglas bsicas para los grupos funcionales de los Escenarios de Prueba:

    Regresin

    Escenario

    de Prueba

    Descripcin

    No

    Identifica al escenario de prueba como no reutilizable para la actividad de pruebas de regresin.

    Si

    Identifica al escenario de prueba como candidato para su ejecucin en la actividad de pruebas de regresin dentro del alcance de un mantenimiento y para ser utilizado dentro del catlogo de escenarios, as como, en un futuro abordar la actividad de automatizar todos los casos de prueba que lo componen.

  • Direccin de Sistemas de Informacin Metodologa de Pruebas v2.1.doc Pg. 9 de 18

    FASE DE EJECUCIN

    Objetivo: Obtener la validacin de los requisitos que se prueban, por medio de las ejecuciones de

    escenarios y/o casos de prueba que se han acordado.

    En esta fase se realizan las tareas relacionadas con la ejecucin de las pruebas, encuadrndose en la Fase

    de Construccin y Pruebas de la MGD.

    Las actividades de esta fase son las siguientes:

    Ejecutar los escenarios y/o casos de prueba y registrar sus resultados

    Registrar las incidencias en el caso de que se producen fallos en las ejecuciones

    Realizar el seguimiento de las incidencias hasta su resolucin

    Realizar el seguimiento del progreso de las ejecuciones e informar del mismo

    Establecer el cese de a actividad cuando se den las condiciones de aceptacin por el Cliente

    Una vez definidos los escenarios y/ocasos de prueba, comienza la etapa de ejecucin de la prueba. En esta

    etapa se realiza la ejecucin de todos los escenarios y/o casos de prueba definidos, se reportan los

    problemas encontrados y se realiza el seguimiento de los problemas. No es necesario esperar a que el

    producto est completamente desarrollado para comenzar con la ejecucin. Este puede iniciarse y continuar

    a medida que se vayan liberando los diferentes mdulos del producto.

    A lo largo de cada prueba o ciclo de ejecucin se irn actualizando los estados de ejecucin de los casos de

    prueba, notificando los incidentes encontrados y actualizando los estados de las incidencias encontradas.

    La modalidad y frecuencia de notificacin de los incidentes depender en gran medida del proyecto que se

    est llevando a cabo y de lo acordado durante la planificacin o ejecucin del proyecto.

    Una vez que se hayan cumplido los criterios de terminacin de las pruebas, se procede a concluir la

    actividad de Pruebas y se realiza el Paso a Produccin del Sistema.

    Esta actividad se soporta mediante los documentos Registro de Ejecucin de Pruebas y Registro de

    Incidencias de Pruebas.

    En el Registro de Ejecucin de Pruebas se deben de registrar de manera independiente la ejecucin de

    las distintas actividades que deban ser observadas en todo el proceso. (Ver captulo Clasificacin de

    Pruebas para ver las distintas Actividades de Prueba que se han contemplado y su definicin).

    En el Registro de Incidencias de Pruebas se registrarn todas las incidencias que se produzcan a lo largo

    de todo el proceso, independientemente de la actividad donde se hayan detectado.

    El Registro de la ejecucin de las Pruebas en una herramienta y la identificacin del usuario que hace la

    misma hace innecesario el registro de evidencias de la actividad de forma manual. El usuario responsable

    debe de realizar la actividad para que quede registrado, si se hace delegacin en un tercero, esta

    delegacin debe estar documentada. nicamente se requiere el correo de aceptacin del Usuario para el

    paso a productivo de la aplicacin, siendo innecesario adjuntar las pruebas realizadas.

  • Direccin de Sistemas de Informacin Metodologa de Pruebas v2.1.doc Pg. 10 de 18

    2.2.3 MODELO DE EJECUCIN DE PRUEBAS

    Como regla general, la realizacin de las distintas actividades de Pruebas es obligatoria, siempre y cuando

    sean de aplicacin. En la hoja Excel adjunta se puede ver de forma resumida el Modelo de Ejecucin de

    Pruebas que se explica a continuacin:

    Modelo de Ejecucin de Pruebas.xlsx

    No es obligatorio realizar el registro de las pruebas cuando se realicen las Pruebas Unitarias Bsicas y en

    Proyectos de Laboratorio.

    La Actividad de Pruebas de Regresin no se registra de manera independiente, pues esta estar incluida

    en el registro del resto de Actividades.

    Siempre que haya implantacin de software, deben de realizarse Pruebas de Tipo Funcional orientadas a

    validar la funcionalidad del sistema en las condiciones definidas por los Requisitos, tanto funcionales como

    no funcionales.

    Las Pruebas de Rendimiento se ejecutarn segn el tipo de proyecto y/o aplicacin afectada. Para

    implantacin de Nuevas Tecnologas deben de realizarse de manera obligatoria. En Proyectos de

    Laboratorio se deben de realizar dichas pruebas para minimizar el impacto del primer proyecto en

    produccin, se considera una prueba parcial ya que el entorno donde se ejecuta la prueba no est en las

    mismas condiciones que el futuro entorno productivo, sin embargo esta prueba debe ser lo ms completa

    posible.

    As mismo, siempre que el proyecto necesite de la instalacin de un nuevo Hardware en Produccin o, en el

    caso en que la implantacin de Software pudiera tener impacto en la plataforma existente debern de

    realizarse de manera obligatoria Pruebas de Rendimiento.

    Se deber de identificar, la necesidad de realizar cualquier actividad de prueba que no est validada a

    travs de una Prueba Funcional en la Definicin de Requisitos del proyecto de forma especfica, o en su

    defecto, por Arquitectura a travs del Convenio. Normalmente esto se deber de especificar cuando haya

    necesidad de realizar pruebas de Rendimiento, Seguridad externa, Portabilidad, y otras susceptibles de ser

    identificadas de forma independiente.

    En Pruebas de Infraestructura debe registrarse la actividad de Pruebas Integradas por parte de la Cuenta

    y las Pruebas de Aceptacin por parte del Negocio. En este caso, normalmente son pruebas de tipo

    funcional, si bien las hay tambin de carcter no funcional (EJ: prueba de conexin a la red).

    El registro de las Pruebas Unitarias en Pruebas de Infraestructura ser obligatorio en caso de implantacin

    de nuevos componentes de Hardware o Software de Base.

  • Direccin de Sistemas de Informacin Metodologa de Pruebas v2.1.doc Pg. 11 de 18

    Para Tecnologa Business Intelligence se exige realizar Pruebas de Rendimiento con carcter obligatorio, si

    bien para la realizacin de estas pruebas no es necesario utilizar la herramienta LoadRunner, bastar con

    una toma de tiempos de ejecucin, tal y como se determina en la plantilla existente para su

    cumplimentacin.

    Para la realizacin del PRD las pruebas que deben realizarse son las que estn catalogadas como Pruebas

    de Regresin en cada una de las aplicaciones donde sea de aplicacin el mismo.

    2.2.4 ATRIBUTOS DEL REGISTRO DE EJECUCION DE PRUEBAS

    Para poder gestionar la ejecucin de las pruebas de una manera homognea se deben respetar las siguientes definiciones: Estado del Caso de Prueba

    A cada caso de prueba que es ejecutado se le debe asociar un Estado de ejecucin. Los posibles estados

    de ejecucin para un caso de prueba son:

    Estado

    Ejecucin

    Descripcin

    xito El caso de prueba fue ejecutado con xito. Coincide con el resultado esperado.

    Falla El caso de prueba fue ejecutado y se encontraron fallos. El resultado no coincide con

    lo esperado.

    No Completado El caso de prueba fue ejecutado parcialmente pero no completado.

    No Ejecutado El caso de prueba no ha sido ejecutado. Es el estado inicial para todos los casos de

    prueba.

    N/A No aplica. Por ejemplo porque est en diseo, pendiente datos en el entorno, etc.

    Como norma general si el estado de ejecucin es Falla quiere decir que hay una incidencia asociada al

    caso de prueba.

    2.2.5 ATRIBUTOS DEL REGISTRO DE INCIDENCIAS DE PRUEBAS

    Para poder gestionar las incidencias de las pruebas de una manera homognea se deben respetar las siguientes definiciones: Estado de la Incidencia

    A cada Incidencia se le debe asociar un Estado. Los posibles estados de incidencias son:

    Estado

    Incidencia

    Descripcin

    Hallado El equipo de pruebas reporta un incidente. El incidente se encuentra pendiente de

    solucin.

    Asignado El incidente ha sido asignado a desarrollo, se encuentra pendiente de solucin.

    Corregido Desarrollo corrige el incidente y notifica al equipo de pruebas. La correccin est

  • Direccin de Sistemas de Informacin Metodologa de Pruebas v2.1.doc Pg. 12 de 18

    disponible en el entorno de pruebas.

    Cerrado El equipo de pruebas corrobora que el incidente fue corregido por desarrollo y la

    incidencia es cerrada.

    Rechazado

    Desarrollo o responsable de proyecto informa que el incidente ha sido rechazado. Los

    motivos del rechazo pueden ser: No reproducible, No aplica desarrollo, Repetido. Ver

    tabla Motivo Rechazo para mayor detalle.

    Re abierto Un incidente fue corregido por desarrollo pero este todava se manifiesta. La

    incidencia vuelve a pasar por el ciclo normal.

    Descartado Queda descartada la resolucin del incidente para el Mantenimiento posterior

    Paso a

    Correctivo

    El incidente deber ser corregido en accin independiente de Mantenimiento a la

    actividad donde se ha hallado el mismo

    Diagrama de Flujo de Estado de una Incidencia

    Prioridad de la Incidencia

    A cada Incidencia se le puede asociar una Prioridad que permita establecer criterios de urgencia para su

    resolucin. Las posibles prioridades de incidencias son: Alta. Media o Baja

    Criticidad de la Incidencia

  • Direccin de Sistemas de Informacin Metodologa de Pruebas v2.1.doc Pg. 13 de 18

    A cada Incidencia se le puede asociar una Criticidad que permita establecer el impacto que provoca en el

    Negocio en el caso de no estar resuelta. Las posibles Criticidades de incidencias son:

    Criticidad

    Incidencia

    Descripcin

    Invalidante

    El incidente impide la prueba de una funcionalidad. Debe ser solucionado

    inmediatamente para poder testear la funcionalidad, no hay otra alternativa para

    ejecutar la funcionalidad. Ejemplos: no es posible acceder a una pantalla o se

    produce un error al presionar un botn clave en una pantalla, opcin del men no

    disponible, etc.

    Alta

    Implica un funcionamiento incorrecto grave en situaciones con probabilidad de

    ocurrencia alta o media. El incidente debe ser solucionado para poder realizar la

    puesta en produccin de la funcionalidad. Ejemplos: calculo incorrecto, actualizacin

    de campo errneo, etc.

    Media

    El impacto del incidente es medio y su probabilidad de ocurrencia tambin o existe

    alguna contingencia que permita evitar el incidente. Tambin se incluyen incidentes

    con baja probabilidad de ocurrencia pero cuyo impacto es muy alto o viceversa.

    Segn el tipo de proyecto y los tiempos disponibles para la correccin de incidentes

    se decidir si se puede realizar un pasaje a produccin sin solucionar incidentes

    dentro de esta categora.

    Baja

    La probabilidad de ocurrencia del incidente es relativamente baja y su impacto no es

    alto. Suelen estar relacionados a mal uso del sistema (validaciones de longitudes o

    tipos de campo), mensajes incorrectos no importantes, mejoras que pueden esperar,

    errores cosmticos, etc. Si bien es posible coexistir con estos incidentes, la correccin

    de los mismos ayuda a tener un sistema de mayor calidad, robustez y usabilidad.

    Mejora Para indicar una mejora a ser planteada en la prxima versin del software.

    Motivo de Rechazo de la Incidencia

    Si una Incidencia es rechazada, se le debe de indicar el Motivo de su Rechazo. Los posibles Motivos de

    Rechazo de incidencias son:

    Motivo de Rechazo

    de la Incidencia

    Descripcin

    No reproducible Desarrollo informa que no pudo reproducir la incidencia por falta de informacin

    o bien el incidente ha sido solucionado al corregir otro incidente.

    No aplica desarrollo Desarrollo considera que no es un incidente.

    Repetido El incidente es una rplica de otro incidente reportado anteriormente. Se

    recomienda poner un enlace a dicha incidencia.

  • Direccin de Sistemas de Informacin Metodologa de Pruebas v2.1.doc Pg. 14 de 18

    3. CLASIFICACION DE LAS PRUEBAS

    3.1. ACTIVIDADES DE PRUEBAS

    Para realizar la ejecucin de las pruebas se deben realizar distintas actividades que deben ser observadas

    en todo proceso de pruebas:

    Unitaria Bsica: Conjunto de Pruebas dirigido a validar el correcto funcionamiento de cada uno los

    componentes individuales del Sistema.

    Son las pruebas de mayor nivel de detalle realizadas por los desarrolladores, en las que se asla

    cada componente del Sistema y se prueba por separado. Tambin son realizadas por los equipos

    de P&I en lo relativo a instalacin de infraestructuras.

    Unitaria: Conjunto de Pruebas dirigido a validar que los Requisitos del Sistema se han cubierto

    satisfactoriamente.

    Son las pruebas que realizan los desarrolladores/testers del sistema para poder realizar su entrega

    a la Cuenta. Se denomina Unitaria porque principalmente se prueba cada uno de los Requisitos del

    Sistema, si bien, puede que se ejecuten algunas pruebas integradas para validar la funcionalidad

    del sistema en su completitud. Su ejecucin se realiza en los entornos de Desarrollo, aunque, a

    menudo es necesario ejecutarlas en el entorno de integracin por cuestiones de aislamiento de las

    pruebas del trabajo de desarrollo y por la calidad de los datos existentes.

    Integrada: Conjunto de Pruebas dirigido a validar que el Sistema est en condiciones de ser entregado al

    Negocio.

    Son las pruebas de aceptacin que realiza la Cuenta antes de su entrega al Negocio. Se denomina

    Integrada por que el Sistema debe ser visto de forma integrada tanto de manera interna, como con

    el resto de Sistemas con los cuales tiene interrelacin, que dan soporte al Negocio. Bsicamente

    se ejecutan pruebas de integracin orientadas a Escenarios de Negocio, si bien tambin pueden

    ejecutarse pruebas de carcter unitario. Su ejecucin se realiza normalmente en el entorno de

    Integracin.

    Aceptacin de Usuario: Conjunto de pruebas dirigido a validar que el Sistema est en condiciones de ser

    puesto en Produccin.

    Son las pruebas de aceptacin que realiza el cliente. Se prueban las funcionalidades del Sistema

    segn los criterios de aceptacin previamente establecidos con el cliente. Son pruebas orientadas a

    Escenarios de Negocio y se suelen ejecutar en el entorno de Integracin. En el caso de peticiones

    de mantenimiento, las pruebas de aceptacin pueden estar definidas individualmente sin estar

    orientadas a Escenarios de Negocio.

    Regresin: Conjunto de Pruebas dirigido a validar que el Sistema en funcionamiento sigue estando en

    condiciones de ser usado con normalidad.

  • Direccin de Sistemas de Informacin Metodologa de Pruebas v2.1.doc Pg. 15 de 18

    Se realizan despus de haber hecho cambios en el Sistema para asegurar que no se han

    introducido defectos. Deben de realizarse cuando se produzca una instalacin de software que

    pueda impactar sobre la funcionalidad existente, aplicando a todas las actividades de pruebas:

    Unitarias, Integracin y Aceptacin de Usuario.

    Deben de identificarse los casos de prueba que servirn para realizar las pruebas de regresin, para

    facilitar su uso en Mantenimiento. Estos casos de prueba deberan de ser considerados como

    candidatos para realizar su automatizacin.

    3.2. TIPOS DE PRUEBAS

    Atendiendo a la Naturaleza de lo que se quiere probar pueden ser:

    Funcionales: Orientadas a validar los requisitos funcionales de la aplicacin.

    Deben de contemplarse en todos los tipos de actividades de pruebas definidos.

    No Funcionales: Orientadas a validar los requisitos no funcionales de la aplicacin.

    Las pruebas No Funcionales pueden ser, a su vez, de distintos tipos dependiendo del requisito que

    se deba de probar en cada caso, tales como Portabilidad o Configuracin (Pruebas bajo diferentes

    configuraciones de hardware, sistemas operativos, GUIs, BBDD, etc.,), Legales (Prueban que un

    sistema cumple con los requisitos legales existentes), y, por su especial relevancia, caben

    destacarse, las pruebas de Seguridad y las pruebas de Rendimiento.

    La validacin de los Requisitos No Funcionales se realiza normalmente a travs de probar el

    funcionamiento del sistema.

    Seguridad: Son pruebas que validan la seguridad a nivel interno (roles) y externo (intrusiones).

    Las pruebas de seguridad interna se validan a travs de pruebas especficas entrando en la

    aplicacin con distintos roles.

    Las pruebas de seguridad externa se pueden validar comprobando el acceso de los usuarios a

    travs de una red externa o bien ejecutando un software automtico de inspeccin de cdigo

    especfico para buscar vulnerabilidades.

    Rendimiento: Pruebas del comportamiento del sistema para determinar lo rpido que realiza una tarea un

    sistema en condiciones particulares de trabajo

    Hay tres variables fundamentales que hay que tener en cuenta para realizar pruebas de Rendimiento:

    Datos: El volumen de datos puede influir negativamente segn que tipo de transacciones se

    realicen en el sistema.

    Usuarios: En este caso hay que tener en cuenta el nmero de usuarios concurrentes que

    pueden acceder al sistema.

    Tiempo de Respuesta: Esta variable normalmente viene condicionada por las expectativas del

    cliente a la hora de usar el sistema, el cual podra invalidar su uso.

  • Direccin de Sistemas de Informacin Metodologa de Pruebas v2.1.doc Pg. 16 de 18

    Mediante las pruebas de Rendimiento se comprueba si un Sistema con una carga de Datos y Usuarios

    determinada, es capaz de dar un Tiempo de Respuesta asumible para el Cliente y, as mismo, sirven

    para establecer la capacidad lmite del sistema en cuanto al almacenamiento de Datos y acceso

    concurrente de Usuarios

    Pruebas de Infraestructura: Orientadas a validar los componentes de Infraestructura (Software y

    Hardware).

    La mayora de estas pruebas son realizadas durante la actividad de Pruebas Unitarias Bsicas y,

    por tanto, no es necesario su registro.

    4. TRAZABILIDAD

    Las pruebas, tienen la trazabilidad que a continuacin se detalla:

    Proceso de Negocio

    Escenario de Negocio

    Requisito

    Caso de Prueba

    5. ANEXO

    5.1. MTRICAS DURANTE CICLO DE PRUEBAS

    Es importante establecer algn tipo de mtrica a colectar para poder informar avances y hacer un

    seguimiento apropiado del proyecto. A seguir algunas mtricas relevantes para colectar durante el ciclo de

    pruebas.

    Mtrica Definicin Objetivo Cmo Calcular

    Densidad de Defectos

    La densidad de defectos

    ofrece una medida sobre

    la proporcin de

    defectos con respecto a

    la cantidad de casos de

    prueba.

    Nos permite realizar

    anlisis comparativos de

    la cantidad de defectos,

    entre las distintas

    funcionalidades que lo

    componen.

    La densidad de

    defectos se calcula

    para cada

    funcionalidad como:

  • Direccin de Sistemas de Informacin Metodologa de Pruebas v2.1.doc Pg. 17 de 18

    Donde:

    DD: densidad de defectos.

    TD: nmero de defectos encontrados durante las pruebas, en la funcionalidad definida.

    CCP: Cantidad casos de prueba en dicha Funcionalidad

    Cobertura de Pruebas

    contra definicin

    Define el grado de

    cobertura de las

    pruebas definidas en

    relacin a la

    funcionalidad total del

    software.

    Esta mtrica permite

    detectar si hay

    funcionalidad que no esta

    cubierta por ningn caso

    de pruebas

    Cantidad de Casos de

    de uso con prueba

    asociada / Total de

    casos de uso.

    Avance en ejecucin

    de pruebas

    ndice que mide el nivel

    de ejecucin de las

    pruebas que han sido

    definidas

    Saber qu cantidad del

    total de casos de pruebas

    definidos, ha sido

    ejecutado y cuanto falta

    por ejecutar

    Cantidad de casos de

    prueba ejecutados /

    Cantidad de casos

    totales a ejecutar

    Acumulado Apertura

    vs cierre de defectos

    Comparativa de defectos

    abiertos vs cerrados

    Permite comprobar que al

    final de la prueba el

    acumulado de defectos

    cerrados converge hacia

    el acumulado de abiertos

    Cantidad de defectos

    cerrados / Cantidad de

    defectos abiertos

    5.2. GLOSARIO

    Termino Descripcin

    Aseguramiento de

    Calidad

    Todas las actividades planificadas y sistemticas necesarias para aportar la

    confianza suficiente en que un producto o servicio cumplir con unos

    requisitos dados de calidad.

    Calidad Conjunto de propiedades y de caractersticas de un producto o servicio, que

    le confieren su aptitud para satisfacer unas necesidades explcitas e

  • Direccin de Sistemas de Informacin Metodologa de Pruebas v2.1.doc Pg. 18 de 18

    implcitas.

    Escenario Secuencia de eventos y/o actividades que simulan la aplicacin del proceso

    de negocio definido en condiciones reales.

    Caso de Prueba Conjunto de condiciones o variables que tienen por objetivo, validar si el

    requisito de una aplicacin / producto se ha cubierto satisfactoriamente.

    Defecto Una manifestacin de un error.