I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

76
I nvestigación aplicada e i nnovación Volumen 3, N. o 2 Segundo semestre, 2009 Lima, Perú Editorial ............................................................................................................................... .................................... Control difuso de una planta de nivel .............................. Rl Medrano/Ernesto Godinez Método alternativo para la producción de oxicloruro de cobre .............................. ............................................................................................................................... . Rosa Sayán/Josena Quispe An analysis of M PLS performance in layered & hierarchical network architectures .................................................................................... Dave Hedge/Raymond A. Hansen Construcción de biodigestores discontinuos y análisis de su comportamiento bajo diferentes regímenes de operación ....... Giancarlo Obando Entrenamiento a distancia en tecnoloas de automatización y control, utilizando laboratorios virtuales de acceso remoto ............................... Henry Gómez Asignación de pérdidas de potencia complejas usando seguimiento de flujo de potencia ................................................................................................................... Yuri P . Molina Evaluación del uso de fibras textiles como aislante térmico .... .... Julio Monjarás Modelo de gestión del conocimiento .......................................................................... Rafael Vera Efecto del bicarbonato de sodio y del aceite vegetal sobre las epidemias de leandria momordicae en pepinillo y alternaria solani en tomate ..................... .............................................................................................................................. Roberto Ramírez Otárola ISSN 1996-7551 75 76 84 89 95 103 110 120 127 140

description

En este número la revista I+i ofrece a sus lectores: Control difuso de una planta de nivel.- Método alternativo para la producción de oxicloruro de cobre.- An analysis of MPLS performance in layered & hierarchical network.- Construcción de biodigestores discontinuos y análisis de su comportamiento bajo diferentes regímenes de operación.- Entrenamiento a distancia en tecnologías de automatización y control, utilizando laboratorios virtuales de acceso remoto.- Asignación de pérdidas de potencia complejas usando seguimiento de flujo de potencia.- Evaluación del uso de fibras textiles como aislante térmico.- Modelo de gestión del conocimiento.- Efecto del bicarbonato de sodio y del aceite vegetal sobre las epidemias de leandria momordicae en pepinillo y alternaria solani en tomate

Transcript of I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

Page 1: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

Investigaciónaplicada einnovación

Volumen 3, N.o 2Segundo semestre, 2009 Lima, Perú

Editorial ...................................................................................................................................................................

Control difuso de una planta de nivel ..............................Raúl Medrano/Ernesto Godinez

Método alternativo para la producción de oxicloruro de cobre .............................................................................................................................................................. Rosa Sayán/Josefina Quispe

An analysis of MPLS performance in layered & hierarchical network architectures .................................................................................... Dave Hedge/Raymond A. Hansen

Construcción de biodigestores discontinuos y análisis de sucomportamiento bajo diferentes regímenes de operación....... Giancarlo Obando

Entrenamiento a distancia en tecnologías de automatización y control,utilizando laboratorios virtuales de acceso remoto...............................Henry Gómez

Asignación de pérdidas de potencia complejas usando seguimiento de flujo de potencia ................................................................................................................... Yuri P. Molina

Evaluación del uso de fibras textiles como aislante térmico.... ....Julio Monjarás

Modelo de gestión del conocimiento.......................................................................... Rafael Vera

Efecto del bicarbonato de sodio y del aceite vegetal sobre las epidemias de leandria momordicae en pepinillo y alternaria solani en tomate...................................................................................................................................................Roberto Ramírez Otárola

ISSN 1996-7551

75

76

84

89

95

103

110

120

127

140

Page 2: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009
Page 3: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

76

Invest Apl Innov 3(2), 2009

Raúl Medrano, Ernesto Godinez

Control difuso de una planta de nivel

Fuzzy control of level plant

Resumen

El presente trabajo es el complemento de uno anterior deno-

minado “Modelamiento de una Planta de control de Nivel me-

diante Identificación No Paramétrica” [1]. En esta ocasión, va-

mos a utilizar un tipo de control avanzado denominado Lógica

Difusa (“Fuzzy Logic” en inglés), en la cual no es necesario tener

el Modelo matemático de la Planta pero sí el debido conoci-

miento de su funcionamiento y la experticia en su control.

Tal como fue planteado en su oportunidad en [1], el objetivo

primario del presente trabajo es enseñar a los estudiantes de

nuestra institución los fundamentos de control y automati-

zación y, en este sentido, a aplicar otras técnicas de control

alternativas al muy conocido PID durante sus actividades de

laboratorio. En este caso se muestra un tipo de control avan-

zado denominado “Control Difuso”.

La primera parte consiste en proporcionar una metodología

con las ideas y conceptos que sirven como base a la aplica-

ción del control difuso en el control de la Planta de Nivel.

La segunda parte corresponde a expresar lo “difuso” median-

te conceptos matemáticos que permitan introducirla a una

computadora y obtener resultados tal como si se tuviese el

conocimiento de un experto en su interior, con el cual, me-

diante el valor lingüístico de la variable medida (nivel), reglas

de inferencia y sus conclusiones, permite determinar la mejor

señal de control a ser enviada al actuador de la Planta para

que la variable medida se aproxime al valor deseado.

La tercera parte consiste en utilizar la herramienta “Fuzzy

Logic Toolbox” de MATLAB para simular su comportamiento

durante el control de una Planta de Nivel cuyo modelo fue

determinado en [1]. Se contrastan las respuestas simuladas

de control de la Planta de Nivel con el Controlador Difuso y

el Controlador PID.

Los resultados simulados obtenidos demuestran la eficacia

de la estrategia de control difuso, lo cual nos motiva a conti-

nuar con la investigación para contrastar los resultados simula-

dos con resultados prácticos.

Abstract

The present work is the complement of a previous one entitled

“Modeling a Level Plant by Non-parametric Identification” [1],

this time we will use an advanced control type called Fuzzy Lo-

gic where it is not necessary to have the plant’s mathematical

model but is very necessary to have enough knowledge of its

operations and expertise in its control.

As was mentioned in [1], the primary objective of this work is

to teach our students the fundamentals in process control and

apply other alternative control techniques, different than PID,

during laboratory activities. In this case it is an advanced type

of control called “Fuzzy Control”.

The first part consists of providing a methodology with ideas

and concepts that serve as the basis for the application of fuzzy

control for the Level Plant control. We also mention the me-

aning of “diffuse” as an approach that the human being makes

to define a state variable and a control variable.

The second part corresponds to express the “fuzzy” through

mathematical concepts that allow us to enter into a computer

and get results as if we had the knowledge of an expert inside.

The technique uses the linguistic value of the measured varia-

ble (level), inference rules and its conclusion, which allows us to

determine the best control signal to be sent toward the actua-

tor in order to achieve the desired value.

The third part is to use the “Fuzzy Logic Toolbox” of MATLAB to

simulate its behavior during the control of a level plant whose

model was determined in [1]. The simulated results of the con-

trol for the Level Plant are compared with the diffuse controller

and the PID controller.

The simulated results obtained show the effectiveness of fuzzy

control strategy, which motivates us to continue the research

Page 4: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

77

Invest Apl Innov 3(2), 2009

MEDRANO, Raúl; GODINEZ, Ernesto. “Control difuso de una planta de nivel”

to check simulated results with the practical results.

Palabras Claves

Control de nivel, Control Difuso, software de simulación, He-

rramienta de Lógica Difusa.

Key Words

Level Control, Fuzzy Control, Simulation Software, Fuzzy Lo-

gic Toolbox.

INTRODUCCIÓN

El objetivo principal de la ingeniería de control es destilar y

aplicar el conocimiento sobre cómo controlar un proceso de

tal modo que el sistema de control resultante sea confiable

y seguro para alcanzar un gran desempeño en su operación

[2, p. 23].

De acuerdo a la aseveración anterior, el ingeniero de control

debe tener toda la data posible del proceso y plantearse mu-

chas preguntas tales como si el proceso es estable, es obser-

vable, es controlable, tiene no linealidades, etc. Luego, ante

señales de entrada y salida en ambiente controlado, se debe

seleccionar la data útil de la respuesta dinámica conseguida,

determinar el modelo matemático de la Planta y definir el

tipo de controlador que mejor logre alcanzar los criterios de

diseño del control como el tiempo de asentamiento y sobre-

impulso máximos, el rechazo a las perturbaciones, error de

estado estable, tiempo de subida, etc. Como se deduce, es un

trabajo muy complejo y tedioso, razonablemente aceptado

para procesos multivariables.

En el caso de controlar el nivel del tanque de una Planta [1], si

preguntamos al operario cuáles deben ser sus procedimien-

tos para controlar dicho proceso, con certeza nos responderá

que basta con abrir y cerrar las válvulas de ingreso y salida de

líquido de acuerdo al valor de nivel observado. No hizo falta

el modelo matemático del proceso ni ecuaciones precisas,

sólo sentido común del operario como resultado de las ob-

servaciones “aproximadas” o “difusas” de determinadas varia-

bles. Por lo tanto, se ha desarrollado el “Control Difuso” como

aquella que proporciona una metodología formal para inter-

pretar, manipular e implementar el conocimiento heurístico

humano sobre el control de un proceso [2]. Se explican los

términos que utiliza esta técnica presentada por Lotfi Zadeh

en 1965 y luego aplicado por otros investigadores como Ma-

mdani, para ejecutar el “Control Difuso” de los procesos.

La Figura 1 muestra la arquitectura propuesta para un Controla-

dor Difuso Directo, el cual usaremos en el control de la Planta de

Nivel. Se observan los nuevos términos a emplear y la lógica que

se ha creado para poder implementar los algoritmos de control

que interpreten el razonamiento y deducción humanos.

Figura 1. Arquitectura del Controlador Difuso [2]

FUNDAMENTOS

Planteamiento del Control Difuso a aplicar en la Planta de Nivel

Vamos a plantear el diseño del control difuso de la Planta de ni-

vel siguiendo lo mostrado en la Figura 2, observando que para

conseguir un control de nivel adecuado, se debe tener además

en cuenta la velocidad del error de nivel. La experiencia del

operario va a ser incrustada en el controlador difuso. Entonces

tenemos las variables “y”, “de/dt” y “e” definidas como:

r: referencia de nivel o valor deseado

y: valor de nivel actual

e: error de nivel (r-y)

(de/dt): velocidad del error de nivel

u: señal de control a la válvula proporcional de ingreso de lí-

quido

Figura 2. Planteamiento de las variables para la Planta de nivel [2]

De la Figura 3, que es una representación del módulo de la Plan-

ta de Nivel, deducimos las siguientes ecuaciones:

e(t) = r(t) - y(t) (1)

d

eu y

r

dt

r(t) u(t) y(t)

Page 5: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

78

Invest Apl Innov 3(2), 2009

MEDRANO, Raúl; GODINEZ, Ernesto. “Control difuso de una planta de nivel”

Tomando la derivada de la Ecuación 1:

e(t) = r(t) - y(t) (2)

Resultan las siguientes inecuaciones para el error de la Ecua-

ción 1:

Si: e(t) = 0 r (t) = y(t)

Si: e(t) = 0 r (t) < y(t) (3)

Si: e(t) = 0 r (t) < y(t)

Para las derivadas del error, existen 4 posibilidades depen-

diendo de su polaridad; en el caso que r(t) > y(t) (error positi-

vo), si la derivada del error es positiva significa que el nivel de

líquido decrece alejándose de r(t); caso contrario, el nivel de

líquido aumenta aproximándose a r(t). La Ecuación 4 resume

dicho comportamiento y la Figura 3 ayuda a observar dicha

situación.

(4)

Figura 3. Error y velocidad del error en la Planta de Nivel [1]

Con el objetivo de capturar la experiencia del operario de la

Planta, se realizan preguntas tales como ¿cuál sería su proce-

dimiento de maniobras si observa que y esy ligeramente me-

nor que r y su valorr decrece lentamente (velocidad del error

positiva y lenta)?”; quizás su respuesta sería: “Abrir la válvula

proporcional al máximo”. La respuesta va a estar en función a la

experiencia del operario al trabajar en dicha Planta.

Ahora debemos organizar las variables de estado “e(t)” y “de(t)/

dt” para adecuarla a los valores lingüísticos que va a usar el

operario. Lo mismo haremos para la señal de control “u(t)” que

manipulará la abertura de la válvula de ingreso de líquido. La

Tabla 1 muestra los 5 valores lingüísticos (NL, NS, Z, PS, PL) para

cada una de las variables de estado (se pudieron haber escogi-

do 3, pero deseamos lograr mayor precisión en el control) y 5

para la señal de salida (CL, CS, Z, AS, AL). Observar que también

se aplican valores numéricos lingüísticos (-2, -1, 0, 1, 2) a los

valores lingüísticos para facilitar su tabulación al momento de

desarrollar la Base de Reglas.

e(t) y d(e)/dtPREMISAS

u(t)CONCLUSION

NL: Muy negativo -2 CL: Muy cerrado -2

NS: Negativo pequeño -1 CS: Poco cerrado -1

Z: Cero 0 Z: Medio 0

PS: Positivo pequeño 1 AS: Poco abierto 1

PL: Muy positivo 2 AL: Muy abierto 2

Tabla 1. Valores lingüísticos de las variables de estado

Luego de las preguntas de rigor “¿Qué pasa si e(t) es …. y de(t)/

dt es …..?” (PREMISAS), el operario responde con: “u(t) debe es-

tar …….. “(CONCLUSIÓN). La Tabla 2 es un resumen del conoci-

miento del experto operario en el control de nivel de la Planta.

PREMISAS CONCLUSIÓN

Si e(t) es NL y de(t)/dt es NL u(t) debe estar CL

Si e(t) es NL y de(t)/dt es NS u(t) debe estar CL

Si e(t) es NL y de(t)/dt es Z u(t) debe estar CL

Si e(t) es NL y de(t)/dt es PS u(t) debe estar CS

Si e(t) es NL y de(t)/dt es PL u(t) debe estar Z

Si e(t) es NS y de(t)/dt es NL Entonces u(t) debe estar CL

Si e(t) es NS y de(t)/dt es NS u(t) debe estar CL

Si e(t) es NS y de(t)/dt es Z u(t) debe estar CS

Si e(t) es NS y de(t)/dt es PS u(t) debe estar Z

Si e(t) es NS y de(t)/dt es PL u(t) debe estar PS

……………. …………….

……………. etc ……………. etc

Tabla 2. Diseño de la Base de Reglas

ddt

ddt

0e0ed

dt

Page 6: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

79

Invest Apl Innov 3(2), 2009

MEDRANO, Raúl; GODINEZ, Ernesto. “Control difuso de una planta de nivel”

Criterio de diseño del ControladorDifuso

En la Figura 1 se muestra la arquitectura del Controlador Di-

fuso y en la Figura 2 las entradas y salida. Corresponde ahora

utilizar la Tabla 2 para implementar cada una de las partes

que la conforman. A continuación, la definición de cada etapa

según [2].

a) Base de Reglas

Es el conjunto de reglas del tipo “Si ….., entonces ……”

que contiene la cuantificación de la lógica difusa de la

descripción lingüística del experto sobre cómo alcanzar

un buen control.

b) Mecanismo de Inferencia

Se comporta como “el experto que toma las decisiones”

interpretando y aplicando el conocimiento de la Base de

Reglas para concluir el mejor modo de controlar la Planta.

c) Fusificación

Convierte las entradas del controlador (e(t) y de(t)/dt),

usando las funciones de pertenencia o membrecía, en

información que el mecanismo de inferencia pueda usar

para activar y aplicar las reglas.

d) Defusificación

Convierte las conclusiones del mecanismo de inferencia

en la salida (u(t)) para controlar la Planta.

La Figura 4 muestra las funciones de pertenencia o

membrecía del tipo triangular y trapezoidal comúnmen-

te usados en la etapa de fusificación para implementar

la lógica difusa en la computadora. La idea es tener cier-

ta “confianza” del valor de los “valores lingüísticos”. Los

rangos de entrada y salida se normalizan a [-1, 1] y la

amplitud es también normalizada a la unidad. Se obser-

va un valor lingüístico de 0 para e(t), siendo Z = 1; y un

valor de 0,35 para de(t)/dt con Z = 0,25 y PS = 0,75.

La lógica difusa creada para poder introducir los “valores

lingüísticos” a la computadora se pueden resumir en los si-

guientes términos según [4]:

y”

y “Si de(t)/dt es Z =

0,25”

mínimo de (1, 0,25) =

0,25

0,75”

mínimo de (1, 0,75)

= 0,75

La Base de Reglas con todos los valores lingüísticos se muestra

en la Tabla 3.

u(t)d(e)/dt

NL NS Z PS PL

e(t)

NL CL CL CL CS Z

NS CL CL CS Z AS

Z CL CS Z AS AL

PS CS Z AS AL AL

PL Z AS AL AL AL

Tabla 3. Base de Reglas a implementar en el simulador

Entonces, continuando con el ejemplo, pero en este caso con

los antecedentes y conclusión, y apoyados en la Tabla 3, tene-

mos:

y “Si de(t)/dt es Z” entonces “u(t) es Z”

Figura 4. Funciones de Pertenencia de las entradas y salida [2]

-2NL NS Z PS PL

2-1

--- 0.5 0.5 0.7 e(t), ( m )--- 0.7- 1

1

1

0

-2NL ZNS PS PL

2-1

--- 0.5 0.5 0.7 e(t), ( m/s ) d dt

--- 0.7-1

1

1

0

-2

ZCL CS AS AL2-1

--- 0.3 0.3 0.7 u(t), ( v )--- 0.7-1

1

1

0

Page 7: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

80

Invest Apl Innov 3(2), 2009

y “Si de(t)/dt es PS” entonces “u(t) es AS”

La ecuación 5 proporciona el área achurada del triángulo

mostrado en la Figura 5.

Para los antecedentes y conclusión analizados líneas arriba,

tenemos dos valores: Area1 (membrecía Z, con h = 0,25) y

Area2 (membrecía AS, con h = 0,75).

(Ecuación 5)

Figura 5. Área del trapezoide [2]

En el mecanismo de inferencia, para este caso se realiza la

siguiente operación:

(6)

El valor “ uresult”, que corresponde al Centro de Gravedad es

enviado por la etapa de defusificación como un pulso de

voltaje (ver u(t) en la Figura 4) hacia la válvula proporcional

de ingreso de líquido (ver Figura 3).

El ejemplo dado corresponde a una toma instantánea de los

valores lingüísticos de entrada y la correspondiente respues-

ta de la señal de control proporcionada por la lógica difusa.

En la práctica, dicho proceso se repite continuamente y por lo

tanto es muy importante implementar el Controlador Difuso

en computadoras PLC’s o DCS’s que puedan correr el progra-

ma a gran velocidad y aún más si el proceso a controlar es

muy veloz (flujo, velocidad).

Modelamiento y Sintonía del Contro-lador Difuso aplicado a la Planta deNivel

Aplicaremos la herramienta Fuzzy Logic Toolbox [3] en SIMU-

LINK de MATLAB para modelar, simular y sintonizar el Control

Difuso de la Planta de Nivel motivo de la investigación.

En el workspace de MATLAB se escribe fuzzy y la herramienta

“FIS Editor” se despliega para permitirnos diseñar de modo

gráfico todas las partes del Controlador Difuso, (ver la Figura

6). Luego, en Membership Function Editor se implementan las r

etapas de Fusificación (para “e(t)” y “de(t)/dt”) y Defusificación.

(para “u(t)”). Cabe mencionar que las funciones de pertenencia

están normalizadas en el rango de [0,1] y las formas a seleccio-

nar pueden ser trapezoidales, triangulares, gaussianas, etc.

1h

wBi

Figura 6. Plantillas de la Herramienta Fuzzy de MATLAB

MEDRANO, Raúl; GODINEZ, Ernesto. “Control difuso de una planta de nivel”

Page 8: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

81

Invest Apl Innov 3(2), 2009

Para implementar la Base de Reglas, seleccionamos Rule

Editor (ver la Figura 7) y se despliega una pantalla en la que r

escribimos las 25 reglas “Si ……, entonces ……..” como re-

sultado de las combinaciones de 5 funciones de pertenencia

para cada una de las 2 entradas (ver Tabla 3).

El Mecanismo de Inferencia escogido es el tipo Mamda-

ni, el cual proporciona una salida tipo pulsante (ver “u(t)”

en la Figura 4).

Terminado el diseño del Controlador Difuso, se guarda en

un archivo y también se hace la exportación al workspace

para poder usarlo con SIMULINK durante la simulación con

la Planta de Nivel.

Figura 7. Implementación de la Base de Reglas

La Figura 8 muestra el programa gráfico SIMULINK imple-

mentado para probar el Controlador Difuso con la Planta de

Nivel. Observar que se ha puesto en paralelo un controlador

PID para la respectiva contrastación de resultados simulados.

Se observan los bloques de ganancias (Gain, Gain 1, Gain 2),

cuya función es sintonizar el Controlador Difuso y así evitar

manipular las funciones de pertenencia. El bloque Gain 3 se

adiciona para permitir que el Controlador Difuso minimice el

error estacionario. El bloque Planta de Nivel contiene el mo-

delo matemático hallado en [1].

En la Figura 9 se pueden apreciar dos ayudas adicionales que

proporciona la herramienta, tales como los visualizadores de

Reglas y Superficie. En esta última se ve un gráfico 3D con la

superficie que representa la respuesta del controlador ante

las dos entradas.

Figura 8. Simulación del Controlador Difuso y la Planta de Nivel

Figura 9. Visualizador de las Reglas y Superficie del Controlador Difuso

Seleccionamos una señal cuadrada de amplitud 0,5 y frecuen-

cia 0,001Hz como valor de referencia “r(t)”. La respuesta de la

Planta de Nivel con el Controlador Difuso y con el Controlador

PID se muestra en la Figura 10. Se pueden comparar las dos res-

puestas y ambas tienen comportamiento aceptable, sobre todo

con el Controlador Difuso que no usó el modelo matemático de

la Planta de Nivel.

MEDRANO, Raúl; GODINEZ, Ernesto. “Control difuso de una planta de nivel”

Page 9: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

82

Invest Apl Innov 3(2), 2009

Figura 10. Respuesta a un escalón de la Planta de Nivel con Controla-

dor Difuso y Controlador PID

RESULTADOLL S

Fuzzy Logic Toolbox de MATLAB [3] esx

muy práctica y simple de usar, lo que sumado al conoci-

miento base de la técnica o procedimiento para incrus-

tar la experticia del operario en la PC dado en esta inves-

tigación, motivará al estudiante de nuestra institución a

comprobar la eficiencia de otros tipos de controladores

de procesos.

-

vestigación es Mamdani, siendo el más simple de los que

actualmente existen; por lo tanto, si las especificaciones

del control lo requirieran la respuesta puede ser aún me-

jorada al probar con otros tipos de controladores difu-

sos de mejor precisión (Takagi-Sugeno, por ejemplo) o con

técnicas mixtas tal como el Controlador Neuro-Difuso.

el acondicionamiento de las reglas de inferencia al control

de nivel, el número de reglas utilizadas, el tipo de función

de membresía y el dominio de estas. El mejoramiento de

esta eficiencia implica realizar un gran número de pruebas

de simulación.

DISCUSIÓN

-

lador No Lineal [2] [4], y se presenta como una superficie

de 25 mosaicos, cada una con una pendiente determinada

que es dada por la Base de Reglas. Entonces, manipulando

por prueba y error dicha superficie, es muy posible encon-

trar la sintonía adecuada para cumplir con los requeri-

mientos de control de cualquier proceso. Nuestra próxima

investigación será trabajar en tiempo real con la Planta de

Nivel controlada por el Controlador Difuso, implementado

en una PC.

Controlador PID es mejor en el tiempo de establecimiento;

tal como se observa en la Figura 10. Es la razón por la cual

dicho tipo de control es ampliamente usado en la actuali-

dad.

lineales y que son difíciles de modelar matemáticamente,

pero sí podrían ser controlados por un experto que cono-

ce profundamente el funcionamiento del proceso.

CONCLUSIONES

-

diante el Controlador Difuso es muy aceptable (ver Figura

10), ya que no presenta sobre impulso, el error de estado

estable es cero y los tiempos de subida y establecimiento

son bastante cortos. Es una alternativa viable que puede

usar el ingeniero de control para Plantas con comporta-

miento no lineal y de difícil modelamiento.

observa cierta simetría en las conclusiones, lo que nos

permite concluir que puede ser un punto de partida para

iniciar el desarrollo del diseño y la sintonía del Controlador

Difuso para el control de otros tipos de Plantas.

MEDRANO, Raúl; GODINEZ, Ernesto. “Control difuso de una planta de nivel”

Page 10: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

83

Invest Apl Innov 3(2), 2009

REFERENCIAS

[1] MEDRANO R. y GODÍNEZ E. (2008). “Modelamiento de

una Planta de Control de Nivel mediante identificación

no Paramétrica”. Investigación Aplicada e Innovación I+i;

2(2), 79-87.

[2] PASSINOPP K, y YURKOVICH S. (1998). Fuzzy Control (1l o. ed.)

Addison Wesley Longman, Inc. USA.

[3] MATLAB (2009 Online only). Fuzzy Logic Toolboox TM 2

User’s Guide. The MathWorks, Inc. USA.

[4] CARR D. y SHEARER J. (2005, junio). “Nonlinear Control

and Decision Making Using Fuzzy Logic in Logix”. Recu-

perado el 6 de julio de 2009: http://discover.rockwellau-

tomation.com/Files/using%20fuzzy%20logic%20in%20

logix%20whitepaper9324-wp006_-en-p.pdf.

ACERCA DE LOS AUTORES

Raúl Medrano Tantaruna

Ingeniero electrónico con especiali-

zación en tecnología educativa DSE

Mannheim, Alemania.

Es profesor de Tecsup en los cursos

de control electrónico de potencia,

diseño y mantenimiento electróni-

co. Ha implementado varios proyectos para el departamento

de Electrónica. Es miembro de las sociedades IEEE e ISA.

MEDRANO, Raúl; GODINEZ, Ernesto. “Control difuso de una planta de nivel”

Ernesto Godines De La Cruz

Ingeniero electrónico e ingeniero

electricista, con Maestría en Ingeniería

de Control y Automatización.

Actualmente se desempeña como Do-

cente en el Departamento de Electró-

nica de Tecsup.

Ha desarrollado e implementado proyectos de electrificación

y automatización de plantas industriales. También ha realizado

diseños y construcciones de tableros eléctricos, celdas de me-

dia tensión, centro de control de motores y bancos de conden-

sadores.

Page 11: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

84

Invest Apl Innov 3(2), 2009

Rosa Sayán, Josefina Francia

Método alternativo para la producciónde oxicloruro de cobre

Alternative method for the production of copperoxychloride

Resumen

El oxicloruro de cobre es muy utilizado como fungicida (an-

ticriptogámicos) de amplia acción en la agricultura. Este pro-

ducto es recomendado para ser usado en el control de enfer-

medades que atacan a los cultivos en el agro; es un fungicida

altamente eficaz para combatir en forma económica las pla-

gas de los cultivos.

La demanda del oxicloruro de cobre se ha incrementado fun-

damentalmente en el mercado exterior, pero su costo depen-

de del precio del cobre, por lo que se crea la necesidad de mi-

nimizar el uso del alambrón de cobre (utilizado en el método

tradicional) e inclusive de la chatarra de cobre, cuyo precio se

mantiene en el 80% de la cotización internacional del cobre.

La rentabilidad y factibilidad para la producción industrial del

oxicloruro de cobre esta ligada al uso de un cobre de menor

costo como materia prima.

El proyecto tiene como objetivo la investigación de los diver-

sos métodos empleados en la producción de oxicloruro de

cobre para posteriormente mejorar los procedimientos tra-

dicionales realizando pruebas a escala de laboratorio con el

fin de obtener este agroquímico para que se pueda producir

a nivel industrial.

Abstract

The copper oxychloride is widely used as a fungicide (fungi-

cides) of broad action in agriculture. This product is recom-

mended for the control of diseases that attack crops in agri-

culture; it is a highly effective fungicide to combat cheaply

crop pests.

Demand for copper oxychloride has increased primarily in

foreign markets, but its cost depends on the price of copper,

thus creating the need to minimize the use of copper wire

(used in the traditional method) or even scrap copper, whose

price is still 80% of trading international copper.

The profitability and possibility for the industrial production of

copper oxychloride is linked to the use of a lower-cost copper

as raw material.

The project aims to research the various methods used in the

production of copper oxychloride, and later improve the tradi-

tional methods in the laboratory tests in order to obtain this

agrochemical so it can be produced at industrial level.

Palabras claves

Oxicloruro de cobre, agroquímicos, fungicidas, plaguicidas.

Key words

Copper oxychloride, agrochemicals, fungicides, pesticides.

INTRODUCCIÓN

El oxicloruro de cobre es un fungicida que posee un amplio

espectro para el control de diversas enfermedades en frutales

ya que es altamente eficaz para combatir en forma económica

las plagas. Entre los beneficios que presenta, comparado con

otros fungicidas, encontramos que es el fungicida más econó-

mico puesto que no necesita preparación alguna; se utiliza en

menores dosis, no forma grumos por la calidad de la muestra;

presenta una alta eficacia biológica contra un amplio rango de

hongos patógenos; permite que su manipuleo sea fácil y segu-

ro, y puede usarse mezclado con otros fungicidas, insecticidas

y nematicidas.

La oferta del oxicloruro de cobre en nuestro país ha venido

incrementándose con el pasar de los años; cada vez hay más

Page 12: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

85

Invest Apl Innov 3(2), 2009

SAYÁN, Rosa; FRANCIA, Josefina. ”Método alternativo para la producción de oxicloruro de cobre”

empresas productoras de oxicloruro de cobre, entre las que

destacan: Química Peruana S.A., QUIPESA; Sulfato de Cobre

S.A., SULCOSA; Industria Peruana de Metales y Derivados,

IPDEMYDSA; Industrias Químicas Omicrón S.A.; Química del

Pacífico S.A.

A la vez, la demanda del oxicloruro de cobre también ha au-

mentado principalmente en el mercado exterior debido al

crecimiento de la agricultura.

El Perú es uno de los principales productores de cobre en el

mundo, por lo que contamos con la posibilidad de acceder a

un cobre de menor precio, que no sea de alambrón o chata-

rra. Es así que surge la idea de utilizar oxido de cobre reem-

plazando al tradicional alambrón o a la chatarra de muy altos

precios, para así obtener oxicloruro de cobre.

FUNDAMENTOS

Los fungicidas cúpricos actúan como fungicidas y bacterici-

das porque liberan pequeñas cantidades de iones de cobre

en contacto con el agua. Se trata de cantidades del orden de

partes por millón (1 ppm = 1 mg/litro), pero que ya son sufi-

cientemente tóxicas para los hongos a combatir.

El efecto tóxico de las sales de cobre sobre los hongos radica

en la inhibición de la germinación de las esporas.

Las esporas de los hongos son capaces de concentrar los io-

nes Cu2+. Durante la fase de absorción, los iones Cu2+ sustitu-

yen a los iones H+, K+, Ca2+ y Mg2+ presentes en la superficie

celular. Esta sustitución puede ocasionar una alteración de la

semipermeabilidad de la membrana, facilitando la penetra-

ción de los iones Cu2+ al interior de las células.

En el interior de las esporas, los iones Cu2+ se fijan sobre diver-

sos grupos químicos, como por ejemplo los imidazoles, car-

boxilos, fosfatos, sulfhidrilos, aminas o hidroxilos, presentes

en numerosas proteínas enzimáticas. Esta unión produce un

efecto tóxico que perturba el correcto funcionamiento celu-

lar. Así, el oxicloruro de cobre tiene la capacidad para enlazar-

se fuertemente con los grupos amino y carboxilo, reacciona

con las proteínas y actúa como inhibidor enzimático.

El oxicloruro de cobre es un polvo muy fino de color verde

claro o azul verdoso, con un tamaño de partícula de 0.2 a 5

micras, y un contenido mínimo de 56 % de cobre y máximo

de 59 % del mismo. Presenta además muy buena suspensibi-

lidad en el agua de más del 80% en peso, con una humectabi-

lidad máxima de 60 segundos, que por lo general se formula

como polvo mojable en agua.

Es un sólido que se funde a 140 ºC; se obtiene por medio de

conversión o digestión, lavado, filtrado y secado. El oxicloruro

de cobre se caracteriza por ser insoluble en agua y muy soluble

en amoniaco y ácidos.

El oxicloruro de cobre no es explosivo y tampoco inflamable. Es

un producto no tóxico para el hombre la dosis letal media oral

aguda es de 1 500 mg/Kg.

Desde el punto de vista químico, el oxicloruro y el hidroxiclo-

ruro de cobre son compuestos básicos del cloruro cúprico; sus

formulas más conocidas son: 3Cu(OH)2.CuCl

2con un peso mo-

lecular de 427.066 y el tetrahidratado 3CuO.CuCl2.4H

2O cuyo

peso molecular es de 444.066.

Por acción del calor, el oxicloruro de cobre se convierte en sal

básica anhidra de color negro, que por adsorción de agua pasa

nuevamente a su color anterior de azul verdoso claro.

Métodos para la producción deoxicloruro de cobre

a. Método Tradicional:

Producción de Oxicloruro de Cobre a partir de alambrón de co-

bre o cementos de cobre de alta ley.

Cargas de alambrón de cobre electrolítico y cementos de cobre

se atacan con ácido clorhídrico al 13 % en peso y simultánea-

mente se inyecta aire comprimido, que es usado como sistema

de oxidación y agitación.

Esta etapa del proceso, tiene una duración de aproximadamen-

te 60 horas, hasta que el licor presenta pH de 3.5 a 4.0, y se han

precipitado los lodos de oxicloruro de cobre.

Los lodos de oxicloruro de cobre son neutralizados con lechada

de cal hasta obtener un pH de 6.0 y sometidos a lavados in-

tensos con el fin de eliminar impurezas solubles; proceso que

demora aproximadamente 8 horas, para obtener el producto

con una humedad del 40 %.

El producto es calentado hasta reducir la humedad a 10 % du-

rante 30 horas; luego se transfiere el producto a un secador de

bandejas donde es secado a una temperatura de 110 º C.

Posteriormente es sometido a operaciones de molienda y en-

vasado.

Se obtiene aproximadamente 93 % de rendimiento.

Page 13: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

86

Invest Apl Innov 3(2), 2009

SAYÁN RIVERA, Rosa Maria; FRANCIA QUISPE, Josefina. ”Método alternativo para la producción de oxicloruro de cobre”

La siguiente secuencia de reacciones tiene suceso este mé-

todo:

Cu + 2 HCl + ½ O2

CuCl2

+ H2O

Cu + CuCl2

2 CuCl

2 CuCl + 2 HCl + ½ O2

2 CuCl2

+ H2O

6 CuCl + 3 H2O + 3/2 O

2CuCl

2.3Cu(OH)

2 + 2 CuCl

2

4 CuCl2

+ 3 Ca(OH)2 + H

2O CuCl

2.3CuO.4H

2O + 3 CaCl

2

b. Método del ácido sulfúrico

El cobre metálico es colocado en un reactor discontinuo (ba-

cht), donde llega mediante bombas la solución mezclada y

disuelta de ácido sulfúrico, sal industrial (NaCl) y agua.

El cobre reacciona con la solución de mezcla ácida, se co-

mienza a oxidar el cobre, formando Cu2+, la reacción termina

al alcanzar un pH entre 1 a 3, formándose gran cantidad de

espuma. La solución empieza a tornarse de un color verde

oscuro.

Seguidamente, se bombea el HCl al 36 % (en relación de 3:1

con el agua), luego de agregar el HCl, la coloración desapare-

ce pasando a su estado inicial de pH 1.

Después de una hora aproximadamente se agrega la solu-

ción amoniacal (en relación de 1:3 con el agua); precipitando

así el oxicloruro de cobre.

La reacción se considera terminada cuando el pH de la solu-

ción llega a los valores comprendidos entre 5 y 6.

La siguiente secuencia de reacciones tiene suceso en el mé-

todo del ácido sulfúrico, detallado anteriormente:

2 H2SO

4+ 2 H

2O 2 H

2SO

4.H

2O

2 H2SO

4.H

2O + 4 NaCl 4 HCl + 2 Na

2SO

4 + 2 H

2O

4 Cu + O2

2 Cu2O

2 Cu2O + 4 HCl 4 CuCl + 2 H

2O

4 CuCl + O2

+ 4 HCl 4 CuCl2

+ 2 H2O

4 CuCl2

+ 4 H2O + 6 NH

4OH CuCl

2.3[Cu(OH)

2].4H

2O + 6 NH

4Cl

Método alternativo para la producción de oxicloruro de cobre

a) Producción de Oxicloruro de cobre apartir de Oxido de cobre (I)

Digestión

El oxido de cobre (I) es colocado en un reactor, donde se reali-

zará el ataque ácido; el ácido clorhídrico se bombea al reactor,

donde se encuentra el oxido de cobre (I).

El ataque ácido del ácido clorhídrico debe garantizar la mayor

oxidación del cobre, dándose así la máxima formación de Cu2+.

Se debe hacer uso de un medio oxidante; con esto se propor-

cionará el medio para la optima producción de licores de clo-

ruro cúprico.

La mezcla se deja reaccionar por 2 días aproximadamente.

Neutralización

Con agitación continua, se agrega soda cáustica para poder

neutralizar la mezcla del ácido clorhídrico con el oxido de cobre

(I), y así poder precipitar el oxicloruro de cobre.

La adición de soda cáustica depende del pH de la mezcla; la

neutralización termina cuando el pH se encuentra en el inter-

valo de 5.5 a 6, y el color de la suspensión es de un celeste ver-

doso claro, color específico del oxicloruro de cobre.

Sedimentación

La suspensión se deja sedimentar por un tiempo de 2 horas,

para asegurar que todo el oxicloruro se encuentre en la parte

inferior del reactor. El licor sobrenadante o licor madre que se

encuentra en la parte superior, se retira por medio de un sifón.

Esta solución de licor madre puede ser recirculada para el nue-

vo proceso, ya que contiene cobre como cloruro, hidróxidos,

etc.

Lavado y secado

Terminada la operación de sedimentación, el producto se des-

carga a un tanque de lavado; el precipitado es sometido a suce-

sivas lavadas para eliminar cualquier tipo de impurezas (el agua

de lavado se mezcla con el licor madre).

En esta operación se agregan aditivos y humectantes tal como

el WANIN, o como el Pagasol HR al tanque de lavado. General-

Page 14: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

87

Invest Apl Innov 3(2), 2009

SAYÁN RIVERA, Rosa Maria; FRANCIA QUISPE, Josefina. ”Método alternativo para la producción de oxicloruro de cobre”

mente se mezcla mediante un agitador, luego se bombea a

un secador.

El secado del producto se da a un incremento de temperatu-

ra de 70º C, a una temperatura de 110º C aproximadamente.

Molienda y envasado

El producto previamente secado, pasa por un molino para

realizar una disminución de su tamaño. Seguidamente es

envasado y comercializado tanto al exterior como al interior

del país.

b) Etapas del proceso productivopara la obtención de oxicloruro decobre:

ETAPA I

Obtención de licores de cloruro de cobre

Cu2O + 3 HCl CuCl + CuCl

2 + H

2O + H+

ETAPA II

Neutralización con soda cáustica y precipitación de oxi-

cloruro de cobre

4 CuCl2

+ 6 NaOH + H2O 3 CuO.CuCl

2.4H

2O + 6 NaCl

REACTIVOS CONCENTRACIONES

Cu2O 30% de humedad

HCl 33 %

NaOH 50 %

Tabla 1. Reactivos utilizados

En el siguiente cuadro se expresan las cantidades a utilizar

de las materias primas para obtener 100 g de oxicloruro de

cobre como producto principal (estimados a partir de la este-

quimetría de las reacciones):

REACTIVOS CANTIDAD A UTILIZAR (g)

Cu2O al 70% 223.73

HCl al 33% 604.97

NaOH al 50% 131.22

Tabla 2. Gramos de reactivo para producir 100 g de CuO.CuCl2

l

PROCEDIMIENTO

Diagrama 1. Modelo Base en el método de experimentación

Para la obtención de soluciones de cloruro cúprico se han eva-

luado las reacciones con ácido clorhídrico. Mientras que para la

obtención de oxicloruro de cobre a partir de soluciones de clo-

ruro cúprico, se han evaluado las reacciones con soda cáustica y

otras con lechada de cal.

Se realizaron siete (07) tipos de pruebas de laboratorio donde

se usaron cantidades estequiométricas de los reactivos funda-

mentales: Cu2O, HCl, NaOH y en algunas ocasiones lechada de

cal.

Las variables fueron la neutralización a diferentes pH, la airea-

ción, el calentamiento, el tiempo de enfriamiento y reposo para

la formación de precipitado de oxicloruro de cobre. Se compa-

raron los porcentajes de rendimiento de cada método de labo-

ratorio.

RESULTADOLL S

más de una vez para cerciorar que los resultados obteni-

dos fuesen los correctos y adquirir más destreza y práctica

en la producción de oxicloruro de cobre en laboratorio.

HCl, se forma un sedimento blanco de cristales de cloru-

ro cuproso (CuCl) y un licor de coloración oscura, que está

constituido por una mezcla de cloruro cuproso en solu-

ción.

Precipitado

Modelo Experimental en Laboratorio

HCI = Óxido de cobre (II)

Precipitado

+ 400 mL de HCI

Licor

Licor

Soda

Page 15: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

88

Invest Apl Innov 3(2), 2009

clorhídrico al 33 % de concentración, se debe realizar un

proceso de oxidación para así poder obtener mayor con-

centración de cobre en solución como cloruro cúprico, y

con esto asegurar un mejor rendimiento en la produc-

ción de oxicloruro de cobre.

El pH es una variable muy importante en el proceso de

producción de oxicloruro de cobre, ya que el oxicloruro

de cobre precipita solo a un intervalo de pH de 5.5 a 6,

mientras que al subir el pH, estará precipitando hidróxido

cuproso, el cual tiene una coloración amarilla intensa.

para así poder eliminar impurezas.

industria de pigmentos. Este hidróxido, en el proceso

realizado, tiene como impureza al mismo oxicloruro de

cobre, el cual podrá ser eliminado con lavadas sucesivas.

CONCLUSIONES

cobre (I) con 30% de humedad como materia prima me-

diante lixiviación con ácido clorhídrico, reemplazando al

tradicional alambrón de cobre o cobre electrolítico.

-

quiere de grandes capitales de inversión, por lo que re-

presenta una interesante alternativa para la producción

de un fungicida frutal de alta demanda mundial.

REFERENCIAS

[1] ORMACHEA RAMOS, José A. Estudio de investigación para

la obtención de oxicloruro de cobre a nivel de laboratorio.

Tesis. Universidad Nacional del Callao. 1992.

[2] CAMARGO H. y C.; DUQUE P., O. Obtención de Oxicloruro de

cobre a partir de minerales cupríferos. Bogotá: Universidad

Nacional de Colombia. 1994.

[3] Descripción del proceso productivo. Universidad de Chile.

Recuperado del sitio www.u-cursos.cl/ingenieria/2009

[4] SKOOG, Douglas A. Química Analítica. 8o edición. USA: Mac

Graw Hill. 2008

[5] AYRESAA , Gilbert H. Análisis Químico Cuantitativo. México:

Harla. 1978.

[6] VOGEL. Arthur I. Química Analítica Cualitativa. Buenos Ai-

res: Kapelusz). 1980

ACERCA DE LOS AUTORES

Rosa María Sayán

Química, con maestría en Química,

mención en Físicoquímica. Experien-

cia docente universitaria mayor de 20

años y de desarrollo y conducción de

laboratorios químicos. Participación

en procesos de autoevaluación. Publi-

cación de libros. Profesora de cursos

de extensión. Actualmente de desempeña como docente del

departamento de Procesos Químicos y Metalúrgicos de TEC-

SUP.

Josefina Francia Quispe

Alumna del sexto ciclo de Procesos

Químicos y Metalúrgicos de Tecsup,

miembro del tercio superior.

SAYÁN RIVERA, Rosa Maria; FRANCIA QUISPE, Josefina. ”Método alternativo para la producción de oxicloruro de cobre”

Page 16: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

89

Invest Apl Innov 3(2), 2009

Dave Hedge, Raymond A. Hansen

Un análisis del rendimiento de MPLS enarquitecturas de redes jerárquicas por capas.

An analysis of MPLS performance in layered & hierarchical network architectures

Resumen

MPLS se ha convertido rápidamente en el protocolo estándar

de transporte preferido en las redes de empresas grandes y

medianas. Como el despliegue de servicios sensibles al tiem-

po es común para estas empresas, se vuelve crítico que las

redes tengan la habilidad de soportar este tipo de servicios.

En este estudio, se utiliza el simulador NS2 con módulos MPLS

para modelar y simular una red a gran escala de un proveedor

de servicios de internet implementada durante esta década.

Empezaremos por examinar el rendimiento de la red (laten-

cia extremo a extremo, tiempo de procesamiento por nodo,

tiempos de ida y vuelta) utilizando solo BGP como protocolo

de ruteo. Estas cifras son analizadas a través de diferentes flu-

jos de tráfico característicos generados por un usuario final y

que deben ser transmitidos a través de la red del proveedor.

El siguiente paso consiste en integrar MPLS en la red del pro-

veedor de un modo jerárquico basado en capas para exami-

nar los mismos parámetros anteriores y utilizando los mismos

flujos de tráfico desde el usuario final a través de la red.

La metodología, parámetros de simulación, resultados, con-

clusiones y trabajo futuro son detalladas en este paper.

Abstract

MPLS has quickly become the preferred network framework

for medium to large enterprises. As these companies deploy

time-sensitive services, the ability of the network to support

these new services is critical. In this study, we use NS2 with

MPLS modules to model and simulate a large Internet Service

Provider network as was deployed early this decade. We be-

gin by examining network performance (end-to-end latency,

node processing time, and round trip times) for a BGP-only

deployment of the provider network. These metrics are exa-

mined over a series of defined representative traffic flows

sourced from a customer network that requires transmission

across the provider network. We then integrate MPLS into the

provider network in a layered and hierarchical manner to exa-

mine those same network performance metrics for the same

defined set of traffic flows. Our methodology, results and fin-

dings, and future work are detailed in this paper.

Palabras claves

MPLS, BGP, Arquitecturas de red, Ingeniería de Trafico, Simula-

ción de red, NS2, Servicios Diferenciados.

Key words

MPLS, BGP, Network, Architectures, Traffic Engineering, Network

Simulation, NS2, Differenced Services.

INTRODUCTION

The Internet is built upon many interconnected networks. The-

se networks share routing information as to where websites,

files, and user applications are located through the use of IP

addresses. This type of structure has been employed since the

beginning of the Internet. However, with the advent and push

toward the unified communications network, the transmission

of traditional data, voice, and video, the latency required to

route traffic using this model has proved difficult for not only

service providers but also for customers.

Service providers have long wanted to define “Classes” of traffic.

These classes correspond to how traffic is routed and serviced

on the network. Existing technologies such as DiffServ require

examination and translation of specific fields within the pac-

ket header at each individual hop. This examination process

creates processing overhead which can translate into latency

while traversing the network. In addition to this classification

process, there is also a route selection process. Currently, routes

are selected based upon best match of the destination address.

Having to do this at each and every hop is a very time and pro-

cessing intensive process.

Page 17: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

90

Invest Apl Innov 3(2), 2009

With these current attributes in mind, the goal of this research

project was to simulate the difference, in terms of performan-

ce, between a traditional and an MPLS network. In addition

to looking at the performance difference, we were also inter-

ested in seeing if expanding MPLS closer to the transmission

host meant that performance from the source to destination

would increase.

In the following sections the testing platform, topology, tes-

ting parameters, results, conclusion and areas for additional

research will be presented.

BASIC METHODOLOGY

For this project, Network Simulator 2.26, NS2, was used to si-

mulate an MPLS topology using the MPLS for Network Simu-

lator module (mns-2.0) from [1]. NS2 simulations were selec-

ted over hardware based testing strategy for a multitude of

reasons. First was the reduction in the time required to confi-

gure a large network versus simulating a stable topology via

coding. Second was the issue of stability. We were looking

for a simulation that was repeatable over a large number of

tests. With a hardware-based network, there is not absolute

certainty that the testing platform is going to perform the

exact same on each and every test due to the limited control

of the physical environment. Third was the ability to simula-

te functionality in a large number of devices which was not

feasible with the equipment available. With the current ver-

sions of the existing IGPs on available equipment, it was not

possible to scale to this magnitude and still provide reliable

service.

The benefit of the mns-2.0 plug-in is that it provides NS2 the

ability to designate MPLS nodes, classify traffic, exchange LDP

packets, and build a functional network that is representative

of an enterprise-class MPLS network. For this research, we are

mostly focused on the LDP processes and the ability to desig-

nate certain nodes as MPLS nodes. [3, 5]

Network Topology

The network topology was one of the most significant as-

pects of this research project. The topology that was deve-

loped was based on an actual service provider network, as

shown in Figure 1.

a) Service Provider Backbone

For the Service Provider network, a regional topology

was developed that would comprise of four major re-

gions. These regional hubs were selected because of

their OC-48 backbone connectivity. This backbone ope-

rates at a rate of 2488.32 Mbps and is a realistic represen-

tation of a backbone for a major provider. Between each

head-end backbone router, there is a 1 Gbps cross connect.

It was important to emulate, as closely as possible, a real

network so that the results that were collected have me-

aning from not only a customer perspective but also a Ser-

vice Provider prospective. While this was designed around

an actual network, the current implementation does not

take into account redundancy, outside of basic redundan-

cy, of the network or the overall recoverability in the event

of a catastrophic failure within the service provider net-

work.

Figure 1. Service Provider Network Architecture

Figure 2. Sample Regional Network

b) Service Provider In-Region

With the backbone connectivity selected, five regional

routers were created. These routers would be internal to

the service provider’s network. These routers provided

the connectivity to the high speed backbone routers and

service the service provider’s regional hubs. Redundancy

was built into the design so that any one hardware failu-

re would still provide for connectivity within the region.

This was a design decision that was not tested because we

were not concerned about the recoverability of MPLS for

this research project. The main goal of creating an accura-

te topology was such that basic redundancy was needed.

HEDGE, Dave; HANSEN, Raymond. “An analysis of MPLS Performance in layered & hierarchical network architectures”

Page 18: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

91

Invest Apl Innov 3(2), 2009

HEDGE, Dave; HANSEN, Raymond. “An analysis of MPLS Performance in layered & hierarchical network architectures”

For connectivity, these routers were connected via T3

to the head end backbone routers and Metro Ethernet

between the other regional routers. These connections

technologies operate at ~45 Mbps and 10 Mbps respec-

tively.

c) Service Provider Regional Hub

The final service provider consideration was the servi-

ce provider’s regional hub router. These routers are the

gateways for customers to gain access onto the service

provider’s network. Large provider edge locations were

selected from prime locations in Figure 1. These routers

were connected back into the regional ones using Metro

Ethernet connectivity that operates at 10 Mbps.

d) Customer Edge

The final network segment was the customer edge.

These routers represented actual customer’s networks.

Using T1 connectivity, these routers then connect into

the regional hub routers. This is also the location where

traffic generation and reception occurred for the simu-

lations, allowing the rest of the network to route traffic

while not dealing with traffic generation.

Testing & Test Configuration

The testing was conducted in five strategic phases that would

provide detailed information to capture the performance of

the network. The phased approach also provided a stable

testing platform that could be expanded as the project pro-

gressed and was repeatable throughout the testing process.

As each phase progressed, a series of tests were conducted

with data was collected to measure the network performan-

ce statistics.

The testing configuration consisted of seven separate traffic

streams. Each of these streams started in one geographical

location and was sent across the network to a different geo-

graphical location. All of the streams were 10 hops in length.

For testing purposes, and to collect statistics, a single TCP

stream was configured from the Houston area to the LaGuar-

dia area. This stream was the main focus of the simulations

as it provided the most information statistically due to the

nature of the protocol.

The six additional streams were constant bit rate UDP streams.

The main purpose of these streams was to provide some load

to the routers and create traffic in the geographic locations.

These streams also presented a similar traffic pattern to VoIP

and video session. For these streams, the packet rate was set to

1.5 Mbps with a packet size of 1000.

The NS2 testing schedule involved starting all of the UDP/CBR

nodes prior to the start of the TCP/FTP session. This allowed

for packets to be in route prior to the transmission of the TCP

handshake and the start of the session. In addition, the time

prior to the start of the UDP/CBR session provided ample time

for the LDP message to be communicated through the network

depending on what stage the MPLS was implemented.

RESULTLL S

The results were consistent with the original hypothesis: that

MPLS provided a performance increase. While this performan-

ce increase was not in an exponential fashion, there was a clear

performance increase from the traditional network to the pha-

sed approaches evaluated. The test result, which are presented

in the graphs below, include the traditional benchmark, (pha-

se 1), and then each consecutive phase that MPLS was moved

from the provider core to the customer premise. Also the traffic

is representative of either TCP or UDP protocols only. There was

LDP traffic on the network in testing phases that involved the

usage of MPLS. Including the LDP traffic only skews the results

because the further the MPLS is expanded, the more LDP traffic

is needed to build the MPLS table. The simulated test sets were

ran twice, with the first test consisted of each of the network

links having 5ms of latency and the second sets of tests set to

to 15ms of latency.

First up was the End to End Delay time for all TCP traffic. The

TCP traffic was the test-bed for this experiment. The measure-

ment of End to End Delay is as follows, “End2End delay = time

(in seconds) when packet was received by OTHER NODE - time

(in seconds) when packet was sent by CURRENT NODE.” [2] In

this instance, the OTHER NODE was a customer node located in

Houston area and the CURRENT NODE was located in the La-

Guardia area.

Figure 3. Average End to End Delay

Page 19: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

92

Invest Apl Innov 3(2), 2009

HEDGE, Dave; HANSEN, Raymond. “An analysis of MPLS Performance in layered & hierarchical network architectures”

As seen in the graph, Figure 3, the first phase, the traditional

benchmark, there was an improvement by implementing

MPLS for the 5 ms network configuration. By expanding the

technology, no additional performance benefits were detec-

table during the testing periods.

However, when the backbone latency was increased to 15

ms, the end to end delay remained constant around 66.8 ms.

There was no significant drop in the end to end delay time

for this configuration. Meaning that there was no significant

performance increase between the traditional and MPLS-

enabled network configurations.

Next was the End to End Delay for the UDP background

streams. Even though these streams were not the focus of the

experiment, the traffic was still being sent across the MPLS

network. This type of traffic, unlike the TCP traffic, is more

consistent with traffic that is time-sensitive. Therefore, an im-

provement in delivery time would be beneficial in marketing

and also to the customer who is looking at implementing a

unified network.

Figure 4 - Average Delay - UDP only

As the graph, Figure 4, illustrates, there is a performance im-

provement associated with the implementation of MPLS for

configurations, as captured by the close descending slope.

However, the initial performance improvement does not oc-

cur at the provider core level as was noted with the 5ms TCP

results. The 15 ms tests returned results that closely mirror

the results of the 5 ms tests, yielding the same performance

increase.

Finally, a composite graph of both TCP and UDP traffic over

the network during all of the phases of testing is presented

below.

As seen from the graph, Figure 5, there is a clear performance

benefit by moving from a traditional network to any MPLS

enabled network. While the largest gain, for both traffic ty-

pes, occurs closest to the Service Provider network, there is

still a benefit for pushing the technology as close to the custo-

mer as possible.

Figure 5 - Average Delay - Combination

Likewise, the results from the 15 ms testing show an increase in

performance that mirrors the 5 ms testing. However, unlike the

5 ms testing, there was no performance increase by enabling

MPLS on the Provider backbone. Instead, the latency drop oc-

curred after the transition of the Service Provider backbone to

MPLS.

CONCLUSION

The simulation’s goal was to explore the hypothesis that a

MPLS-enabled network would be faster than a traditional net-

work. For the most part, this theory was validated by the data

collected at each of the expansion points while testing.

The data collected shows that there is a clear performance for

both TCP and UDP traffic on a MPLS-enabled network when

compared to a traditional network. While this performance

increase does not appear at the same location for each proto-

col, it does occur as some point during the expansion process.

When looking at traditional traffic patterns, a combination of

both TCP and UDP traffic, there is a performance improvement

that is similar to what is seen when isolating the protocol inde-

pendently.

Based on the data that was collected, this opens up many areas

for a Service Provider to offer new services and customers to re-

evaluate their connectivity. The advantage to the Service Provi-

ders would be to implement MPLS throughout the network to

offer new services to their customers. These new services could

include queued traffic. While MPLS by itself does have a perfor-

mance benefit, the more impressive capabilities are to provide

traffic classification and to queue that traffic and then move it

through the network efficiently. With these abilities, the capital

needed to provide such as service could be recovered rather

quickly as existing infrastructure could remain in place while as

either lower level queue types or traditional connectivity.

Page 20: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

93

Invest Apl Innov 3(2), 2009

HEDGE, Dave; HANSEN, Raymond. “An analysis of MPLS Performance in layered & hierarchical network architectures”

By taking into account the performance of the 15 ms laten-

cy testing, we ask the question of whether or not link laten-

cy has a factor as to where MPLS should be deployed. This

phenomenon makes sense because as the additional latency

time plus the time for route processing, negatively affects

network performance. Looking at UDP and the average gra-

ph for both protocols, it shows that the performance increase

occurs following the implementation of MPLS on the router

prior to that link.

The findings of this research project also suggest that an

opportunity exists to further categorize Customer needs. It

may no longer be a matter of how much bandwidth a cus-

tomer has at their disposal. If the Service Provider were to

implement a queuing technique, it would then allow the cus-

tomer to purchase their connectivity in terms of queue prio-

rity. Not every business would need to have traffic placed

into a high priority queue. If that business was only utilizing

the “best effort” queue, then there could be financial savings

for doing so.

This research projects evaluation of the combination of both

UDP and TCP streams and the associated impact on the res-

ponse delay times provides the basis for future opportunity

as well. With the enterprise network moving towards unified

networks, the data shows that over an MPLS-enabled network,

there is a better chance of a phone call or video conference

remaining at acceptable limits and delivering performance

that is comparable to separate services.

The result is cost savings for enterprises due to the bundling

of these services onto an existing network.

The next step in this research would be implementing a

hardware-based environment. While the simulated network

provided an excellent testing platform, there is still the issue

of hardware and how the hardware performs.

This final step would also bring to light any additional issues

or areas of study that would be needed to be addressed in

order to bring MPLS to the customer premise.

Future Work and Study

While NS-2 provided a great platform to test from, there is

still a difference between simulation and physical implemen-

tation. Such important difference between a simulated envi-

ronment and a hardware environment would be the physical

router configuration and hardware selection. MPLS requires

an IGP router protocol to build the Label Switch Path (LSP) to

switch packets between nodes within the MPLS cloud. If this

project were to be replicated in a physical environment, some

additional research would need to be conducted as to how the

Service Provider could provide MPLS service to the customer

edge while still maintaining the current security and service

controls that are in place.

An example of existing controls that are in place include Vir-

tual Forward and Routing tables (VRF). These tables allow for

the Service Provider to segment a network, creating a Virtual

Network within their physical network. One significant rea-

son for doing this is the ability to run non routable network

address ranges and then broadcast them to other Service Pro-

vider routers running Multiprotocol Border Gateway Protocol

(MP-BGP). If a customer has multiple sites across the world, the

provider can segment the assigned IP ranges so that only other

sites that are part of the same customer network receive routes

to those locations.

In addition to the usage of private vs. public IP address, the is-

sue of using an IGP for a large scale network requires additional

evaluation. Additional research would need to be conducted

as to how well an IGP would scale to support a Service Provider

network and how the network would respond to flaps within

the network. With the need for convergence as part of all IGPs,

clarity regarding how they would provide the stability and re-

liability of BGP while delivering MPLS is important to Service

Providers and their clients.

The final aspect to investigate is to examine whether the imple-

mentation point of MPLS affects the performance of the overall

network. Since this project was designed to look at whether the

implementation of MPLS provided any performance increase

and not whether link latency determined where the technolo-

gy should be implemented, by changing the latency on back

bone links, there was a clear indication that there was an effect

on the performance compared to a network with links that had

all the same amount of latency.

Acknowledgements

This work was enacted and completed in colaboration with Re-

natto Gonzales of Tecsup in Lima, Peru.

REFERENCES

[1] Bertrand, G. Tutorial for the simulation of MPLS networks

with the Network Simulator (NS). Gilles Bertrand - PhD

candidate - TELECOM Bretagne. [Online] [Cited: Nov-

ember 12, 2008.] http://www.rennes.telecom-bretagne.

eu/~gbertran/pages/tutorials_ns.html#sujet1.

Page 21: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

94

Invest Apl Innov 3(2), 2009

[2] Malek, J. (2005). Trace graph 2.05 help..

[3] Subramanian, S. Independent study report - Study of

Traffic Engineering Algrothms and Framework. [Online]

September 9, 2002. [Cited: November 12, 2008.] http://

www.ee.unlv.edu/~venkim/opnet/IndependentStudy.

pdf

[4] Greis, M. Tutorial for the Network Simulator “ns”. Marc

Greis’ Tutorial for the UCB/LBNL/VINT Network Simula-

tor “ns”. [Online] December 02, 2000. [Cited: November

12, 2008.] http://www.isi.edu/nsnam/ns/tutorial/index.

html.

[5] Ahn, G, and Chun, W. Design and Implementation of

MPLS Network Simulator(MNS). MNS_v2.0_arch. [Onli-

ne] October 17, 2000. [Cited: November 30, 2008.] http://

heim.ifi.uio.no/~johanmp/mpls/MNS_v2.0_arch.pdf.

ACERCA DEL AUTOR

Raymond Hansen is an Assistant

Professor of Computer and Informa-

tion Systems Technology at Purdue

University in West Lafayette, Indiana.

Professor Hansen’s primery areas of

interest are network engineering,

wired & wireless network systems

administration, enterprise network

management, and wired & wireless network security.

Professor Hansen’s teaching interests include wired and wire-

less network design, engineering, administration, and mana-

gement along with security of enterprise networks.

Dave Hedge is a recent graduate of the internationally re-

cognized Computer & Information Technology program at

Purdue University. He received his degree with a specializa-

tion in Network Engineering Techonology and focused on in-

frastucture operations and management. Dav e is now using

those operations and management skills for his employer,

ExxonMobile Corporation in Houston, Texas.

HEDGE, Dave; HANSEN, Raymond. “An Analysis of MPLS Performance in Layered & Hierarchical Network Architectures”

Page 22: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

95

Invest Apl Innov 3(2), 2009

Giancarlo Obando

Construcción de biodigestores discontinuos yanálisis de su comportamiento bajo diferentes

regímenes de operación

Discontinuous biodigesters construction andtheir behavior analysis under different operation

conditions

Resumen

Los desechos orgánicos, producto de procesos industriales,

agroindustriales o comerciales, constituyen hoy en día un

grave problema que libera gases de efecto invernadero al

medio ambiente, repercutiendo sobre su salud y la de la vida

terrestre.

Como parte de los tratamientos conocidos, los métodos bio-

lógicos van ganando aceptación desde que permite degra-

dar la materia orgánica con la consecuente obtención de un

producto con alto poder combustible: el biogás.

El desarrollo de la tecnología de digestión anaeróbica para

cubrir las necesidades de agricultores de pequeño y medio

porte en la región, se constituye como atractivo para el cam-

po de la investigación.

En ese entorno, se construyeron 3 biodigestores para evaluar

la influencia de factores como la temperatura y la agitación

sobre la fermentación anaeróbica. Además, se construyó un

sistema de cuantificación de biogás tipo campana flotante.

Se determinó que tanto la temperatura como la agitación

influencian en el comportamiento de la fermentación anae-

róbica de la materia orgánica, acortando el tiempo de pro-

ducción de biogás.

Finalmente, se determinó que para las condiciones climáticas

de la ciudad de Arequipa, un biodigestor puede prescindir del

sistema de agitación y calentamiento. El proceso demandaría

un mayor tiempo para establecer los niveles de producción

diaria de biogás.

Abstract

The organic wastes product, industrial and agroindustrial pro-

cesses, constitute a serious problem that contributes to Global

Warming, encompassing on the environments’s health inhabi-

tants, compromising the future of new generations.

As part of the treatments known, the biological methods are

gaining acceptance since it allows to degrade the organic mat-

ter with the consequent obtaining of a renewable fuel; the bio-

gás.

The development of anaerobic digestion technology to cover

the needs of small and medium scale regional farmers is attrac-

tive to the research field.

Therefore, in this environment 3 biodigestors were built to as-

sess the influence of heating and mixing process. In addition

was built a biogás quantification system (floating type).

It was determinated that both the temperature and the agita-

tion influence on the anaerobic fermentation behavior, there-

fore reducing the production time of biogás.

Likewise, under Arequipa´s climatic conditions a heating and

mixing systems is not required; the anaerobic digestion just re-

quires more time to set the levels of daily biogás production.

Palabras claves

Biodigestión termofílica, valorización de residuos orgánicos,

cuantificación de biogás, biodigestor.

Page 23: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

96

Invest Apl Innov 3(2), 2009

Key words

Organic residues valorization, thermophilic digestion, diges-

ter, biogás quantification.

INTRODUCCIÓN

El crecimiento económico se encuentra estrechamente rela-

cionado con el consumo de energía y el incremento de los

niveles de emisiones nocivas al medio ambiente. Esa relación

es directamente proporcional y la sustenta el consumo de

combustibles fósiles.

La energía renovable ha sido aprovechada desde siglos pa-

sados en la diversificación de la matriz energética de algunos

países; sin embargo la aparición del petróleo truncó la con-

solidación de esta tecnología, pero desde la década del 90, la

comunidad científica ha retomado el desarrollo de tecnolo-

gía basada en fuentes de energía renovable como la bioma-

sa, la energía solar y la eólica; siendo competitivos conforme

se incremente el precio del petróleo o se agoten sus reservas

mundiales.

Desde tiempos remotos, el ser humano hizo uso de la bioma-

sa para satisfacer sus necesidades básicas de alimentación y

confort térmico; en los últimos años, la digestión anaeróbica

se ha tornado adecuada para el procesamiento de los resi-

duos orgánicos, con la posibilidad de reducir las emisiones

al medio ambiente, propias de su proceso de putrefacción,

recuperar un recurso combustible renovable (biogás) y un

importante fertilizante orgánico.

Tecsup, con el objetivo de consolidar la tecnología de la di-

gestión anaeróbica en nuestro país, viene promoviendo la in-

vestigación mediante el Proyecto de Desarrollo y Promoción

de Tecnología Basada en Fuentes de Energía Renovable en el

Laboratorio de Máquinas Térmicas de TECSUP.

En este entorno fueron construidos 3 biodigestores con

diferentes parámetros de operación para la evaluación de

las ventajas y desventajas de asumir procesos de calenta-

miento y/o agitación en biodigestores para la ciudad de

Arequipa.

FUNDAMENTOS

La digestión anaeróbica

La digestión anaeróbica permite degradar la materia orgáni-

ca en ausencia de O2

desarrollándose procesos simultáneos

de acidogénesis y metanogénesis, mientras va ocurriendo

la producción de metano y dióxido de carbono, principal-

mente. Como resultado se obtiene biogás y efluente (Biol

y Biosol) con características fertilizantes, ambos productos

estables [4].

El biogás, dado su alto contenido de metano (60 a 75 %), tie-

ne propiedades combustibles y el efluente es considerado

como un potencial mejorador de suelos, dado su alto conte-

nido de nutrientes estabilizados.

Para asegurar una producción continua de biogás es nece-

sario alimentar diariamente con sustrato orgánico, de prefe-

rencia molido (trozado o destrozado) y en forma líquida, con

el menor contacto posible con el ambiente.

Para Werner, Stohr y Hees (1989) un biodigestor de 10 m³,

alimentado con el estiércol de 5 cabezas de ganado o 12 cer-

dos, produce, aproximadamente, 2 m3 de biogás y 100 litros

de biofertilizante por día. Ese biogás es suficiente para que

una familia de 6 a 8 integrantes pueda cocinar sus 3 comidas

y operar un refrigerador todo el día así como 2 lámparas por

3 horas, u operar un generador eléctrico por 1 hora.

El estiércol animal puede ser mezclado con residuos orgáni-

cos de plantas para mantener una adecuada producción de

biogás; esta mezcla no debe exceder el 10 % de Sólidos Tota-

les. El estiércol de los rumiantes es particularmente adecua-

do para iniciar la fermentación porque ya contiene bacterias

metanogénicas, además de una baja relación carbono/nitró-

geno, entre 9 y 25.

El excesivo contenido de amoniaco (relación C/N por debajo

de 8:1) inhibe la actividad bacteriana.

El estiércol de ganado presenta una menor producción de

gas que el obtenido de pollos o cerdos, debido a que extraen

gran cantidad de nutrientes del forraje y el remanente pre-

senta alta resistencia a la fermentación anaeróbica [8].

El bajo contenido orgánico de la orina, poco contribuye en la

producción global de biogás, pero mejora sustancialmente

el poder fertilizante del efluente y contribuye con la dilusión

del sustrato alimentado al biodigestor.

La cantidad y calidad del biogás esta definida por el conte-

nido, en el sustrato, de sólidos totales (ST, medido en kgST/

m³) y sólidos volátiles (SV, medido en kgSV/m³). Estos valores

generalmente se expresan como porcentaje de peso (Tabla

1 y 2).

OBANDO, Giancarlo. “Construcción de biodigestores discontinuos y análisis de su comportamiento bajo diferentes regímenes de operación”

Page 24: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

97

Invest Apl Innov 3(2), 2009

OBANDO, Giancarlo. “Construcción de biodigestores discontinuos y análisis de su comportamiento bajo diferentes regímenes de operación”

Sustrato(estiércol)

Rango de producciónde biogás

(l/kgVS)

Producción promediode biogás

(l/kgVS)

340-550 450

Vaca 150-350 250

Gallinas 310-620 460

Caballo 200-350 250

Oveja 100-310 200

Paja de maíz 350-480 410

Paja de arroz 170-280 220

Algas 380-550 460

Bagazo 140-190 160

Residuos vegetales 300-400 350

Aguas servidas 310-640 450

Tabla 1. Producción de biogás de varios tipos de biomasa agrícola [9].

Esp

ecie

s

Producción dia-ria de estiércol en % del peso

vivo

Sólidos del estiércol

frescoPeso vivo

(kg)

Esti

érco

l

Ori

na

ST (

%)

SV (

%)

Ganado 5 4-5 16 13 135 - 800

Búfalo 5 4-5 14 12 340-420

Cerdo 2 3 16 12 30- 75

Ovejas 3 1 - 1,5 30 20 30 - 100

Cabras 3 1 – 1,5 30 20 30 - 100

Pollos 4,5 25 17 1,5 - 2

Humano 1 2 20 15 50- 80

Tabla 2. Producción promedio de estiércol como porcentaje del peso

vivo de animales estabulados [9].

Dada la diferencia en el contenido de sólidos totales y agua

de cada una de las distintas materias orgánicas usadas como

sustrato, en biodigestores continuos es recomendable utilizar

una proporción de 5 a 10 % y de 25 % para aquellos biodi-

gestores operados bajo el régimen discontinuo. Mayores con-

centraciones tienden a inhibir el metabolismo.

El efluente del biodigestor, que pierde todo el olor caracterís-

tico del estiércol que lo originó, puede ser utilizado en el me-

joramiento de suelos arcillosos y arenosos que son pobres en

humus, y como medio nutritivo de los vegetales bajo cultivo

hidropónico y cultivos orgánicos en invernadero o el campo.

El efluente puede ser utilizado también como alimento para

animales, al mezclarlo, para mejorar su gustocidad, con gra-

nos, tortas, mieles o forrajes, ya que el efluente puro posee una

concentración de aminoácidos esenciales similar al grano de

soya [5].

Mediante quemadores de biogás se puede cocinar e iluminar,

con una eficiencia de 60 a 80 % (Tabla 3). Este deberá ser cali-

brado para obtener el menor consumo [5].

Consumo de biogás por:

Consumo de biogás

Tiempo (min)

1l de agua 30-40 l 8-12

5 l de agua 110-140 l 30-40

3 l de caldo ~60 l/h -

1/2 kg de arroz 120-140 l ~40

1 tortilla frita 10-20 l ~3

1/2 kg de legumbres 160-190 l ~60

persona y por comida 150-300 l/d

Tabla 3. Consumo de biogás para cocina [8], [9].

La evolución de los biodigestores ha permitido, a lo largo del

tiempo, utilizar materiales disponibles localmente para su

construcción, como ladrillo, cemento, metálico o plástico. Por

otro lado, la viabilidad económica ha permitido, para empren-

dimientos de pequeño y medio porte, biodigestores de bajo

costo (bolsa de polietileno), muy utilizados en Vietnam, Colom-

bia, entre otros países. Asimismo, en todos ellos puede variarse

el régimen de operación: continuo o discontinuo [2], [5]. Esto de-

pende de la cantidad de materia orgánica que se tenga disponi-

ble y de los usos finales que se le de a los productos [4], [3].

Parámetros de influencia

La agitación permite mejorar el contacto entre microorganis-

mos activos del sustrato (biomasa), evitando la sedimentación

y la espuma, y mejorando la distribución de la temperatura.

Como cualquier otro proceso microbiano, el metabolismo

incrementa con la temperatura, e influencia en el tiempo re-

querido para completar la fermentación; esto es el Tiempo de

Retención Hidráulica [6]. Estos factores son inversamente pro-

porcionales. Además, mayores temperaturas reducen el tiempo

de sobrevivencia de agentes patógenos como la salmonela.

Una mayor temperatura no afecta la producción total de biogás,

pues esta depende del tipo de biomasa utilizada. La fermenta-

ción anaeróbica requiere una minima temperatura de 15 °C.

La fermentación anaeróbica de la materia orgánica puede esta-

blecerse en diferentes rangos (Tabla 4).

Page 25: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

98

Invest Apl Innov 3(2), 2009

RangoMín.(°C)

Ópt.(°C)

Máx. (°C)

TRH(días)

Psicrofilico 4 a 10 15 a 18 25 a 30 Sobre

100

Mesofilico 15 a 20 28 a 33 35 a 45 30 a 60

Termofilico 25 a 45 50 a 60 75 a 80 10 a 16

Tabla 4. Tiempo de retención hidráulica para distintos

rangos de fermentación anaeróbica.

Un sistema de calentamiento se sustenta siempre que la tem-

peratura ambiente sufra grandes variaciones por largos pe-

riodos de tiempo. En climas cálidos, los digestores funcionan

sin calentamiento pero hay que aumentar el TRH.

Así, Carrillo (2003) afirma que a mayores temperaturas se

da una mejor producción de biogás por cada sólido volátil,

como se muestra en la Figura 1.

Figura 1. Influencia de la temperatura sobre la producción

de biogás [1].

PROCEDIMIENTO

Para la investigación se construyeron 3 biodigestores metá-

licos operados bajo el régimen discontinuo y cargados con

estiércol de ganado lechero.

Cada uno de los biodigestores presenta las siguientes parti-

cularidades (Figura 2):

-

recto por resistencia eléctrica y sistema de agitación por

bomba centrífuga.

central, de operación manual y periódica.

-

tación. Denominado biodigestor estándar o control.

Figura 2. Disposición de los biodigestores construidos a partir de cilindros

metálicos de 220 litros.

El BD-03 fue construido, al igual que el BD-02 y BD-01, a partir

de un cilindro metálico de 220 litros en cuya parte inferior se

instaló un desagüe de 2” de diámetro con válvula de PVC. La

salida del biogás fue dispuesta en la parte superior, mediante

una tubería y válvula de PVC de ¾”.

El BD-02 fue equipado con un

agitador mecánico dispuesto

de forma concéntrica en el

cilindro-biodigestor.

El agitador está conformado

por 2 carretes plásticos aleta-

dos (3 paletas de acero galva-

nizado) y asegurados a lo largo

de un tubo de acero SAE 1020

de 2” de diámetro (Figura 3).

Figura 3. Agitador mecánico del

BD-02 (diseño en Solid Edge v20).

En el BD-01 se montó un intercambiador de calor (IC) de tubo

de acero Schedule 40 de 2” de diámetro dispuesto y soldado de

forma concéntrica con el cilindro de 55 galones (Figura 4).

El IC se encuentra inundado de agua que es calentada por una

resistencia eléctrica de 4500 vatios, colocada en la parte inferior

del mismo. En el otro extremo se instaló una válvula de alivio y

otra para reposición del nivel de agua. Una bomba centrífuga

trifásica de 60 LPM recircula la materia orgánica, desde la parte

OBANDO, Giancarlo. “Construcción de biodigestores discontinuos y análisis de su comportamiento bajo diferentes regímenes de operación”

Page 26: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

99

Invest Apl Innov 3(2), 2009

OBANDO, Giancarlo. “Construcción de biodigestores discontinuos y análisis de su comportamiento bajo diferentes regímenes de operación”

inferior a la superior del cilindro, generando la homogeneiza-

ción de la mezcla (estiércol y agua) y promoviendo un mejor

intercambio de calor con el agua caliente.

Además, para accionar simultáneamente la resistencia eléc-

trica y la bomba centrífuga se instaló un controlador electró-

nico de temperatura (EKC-101).

Figura 4. Diseño del

sistema de calentamiento

y agitación del BD-03

(software Solid Edge v20)

Para cuantificar el biogás producido en cada biodigestor, se

construyó un medidor común de campana flotante, consis-

tente en 2 cilindros (105 y 220 l) dispuestos de forma inverti-

da uno dentro del otro (Figura 5).

El biogás se almacena entre los cilindros y un sello de agua

hermetiza el sistema (bajo el Principio de Arquímedes). Con el

ingreso de biogás, la campana superior se desplaza vertical-

mente y esa presión de almacenamiento puede variarse con

el incremento de peso sobre la campana.

Figura 5. Medidor de gas tipo campana flotante

Diseño en Solid Edge v20)

La fermentación de la materia orgánica en ausencia de oxi-

geno, ocurrida al interior del biodigestor (BD), recipiente her-

mético, puede generar elevadas presiones que sobrepasen la

resistencia mecánica del mismo, por lo que fueron instalados

manómetros verticales de nivel de agua (manguera transpa-

rente de 5/8) que cumplen las veces de válvula de seguridad.

Una presión por encima de 20 kPa (2000 mmHg) ocasionaría

el vaciado gradual del manómetro, controlando así la presión

interna del BD (Figura 6).

Figura 6. Manómetros de nivel de agua (sistema de seguridad)

Fabricados los biodigestores, fueron sometidos a pruebas de

hermeticidad con aire comprimido y agua.

Posteriormente se cargaron con una mezcla de agua y estiércol

fresco de vacas lecheras estabuladas (3,3 kgSV), utilizándose

una proporción agua/estiércol de 4:1, recomendada para bio-

digestores operados en régimen discontinuo (25% de ST).

Consecuentemente, cada biodigestor fue cargado con 180 kg

de mezcla (80 % de la capacidad total) (Figura 7).

Se establecieron los parámetros de operación de los BD´s, pro-

gramando una temperatura de trabajo de 40 °C para el BD-01

con una variación de 1 °C y una frecuencia de agitación de 3

veces al día (8 am, 12 am y 4 pm), durante 1 minuto, para el

BD-02.

Finalmente, las propiedades combustibles del biogás se com-

probaron mediante su combustión.

Page 27: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

100

Invest Apl Innov 3(2), 2009

Figura 7. Diagrama de flujo del proceso de digestión anaeróbica imple-

mentado para la investigación.

RESULTADOLL S

Inicialmente el análisis de los resultados se centró en los pri-

meros 21 días, debido a que se registraron fallas en la opera-

ción del BD-01 por fallas esporádicas en el suministro eléctri-

co de la instalación.

De los resultados, mostrados en la Figura 8, se aprecia la va-

riación en la producción al modificar los parámetros de ope-

ración.

Figura 8. Comparación de la producción de biogás

de los biodigestores.

El BD-01, que fuera operado en el rango termofilico mínimo

(entre 25 y 45 °C), prácticamente inició su producción al día si-

guiente de haber sido cerrado, siendo registrados 9,5 litros al

sexto día de operación.

En la Figura 8 se puede apreciar una menor pendiente en la

producción de biogás, permitiendo una reducción en el tiempo

de retención hidráulica (TRH) del BD-02 y BD-03.

Pasados los 40 días, se registró una producción de aproximada-

mente 40 litros de biogás por día en el BD-02 y BD-03, indican-

do que a pesar de haberse reducido el TRH en el BD-02, dada la

“agitación”, el BD-03 alcanzó la misma producción por día.

El funcionamiento errático, dado el corte de suministro eléctri-

co, del BD-01 mantuvo la producción de biogás con una fluc-

tuación de temperatura entre los 17 y 35 °C.

En el día 22 se registró una falla en el suministro de agua de

reposición del intercambiador de calor del BD-01, lo que porvo-

có el sobrecalentamiento de la resistencia eléctrica y posterior

corto circuito. Esto generó el desbalance prolongado (2 días)

en el metabolismo de las bacterias; cayendo abruptamente la

producción de biogás, no siendo posible su recuperación.

El biogás producido en la primera semana no presentaba ade-

cuados índices de inflamabilidad debido a la presencia de aire

que no fuera evacuado al inicio de las mediciones, correspon-

diente al volumen de almacenamiento de cada BD (20 % del

volumen total) y del medidor común de biogás.

Dados los resultados obtenidos en la experimentación preli-

minar, se procedió a modificar el sistema de calentamiento del

BD-01 e independizar la cuantificación del biogás, haciendo un

medidor de campana flotante para cada biodigestor (Figura 9).

Asimismo, se modificó la mezcla estiércol-agua, utilizándose

30 litros del efluente del BD-03 y 150 litros de mezcla con una

proporción de 4 partes de agua por cada parte de estiércol de

vacas lecheras (3,3 kgSV). Con las modificaciones se disminuyó

el tiempo de calentamiento del BD-01, debido a que la transfe-

rencia de calor mejoró.

Iniciado el nuevo proceso, se pudo verificar que el BD-03 inició

la producción mucho antes que los otros dos. Lo que indica que

las bacterias estabilizadas sin agitación ni calentamiento, del

proceso anterior, consiguen promover una mayor producción

por tenerse las mismas condiciones de operación. Al cabo del 4o

día la producción de los 3 era evidente, y de aproximadamente

10 litros por día.

Producción diaria de biogás

Pro

du

cció

n d

e b

iog

ás (l

itro

s)

Días

Estiércol(36 kg x 3)

Medición de biogás(Tipo campana flotante)

Almacenamiento(cámaras de caucho y polietileno)

Utilización del biogás(Verificación del poder combustible)

Combustión directa(cocina adaptada)

Generación de electricidad(Generador eléctrico 1200 w)

Agua(108 kg x 4)

Mezcla - biomasa(540 kg)

BD-01(180 kg)

BD-02(180 kg)

BD-01(180 kg)

OBANDO, Giancarlo. “Construcción de biodigestores discontinuos y análisis de su comportamiento bajo diferentes regímenes de operación”

Page 28: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

101

Invest Apl Innov 3(2), 2009

OBANDO, Giancarlo. “Construcción de biodigestores discontinuos y análisis de su comportamiento bajo diferentes regímenes de operación”

Figura 9. Planta de biogás modificada. Intercambiador de calor del BD-

01 y medidores de campana flotante independientes (Solid Edge 20)

CONCLUSIONES

agitación, se mostraron como apropiadas en la reducción

del tiempo de retención hidráulica.

-

mente por un largo tiempo, la fermentación anaeróbica

cesa y cae la producción de biogás.

-

brepasar la capacidad de almacenamiento del propio

biodigestor (20 % del volumen total), entupiendo las tu-

berías de descarga del biogás, por lo que se recomienda

disminuir la velocidad de descarga de la bomba, incre-

mentado el diámetro de la tubería de descarga o dismi-

nuyendo la velocidad de rotación de la misma.

-

mente para la homogeneización de la mezcla, a pesar de

ser accionada manualmente. Se recomienda establecer

un mecanismo electromecánico que agite automática y

periódicamente la mezcla.

mostró adecuada para evaluar la presión generada en los

biodigestores: la opción de válvula de alivio lo torna más

interesante siempre que el objetivo sea producir biogás a

baja presión (< 20kPa).

en la producción de calor; la que fuera potencializada con

el pintado de negro de los biodigestores. La caída de 10 a

12 °C en el día no representó un problema en la produc-

ción.

(alta radiación solar) no se justifica un proceso de calenta-

miento, puesto que una vez estabilizada la actividad bacte-

riana, al cabo de 50 días de retención hidráulica, la produc-

ción se vuelve estable.

y manual se muestra como la más indicada cuando se re-

quiere reducir el tiempo de retención hidráulica del biodi-

gestor.

implementación de un sistema de calentamiento y/o agi-

tación, la cantidad de biogás producida solo depende de la

calidad de la materia orgánica confinada en el biodigestor.

-

tirán mejorar la precisión en la cuantificación del biogás.

Próximos trabajos serán implementados para mostrar la

especialización en el desarrollo de la tecnología de la di-

gestión anaeróbica.

REFERENCIAS

[1] CARRILLO L. (2003). “Microbiología Agrícola”. Recuperado el

20 de febrero del 2009: http://www.unsa.edu.ar/matbib/

micragri/micagricap5.pdf

[2] DIAZ, Giancarlo Obando. “Análise de Sistemas para o Res-

friamento de Leite em Fazendas Leiteiras com o Uso do

Biogás Gerado em Projetos MDL, 2006”. Disertación (Maes-

tria en Ingeniería Mecánica). Universidade de São Paulo,

Coordenação de Aperfeiçoamento de Pessoal de Nível Su-

perior. Orientador: Flávio Augusto Sanzovo Fiorelli.

[3] GUEVARA A. (1996). Fundamentos básicos para el diseño de

biodigestores anaeróbicos rurales. Centro Panamericano de

Ingenieria Sanitaria y Ciencias del Ambiente. División de

salud y ambiente.

[4] PEDRAZA G, et al. (2002). “Evaluación de los biodigestores

en geomembrana (pvc) y plástico de invernadero en clima

medio para el tratamiento de aguas residuales de origen

porcino”. Livestock Research for Rural Development 14 (1)t

2002.

[5] PRESTON T.R. RODRÍGUEZ, L. (2002). “Low-cost biodigesters

as the epicenter of ecological farming systems”. Procee-

dings Biodigester Workshop March 2002. Recuperado el 5

de mayo del 2006: http://www.mekarn.org/procbiod/con-

tents.htm

Page 29: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

102

Invest Apl Innov 3(2), 2009

[6] RODRIGUES L. y BARBOZA A. “Influencia da temperatura

no desempenho de biodigestores com esterco bovino”.

Recuperado El 20 de junio del 2008: www.agriambi.com.

br/revista/v2n1/097.pdf

[7] SABANDO F. y GARRIDO M. (2006). Estabilización de mez-

clas de lodos de pisciculturas y estiércol de vacuno por me-

dio de co-digestión anaeróbica.

[8] VERÁSTEGUI J, Matero M. (1979). “Producción de biogás

a partir de desechos orgánicos: estudio de casos de ma-

nejo ambiental”. Lima, 1979. Recuperado el 2 de agosto

del 2005: http://www.oas.org/usde/publications/unit/

oea27s/begin.htm#Contents

[9] WERNER U, et. al. (1989). “Biogás plants in animal husbran-

dy”. Recuperado el 12 de marzo del 2008: http://www.

fastonline.org/CD3WD_40/JF/JF_OTHER/BIG/GTZ-%20

Biogás%20Plants%20-%201989.PDF

ACERCA DEL AUTORL

Giancarlo Obando es Ingeniero Me-

cánico, Magíster en Ingeniería Mecá-

nica con especialidad en Mecánica

de los Fluidos. Se ha desempeñado

como asesor en temas relacionados

con la producción y uso de biogás.

Actualmente se desempeña como

docente en el área de Mecánica de

Tecsup, sede Arequipa, donde dirige

el programa piloto de Desarrollo y Promoción de Tecnología

Basada en Fuentes de Energía Renovable.

OBANDO, Giancarlo. “Construcción de biodigestores discontinuos y análisis de su comportamiento bajo diferentes regímenes de operación”

Page 30: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

103

Invest Apl Innov 3(2), 2009

Henry Gómez

Entrenamiento a distancia en tecnologías deautomatización y control, utilizando laboratorios

virtuales de acceso remoto

Distance training in automation and control technologies using virtual laboratories with remote

access

Resumen

En minería como en cualquier otra actividad económica, la

generación del valor agregado depende de los recursos natu-

rales disponibles, la infraestructura del sistema productivo y

de la competitividad del recurso humano. La competitividad

del personal de planta esta estrechamente vinculada a las ha-

bilidades técnicas que puedan exhibir en la gestión eficiente

del sistema de producción. Esto se torna particularmente crí-

tico cuando se dan condiciones favorables para el crecimien-

to, se ponen en marcha planes de modernización o amplia-

ción de la capacidad instalada, se tienen nuevas tecnologías

de producción, pero no se cuenta con el personal capacitado

para operar y mantener estos sistemas.

La solución a esta problemática es la implementación de

planes de reconversión o programas de capacitación del per-

sonal clave que pueda asumir el reto de operar y mantener

las nuevas tecnologías. Esta opción implica asignar recursos

al entrenamiento, reservar tiempo para la capacitación y de-

sarrollar toda la logística necesaria para facilitar el desplaza-

miento del personal a los centros de entrenamiento.

En éste trabajo, exploramos una solución innovadora a esta

problemática, haciendo uso de las modernas Tecnologías de

la Información y Comunicación (TIC); se implementa una mo-

dalidad de entrenamiento virtual con acceso remoto a labo-

ratorios de experimentación. Esta modalidad, a diferencia de

los clásicos sistemas e-learning, no solo brinda la información

teórica necesaria, sino que también la fortalece mediante la

experimentación y la prueba de equipos y sistemas como

suele hacerse en programas de entrenamiento presencial.

Esto hace posible el desarrollo de algunas habilidades técni-

cas y competencias que solo se pueden lograr mediante la

interacción del personal con las nuevas tecnologías. Solo se

requiere de un computador con conexión a Internet para po-

der acceder en forma remota a los laboratorios de Tecsup y así

disponer de todo su equipamiento.

Abstract

In mining, as in any other economical activity, the generation of

added value depends on available natural resources, infrastruc-

ture of production system and human resource competitive-

ness. The competitiveness of plant personnel is in close relation

to the technical skills that can be used for the efficient mana-

gement of the production system. This is stressful when there

are favorable conditions for growth. Starting modernization or

expansion plans, there are new technologies but there are not

trained people to operate and maintain these systems.

The solution to this problem is the implementation of retraining

plans or training programs for the key people, who can take on

the challenge to operate and maintain these new technologies.

This option implies the assignation of resources, reserved time

for the training, and the development of the logistics to make

the movement of people to the training centers easier.

In this paper, we explore an innovative solution to this problem,

using modern information and communications technologies

(ICT); building a modality of virtual training with remote access

to laboratories for experimentation. This modality, in compari-

son to classic e-learning systems, besides the theoretic infor-

mation, strengthens the learning process by means of experi-

mentation, test of equipments and systems as we do in face to

face training programs. These make possible the development

of some technical skills, competences that only we can achieve

by means of interaction with people and new technologies. We

only need a computer with internet connection from our job

place to access in remote way to laboratories of Tecsup to then

use the equipment.

Page 31: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

104

Invest Apl Innov 3(2), 2009

Palabras Claves

Entrenamiento virtual, laboratorios remotos, e-learning

Key Words

Virtual training, remote labs, e-learning

INTRODUCCIÓN

La educación con jóvenes en la formación profesional espe-

cífica requiere de una metodología y un adecuado balance

entre los conocimientos teóricos adquiridos y el desarrollo

de destrezas y habilidades mediante la ejecución de tareas

o experimentos en la práctica, esto se conoce como “Learn

& Works Tasks” [1]. Este concepto, el de aprender haciendo

(Learning by doing) o aprendizaje experimental, trae com-

plicaciones ya que obliga a que los Centro de Formación

Profesional (CFP) o Instituciones de Educación Superior (IES)

proporcionen la infraestructura y el equipamiento necesario

para dotar de estas capacidades a sus alumnos.

David A. Kolb (1994), el mayor exponente del aprendizaje ex-

perimental, propuso un modelo de cuatro etapas para repre-

sentar el proceso de aprendizaje. El proceso empieza con una

experiencia concreta, seguido por una observación reflexiva.

La reflexión luego se asimila como una teoría mediante la

conceptualización abstracta para finalmente probar una hi-

pótesis nueva o reformulada en una nueva situación [2].

El proceso de aprendizaje es aún más complejo para los adul-

tos, ese público que aspira reinsertarse o mantenerse en el

mercado laboral mediante la Formación Profesional Ocupa-

cional (FPO) y la Formación Profesional Continua (FPC), ellos

necesitan saber primero por que deben aprender algo; lue-

go, necesitan que se les reconozca el hecho de que pueden

actuar de manera autónoma sin depender del profesor. Ade-

más, la experiencia previa que tienen la utilizan para relacio-

narla con cada detalle del proceso de aprendizaje. Por otro

lado, los adultos están motivados para aprender aquellas co-

sas que necesitan saber y son capaces de hacer para poder

aplicarlas en su vida diaria o en el trabajo. Finalmente, aun-

que los adultos pueden ser influenciados por motivaciones

externas en el proceso de aprendizaje, la mejor motivación

son las propias presiones internas.

Considerando entonces los escenarios ya descritos y teniendo

en cuenta la necesidad de la experimentación en el proceso

de aprendizaje, la moderna pedagogía en tecnología sugiere

que los estudiantes deben iniciarse en la experimentación

mediante objetos simulados e instrumentos de medición si-

mulados y/o emulados. Luego, cuando ya se ha alcanzado cier-

to dominio del conocimiento, los estudiantes están preparados

para desarrollar experimentos específicos con equipo e instru-

mentos reales. Los experimentos simulados por software de al-

guna manera reemplazan al profesor, aquí nace el concepto del

“e-teacher” [3]. Ahora, a pesar de la utilidad de los experimentos

simulados, se ha notado que los experimentos reales son más

atractivos para los estudiantes que la simulación. Y estos son

aún más interesantes, cuando se hacen con las últimas tecno-

logías e incluyen en forma clara y explícita algunos retos para

el alumno.

Los laboratorios ideales son aquellos en los cuales cada estu-

diante tiene un módulo de experimentación y además no tiene

restricciones de tiempo. Sin embargo las IES generalmente no

tienen los recursos necesarios para brindar estas facilidades.

La solución a esto lo constituyen los laboratorios remotos. La

Internet ha hecho posible una nueva clase de laboratorios, los

laboratorios remotos interactivos con experimentos reales que

cuentan con dispositivos de medición, transductores y demás

objetos necesarios para una investigación.

El presente trabajo tiene por objetivo demostrar que la capa-

citación y entrenamiento en tecnologías de automatización y

control en la modalidad a distancia, es una alternativa viable

para las poblaciones de jóvenes y adultos que se encuentran

alejadas de los centros de entrenamiento especializado. Esto

es posible, gracias a la utilización de los llamados laboratorios

virtuales de acceso remoto o simplemente Laboratorios Remo-

tos (LR), los cuales permiten la realización de experiencias de

aprendizaje semejantes a las que se logran bajo la modalidad

presencial.

Esta modalidad, también denominada de telepresencia, utiliza

los recursos e infraestructura de los laboratorios reales que se

utilizan en la capacitación presencial y, mediante las TIC, los po-

nen a disposición de los estudiantes de los lugares remotos.

FUNDAMENTOS

Definición conceptual

Un laboratorio remoto es el conjunto de equipos e instrumen-

tos reales que se pueden operar y controlar remotamente,

utilizando una interfaz específica. Estos equipos pueden ser

didácticos como los módulos de laboratorio de cualquier IES o

equipos industriales reales como los que se tienen en un banco

de pruebas de cualquier planta industrial. Estos laboratorios re-

quieren de recursos específicos de las TIC para gestionar tanto

el acceso a los usuarios del sistema como a los equipos integra-

dos en dichos sistemas [4].

GÓMEZ, Henry. “Entrenamiento a distancia en tecnologías de automatización y control utilizando laboratorios virtuales de acceso remoto”

Page 32: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

105

Invest Apl Innov 3(2), 2009

GÓMEZ, Henry. “Entrenamiento a distancia en tecnologías de automatización y control utilizando laboratorios virtuales de acceso remoto”

Estado del arte

La idea de utilizar en forma remota los equipos de un labo-

ratorio de experimentación con fines educativos, se remonta

a principios de los noventa. En el trabajo de Aburdene et al.

[5], se propone un esquema básico de acceso remoto a los

equipos de un laboratorio y como compartirlo con otras IES.

El artículo de Aktan y Bohus [6] se considera como el primer

trabajo importante que se enfoca en la enseñanza del control

automático a través de Internet y, desde entonces, se han lle-

vado a la práctica varias implementaciones reales. Entre estas

realizaciones destacan por ejemplo el laboratorio de sistemas

dinámicos del Instituto Tecnológico de Stevens, Nickerson et

al. [7], y el laboratorio de control de la Universidad de Siena,

Casini et al. [8]. Estos laboratorios ofrecen la posibilidad de

experimentar sobre módulos de control como el control de

nivel, el control de temperatura o el control de servomoto-

res. Otros módulos de experimentación de acceso remoto se

pueden encontrar en la Web del Comité Español de Automá-

tica (SEA-IFAC) [9].

La importancia de esta herramienta pedagógica en la actua-

lidad es tan gravitante que organismos supranacionales es-

tán destinando en la actualidad fondos para investigaciones

sobre su impacto en la educación. CYBERLAB es el proyecto

más significativo, por ejemplo, y ha culminado con la creación

de un proveedor de servicios para la integración de labora-

torios en red [10]. PEARL es otro proyecto enfocado al desa-

rrollo de LR para investigar su impacto pedagógico y validar

su desarrollo [11]. MARVEL es un proyecto de envergadura

que se propone desarrollar un entorno mixto de equipos y

maquinarias reales con entornos de aprendizaje virtual para

dar soporte a trabajos orientados al proceso con aprendizaje

cooperativo distribuido [12].

El ámbito de aplicación de esta ayuda pedagógica no solo

abarca las áreas de control y automatización, va más allá in-

clusive; por ejemplo, para el estudio de la física y otras ramas

de la ciencia. Es el caso de los proyectos muy exitosos de física

descritos por Bodo Eckert et al. [13]. Estas experiencias cuen-

tan con una muy buena metodología de aprendizaje a tra-

vés de la investigación de fenómenos que experimentamos

a diario. Además, proporciona suficiente material didáctico

para motivar al estudiante en los fenómenos de la física.

Tipos de experimentos con laboratorios remotos

Antes de especificar los detalles de los laboratorios remotos,

empezaremos por distinguir los tres tipos de experimentos

de laboratorio que se pueden poner en línea a través de In-

ternet:

Experimentos tipo batch o por lotes:

En este tipo de experiencias, el estudiante especifica todos los

parámetros que gobiernan la ejecución de un experimento an-

tes que empiece el mismo. La sesión de laboratorio consiste en

enviar un protocolo de prueba con toda la información nece-

saria para el experimento, ejecutar el experimento y luego ad-

quirir la información para analizar los resultados. Normalmente,

este tipo de experimentos se ejecuta de manera rápida y no

requiere de reservación de sesiones.

Experimentos con sensores:

En un experimento con sensores, el estudiante usualmente no

puede especificar ningún parámetro aunque sea posible se-

leccionar los datos de un sensor en particular. En la ejecución

del experimento se recibe la información en forma digital o en

gráficos de tendencias. Este tipo de interfaces, a veces, muestra

herramientas para filtrar o procesar posteriormente la informa-

ción; es el caso de aquellas que permiten activar alarmas o en-

vío de notificaciones por e-mail.

Los experimentos con sensores frecuentemente tienen un

flujo de datos muy asimétrico. Esto puede tomar desde unos

cuantos bits hasta un flujo de datos mucho mayor que pue-

de consumir mayor ancho de banda. Algunos sensores envían

la información de manera continua sin garantizar si esta llega

completa a su destino. Otros pueden almacenar temporalmen-

te la información y, mediante comandos apropiados, pueden

ser accesados en forma remota.

Experimentos interactivos:

En un experimento interactivo, el estudiante típicamente con-

figura una serie de parámetros inicializa el experimento y lue-

go monitorea el desarrollo del experimento; puede cambiar

los parámetros de control si es necesario. Conceptualmente,

un experimento interactivo puede ser concebido como una

secuencia de intervalos de monitoreo y ajustes de control. En

general, los intervalos de control tienen muchas de las caracte-

rísticas de los experimentos tipo batch y los intervalos de mo-

nitoreo son como los experimentos con sensores. Los registros

de una sesión experimental normalmente incluyen la hora en

que sucede un evento y los datos que arrojan los sensores, así

como otra forma de documentación que puede incluir imáge-

nes o video.

RESULTADOLL

En la Figura 1 podemos observar los elementos básicos que

conforman un laboratorio remoto. Los módulos didácticos son

Page 33: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

106

Invest Apl Innov 3(2), 2009

los que se disponen en un laboratorio convencional, pero

que han sido implementados con sistemas de adquisición de

datos, interfaces de I/O, cámaras de video y/o captadores de

sonido para proporcionar la información desde el laboratorio

hacia el usuario, y viceversa. El servidor que cuenta con las

aplicaciones de software necesarias para gestionar los acce-

sos de usuarios por Internet, por un lado, y por el otro faci-

litar las interfaces a los módulos didácticos. Finalmente, los

usuarios que deben contar con una conexión a Internet y un

código de acceso al servidor de aplicaciones remotas.

Figura 1. Arquitectura básica de un laboratorio remoto

Figura 2. Componentes de un laboratorio remoto

Esta arquitectura al detalle se observa en la Figura 2. Para

brindar acceso al usuario local o remoto al módulo didáctico,

es necesario digitalizar todas las señales de entrada y/o salida

a través de los módulos transductores. Esto se logra median-

te módulos de hardware con interfaces estandarizadas como

GPIB, RS232, USB entre otras. La organización, visualización,

procesamiento y acceso a la información se logra con los

módulos de software, los cuales, a través de las interfaces de

usuario, permiten su interacción.

El trabajo en equipo es normalmente la metodología utili-

zada en los experimentos desarrollados en laboratorios pre-

senciales. De igual modo, en los laboratorios remotos debe

existir un eficiente mecanismo de comunicación entre los es-

tudiantes. Una alternativa muy versátil para brindar estas facili-

dades, entre otras, es el Skype (www.skype.com). Este software

ha llegado a convertirse en un estándar de facto para aplicacio-

nes de comunicación síncrona que brinda video, telefonía por

Internet y chat.

Figura 3. Configuración local de un relé de protección en una subestación

didáctica de generación eléctrica

Figura 4. Configuración remota y prueba del funcionamiento de un relé de

protección de una subestación didáctica de generación eléctrica

Implementación de laboratorios remotos

Un ejemplo de las facilidades en laboratorios remotos ya des-

critos se observa en la Figura 3 y la Figura 4. En estas se tiene

primero a un usuario local configurando los parámetros de fun-

cionamiento de un relé de protección de generación GE 60 de

General Electric en un experimento tipo batch. Esto se hace en

una subestación didáctica en media tensión con ayuda de un

equipo probador de relés DRTS-6 de ISA en los laboratorios de

Sistemas de Potencia de Tecsup Arequipa. En la Figura 4 se tiene

la configuración remota y prueba de funcionamiento del relé

de protección de generación desde el domicilio del usuario. Se

observa claramente en pantalla el panel del relé de protección

GÓMEZ, Henry. “Entrenamiento a distancia en tecnologías de automatización y control utilizando laboratorios virtuales de acceso remoto”

Page 34: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

107

Invest Apl Innov 3(2), 2009

GÓMEZ, Henry. “Entrenamiento a distancia en tecnologías de automatización y control utilizando laboratorios virtuales de acceso remoto”

y la curva de disparo de este luego de una prueba con el pro-

bador de relé. También se notan imágenes de ambos lados

de la conexión por Internet, el laboratorio y el domicilio del

usuario. Con esta aplicación se brinda acceso a un laboratorio

de sistemas de potencia desde cualquier parte del mundo.

Otro ejemplo de laboratorio remoto en el campo de la au-

tomatización es el módulo experimental para configuración

y monitoreo de redes en protocolo Actor Sensor Interface

(AS-I). Este módulo permite realizar tareas de configuración,

programación y monitoreo de un proceso secuencial de va-

riables discretas en un entorno interactivo [14].

El proceso implementado en un módulo didáctico ADIRO

(Figura 5) es un alimentador doble que consiste de dos sur-

tidores por gravedad, removibles, para almacenamiento de

cilindros o bloques con perfil cilíndrico de 50 mm de diá-

metro de lado. Cuenta con un cilindro de doble efecto con

interruptores tipo reed y válvulas de control de flujo de una

vía que empuja la pieza trabajada para su retiro del surtidor.

Los elementos sensores y actuadores están conectados a uni-

dades esclavas Siemens convertidoras de protocolo AS-I de 4

entradas/4 salidas ó 2 entradas/2 salidas.

Figura 5. Módulo de au-

tomatización remota con

red AS-I

Figura 6. Arquitectura del modulo de automatización

remota con red AS-I

La red AS-I, utiliza un cable estandarizado IDC de dos hilos para

interconectar los diferentes módulos AS-I. Estos módulos se

alimentan con 24VDC y reciben la información en modulación

APM desde una estación maestra AS-I por el mismo cable IDC. El

master AS-I debe ser configurado y programado con las direc-

ciones de las estaciones esclavas y los tipos de las unidades de

entrada salida existentes en la red (Figura 6). La configuración

y programación del master AS-I se hace con ayuda del software

AS-Interface Control de Bihl + Wiedermann descargable des-

de Internet. Este, vía conexión RS 232, se conecta a un Servidor

Serial Anybus que es un Gateway que convierte los datos que

recibe por el puerto serial y los encapsula en protocolo TCP/

IP para enviarlos por una red Ethernet. Las conexiones a la red

Ethernet del Servidor Serial y de la cámara IP Dlink, se hacen a

través de un switch, de allí al servidor Web y finalmente a un

router que ofrece a Internet la interfaz gráfica que se muestra

en la Figura 7.

Figura 7. Interfaz del usuario remoto del modulo de automatización con

red ASI

Figura 8. Interfaz del usuario remoto de un módulo de experimentación

en electrónica

Otro laboratorio con el que hemos experimentado el acceso

remoto es el laboratorio de electrónica con módulos UniTrain

de Lucas Nülle [15]. Este módulo brinda la posibilidad de hacer

pruebas en circuitos eléctricos-electrónicos y realizar medicio-

nes de señales eléctricas con instrumentos virtuales como mul-

Page 35: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

108

Invest Apl Innov 3(2), 2009

tímetros, osciloscopios y graficadores. Además cuenta con

fuentes de tensión continua y alterna, generadores de seña-

les analógicas y digitales todos ellos configurables desde una

computadora local o remota. También tiene una interfaz para

lectura y escritura de señales eléctricas de entrada/salida

analógica y digital (Figura 8).

Esta implementación es muy apropiada para demostraciones

reales del funcionamiento de circuitos eléctricos y electróni-

cos básicos, es capaz de ser analizado desde un acceso remo-

to, pero en una conexión punto a punto utilizando el proto-

colo Virtual Networking Compute (VNC) [16]. Este protocolo

de acceso remoto a interfaces gráficas de usuario trabaja al

nivel del buffer de tramas y se aplica a todos los sistemas

operativos y aplicaciones. El protocolo opera con cualquier

medio de transporte disponible, tal como TCP/IP. Uno de los

extremos de la conexión con el cual el usuario interactúa

(que es un display y/o un dispositivo de entrada/salida) se

llama Cliente VNC o Viewer. El otro extremo donde cambia

el buffer de tramas origen (que es el sistema Windows y sus

aplicaciones) se conoce como el Servidor VNC.

DISCUSIÓN

Sin lugar a dudas, Internet es una herramienta poderosa

que nos comunica de manera inmediata y brinda acceso a

todo tipo de fuentes de información. Con esta tecnología, las

distancias no interesan, puesto que la información esta a un

clic del que la necesita. Esto ha permitido la implementación

de sistemas de educación a distancia mediante las técnicas

del e-learning. Sin embargo, cuando de entrenamiento o

capacitación especializada se trata, no es suficiente tener la

información disponible mediante los cursos virtuales. Sino

que, además, se debe brindar al estudiante la posibilidad de

desarrollar destrezas y habilidades mediante la interacción

con equipos y sistemas como los que se encuentran en un

laboratorio real de experimentación.

En un entrenamiento en tecnologías de automatización y

control, se tiene inherente la necesidad de la interacción del

estudiante con equipos e instrumentos de uso industrial,

disponibles solo en laboratorios especializados y de uso res-

tringido por limitaciones de tiempo y capacidad de atención.

Este equipamiento, debidamente preparado y con acceso

desde Internet, constituyen los laboratorios virtuales de ac-

ceso remoto que acercan al estudiante al centro de entrena-

miento.

El acceso remoto a equipos e instalaciones de un laboratorio

real, hoy en día son posibles gracias a las tecnologías de la

información y de comunicaciones. La digitalización de la in-

formación, el uso de estándares de comunicación, la fabricación

de equipos basados en microprocesadores con puertos de co-

municación estandarizados y software con entornos amigables

son la clave de esta nueva propuesta de educación a distancia.

CONCLUSIONES

acceder a través de Internet, conformando redes de labora-

torios remotos que facilitarían el entrenamiento en lugares

alejados, como por ejemplo centros mineros o comunida-

des aledañas a estos.

-

municación fluida entre sus integrantes, se ve resuelta con

soluciones de mensajería instantánea, telefonía o video

que se implementan en los laboratorios remotos.

o estándares ha facilitado la implementación de módulos

didácticos para acceso remoto. Adicionalmente, se requiere

de un sistema de gestión de reservas y del uso de los módu-

los didácticos empleados en los laboratorios remotos para

facilitar el acceso a los estudiantes en forma permanente.

REFERENCIAS

[1] WILHELM, Bruns et al. (2002). Final Report: Distributed Real

and Virtual Learning Environments for Mechatronics and

Teleservice (DERIVE). European IST Research and Develop-

ment Project.

[2] MULLER, Dieter. (2005). MARVEL- Mechatronics Training in

real and Virtual Environments. Concepts, Practices, and Re-

comnedations. Bremen.

[3] Marozas, V. Jurkonis, R. Lukosevicius, A. Development

of virtual and Remote Lab Experimentation System for

Electronic Engineering. Biomedical Engineering Institute,

Kaunas University of Technology, Lithuania.

[4] ALIANE, Noudine; FERNANDEZ, Javier; MARTINES, Aída y

ORTIZ, Jaime. (2007). , Un Laboratorio de Ingeniería de Con-

trol Basado en Internet. Universidad Europea de Madrid.

Información Tecnológica Vol 18(6), 19-26.

[5] ABURDENE, M.F; MASTASCUSA, E.J. y MASSENGALE, R.

(1991). “A proposal for a remotely shared control systems

laboratory”. Proceedings of the ASEE, Frontiers in Educa-

tion Conference, 589-592, USA-Lafayette.

GÓMEZ, Henry. “Entrenamiento a distancia en tecnologías de automatización y control utilizando laboratorios virtuales de acceso remoto”

Page 36: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

109

Invest Apl Innov 3(2), 2009

GÓMEZ, Henry. “Entrenamiento a distancia en tecnologías de automatización y control utilizando laboratorios virtuales de acceso remoto”

[6] AKTAN, B. y BOHUS, C.A.. (1996). Distance Learning

Applied to Control Engineering Laboratories. IEEE Tran-

sactions on Education, 39(3), 320-326.

[7] NICKERSON, J.V., CORTER, J.E. y ESCHE, S.K. (2007). A mo-

del for evaluating the effectiveness of remote engineering

laboratories and simulations in education. Computers &

Education, 49(3), 708-725

[8] CASINI, M.; PRATTICHIZZO, D. y VICINO, A. (2004).”The

Automatic Control Telelab: A Web-based Tecnology for

Distance Learning”. IEEE Control Systems Magazine, 24(3),

36-44.

[9] CEA-IFAC: “Recopilación de laboratorios virtuales y/o

remotos”. Recuperado de http://www.cea-ifac.es/www-

grupos/educontrol/enl-labs.html.

[10] CYBERLAB: “Proveedor de servicios de experimentación

remota”. Recuperado el 20 de abril de 2009 de: http://

www.cyberlab.org.

[11] COOPER, M. (2003). Proyecto PEARL. Colección de artícu-

los relacionados con los laboratorios remotos. Recupe-

rado el 20 de marzo de 2009 de: http://iet.open.ac.uk/

pearl/publications/index.htm.

[12] MÜLLER, D. y FERREIRA, J.M. (2005). “Online labs and ,

the MARVEL experience. International Journal of On-

line Engineering”. Recuperado el 15 enero de 2009 de:

http://www.i-joe.org/ojs/include/getdoc.php?id=41&

article=4&mode=pdf.

[13] ECKERT, B.; TT GRÖBER, S. y JODL, H. (2009). Distance Educa-

tion in Physics via Internet. Department of Physics, Uni-

versity of Technology Kaiserlautern, Germany. Submit-

ted to American Journal of Distance Education.

[14] SAIRE, A. y Gómez, H. (2008). “Plataforma de aprendizaje

a distancia en Automatización Industrial empleando la-

boratorios remotos”. Investigación Aplicada e Innovación

I+i; 2 (2).

[15] Lucas Nuelle Training System. “Multimedia Desktop Lab

para electrotecnia y electrónica”. Recuperado el 24 abril

de 2009 de: http:// www.lucas-nuelle.com

[16] Tristan, R. Quentin S-F. Kenneth, R. Hooper, W. and H.

(1998). Virtual Network Computing IEEE Internet Compu-

ting; 2 (1).

ACERCA DEL AUTORL

Henry Gómez Urquizo es ingeniero

electrónico, egresado de la Maestría en

Ciencias con mención en Automatiza-

ción e Instrumentación y con estudios

de Doctorado en Ingeniería de Produc-

ción. Realizó cursos de especialización

en Electrónica de Potencia en Colom-

bia, Automatización Industrial, Redes y

Protocolos de Comunicación Industrial

en Alemania.

Actualmente es Jefe del Departamento de Electrotecnia de

Tecsup Arequipa.

Page 37: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

110

Invest Apl Innov 3(2), 2009

Yuri P. MolinaPP

Asignación de pérdidas de potencia complejas usando seguimiento de flujo de potencia

Allocation of complex power LossesUsing Power Flow Tracing

Resumen

En este artículo se presenta un método basado en el segui-

miento de los flujos de potencia activa y reactiva para asignar

las pérdidas complejas entre los generadores y cargas. Se uti-

liza el método de la división proporcional para realizar el se-

guimiento de los flujos, considerando el efecto cruzado de los

flujos de potencia activa y reactiva en las pérdidas complejas.

Basándose en esta premisa, se determina la participación in-

dividual de todos los generadores y cargas en las pérdidas

del sistema; inclusive si hay más de un generador o carga en

la misma barra. Los resultados muestran que la asignación

para generadores y cargas individuales es más ventajosa, ya

que es capaz de reflejar mejor la influencia de cada agente en

las pérdidas del sistema. Por último, el método propuesto se

compara con otros métodos disponibles en la literatura, utili-

zando un sistema de prueba de 5 barras.

Abstract

This article presents a method based on flow tracing of active

and reactive power to allocate complex losses among gene-

rators and loads. It uses the proportional sharing principle to

carry out the flow tracing, considering the cross effect of acti-

ve and reactive power flows in complex losses. Based on this

premise, the individual participation of all generation or load

at the same bus is determined, even if there is more than one

generator or load at the same bus. The results show that the

allocation for individual generators and loads is more advan-

tageous, since it can better reflect the influence of each agent

in system losses. Finally, the proposed method is compared to

other methods available in the literature, using a 5-bus test

system.

Palabras claves

Pérdidas eléctricas, división proporcional, efecto cruzado,

Asignación de Pérdidas, seguimiento de flujos.

Key words

Electric losses, proportional sharing, cross effect, losses alloca-

tion, flow tracing.

INTRODUCCIÓN

La reestructuración del sector eléctrico consiste básicamente

en la separación de los servicios de electricidad, el acceso abier-

to a la red de transmisión y la apertura de mercados de energía

eléctrica. La separación de los servicios de electricidad se refie-

re a la asignación de las distintas funciones de la industria eléc-

trica para las diversas entidades corporativas (concesionarias).

Es decir, la separación del sector eléctrico en concesionarias de

generación, transmisión y distribución, que pasaron a ser trata-

dos como negocios diferentes y administrados por empresas

distintas. El aspecto clave fue la introducción de la competencia

en el sector eléctrico, a fin de reducir los precios de la energía

para los consumidores. Debido a esto, se torna mucho más

importante determinar la responsabilidad de los agentes del

sistema (generadores y cargas) en los servicios prestados o re-

queridos por ellos. En esta nueva estructura de mercado, debi-

do a la pluralidad de propietarios en la generación, transmisión

y distribución, la tarea de asignar las pérdidas del sistema de

transmisión entre los agentes (generadores y cargas) es un reto,

y se torna aún más complicado debido a las características de la

no-linealidad y la no-separabilidad de las pérdidas.

Existen varios métodos propuestos para resolver este proble-

ma, sin embargo, las premisas elegidas para cada uno de ellos

determinan sus ventajas y desventajas. En seguida se presenta

una breve descripción de los métodos más conocidos en la li-

teratura.

El método de Pro Rata presentado en [1]-[2] es uno de los más

clásicos. Este método es conocido por su sencillez en la com-

prensión y aplicación. Se caracteriza por asignar las pérdidas

eléctricas en proporción a la potencia de cada generador o de

cada carga.

Page 38: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

111

Invest Apl Innov 3(2), 2009

MOLINA, Yuri. “Asignación de Pérdidas de Potencia Complejas Usando Seguimiento de Flujo de Potencia”

En [3]-[4] se proponen métodos basados en el seguimiento

de los flujos para asignar las pérdidas del sistema. En gene-

ral, este metodo utiliza los resultados de un flujo de potencia

conjuntamente con el principio de la división proporcional

(PS). Los métodos propuestos de asignación de pérdidas ba-

sados en el PS se han desarrollado teniendo en cuenta la to-

pología de la red, de forma similar al problema del transporte,

donde la asignación de las pérdidas se basa en la distribución

de los flujos en la red.

Los métodos basados en teoría de circuitos se presentan en

[5]-[6]. El uso de las leyes básicas de circuitos eléctricos, los

torna interesantes en términos de simplicidad de la com-

prensión y aplicación.

Los métodos basados en teoría de los juegos también han

sido utilizados, debido al hecho de que todos los participantes

comparten el mismo sistema de transmisión de electricidad.

Siendo así, todos pueden cooperar con la intención de lograr

los mejores beneficios posibles. Por lo tanto, es posible definir

el problema de asignación de pérdidas como un juego coope-

rativo [7]. En [8]-[9] se encuentran aplicaciones de la teoría de

los juegos para el problema de la asignación de pérdidas.

En [10] se propone una formulación matemática para la

asignación de las pérdidas complejas considerando el efec-

to cruzado de los flujos de potencia activa y reactiva en las

pérdidas de potencia activa y reactiva. En otras palabras, el

autor formula matemáticamente ecuaciones que determi-

nan la parcela de pérdidas de una línea que corresponde a

cada uno de los agentes del sistema.

Este trabajo presenta un método basado en el seguimiento

de los flujos de potencia activa y reactiva para asignar las pér-

didas complejas entre los agentes (generadores y cargas). El

método presentado mejora las premisas del principio de la

división proporcional (PS) en tres puntos, a fin de satisfacer

algunas de sus deficiencias:

i) Este artículo trata generación y demanda coexistentes en

un barra de manera independiente en lugar de considerar la

potencia líquida en la barra, como se ha hecho en la mayoría

de los métodos basados en seguimiento de los flujos, como

por ejemplo, en [3], [4], [11] y [12]. Esta modificación mejora el

desempeño del método para examinar los efectos indepen-

dientes de generadores y cargas que coexisten en una misma

barra en las pérdidas de las líneas de transmisión.

ii) Se toma en cuenta el efecto cruzado de los flujos de po-

tencia activa y reactiva en las pérdidas activa y reactiva. En

otras palabras, se asume que la potencia reactiva en las líneas

tienen una influencia sobre las pérdidas activas, así como la po-

tencia activa tiene un efecto sobre las pérdidas reactiva. Esta

consideración sigue la misma línea descrita en [10]. Esta altera-

ción promueve una mejora en el desempeño del método en la

medida que la consideración del efecto cruzado refleja mejor el

comportamiento real de un sistema de potencia.

iii) El tratamiento independiente de generación y carga en la

misma barra se extiende para un conjunto de generadores y

cargas situado en la misma barra, es decir, un tratamiento in-

dividual para cada generador (carga) en lugar de considerar la

suma de las generaciones (cargas), como se hace en la mayoría

de los artículos. Esta modificación amplía la consideración del

efecto cruzado, porque si existe una influencia cruzada de los

flujos de potencia en las pérdidas complejas, ciertamente habrá

diferencia en el resultado de la asignación si se hace individual-

mente para un generador (carga) en lugar de la asignación al

conjunto de generadores (cargas).

El método propuesto en este trabajo considera que tanto los

generadores como las cargas son responsables por las pérdidas,

coexistiendo en una especie de cooperación de beneficio mu-

tuo, lo que implica una interrelación que los torna mutuamente

indispensables (sin cargas no hay pérdidas, y sin generación

tampoco), correspondiendo al binomio generador carga [13].

FUNDAMENTOS

El principio de la división proporcional

Este principio tiene por objeto identificar cómo están distribui-

dos los flujos en la red de transmisión y asociarlos a generadores

y cargas. El principio de la división proporcional asume que el

nodo es un mezclador perfecto de los flujos que llegan a él, así

que es imposible determinar la ruta que seguirá un electrón [3].

La siguiente figura ilustra la idea del principio de la división pro-

porcional:

Figura 1. Ejemplo de la aplicación del PS

Page 39: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

112

Invest Apl Innov 3(2), 2009

Usando el nodo i como referencia, vemos que hay cuatro líi -

neas conectadas a él, dos de los cuales contienen flujos en-

trando y dos contienen flujos saliendo. El flujo total que llega

al nodo i es igual a 100 MW, de los cuales 40 % son provei -

nientes del nodo j y 60 % del nodo j k. Observe que del nodo

i salen 70 MW en la dirección del nodo m. Por lo tanto, aplii -

cando el principio de la división proporcional se obtiene que

70.(60/100) = 42MW representa la contribución del flujo de laW

Línea k-i para la línea i-m y 70.(40/100) = 28MW representa la

contribución del flujo de la Línea j-i para la línea i–m. Tenga

en cuenta que las pérdidas eléctricas no se tienen en cuenta.

El procedimiento para asignar las pérdidas utilizando el prin-

cipio de la división proporcional debe ser separado en dos

etapas, asignando la mitad de las pérdidas para las cargas y

luego la otra mitad para los generadores.

PROCEDIMIENTO

El método propuesto se divide en dos etapas. El primer paso

es el seguimiento de los flujos de potencia activa y reactiva

a fin de determinar las contribuciones individuales de cada

agente en los flujos de las líneas. También, determinar la can-

tidad de potencia suministrada por un generador que efecti-

vamente llega en cada carga, así como la cantidad de poten-

cia consumida por una carga proveniente de cada generador

del sistema. El algoritmo de seguimiento de flujo propuesto

en este artículo se basa en el principio de la división propor-

cional.

En la segunda etapa, se utilizan los resultados del seguimien-

to de los flujos conjuntamente con las ecuaciones propues-

tas en [10] para asignar las pérdidas eléctricas. El método

propuesto en este trabajo considera una responsabilidad del

50% de las pérdidas totales para los generadores y 50% para

las cargas y tiene en cuenta el efecto cruzado de los flujos en

las pérdidas del sistema. La justificativa para la asignación de

50 % para cada categoría se presentó en la introducción.

A. Seguimiento de los Flujos

El proceso descrito aquí se aplica para el seguimiento del flu-

jo de potencia activa y reactiva en la dirección de generado-

res para las cargas. El seguimiento de los flujos en la dirección

de cargas para los generadores se puede hacer de manera

similar. En [3] se puede verificar en detalle los procedimien-

tos aquí descritos.

Para determinar el flujo medio a lo largo de una línea, se debe

conocer el flujo máximo Pi-j

máx (calculado en el origen) y el flux -

jo mínimo Pi-j

min (calculado en el destino) que pasa en la línea.

En seguida, se realiza la suma de sus módulos y se divide entre

dos.

(1)

Por lo tanto, se supone que el flujo de potencia que pasa a tra-

vés de la línea i – j que no j corresponde a sin pérdidas.

Es importante destacar que la representación del sistema en

términos de flujos medios se torna incoherente con respecto a

la ley de corrientes de Kirchhoff (LCK) y, consecuentemente, se

debe alterar los valores de las generaciones y demandas a fin

de cumplir esta ley. Sin embargo, en este trabajo se optó por

utilizar los valores de las generaciones y demandas obtenidas

del flujo de potencia, ya que esta inconsistencia no trae signifi-

cativas alteraciones en los resultados de la asignación.

El siguiente paso es calcular las contribuciones individuales de

los agentes (generadores y cargas) en los flujos de las líneas

del sistema. El cálculo se inicia con el montaje de la matriz de

distribución del sistema que relaciona los flujos de llegan a un

barra con las potencias inyectadas en las barras de origen de

los flujos. El montaje de esta matriz es un proceso simple y se

describe en los párrafos siguientes.

El flujo total que entra en la barra i puede ser calculado suman-

do la potencia generada en la barra y los flujos que llegan a ella

a través de las líneas. Matemáticamente:

(2)

Donde:

: Flujo total que entra en la barra i;

: Potencia generada en La barra i;

: Flujo en la línea j – i;

: Conjunto de las barras que están conectadas y in-

yectan potencia en la barra i.

La ecuación (2) puede ser modificada, considerando que:

(3)

Por lo tanto, tenemos:

(4)

P PP P

i j j ii jMáx

i jMin

2

Pi j

P P Pi Gi j ij i

u

Pi

PGi

Pj i

ju

P c P cP

Pi j ji j jij i

j

P P c Pi Gi ji jj i

u

MOLINA, Yuri. “Asignación de Pérdidas de Potencia Complejas Usando Seguimiento de Flujo de Potencia”

Page 40: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

113

Invest Apl Innov 3(2), 2009

También se puede escribir las expresiones citadas arriba en

la forma de matriz. En primer lugar se debe reorganizar a la

siguiente forma:

(5)

Por lo tanto, (5) puede ser escrita matricialmente:

(6)

Donde:

PG : Vector de las potencias generadas en las barras;

D : Matriz de distribución;

P : Vector de las Inyecciones de potencia en las barras.P

La matriz D es obtenida de acuerdo con las siguientes con-

diciones:

(7)

Si D 1 existe, entonces, P P DG1 y el elemento i del vec-

tor P se obtienen por:P

(8)

Donde el elemento D Pik Gk1 representa la contribución de la

potencia activa del generador k en la inyección de potenciak

nodal en la barra i.

El siguiente paso es determinar las contribuciones individua-

les para las líneas, es decir, se debe determinar la parcela con

la cual cada generador contribuye para los flujos en las lí-

neas. En primer lugar, es necesario determinar el porcentaje

del flujo líquido que sale de una barra en dirección a las otras.

El proceso utilizado para obtener esta información es similar

a la observada en el montaje de la matriz de distribución. El

montaje de la matriz Contij es muy simple y se reduce a la

determinación del factor cji . Por lo tanto:

(9)

Donde:

: Matriz que relaciona los flujos que circulan entre

las barras.

Posteriormente, se debe multiplicar la contribución de poten-

cia activa del generador en la inyección de potencia nodal en

cada barra por la contribución porcentual de esa barra para el

flujo en la línea y de esta manera obtener la parcela con la cual

el generador en cuestión contribuye para el flujo de la línea. Por

ejemplo, suponiendo que el generador 1 (G1) aporta 15 MW (in-

formación obtenida de(8)) para la inyección de potencia nodal

en la barra 1 y que el 30% de la potencia líquida de esa barra

va a la línea 1 - 2 (información obtenida de (9)). Multiplicando

estos dos valores, obtenemos la contribución de G1 para el flujo

de la línea 1 - 2.

Después de implementar todos los pasos descritos en los párra-

fos anteriores, se obtienen las parcelas con las que los genera-

dores del sistema de contribuir a las líneas de flujo. Por lo tanto

se debe comenzar el proceso de asignación de las pérdidas.

B. Asignación de las Pérdidas

Obtenidas las contribuciones individuales para los flujos en las

líneas de flujo, se debe determinar un criterio para la asigna-

ción de las pérdidas a los agentes. En el PS original, se multiplica

las pérdidas de la línea por la parcela de flujo debido al agente

en cuestión, obteniendo así un reparto directamente propor-

cional a las contribuciones individuales de cada agente al flujo

total en la línea.

La consideración del efecto cruzado lleva a la necesidad de de-

terminar cuánto influencia la potencia activa en las pérdidas de

potencia reactiva y cuánto de la potencia reactiva influencia

en las pérdidas de potencia reactiva. En [10], el autor propone

cuantificar este efecto a través de las siguientes ecuaciones:

(10)

(11)

Donde:

iloss: Pérdidas activas asignadas al agente i;

Qiloss: Pérdidas reactivas asignadas al agente i;

Lloss: Pérdidas activas totales en la línea;

P P c PGi i ji jj i

u

P DPG

D cij ji iu

1

0

, para i = j, para j

, otras posiciones

P D Pi ik Gkk

n1

1

Cont cij ji iu, para j

Contij

PPP Q Q

P QPi

Loss i L i L

L LLLoss( )

2 2

QPP Q Q

P QQi

Loss i L i L

L LLLoss( )

2 2

MOLINA, Yuri. “Asignación de Pérdidas de Potencia Complejas Usando Seguimiento de Flujo de Potencia”

Page 41: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

114

Invest Apl Innov 3(2), 2009

QL

loss: Pérdidas reactivas totales en la línea;

i: Potencia activa en la línea debido al agente i;

Qi: Potencia reactiva en la línea debido al agente i;

L: Flujo de potencia activa total en la línea;

QL: Flujo de potencia reactiva total en la línea.

El uso simultáneo del algoritmo de seguimiento de flujos y

las ecuaciones (10) y (11) permiten la obtención de las par-

celas de las pérdidas totales en las líneas que pertenecen a

cada uno de los agentes, considerando el efecto cruzado de

los flujos de potencia activa y reactiva en las pérdidas activa

y reactiva, ya que toda la información requerida por las ecua-

ciones anteriores se pueden obtener a partir del seguimiento

de los flujos.

C. Modificación en el PS

El proceso descrito en los dos ítems anteriores devuelve un

resultado para el caso en que se considera generaciones (de-

manda) equivalentes en las barras. En este trabajo se consi-

dera los generadores y las cargas que coexisten en una deter-

minada barra como agentes independientes, por lo que sus

efectos sobre las pérdidas del sistema son diferentes.

1) Justificativa para el tratamiento independientemente

de generación y carga que coexisten en una misma

barra

Según una de las premisas del PS, no se puede determinar la

fuente y el destino de un electrón presente en un punto del

sistema. Por lo tanto, aprovechando esta afirmación, es acep-

table extenderla para el caso de la coexistencia de generado-

res y cargas en la misma barra. Siendo así, se hace la siguiente

pregunta: “Si no se puede determinar el origen o el destino de

un electrón presente en cualquier lugar del sistema, ¿cómo es

posible afirmar que toda la potencia consumida por la carga

es proveniente de un determinado generador?”.

La respuesta para esta pregunta no es obvia. Suponiendo que

los elementos de una barra pueden interactuar con los ele-

mentos externos a su barra, se puede explicar esa interacción

a través de un ejemplo sencillo.

En la Figura 2, se observa un sistema de tres barras represen-

tado con sus generadores, sus cargas y las impedancias de las

líneas. Analizando específicamente la barra 2, se observa que

tiene una generación (demanda) líquida de potencia activa

igual a cero. Por lo tanto, de acuerdo con el PS, las pérdidas ac-

tivas que se asignan a ésta barra son nulas.

Figura 2. Sistema-ejemplo de tres barras

Figura 3. Nueva visión del sistema-ejemplo de tres barras

Sin embargo, si consideramos la impedancia equivalente de la

carga 3 sumada a la impedancia de la línea 2 - 3, verificamos que

este valor es menor que la impedancia equivalente de la barra

de carga 2. Procedemos a analizar esta situación a través de las

leyes de circuitos eléctricos; se puede decir que el flujo de salida

del generador 2 debería dividirse entre las dos impedancias co-

nectadas a la barra (similar al divisor de corriente). Por lo tanto,

a pesar de ser representada por una impedancia equivalente de

menos valor que la barra de carga 2, es razonable suponer que

parte del flujo generado en 2 seguirá hasta la barra 3.

Sobre la base de las declaraciones anteriores, es necesario

realizar el proceso de asignación teniendo en cuenta todos

los generadores y cargas del sistema como participantes in-

dependientes en los flujos de las líneas. En otras palabras, es

conveniente asignar las pérdidas a los agentes del sistema sin

considerar generación (demanda) líquida en las barras.

2) Extensión del tratamiento independiente de generado-

res y cargas en una barra

El tratamiento independiente cuando generador y carga co-

existen en una barra, se puede extender al caso en que varios

generadores y cargas que comparten la misma barra. La justifi-

cativa para esta extensión reside en la consideración del efecto

cruzado de los flujos de potencia activa y reactiva en las pérdi-

das complejas.

MOLINA, Yuri. “Asignación de Pérdidas de Potencia Complejas Usando Seguimiento de Flujo de Potencia”

Page 42: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

115

Invest Apl Innov 3(2), 2009

Debido al efecto cruzado, se espera que los generadores y

cargas con características diferentes, aunque compartan la

misma barra, tengan diferentes impactos en las pérdidas del

sistema. Así pues, la suma de los agentes de la misma cate-

goría para obtener un equivalente no traduciría adecuada-

mente sus contribuciones individuales para las pérdidas en

las líneas de transmisión.

3) Modelaje del sistema

El tratamiento independiente se logra a través de un cambio

en los datos de entrada (antes del seguimiento de los flujos).

En primer lugar, se tiene que modelar el sistema para que

todos los generadores y las cargas estén separados en barras

virtuales conectadas a la barra original a través de líneas de

transmisión virtuales sin pérdidas. Obviamente, cada nueva

barra creada debe ser conectada a la barra en la que el ge-

nerador (carga) estaba conectado originalmente. Así, la po-

tencia líquida inyectada y enviada para las barras originales

siguen siendo las mismas, sin alterar los flujos de las líneas

originales del sistema. Para explicar estas afirmaciones, a con-

tinuación se muestra un ejemplo de un sistema de tres barras

en su configuración original (ver Figura 4) y, en seguida, se

verifica el mismo sistema después de pasar por el modelaje

propuesto (ver Figura 5).

Figura 4 - Ejemplo - Sistema de 3 barras

La Figura 4 muestra el diagrama unifilar de un sistema diferen-

te al habitual. Los métodos tradicionales ignoran la existencia

de dos generadores en la barra 2, puesto que tales métodos

asignar las pérdidas para un generador equivalente que está

formado por la suma de las potencias generadas por cada uno

de los dos generadores sin tener en cuenta las participaciones

individuales de estos generadores en las pérdidas del sistema.

Lo mismo ocurre para las dos cargas en la barra 3.

La Figura 5, a su vez, consiste en una representación del siste-

ma de la Figura 4 de acuerdo con el modelaje propuesto en

este artículo:

Figura 5. Ejemplo – Sistema de 3 barras modificado

Las Líneas 4-1, 5-2, 6-2, 2-7, 3-8 y 3-9 se crearon para modificar el

sistema. Por estas líneas pasarán las mismas potencias activas y

reactivas generadas o consumidas por los agentes conectados

a las barras de origen. Por ejemplo, si el generador G1 gene-

ra 15 MW/10 MVAr, el flujo en la línea 4-1 será exactamente 15

MW/10 MVAr. Incluso con el cambio en el sistema, el algoritmo

de seguimiento de flujos propuesto inicialmente es capaz de

determinar la parcela con la que cada agente del sistema con-

tribuye al flujo en las líneas nuevas y originales, y por lo tanto

se puede saber cuánto contribuye cada generador para cada

carga, y viceversa.

RESULTADOLL S

En esta sección, el método propuesto se compara con otros dos

métodos: El PS y el método propuesto en [4] modificado. El sis-

tema de prueba de 5 barras presentado en [5] fue modificado

de modo que existiera más de un generador o carga en algunas

barras, manteniendo su valor total generado/consumido.

Como el método propuesto en [4] asigna las pérdidas sólo a las

cargas, este fue modificado a fin de obtener los resultados de la

asignación también para los generadores. Así, en este artículo,

este método será llamado Abdelkader Modificado.

La siguiente figura muestra el sistema de prueba usado en este

artículo:

Figura 6. Sistema-prueba de cinco barras

MOLINA, Yuri. “Asignación de Pérdidas de Potencia Complejas Usando Seguimiento de Flujo de Potencia”

Page 43: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

116

Invest Apl Innov 3(2), 2009

Las Tablas 1 y 2 muestran las direcciones y magnitudes de los

flujos en las líneas de flujo y de las generaciones y demandas

en las barras, respectivamente:

k mPkm

(MW)

Qkm

(MVAr)

Pmk

(MW)

Qmk

(MVAr)

PLoss

(MW)

QLoss(MVAr)

1 2 113,92 17,24 -108,84 -0,04 5,08 17,20

2 3 -53,66 -19,96 54,69 22,08 1,03 2,12

3 5 -17,31 12,46 17,55 -13,10 0,24 -0,64

3 4 -42,42 7,70 43,90 -3,11 1,47 4,59

5 4 -41,37 -2,19 42,41 5,20 1,05 3,02

5 1 -66,18 -9,71 67,53 14,10 1,34 4,39

Tabla 1. Flujos en las líneas

Barra Activa (MW)Reactiva (MVAr)

Tensión

(p.u.)p

Angulo

(grados)g

1 2 1 2

1 1,050 0 Carga 45 - 15 -

Generación 226,44 - 46,341 -

2 0,990 -10,17 Carga 100 62,5 5 15

Generación - - - -

3 1,033 -6,70 Carga 80 - 20 -

Generación 37,475 37,475 40 22,246

4 1,050 1,22 Carga 50 - 20 -

Generación 36,31 100 21,089 1

5 1,015 -4,33 Carga 80 10 5 20

Generación - - - -

Tabla 2. Datos de las generaciones y demandas en las barras

A continuación, presentamos los resultados de la asignación

para las barras. El carácter “-” presente en las columnas corres-

pondientes al método propuesto, representa la no existencia

de generador o carga en las barras.

Los métodos PS y Abdelkader Modificado realizan la asigna-

ción de las pérdidas para un equivalente en las barras, por lo

que en la tabla no están separadas las asignaciones para ge-

neradores y cargas que coexisten en las barras. Cabe señalar

también que estos dos métodos consideran que cuando el

generador y carga coexisten en una barra, solo uno de los dos

puede interactuar con el resto del sistema, ya que el genera-

dor suministra toda la potencia demandada por la carga, o la

carga consume toda la potencia generada en la barra. De esta

manera, la tabla muestra claramente que cuando hay mayor

generación que consumo, la carga presente en aquella barra

recibe una asignación nula, y cuando existe mayor consumo

que generación, el generador tiene una asignación nula.

Estas hipótesis hechas por estos dos métodos enmascaran la

contribución real de cada agente. El método propuesto tiene

como objetivo explicar esta participación, tornando más justa

la asignación de las pérdidas.

Barra

PSAbdelka-der Modi-

ficadoPropuesto

P

(MW)

Q

(MVAr)

P

(MW)

Q

(MVAr)

P (MW) Q (MVAr)

1 2 1 2

1Carga 0,00 0,00 0,00 0,00 0,00 - 0,00 -

Generación 3,37 10,79 3,36 10,96 3,29 - 10,74 0,00

2Carga 4,01 9,66 4,01 10,20 2,09 1,36 6,53 4,19

Generación 0,00 0,00 0,00 0,00 - - - -

3Carga 0,09 0,00 0,16 0,00 0,59 - 1,57 -

Generación 0,00 4,12 0,00 2,17 0,20 0,17 0,30 0,28

4Carga 0,00 0,00 0,00 0,00 0,01 - 0,03 -

Generación 1,73 0,42 1,67 2,26 0,39 1,06 1,08 2,95

5Carga 1,00 5,68 1,01 5,09 0,89 0,16 2,69 0,32

Generación 0,00 0,00 0,00 0,00 - - - -To

tal Carga 5,10 15,34 5,17 15,29 3,58 1,52 10,83 4,51

Generación 5,10 15,34 5,03 15,39 3,88 1,22 12,11 3,22

Total 10,20 30,68 10,20 30,68 5,10 5,10 15,34 15,34

Tabla 3 - Resultados de la asignación para las barras

Se observa que, aunque se considere que tanto el generador

como la carga presentes en una misma barra pueden interac-

tuar con otros elementos de red de forma independiente, se

verifica que la carga de la barra 1, se mantiene con asignación

nula. La justificación para tal evento se encuentra en la direc-

ción de los flujos presentes en las líneas conectadas a esta ba-

rra. Dado que no existen líneas llevando potencia a ésta barra,

el algoritmo de seguimiento de flujo para la carga no considera

la participación de esta carga en ninguna de las líneas; por lo

tanto la carga en cuestión no interactúa con los elementos ex-

ternos a su barra.

La asignación de la potencia reactiva a los generadores de la

barra de 4 muestra un hecho interesante. El método propues-

to asigna mayor valor a la unidad generadora 2, aunque la po-

tencia reactiva generada por este generador es mucho menor

que la generada por la unidad de generación 1. Esto se explica

por la enorme diferencia entre la potencia activa generada por

cada uno de ellos, donde la unidad de generación 1 produce

36,01 MW en la unidad de generación de 2 produce 100 MW.

Este ejemplo muestra claramente la necesidad de considerar

los generadores que coexisten en una barra como agentes

independientes en el sistema, dado que la consideración del

MOLINA, Yuri. “Asignación de Pérdidas de Potencia Complejas Usando Seguimiento de Flujo de Potencia”

Page 44: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

117

Invest Apl Innov 3(2), 2009

efecto cruzado tiende a reflejar mejor la contribución de

cada agente en las pérdidas del sistema.

La barra 3 tiene también otro ejemplo interesante porque,

aunque los dos generadores contribuyen con la misma ge-

neración de potencia activa, estos tienen asignación de pér-

didas diferentes. Una vez más, se explica este hecho a través

del efecto cruzado de los flujos en las pérdidas del sistema,

dado que la diferencia en la generación de potencia reactiva

dará lugar a asignaciones diferentes a cada uno de los gene-

radores.

El sistema IEEE-30 utilizado en [5] también fue modificado a

fin de tener más de un generador o carga en algunos barras,

manteniendo su valor total generado / consumido. Las barras

de 2 y 8 cuentan con dos generadores, mientras que las ba-

rras de 2, 7, 8, 14 y 15 contienen ahora dos cargas. El método

propuesto es capaz de asignar las pérdidas para varios gene-

radores o cargas presentes en cada barra; sin embargo, para

exhibición de las pruebas se utilizaron como máximo dos de

cada categoría con la finalidad de exponer claramente los re-

sultados.

A seguir son presentadas dos tablas, donde la primera contiene

los datos de las generaciones y demandas en las barras y el

segundo contiene los datos de las asignaciones para el sistema

IEEE-30 utilizando el método propuesto

BarraActiva (MW)

Reactiva (MVAr)

1 2 1 2

2 Carga 11,70 10,00 12,70 10,00

Generación 25,00 25,00 40,434 8,00

7 Carga 20,80 2,00 1,00 9,90

Generación - - - -

8 Carga 15,00 15,00 15,00 15,00

Generación 20,50 2,00 4,00 20,30

14 Carga 6,00 0,20 0,10 1,50

Generación - - - -

15 Carga 8,10 0,10 2,40 0,10

Generación - - - -

Tabla 4. Generaciones y demandas en las barras

con más de un generador/carga

Barras

Generador 1 Generador 2

Barras

Carga 1 Carga 2

P(MW)

Q(MVAr)

P(MW)

Q(MVAr)

P(MW)

Q(MVAr)

P(MW)

Q(MVAr)

Gen

erad

ore

s

1 4,46 5,67 - -

Car

gas

2 0,09 0,08 0,08 0,07

2 0,37 0,23 0,35 0,28 3 0,05 0,06 - -

5 0,02 -0,46 - - 4 0,22 0,21 - -

8 0,02 -0,84 0,01 -0,71 5 1,62 1,53 - -

11 0,08 1,38 - - 7 0,53 -0,19 0,07 -0,46

13 0,10 0,93 - - 8 0,10 -0,13 0,10 -0,13

10 0,10 0,34 - -

12 0,20 0,85 - -

14 0,14 0,42 0,01 0,06

15 0,20 0,65 3e-3 0,01

16 0,08 0,28 - -

17 0,19 0,67 - -

18 0,09 0,28 - -

19 0,24 0,72 - -

20 0,05 0,15 - -

21 0,37 1,41 - -

23 0,09 0,30 - -

24 0,25 0,69 - -

26 0,12 -0,39 - -

29 0,07 -0,26 - -

30 0,36 -0,76 - -

Total 5,05 6,91 0,36 -0,43 Total 5,16 6,91 0,263 -0,45

Tabla 5. Resultados de la asignación para el sistema IEEE-30

MOLINA, Yuri. “Asignación de Pérdidas de Potencia Complejas Usando Seguimiento de Flujo de Potencia”

Page 45: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

118

Invest Apl Innov 3(2), 2009

Los resultados son los esperados y siguen la misma línea del

sistema de prueba de cinco barras. En la barra 8, donde hay

dos cargas idénticas, se verifica que hay una asignación igual

a ambas, tanto de potencia activa como reactiva, lo que de-

muestra que el método es capaz de distinguir entre las cargas

y los generadores de acuerdo con sus potencias consumidas

y generadas, respectivamente.

En la barra 2, donde las dos unidades generadoras proveen

25 MW al sistema, hay una asignación diferente de pérdidas

de potencia activa para estas unidades. Una vez más, se expli-

ca este evento debido a la influencia del flujo de potencia ac-

tiva en las pérdidas de potencia reactiva del sistema, porque

existe una diferencia en la generación de potencia reactiva

de estas dos unidades. Por lo tanto, efectos diferentes en las

pérdidas del sistema.

La barra 8 contiene otro caso interesante. Los generadores

de esta barra tienen enorme diferencia en la potencia activa

generada, pero a pesar de que el generador 2 suministra el

equivalente de 9,76 % de la potencia suministrada por el ge-

nerador 1, las pérdidas asignadas al generador 2 son aproxi-

madamente la mitad de las pérdidas asignadas a generador

1. Esta diferencia se debe a la generación de potencia reacti-

va, donde el generador 1 proporciona el equivalente a 19,7 %

de la potencia reactiva suministrada por el generador 2. Así, la

consideración del efecto cruzado hace que las asignaciones

de las pérdidas activas y reactivas para estos dos generadores

tengan valores no proporcionales a su generación de poten-

cia activa y reactiva, respectivamente.

CONCLUSIONES

Los análisis realizados demostraron que la propuesta de tra-

tamiento individual de generador y carga coexistentes en

una barra es relevante. Esta importancia es sustentada en las

pruebas, donde se puede ver que los generadores y cargas

que dividen una misma barra tienen diferentes efectos en las

pérdidas de las líneas del sistema. La influencia de la potencia

activa (reactivo) en las pérdidas de potencia reactiva (activa)

es la principal justificación para el tratamiento independiente.

Por otra parte, la extensión de este tratamiento independien-

te para el caso en más de un generador / carga que dividen la

misma barra, también es necesario.

El efecto cruzado está bien justificado por los ejemplos ex-

puestos, teniendo en vista que la consideración de ese efec-

to tiende a diferenciar agentes aparentemente similares. En

los resultados obtenidos a través del método propuesto, se

pueden identificar los casos en que se verifica la influencia

del efecto cruzado, por ejemplo, donde los generadores de la

misma potencia activa reciben asignaciones diferentes.

REFERENCIAS

[1] CONEJO, A. ARROYO, J. y GUIJARRO, A. “Transmission loss

allocation: A comparison of different practical algorithms”,

IEEE Transactions on Power Systems, pp. 571-576, 2002.

[2] ILIC, M. GALIANA, F. y Fink, L. “Power System Restructuring:

Engineering and Economics”, 1998.

[3] BIALEK. “Tracing the Flow of Eletricity”, IEE Proceedings on

Generation, Transmission and Distribution, pp. 313-320,

1996.

[4] S. ABDELKADER,.“Transmission loss allocation through

complex power flow tracing,” vol. 22, 2007.

[5] SILVA, B. da. Uma “Metodologia para Alocação de Perdas

Ativas de Transmissão em Ambiente Competitivo”. São

Luís, Brasil: Dissertação de Mestrado, UFMA, 2007.

[6] Lima, D. A. Alocação de perdas e custos pelo uso do sistema

de transmissão. Tese de Doutorado, UNESP, Ilha Solteira,

2007.

[7] TANTT , X. H. y LIE, T. T. “Allocation of transmission loss cost

using cooperative game theory in the context of open

transmission access”, IEEE Power Engineering Society

Winter Meeting, pp. 1215-1219, 2001.

[8] MOLINA, Y. P., SAAVEDRA, O. R. y Prada, R. B. “On the Par-

tition of Transmission Losses Among Generators”, IEEE

Transactions on Power Systems, vol. 23, pp. 1883-1885,

Nov. 2008.

[9] MOLINA, Y. , PRADA, R. y SAAVEDRA, O. “Allocation of

Transmission Loss Cost Using Game Theory”, IEEE Lausan-

ne Power Tech, pp. 407-412, 2007.

[10] ABDELKADER, S. “Transmission loss allocation in a dere-

gulated electrical energy market,” Electrical Power Sys-

tems Research, pp. 962-967, 2006.

[11] BIALEK. “Topological generation and load distribution

factors for supplement charge allocation in transmission

open access”, IEEE Transactions on Power Systems, pp.

1185-1193, 1997.

MOLINA, Yuri. “Asignación de Pérdidas de Potencia Complejas Usando Seguimiento de Flujo de Potencia”

Page 46: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

119

Invest Apl Innov 3(2), 2009

[12] Bialek, J. “Allocation of transmission supplementary to

real and reactive loads,” p. 1185–1193, 1998.

[13] MOLINA, Y. Alocação de Demandas e Perdas Complexas

via Teoria dos Jogos. Tesis Doctoral, PUC- Rio, Rio de Ja-

neiro, Brasil, 2009.

ACERCA DEL AUTOR

Yuri P. Molina es Ingeniero Eléctrico

con maestría en Sistemas de poten-

cia. Sus áreas de interés se centran

en el planeamiento y operación de

sistemas eléctricos de potencia, in-

teligencia artificial aplicada a los

sistemas de energía y los servicios

complementarios de potencia reac-

tiva. Actualmente se desempeña

como docente del departamento de Electrotecnia industrial

de Tecsup.

MOLINA, Yuri. “Asignación de Pérdidas de Potencia Complejas Usando Seguimiento de Flujo de Potencia”

Page 47: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

120

Invest Apl Innov 3(2), 2009

Julio Monjarás

Evaluación del uso de fibras textiles como aislante térmico

Evaluation of the use of textile fibers as thermalisolators

Resumen

El presente trabajo tuvo como objetivo evaluar de una serie

de muestras de fibras textiles cuales poseen mejor propiedad

de aislamiento térmico y cuantificar el ahorro de energía al

utilizarla como resistencia térmica entre dos medios a dife-

rente temperatura, dicho trabajo fue encomendado por una

empresa textil.

La metodología aplicada es de tipo exploratoria/descriptiva,

enmarcada en un diseño experimental.

Se evaluó cada una de las muestras de fibra textil utilizán-

dolas como resistencias térmicas, para ello se construyeron

dos cámaras: una interna más pequeña que simula una ha-

bitación, y otra más grande donde se simuló la temperatura

ambiente en época de invierno.

En la cámara interna se mantuvo una temperatura constante

de 30 °C; esta temperatura se logró gracias al equipo de cale-

facción que se instaló en su interior.

La temperatura ambiental se simuló en la cámara externa en

la cual se instaló un sistema de refrigeración para proporcio-

nar la temperatura de invierno de 0 °C, la que fue controlada

para que permanezca constante a lo largo del tiempo.

Se evaluó el ahorro de energía y economía realizada por el

uso de fibra textil con mejores propiedades aislantes en com-

paración con una fibra comercial.

Los hallazgos de la investigación permitieron identificar que

las muestras de fibra textil con mejores propiedades aislantes

fueron las denominadas N.° 1 y N.° 8. El utilizar materiales con

mejores propiedades térmicas consigue un ahorro de ener-

gía en el funcionamiento de los equipos de calefacción.

La evaluación de las curvas y los tiempos de enfriamiento sir-

ve como un método indirecto alternativo para identificar de

una serie de muestras que poseen mejores propiedades aislan-

tes sin la necesidad de calcular sus coeficientes de conductivi-

dad térmica

Abstract

This research work, requested by a textile company, had as its

objective to evaluate a series of textile fiber samples which

have better thermal isolating properties, and quantify the sa-

ving energy when using it as a thermic resistance between two

environments at different temperatures.

The methodology used is of exploratory / descriptive type, fra-

med in a experimental design.

It was evaluated each of the requested presentations for textile

fibers had better isolating characteristics using them as ther-

mic resistances, for this purpose, two boxes were constructed;

an internal, smaller one which simulated a room; and a bigger

one, where the natural environment temperature in winter

time was simulated.

The internal box was kept at a constant temperature of 30 °C,

through a heating equipment installed inside.

The natural environment temperature was simulated in the

external box, in which a refrigeration system provide a winter

temperature of 0°C, which was controlled in order to remain

constant throughout time.

Saving energy and economy were evaluated with the use of

textile fiber with better isolating characteristics compared with

a commercial fiber.

The research findings allowed to identify that the textile fiber

samples with better isolating characteristics were the N°1 and

N° 8. The use of thermic resistant materials with better thermic

properties pernuts energy saving in the heating equipment

functioning.

Page 48: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

121

Invest Apl Innov 3(2), 2009

MONJARÁS, Julio. “Evaluación del uso de fibras textiles como aislante térmico”

The evaluation of the curves and cooling times work as an in-

direct alternative method to identify, from a series of samples

which one has better isolating properties, without the need

of calculating their coefficients of thermic conductivity.

Palabras claves

Curva de enfriamiento, tiempo de enfriamiento, resistencia

térmica, fibras textiles

Key words

Cooling curve, cooling time, thermic resistance, textile fi-

bers.

INTRODUCCIÓN

Para averiguar cuál es el mejor aislante térmico de una serie

de materiales, normalmente se determina el coeficiente de

conductividad térmica, el cual es una medida de la capacidad

del material para conducir calor. Un valor elevado de la con-

ductividad térmica indica que el material es buen conductor

del calor y un valor bajo indica que es un buen aislante.

La evaluación del coeficiente de conductividad se calcula

confeccionando un aparato experimental como se muestra

en la Figura 1.

Figura 1: Equipo para determinar el coeficiente de conductividad

El material para evaluar el coeficiente de conductividad de

espesor “L” y área “A” conocidos, se calienta por un lado me-

diante un calentador de resistencia eléctrica de potencia

conocida. Si las superficies exteriores del calentador están

bien aisladas, todo el calor generado “ ” por la resistencia,

se transferirá a través del material cuya conductividad se va

determinar. Conociendo los valores del espesor y del área y

midiendo las dos temperaturas de las superficies del material

T1

y T2, cuando se alcanza estado estacionario de trasferen-

cia de calor, el coeficiente de conductividad se calcula por la

ecuación (1)

(1)

La evaluación del coeficiente de conductividad térmica de fi-

bras textiles mediante la ecuación (1) se complica, ya que el

espesor de la fibra tiene que ser lo suficientemente grueso para

poder medir las temperaturas de las superficies T1 y T

2, y para

obtener dicho espesor se tendría que juntar y presionar varias

fibras, lo cual afectaría en el resultado de la medición.

La alternativa planteada para averiguar cual es el mejor aislante

de calor de una serie de muestras de fibras textiles es utilizar el

equipo de la Figura 2, en el se determina como varía la tem-

peratura en función al tiempo del interior de una cámara de

aire “T1” inicialmente caliente a una temperatura “T

0”, cuando se

separa con una muestra de fibra textil “2” de otro ambiente ex-

terior que está a una temperatura fría constante “Tfria”.

Figura 2: Equipo para determinar la variación de temperatura

respecto al tiempo

La muestra que traiga como consecuencia un mayor tiempo de

enfriamiento de la temperatura T1

en un mismo rango de tem-

peraturas, será la que mejor propiedades aislantes tenga.

Para poder determinar cual de las muestras encomendada por

una empresa textil tiene mejores propiedades aislantes, se defi-

nieron los siguientes objetivos de estudio:

1. Determinar el tiempo de enfriamiento del aire interior para

un mismo rango de temperaturas cuando se utilizan como

resistencia térmica diferentes fibras textiles

2. Analizar las curvas de enfriamiento del aire del interior de la

cámara en función del tiempo cuando se deja enfriar libre-

mente.

3. Evaluar el ahorro de energía consumida por un equipo ca-

lefactor al calentar el aire dentro de un ambiente al utilizar

como resistencia térmica la fibra con mejores propiedades

aislantes en comparación con otra de confección similar.

Page 49: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

122

Invest Apl Innov 3(2), 2009

FUNDAMENTOS

Tiempo de enfriamiento en régimentransitorio

Para calcular la variación de la temperatura T1, asumimos que

la temperatura promedio del aire, “T1” , del compartimiento

interno es la misma en cualquier punto de su interior; lo mis-

mo con la temperatura “T2” en la fibra textil (Figura 2)

Realizando un balance de energía para el aire del interior de

la cámara se tiene:

(2)

Realizando un balance de energía para la fibra textil se tiene:

(3)

Las dos ecuaciones diferenciales lineales simultáneas pueden

resolverse, sabiendo que inicialmente el aire caliente se en-

cuentra a una temperatura “T0”, lo que implica que las condi-

ciones iniciales son:

T1 = T

2 = T

0 en t = 0

Resolviendo obtenemos:

Donde:

h1 = Coeficiente de transferencia de calor por convección por

lado del aire caliente

h2 = Coeficiente de transferencia de calor por convección por

lado del aire caliente

C = Calor específicoC

= Densidad

V = VolumenV

t = Tiempot

La muestra que genere un mayor tiempo de enfriamiento de

la temperatura T1 en un mismo rango de temperaturas, será la

que mejor propiedades aislantes tenga. En la Figura 3 se obser-

va la tendencia de una gráfica de enfriamiento

Figura 3 : Curva de enfriamiento

Equipo y control de la temperatura fria de la cámara externa

Para tener una temperatura externa constante, se construyó

una cámara externa de refrigeración debidamente aislada, que

funciona con un ciclo de compresión de vapor y que utiliza

como refrigerante R22.

El control de temperatura de la cámara está basado en dos

controladores Stand Alone modelo 900-TC8ACVGTZ25, fabri-

cado por Allen Bradley y el controlador EKC 101 fabricado por

Danffoss, cada controlador implementa un lazo de calefacción

y refrigeración respectivamente. La variable de proceso o de

interés es observada mediante sensores de temperatura tipo

PT-100, los que han sido cableados hacia la entrada RTD de

cada controlador. Como elementos actuadores para el sistema,

se tiene:

MONJARÁS, Julio. “Evaluación del uso de fibras textiles como aislante térmico”

Page 50: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

123

Invest Apl Innov 3(2), 2009

ventilador, lo cual permite una distribución uniforme

del calor en el interior de la cámara. Dicha resistencia es

energizada por acción de un relé de estado sólido que

es comandado por las salidas DC del controlador Allen

Bradley.

temperatura de cámara. Al cerrarse la válvula solenoide,

un presostato de baja presión enviará la señal eléctrica

para que el compresor del sistema de refrigeración se

apague.

Cuando el punto de operación de la cámara se encuentra

a temperaturas bajas, típicamente 0 °C, el controlador Allen

Bradley pone en funcionamiento un control ON-OFF de tres

puntos con acoplamiento de mallas. Con dicho esquema se

consigue un lazo de control de frío que actúa con el lazo de

calor, lo cual permite un encendido constante del sistema de

refrigeración y activación temporal del circuito de calefac-

ción. Con ello se logra una temperatura nominal que oscila

entre los +/- 0.5 °C.

Para evitar que el sistema de refrigeración se apague en el

controlador EKC 101, se configuró una temperatura de cáma-

ra ligeramente menor que la del controlador Allen Bradley,

típicamente en -2 °C.

En la Figura 4 se observa la cámara externa de refrigeración,

y en la Figura 5 el equipo de refrigeración por compresión de

vapor utilizado.

Figura 4: Cámara externa de refrigeración utilizada

Figura 5: Equipo de refrigeración por compresión de vapor

En la Figura 6 se observa el sistema de control de temperatura

fría de la cámara externa.

Figura 6: Sistema de control de temperatura fría de la cámara externa

Equipo y control de la temperatura delaire caliente de la cámara interna

Para tener la temperatura del aire caliente constante dentro del

ambiente, se construyó una cámara interna debidamente aisla-

da, dejando un lado libre para colocar la muestra de fibra textil

a ensayar.

El control de temperatura interna de la cámara lo realiza un

controlador EKC 101 marca Danffoss. La temperatura del aire

caliente es medida mediante un sensor de temperatura tipo

PT-100, el cual ha sido cableado hacia la entrada RTD del con-

trolador. Como elemento actuador para el sistema, se tiene una

resistencia eléctrica de 2000 W con su respectivo ventilador, lo

cual permite una distribución uniforme del calor en el interior

de la cámara. Dicha resistencia es energizada por acción de un

relé de estado sólido que es comandado por las salidas del con-

trolador EKC 101.

Cuando el punto de operación del aire caliente se encuentre

en un valor típicamente de 30 °C, el controlador EKC 101 pone

MONJARÁS, Julio. “Evaluación del uso de fibras textiles como aislante térmico”

Page 51: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

124

Invest Apl Innov 3(2), 2009

en funcionamiento un control ON-OFF, lo cual permite la acti-

vación temporal del circuito de calefacción, con ello se logra

una temperatura nominal que oscila alrededor de 30 °C.

En la Figura 7 se observa la cámara interna aislada y en la

Figura 8, la cámara interna con la muestra de fibra textil co-

locada.

Figura 7: Cámara interna aislada

Figura 8: Cámara interna con muestra de fibra textil colocada

Registro de la temperatura del aire frío y del aire caliente durante de laprueba

Para realizar la prueba con cada muestra de fibra textil , esta

se coloca, debidamente estirada, en la cara libre de la cámara

interna; se encienden el equipo de refrigeración de la cámara

externa así como el equipo de calefacción de la cámara inter-

na y se espera que alcance condiciones estables de tempera-

tura tanto interna como externamente.

Una vez alcanzadas las condiciones estables se proceda a

apagar el equipo calefactor de la cámara interna y se realiza

el registro de la temperaturas internas y externas de las cáma-

ras a partir de ese instante.

Para registrar las temperaturas se utiliza un juego de sensores

de temperatura, los cuales se conectan a una computadora a

través de una interfase Power link marca Pasco, y mediante el

Software Data Studio se van registrando las temperaturas tanto

interna como externa a lo largo del tiempo de enfriamiento

En la Figura 9 se observa las temperaturas registradas en la

computadora

Como el Software registra la temperatura a lo largo del tiempo,

se calculó el tiempo de enfriamiento para cada muestra entre

el rango de temperaturas de 30 a 10,5 °C y se pudo confeccio-

nar una tabla de tiempos de enfriamiento para analizar y dedu-

cir conclusiones de cuál es la muestra con mejores propiedades

aislantes.

Figura 9: registro de temperaturas internas y externas mediante el soft-

ware Data Studio

Medición del ahorro de energía consu-mida por el equipo calefactor de la cá-mara interna

Una vez identificada la muestra que posee mejores propieda-

des aislantes, se coloca en el espacio libre de la cámara interna;

se enciende el equipo de refrigeración de la cámara externa y el

de calefacción de la cámara interna, se espera que se alcancen

condiciones estables y se procede a medir la energía consumi-

da por el calefactor en un lapso de 2 horas. Después se hace lo

mismo con otra muestra con propiedades aislantes menores: el

ahorro de energía nos proporciona un indicador del potencial

de ahorro de energía al utilizar materiales con mejores propie-

dades aislantes.

MONJARÁS, Julio. “Evaluación del uso de fibras textiles como aislante térmico”

Page 52: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

125

Invest Apl Innov 3(2), 2009

En la Figura 10 se muestra el equipo medidor de energía mar-

ca Fluke utilizado.

Figura 10: Medidor de energía utilizado

RESULTADOS

La curva de enfriamiento para la muestra de fibra textil 1 se

registra en la Figura 11.

Figura 11: Curva de enfriamiento muestra 1

Las mediciones de la investigación encomendada para las

19 muestras de fibra textil por la empresa se presentan en

la Tabla 1.

PRUEBAS EN FRÍO

mer

o d

e m

ues

tra Temperatura

detámara Interna (°C)

Temperatura de Cámara

externa (°C)

“Hu-medadrelativa

Tiempo de enfriamiento

Inic

ial

Fin

al

Pro

med

io

Pro

med

io

Seg

un

do

s

Min

uto

s

1 30.0 10.5 0.84 28.98 3289.5 64.83

8 30.0 10.5 0.94 32.20 2907.0 48.46

2 30.0 10.5 0.92 27.32 2296.8 38.28

16 30.0 10.5 1.05 28.98 2222.0 37.03

6 30.0 10.5 1.05 26.62 1615.5 26.93

3 30.0 10.5 0.97 27.86 1579.5 26.33

12 30.0 10.5 0.93 27.84 1513.0 25.22

4 30.0 10.5 1.08 27.49 1134.0 18.90

5 30.0 10.5 1.10 26.70 1034.0 17.23

18 30.0 10.5 1.07 27.79 989.5 16.49

19 30.0 10.5 1.00 27.35 908.5 15.14

17 30.0 10.5 1.02 27.21 698.5 11.64

11 30.0 10.5 0.78 27.80 673.5 11.23

7 30.0 10.5 0.97 24.72 551.0 9.18

10 30.0 10.5 1.19 28.60 361.0 6.02

9 30.0 10.5 1.19 28.62 320.5 5.34

14 30.0 10.5 0.97 24.95 285.0 4.75

13 30.0 10.5 1.95 24.91 137.5 2.29

15 30.0 10.5 1.30 26.44 132.5 2.21

Tabla 1: Mediciones para las 19 muestras de fibra textil

Para poder analizar cuál de las muestras tiene mejores propie-

dades aislantes, se confeccionaron las curvas de enfriamiento

en un solo diagrama, como se observa en la Figura 12.

Figura 12: Curvas de enfriamiento para las 19 muestras de fibra textil

El tiempo de enfriamiento de la cámara interior cuando se co-

loca como resistencia térmica cada una de las muestras de fibra

textil, se presenta en la Figura 13.

MONJARÁS, Julio. “Evaluación del uso de fibras textiles como aislante térmico”

Page 53: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

126

Invest Apl Innov 3(2), 2009

Figura 13: Tiempo de enfriamiento para las 19 muestras de fibra textil

El ahorro de energía consumida por el equipo de calefacción

de la cámara interna con un volumen de 1.6 m3 cuando se

usa como medio de resistencia térmica dos muestras simila-

res en confección pero de propiedades aislantes diferentes se

muestra en la Tabla 2.

Muestra“Energía consu-mida KW/Hora”

“Tiempo Horas”

0.275 2

17 0.328 2

Diferencia 0.053 kw/ hora

Tabla 2: Ahorro de energía del sistema de calefacción

DISCUSIÓN

Evaluando las curvas de enfriamiento de la Figura 12, se ob-

serva que las dos que están por encima de las demás presen-

ta mejores propiedades aislantes, ya que la temperatura para

un mismo tiempo de enfriamiento es mayor. Además, se pue-

de observar que el rango de temperaturas en las que se tiene

mejor performance de resistencia térmica está por debajo de

los 14 °C para las muestras 1 y 8

Analizando la Figura 13, se observa que las muestras con

mayor tiempo de enfriamiento son las N.° 1 y 8. Respecto al

consumo de energía del equipo de calefacción de la cámara

interna, esta es menor cuando se utiliza la presentación N.° 1.

Sería necesario ampliar la investigación para cuantificar el

ahorro de energía en equipos de calefacción de edificaciones

reales, usando como medios aislantes materiales con mejores

propiedades térmicas (cortinas de ventanas, por ejemplo)

CONCLUSIONES

mayores cuando se colocan como resistencia térmica las

muestras N° 1 y 8. Las curvas de enfriamiento de estas

muestras siempre están por encima de las demás, lo que

permite concluir que son estas muestras las que tienen

mejores propiedades térmicas.

térmicas, se conseguirá un ahorro de energía en el fun-

cionamiento de los equipos de calefacción.

sirve como un método indirecto alternativo para identi-

ficar de una serie de muestras cual posee mejores propie-

dades aislantes sin la necesidad de calcular sus coeficientes

de conductividad térmica

REFERENCIAS

[1] CENGEL, Yunus A. Transferencia de Calor. México D.F. : 2o

Edición. 2004.

[2] Kreith, Frank y Bohn, Mark S. Principios de Transferencia de

Calor. México D.F.; 2001

Physical Properties of Textile Fi-

bres. o edición, 2008.

ACERCA DEL AUTOR

Julio Monjarás Salvo es Ingeniero Me-

cánico Electricista. Con estudios de

Maestría en Ing. Mecánica con Men-

ción en Turbomáquinas y en Gestión

Integrada del Conocimiento, el Capi-

-

nos por la Universidad Politécnica de

Madrid. Posee amplia experiencia en

el área de Ingeniería Térmica y Entre-

-

mación de Formadores por Competencias, Máquinas Térmicas,

Calderos y Seminarios de Calidad. Es inspector de Ensayos No

Destructivos por Ultrasonido Nivel 1, Certificado por Krautka-

mer. Actualmente es Jefe de Estudios Generales y Coordinador

de la Oficina de Calidad Educativa de Tecsup Arequipa.

MONJARÁS, Julio. “Evaluación del uso de fibras textiles como aislante térmico”

Page 54: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

127

Invest Apl Innov 3(2), 2009

Rafael Vera

Modelo de gestión del conocimiento

Model of management knowledge

Resumen

El presente trabajo propone una forma de resolver el proble-

ma de la necesidad de gestionar los conocimientos en una or-

ganización para incrementar la calidad. Este estudio se plan-

tea a partir del recojo de las diferentes teorías administrativas

y sistémicas, pasando por comprender la complejidad de las

diferencias de pensar, decidir y actuar que tienen los ejecuti-

vos, como generadores de conocimiento. Son ellos quienes

necesitan conocer los resultados de sus acciones y de cómo

estas contribuyen a las fases de la cadena de producción.

El modelo se basa en la integración cognoscitiva de los si-

guientes conceptos: reglas de negocio, bases y flujos de co-

nocimientos. Para su aplicación, la metodología del cuadro

de mando integral se relaciona con los temas de las motiva-

ciones administrativas y la gestión de la calidad ISO 9001. La

aplicación del cuadro de mando integral enfocado en el mo-

delo de gestión propuesto se presenta como una solución al

problema de determinar el valor empresarial.

Abstract

The present work proposes a way of solving the problem of

the need of managing the knowledge in an organization to

increase the quality. This study is presented from gathering

the different administrative and systemic theories, happe-

ning for understanding the complexity of the differences of

thinking, deciding and operating that the executives have as

generators of knowledge. It’s them who need to know the re-

sults of his actions and of how these contribute to the phases

of the production line.

The model is based on the cognitive integration of the

following concepts: rules of business, bases and flows of

knowledge. For application, the methodology of the Balance

Scorecard is related to the topics of motivations of manage-

ment and management of the ISO quality 9001. The applica-

tion of the Balance Scorecard focused in the model of ma-

nagement proposed appears as a solution to the problem of

determining the managerial value.

Palabras claves

Modelo de gestión del conocimiento, metodología del cuadro

de mando integral, valor empresarial, reglas de negocio, bases

de conocimiento, flujos de conocimiento, gestión de la calidad

ISO 9001 y sistema de calidad

Key words

Model of management of the knowledge, methodology of the

picture of integral control, managerial value, rules of business,

bases of knowledge, flows of knowledge, management of the

ISO quality 9001 and quality system

INTRODUCCIÓN

Planteamiento de la investigación

En la actual coyuntura económica y empresarial en que la com-

petitividad es un “sine qua non” para la supervivencia de las

empresas, surge la necesidad de conocer en cada momento el

progreso de las actividades de valor como una forma de deter-

minar cuán competitiva es una empresa en el tiempo. Ello per-

mitirá realizar los ajustes y los cambios necesarios en la gestión,

determinando las actividades de valor con el fin de manejarlas

eficazmente y mejorar la competitividad de la empresa.

Definición del problema de investigación

Para definir el problema, se plantea responder la siguiente pre-

gunta general:

¿Cómo determinar y gestionar las actividades de valor en una

empresa con un mercado altamente competitivo, empleando

la gestión del conocimiento y una metodología estratégica de

gestión enfocada en el conocimiento?

Page 55: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

128

Invest Apl Innov 3(2), 2009

ANTECEDENTES

La gestión del conocimiento se orientó a ser un paradigma

fundamental para el desarrollo de cualquier organización

inteligente. Actualmente se viene trabajando en sus funda-

mentos como base para lograr su aplicación y mejora en la

obtención de beneficios para las organizaciones.

Existen varias corrientes agrupadas en comunidades que

estudian la forma como integrar los conocimientos en las

actividades organizacionales. Dos de estas corrientes más

importantes son la facilitación del conocimiento y la ingenie-

ría del conocimiento, las cuales a continuación se expondrán

brevemente.

La corriente de la facilitación del conocimiento es sostenida,

entre otros pensadores, por Ikujiro Nonaka (FLCDC, p. vii),

quien expone que el conocimiento no se puede administrar,

solo propiciar. También argumenta que los administradores

deben abocarse a la creación de conocimientos, no a su con-

trol, y que la facilitación del conocimiento incluye el propiciar

relaciones y conversaciones, así como compartir el conoci-

miento en todos los rincones de la organización, e inclusive

más allá de fronteras geográficas y culturales.

La creación del conocimiento organizacional para la facilita-

ción del conocimiento supone cinco pasos destacados y con-

secutivos, los cuales son:

Elaborar un prototipo a partir de los conceptos justificados

Difundir y compartir el nuevo conocimiento en la organización

Con la visión de establecer un potencial creciente de los

conocimientos en la organización, la facilitación del conoci-

miento se concibe de forma circular considerando cinco fac-

tores de facilitación, que son los siguientes:

-

cimiento

Finalmente, la corriente de la facilitación del conocimiento sus-

tenta que la administración del conocimiento se centra en las

acciones de los trabajadores del conocimiento y no en los pro-

cesos humanos y cotidianos implicados.

Para el caso de la segunda corriente, la ingeniería del conoci-

miento, mencionaremos el trabajo de Amparo Alonso (IDCAM,

p 49), en el que propone un sistema con un software capaz de

soportar la representación explícita del conocimiento en un

dominio específico, y de explotarlo a través de los mecanismos

apropiados de razonamiento para proporcionar un comporta-

miento de alto nivel en la resolución de problemas. Esta idea se

fundamenta en los siguientes conceptos:

Tratan de pro-

blemas poco estructurados en los que se encuentran requi-

sitos subjetivos, entradas inconsistentes, incompletas o con

incertidumbre, y que no pueden ser resueltos aplicando

algoritmos clásicos o la investigación operativa.

Es la disciplina tecnoló-

gica que se centra en la aplicación de una forma sistémica,

disciplinada y cuantificable al desarrollo, funcionamiento y

mantenimiento de los Sistemas Basados en Conocimiento.

Los SBC tienen como uno de sus principales orígenes el desa-

rrollo de la inteligencia artificial (IA), lo que se puede apreciar en

su arquitectura en particular, tal como se presenta en la figura

siguiente.

Figura 1: Ingeniería del conocimiento, Amparo Alonso

Estas dos corrientes, no necesariamente antagonistas, pro-

ponen un estudio continuo del conocimiento desde dife-

rentes puntos de vista, contribuyendo al desarrollo de la

gestión del conocimiento y su utilización en beneficio de

las organizaciones.

VERA, Rafael. “Modelo de gestión del conocimiento”

Page 56: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

129

Invest Apl Innov 3(2), 2009

VERA, Rafael. “Modelo de gestión del conocimiento”

OBJETIVOS

-

grando las reglas de negocio, las bases y los flujos de co-

nocimiento.

-

focado en el modelo de gestión del conocimiento para

determinar el valor en las actividades de una organiza-

ción.

CONTENIDO

Este trabajo de investigación se inicia desarrollando cuatro

etapas:

-

gral

DESARROLLO DE UN TABLERO DEMOTIVACIONES PARAPP LA ALL GESTIÓN

Como un esfuerzo de sistematizar la gestión, mencionaremos

el trabajo del las Motivaciones de las reglas de negocio, publi-

cado por Business Rules Community (SMBRM).

El tablero de motivaciones, basado en las Motivaciones de las

reglas de negocio, es como un tipo de panel de control de

accesos, que permite organizar sistematizadamente la ges-

tión con un sentido interactivo. Esto hace manejable tanto

la planificación de las motivaciones como el seguimiento de

los indicadores del cuadro de mando integral y, por último,

la aplicación de las iniciativas estratégicas planteadas en la

organización.

Este tablero tiene una división de tres bloques que interac-

túan entre sí. Estos son los siguientes:

1. Planificación. Es el primer bloque y está constituido por

la presentación de las principales motivaciones y por la

activación de los análisis fundamentales en la empresa.

Presenta las siguientes partes:

FODA (Fortalezas, Debilidades, Oportunidades,

Amenazas)

En el tablero, la primera parte se encuentra representada por

un BOTÓN de presentación y las dos siguientes, por dos BOTO-

NES de activación.

2. Seguimiento. Este segundo bloque es la columna princi-

pal del tablero y se encuentra constituido por la presenta-

ción de guías de actividades y por la actividad de control

de resultados. Presenta las siguientes partes:

En el tablero, la primera parte está representada por un BOTÓN

de presentación y la segunda parte, por un BOTÓN de activa-

ción.

3. Iniciativas. Este último bloque tiene su importancia en la

determinación de las acciones que se toman para lograr

los resultados deseados en la organización. Presenta la si-

guiente parte:

En el tablero está representado por un solo BOTÓN de activa-

ción.

Figura 2: Tablero de motivaciones

Page 57: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

130

Invest Apl Innov 3(2), 2009

VERA, Rafael. “Modelo de gestión del conocimiento”

El tablero también considera las influencias del entorno y del

comportamiento organizacional de la empresa, representa-

das por el marco circundante del tablero.

Asimismo, funciona como una interfase básica de las activi-

dades de gestión, como parte de un mecanismo que se man-

tiene activo, formando parte de la solución, como veremos

más adelante.

DESARROLLO DE LALL GESTIÓN DE LALLCALIDAD

Entre los proyectos de mejora en toda organización se pue-

de mencionar la aplicación de las normas ISO 9001 versión

2000, como un sistema de calidad que está muy de moda ac-

tualmente. Viene desarrollándose desde los últimos 20 años,

basado en las enseñanzas de pensadores influyentes en el

mundo de la investigación de la calidad, como W. Edwars De-

ming y Joseph Juran. Esta teoría fue aplicada con gran éxito

en compañías como General Electric y Motorola. Un sistema

de calidad requiere contar con la disposición de todas las

personas que lleven a cabo actividades en la organización,

siempre respaldadas por la alta directiva. Involucra el apro-

piado manejo de los recursos para efectuar la realización del

producto. Continúa con la determinación de los procesos y la

transcripción de la documentación correspondiente. Luego,

realiza los controles mediante mediciones y análisis; por últi-

mo, aplica las mejoras propuestas, las cuales son el resultado

de los análisis. Como los procesos no son estáticos, es nece-

sario contar con la inteligencia de los trabajadores del cono-

cimiento para desarrollar innovaciones que originen nuevos

procesos, se optimicen los actuales o se eliminen los obsole-

tos; todo dentro de una visión de integración y valoración de

las actividades del proceso.

La gestión de la calidad, que emplea la norma internacional

ISO 9001 versión 2000, utiliza esta secuencia de etapas:

A continuación, se describen las responsabilidades y acciones

que deben realizarse en cada una de las etapas:

Responsabilidad de la dirección. Esta etapa inicia la secuen-

cia de calidad, asegurando el apoyo y la participación de la alta

dirección. Ese apoyo es fundamental para darle al sistema de

calidad el estatus de alta prioridad en la organización.

Gestión de Recursos.- Esta etapa involucra desde controlar la

provisión de los recursos hasta mantener un adecuado ambien-

te de trabajo:

Figura 3: Manual de la norma internacional ISO 9001: 2000

Page 58: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

131

Invest Apl Innov 3(2), 2009

VERA, Rafael. “Modelo de gestión del conocimiento”

Realización del producto. En esta etapa se consideran los

aspectos para llevar a cabo los procesos de la realización del

producto, desde su planificación hasta su servicio posventa:

Control de los dispositivos de seguimiento y de medición

Medición, análisis y mejora. En esta etapa se planifican e im-

plementan los procesos de seguimiento, medición, análisis y

mejora del sistema de calidad.

DESARROLLO DE LALL METODOLOGÍAÍÍDEL CUADRO DE MANDO INTEGRAL

El cuadro de mando integral tiene cuatro perspectivas re-

lacionadas secuencialmente entre sí: Aprendizaje, Internos,

Clientes y Finanzas. Cada perspectiva requiere de un trabajo

en conjunto en la empresa, que empezará sustentando la for-

ma c´lomo sus unidades organizacionales se corresponden

con las perspectivas.

La metodología del cuadro de mando integral (CMI) que se

aplicará se divide en cinco fases secuenciales. El desarrollo de

cada fase requiere la elaboración y discusión en grupos de

trabajo motivados. Estas fases son las siguientes:

Figura 4: Metodología del Cuadro de mando integral

1. Definir el negocio

2. Realizar el análisis estratégico

3. Elaborar la guía estratégica

4. Definir los objetivos e indicadores

5. Realizar las iniciativas de mejora

La primera fase de la metodología se centra en definir la visión

y la misión de la empresa. La segunda fase realiza el análisis

FODA, que es una herramienta de planificación estratégica que

busca literalmente identificar las fortalezas, oportunidades,

debilidades y amenazas en el negocio. El análisis FODA utiliza

información, tanto del medio interno como del medio externo

de la empresa (incluidas las empresas de la competencia). La in-

formación obtenida de un análisis FODA es de mucha utilidad

para poder evaluar correctamente la situación actual de un ne-

gocio y tomar las acciones necesarias para lograr los objetivos

de la organización.

El balance de las perspectivas del cuadro de mando integral es-

tablece la base para construir el mapa estratégico que se pre-

senta en la tercera fase.

LA INFORMACIÓN DEL CUADRO DEMANDO INTEGRAL

La definición de los objetivos e indicadores son parte del desa-

rrollo de la cuarta fase de la metodología del cuadro de mando

integral. Sin embargo, cada perspectiva es una dimensión de la

organización que agrupa objetivos que las áreas se proponen

llevar a cabo y que deben contribuir a la obtención de valor

organizacional. Los objetivos deben ser mensurables, en can-

tidad unos, y en cualidad otros. Los objetivos dan origen a los

indicadores, que tienen generalmente una fórmula de clase

comparativa, es decir, comparan un evento o un resultado con

un todo o un deseo expresado en cantidad o cualidad.

Los objetivos pueden tener un conjunto de indicadores que

deberán ser medidos cada cierto tiempo. Estos indicadores

deben ser controlados para mantenerlos dentro de un rango

aceptable con respecto a los umbrales de riesgo existentes.

Cada uno debe tener una meta, con un valor referencial para

controlar y asegurar que se encuentre en una buena situación

estando cerca de este valor. Es necesario realizar proyecciones

de los indicadores de acuerdo con los recursos posibles. Esto

es propio y tiene que ser realista; la proyección es clave para

determinar el valor futuro en la organización.

Page 59: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

132

Invest Apl Innov 3(2), 2009

VERA, Rafael. “Modelo de gestión del conocimiento”

Establecidos los objetivos, identificados los indicadores y

propuestas las metas, se requiere plantear las iniciativas para

lograr alcanzar dichas metas. Una iniciativa tiene que ser rea-

lista, pero debe surgir de la creatividad y de la innovación de

grupos de trabajo responsables de efectuar y/o controlar los

indicadores. Esta debe traducirse en estrategias y en tácticas

planteadas para ser ejecutadas por las áreas de la organiza-

ción.

Figura 5: Estructura de la información del CMI

Una iniciativa puede ser compartida por varios indicadores,

inclusive de diferentes objetivos o de diferentes perspectivas.

Esta puede ser de consideración general o específica, de un

área o de una unidad operativa en especial, lo que dependerá

de los recursos y decisiones de la organización.

LA JERARQUÍAÍÍ DEL MANEJO DE LOSINDICADORES EN EL CUADRO DEMANDO INTEGRAL

Para la revisión de los indicadores se debe considerar des-

de el cálculo de los valores de sus avances hasta los análisis

evolutivos y estadísticos que se puedan llevar a cabo para co-

rregir desaciertos o proponer mejoras. Para esta actividad se

deben tener determinados los niveles de responsabilidad de

acuerdo con la importancia de la información de cada indica-

dor. Esto requiere categorizar los indicadores, considerando

su importancia y alcance en la organización. Se puede utilizar

una pirámide de jerarquía de tres niveles, los cuales son:

Según donde se encuentren los orígenes de los indicadores,

sus valores fluirán de un lado a otro, debido a que varios de

ellos servirán de originadores o reforzadores de otros indica-

dores. Se procederá así hasta llegar, de forma consolidada, a

niveles mayores en la pirámide de jerarquía.

En la pirámide de jerarquía se pueden distinguir tres tipos de

indicadores de acuerdo con su uso dentro de la organización:

El indicador operativo. Surge de las labores cotidianas de

las áreas o grupos de trabajo técnico-operativos. Su utilidad

radica en controlar actividades propias de las áreas.

El indicador ejecutivo. Surge del seguimiento de los pro-

cesos o del conjunto de actividades relacionadas que in-

volucran áreas o grupos de trabajo diferentes. Su utilidad

radica en controlar actividades que involucran varias áreas

o unidades operativas, e, inclusive, procesos completos del

negocio.

El indicador gerencial. Surge de consolidar la informa-

ción obtenida del análisis de los dos tipos de indicadores

anteriores. Este indicador tiene estos usuarios principales:

directores, gerentes y jefes. Se utiliza para controlar el fun-

cionamiento general de la empresa aplicando cambios es-

tratégicos en actividades primarias de la organización.

Figura 6: Jerarquía del manejo de los indicadores del CMI

Los objetivos estratégicos de la empresa también deben ser re-

visados bajo los resultados de los indicadores relacionados con

cada uno. Sin embargo, esta revisión no será necesariamente

periódica. Es posible que, cuando se originen cambios estraté-

gicos en la empresa, se tenga que revisar los objetivos afecta-

dos para evaluar su permanencia, actualización o eliminación.

DESARROLLO DEL MODELO DE GES-TIÓN DEL CONOCIMIENTO

En esta etapa, la organización debe decidir formar un grupo de

trabajo con determinados profesionales del conocimiento para

que lleven a cabo este modelo con las siguientes actividades:

Determinar las primeras reglas de negocio. El modela-

miento comenzará describiendo las primeras reglas básicas

para los requerimientos, los cuales establecerán las condi-

ciones para los flujos de conocimiento que serán transmiti-

dos al universo de sistemas:

Page 60: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

133

Invest Apl Innov 3(2), 2009

VERA, Rafael. “Modelo de gestión del conocimiento”

inversiones

diferenciación

y laborales

La integración de la plataforma de conocimientos.

En esta parte, se presenta la plataforma de conocimien-

tos dividida en cuatro sectores correspondientes con las

perspectivas del CMI (Aprendizaje, Internos, Clientes y Fi-

nanzas). Cada uno es como una subplataforma, pero jun-

tos confluyen hacia las reglas de negocio compartidas,

donde el flujo de conocimientos es alineado para una

gestión de forma integrada.

Figura 7: Integración de la plataforma de conocimientos

Establecer temas estratégicos para las bases de cono-

cimiento. La conformación de las bases de conocimien-

tos implica considerar temas estratégicos que tienen

como finalidad llevar a cabo acciones que involucran

tendencias administrativas y tecnológicas actuales. Se

propone considerar los siguientes temas estratégicos, re-

lacionados con cada subplataforma descrita:

Combinando las relaciones presentadas entre los temas es-

tratégicos con la plataforma de conocimientos, y la platafor-

ma de conocimientos con las áreas funcionales, se formará la

armazón de aprendizaje para el desarrollo de los conocimien-

tos en la empresa.

Ensamblar la estructura del flujo de conocimientos.

Teniendo desarrollada la plataforma de conocimientos,

para completar la estructura del flujo de conocimientos,

la empresa, con fines prácticos, clasificó su universo de

sistemas en las siguientes agrupaciones:

Figura 8: Armazón para desarrollar el conocimiento

Como se mencionó anteriormente, los flujos de conocimientos

van de la plataforma de conocimientos a los sistemas, pasando

por las reglas de negocio. Luego de ser asimilados en los siste-

mas, continúa el ciclo proporcionando nuevos conocimientos

que van a las bases de conocimientos, y así se mantiene el ciclo

virtuoso. Finalmente, se tiene armada la estructura del flujo de

conocimientos del modelo.

Figura 9: Estructura del flujo de conocimientos

En esta parte se juntan

las motivaciones con las expectativas de cada integrante

de la empresa, asumiendo un compromiso con el proyecto

e interiorizando que su participación es importante para

concluir con éxito. Desde un inicio y durante todo el pro-

yecto, es necesario mantener en constante evaluación a los

avances con las premisas para definir las estrategias, lo que

ayudará a la toma de decisiones en el modelo. Cada inte-

grante comprometido con el negocio es como una neu-

rona, al cual tiene que llegarle el impulso eléctrico debido

para participar en la creación del nuevo conocimiento, y es

el grupo o conjunto el que hará realidad esto. Es necesario

Page 61: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

134

Invest Apl Innov 3(2), 2009

VERA, Rafael. “Modelo de gestión del conocimiento”

que, luego de entrar en producción el proyecto, se sigan

evaluando los elementos del modelo para su actualiza-

ción o enriquecimiento con nuevas reglas y nuevos co-

nocimientos. La integración de los elementos descritos

en este desarrollo proporcionará el modelo de gestión

del conocimiento de la solución.

Figura 10: Esquema del modelo de gestión del conocimiento

INTEGRACIÓN PARAPP LA ALL GESTIÓN DELALL CALIDAD A TRAVÉSVV DE LALL GES-TIÓN DEL CONOCIMIENTO

Para esta etapa se procede a la recopilación de los conoci-

mientos necesarios que están diseminados por toda la em-

presa. Luego, se pasa a la transcripción de los conocimientos

recopilados, tanto tácitos como explícitos, a documentos con

un formato estandarizado, para su tratamiento y almacena-

miento. Esta actividad se llevó a cabo con el inventariado de

la documentación correspondiente con lo dispuesto por las

normas del manejo de documentación del ISO 9001 versión

2000 que, en su cláusula 4.2.1, establece documentar y man-

tener el sistema de calidad como medio para asegurar que el

producto cumpla con los requisitos especificados. Contando

con esta base de conocimientos, producto del proceso de

documentación, se pasa a la implementación del cuadro de

mando integral donde se realiza una serie de entregables, los

cuales son productos del manejo de los conocimientos ya

formalizados.

La integración para el caso se establece con las relaciones de

los tres temas siguientes:

Las relaciones de la integración refuerzan mutuamente la

metodología del CMI con la gestión de la planificación y con

el sistema de calidad. Estas se llevan a cabo mediante el modelo

de gestión del conocimiento, cuya finalidad en esta etapa es

conseguir la determinación del valor en las actividades de la

empresa.

Figura 11: Esquema de la integración para la calidad

La determinación del valor organizacional se da en los grupos

de importancia de la organización. Las actividades de calidad

deben enfocarse en estos grupos y trabajar para satisfacer es-

tratégicamente los requerimientos y necesidades de cada uno

de ellos. Regularmente las organizaciones trabajan con cada

grupo de acuerdo con su rubro, sin descuidar ninguno de ellos.

Por ejemplo, para una empresa de telecomunicaciones podría

darse el siguiente orden:

En la integración para la calidad, mientras que las primeras re-

glas de negocio en la normativa ISO permiten describir correc-

tamente los procesos, es decir, le da a la empresa una orienta-

ción a los procesos, en el tablero de motivaciones de gestión

(TMG) se presenta la descripción de las reglas del negocio en la

parte de Diagramas de Guía (Políticas y Reglas de Negocio). En

la metodología del CMI, las principales reglas se encuentran en

relación con el control estricto de los indicadores. Esto requiere

que sean formulados de tal manera que se tengan que cumplir

con un valor que, como un semáforo, debe mantenerse dentro

de un rango positivo (verde), evitar caer en una zona de riesgo

(amarillo) y, sobre todo, evitar caer en la zona de peligro (rojo).

Page 62: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

135

Invest Apl Innov 3(2), 2009

VERA, Rafael. “Modelo de gestión del conocimiento”

Figura 12: Esquema de la determinación del valor

Como se indicó anteriormente, la principal base de conoci-

mientos que se considera en el proyecto es la del sistema de

calidad de ISO en que los flujos de conocimiento permitirán

que la organización pueda reproducir las mejores prácticas

en diferentes áreas, teniendo como fuente de conocimientos

esta base. Esto tiene relación con el bloque de iniciativas del

tablero de motivaciones de gestión (TMG) donde se desarro-

llan las estrategias y las tácticas para mejorar los procesos o

para corregir actividades de algún proceso afectado; es de-

cir, cuando un indicador relacionado se encuentra en la zona

amarilla o en la zona roja. En la metodología del CMI, se en-

cuentra la fase “realizar iniciativas de mejora” donde se listan

las iniciativas que surgen como soluciones a los problemas

encontrados.

La integración para la calidad está dirigida a lograr la determi-

nación del valor en la empresa. Ambos están relacionados me-

diante el modelo de gestión del conocimiento.

Los conocimientos de los aspectos significativos de cada grupo

de importancia están acumulados en bases de conocimiento

de la organización, de las cuales fluyen los conocimientos ha-

cia las áreas correspondientes para su utilización. Esto también

involucra el uso de las reglas de negocio para alinear los flujos

de conocimientos con las motivaciones de la empresa, consi-

derando los aspectos condicionantes y a veces cambiantes de

cada grupo de importancia.

RESULTADOLL S

Implementación de la solución

La presente solución se implementa como parte del desarrollo

del sistema de calidad para la certificación ISO de una empresa

de telecomunicaciones. En seguida, se presentan los formatos

de los entregables de la aplicación de la metodología del cua-

dro de mando integral, ordenados mediante sus cinco fases.

Además se describen, para cada fase, sus respectivas relaciones

con los otros dos temas:

Primera fase:

CMI - Definir el negocio

TDM - Motivaciones del negocio

ISO - Responsabilidad de la dirección

ENTREGABLE 1: Definición del negocio

ENTREGABLE 2: Diagrama de la unidad de trabajo

Figura 13: Esquema de la integración para la gestión de la calidad a través de la gestión del conocimiento

Page 63: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

136

Invest Apl Innov 3(2), 2009

VERA, Rafael. “Modelo de gestión del conocimiento”

Figura 14: Formato de entregable # 1 “Definición del negocio”

Figura 15: Formato de entregable # 2“Diagrama de la unidad de trabajo”

Segunda fase:

CMI - Realizar el análisis estratégico

TDM - Análisis FODA

ISO - Medición, análisis y mejoramiento

ENTREGABLE 3: Análisis interno

ENTREGABLE 4: Análisis externo

Tercera fase:

CMI - Elaborar la guía estratégica

TDM - Diagramas de guía

ISO - Responsabilidad de la dirección

ENTREGABLE 5: Síntesis estratégica

ENTREGABLE 6: Mapa estratégico

Cuarta fase:

CMI - Definir los objetivos e indicadores

TDM - Motivaciones de resultados

ISO - Medición, análisis y mejoramiento

ENTREGABLE 7: Matriz de selección de objetivos

ENTREGABLE 8: Ficha de indicador

Figura 16: Formato de entregable # 7“Matriz de selección de objetivos”

Quinta fase:

CMI - Definir las iniciativas

TDM - Iniciativas estratégicas

ISO - Medición, análisis y mejoramiento

ENTREGABLE 9: Relación de iniciativas

Figura 17: Formato de entregable # 8 “Ficha de indicador”

DESARROLLO DEL APLICATIVO DE LALLSOLUCIÓN

Análisis del aplicativo

La elaboración del aplicativo se comenzará con la recopilación

de los requerimientos de los futuros usuarios del aplicativo que

serán seleccionados y confrontados. Así, podemos decir que los

requerimientos corresponden a los siguientes cuatro puntos:

indicadores y ver la tendencia que presentan

-

dicadores de acuerdo con mejoras que se planteen

Page 64: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

137

Invest Apl Innov 3(2), 2009

VERA, Rafael. “Modelo de gestión del conocimiento”

redes corporativas

los indicadores correspondientes

Especificación del proceso (EP)

El flujo de la información en la organización tiene dos aspec-

tos importantes, que son determinados por:

Especificación del control (EC)

Es necesario tener un control del acceso a los valores de los

indicadores. La formalización, a través de la asignación de res-

ponsabilidades y accesos para la interrelación con el aplicati-

vo, tiene los siguientes derechos:

Descripción de objetos

El aplicativo tiene dos módulos básicos: Evolución y Estadística.

Estos módulos son propuestos para apoyar al análisis, pre-

sentando la evolución periódica del indicador y su compor-

tamiento estadístico.

Diseño del aplicativo

El modelo de diseño presenta cuatro etapas que, para su me-

jor manejo, pueden realizarse de forma consecutiva:

Figura 18: Transformación del modelo de análisis en uno de diseño

Diseño de datos. En esta etapa se trata de transformar el mo-

delo de la información creado durante el análisis en la estructu-

ra de datos necesario para implementar el aplicativo.

Diseño arquitectónico. Esta representación de la estructura

modular del programa se puede obtener del modelo de aná-

lisis y de la interacción de los subsistemas definidos dentro del

modelo del análisis. La siguiente figura presenta el diseño ar-

quitectónico del aplicativo.

Diseño de interfases. Ventanas de acceso y de consulta de in-

dicadores:

Figura 19: Página de consulta de indicadores

Ventanas de consultas para análisis:

Ventana de Reportes:

Diseño procedimental. En esta etapa se produce la transfor-

mación de los elementos estructurales del aplicativo en una

descripción procedimental de los componentes de software.

Curva de Control. Con los valores obtenidos de los avances del

indicador (recomendable con los últimos 7 periodos), se obtie-

nen la media y la desviación estándar con las cuales se deter-

minan la zona de control de 2Zigma; la holgura, que está dada

por la media más 2Zigma; el valor de delta, que es la diferencia

entre el límite A y la holgura; y el rendimiento, que es el porcen-

taje de cuántas veces 2Zigma hay en delta.

En la interfase de consulta de reportes se presentan tres tipos

de consultas:

Indicadores no actualizados, con más de 10 días de tolerancia

zona roja

Page 65: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

138

Invest Apl Innov 3(2), 2009

VERA, Rafael. “Modelo de gestión del conocimiento”

Indicadores que, estadísticamente, tienen que ser revisados

porque tienen una tendencia negativa o muy positiva, lo

que indica que no fueron correctamente dimensionados

Figura 20: Curva de control

Toda esta actividad también está sustentada en el modelo

de gestión del conocimiento, registrándose los nuevos cono-

cimientos surgidos en la documentación elaborada para el

sistema de calidad del ISO 9001 versión 2000.

CONCLUSIONES

El modelo de gestión del conocimiento presentado no tie-

ne la intención de ser un aplicativo más de la organización,

sino una forma de manejar los conocimientos en ella para

determinar el valor de las actividades del negocio.

-

porciona importantes beneficios a la empresa, entre los

cuales se pueden mencionar los siguientes:

– Las relaciones causa-efecto de las diferentes perspec-

tivas y el análisis de sus correspondientes indicadores

permiten identificar las acciones clave en la produc-

ción. Así, sobre la base de ello, se pueden eliminar los

“cuellos de botella” que retardan las operaciones en la

producción.

– El manejo de los indicadores erradicó el viejo para-

digma que afirmaba que las actividades, como las de

recursos humanos, no eran medibles y no contribuían

a generar valor a la organización. La contribución de

las personas a los grandes objetivos de la organización

está garantizada. Para ello, la empresa debe adoptar

estrategias en este tema y lograr transformar a las

personas del negocio en empleados capaces, hábiles,

versátiles, motivados, competentes, proactivos y com-

prometidos con la organización.

– La facilidad del seguimiento de los indicadores y su

contribución a la pronta toma de decisiones propor-

cionan eficacia y eficiencia al manejo de los procesos.

Esto se refleja en la satisfacción de los clientes y, con-

secuentemente, en una mejor situación financiera de la

empresa.

– Otra de las conclusiones expone que el CMI se presenta

como una herramienta que proporciona a los ejecutivos

información actual y les da la posibilidad de proyectar-

se para conseguir logros y evitar peligros en el ciclo de

vida de la empresa. Esta solución se sustenta en la inte-

ligencia de las personas que emplean estratégicamente

los sistemas y documentan sus acciones especiales, las

que al ser traducidas, interpretadas y analizadas se con-

vierten en conocimiento. Luego, este conocimiento es

almacenado en la base de conocimiento establecida, de

donde será transmitido para su uso en la empresa.

– El tablero de motivaciones de gestión se presenta como

un real reforzamiento a la aplicación de la solución. Es

como una interfaz interactiva que, sobre la base de las

primeras motivaciones del negocio (Misión, Visión), acti-

va los análisis de la situación actual y de los valores obte-

nidos (FODA y De Impacto). Luego, establece las políticas

y las reglas de negocio (Diagramas de Guía), lo que per-

mite realizar el seguimiento a las motivaciones de resul-

tados (Objetivos, Metas). Finalmente, sobre la base de los

conocimientos obtenidos del análisis de los indicadores,

se pueden aplicar las iniciativas estratégicas (Estrategias

y Tácticas) que permitirán lograr las metas establecidas,

asegurando así un control continuo y estratégico en la

disposición de obtener el valor agregado.

– La norma internacional ISO 9001 versión 2000, interre-

lacionada con el tablero de motivaciones y con la me-

todología del cuadro de mando integral, fortalece al

sistema de calidad, viabilizando el cumplimiento de las

cláusulas requeridas para la certificación de los proce-

sos de la empresa.

-

delo de gestión del conocimiento para ser adoptado por

cualquier organización con un proactivo modo de pensar.

REFERENCIAS

[1] SERVAT, Alexander. “Manual para documentar sistemas

de calidad [MPDSC]”. Editorial: Prentice Hall, 1era Edición,

2000, México

[2] SERVAT, Alexander. “Implantación estratégica del ISO 9001

versión 2000 [IMEDI]”. Editorial: Centrum, 1era Edición, 2003,

Lima – Perú

Page 66: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

139

Invest Apl Innov 3(2), 2009

VERA, Rafael. “Modelo de gestión del conocimiento”

[3] ALONSO BETANZOS, Amparo. “Ingeniería del conoci-

miento, aspectos metodológicos [IDCAM]”. Madrid – Es-

paña: Editorial: Prentice Hall, 1era Edición, 2004.

[4] ARGYRIS, Chris. “Sobre el aprendizaje organizacional

[SEAOR]”. México D.F.: Editorial: Oxford, 1era Edición,

2001.

[5] CHUN WEI CHOO. “La organización inteligente [LORIN]”

México D.F.: Editorial: Oxford, 1era Edición, 2000

[6] COHEN , Daniel y ASIN , Enrique. “Sistemas de informa-

ción para los negocios [SIPLN]”. México D.F.: Editorial: Mc-

Graw Hill, 3era Edición, 2000,

[7] MITNTZBERG, Henry. “El proceso estratégico [EPRES]”.

México: Editorial: Pearson, 1era Edición, 2000

[8] KUME, Hitoshi. “Herramientas estadísticas básicas para

el mejoramiento de la calidad [HEBMC]”. Bogotá – Co-

lombia: Editorial: Norma, 1era Edición, 2002

[9] A. O´BRIEN, JAMES. “Sistemas de información gerencial

[SIGR2]”. Bogotá – Colombia: Editorial: Mc Graw Hill, 4ta

Edición, 2001

[10] JERRY HONEYCUTT. “Así es la gestión del conocimiento

de Microsoft [AELGC]”

Editorial: McGraw Hill, 1era Edición, 2001, Madrid – España

[11] KOTTER , John P. “Las nuevas reglas de los negocios

[NRELN]”. México: Editorial: Prentice Hall, 1era Edición,

2000

[12] TARZIJÁN M. , Jorge. “Organización industrial para la es-

trategia empresarial [OIPEE]”. Buenos Aires – Argentina:

Editorial: Prentice Hall, 1era Edición, 2001

[13] VIEDMA MARTÍ, José María. “La gestión del conocimienÍ -

to y del capital intelectual [GCYCI]”. Cataluña – España:

Editorial: UPC, 1era Edición, 2001

[14] DAVIS, Keith y NEWSTROM, John. “Comportamiento hu-

mano en el trabajo [CHEET]”. México D.F.: Editorial: Mc” -

Graw Hill, 10ma Edición, 2000

[15] LAUDON, Kenneth C. y LAUDON, JANE P. “Sistemas de

información gerencial [SIGR1]”. México: Editorial: Pear-

son, 8va Edición, 2004

[16] BUCKINGHAM, Marcus & COFFMAN, Curt. “Primero, rom-

pa todas las reglas [PRTLR]”. Bogotá – Colombia: Edito” -

rial: Norma, 1era Edición, 2000

[17] NILSSON, Nils J. “Inteligencia artificial, una nueva síntesis

[IAUNS]”. Madrid - España: Editorial: McGraw Hill, 1era Edi-

ción, 2001

[18] DRUCKER, Peter F. “La gerencia en la sociedad del futuro

[LGESF]”. Bogotá - Colombia: Editorial: Norma, 1era Edi-

ción, 2002

[19] DRUCKER, Peter F. “La administración, la organización ba-

sada en la información, la economía, la sociedad [AOIES]”

Bogotá - Colombia: Editorial: Norma, 1era Edición, 1996,

[20] SENGE, Peter. “La danza del cambio [LDZDC]”. Bogotá -

Colombia: Editorial: Norma, 1era Edición, 2000

[21] KAPLAN, Robert S. y NORTON, David P. “Cómo utilizar el

cuadro de mando integral [CUCMI]”. Barcelona - España:

Editorial: Gestión 2000, 2001

[22] CARBALLO, Roberto. “Innovación y gestión del conoci-

miento [IYGDC]”. España: Editorial: Díaz de Santos, 1era

Edición, 2006

[23] SHEPARD, STEVEN. “Convergencia de las telecomunica-

ciones [CDLTL]”. Madrid - España: Editorial: McGraw Hill,

1era Edición, 2002

[24] THE BUSINESS RULES GROUP. www.businessrulesgroup.org

“Organizing business plans [SMBRM]”. Estados Unidos: Edi-

torial: Propia, 1era Edición, 2001

[25] VON KROGH, ICHIJO y NONAKA. “Facilitar la creación de

conocimiento [FLCDC]”. México D.F.: Editorial: Oxford, 1era

Edición, 2000

[26] GATES, William H. “Los negocios en la era digital [LNEDI]”

Barcelona - España: Editorial: Plaza & Janes, 1era Edición,

2000

ACERCA DEL AUTORL

Candidato a Doctor en Administra-

ción. Máster en Ciencias en Sistemas

de Información e Ingeniero Electri-

cista. Especialista en optimización y

sistematización de procesos con apli-

cación de metodologías de gestión y

transferencia de conocimientos. Ac-

tualmente, responsable del laborato-

rio de electricidad del Departamento

de Electrotecnia de Tecsup. Miembro de la IEEE y del CIP.

Page 67: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

140

Invest Apl Innov 3(2), 2009

Roberto Ramírez Otárola

Efecto del bicarbonato de sodio y del aceite vegetalsobre las epidemias de en

pepinillo y en tomate.

Effect of sodium bicarbonate and vegetal oil on thecontrol of in cucumber and

in tomato.

RESUMEN

Fueron conducidos dos ensayos en un campo experimental

agrícola ubicado en Sao Paulo, Brasil. Se utilizó un diseño es-

tadístico de Bloques Completamente al Azar con 4 repeticio-

nes.

En el primer ensayo, el objetivo fue evaluar la eficiencia de

aplicaciones semanales de bicarbonato de sodio (5, 10 y 15

g/l), comparados con el ingrediente activo benomyl (0,5 g/l),

para el control del hongo Leandria momordicae y su efecto

en el rendimiento del pepinillo híbrido Premier. Se realizaron

5 evaluaciones de la severidad de la enfermedad, las cuales

se iniciaron 28 días después del transplante, siendo repetidas

cada 14 días. Se determinaron las curvas de desarrollo epi-

demiológico de la enfermedad y la productividad del cultivo

en cada tratamiento. Se concluyó que: a) la cuarta hoja de las

plantas es la mas adecuada para el estudio epidemiológico

de esta enfermedad; b) el benomyl disminuye la tasa de de-

sarrollo epidemiológico de la enfermedad; c) el bicarbonato

de sodio no afectó significativamente la tasa de desarrollo de

la enfermedad, aun cuando a dosis de 10 g/l proporcionó un

aumento significativo del rendimiento del cultivo, equivalen-

te al del benomyl .

En el segundo ensayo, el objetivo fue evaluar la eficiencia

de aplicaciones semanales de bicarbonato de sodio (10 g/l),

Natural Oil - aceite vegetal de uso agrícola (10 ml/l) y el in-

grediente activo iprodione (0,75 g/l), aplicados aisladamente

ó en combinaciones de a dos productos, para el control del

hongo Alternaria solani y su efecto en el rendimiento del toi -

mate Jumbo AG-592. Se realizaron 5 evaluaciones de la severi-

dad de la enfermedad, las cuales se iniciaron 39 días después

del transplante, siendo repetidas cada 14 días inicialmente y

luego cada 7 días. Se determinaron las curvas de desarrollo epi-

demiológico de la enfermedad y la productividad del cultivo

en cada tratamiento. Se concluyó que: a) la quinta hoja de las

plantas es la mas adecuada para el estudio epidemiológico de

esta enfermedad; b) el iprodione presentó efecto positivo en el

control del patógeno en estudio cuando fue aplicado solo o en

combinación con bicarbontato de sodio o aceite vegetal; c) no

se encontraron diferencias estadísticas significativas en el con-

trol de Alternaria entre aplicaciones de Iprodione ó bicarbona-

to de sodio aplicados aisladamente; d) la mayor productividad

y número de frutos se obtuvo con los tratamientos: bicarbona-

to de sodio, iprodione y aceite vegetal + iprodione.

Abstract

Two experiments were carried out under field conditions in

Sao Paulo State, Brazil. The statistical design was randomized

blocks, replicated four times.

In the first experiment, the efficiency of different levels of so-

dium bicarbonate (0,5, 1 and 1,5 %) compared with benomyl

(0.05%), sprayed weekly, on the control of cucumber net spot

(Leandria momordicae) , were studied on cucumber cv Premier.

The disease severity was rated, five times, at 14 days interval

which, started 28 days after the transplanting date, and the epi-

demiological development curves were determined. The Fruit

yield of each experimental plot was also evaluated. The results

showed that the evaluation of the disease severity in the fourth

leandria momordicaealternaria solani

Page 68: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

141

Invest Apl Innov 3(2), 2009

RAMÍREZ, Roberto. “Efecto del bicarbonato de sodio y del aceite vegetal sobre las epidemias de leandria momordicae en pepinillo y alternaria solani en tomate”

leaf were more adequate for studying the cucumber net spot

epidemics. Disease severity was lower in benomyl treatment.

The highest fruit yields were obtained with the treatments

benomyl and sodium bicarbonate (1 %), with no statistical di-

fferences among them.

In the second experiment, the efficiency of sodium bicarbo-

nate (1 %), Natural Vegetable oil (1 %) and iprodione (0,075

%), sprayed weekly alone or in combination of two, on the

control of tomato early blight (Alternaria solani(( ) , were studied

on tomato cv Jumbo AG-592. Disease severity was rated at 14

days interval (the first five) or 7 days interval (the last two eva-

luations), which started 39 days after transplanting date, and

the epidemiological development curves were determined.

The Fruit yield of each experimental plot was also evaluated.

The results showed that the evaluation of the disease severity

in the fifth leaf were more adequate for studying the tomato

early blight epidemics. Iprodione plus sodium bicarbonate or

vegetable oil provided better disease control. Iprodione and

sodium bicarbonate provided also efficient control, although

with no statistical differences among them. Sodium bicarbo-

nate, iprodione and vegetable oil plus iprodione resulted in

the highest yield and fruit number.

Palabras clave

Leandria momordicae, Alternaria solani, fungicidas agrícolas

de baja toxicidad, bicarbonato de sodio, aceite vegetal.

Key words

Leandria momordicae, Alternaria solani, low toxicity agricultu-

re fungicides, sodium bicarbonate, vegetable oil.

INTRODUCCIÓN

Los cultivos hortícolas son exigentes en altas inversiones,

siendo el alto consumo de pesticidas un componente muy

importante del costo de producción de los mismos. Estas

aplicaciones de pesticidas pueden originar consecuencias

dañinas para el ambiente, para el consumidor y para los apli-

cadores de pesticidas. Por ejemplo, en el cultivo del tomate

en Brasil, la tasa de consumo de fungicidas fue reportada en

23,3 kg/ha campaña; el mayor valor de consumo entre todos

los cultivos producidos en el país [6].

Investigaciones recientes han demostrado que es posible la

reducción de esos consumos de modo significativo median-

te la implementación de programas de Manejo Integrado de

Plagas, sin disminuir los rendimientos ni perjudicar la apa-

riencia de los productos cosechados [7], [4].

En la horticultura alternativa, así como en la convencional, exis-

te una preocupación por generar alternativas que permitan la

reducción de los fungicidas convencionales. Una línea de inves-

tigación busca la utilización de productos biocompatibles (bi-

carbonatos y aceites) [2], [8] como los fungicidas. Tales produc-

tos, debido a su baja toxicidad en mamíferos y su mínimo daño

ambiental, son una alternativa muy interesante en el control de

enfermedades en hortalizas.

El presente estudio fue realizado con el objetivo de evaluar, en

condiciones de infección natural, el efecto del bicarbonato de

sodio en el desarrollo del hongo Leandria momordicae en pe-

pinillo (Cucumis sativus L.), y del bicarbonato de sodio y aceite

vegetal en el desarrollo del hongo Alternaria solani en tomatei

(Lycopersicon esculentum Mill). Adicionalmente, otro objetivo

fue evaluar el efecto de las enfermedades sobre el rendimiento

de dichos cultivos.

FUNDAMENTOS

Como método de control de enfermedades de plantas, se ha

utilizado exclusivamente fungicidas, a pesar de sus problemas

de contaminación, generación de resistencia y costos elevados.

Actualmente, existe una corriente de investigación que busca

identificar tecnologías de producción ecológicamente mas

adecuadas. En esta línea, el uso de bicarbonatos y aceites se ha

tornado en una alternativa interesante para el control de en-

fermedades fungosas. Los bicarbonatos no son eficientes como

tratamiento de prevención de hongos. Su acción es fungicida al

contacto directo con los patógenos, inhibiendo la formación y

germinación de conidias de diferentes hongos [2], [8].

Varios polímeros (aceites vegetales, aceites minerales, antitrans-

pirantes, ceras y siliconas), han sido utilizados como barrera na-

tural sobre la superficie de las hojas contra la penetración del

tubo germinativo de ciertos hongos patogénicos. Estos polí-

meros no son fitotóxicos, son permeables a gases y biodegra-

dables; pudiendo inclusive ser utilizados en combinación con

fungicidas convencionales. Existen reportes de mejora de la efi-

ciencia en el control de los hongos Alternaria solani y i Septoria

lycopersici en tomate, mediante el uso del antitranspirante GZMi

combinado con el fungicida Carbendazim [1].

La eficiencia fungicida del bicarbonato de sodio y ciertos acei-

tes aumentó cuando estos productos fueron usados en combi-

nación, debido al incremento de la adherencia del ión bicarbo-

nato en las hojas [2], [8].

Por otro lado, el Leandria momordicae en pepinillo y el Alter-

naria solani en tomate son dos patógenos que causan muy i

Page 69: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

142

Invest Apl Innov 3(2), 2009

RAMÍREZ, Roberto. “Efecto del bicarbonato de sodio y del aceite vegetal sobre las epidemias de leandria momordicae en pepinillo y alternaria solani en tomate”

importantes pérdidas, principalmente en el Brasil. El control

convencional de estas enfermedades no es eficiente, pues

ocasionan pérdidas de cosecha superiores al 50% [3].

PROCEDIMIENTO

Los dos experimentos (uno con pepinillo y otro con tomate)

fueron conducidos en condiciones de campo experimental

agrícola ubicado en Jaboticabal, Estado de Sao Paulo, Brasil

(21° 45´ 20” de latitud sur y 48° 45´ 58” de longitud oeste). El

clima de la región, conforme a la Clasificación de Köpen es

de tipo Cwa subtropical, con lluvias de verano, presentando

precipitación media anual de 1400 mm y temperatura media

anual de 22°C.

El suelo del campo experimental es un Latosol Rojo Oscuro –

fase arenosa. Los resultados del análisis químico de suelos a

20 cm de profundidad muestran una alta fertilidad (Tabla 1)

Experimento 1: Efecto del bicarbonato de sodio sobre la

epidemia de Leandria momordicae en pepinillo.

Se utilizó el pepinillo híbrido Premier, altamente susceptible

a Leandria momordicae, pero resistente al resto de enferme-

dades fungosas. Se utilizaron plantines de 12 dias de edad en

vivero. La fertilización del suelo fue 220- 400- 240 kg/ha de N,

P2O5 y K2O respectivamente, de acuerdo a los requerimientos

resultantes del análisis de suelos.

Los tratamientos fueron:

1 Testigo

2 Benomyl (0,5 g/l)

3 Bicarbonato de sodio (5 g/l)

4 Bicarbonato de sodio (10 g/l)

5 Bicarbonato de sodio (15 g/l)

Desde el día 22 luego del transplante, las plantas fueron trata-

das semanalmente, hasta completar 9 aplicaciones.

Los 5 tratamientos fueron distribuidos en un diseño de Bloques

Completamente al Azar con 4 repeticiones, totalizando 20 par-

celas. Cada parcela estuvo constituida por 40 plantas.

Para determinar la evolución de la enfermedad, se hicieron 5

evaluaciones. Estas se iniciaron 28 días después del transplante

y fueron repetidas cada 14 días. Las evaluaciones fueron basa-

das en el porcentaje del área foliar afectada (escala de notas

del 1 a 6), de acuerdo con la metodología desarrollada para el

cultivo de la papa [6].

Durante la cosecha, las dos hileras centrales de cada parce-

la fueron usadas para la determinación de la producción, así

como número y peso promedio de frutos comerciales.

Figura 1. Escala diagramática: 0 %, 2,5 %, 12 %, 25 %, 50 % y mas de 50 %

de área foliar lesionada por Leandria momordicae, que corresponden a

los índices de severidad de la enfermedad 1, 2, 3, 4, 5 y 6. [1].

Experi-mento

P resina M.O. pH em K Ca Mg H + Al SB T V

mg. dm-3

g.dm-3 Cacl2 mmolc.dm-3 %

1. Pepi-

nillo100 34 6,0 5,3 47 23 25 75 100 75

2. Tomate 66 32 5,9 3,1 80 25 10 11 118 92

Tabla 1. Resultado del análisis químico del suelo experimental. Jaboticabal, Sao Paulo.

Page 70: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

143

Invest Apl Innov 3(2), 2009

RAMÍREZ, Roberto. “Efecto del bicarbonato de sodio y del aceite vegetal sobre las epidemias de leandria momordicae en pepinillo y alternaria solani en tomate”

Experimento 2: Efecto del bicarbonato de sodio y aceite

vegetal sobre la epidemia de Alternaria solani en tomate.i

Se utilizó el tomate cultivar Jumbo AG-592, que presenta

plantas de crecimiento indeterminado para consumo fresco.

Este cultivar es altamente susceptible a Alternaria solani, pero

resistente al resto de enfermedades fungosas. Se utilizaron

plantines de 32 días de edad en vivero. La fertilización del

suelo fue 200 - 400 - 240 kg/ha de N, P2O5 y K2O respectiva-

mente, de acuerdo a los requerimientos resultantes del aná-

lisis de suelos.

Los tratamientos fueron:

1 Testigo

2 Iprodione (0,75 g/l)

3 Bicarbonato de sodio (10 g/l)

4 Aceite vegetal (10 ml/l)

5 Bicarbonato de sodio (10 g/l) + aceite vegetal (10 ml/l)

6 Bicarbonato de sodio (10 g/l) + Iprodione (0,75 g/l)

7 Aceite vegetal (10 ml/l) + Iprodione (0,75 g/l)

El aceite vegetal usado fue Natural Oil (Arbole Agrícola y Co-

mercio Ltda.)

Desde el día 12 luego del transplante, las plantas fueron tra-

tadas semanalmente, hasta completar 12 aplicaciones.

Los 7 tratamientos fueron distribuidos en un diseño de Blo-

ques Completamente al Azar con 4 repeticiones, totalizando

28 parcelas. Cada parcela estuvo constituida por 40 plantas.

Para determinar la evolución de la enfermedad, se hicieron

7 evaluaciones. Estas se iniciaron 39 días después del trans-

plante y fueron repetidas cada 14 días (las 5 primeras) o cada

7 días (las 2 últimas). Las evaluaciones fueron basadas en el

porcentaje del área foliar afectada (escala de notas de 1 a 5),

de acuerdo con la metodología desarrollada para el cultivo

del tomate [5].

Durante la cosecha, las dos hileras centrales de cada parce-

la fueron usadas para la determinación de la producción, así

como el número y peso promedio de los frutos comerciales.

Análisis epidemiológico

Se realizó un análisis de regresión lineal en cada ensayo, con-

siderando los datos originales y la transformación logística,

del modo siguiente:

Datos originales (x)

Transformación logística = ln (x/(1-x));

Los datos originales fueron transformados en valores mayores a

0 y menores a 1 (proporción de enfermedad)

Para cada hoja evaluada (3 en pepinillo y 4 en tomate), cada

transformación (2) y cada tratamiento (5 en pepinillo y 7 en to-

mate) se determinó una ecuación de recta con la forma:

x = a + bt

Donde:

x = proporción de la enfermedad

a = cantidad de inóculo inicial

b = tasa aparente de infección

t = tiempo desde el inicio de la enfermedad

Figura 2. Escala diagramática: 0 %, 2,5 %, 12 %, 25 % y 50 % de área foliar

lesionada por Alternaria solani, que corresponden a los índices de severi-

dad de la enfermedad 1, 2, 3, 4 y 5. [5].

Page 71: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

144

Invest Apl Innov 3(2), 2009

RESULTADOLL S

A. Efecto de los métodos de control enla severidad de las enfermedades

Pepinillo

En pepinillo, los mayores valores de R2 fueron obtenidos me-

diante la determinación de la severidad de la enfermedad

en la cuarta hoja a partir del ápice de la planta. Se considera

entonces a esta hoja como la más adecuada para el estudio

epidemiológico de Leandria momordicae (Tabla 2)

Valores de Coeficientes de determinación de las ecuaciones de las curvas epidemiológicas obtenidas evaluando la cantidad de enfermedad a través de la

severidad de la misma

Tratamiento N.° Hoja Log i t

R*2

Testigo 4 0,919

5 0,917

6 0,916

Benomyl 4 0,837

(0,5 g/L) 5 0,810

6 0,890

Bicarbonato de

Sodio4 0,951

(5 g /L) 5 0,948

6 0,930

Bicarbonato de

Sodio4 0,953

(10 g /L) 5 0,941

6 0,936

Bicarbonato de

Sodio4 0,944

(15 g /L) 5 0,936

6 0,929

Promedio de 4°

hoja0,921

Promedio de 5°

hoja0,910

Promedio de 6°

hoja0,920

Promedio General 0,917

Tabla 2: Determinación de la hoja mas adecuada para el estudio epide-

miológico de Leandria momordicae

De acuerdo a los datos de la Tabla 3, se encuentran diferencias

significativas entre los valores de B para todos los métodos de

control cuando fueron comparados con el Benomyl (0,5 g/l), el

cual tuvo el menor valor de B del ensayo. Se concluye que el

Benomyl influye significativamente en la disminución del desa-

rrollo del hongo en comparación con el resto de tratamientos.

Entre las dosis de bicarbonato de sodio la de 10 g/l mostró el

menor valor de B.

Tratamiento

Ecuación / curva

Valores de los Parámetros Estadísticos

Epidemio-lógica

F p/ reg. L in R

TestigoY = -2,8412 +

0,1399 x54,95** 0,868

Benomyl (0,5

g/L)

Y = -1,7230 +

0,0292 x68,34** 0,890

Bicarbonato

de Sodio (5

g/L)

Y = -2,8327 +

0,1267 x45,01** 0,845

Bicarbonato

de Sodio (10

g/L)

Y = -2,8415 +

0,1257 x44,18** 0,843

Bicarbonato

de Sodio (15

g/L)

Y = -2,8357 +

0,1299 x57,05** 0,872

** significativo a nivel de 1% de probabilidad

Tabla 3: Efecto de los diferentes métodos de control en la curva epidemio-

lógica de Leandria momordicae

Tomate

En tomate, los mayores valores de R2 fueron obtenidos me-

diante la determinación de la severidad de la enfermedad en la

quinta hoja a partir del ápice de la planta. Se considera enton-

ces a esta hoja como la mas adecuada para el estudio epide-

miológico de Alternaria solani (Tabla 4).i

Valores de Coeficientes de determinación de las ecuacio-nes de las curvas epidemiológicas obtenidas evaluando la cantidad de enfermedad a través de la severidad de la

misma

Tratamiento N° Hoja Log i t

R*2

Testigo 4 0,965

5 0,955

6 0,950

7 0,944

Iprodione 4 0,947

(0,75 g/l) 5 0,939

RAMÍREZ, Roberto. “Efecto del bicarbonato de sodio y del aceite vegetal sobre las epidemias de leandria momordicae en pepinillo y alternaria solani en tomate”

Page 72: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

145

Invest Apl Innov 3(2), 2009

6 0,966

7 0,960

Bicarbonato de

Sodio4 0,962

(10 g /l) 5 0,972

6 0,949

7 0,945

Aceite vegetal 4 0,962

(10 ml /l) 5 0,954

6 0,940

7 0,930

Bicarbonato de

Sodio4 0,911

(10 g /l) + aceite

vegetal (10 ml/l)5 0,947

6 0,903

7 0,911

Bicarbonato de

Sodio4 0,839

(10 g /l) + Iprodio-

ne (0,75 g/l)5 0,900

6 0,930

7 0,951

Aceite vegetal (10

ml/l) + 4 0,952

Iprodione

(0,75 g/l)5 0,958

6 0,940

7 0,958

Promedio 4° hoja 0,934

Promedio 5° hoja 0,946

Promedio 6° hoja 0,940

Promedio 7° hoja 0,943

Promedio General 0,941

Tabla 4: Determinación de la hoja mas adecuada para el estudio epide-

miológico de Alternaria solani

De acuerdo a los datos de la Tabla 5, los valores de B muestran

que los tratamientos 6 (bicarbonato de sodio 10 g/l + Ipro-

dione 0,75 g/l); 7 (aceite vegetal 10 ml/l + Iprodione 0,75 g/l)

y 2 (Iprodione 0,75 g/l) no tuvieron diferencias significativas

entre si presentando los menores valores de B. Se constató

el efecto positivo del Iprodione y el bicarbonato de sodio en el

control del patógeno.

Tratamiento

Ecuación / curva

Valores de los Parámetros Estadísticos

Epidemioló-gica

F p/ reg. L in R

TestigoY = -2,8449 +

0,1015 x63,91** 0,843

Iprodione

(0,75 g/l)

Y = -2,2974 +

0,0666 x43,65** 0,792

Bicarbonato

de Sodio

(10g/l)

Y = -2,6772 +

0,0893 x61,95** 0,839

Aceite vege-

tal (10 ml/l)

Y = -2,8439 +

0,1012 x63,98** 0,843

Bicarbonato

de Sodio

(10g/l) +

aceite vege-

tal (10ml/l)

Y = -2,9056 +

0,1060 x64.48** 0,844

Bicarbonato

de Sodio

(10g/l) +

Iprodione

(0,75 g/l)

Y = -2,0911 +

0,0567 x47,79** 0,805

Aceite vege-

tal (10 ml/l)

+ Iprodione

(0,75g/l)

Y = -1,9429 +

0,0490 x123,70** 0,909

** significativo a nivel de 1% de probabilidad

Tabla 5: Efecto de los diferentes métodos de control en la curva epidemio-

lógica de Alternaria solani

B. Efecto de los métodos de control en la producción de los cultivos

Pepinillo

La producción de frutos comerciales de pepinillo fue signi-

ficativamente afectada por el método de control de Leandria

momordicae (Figura 3). El producto Benomyl fue el que propor-

cionó mejor resultado de control, aun sin mostrar diferencias

significativas en relación al control con bicarbonato de sodio

(10 g/l). La mejor dosis de este producto alternativo fue de 10

g/l, que fue la única dosis significativamente superior en pro-

ductividad (38 %) en relación al tratamiento testigo.

La dosis de 15 g/l de bicarbonato produjo una disminución en

el rendimiento del cultivo, lo cual podría deberse al efecto fito-

tóxico de dicha dosis.

RAMÍREZ, Roberto. “Efecto del bicarbonato de sodio y del aceite vegetal sobre las epidemias de leandria momordicae en pepinillo y alternaria solani en tomate”

Page 73: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

146

Invest Apl Innov 3(2), 2009

Benomyl fue significativamente superior en número de frutos

comerciales. Entre los tratamientos con bicarbonato, la dosis

de 10 g/l produjo mayor número de frutos.

Figura 3: Efecto de los diferentes métodos de control de Leandria mo-

mordicae en la producción de frutos comerciales en pepinillo

El peso promedio de los frutos comerciales, no fue afectado

por el método de control utilizado (Tabla 6).

Tratamiento

Frutos Comerciales

Número (milla-res/ha)

Peso Promedio (g)

Testigo 105,5 b 147,5 a

Benomyl (0,5 g/l) 180,5 a 150,0 a

Bicarbonato de

Sodio (5 g/l)110,0 b 142,5 a

Bicarbonato de

Sodio (10 g/l)140,0 b 152,5 a

Bicarbonato de

Sodio (15 g/l)119,0 b 152,5 a

D.M.S. (5%) 1,64 0,19

C.V. 6,41 5,62

Tabla 6: Efecto de los diferentes métodos de control de Leandria mo-

mordicae en el número y peso medio de frutos comerciales de pepinillo

Tomate

La producción de frutos comerciales de tomate no fue signi-

ficativamente afectada por los métodos de control de Alter-

naria solani (Figura 4). Los tratamientos que mostraron la mai -

yor eficiencia en el control del desarrollo de la enfermedad

(bicarbonato de sodio, iprodione, aceite vegetal + iprodione,

bicarbonato de sodio + iprodione), fueron los mismos que

generaron los mayores rendimientos. El bicarbonato de sodio

aumentó 36% la producción, al ser comparado con el testigo.

Este resultado sugiere que esta sustancia es promisoria para

el control de la enfermedad, de modo que se sugiere realizar

nuevos estudios.

No se encontró efecto positivo del bicarbonato de sodio ó del

aceite vegetal en el rendimiento, al ser mezclados con iprodio-

ne. El aceite vegetal no mostró eficiencia en el control de la en-

fermedad.

El peso promedio de los frutos comerciales, no fue afectado por

el método de control utilizado (Tabla 7).

El mayor número de frutos comerciales se constató en los tra-

tamientos que mostraron las mayores producciones, pero sin

existir diferencias significativas.

Figura 4: Efecto de los diferentes métodos de control de Alternaria solani

momordicae en la producción de frutos comerciales de tomate

Tratamiento

Frutos Comerciales

Número (milla-res/ha)

Peso Promedio (g)

Testigo 496,0 a 100 a

Iprodione (0,75g/l) 667,0 a 110 a

Bicarbonato de

Sodio (10 g/l)662,0 a 110 a

Aceite vegetal (10

ml/l)553,0 a 100 a

Bicarbonato de So-

dio (10 g/l) + Aceite

vegetal (10ml/l)

505,0 a 100 a

Bicarbonato de

Sodio (10 g/l) +

Iprodione (0,75 g/l)

605,8 a 110 a

Aceite Vegetal

(10ml/l) + Iprodio-

ne (0,75g/l)

684,0 a 100 a

D.M.S. (5%) 241,61 10,00

C.V. 17,36 5,71

Tabla 7: Efecto de los diferentes métodos de control de Alternaria solani

en el número y peso medio de frutos comerciales de tomate

RAMÍREZ, Roberto. “Efecto del bicarbonato de sodio y del aceite vegetal sobre las epidemias de leandria momordicae en pepinillo y alternaria solani en tomate”

Page 74: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

147

Invest Apl Innov 3(2), 2009

CONCLUSIONES

Los dos ensayos permitieron concluir lo siguiente:

cuarta hoja de la planta de pepinillo fue mas adecuada

para el estudio epidemiológico de Leandria momordicae.

la quinta hoja de la planta de tomate fue mas adecuada

para el estudio epidemiológico de Alternaria solani.

de Leandria momordicae, mientras que el bicarbonato de

sodio no afectó significativamente el desarrollo de dicho

patógeno.

entre bicarbonato de sodio e iprodione en el control de

Alternaria solani en tomate.i

producción y número de frutos comerciales en pepinillo

significativamente superiores al testigo.

-

dione proporcionaron los mejores rendimientos y núme-

ro de frutos en tomate.

REFERENCIAS

[1] HAN, JS (1990). “Use of antitranspirants epidermal coa, -

tings for plant protection in China”. Plant Disease, (74) (4),

263-266

[2] HORST RK, T KAWAMOTO SO, Potter LL. (1992). “Effect of

sodium bicarbonate and oils on the control of powdery

mildew and black spots in roses”. Plant Disease, (76) (3),

247-251

[3] JONES JB, JONES JP, STALL RE, ZITTER TA. (2001). Plagas y

Enfermedades del Tomate (2a. ed.) Madrid: Mundiprensa.

[4] JONES JP (1991). Early blight. En JB Jones, JP Jones (Ed).

Compedium of tomato diseases. Saint Paul: The American

Phytopathological Society.

[5] KONNO YT. (1990). Efetividade de fungicidas in vitro a

através de técnicas de aplicacao em cultivares de tomatei-

ro no controle de Alternaria solani. Jaboticabal Sao Paulo:

Faculdade de Ciencias Agrarias e Veterinarias.

[6] REIFSCHNEIDER FJB, LOPES CA, COBBE RV. (1989). Manejo

integrado das doencas. Circular Técnica de CNPHortalicas,

(7), 1-15.

[7] University of California. Statewide Integrated Pest Mana-

gement Project. (1998). Integrated Pest Management for

Tomatoes (4a. ed.) Oakland: University of California Publi-

cation Services.

[8] Ziv O, Zitter TA (1992). “Effects of bicarbonates and films

forming polymers on cucurbit foliar diseases”. Plant Disea-

se, (76) (5), 513-517

ACERCA DEL AUTORL

Roberto Ramírez Otárola Sarmiento es

Ingeniero Agrónomo, con maestría en

Producción Vegetal por la Universida-

de Estadual Paulista, Sao Paulo, Brasil.

Varios años de su vida profesional se

han desarrollado en actividades de

producción agrícola en condiciones

desérticas vinculado a empresas de

agroexportación.

Actualmente se desempeña como Director de Tecsup Trujillo.

RAMÍREZ, Roberto. “Efecto del bicarbonato de sodio y del aceite vegetal sobre las epidemias de leandria momordicae en pepinillo y alternaria solani en tomate”

Page 75: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

Lima: Av. Cascanueces 2221 Santa Anita. Lima 43, Perú

Publicación SemestralTecsup se reserva todos losderechos legales de reproduccióndel contenido, sin embargo autorizala reproducción total o parcial para fines didácticos, siempre y cuandose cite la fuente.

Page 76: I+i Investigación aplicada e innovación. Volumen 3 - Nº 2 / Segundo Semestre 2009

Campus ArequipaUrb. Monterrey Lote D-8 José Luis Bustamante y Rivero. Arequipa, PerúT: (54)426610 - F: (54)426654MAIL: [email protected]

Campus LimaAv. Cascanueces 2221 Santa Anita. Lima 43, PerúT: (51)317-3900 - F: (51-1)317-3901MAIL: [email protected]

Campus Trujillo:Via de Evitamiento s/n Victor Larco Herrera. Trujillo, PerúT: (44)60-7800 - F: (44)60-7821MAIL: [email protected]

www.tecsup.edu.pe