LIBRO DE RESÚMENES · Metodología para la detección de vulnerabilidades a través de pruebas de...

181
ENCUENTRO NACIONAL DE SEMILLEROS DE INVESTIGACIÓN DE FACULTADES DE INGENIERÍA DE TELECOMUNICACIONES LIBRO DE RESÚMENES Número II

Transcript of LIBRO DE RESÚMENES · Metodología para la detección de vulnerabilidades a través de pruebas de...

ENCUENTRO NACIONAL DE SEMILLEROS DE

INVESTIGACIÓN DE FACULTADES DE INGENIERÍA DE

TELECOMUNICACIONES

LIBRO DE RESÚMENES

Número II

ENCUENTRO NACIONAL DE SEMILLEROS DE

INVESTIGACIÓN DE FACULTADES DE INGENIERÍA DE

TELECOMUNICACIONES

LIBRO DE RESÚMENES

Medellín, 27 de octubre de 2015 Número II

UNIVERSIDAD SANTO TOMÁS, SEDE MEDELLÍN

Comité Académico: Camilo Andrés Flórez Velásquez, Guillermo León Bolívar Ortiz, Ángela María

Londoño Jaramillo.

Compiladores: Camilo Andrés Flórez Velásquez, Ángela María Londoño Jaramillo

Universidad Santo Tomás, 2015

Carrera 82 N0. 77 BB 27.

Medellín, Colombia.

Teléfono: (574) 2341034, Ext. 290.

www.ustamed.edu.co

ISSN 2500-7610 (En línea)

Contenido

Presentación. 9

Curvas de factor de concentración de esfuerzos para platinas con escalón

sometidas a carga axial y a flexión por medio de simulaciones.

11

Interfaces para la expresión musical que expanden instrumentos

tradicionales.

15

Experiencia de participación en el programa de Jóvenes Investigadores del

Instituto Tecnológico Metropolitano.

19

Metodología para la detección de vulnerabilidades a través de pruebas de

penetración con Metasploit para el aumento de la seguridad informática

en el sector empresarial.

23

Hexápodo: Un prototipo de una Hormiga Robótica. 28

Sistema de trilateración 2D en espacios interiores para vehículo de guiado

autónomo utilizando sensores de ultrasonido y comunicaciones bajo el

protocolo MiWi.

30

Propuesta de un modelo para la articulación de la investigación en un

programa de ingeniería.

35

Desarrollo de prácticas de laboratorio para sistemas de comunicaciones

móviles aplicando radio definido por software.

40

Propuesta para identificación de personas en distintas posturas, integrado

al prototipo “HELFEN”, a partir de los patrones generados por KINECT.

49

Implementación y Control de movimiento del vehículo HELFEN a través de

X-Bee.

53

Diseño de la infraestructura de Red de Nueva generación de la Facultad de

Ingeniería de Telecomunicaciones para ofrecer servicios de voz, datos y

vídeo.

56

Dental QR. 61

DomoHouse. 68

Prueba experimental del algoritmo ACP para el reconocimiento de rostros

bajo condiciones de luz controlada y diferentes expresiones gestuales.

73

Desarrollo de un sistema multisensorial para monitorear gases tóxicos en

espacios cerrados mediante tecnología inalámbrica.

78

Clasificación de compuestos volátiles a través de técnicas de modulación

de temperatura en sensores de gases químicos.

83

Medición automática de variables antropométricas para la aplicación y

desarrollo del protocolo de evaluación fonoaudiológica de la respiración.

92

Desarrollo de un aplicativo de software para la segmentación de arterias

coronarias a partir de imágenes angiográficas utilizando el método de

crecimiento de regiones.

96

Diseño e implementación de una plataforma de software, aplicada a la

determinación de microorganismos en medios de cultivo selectivos.

100

Medición automática del nivel de aprendizaje en niños de 4 a 6 años de

edad aplicando el método PLON y técnicas de procesamiento de señales.

103

Análisis de señales ACARS mediante radio definida por software. 107

Evaluación de ataques a dispositivos móviles para el diseño de un sistema

de detección de anomalías.

113

Protección de derechos de autor en imágenes por medio de señales de

voz.

120

Audio forense: Mejoramiento de la calidad de audio. 127

Diseño de un sistema en Cloud, para controlar dispositivos IoT vía Web. 133

Prototipo para generación vectorial de señales RF a través de interface

GPIB.

139

Análisis de vulnerabilidades de elementos inalámbricos utilizados en la

tecnología IoT.

148

Viabilidad de acceso al campus UMNG. 156

Prototipo de generación de modulaciones digitales de señales de RF

mediante SDR y LabView.

159

Sistema de gestión de espectro radioeléctrico empleando el hardware RTL

– SDR.

163

Medición y monitoreo de caudales en cuenca hidrográfica, río Bogotá,

ribera UMNG Campus, mediante el uso de Wireless Sensor Network, para

prevención y posible estimación de desastres naturales.

167

Análisis visual para el mayor rendimiento del estudiante y menor esfuerzo

visual, en el edificio “D” (aulas D101 y D102) de la Universidad Militar

Nueva Granada – Sede Campus (Cajicá).

173

Comparación de la sensórica implementada en equipos de fatiga de

pavimentos existentes entre América y Europa.

178

9

Presentación

El día 27 de octubre de 2015, se desarrolló en las instalaciones de la Universidad Santo

Tomás Sede Medellín, el evento “Tercer Encuentro Nacional de Semilleros de Investigación

de Facultades de Ingeniería de Telecomunicaciones, Medellín 2015” (III ENSIT, Medellín

2015), auspiciado por la Unidad de Investigaciones y la Facultad de Ingeniería de

Telecomunicaciones de la Universidad Santo Tomás Sede Medellín, y la Red de Facultades

de Ingeniería de Telecomunicaciones (REDITEL).

El encuentro nacional de semilleros de investigación es una iniciativa que nació de las

Facultades de Ingeniería de Telecomunicaciones de la Universidad Santo Tomás Colombia,

que tiene por objetivo fundamental abrir espacios propicios para los ejercicios de

divulgación científica, útiles para la presentación pública de los desarrollos investigativos

generados por los semilleros de investigación de diversas facultades de Ingeniería de

Telecomunicaciones y afines del país, o de semilleros de Facultades de áreas no tan afines

a Telecomunicaciones, pero que en sus ejes temáticos multidisciplinarios emplean

tecnologías asociadas a las comunicaciones electrónicas.

En esta tercera versión de tan importante evento se alcanzó la meta de convocar una

gran cantidad de proyectos (32 en total), cantidad que rebasó las expectativas de registro

estimada por el comité organizador, ilustrando así la fuerza y relevancia que el ENSIT ha

adquirido a través del tiempo, y la necesidad imperante de trabajar cada vez más para que

el evento sea reconocido a nivel nacional, como un espacio de primera categoría para la

divulgación de las ciencias a nivel de los semilleros de investigación en el ámbito de las

Telecomunicaciones y otras disciplinas afines.

El encuentro fue sobresaliente respecto a la calidad científica de las ponencias

presentadas por los diferentes semilleros de investigación participantes, tanto de

Antioquia como de otras regiones y ciudades de Colombia, y se mostró al público

académico asistente el gran potencial que poseen los investigadores participantes en el

análisis y resolución de una gran variedad de problemáticas de naturaleza tecnológica que

aquejan a nuestras comunidades, a nuestras regiones y al país.

El presente libro es el resultado juicioso del comité académico del evento y de todos los

participantes, donde se ilustran los resúmenes que por su la calidad y relevancia de las

problemáticas analizadas y soluciones propuestas, son bastante adecuados para ser

enseñados a la comunidad científica del país. Estos resúmenes son una gran muestra de la

capacidad de nuestros jóvenes investigadores universitarios en la proposición de

ingeniosas soluciones que giran alrededor de las ciencias y la ingeniería.

En nombre del comité organizador del III Encuentro Nacional de Semilleros de

Investigación de Facultades de Ingeniería de Telecomunicaciones, Medellín 2015,

agradecemos a todos los investigadores participantes y miembros de los comités

10

académico – organizador que hicieron posible el desarrollo exitoso de tan importante

evento; y estamos seguros que los resúmenes presentados en este libro serán de total

interés como material de consulta para otros investigadores, para impulsar y dinamizar el

desarrollo de nuevos proyectos investigativos de interés para nuestras comunidades.

11

Curvas de factor de concentración de

esfuerzos para platinas con escalón

sometidas a carga axial y a flexión

por medio de simulaciones

Daniel Osorio Patiño 1[autor]

Juan Diego Betancur Gómez 1[autor]

Felipe Hoyos Gómez 1[autor]

Juan Gonzalo Ardila Marín 1[autor]

Resumen

El objetivo del presente estudio es comprobar que las curvas de factor de concentración de

esfuerzos experimentales, que se encuentran disponibles en la literatura y que fueron

construidas tras exorbitantes ensayos físicos, pueden ser realizadas por medio de

simulaciones logrando un ajuste significativo. Para este caso, se seleccionaron dos geometrías

iguales sometidas a dos fuerzas diferentes para el estudio: platina con escalón sometida a

carga axial y platina con escalón sometida a flexión, para las dos geometrías se seleccionaron

diferentes relaciones de forma para comparar las curvas construidas numéricamente con las

curvas experimentales consultadas, tras el desarrollo de la geometría en Design Modeler, su

posterior mallado en Mechanical, luego la aplicación de fuerzas axiales o flexionantes y por

ultimo su simulación en Static structural todas estas oriundas del ANSYS Workbench®, allí se

obtuvo el esfuerzo máximo y se calculó el esfuerzo nominal como la relación entre la fuerza

aplicada y el área mínima perpendicular a la fuerza, para poder, a partir de la relación entre el

esfuerzo máximo y el esfuerzo nominal, evaluar el factor de concentración de esfuerzo,

graficarlo y compararlo con el experimental. Finalmente con los resultados obtenidos podemos

concluir que es posible construir curvas de factor de concentración de esfuerzo para platinas

con escalón sometidas a carga axial y a flexión por medio de simulaciones computarizadas,

con la misma confianza que se tienen de los métodos experimentales convencionales, pero a

un menor costo.

Introducción

La investigación educativa en la actualidad tiene un carácter propio en la medida

que intenta resolver problemas prácticos educativos relacionados con la búsqueda de

1 Programa de Ingeniería Mecatrónica, Semillero En Computación Avanzada y Diseño Digital, Instituto Tecnológico Metropolitano,

Medellín. Correo electrónico: [email protected]

12

un mejor desempeño académico de los estudiantes. Dentro de estos problemas

prácticos, en el campo de las Ciencias, cabe mencionar aquellos relacionados con los

ambientes educativos y su incidencia en el desarrollo de habilidades para la

investigación. Lo anterior implica una transformación de las prácticas docentes en

relación a sus estrategias de enseñanza, para que éstas permitan cualificar los

procesos académicos de los estudiantes y con ello, acercarlos a procesos de

investigación.

Por esto se hace necesario fomentar el mejoramiento de la enseñanza para el

aprendizaje mediante la generación de espacios académicos que involucren de

manera más acentuada la participación de los estudiantes.

En la consolidación de estos propósitos, el semillero de Didáctica y medios de

aprendizaje de las Ciencias Básicas busca abrir espacios académicos de formación en

investigación para estudiantes interesados en desarrollar habilidades y competencias

que les permita hacer parte de equipos académicos con intereses investigativos en

distintas áreas del conocimiento. El trabajo, mediante la metodología de talleres y

actividades de trabajo independiente, ha posibilitado profundizar sobre las distintas

funciones que provee el Matlab como recurso didáctico de aprendizaje y herramienta

informática para la investigación (Gil, 2003). Es así como, se presenta una aplicación

diseñada en Matlab a través de una Interfaz gráfica de usuario que permite visualizar

el sólido de revolución que se obtiene de generar el área entre dos curvas alrededor

del eje x (Stewart J. 2008).

Marco Teórico

La educación superior debe garantizar una plataforma conceptual para la formación

del pensamiento crítico y el desarrollo de la sensibilidad de sujetos que han de

interactuar en los diversos contextos que favorecen el desarrollo humano, científico y

social. En nuestro medio son cuestionados los resultados que muestran los

indicadores que miden el desarrollo social y los avances en la productividad técnico-

científica, situación que pone en evidencia una baja competitividad, en especial, sobre

temas relacionados con procesos de investigación.

En Colombia, el interés por posicionar las actividades de ciencia y tecnología se

hace evidente con la implementación de políticas públicas que buscan ubicar la

investigación como un asunto clave en el desarrollo del país. Tal es el caso de la Ley

de Ciencia y Tecnología que busca fortalecer una cultura basada en la generación,

apropiación y divulgación del conocimiento a través de: la investigación científica, el

desarrollo tecnológico, la innovación y el aprendizaje permanente. En el mismo

sentido, el documento COMPES 2009 establece la Ciencia, la Tecnología y la

13

Innovación (CTeI) como una vía de desarrollo que se basa en el incremento de la

capacidad del país para generar y usar el conocimiento científico y tecnológico.

Por su parte, las Instituciones de Educación Superior deben promover los semilleros

de investigación como espacios para ejercer la libertad, la crítica académica, la

creatividad y la innovación (Oquendo, 2007). Los semilleros de investigación permiten

la participación de los estudiantes en la gestión de proyectos de investigación

mediante la apertura de espacios en los que se comprende que investigar es un

proceso unido a la formación donde se aprende a aprender y se descubre nuevo

conocimiento y métodos de aprendizaje (Torres, 2005). Las actividades desarrolladas

en el marco de la estrategia de semillero, propician la reflexión y el análisis entorno a

las tendencias didácticas y pedagógicas que docentes y estudiantes emplean en sus

quehaceres educativos de forma que se puedan buscar nuevos caminos que

resignifiquen los aprendizajes (Zapata G et al., 2012). En este sentido, se busca

contribuir a la generación de ambientes educativos favorables a través del desarrollo

de habilidades para la investigación que generen espacios de reflexión hacia la

construcción de alternativas de solución de los problemas en que intervienen los

ambientes educativos como factores que obstaculizan o favorecen la enseñanza y el

aprendizaje de las ciencias básicas y aplicadas.

El trabajo independiente direccionado a partir de estos procesos, ha sido concebido

como proceso didáctico a partir del cual se incide en la formación integral del

profesional. Es una propuesta para lograr aprender y enseñar en la sociedad del

conocimiento, a través del tránsito flexible del estudiante por su formación, tomando

en cuenta su vinculación con la práctica, el entorno y el uso de las tecnologías.

El trabajo colaborativo entre el profesor y el estudiante compromete a cada

miembro con la formación personalizada desde lo grupal, donde cada uno aporta

conocimientos en beneficio social, se constituyen ideas novedosas y a la vez

consecuente con la época; hace más viable, humano y esencial el proceso formativo

(Román & Herrera, 2010).

Metodología Empleada

En lo metodológico, el trabajo se ha desarrollado mediante estrategias de trabajo a

nivel grupal e individual. El trabajo en grupo se orienta a través de talleres, sesiones

de discusión, desarrollo de guías de actividades y demás actividades que favorezcan

el trabajo colaborativo. El trabajo individual se concreta en lectura y análisis de

documentos, generación de secuencias y articulación de funciones que siguen una

lógica de programación estructurada.

14

Resultados y Conclusiones

Los contextos de aprendizaje fundamentados en el desarrollo de aplicaciones con

herramientas informáticas, acercan al estudiante al dominio de conceptos y

procedimientos propios del área de Ciencias Básicas. En este sentido, los programas

computaciones como el Matlab permiten la configuración de herramientas para la

investigación que favorecen la experimentación y posibilitan que los estudiantes

participen del logro de conocimientos y de la apropiación de significados relacionados

con diversos objetos matemáticos.

Referencias

Gil Rodriguez, M. (2003). Introducción rápida a Matlab y Simulink para Ciencia e Ingeniería. Madrid:

Ediciones Díaz de Santos.

Consejo Nacional de Política Económica y Social CONPES. (2009). Política Nacional de ciencia,

tecnología e innovación. Departamento Nacional de Planeación(DNP). República de

Colombia. Documento 3582: Bogotá.

Oquendo, S., (2007); Semilleros de investigación y desarrollo humano. En Avances en investigación

formativa. Volumen 2. RedCOLSI. Red Colombiana de Semilleros de Investigación

Román C. E. & Herrera R. J. (2010). Aprendizaje centrado en el trabajo independiente. Revista

Educación y educadores, 13(1), 91–106.

Stewart J. (2008). Cálculo trascendentes tempranas (Sexta ed). Mexico, Cengage Learning.

Torres, L., (2005); Para qué los semilleros de investigación. Revista Memorias. Recuperado el 29 de

abril de 2015 de

http://scholar.google.es/scholar?hl=es&q=Para+qu%C3%A9+los+semilleros+de+investigac

i%C3%B3n&btnG=&lr=

Zapata G., Dominguez J., Molina J.. (2012). Didáctica reflexiva en educación superior: Una mirada

desde el relato autobiográfico. Editorial académica española.

15

Interfaces para la expresión musical

que expanden instrumentos

tradicionales

Oscar Fernando Moreno Restrepo2 [autor]

Jorge Andrés Saldarriaga Gaviria2 [autor]

Miguel Vargas Fernández2 [autor]

Resumen

El objetivo del presente trabajo es explorar algunas posibilidades de expansión de la

expresión de instrumentos musicales, por medio de sensores que mapeados a parámetros de

control de procesamiento digital permiten una interpretación aumentada. Este tipo de

instrumentos se conocen como instrumentos híbridos, expandidos o aumentados. Se quiere

hacer guitarra eléctrica expandida con elementos fáciles de conseguir tales como sensores de

luz, fuerza, presión, distancia; también se propone la integración de un dispositivo móvil como

interfaz de control padXY y en un futuro seguir experimentado con más sensores. Estos

sensores son usados como interfaces para controlar parámetros de un procesador digital al

que va conectado la guitarra.

Introducción

Hoy un instrumento musical está definido como todo aquello que es capaz de

generar sonido audible y se puede emplear para hacer música (Blasco Vercher et al).

Así desde el silbido producido por un humano, hasta los sintetizadores digitales

modernos son considerados instrumentos musicales. Por otro lado existen

instrumentos que son identificados inmediatamente como producidos para el fin

específico de crear música, tales como un piano, un violín, una flauta, etc. Alrededor

de este tipo de instrumentos se han desarrollado maneras tradicionales de

interpretación y cada día se encuentran intérpretes que expanden la manera en que

se pueden expresar con un instrumento musical como por ejemplo cuando se golpea

la caja de una guitarra acústica para producir ritmos de percusión. Estas posibilidades

de expresión están limitadas a las características físicas del instrumento y no siempre

es posible generar un resultado sonoro deseado con un instrumento en particular. La

facilidad para conseguir sensores, microcontroladores, así como el advenimiento de

2 Programa de Informática Musical, Semillero de Investigación Acorde, Instituto Tecnológico Metropolitano de Medellín. Correo

electrónico: [email protected]

16

computadores más poderosos ha permitido la creación de instrumentos híbridos,

también llamados instrumentos expandidos o aumentados que son instrumentos

tradicionales modificados para expandir sus características sonoras, encaminados en

la búsqueda de nuevas interfaces de expresión musical (NIME); a esta actividad de

creación de instrumentos aumentados también se le conoce como Digital Luthier

Crafting –Lutier digital-- (Jordá S). Uno de los trabajos más representativos de este

campo es 'Hyperinstruments' de Tod Machover en el que por medio de sensores crea

instrumentos de cuerda expandidos (Machover T.). Marcelo Wanderley es otro

referente importante el cual ha tenido un amplio recorrido en la expansión de

instrumentos musicales y creación de nuevos instrumentos usando sensores y

sintetizadores digitales (Miranda E. R. et al). Atau Tanaka hace una muy buena

recopilación del tema (Dean R. T.) Desde hace algún tiempo el semillero ACORDE ha

tenido la inquietud de explorar con instrumentos expandidos y dio su primer paso

con la construcción de un dispositivo inalámbrico tipo reloj de pulso, el cual permite

que los gestos hechos con la muñeca de un intérprete de cualquier instrumento

puedan controlar parámetros de procesamiento. Este prototipo permite la conexión e

intercambio rápido de diversos sensores, tales como acelerómetros, sensores de

presión, sensores flexo-resistivos, etc. lo que facilita la experimentación con

diferentes instrumentos musicales y técnicas de interpretación. A su vez se comenzó

el diseño de un software que gestione los datos proporcionados por el prototipo y

que pueda reconocer gestos específicos del intérprete. En el presente trabajo se desea

seguir explorando con instrumentos híbridos de una manera funcional y de bajo

costo. Para este fin se usaron algunos sensores para modificar una guitarra eléctrica

conectada a un procesador digital por medio de un Arduino UNO flasheado para

mandar MIDI por USB. Los sensores usados van mapeados a diferentes parámetros del

procesador digital por medio de MIDI y OSC. Hasta el momento se ha probado con 4

sensores: una fotorresistencia, sensor de distancia por ultrasonido, acelerómetro y

sensor de presión. También se integró un dispositivo móvil como interfaz de control

que usa el protocolo OSC para enviar mensajes MIDI. Las conexiones han sido

realizadas de manera satisfactoria pero aún falta por explorar más el mapeo a los

parámetros de procesamiento ya que puede ser uno entre muchos o varios al mismo

tiempo. De la misma manera se requiere optimizar la calibración de los sensores y

optimizar el manejo de la señal de los sensores para mandar mensajes más limpios.

Metodología Empleada

Descripción general: Se usa una guitarra eléctrica “Estratocaster” como instrumento

a trabajar, a la cual se le han acoplado algunos sensores y un microcontrolador

(Arduino UNO) además de un dispositivo móvil. Estos con el propósito de controlar

17

por medio de mensajes MIDI, diferentes parámetros de un procesador digital de

audio. En la Figura 1 se muestra de manera la conexión de los elementos.

Figura

1. Descripción general del proceso. La imagen fue elaborada por el autor.

Elementos usados:

- Sensores: Fotorresistencia genérica, un acelerómetro ADXL335, un sensor de

presión FlexoForce de 25 lb, y un sensor de distancia ultrasonido.

- Microcontrolador: Se usa la placa Arduino UNO como conversor AD, gestor

de los datos que llegan de los sensores, así como interfaz MIDI para

enviarlos al procesador digital.

- Dispositivo móvil: El dispositivo móvil empleado es un smartphone con SO

Android que cuenta con la aplicación OSC-Touch usando una interfaz Pad

XY.

- Procesador digital: Rack de efectos de procesamiento de audio de Ableton

live.

- Router Thompson TG585: usado para comunicar el dispositivo móvil con el

computador por WI-FI.

El mapeo de datos es un tema que está en constante investigación y por ahora hay

diferentes formas de llevarlo a cabo. En este caso se hace de manera 'uno a uno', es

decir que cada valor arrojado por los sensores controlan un parámetro del procesador

digital.

18

Debido a que la resolución del DAC del Arduino UNO es de 10 bits (0-1023 valores

posibles), se necesita hacer una conversión de datos compatible con mensajes MIDI

que es de 7 bits (0-127 valores posibles). También se toma en cuenta el rango

dinámico de los sensores y los gestos para hacer un mapeo más adecuado.

Resultados y Conclusiones

La comunicación de los sensores, el microcontrolador, el dispositivo móvil y el

procesador de audio fueron establecidas de manera exitosa.

El mapeo de los valores de los sensores a los diferentes parámetros de

procesamiento de audio funciona pudiendo modificar el sonido de la guitarra en

tiempo real con gestos familiares para un intérprete de guitarra eléctrica. Sin

embargo, hay que mejorar la calibración de los sensores en un momento inicial.

La expansión de instrumentos musicales tradicionales es ahora mucho más

asequible gracias a la difusión de sensores y microcontroladores de fácil acceso

como Arduino. Este aspecto se ve mejorado cada día y se ve gran potencial en

microcontroladores con capacidad de comunicación WiFi como el esp-8266, con el

cual se espera trabajar en un futuro cercano.

El instrumento expandido trabajado tiene el potencial para ser usado en situaciones

reales de interpretación musical después de hacer las optimizaciones

correspondientes.

Referencias

Blasco Vercher, F., Sanjosé Huguet, V., & Pérez Bermúdez, C. (1994). Los instrumentos musicales.

Valencia: Universitat de Valencia.

Dean, R. T. (Ed.). (2009). The Oxford handbook of computer music. Oxford ; New York: Oxford

University Press.

Fels, S., University of British Columbia, & New Interfaces for Musical Expression (Eds.). (2005). NIME-

05: New Interfaces for Musical Expression : Vancouver, BC, Canada, May 26-28, 2005 :

Proceedings. Vancouver: University of British Columbia, Media and Graphics Interdisciplinary

Centre.

Jordà, S. (2005). Digital Lutherie Crafting musical computers for new music’s performance and

improvisation. Ph.D. Dissertation. UPF. Retrieved from files/publications/PhD2005-

sjorda.pdf

Miranda, E. R., & Wanderley, M. M. (2006). New digital musical instruments: control and interaction

beyond the keyboard. Middleton, Wis: A-R Editions.

Machover, T., & Laboratory, M. I. of T. M. (1992). Hyperinstruments: A Progress Report, 1987-1991.

MIT Media Laboratory. Recuperado a partir de

https://books.google.com.co/books?id=saqcHAAACAAJ

19

Experiencia de participación en el

programa de Jóvenes Investigadores

del Instituto Tecnológico

Metropolitano

Tatiana Marcela Blandón Montoya 3 [autor]

Juan Carlos Molina García 3 [autor]

Resumen

El Instituto Tecnológico Metropolitano ITM, viene implementando el programa Jóvenes

investigadores e innovadores con el objetivo de fortalecer las capacidades y habilidades en

investigación e innovación de los jóvenes talento de la institución, mediante su vinculación a

grupos y líneas de investigación bajo la metodología de ‘aprender haciendo con criterio’

De manera particular, y como parte de este programa, el semillero de Didáctica y medios de

aprendizaje de las ciencias básicas adscrito a la facultad de Ciencias Exactas y aplicadas del

ITM, viene apoyando este proceso mediante la implementación de tutorías estudiantiles a partir

de las cuales se generan espacios de práctica que conducen a ejercicios escriturales y de

diseño de propuestas de formación en el campo del aprendizaje de las Ciencias. Esto, en el

marco del trabajo entre pares como estrategia de consolidación de propuestas de formación de

estudiantes para estudiantes.

Introducción

El programa de Jóvenes investigadores del ITM, se configura como una oportunidad

de instituir espacios de cualificación orientados a favorecer el relevo generacional

desde la proyección del talento, la excelencia académica y el aprendizaje permanente

de estudiantes que demuestran tener conciencia de sí mismos y del mundo al que

pertenecen como presupuestos de la misión y el modelo pedagógico institucional. La

iniciativa institucional está acorde con los objetivos declarados en la política nacional

de Ciencia, Tecnología e Innovación en lo relacionado con la necesidad de fortalecer la

formación del recurso humano para la investigación y la innovación, así como la

promoción y apropiación social del conocimiento (CONPES, 2009).

3 Programa Transversal a las tecnologías e ingenierías del ITM, Semillero de Investigación En Didáctica y medios de aprendizaje de

las Ciencias Básicas, Instituto Tecnológico Metropolitano de Medellín. Correo electrónico: [email protected]

20

El semillero de Didáctica, como participante de este programa institucional, busca

generar un espacio académico de formación en investigación dirigido a estudiantes

interesados en desarrollar las habilidades y competencias necesarias que les permita

hacer parte de equipos académicos con intereses investigativos en el área de la

didáctica y los ambientes de enseñanza y aprendizaje de las Ciencias. Con esto, se

pretende favorecer la formación académica de los jóvenes del ITM, mediante la

búsqueda del desarrollo de sus potencialidades en el marco de una cultura de la

investigación y el trabajo colaborativo, que permita la participación efectiva y

proactiva de los estudiantes en los procesos de investigación que se desarrollan

desde la Facultad.

Los componentes temáticos del semillero contemplan una visión amplia de los

procesos de investigación articulados a los fenómenos educativos inmersos en la

enseñanza y el aprendizaje de las Ciencias. Bajo esta perspectiva, se hace énfasis en

temas relacionados con metodologías de la investigación, corrientes pedagógicas

contemporáneas y didáctica de las Ciencias.

Como resultados prácticos de las actividades desarrolladas en el marco del

programa de jóvenes investigadores, se presentan, en primer lugar, las ideas

plasmadas en el artículo: Aprendizaje y enseñanza de las matemáticas mediadas por

las TIC. En segundo lugar, se muestra el diseño de un curso de extensión enmarcado

en el campo del uso de centros de recursos en la web para el aprendizaje de las

Ciencias Básicas.

Estas actividades han permitido la apertura de espacios que favorecen el desarrollo

de las capacidades generales para la investigación en la vía de consolidar procesos de

formación integrales, en los que los estudiantes generan reflexiones y actividades de

cualificación dirigidas a los mismos estudiantes como acciones que posicionan la

estrategia de trabajo entre pares.

Metodología Empleada

El semillero de investigación se consolida básicamente como un modelo de

enseñanza aprendizaje que convoca al ejercicio de la libertad, la crítica académica, la

creatividad y la innovación. De esta forma, además de facilitar a los estudiantes la

adquisición de habilidades para la investigación científica, busca generar

conocimientos para el mejoramiento de las relaciones de enseñanza y aprendizaje de

las Ciencias Básicas. Para esto, se basa en el desarrollo de las políticas institucionales

que buscan fortalecer la investigación formativa como herramienta del proceso

pedagógico, esto es, la enseñanza y el aprendizaje mediado por procesos de

investigación (Ocaña, 2010).

21

En lo metodológico, las actividades se han desarrollado mediante estrategias de

trabajo individual con acompañamiento del docente tutor. Estos desarrollos se

concretan a partir de lecturas, análisis de documentos y búsquedas de recursos en la

web.

Resultados y Conclusiones

Los componentes temáticos del programa de Jóvenes investigadores integrados al

semillero de didáctica del ITM, contemplan una visión amplia de los procesos de

investigación articulados a los fenómenos educativos inmersos en la enseñanza de las

Ciencias. Bajo esta perspectiva, el énfasis ha estado puesto en temas relacionados con

la matemática como área vital en la fundamentación científica, las metodologías de la

investigación y los recursos de la web como fuentes de recursos didácticos para el

aprendizaje de las Ciencias.

En este sentido, se ha logrado articular las actividades de acuerdo a dos frentes de

trabajo, en primer lugar, hacia una reflexión sobre las Tic en el aprendizaje de las

matemáticas y su incidencia en la formación de ingenieros y, en segundo lugar, al

levantamiento de un inventario de recursos en la web que facilitan de manera

interactiva los procesos de aprendizaje de las ciencias básicas, de manera particular la

aplicación de conceptos y procedimientos matemáticos. Esto último, para ser

articulado dentro de un curso práctico de extensión que se ofrece a los estudiantes de

primer semestre de ingeniería de la institución.

Las Instituciones de Educación Superior deben promover los semilleros de

investigación como espacios para ejercer la libertad, la crítica académica, la

creatividad y la innovación (Oquendo, 2007). Los semilleros de investigación permiten

la participación de los estudiantes en la gestión de proyectos de investigación

mediante la apertura de espacios en los que se comprende que investigar es un

proceso unido a la formación donde se aprende a aprender y se descubre nuevo

conocimiento y métodos de aprendizaje (Torres, 2005).

En el marco del programa Jóvenes investigadores, la participación del semillero de

Didáctica ha permitido fomentar la investigación formativa como base del

mejoramiento de los procesos académicos de los estudiantes, de igual forma ha

favorecido reflexiones y análisis, desde la perspectiva estudiantil, en torno al

componente pedagógico que rige las relaciones de enseñanza y el aprendizaje de las

Ciencias.

22

Referencias

Consejo Nacional de Política Económica y Social CONPES. (2009). Política Nacional de ciencia,

tecnología e innovación. Departamento Nacional de Planeación (DNP). República de

Colombia. Documento 3582: Bogotá.

Ocaña R. (2010). Pasado y presente de la investigación educativa. En Revista Digital Universitaria, Vol

11 Número 2. Recuperado el 25 de septiembre de 2015 de

http://www.revista.unam.mx/vol.11/num2/art18/art18.pdf

Oquendo, S., (2007); Semilleros de investigación y desarrollo humano. En Avances en investigación

formativa. Volumen 2. RedCOLSI. Red Colombiana de Semilleros de Investigación

Torres, L., (2005); Para qué los semilleros de investigación. Revista Memorias. Recuperado el 2 de

octubre 2015 de

http://www.researchgate.net/profile/Luis_Carlos_Soler/publication/228708157_PARA_QU_LOS_SEMI

LLEROS_DE_INVESTIGACIN/links/54c25ee50cf2911c7a4738ec.pdf

Colombia. Instituto Tecnológico Metropolitano. Convocatoria jóvenes investigadores e innovadores

ITM (junio, 2015). Medellín, p 1-6

23

Metodología para la detección de

vulnerabilidades a través de pruebas

de penetración con Metasploit para el

aumento de la seguridad informática

en el sector empresarial

Juan Felipe Villa Villa 4 [autor]

Éder Alonso Acevedo Marín 5 [autor]

Resumen

El intento de vulnerar una red de datos es una preocupación que cada día aumenta en las

empresas y los métodos avanzados encriptación no está siendo es suficiente para proteger la

información que viaja a través de estas. Esto provoca que las redes de datos sean

implementadas con sistemas de protección y que sean bien diseñados y planeados y que sus

políticas de utilización sean organizadas, rígidas y conocidas por todos los usuarios.

El objetivo de este proyecto es diseñar una metodología para la detección de

vulnerabilidades a través de pruebas de penetración con Metasploit para el aumento de la

seguridad informática en el sector empresarial. Nace de una necesidad de las empresas,

organizaciones e instituciones que se ven diariamente afectadas por el número de ataque

informáticos a su sistema de red de datos, tanto interna como externa.

Se utilizará documentación científica que alimentará la metodología a plantear, igualmente

se utilizarán manuales y tutoriales no científicos con el fin de comprobar su veracidad y la

posibilidad de convertir esta información en datos científicos comprobados, ya que hay mucha

información científica que carece de procedimientos que pueden encontrarse en otra

bibliografía.

Se trabajará con casos de estudio reales expuestos, se contactará a entidades legales

facultadas para la detección de acciones criminales y sospechosos en la ciudad y se utilizará,

se instalará y se probará software existente para el rompimiento de accesos, explotación de

vulnerabilidades, escaneo de puertos y otro tipo de servicios, después de realizar un tanteo del

software existente en la actualidad.

4 Programa de Ingeniería de Sistemas, Semillero de Investigación En Seguridad Informática, Fundación Universitaria Luís Amigó

(Medellín). 5 Programa de Ingeniería de Sistemas, Semillero de Investigación De Seguridad, Universidad Cooperativa de Colombia (Medellín).

Correo electrónico: [email protected]

24

Para poder validar la utilidad de la metodología que se va a proponer se realizarán pruebas

en modo laboratorio en una red de datos genérica y la utilización de equipos utilizados por los

grupos SISCO y SODA. Finalmente apoyándose en los resultados obtenidos, se podrá

comprobar la utilidad de esta metodología que puede ser utilizada por el mismo grupo de

investigación, la Facultad y la Universidad para el análisis de su red de datos y la detección de

vulnerabilidades que pueden corregirse para evitar el acceso indebido de personas.

Las personas que trabajaran en el desarrollo de este proyecto, serán personas con

conocimientos avanzados en informática y en específico, en redes de computadores, que hayan

trabajado con detección de vulnerabilidades, software de intrusión, escaneo y explotación de

huecos de seguridad.

Con el fin de poder contribuir a la seguridad y al mejoramiento de la sana conservación de la

información privada de empresas, organizaciones e instituciones y que estas se sientan más

seguras, se quiere diseñar esta metodología con el fin de que se puedan detectar las

vulnerabilidades actuales de esa red de datos y poder determinar los procesos a ejecutar y la

facilitación de la toma decisiones para que estas puedan aumentar su seguridad y que su

infraestructura de red se encuentre funcionando bajo una metodología probada que garantice

en un mayor porcentaje, la sana utilización de las redes de datos en un espacio en específico.

Introducción

Una Vulnerabilidad es un Grupo de activos en una organización que al tener

debilidades pueden llegar a ser aprovechadas por ciertas amenazas” (ISO,

International Organization for Standardization, 2009)

La información manejada por las empresas, organizaciones e instituciones es

fundamental y es necesario que sus protocolos de comunicación, además de ser

efectivos, sean seguros. Con el objetivo de mejorar esta seguridad se hace

completamente necesario realizar un análisis de vulnerabilidades que pueden

encontrarse dentro de una red de datos, para identificar aquellas a las que se

encuentra expuesta cualquier entidad, tanto por dentro, como por fuera de ella y así

facilitar la toma de decisiones para poder proteger su información, sus servicios

informáticos y demás recursos a los cuáles se puede acceder a través de una red que

generalmente son servicios o información prestados a una comunidad como clientes,

empleados, estudiantes, civiles y demás personas. El estudio de estas

vulnerabilidades debe realizase reduciendo a lo más mínimo la efectividad de los

ataques informáticos sufridos.

El framework de Metasploit es una herramienta de penetración de software libre,

desarrollado para ejecutar exploits a un objetivo remoto. (Ticlla, S. A., Girón, G. I.,

Huamán, D. V., & Rojas, J. V., 2014) Metasploit cuenta con la mayor base de datos de

exploits públicos y privados y puede ser usado para detectar las vulnerabilidades de

nuestros sistemas para protegerlos o usar esas vulnerabilidades para obtener acceso

a sistemas remotos.

25

Según el libro de Barón las “vulnerabilidades de comunicación con el punto frágil en

el trasporte de la información ya sea vía cable, satélite, fibra óptica ondas de radios,

etc.

Siempre se debe garantizar la seguridad de la información mientas esta viaja.

Ejemplos de principales vulnerabilidades de comunicación: Fallas en el medio de

trasporte, la información puede ser alterada durante su trasporte, la información no

llegue a su destino, por interceptación. Falta de sistemas de encriptación de la

información.” (Barón, 2010)

En artículos y libros de investigación ya se han planteado metodologías para la

detección de vulnerabilidades en redes de computadores y trabajos con pruebas de

penetración o utilización de Metasploit por aparte, pero en este proyecto se pretende

proponer una metodología para determinar de una forma organizada y documentada

todos los procesos que se deben llevar a cabo para la detección de vulnerabilidades a

través de pruebas de penetración con Metasploit para el aumento de la seguridad

informática en el sector empresarial.

Metodología Empleada

La metodología que se ha seguido en este proyecto se divide en tres partes:

1. Caracterizar los componentes para la realización de pruebas de penetración

con Metasploit con el fin de mejorar las políticas de seguridad.

Se analiza el estado del arte. Se utiliza documentación científica que alimentará la

metodología a plantear, igualmente se utilizarán manuales y tutoriales no científicos

con el fin de comprobar su veracidad y la posibilidad de convertir esta información

en datos científicos comprobados, ya que hay mucha información científica que

carece de procedimientos que pueden encontrarse en otra bibliografía.

2. Diseñar una metodología para la detección de vulnerabilidades a través de

pruebas de penetración con Metasploit para el aumento de la seguridad informática

en el sector empresarial. Apoyándose en los resultados obtenidos, se podrá realizar

el diseño de la metodología que puede ser utilizada por los mismos grupos de

investigación, la Facultad y la Universidad para el análisis de su red de datos y la

detección de vulnerabilidades que pueden corregirse para evitar el acceso indebido

de personas.

El diseño de esta metodología la cual da a conocer una serie de procesos a seguir

dentro de una auditoría de redes de datos, que abarcan diferentes temas como lo

son, el análisis del estado actual, la planeación, escritura de políticas de seguridad,

aseguramiento de recursos, pruebas, entre otros.

3. Implementar un ambiente de prueba basado en una arquitectura de red de

datos genérico en donde se realizará intentos de vulnerar esta red de acuerdo con

26

metodologías ya planteadas en otras investigaciones, y con software y hardware

existente para ello, con el fin de poder determinar los procesos necesarios para la

realización de una auditoría que permita determinar claramente cuáles son los

aspectos a mejorar y poder tomar decisiones fácilmente sobre las políticas de

seguridad a implantar.

Resultados y Conclusiones

Hasta ahora se han definido políticas de seguridad que pueden ser implementados

en cualquier red de datos, pero es necesario suplir esta necesidad de orden y

documentación correcta de todo el proceso de análisis y mejoramiento de seguridad

en cualquier entidad, y es muy necesario que este conocimiento generado a partir de

prácticas en laboratorios genéricos de redes y empresas sea organizado en una

metodología clara que pueda llevar con éxito una auditoría de redes de datos que se

haga con base en su seguridad.

Para poder validar la utilidad de la metodología que se va a proponer se realizarán

pruebas en modo laboratorio en una red de datos genérica y la utilización de equipos

utilizados por el grupo SISCO. Finalmente apoyándose en los resultados obtenidos, se

podrá comprobar la utilidad de esta metodología que puede ser utilizada por el

mismo grupo de investigación, la Facultad y la Universidad para el análisis de su red

de datos y la detección de vulnerabilidades que pueden corregirse para evitar el

acceso indebido de personas.

Metasploit realiza pruebas de penetración de una manera más rápida y eficiente

mediante ataques repetitivos y multicapas y es efectivo y ordenado cuando se realizan

pruebas que requieran la colaboración de otros equipos.

Además es una herramienta que se apega al realismo para enfrentar las amenazas y

así evitar posibles ataques reales.

Si bien este es un ejemplo algo específico, donde se trata de poner en contexto la

vulnerabilidad de los sistemas a nivel empresarial, se muestra que el trabajo de

Metasploit se hace en un escenario real. Así mismo, los ataques reales pueden ser

más complejos o combinados. Sin embargo, esto es un buen comienzo para tener

noción sobre cómo se realizan ataques con Metasploit.

27

Referencias

Barón, C. J. (2010). Metodología de análisis de vulnerabilidades para la red de datos en la dirección

de telemática de la Policía Nacional. Universidad Militar Nueva Granada.

ISO, International Organization for Standardization. (2009). ISO 27000-1 Seguridad de la

Información. Recuperado el 10 de octubre de 2015, de http://www.iso.org/iso/home.htm

Ticlla, S. A., Girón, G. I., Huamán, D. V., & Rojas, J. V. (2014). Aprovechamiento de vulnerabilidades

del sistema operativo Windows con la herramienta Metasploit. Revista Electrónica de la

Facultad de Ingeniería.

28

Hexápodo: Un prototipo de una

hormiga robótica

Sebastián Arroyave Arboleda 6 [autor]

Santiago Agudelo 6 [autor]

Julián Camilo Mejía Restrepo 6 [autor]

Ana Isabel García 6 [autor]

Resumen

Algunos miembros del semillero SIRMO están en el proceso de capacitación en “Diseño

mecánico”, en muestra de ello se inició la creación de una hormiga robótica (Hexápodo) con el

fin de mostrar las habilidades adquiridas y las destrezas obtenidas durante el periodo de

formación.

Introducción

El presente proyecto muestra la construcción de una hormiga robótica; se describe

su diseño mecánico, su ensamble y programación. Cada una de las etapas de

desarrollo fue trabajada en conjunto con estudiantes de diversas ingenierías con el fin

de incentivar la interdisciplinaridad.

Metodología Empleada

Para el diseño mecánico se realizó un estudio riguroso sobre el software Rhinoceros

utilizado para dicho diseño, para el ensamble de las piezas mecánicas se tuvieron en

cuenta ciertos conceptos teóricos sobre las conexiones de los componentes

electrónicos para evitar cortocircuitos o pérdida de componentes. Además, se hizo un

estudio sobre el comportamiento de una hormiga, tratando de imitar su morfología y

hacer que desde la parte de programación se pareciera lo más real posible.

6 Programa de Ingeniería Electrónica, Semillero de Investigación En Robótica y Mecatrónica, Universidad de San Buenaventura

Seccional Medellín. Correo electrónico: [email protected]

29

Resultados y Conclusiones

Durante el desarrollo del hexápodo se verificó que el uso de materiales más

resistentes en ciertas extremidades del hexápodo, mejoraban el comportamiento

mecánico de las patas de la hormiga, generando mayor sostenibilidad y funcionalidad

al robot. En cuanto al diseño del hexápodo, la implementación de curvas o poli-líneas

en vez de rectas cerradas en algunos puntos finales de cada una de las patas,

generaba que la concentración de cargas se distribuyera y evitara que si en algún

momento se rompiera o agrietara la pieza, el robot pudiera sostenerse o mantener un

cierto equilibrio.

Las conclusiones más relevantes del trabajo adelantado son:

1) Con el estudio de la morfología de la hormiga, se pudo generar que la hormiga

robot imitase de una forma real el comportamiento de este animal.

2) Con el estudio teórico de los componentes electrónicos, se pudo predecir

varios resultados en cuanto al consumo y suministro de energía que estaría

presente en el circuito.

3) Se pudieron unir varios campos de conocimientos con el fin de recrear un robot

que imitase a una hormiga.

4) Con la unión de estudiantes de diferentes ingenierías se tuvo un pensamiento

crítico constructivo a la hora de tomar decisiones.

Referencias

Analog Device (2010). ADXL 335: Technical documentation datsheet [.pdf]. Recuperado del sitio web

http://www.analog.com/media/en/technical-documentation/data-sheets/ADXL335.pdf.

Rhinoceros (s.f.). Modelador NURBS para Windos: Manual de usuario [.pdf]. Recuperado del sitio web

http://www.protojewel.com/introduccion.pdf

30

Sistema de trilateración 2D en

espacios interiores para vehículo de

guiado autónomo utilizando sensores

de ultrasonido y comunicaciones bajo

el protocolo MiWi

Esteban Luis Hernández Meza 7[autor]

Gustavo Adolfo Meneses Benavides 7[autor]

Resumen

Actualmente las posibilidades que brindan los sistemas como los GPS para referenciación

coordenada, de personas y objetos, no está disponible fácilmente para espacios interiores. Se

pretende afrontar este problema de manera experimental y utilizando dispositivos como

microcontroladores, sensores de ultrasonido, elementos de comunicaciones electrónicas, al

igual que software para visualización, procesamiento y lectura información, complementados

con protocolos de comunicación para el envío y recepción de señales inalámbricas. Adicional a

la utilización de metodologías con soluciones matemáticas. Es así como el sistema de prueba a

desarrollar pretende abordar el problema de la referenciación coordenada en interiores.

El sistema de prueba a realizar utilizará protocolo de comunicación inalámbrica en conjunto

con un prototipo de vehículo de guiado autónomo para determinar su ubicación en un

ambiente de interior, utilizando la metodología de trilateración 2D con ultrasonido para

localización en interiores y sincronización con la ayuda del protocolo MiWi. El vehículo de

guiado autónomo, podrá tener una comunicación móvil la cual será transmitida y recibida para

determinar las coordenadas donde se encuentre ubicado. Las pruebas se realizarán en uno de

los laboratorios de electrónica de la Universidad de San Buenaventura seccional Medellín,

tratando de recrear un ambiente con condiciones controladas para realizar los experimentos

necesarios para verificar la trilateración en espacios interiores.

7 Programa de Ingeniería Electrónica, Grupo de Investigación de Modelamiento y Simulación Computacional, Universidad de San

Buenaventura Seccional Medellín. Correo electrónico: [email protected]

31

Introducción

La referenciación de un cuerpo u objeto en un espacio interior utilizando unas

coordenadas de ubicación no es una tarea fácil, esto porque tecnologías como

sistema de posicionamiento global (GPS), requieren de la conexión con una

constelación de satélites lo cual se logra solo en espacio exteriores. Sin embargo en

algunas aplicaciones como los sistemas de logística o en los sistemas de recuperación

y almacenamiento automático (ASRS) la ubicación de los vehículos guiados

autónomos, que operan dentro de ellos, en un sistema de coordenadas es de gran

utilidad para efectos de trazabilidad de la mercancía o de los objetos manipulados por

este. Igualmente en otros ámbitos como el hogar puede ser de utilidad para el

monitoreo y la referenciación coordenada de objetos y personas. Actualmente existe

la posibilidad de integrar sistemas de sensores y de comunicaciones electrónicas para

tratar de resolver el problema de la trilateración en ambientes interiores. Si se

desarrolla una solución en este sentido es posible escalarla a diferentes ámbitos para

complementar sistemas existentes de gran importancia en la industria, como los ya

mencionados ASRS.

Metodología Empleada

Este proyecto de grado es basado en un sistema prueba, utilizando trilateración en

2D para un espacio interior, para determinar la ubicación de vehículo guiado

autónomo de posición desconocida, con la ayuda de sensores ultrasonidos

posicionados (distancias conocidas) correctamente para mediciones de distancia, para

obtener las coordenadas del vehículo dentro del interior e utilizando comunicación

inalámbrica bajo el protocolo MiWi que sincronice al sistema de prueba y la

realización de un algoritmo diseñado para el cálculo de coordenadas en el software

LabView. La figura 1 ilustra la ruta metodológica que se va a seguir para la realización

del proyecto.

32

Figura 1. Ruta Metodológica planteada para el desarrollo del proyecto. La imagen fue elaborada por

los autores.

Inicialmente para llevar a cabo este proyecto, se realizaran diseños, utilizando

sensores de ultrasonido para las mediciones de distancia conocida y comunicación

inalámbrica, se desarrollarán algoritmos de pruebas, igualmente se identificarán y

corregirán errores de programación del firmware ejecutado por los

microcontroladores, para verificar el método de trilateración en dos dimensiones (2D)

en un espacio interior controlado. Luego de tener la circuitería diseñada para este

sistema de localización para vehículo guiado autónomo, que contará con un nodo del

protocolo MiWi, estará sincronizado el sistema ya que este tipo de comunicación se

puede crear una red de área personal, utilizando alguna de las topologías que

describe el protocolo. En el programa LabView se diseñará un instrumento virtual que

permita calcular la coordenada del punto desconocido.

Al final, después de obtener los diseños de circuitos mencionados y sus respectivos

códigos diseñados y depurados, se procederá a verificar el funcionamiento del

sistema de trilateración en dos dimensiones (2D), en un espacio interior controlado

que será definido en el transcurso de la realización de este proyecto.

Resultados y Conclusiones

Hasta el momento se ha realizado el diseño de los nodos sensores para realizar las

pruebas de trilateración, incluyendo la sincronización mediante comunicación

inalámbrica (Protocolo MiWi P2P). Adicionalmente se ha desarrollado un instrumento

virtual en LabView para calcular las coordenadas de un punto (x, y) a partir de las

distancias de esté a tres puntos de referencia. Igualmente se ha modificado el código

que ejecutan los microcontroladores (Entorno de Matlab y lenguaje de programación

33

C18) con el fin de ajustar el funcionamiento de los nodos a los requerimientos de las

pruebas que se deben realizar. En las figuras 2, 3 y 4 se pueden observar el diseño

del nodo sensor, la topología de la red y el instrumento virtual diseñado en LabView.

Figura 2: Nodo sensor para trilateración 2D.La imagen es propiedad de los autores.

Figura 3: Esquema general para trilateración 2D. La imagen es de propiedad de los autores.

Figura 4: Instrumento virtual desarrollado en LabView. La imagen es propiedad de los autores.

34

Según las pruebas realizadas hasta el momento se ha encontrado que la medición

de distancia utilizando solamente sensores de ultrasonido no permite trilaterar

efectivamente un móvil robótico que se desplace en un espacio interior. Lo anterior

debido a factores como la recepción de ecos producidos por otros objetos diferentes

al móvil, lo que es causado por no tener una alineación dinámica con el objeto en

movimiento. Para tratar de solucionar estas falencias se plantea la implementación de

sensores que tengas movimientos rotacionales, mediante su acople a un servomotor,

y adicionalmente la utilización de comunicaciones inalámbricas para “sincronizar” los

eventos de medición de distancia y obtener así las coordenadas (x, y) con mayor

precisión.

Referencias

[1] P. C. Garcia, «Sistema de Localizacion en Interiores por Ultrasonio,» R. Jativa, MSc., 2012.

[2] T. N. Yucel Ugurlu, «Project-Based Learning Using LabVIEW and Embedded Hardware,» IEEE,

2011.

[3] S. K. Reid Simmons, «Probabilistic Navigation in Partially Observable Environments,» de

Artificial Intelligence (IJCAI’95), 1995.

[4] B. I.J Cox, «Position estimation for an autonomous robot vehicle, Autonomous Mobile

Robots: Control, Plannig, and Archietecture,» IEEE Computer Society Prees, pp. 221-240,

1991.

[5] J.M.Tavera, «Posicionamiento por radiofrecuencia basado en robors colaborativos,» Dpto. de

Tecnología Electrónica y de las Comunicaciones, Madrid, 2012.

[6] E. M. G. Polo, «Tecnicas de Localizacion de Redes de Sensores Inalambricos».

[7] F. S. C. P. y. J. R. Antonio R. Jiménez, «Tecnologías sensoriales de localización para entornos

inteligentes,» Antonio R. Jiménez, Fernando Seco, Carlos Prieto y Javier Roa, 2005.

[8] C. V. G. R. G. A. Gustavo Meneses Benavides, «Prototipo de vehículo de guiado autónomo

para sistema de almacenamiento y recuperación automático de libros,» Revista de

Investigaciones-Universidad de Quindio, 2013.

[9] B. K. M. R. M.M. Rashid, «New Automated Storage and Retrieval System (ASRS) using wireless

communications,» Mechatronics (ICOM) 4th International ConferenceOn, Mayo 2011.

[10] G. Meneses, «Tutorial Protocolo MiWi,» Medellín, 2013.

35

Propuesta de un modelo para la

articulación de la investigación en un

programa de ingeniería

Ángela Tatiana Zona Ortiz 8[autor]

Luisa Fernanda Salgado Forero 8[autor]

Esteban Quevedo Pardo 8[autor]

Resumen

El presente proyecto busca desarrollar un modelo que permita la articulación de actividades

curriculares, extracurriculares, de comunicación y apoyo a la investigación, para incentivar la

curiosidad y formar las competencias investigativas propias de la ingeniería y tecnología en

estudiantes de ingeniería.

Las fases del modelo se deben basar en el método prudencial de Santo Tomás (VER, JUZGAR

y ACTUAR), y estar orientadas a que las competencias investigativas a desarrollar por el

estudiante sean aplicables a su ejercicio profesional. De modo que, le den un valor agregado

como ingenieros creativos e innovadores, y le permita construir unas bases sólidas en caso de

querer una carrera como investigador.

El proyecto se ha enmarcado en la actividad inicial del semillero INGENIATEL, ya que se

entiende que el modelo debe escuchar y reflejar la realidad de los estudiantes de la facultad.

Este proyecto surge como iniciativa de la coordinadora de investigación y es parte de la

estrategia de investigación de la facultad.

Los impactos esperados de un posible despliegue y validación del modelo son facilitar el

cumplimiento de requisitos para la acreditación, crear una base sólida para la generación de

productos de formación de recurso humano, y a largo plazo generar el crecimiento del grupo

de investigación INVTEL.

Este proyecto se plantea por el bajo interés de los estudiantes del programa de ingeniería de

telecomunicaciones en la investigación. Hecho que se evidencia en el número de matriculados

e interés en la electiva investigación II, y en la baja asistencia y participación de estudiantes en

la muestra de proyectos semestral.

Este bajo interés genera algunas dificultades, como que los investigadores inviertan gran

parte del tiempo de los proyectos en corrección de escritos, estructuración de los documentos,

análisis de datos y generación de conclusiones, esto debido al poco desarrollo de las

competencias investigativas de los estudiantes. Además, cada investigador da al estudiante al

estudiante su propia perspectiva sobre que es investigación, generando confusiones y

conflictos.

8 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación Ingeniatel, Universidad Santo Tomás Seccional Bogotá.

Correo electrónico: [email protected]

36

El modelo busca establecer una estructura flexible que articule los diferentes espacios y

actividades de investigación. Para motivar la participación de estudiantes, desarrollar

competencias investigativas, y facilitar a los investigadores la realización de proyectos con

estudiantes.

Introducción

El Sistema Nacional de Acreditación busca fortalecer la calidad de la Educación

Superior, para este fin pública los lineamientos para la acreditación de programas de

pregrado (Consejo Nacional de Acreditación, 2013). En estos lineamentos uno de los

factores a evaluar es el factor de investigación, que está compuesto por dos

características las número 29 y 30. En relación con la No. 29 Formación para la

investigación, la innovación y la creación artística y cultural, los aspectos a evaluar en

relación con los estudiantes contemplan, de manera muy resumida: los programas o

estrategias que busquen generar el espíritu investigativo, mecanismos para identificar

problemas del entorno empresarial, vinculación a semilleros y grupos, actividades

académicas, espacios académicos de investigación, jóvenes investigadores, relación

con empresa en tema de Investigación y desarrollo, participación en proyectos y

programas de innovación.

Las universidades en respuesta a estos lineamientos han iniciado un viaje hacia una

cultura de investigación, con el objetivo de satisfacer los aspectos que avaluaran la

calidad de su educación, sin mencionar, que una de las funciones misionales de

universidad es la investigación. Entonces, es común encontrar iniciativas como

semilleros, grupos de investigación, asignaturas de investigación, eventos científicos,

socializaciones para las iniciativas de los estudiantes (ya sean proyectos de

investigación o aula) y lineamientos y políticas institucionales para la investigación.

Sin embargo, estas iniciativas no están interrelacionadas, ni articuladas de manera

que se permee el currículo y la formación de los estudiantes de manera integral y

duradera.

Se han encontrado referencias relacionadas con iniciativas particulares, por ejemplo

para el caso de semilleros (Torres Soler, 2005). Pero cuando se habla de modelos que

integre diferentes iniciativas y/o espacios académicos para la formación en

investigación, las referencias no abarcan el campo de la ingeniería. Se ha encontrado

algunos modelos en el área de la salud (Marta Rapado-Castro, 2015) y (F. Marco

Martínez, 2010).

Entendiendo que la ingeniería en sí misma busca la generación de soluciones

mediante la aplicación y creación del conocimiento, y no es solo una variedad de

métodos o técnicas a aplicar que generan la especialización, se establece una

estrecha relación entre ingeniería e investigación, y por lo tanto en las competencias

37

que debe desarrollar un ingeniero para enfrentarse al mercado. Puesto que, la

tecnología cambia vertiginosamente gracias a la investigación y desarrollo (I+D), y el

número de innovaciones tecnológicas no para de crecer, podría decirse que son una

exigencia para la competitividad de las empresas y por ende para el desarrollo social

y económico de un país.

De esta manera cobran importancia las competencias requeridas para enfrentar los

cambios tecnológicos desde un enfoque investigativo. Identificar las competencias

genéricas de ingeniería (Martín Palma, 2011), las competencias de un ingeniero según

ABET, entre otras y compararlas con las competencias que según la experiencia son

necesarias para la investigación, permitirá su que estas competencias se trabajen de

forma específica mediante las actividades propuestas en el modelo.

El Proyecto educativo institucional (P.E.I) de la universidad Santo Tomas en la página

27 indica que la investigación debe generar un dialogo entre docente y estudiantes

para la aplicación del conocimiento generando innovaciones, produciendo nuevo

conocimiento o aportando a los problemas nacionales y locales. Apuntando siempre a

contrarrestar el saber con la realidad (universidad Santo Tomás, 2004). Para generar

este dialogo el modelo debe generar espacios de investigación a lo largo de la

permanecía del estudiante en la universidad, que estén articulados e

interrelacionados.

Se pretende mediante la observación de los espacios existentes, los estudiantes y

las necesidades de formación en investigación, plantear un modelo que integre

actividades y espacios, articulados mediante el método de Santo Tomás.

Metodología Empleada

El presente proyecto abarca solamente la primera etapa de un proyecto compuesto

de 4 etapas: Creación del modelo, Despliegue del modelo (Prueba Piloto), Validación

del modelo (medición de impactos) y Optimización del modelo. Las etapas anteriores

se plantean bajo la metodología PHVA (planear, hacer, verificar, actuar) con el objetivo

lograr en un plazo de 3-4 años la aplicación y funcionamiento del modelo dentro de

la facultad de ingeniería de telecomunicaciones.

Esta primera etapa, creación del modelo, se plantea para 9 meses. La metodología

(Figura 1) a emplear se basa en cuatro fases secuenciales: levantamiento de

información, Diseño básico del modelo, Diseño detallado del modelo y requerimientos

de despliegue. El levantamiento de información comprende tanto los espacios de

investigación existentes, como las competencias requeridas para la investigación en

ingeniería, y el entendimiento del método de Santo Tomás. El diseño básico del

modelo comprende la esquematización general del modelo con sus fases, actividades

y articulación. El diseño detallado del modelo está orientado a definir de manera

38

específica las herramientas de cada fase, los mecanismos de aplicación, el detalle de

los espacios tanto en formación como organización, y su interacción. Por último

identificar los requerimientos de despliegue del modelo, esto se refiere a identificar

las necesidades para que el modelo encaje en los procesos institucionales, para

optimizar los recursos en el marco de la facultad de ingeniería de telecomunicaciones

de la universidad Santo Tomás sede Bogotá.

Figura 1. Metodología planteada para la generación de la propuesta de articulación de la

investigación. La imagen fue elaborada por los autores.

Paralelo a las fases anteriores se lleva a cabo la gestión, cuyo fin es documentar el

proyecto, hacer seguimiento del mismo y facilitar la comunicación y toma de

decisiones. Uno de los principales objetivos de un proyecto de investigación es la

producción académica, por lo que una vez diseñado el modelo, se da inicio a la

producción académica que termina con el proyecto.

Resultados y Conclusiones

La Figura 2 muestra un esquema inicial para el diseño del modelo. De manera que el

modelo se estructure en 4 ciclos que están relacionados con los semestres de la

carrera e involucra a aquellos egresados que continúan su formación en investigación.

Cada uno de estos ciclos tiene un enfoque particular orientado a acercar al

estudiante a la investigación, mediante actividades extracurriculares para los

estudiantes, actividades de formación que se denominan apoyo curricular, y

actividades de soporte que buscan interacción entre los estudiantes y los

investigadores, facilitar la creación de redes.

39

Figura 2. Esquema inicial para el diseño básico del modelo. La imagen fue elaborada por los autores.

Esta es una propuesta de investigación que busca acercar a los estudiantes de la

facultad de ingeniería de telecomunicaciones de la sede de Bogotá de la universidad

Santo Tomás, a la investigación mediante el planteamiento de un modelo. Este

modelo debe: ajustarse a la filosofía institucional con el método de Santo Tomás,

contemplar el desarrollo de competencias investigativas, integrar los espacios de

investigación tanto de la facultad como de la universidad, propender el impulso y

consolidación del programa y el grupo INVTEL, y ser cercano a los estudiantes y sus

necesidades.

Referencias

Consejo Nacional de Acreditación. (2013). Lineamientos para la acreditación de programas de

pregrado. Bogotá, D.C: CNA.

F. Marco Martínez, B. F.-G. (2010). Formación para la investigación en patología musculoesquelética:

desde el MIR a la formación médica continuada. Revista Española de Cirugía Ortopédica y

Traumatología, 193-199.

Marta Rapado-Castro, Á. P.-M. (2015). Desarrollo profesional en investigación traslacional en

neurociencias y salud mental: educación y formación dentro del Centro de Investigación

Biomédica en Red en Salud Mental. Revista de Psiquiatría y Salud Mental,, 65-74.

Martín Palma, E. M. (2011). Competencias genericas en ingeniería: Un estudio. XV Congreso

Internacional de Ingeniería de Proyectos, (págs. 2552-2569). Huesca.

Torres Soler, L. C. (2005). Para qué los semilleros de investigación.

Universidad Santo Tomás. (2004). Proyecto Educativo Institucional. Bogotá, D.C.: Editorial USTA.

40

Desarrollo de prácticas de laboratorio

para sistemas de comunicaciones

móviles aplicando radio definido por

software

Mónica Espinosa Buitrago 9[autor]

David Angulo Esguerra 9[autor]

Angie Cristina Triviño Moreno 9[autor]

Miguel Ángel Sarmiento Acosta 9[autor]

Julián Efrén Morales Ortega 9[autor]

Resumen

En el proyecto de prácticas de laboratorio de sistemas de comunicaciones móviles se

planteó desarrollar prácticas de laboratorio para los estudiantes de la facultad de ingeniería de

telecomunicaciones de la Universidad Santo Tomás con el fin de implementar una estación

base de una red GSM (2G) y un sistema ENodeB de una red LTE (4G) utilizando radio definido

por software.

Introducción

Los radios electrónicos de transmisión de las telecomunicaciones inalámbricas, son

sistemas que operan con hardware, que no pueden ser reconfigurados durante la

operación del servicio, generando problemas en su actualización futura y grandes

costos en cambio de hardware por la modificación de cualquier parámetro de uso de

espectro. Por ello han surgido tecnologías en donde los radios de transmisión para

telecomunicaciones inalámbricas pueden ser definidos por software generando la

flexibilidad necesaria en los sistemas de telecomunicaciones espectralmente

eficientes.

En el proyecto el semillero TELESOFT se encuentra realizando una serie de prácticas

de laboratorio utilizando los sistemas del SDR (Software Defined Radio), donde se

identifique la configuración de una estación base en sistemas de comunicaciones

móviles. Para las prácticas a realizar se utilizará un USRP (Universal Software Radio

9 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación Telesoft, Universidad Santo Tomás Seccional Bogotá.

Correo electrónico: [email protected]

41

Peripheral) de referencia N210, que posee gran capacidad de procesamiento de señal,

con variabilidad de frecuencia y compatibilidad al software libre GNU Radio.

Metodología Empleada

En la figura 1 se ilustra el mapa mental donde se evidencian los pasos necesarios

para la ejecución del proyecto de investigación.

Figura 1. Pasos metodológicos para el desarrollo del proyecto. La imagen fue elaborada por

los autores.

A continuación se procede a detallar la metodología propuesta para el desarrollo del

proyecto de investigación:

- Reconocimiento de los sistemas de radio definido por software a nivel de

hardware y software: en la etapa primaria se realiza un proceso de

reconocimiento de las herramientas que brinda el radio definido por software

en relación a la práctica OpenBTS. También es una etapa que permite la

interacción con el equipo y con todos los sistemas que acompañan el

software.

- Implementación de prácticas de laboratorio de una estación base aplicando

OpenBTS: se crea un esquema de los elementos físicos y lógicos que

componen la práctica en su respectivo orden, así como un diseño que

42

permita evidenciar el proceso a llevar a cabo en la implementación de una

estación base de segunda generación de telefonía móvil celular.

- Desarrollo de la práctica OpenBTS software: de acuerdo al esquema previo,

se procede a desarrollar la práctica OpenBTS, con la ayuda de herramientas

físicas como un ordenador, radio definido por software de referencia USRP

Ettus N210, mobile Station (celular), entre otros. Al igual que con la

respectiva instalación del software GNU Radio corriendo sobre el ordenador,

de esta manera se pretende evaluar parámetros de recepción de señal que

permiten determinar la funcionalidad de la estación base.

- Implementación de prácticas de laboratorio ENodeB LTE: luego de la

culminación de la primera práctica y con la documentación pertinente, se

procede a reconocer nuevamente las herramientas SDR esta vez, para la

arquitectura LTE.

- Desarrollo de la práctica LTE ENodeB: esta etapa se compone de una serie de

procesos y señalización ENodeB LTE desarrollada en Linux.

- Documentación de guías: finalizadas las prácticas de laboratorio que

componen el proyecto, se procede con la documentación de las guías de

laboratorio, donde se describe detalladamente paso a paso el proceso que se

llevará a cabo para el desarrollo adecuado de las mismas, sobre formatos

modelados según los lineamientos de la facultad de ingeniería de

telecomunicaciones.

- Registro de guías de laboratorio: como método de ayuda académico para la

asignatura sistemas de telecomunicaciones móviles y con el fin de apoyar los

procesos que se adelantan en semilleros de investigación en la facultad de

ingeniería de telecomunicaciones, se anexarán a este proyecto las guías de

laboratorio.

Resultados y Conclusiones

Los resultados que se mostrarán a continuación se basan en sistemas móviles de

segunda generación. Para esto se hizo uso del software libre OpenBTS que soporta la

prestación del servicio de llamadas de voz y el envío de mensajería de texto, con la

aplicación de sistemas de radio definido por software.

Para la implementación del software OpenBTS, es necesario la instalación de una

serie de herramientas gestionadas desde su propia interfaz de línea CLI (Command

Line Interface), estas herramientas se observan en la Tabla 2. Además, todas las

herramientas son instaladas en conjunto con OpenBTS en sistema operativo de

distribución Linux.

43

Una vez culmine el proceso de instalación del software OpenBTS, se realiza las

configuraciones necesarias para generar una portadora en banda de frecuencia de

900 MHz y corrimiento de señal de 59.5 MHz, con el fin de, disminuir los niveles de

interferencia. Se observa en la Figura 2, la portadora emitida por la estación base,

graficada en analizador de espectro ROHDE & SCHWARZ.

Posterior a la configuración de la banda de frecuencia y la canalización de la

portadora, es posible buscar la red en los terminales. El método utilizado para

acceder a la red difiere según el sistema operativo del terminal, a continuación se

realiza la demostración del proceso de búsqueda para terminales iOS y Android.

Tabla 2. Herramientas utilizadas para la puesta en marcha de la estación base GSM (2G). La tabla fue

elaborada por los autores.

Herramienta de Gestión Software Instalado Descripción de la herramienta

OpenBTS

Sipauthserve

Es un servidor funcional para la

gestión de los usuarios. Permite

verificar y modificar los

permisos de cada usuario

conectado a la red, al igual que

eliminar o agregar nuevos

terminales.

Smqueue Ejecuta y verifica los permisos

necesarios para el envío de

mensajería de texto corta entre

usuarios inscritos previamente

en la estación base.

Asterisk

Modifica la conexión de los

usuarios, mediante la interfaz

de aire Um, para ser

visualizados por la red como

clientes SIP (Session Initiation

Protocol) y de esta manera,

realizar llamadas de voz entre

terminales o entre terminal y

estación base.

44

Figura 2. Portadora estación base. La imagen fue elaborada por los autores.

En la Figura 3, se observa la metodología utilizada para la selección de red. Los

pasos para encontrar la red Test PLMN 1-1 en un terminal con sistema operativo iOS

son:

- Ingresar a ajustes.

- Seleccionar la barra de operadores.

- Deshabilitar la opción de operador automático (inmediatamente el terminal

buscará las redes disponibles).

- Seleccionar la red Test PLMN 1-1.

Figura 3. Búsqueda de la red en terminal iOS. La imagen fue elaborada por los autores.

En la Figura 4, se observa la metodología utilizada para la selección de red. Los

pasos para encontrar la red Test PLMN 1-1 en un terminal con sistema operativo

Android son:

- Ingresar a ajustes o configuraciones.

- Seleccionar la barra más.

- Seleccionar la barra de redes móviles.

45

- Seleccionar la barra de operador de red. (Automáticamente el terminal realiza

la búsqueda de las redes disponibles, en caso contrario seleccionar la barra

buscar redes).

- Seleccionar la red Test PLMN 0001-01.

Figura 4. Búsqueda de la red en terminal Android. La imagen fue elaborada por los autores.

Finalizado el proceso de suscripción de los terminales en la red, con el comando

(tmsis) en el CLI de OpenBTS, pueden ser vistos por el administrador de la estación

base. Se observa a continuación en la Figura 5, IMEI e IMSI que caracterizan a cada

dispositivo.

Figura 5. Información dispositivos conectados a la red. La imagen fue elaborada por los autores.

Para verificar el servicio de mensajería de texto en los terminales, se envía un

mensaje de texto al número 411, la estación base retorna un mensaje de acuso que

permite hacer veraz la comunicación, esta prueba se puede observar en la Figura 6.

46

Figura 6. Verificación servicio de mensajería de texto. La imagen fue elaborada por los autores.

Para realizar una llamada de voz de un terminal hacía la estación base, es necesario

ingresar al panel numérico y digitar el número 2602. Es generado un canal de tráfico

por el terminal y la estación base retorna los mismos sonidos enviados. También se

puede llamar al número 2600 y la estación base esta vez retorna un sonido continuo

como prueba del servicio de llamadas de voz activo.

En la Figura 7, se observa que existe un canal de tráfico TCH (Traffic Channel) en

uso, que es canalizado al momento de realizar un llamado de voz al número 2602,

igualmente se observan parámetros de transmisión y finalmente el IMSI del terminal

que efectuó la llamada.

Figura 7. Verificación servicio de llamadas de voz. La imagen fue elaborada por los autores.

Una vez mínimo dos terminales se encuentren registrados en la base de

datos de OpenBTS y estén conectados a la red, pueden realizar llamadas de

voz entre sí. Digitando el número con el cual fue registrado en la base de

datos en el panel numérico, es posible efectuar la comunicación entre

ellos.

En la Figura 8, se observan dos canales de tráfico ocupados en la estación

base, de esta manera se comprueba que la llamada ha sido satisfactoria.

Figura 8. Llamadas de voz entre dos terminales. La imagen fue elaborada por los autores.

47

A continuación se observan los protocolos capturados en cada uno de los procesos

de señalización y tráfico. En la Figura 9, es posible visualizar el proceso de

señalización que se establece con el uso del protocolo SIP. Además, del terminal

fuente que corresponde al IMSI 732101077701186, utilizando el canal de tráfico.

Figura 9. Captura del protocolo SIP. La imagen fue elaborada por los autores.

A continuación, se observa la verificación del canal seleccionado para la transmisión

de datos en la estación base, el cual fue el canal 121 con frecuencia central de 959.2

MHz en enlace descendente y 914.2 MHz para enlace ascendente. La Figura 10,

permite observar igualmente la utilización del protocolo gsmtap en la estación base.

El protocolo gsmtap encapsula tramas GSM procedentes de la interfaz de aire (um).

Figura 10. Captura del protocolo gsmtap. La imagen fue elaborada por los autores.

La práctica de laboratorio comprendida en la implementación de una estación base

de segunda generación, fue determinante para evidenciar los factores tecnológicos

necesarios para el adecuado servicio de la estación base. Por lo tanto, se determinó

que las herramientas elementales para la puesta en marcha de la misma son: un

48

servidor funcional en el manejo y control de las bases de datos, otro para el servicio

de mensajería de texto corta, otro para la canalización del tráfico de voz y una última

herramienta para generar y realizar configuraciones de la portadora en el canal

descendente.

El servicio de llamadas de voz demostró gran calidad de servicio al momento de

realizar el cambio de la banda de frecuencia de 850MHz a 900MHz. La comunicación

entre dos terminales fue clara y no se observaron interferencias notorias.

Referencias

Espinosa Buitrago, Mónica (2014). Desarrollo de prácticas de laboratorio aplicando radio definido

por software para sistemas de telefonía móvil celular [Trabajo de grado]. Bogotá D.C.:

Universidad Santo Tomás Colombia.

Dillinger, M., Madani, K. et al (2003). Software defined radio: Architectures, systems and functions.

West Sussex (England): John Wiley & Sons, first edition. ISBN: 0-470-85164—3.

49

Propuesta para identificación de

personas en distintas posturas,

integrado al prototipo “HELFEN”, a

partir de los patrones generados por

KINECT

Julián David Sierra Herrera 10[autor]

Jonathan Martínez Susunaga 10[autor]

Jesús Augusto Guzmán Lozano 10[autor]

Fernando Prieto Bustamante 10[autor]

Resumen

En este artículo se desarrolla una propuesta para el reconocimiento de personas atrapadas

en casos de desastres (para ser integrado en un carro de rescate llamado “Helfen”) utilizando

como base la revisión de algunos artículos desarrollados que muestran cómo utilizar el sensor

Kinect de Microsoft para obtener datos que permitan reconstruir y modelar tanto la persona

expuesta en el sensor como el ambiente en el que está inmerso. Para esto, se estudia primero

la forma en que funciona el sensor y cómo se utilizan los datos arrojados por este para el

procesamiento, luego se revisa los estudios similares para analizar pros y contras de aplicar

metodologías similares en este trabajo, después de esto se desarrolla la propuesta, y por

último se sacan algunas conclusiones sobre Software y manejo de datos entre otros.

Las preguntas de investigación planteadas son las siguientes: ¿Es posible identificar un ser

humano con vida y su posición en situaciones de difícil acceso durante un desastre a través de

redes de sensores operados de un dispositivo móvil?, ¿Es posible identificar seres humanos en

diferentes posturas a partir de los patrones generados por Kinect, integrado al prototipo

“Helfen”?

Introducción

Para el desarrollo de un robot de rescate de seres humanos en desastres, se

considera importante tener la capacidad de ver el ambiente en el que el robot se

sumerge, para que sea posible diferenciar objetos y animales de personas, y la

10 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación SEVENT, Universidad Santo Tomás Seccional Bogotá.

Correo electrónico: [email protected]

50

condición en que se encuentra. En la actualidad existen varios estudios que buscan a

partir de los sensores de un Kinect poder diferenciar las posturas y gestos de un ser

humano, pero únicamente cuando se encuentra en un rango de distancias y en

posición frontal al sensor. Todo esto se desarrolla utilizando al máximo las

características del dispositivo desarrollado por Microsoft a partir de diversos

lenguajes de programación. En este estudio se busca analizar la posibilidad de

optimizar un sensor Kinect para que pueda ser capaz de reconocer personas sin

importar la posición en que estas se encuentren con respecto al sensor, y de ser

posible, proponer la configuración para su funcionamiento e integración a un robot

de rescate.

Metodología Empleada

El tipo de Investigación adelantada es aplicada, y la metodología planteada es de

corte cualitativo.

En la figura 1 se ilustra un mapa mental donde se ilustra los pasos metodológicos

sugeridos para el desarrollo del proyecto.

Figura 1. Diagrama de flujo de la propuesta. La imagen fue elaborada por los autores.

51

Resultados y Conclusiones

Luego de estudiar diversas formas en que se podría reconocer un ser humano en

dificultados, se ve factible usar el Kinect debido a que este dispone de un algoritmo

de reconocimiento del cuerpo humano, esto lo hace una herramienta fuerte para el

objetivo de HELFEN, que integrado con otros sensores en estudio lograra reconocer

además que esté vivo.

Se logró reconocer a Kinect V2 como una fuerte herramienta con el atenuante que

requiere demasiada capacidad de procesamiento y alto consumo de energía.

Las conclusiones obtenidas a la fecha son las siguientes:

- Es posible utilizar el sensor Kinect para innumerables tareas, entre ellas

modelar objetos y habitaciones, recrear en 3D personas e identificar

posiciones.

- Es posible identificar personas a través de Kinect, utilizando al máximo la

funcionabilidad del mismo, y realizando un algoritmo selectivo, dependiendo

del entorno en el que se encuentre.

- La versatilidad del sensor permite trabajar dos técnicas de reconstrucción,

permitiendo alternarlas para poder realizar el reconocimiento de personas.

- Debe analizarse los datos obtenidos de forma correcta, manejando un

margen de error y otros elementos de la probabilidad, para desarrollar

correctamente un modelo funcional a partir de un número de pruebas

pequeño.

Referencias

Y. Iwano, K. Osuka, and H. Amano, (2005) “Posture manipulation for rescue activity via small traction

robots,” EEUU, IEEE.

G. K. Dey, R. Hossen, M. S. Noor, and K. T. Ahmmed, (2013) “Distance controlled rescue and security

mobile robot,” Int. Conf. Informatics, Electron. Vision, ICIEV.

J. Tran, A. Ferworn, M. Gerdzhev, and D. Ostrom, (2010) “Canine assisted robot deployment for

urban search and rescue,” 8th IEEE Int. Work. Safety, Secur. Rescue Robot. SSRR-2010.

“¿QUE ES UN SENSOR?”, Recuperado de:

http://www.profesormolina.com.ar/tecnologia/sens transduct/que es.htm.

“Kinect de Xbox One: ¿cómo funciona la nueva versión del sensor?” Recuperado de:

http://hipertextual.com/2013/10/kinect-xbox-one-funcionamiento.

“4. Curso de Kinect – Detectando Esqueletos.”. Recuperado de:

https://www.youtube.com/watch?v=z1exGg3DCo4&list=PLGlfxrSj1dRflUF3tknkcE2Xs9k7cMsre&ind

ex=4.

52

“How the Kinect Depth Sensor Works in 2 Minutes.” Recuperado de:

https://www.youtube.com/watch?v=uq9SEJxZiUg.

“Kinect por Dentro.”. Recuperado de:

http://www.todojuegos.cl/fotos index/news/kinect x Dentro.html.

“Kinect for Windows version 2: Body tracking —Vangos PterneasVangos Pterneas.” Recuperado de:

http://pterneas.com/2014/03/13/kinect-for-windows-version-2-body-tracking/.

“Características Kinect 2 — Kinect for Developers.”

Recuperado de:

http://www.kinectfordevelopers.com/es/2014/01/28/caracteristicas-kinect-2/.

“OpenNI: la alternativa open source para interaccionar con Kinect.” Recuperado de:

http://animusproject.wix.com/web/apps/blog/openni-la-alternativa-open-source-para-hablar.

“Acquiring Image and Skeletal Data Using Kinect- MATLAB & Simulink.” Recuperado de:

http://www.mathworks.com/help/imaq/acquiring-image-and-

skeletal-data-using-the-kinect.html.

M. Corporation, “Los súper poderes del rastreo esquelético de Kinect.”. Recuperado de:

http://blogs.technet.com/b/microsoftlatam/archive/2012/05/14/los-s-250-per-poderes-del-

rastreo-esquel-233-tico-de-kinect.aspx. [Accessed: 18-Mar-2015].

H. Heickal, T. Zhang, and M. Hasanuzzaman, “Real-time 3D full body motion gesture recognition,”

(2013), Proceeding IEEE Int. Conf. Robot. Biomimetrics, no.

J. Smisek, M. Jancosek, and T. Pajdla, “3D with Kinect,” (2011). IEEE International Conference on

Computer Vision Workshops (ICCV Workshops).

53

Implementación y Control del

movimiento del vehículo “HELFEN” a

través de XBee

Mariana Medina Castaño 11[autor]

Jesús Augusto Guzmán 11 [autor]

Pedro Alejandro Mancera 11[autor]

Resumen

En el presente documento se presentan los resultados de investigación del proyecto “Helfen”:

Implementación y Control de movimiento del vehículo HELFEN a través de XBee. Se desarrolló

un instructivo explicando paso a paso la interacción entre Java-Arduino-Shield para un posible

prototipo del vehículo Helfen, cuyo objetivo básico es el movimiento inalámbrico por medio de

módulos XBee garantizando una comunicación bidireccional entre el computador y el

prototipo en las 4 direcciones: adelante, atrás, derecha e izquierda.

Posteriormente se ejecutaron pruebas de alcance de señal y de potencia, y se midió la

longitud del enlace inalámbrico, verificando que ambos equipos sean reconocidos en la misma

red de comunicación y a través de mediciones específicas de los parámetros, usando un

analizador de espectro con ancho de banda que cubre frecuencias de hasta 8 GHz.

La pregunta de investigación planteada fue la siguiente: ¿Es posible identificar un ser

humano con vida y su posición en situaciones de difícil acceso durante un desastre a través de

redes de sensores operados de un dispositivo móvil?, y la pregunta específica fue ¿Es posible

gestionar con tiempo de respuestas rápidas la información proveniente de la red de sensores

dispuestos en HELFEN a través de transmisión por XBee?

Introducción

La facultad de ingeniería de telecomunicaciones de la universidad Santo Tomás,

según sus lineamientos de investigación, apoya los proyectos que generen un alto

impacto social aplicando las Tecnologías de la Información y las Comunicaciones

TIC’s. Desde el semillero de investigación SEVENT, se está trabajando en el proyecto

“HELFEN”, un vehículo no tripulado, guiado por un dispositivo móvil tipo celular o

tableta, que por medio de una red de sensores interconectados de forma inalámbrica,

pueda detectar seres humanos sobrevivientes a siniestros bajo los escombros.

11 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación SEVENT, Universidad Santo Tomás Seccional Bogotá.

Correo electrónico: [email protected]

54

Metodología Empleada

El tipo de investigación adelantada es aplicada, y la metodología que se empleó

para el alcance de los objetivos planteados es de corte cualitativa.

Resultados y Conclusiones

En las figura 1 y 2 se presentan los espectros de magnitud de la señal de 2.4 GHz

generada por los módulos inalámbricos medidas con el analizador de espectro

presente en el laboratorio de la facultad, donde se evidencia la existencia del canal

inalámbrico generado por la red de módulos XBee.

Figura 1. Espectro de la banda de 2,4 GHz. La imagen fue elaborada por el autor.

Figura 2. Espectro de transmisión de módulo XBee. La imagen fue elaborada por el autor.

55

Los resultados alcanzados en el proyecto de investigación a la fecha son los

siguientes:

- Se estableció de forma exitosa un enlace de comunicaciones inalámbricas

entre los dispositivos XBee, desde el prototipo de Helfen.

- Se cuantifico la potencia del canal en el que se encuentran los dispositivos

inalámbricos.

- Se generó una comunicación exitosa entre los tres software, Arduino-java-

shield, manejados inalámbricamente con los dispositivos XBee.

- Como resultado de distintas pruebas, fue posible disminuir el consumo total

de energía del vehículo aplicando las opciones de optimización de energía

del módulo XBee, aspecto prioritario en el proyecto para aumentar el tiempo

de vida del vehículo y los elementos que lo componen.

- Fue posible controlar el vehículo Helfen con tiempos de respuestas rápidos

desde java sin tener en cuenta el peso de los sensores a instalar.

Adicionalmente se concluyó que en escenarios con línea de vista es posible

controlar el movimiento del vehículo hasta unos 35 metros.

Referencias

Al-Karaki, J. N., & Kamal, a. E. (2004). Routing techniques in wireless sensor networks: a survey. IEEE

Wireless Communications,11(6), 6–28. http://doi.org/10.1109/MWC.2004.1368893

Egea-Lopez, E. (2005). Simulation tools for wireless sensor networks. Summer simulation

multiconference SPCECT 2005. Retrieved from www.researchgate.net/profile/Pablo_Pavon-

Marino/publication/255642447_Simulation_Tools_for_Wireless_Sensor_Networks/links/556f

07ed08aeab77722828d9.pdf

Lewis, F. L. (2004). Wireless Sensor Networks, 1–18. http://doi.org/10.1007/b117506

Nan, W., & Xue-li, S. (2009). Research on WSN Nodes Location Technology in Coal Mine. 2009

International Forum on Computer Science-Technology and Applications, 232–234.

http://doi.org/10.1109/IFCSTA.2009.296

56

Diseño de la infraestructura de red

de nueva generación de la Facultad

de Ingeniería de Telecomunicaciones

para ofrecer servicios de voz, datos y

vídeo

Daulys Juliana Cantillo Lurán 12[autor]

Maria Camila Meneses Jaimes 12[autor]

Meleny Luna Ortiz 12[autor]

Diana Carolina Contreras Jáuregui 12[autor]

Resumen

En la actualidad, la tecnología digital disponible y los diferentes medios de acceso permiten

que diversos sectores como lo son las Telecomunicaciones, los datos, la radio y la televisión se

unan en una misma. Este fenómeno es conocido como Convergencia y debido a esto, las redes

deben mejorar para poder lograr la congruencia de estos nuevos servicios multimedia.

Para soportar de manera adecuada estos servicios las redes están evolucionando hacia las

redes de Nueva Generación (NGN). Según la UIT- T las redes NGN son redes basadas en la

transmisión de paquetes capaz de proveer servicios integrados, incluyendo las tradicionales

redes telefónicas, y capaz de explotar el máximo ancho de banda del canal, haciendo uso de

las técnicas de calidad del servicio (QoS), de modo que el transporte sea totalmente

independiente de la infraestructura de red utilizada. Adicionalmente, debe ofrecer acceso libre

para usuarios de diferentes compañías telefónicas y apoyar la movilidad, que permite acceso

multipunto a los usuarios. El objetivo de esta norma, y de todos estos modos de convergencia,

es proporcionar servicios multimedia con una calidad aceptable sobre redes no orientadas a

conexión y que no ofrecen una calidad de servicio determinada, es decir, redes basadas en el

Protocolo de Internet (IP), siendo el factor más importante que guía el proceso de

convergencia.

Actualmente, gracias al aumento del ancho de banda disponible, a los estándares de

compresión y a las nuevas tecnologías de red y de equipamiento de usuario existente, los

operadores se ven en condiciones de ofrecer nuevos servicios avanzados, basados en IP, a los

usuarios residenciales, que incluyen tres tipos básicos de servicios en tiempo real (VoIP, IPTV,

12 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación de Comunicaciones Aplicadas (SICA), Universidad

Santo Tomás Seccional Bucaramanga. Correo electrónico: [email protected]

57

acceso a internet de banda ancha), combinables en diferentes paquetes y a los cuales se puede

acceder tanto a través de redes cableadas como inalámbricas.

Por lo anterior, este proyecto permitirá desarrollar una propuesta de servicios audiovisuales

y multimedia interactivos para la red de la Facultad de Ingeniería de Telecomunicaciones, que

incluye el diseño, la Arquitectura, las Tecnologías de acceso y el funcionamiento de estos

servicios audiovisuales y multimedia.

Esto se llevara a cabo, primero mediante el estudio y análisis de los diferentes servicios

multimedia (VozIP, Internet y Televisión) interactivos en las redes IP, que permitan identificar la

infraestructura necesaria para su desarrollo; así como definir la arquitectura, los componentes

funcionales y los diferentes protocolos de transmisión y comunicación básicos a utilizar para

los diversos servicios identificados.

Seguidamente, se diseñará la red de servicios multimedia, incluyendo la arquitectura y

tecnología de acceso acorde con las necesidades en la red validando estas características

identificadas y propuestas en el diseño.

Paralelamente al diseño planteado y a su validación, se llevará a cabo una prueba piloto

donde se establecerá el servicio de VozIP y se entregará un informe evaluativo del

funcionamiento, configuración y rendimiento de cada uno de los parámetros identificados en

el diseño propuesto.

Con todo esto se desarrollará una guía digital de servicios multimedia interactivos para la

red de la Facultad de Ingeniería de Telecomunicaciones la cual contiene los requerimientos

técnicos (arquitectura, tecnologías de acceso) y funcionales (protocolos y QoS) necesarios para

los servicios propuestos.

Introducción

El continuo y acelerado crecimiento de la oferta y demanda de servicios multimedia

interactivos a nivel mundial, ha obligado a que las redes actuales crezcan de igual

forma y se optimicen acorde a los requerimientos exigidos por un cúmulo de usuarios

que consumen gran información digital y que cada vez incrementan el nivel de

exigencia.

La necesidad mundial de crear y actualizar redes de comunicaciones, la renovación

continua de conceptos como Redes de Nueva Generación (NGN siglas en inglés), el

constante desarrollo e investigación de protocolos de comunicaciones en busca de

una óptima convivencia de las tecnologías presentes y la apabullante aparición de

nuevas necesidades y servicios tecnológicos, conllevan a que los agentes de

diferentes sectores quienes interactúan con una gran masa de personas sin

clasificación, potencialicen sus servicios con la finalidad de estar un paso adelante de

las exigencias que sus usuarios les demanda.

Tal es el caso de los servicios de televisión, internet y voz, que gracias a la

investigación y desarrollo en su momento, permitieron la convivencia de estos en un

entorno IP, lo que condujo a la apertura de un mundo de nuevas estrategias

58

comerciales, servicios interactivos, aplicaciones y demás aspectos que

indudablemente despertaron nuevos intereses en los usuarios.

Ahora bien, en nuestro entorno académico, la demanda de servicios crece cada día,

demanda producida por estudiantes que son asiduos consumidores de herramientas

multimedia las cuales son utilizadas como alternativas de comunicación y de

entretenimiento.

Es por esto que es imprescindible, disponer de recursos tecnológicos que permitan

soportar esta gran demanda de servicios y a su vez actualizarlos con base en las

manifestaciones de los usuarios y ejercer una total vigilancia de las redes sociales,

fuente que genera la mayor cantidad de información sobre comportamiento, gustos,

comunidades urbanas y demás expresiones que nacen en un mundo de constante

crecimiento.

Con base en lo anterior, se observa la necesidad de redimensionar las

funcionalidades de una red que en sus origines, su función se basa en la transmisión

de datos totalmente relevantes a un ejercicio administrativo propio del

funcionamiento de la Universidad; y dar un vuelco significativo y vincular nuevos,

modernos y funcionales servicios interactivos para satisfacer la demanda generada

por los cientos de nuevos usuarios de la red.

En ese orden de ideas, el planteamiento del presente proyecto, a partir de un

rediseño tecnológico e innovador, busca la inclusión de una plataforma de servicios

multimedia interactivos (televisión, audio, texto, gráficos) que permita el acceso y

difusión de la información; la inmersión de la universidad a un mundo en donde

conozca y comparta las experiencias y necesidades expresadas por los estudiantes en

un medio interactivo; la creación de nuevas estrategias a partir de medios digitales

para fomentar la identidad propia y conservación de los valores; la innovación de

acciones estratégicas para promoción y el crecimiento de la comunidad universitaria.

Teniendo en cuenta las anteriores consideraciones, surge la siguiente pregunta de

investigación, que conducirá al desarrollo de este proyecto.

¿Cuál es la arquitectura y tecnología de acceso requerida para la red NGN de la

Facultad de Ingeniería de Telecomunicaciones que le permitan ofrecer servicios

multimedia interactivos de voz, datos y video?

Metodología Empleada

El enfoque de investigación es EMPÍRICO – ANALÍTICO, puesto que en el proyecto se

requiere hacer un estudio y análisis acerca de los diferentes servicios audiovisuales y

multimedia interactivos que se puedan implementar en la red NGN de la Facultad de

Ingeniería de Telecomunicaciones, con el fin de analizar las necesidades y

requerimientos de dicha red, para poder establecer nuevos servicios soportados en

59

redes IPv4 o IPv6, se definirá para estos servicios su arquitectura, tecnología de

acceso, y protocolos de transmisión y comunicaciones , que permitan diseñar y validar

mediante una prueba piloto los diferentes parámetros que garanticen una buena

calidad del servicio específicamente para el servicio de VozIP. Dado lo anterior, se

podrá desarrollar una guía digital de servicios multimedia interactivos sobre la red de

la Universidad.

Instrumentos: Para la recolección de la información se utilizara:

• Revisión bibliográfica de información especializada

• Revisión e interpretación de infraestructura, arquitectura y tecnologías de

acceso para los servicios audiovisuales y multimedia interactivos actuales y futuristas

• Revisión de casos de éxito de proyectos similares a nivel nacional e

internacional

• Diseño y Validación mediante pruebas piloto

Procedimiento: Para poder definir los servicios multimedia interactivos para la red

NGN de la Facultad, es necesaria una revisión bibliográfica de la adquisición,

procesamiento y distribución de los servicios disponibles sobre la infraestructura de

la red IP. Esto permite establecer los servicios multimedia que soporta la red NGN de

la Facultad de Ingeniería de Telecomunicaciones.

A partir de lo anterior, se trabajará iterativamente con la revisión bibliográfica de

información especializada y de los casos de éxitos publicados a nivel nacional e

internacional, para la interpretación de los requerimientos funcionales y no

funcionales de los servicios multimedia previamente establecidos, definiendo la

arquitectura, la tecnología de acceso y los protocolos.

A continuación, se establecerá, el diseño y validación de la infraestructura,

anteriormente revisada para lo cual se llevará a cabo una prueba piloto del

funcionamiento del servicio de VozIP que permita garantizar la calidad del servicio.

Complementando el trabajo previo, se elaborará una guía digital de servicios

multimedia interactivos, vía software, que se catalogará como producto entregable.

Resultados y Conclusiones

Se realizó una consulta bibliográfica sobre redes de nueva generación NGN sobre la

cual se planteó un diseño de la arquitectura para la red NGN donde se integren los

servicios de voz, datos y video para la facultad de Ingeniería de Telecomunicaciones

de la Universidad Santo Tomás sede Bucaramanga.

La implementación de este tipo de tecnología como apoyo de aprendizaje nos

permitió familiarizarnos con las competencias necesarias para un mejor desempeño

como Ingenieros de Telecomunicaciones.

60

Referencias

Restrepo, A. M. (2009). Visión General de las Redes de Próxima Generación (NGN). Medellín.

Joskowicz, J. (Agosto de 2013). Voz, Video y Telefonía sobre IP. Montevideo, Uruguay.

UNLP. (2013). www.ing.unlp.edu.ar. From

http://www.ing.unlp.edu.ar/electrotecnia/procesos/ieee8023.pdf

Diego Fabián Durán Dorado, J. A. (2013). Arquitectura para el despliegue del servicio de video bajo

demanda de IPTV, apoyada en interactividad y sistemas de recomendaciones. ITECKNE, 10

(1).

ITU. (2015). www.itu.int. From

http://www.itu.int/itunews/manager/display.asp?lang=es&year=2009&issue=03&ipage=24

&ext=html

Chimborazo Navarrete, H. G. (2009). Diseño de una red de voz, datos y vídeo para el mall financiero

de la Cooperativa de Ahorro, Crédito y Vivienda de la Cámara de Comercio de Ambato.

Quito: EPN.

Vallina, M. M. (2013). Infraestructuras de redes de datos y sistemas de telefonía. Paraninfo.

Tejedor, R. J. (2007). Redes de datos y convergencia IP. Creaciones Copyright.

Wilson Pérez, M. R. (2009). La sociedad de la información en América Latina y el Caribe: desarrollo

de las tecnologías y tecnologías para el desarrollo. United Nations Publications.

Falcón, J. A. (2007). VoIP: La telefonía de Internet. Editorial Paraninfo.

61

Dental QR

Camilo Alfonso Jerez 13[autor]

Ricardo Andrés Díaz Suarez 13[autor]

Resumen

En el presente documento se mostrará una alternativa al problema de clasificación y

seguimiento de los pacientes, usuarios de prótesis dentales con identificación QR - code. El

seguimiento se lleva a cabo cuando se leen los datos en la prótesis dental, previamente

impresos en el lenguaje de código QR, al percibir la información, el software envía la

información contenida en la prótesis a una base de datos, donde se registran los datos del

paciente.

Introducción

Dentro de este proyecto de investigación se realizó un aplicativo software para el

seguimiento e implementación de prótesis dentales, esta solución permite tener un

registro de los códigos QR insertados dentro de la prótesis dental.

El código de respuesta rápida QR, ofrece ventajas frente otros códigos

bidimensionales de codificación, una de sus principales capacidades es la velocidad

de lectura, esto se evidencia en el posicionamiento y sincronización de tres puntos de

referencia localizados en las esquinas principales del código. Otra característica del

código QR es su capacidad de almacenamiento alfanumérico junto con la seguridad

del ordenamiento de datos, estos evitan la recodificación una vez generado y

aplicado, la información codificada está distribuida por la matriz del código de

respuesta rápida, conociendo este sistema de codificación se efectúa la aplicación

software.

Metodología Empleada

La metodología se realizó por etapas donde primero se realizó un estado del arte

sobre el control de inventarios utilizando el código QR - code, donde se estudiaron

los diferentes factores que definen los códigos bidimensionales de codificación, como

lo fueron el DataMatrix, Microsoft Tag, MaxiCode, Code 16K, junto con los códigos de

barras, donde se tomó la decisión de trabajar con el Código QR - code.

13 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación REDSI, Universidad Santo Tomás, Bucaramanga.

Correo electrónico: [email protected]

62

Luego se evaluaron los requerimientos para la elaboración del software, los cuales

están en función de: la información del paciente, el serial de la placa, junto con otra

información adicional presentada por el médico, como los registros antiguos o de

versiones anteriores a la placa presente. Estos factores se tomaron en cuenta para el

desarrollo del aplicativo software y el respectivo registro.

Se presentaron varios inconvenientes relacionados con la lectura del Código, la

resolución de la cámara, ya que si se leía con una cámara de baja resolución, el

código no podía identificar perfectamente los patrones de posición, alineamiento y

sincronización, ya que estos aparecían muy borrosos o no se podían enfocar muy bien

la cámara, otro elemento importante era la cantidad de cera aplicada en la prótesis

para poder adherir el código QR sobre esta, impidiendo una mejor lectura del código

por la presencia de cera abundante sobre el código, otro problema encontrado fue la

posición del código en la placa dental, ya que en este factor la estética juega un papel

importante y se tiende a que no se perciba la aplicación del código QR, en la placa

cuando el paciente sonría o hable.

Por último, para el desarrollo del software, se basó en Processing un lenguaje de

programación y de desarrollo integrado de código abierto en base JAVA, la librería

base del software fue: diewald_barcode, y para el seguimiento y almacenamiento de

pacientes se usó el sistema de gestión de bases de datos PostreSQL.

Resultados y Conclusiones

A continuación se presentan en las figuras 1 hasta la 9 los resultados de la lectura

de codificación QR de las placas dentales.

En las figuras 1 y 2 se presentan las prótesis empleadas con sus respectivos códigos

QR.

Figura 1. Prótesis 1. La imagen fue elaborada por los autores.

63

Figura 2. Prótesis 2. La imagen fue elaborada por los autores.

En la figura 3 se presenta la interfase hombre – máquina del software lector del

código QR, y en la figura 4 la aplicación instalada y funcionando en un teléfono

celular para leer códigos QR.

Figura 3. Software lector del código QR en Processing. La imagen fue capturada por los autores.

64

Figura 4. Software lector de código Qr, que envía los datos al correo. La imagen fue elaborada por

los autores.

En las figuras 5 y 6 se muestra a uno de los miembros del equipo de investigación

leyendo el código QR y la lectura asociada de la información.

Figura 5. Software leyendo el código en la prótesis dental. La imagen fue elaborada por los autores.

65

Figura 6. Lectura del código de la prótesis dental. La imagen fue elaborada por los autores.

Figura 7. Datos enviados listos para ser enviados al correo. La imagen fue elaborada por los autores.

66

Figura 8. Correo de la información de la prótesis dental. La imagen fue elaborada por los autores.

Figura 9. Usuarios registrados cuando el código Qr es leído. La imagen fue elaborada por los

autores.

Las conclusiones más relevantes del trabajo son las siguientes:

- Se elaboró un aplicativo software de escritorio y para dispositivo móvil que

permite la lectura de los códigos QR de las placas dentales.

- Se implementó una base de datos, que almacena los códigos leídos, que

cumplan los requisitos como lo son el nombre, el documento de

identificación, entre otros.

- El uso de esta codificación dentro de las prótesis permite tener mayor

información en de la prótesis en un área más pequeña.

67

Referencias

© ISO/IEC 2000 – All rights reserved. (2000). INTERNATIONAL. Recuperado el 22 de Mayo de 2015,

de Information technology — Automatic:

http://www.swisseduc.ch/informatik/theoretische_informatik/qr_codes/docs/qr_standard.p

df

Narayanan, A. S. (2012). QR Codes and Security Solutions . Recuperado el 22 de Mayo de 2015, de

International Journal of Computer Science and Telecommunications :

http://www.ijcst.org/Volume3/Issue7/p13_3_7.pdf

SERENO, E. (2012). EMPRESARIADOS. Recuperado el 22 de 04 de 2015, de

http://empresariados.com/las-ventajas-de-los-codigos-qr/

Soon, T. J. (2014). https://foxdesignsstudio.com. Recuperado el 22 de 04 de 2015, de Section Three

QR Code: https://foxdesignsstudio.com/uploads/pdf/Three_QR_Code.pdf

Yue Liu, J. Y. (2008). Recognition of QR Code with Mobile Phones. Jinan - China: School of

Information Science and Engineering, University of Jinan - China.

68

DomoHouse

Meleny Luna Ortiz 14[autor]

Diego Ferney Martínez Cuadros 14[autor]

Yordy Leonardo Ávila Granados 14[autor]

Ricardo Andrés Díaz Suarez 14[autor]

Elvis Humberto Galvis Serrano 14[autor]

Resumen

Este proyecto consiste principalmente en la elaboración de un entorno domótico el cual

cuenta principalmente con un desarrollo de una interfaz para ordenadores y para dispositivos

móviles, con la cual se puede interactuar y controlar, también cuenta con un sistema de luces,

un motor o aparato electromecánico (Fuente de agua), y un sensor de presencia, con lo cual se

emulan los diferentes actores de un entorno doméstico. El control del dispositivo

electromecánico se hace a través del ordenador por medio de una aplicación Java, y el control

de los demás dispositivos se hace a través de una aplicación desarrollada en el IDE Processing

en lenguaje Java y trabaja sobre plataforma Android, el control de los dispositivos se puede

realizar por medio de botones en las dos plataformas, y a través de comandos de voz en el

dispositivo móvil, de esta forma se logra interactuar de buena forma con el banco domótico

creado. Para el control del dispositivo electromecánico se tiene la aplicación la cual cuenta con

un interruptor de encendido y apagado por cada dispositivo XBee que se haya emparejado para

controlar, de esta manera se pueden controlar diferentes dispositivos a distancia, para el

control de las luces y la alarma se crearon diferentes botones en la interfaz del dispositivo

móvil el cual permite a través de botones controlar cada uno de los dispositivos, los cuales

también pueden controlarse por comandos de voz previamente establecidos tales como

“Encender luz 1” o “Apagar luz 1”, “Activar alarma” y “Desactivar alarma”, el cual nos despliega

un cuadro de texto que solicita la entrada de una contraseña para la posterior desactivación,

para el control de los dispositivos dentro de la casa se realiza a través de una conexión

Bluetooth, la cual nos permite enviar los comandos desde el dispositivo y recibidos en el

cerebro del banco demótico el cual es en este caso un Arduino para que sean procesados los

datos y sean realizadas las ordenes enviadas.

Introducción

En el siguiente proyecto se da a conocer una de las ramas de las telecomunicaciones

como lo es la domótica, implementado en una maqueta a menor escala, referenciando

como se pueden controlar distintos procesos (sistemas de luces, fuente de agua y

sensor de presencia) desde un dispositivo o un ordenador.

14 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación REDSI, Universidad Santo Tomás, Bucaramanga.

Correo electrónico: [email protected]

69

Metodología Empleada

En la figura 1 se ilustra el diagrama de bloques donde se enseñan los pasos

metodológicos planteados para alcanzar los objetivos del proyecto de investigación.

Figura 1. Metodología planteada para el desarrollo del proyecto. La imagen fue elaborada por los

autores.

Resultados y Conclusiones

A partir de la consulta bibliográfica se obtuvieron los resultados mostrados en la

figura 2.

Figura 2. Tecnologías seleccionadas por los autores a partir de la revisión de la literatura crítica del

proyecto. La imagen fue elaborada por los autores.

En la figura 3 se ilustran la elección y diseño del prototipo.

70

Figura 3. Elección y diseño del prototipo. La imagen fue elaborada por los autores.

Las especificaciones de las librerías empleadas son las siguientes: Xbee.api,

Processing.serial, Android, Android.bluetooth, Android.speech, Oscp5, Ketai, Control

p5.

El Prototipo del entorno domótico se presenta en la figura 4.

Figura 4. Prototipo del entorno domótico. La imagen fue elaborada por los autores.

En la figura 5 se ilustra la Interfaz gráfica del aplicativo software desarrollada en el

proyecto de investigación.

71

Figura 5. Interfaz gráfica diseñada para la aplicación. La imagen fue elaborada por los autores.

En la figura 6 se puede observar la aplicación para móvil diseñada por los autores.

Figura 6. Aplicativo DomoHouse instalado en un teléfono celular. La imagen fue elaborada por los

autores.

De acuerdo con los resultados obtenidos, es posible diseñar e implementar

sistemas domóticos con tecnología cableada e inalámbrica que permitan controlar

luces, dispositivos eléctricos minimizando costos y optimizando recursos.

Una vez realizado el estudio y análisis de las diferentes tecnologías cableadas e

inalámbricas y los protocolos de comunicación, se estableció que Bluetooth es el más

apropiado en la implementación de este sistema domótico ya que de acuerdo con sus

características y las aplicaciones especificadas (cargas on/off) son flexibles, de bajo

costo, fácil implementación e interoperabilidad tanto entre fabricantes como en los

mismos dispositivos haciéndolo más eficiente y eficaz.

El prototipo diseñado permitirá su uso y funcionalidad para entender y comprender

el correcto funcionamiento de las diferentes tecnologías cableadas e inalámbricas en

diferentes aplicaciones a un bajo costo y de manera eficiente.

72

Referencias

Valls Catala, J. (2013). riunet. Obtenido de Universitat Politècnica de València.:

https://riunet.upv.es/handle/10251/33357

control4col. (2013). Recuperado el 23 de febrero de 2015, de

http://www.control4col.com/domotica

LG. (2015). Obtenido de LG: http://www.lg.com/us/discover/smartthinq/thinq

PSoC. (2015). (wikipedia) Obtenido de http://en.wikipedia.org/wiki/PSoC

5hertz. (s.f.). (xbee) Obtenido de http://5hertz.com/tutoriales/?p=46

agm. (s.f.). (bombillos) Obtenido de http://www.agm.com.co/producto/iluminacion-led/bombillos-

led/bombillos-led-e27-a11/bombillo-led-e27-a11---5w-288-80

bibing. (s.f.). Obtenido de bibing.us:

http://bibing.us.es/proyectos/abreproy/70218/fichero/2.Tecnolog%EDas+Inal%E1mbricas.p

df

bluetooth. (s.f.). Obtenido de bluetooth. inc: http://www.bluetooth.com/Pages/Fast-Facts.aspx

constructoracapital. (s.f.). Obtenido de

http://www.constructoracapital.com/detalle_proyecto_constructora_capital_colombia.php?I

D_proyecto=54&ID_ciudad=2

Desviat Cruzado, P. (2009). Instituto de Investigación Tecnológica. Obtenido de Universidad

Pontificia Comillas: http://www.iit.upcomillas.es/pfc/resumenes/4aa96f8b4e6aa.pdf

electan. (s.f.). (arduino) Obtenido de http://www.electan.com/arduino-uno-pack-con-kit-basico-

arduino-p-3056.html

forosdeelectronica. (s.f.). (sensor) Obtenido de http://www.forosdeelectronica.com/f11/sensores-

presencia-combinados-2055/

Gordillo, G. (2008). slideshare. Obtenido de multiplexacion: http://es.slideshare.net/ggordillo/que-

es-la-multiplexacin-presentation

Martinez, J. P. (2012). Universitat Politècnica de Valéncia. Obtenido de upv:

https://riunet.upv.es/bitstream/handle/10251/17631/Memoria.pdf?sequence=1

maydandesign. (s.f.). (talykats) Obtenido de http://www.talykatz.com/exhibitions.html

Oseira Goas, R. (2011). upcommons. Obtenido de portal d'accés obert al coneixement de la UPC:

http://upcommons.upc.edu/pfc/bitstream/2099.1/11132/1/PFC.pdf

radio.lg.ua. (s.f.). (buzzer) Obtenido de http://radio.lg.ua/index.php?productID=3928

wikipedia. (s.f.). Obtenido de http://es.wikipedia.org/wiki/Arduino

73

Prueba experimental del algoritmo

ACP para el reconocimiento de

rostros bajo condiciones de luz

controlada y diferentes expresiones

gestuales

Juan Pablo Botero Londoño 15[autor]

Johanna Andrea Morales Rodríguez 15[autor]

Laura Román Calderón 15[autor]

Camilo Andrés Flórez Velásquez 15[autor]

Resumen

Los algoritmos de visión artificial empleados para la detección de rostros humanos se

aplican actualmente en el diseño y desarrollo de cámaras de analítica: Cámaras que sirven para

extraer de forma automática información geométrica, cinemática, de colores y texturas, útiles

para el desarrollo de tareas especializadas en diversos sectores como por ejemplo la

seguridad, el control de tránsito, la medicina entre otros. En particular en este trabajo se

presentan los resultados preliminares de una prueba experimental del algoritmo de análisis de

componentes principales (ACP o PCA), aplicado en el reconocimiento de detección y

reconocimiento de rostros humanos mediante visión artificial, con la finalidad de evaluar el

porcentaje de éxito del método y compararlo posteriormente con la técnica de Análisis de

Discriminantes Lineales (LDA).

Para poner a prueba la técnica PCA se procedió a capturar 12 imágenes de rostros de 3

personas en escala de grises, todas de 3 [Megapíxel] y bajo condiciones de luz controlada; con

expresiones gestuales similares y sin rotación de rostros, con la finalidad de entrenar el

algoritmo PCA: Se obtuvieron los Eigenfaces asociados a los rostros de entrenamiento y luego

se proyectaron las 12 imágenes al espacio de rostros, dimensionalmente inferiores a las

imágenes empleadas.

Para medir el grado de éxito del algoritmo se procedió a medir la norma Euclídea entre una

imagen no perteneciente a la base de entrenamiento proyectada a al espacio de rostros, y las

12 imágenes de entrenamiento proyectadas en dicho espacio. Los resultados evidenciaron que

el método PCA es altamente sensible a las expresiones gestuales, lo cual implica que es

15 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación Procesamiento Digital de Señales – Ingeniería de

Telecomunicaciones, Universidad Santo Tomás, Medellín. Correo electrónico: [email protected]

74

necesario utilizar otras técnicas de reconocimiento de rostros más robustas como por ejemplo

la técnica de análisis de discriminantes lineales.

Introducción

La técnica de reconocimiento de rostros de análisis de componentes principales

(Pentland & Turk, 1991), es una técnica fundamentada en la medición de todas las

características presentes en las imágenes de forma holística (color de los píxeles,

geometría del rostro, textura de la imagen entre otras): Toda imagen se puede

representar como un vector igual a la combinación lineal de unas imágenes base

llamadas “Eigenfaces” o “Rostros Genéricos”, que se obtienen a partir de la matriz de

covarianza de todas las imágenes capturadas para formar el conjunto de

entrenamiento del algoritmo. Estos Eigenfaces además permiten proyectar cualquier

vector asociado a una imagen como un vector en un espacio llamado el espacio de

rostros, cuyas dimensiones son inferiores a las de la fotografía original.

Metodología Empleada

Para poner a prueba el algoritmo de reconocimiento de imágenes propuesto en el

artículo, se procedió a capturar 12 imágenes de 3 [Megapíxel] asociada a 4 personas

distintas bajo condiciones de luz controlada. En total se capturaron 3 imágenes por

persona. Estas imágenes se convirtieron a escala de grises y se emplearon para

entrenar el algoritmo PAC: Las imágenes se convirtieron en vectores, y se calculó la

media de la base de entrenamiento. Luego se halló la resta de cada vector y la media,

para posteriormente usar estos nuevos vectores para computar los vectores y valores

propios de la matriz de covarianzas de las imágenes. A partir de todos los vectores

propios de la matriz de covarianzas (los Eigenfaces), se proyectaron cada una de las

12 imágenes en el espacio de rostros, generando así 12 arreglos con dimensiones

inferiores a las de las imágenes de entrenamiento.

Posteriormente se capturó una (1) nueva imagen perteneciente a una de las 4

personas, con características gestuales diferentes a las de las imágenes de

entrenamiento. Esta imagen se proyectó al espacio de rostros con la finalidad de

calcular su arreglo equivalente. Finalmente se midió la distancia Euclídea entre cada

uno de los 12 rostros proyectados al espacio de rostros con el nuevo rostro

proyectado. Se debería esperar que la distancia Euclídea más pequeña entre los

vectores ocurriera cuando el rostro de prueba de la persona coincidiese con los

rostros de entrenamiento del mismo individuo.

75

Resultados y Conclusiones

En la Figura 1 se pueden observar las 12 imágenes de entrenamiento del algoritmo

PCA previa conversión a escala de grises.

Figura 1. Base de datos de las imágenes de entrenamiento del algoritmo PAC. Cada una tiene

dimensiones de 3 [Megapíxel]. Las imágenes fueron capturadas por los autores.

El valor de Las 12 proyecciones de estos rostros en el espacio de rostros,

12321 ,,,, , son presentados en la figura 2:

Figura 2. Valores de las 12 proyecciones de los rostros sobre el espacio de rostros. La imagen fue

elaborada por los autores.

Nótese las dimensiones de los vectores que representan las imágenes, apenas son

de 12 filas y 1 columna, dimensiones muy inferiores a las de las imágenes originales

(3 millones de elementos).

En la figura 3 se enseña la nueva imagen capturada de la persona número 3 con

expresión gestual similar a la de la base de rostros de entrenamiento.

76

Figura 3. Imagen nueva de una persona cuyo rostro está en la base de datos de entrenamiento, de

iguales dimensiones de 3 [Megapíxel] con expresión gestual similar a las almacenadas. La imagen

fue capturada por los autores.

Al proyectar esta imagen en el espacio de rostros y midiendo la distancia Euclídea

entre las demás imágenes presentes en el espacio de rostro, se obtiene que la

distancia más pequeña se obtuvo contra el vector número 11 asociado a la imagen

número 11 presentada en la figura 1:

Mínima Distancia Face=24.9610 (se obtuvo con la imagen de entrenamiento 11)

En la figura 4 se ilustra una nueva imagen de prueba de una persona cuyo rostro

está en la base de datos con una dimensión de 3 [Megapíxel], con una expresión

gestual diferente a las de la base de datos mostrada en la figura 1.

Figura 4. Imagen nueva de una persona cuyo rostro está en la base de datos de entrenamiento, de

iguales dimensiones de 3 [Megapíxel] con expresión gestual diferente a las almacenadas. La imagen

fue capturada por los autores.

Si se ingresa una imagen de prueba con un gesto no presente en la base de datos

como la ilustrada en la figura 3, entonces se obtiene que la distancia de la huella de

prueba con respecto a las huellas de la base de datos están muy separadas entre sí,

generándose un error de reconocimiento de rostros del algoritmo.

77

Mínima Distancia Face= 203.8086 (se obtuvo con la imagen 11 de la base de datos

de entrenamiento)

La técnica de análisis de componentes principales para el reconocimiento de rostros

humanos presenta serios problemas de funcionamiento frente a las expresiones

gestuales de los rostros, la iluminación y orientación de los mismos.

Se sugiere para los próximos estudios del grupo de trabajo abordar el empleo de

redes neuronales para mejorar sensiblemente la probabilidad de reconocimiento

exitoso de los rostros.

Referencias

Turk, Matthew; Pentland, Alex. Face recognition using eigenface. USA, Massachusetts Institute of

Tech. IEEE, 1991. pps. 586 – 591.

Turk, Matthew; Pentland, Alex. Eigenface for recognition. USA, Massachusetts Institute of Tech.

Journal of cognitive neuroscience, volume 3, number 1, 1991. Pps 71 – 86.

Yang, Li. Course of Biometric and cryptography. Center for information security and assurance,

Univesity of Tennessee. Capturado del sitio web http://www.utc.edu/center-information-

security-assurance/course-listing/b3.2.face.pca.lda.ppt.

Lata, Y. Vijaya; Bharadwaj, Chandra. Facial recognition using eigenfaces by PCA. International Journal

of recent trends in engineering, volume 1, number 1, may 2009. Pps 587 – 590.

78

Desarrollo de un sistema

multisensorial para monitorear gases

tóxicos en espacios cerrados

mediante tecnología inalámbrica

Francisco Tomas Castellón Castro 16[autor]

Cristhian Manuel Duran Acevedo 16[autor]

Resumen

El proyecto a realizar se basa en el diseño de un sistema multisensorial implementado en

espacios cerrados y que sea capaz de monitorear gases tóxicos que puedan existir en dicho

entorno.

Para este sistema se pretende implementar una matriz de sensores controlada por medio de

tecnología inalámbrica, y de igual manera realizar una interfaz usuario tanto gases tóxicos

como el comportamiento de los sensores.

Los gases tóxicos en el espacio cerrado serán determinados a través del procesamiento

de los datos adquiridos previamente por el sistema de medida y a su vez, con capacidad de

generar alarmas de control en la detección de diferentes niveles de los gases. En este último

aspecto se enviara la información en tiempo real hasta un sitio remoto.

Introducción

Un detector de gas es un elemento que sufre un cambio físico o químico, reversible,

en presencia de un gas, para dar una señal que es transmitida, mostrada o utilizada

para operar alarmas y controles. Para este caso se utilizaran los sensores

semiconductores porque están compuestos por dióxido de estaño. En la figura 1 se

ilustra la cámara de sensores diseñada.

16 Programa de Ingeniería Electrónica, Semillero de Investigación de Sistemas Multisensoriales y Reconocimiento de Patrones,

Universidad de Pamplona, Norte de Santander. Correo electrónico: [email protected]

79

Figura 1. Cámara de sensores. La imagen fue elaborada por los autores.

En este proyecto se va a implementar una “nariz electrónica” utilizando los sensores

de gas ya que estos tienen la ventaja de detectar compuesto que para el ser humano

no son fáciles de distinguir, ya que por lo general algunos gases son inodoros y

perjudiciales para la salud humana, teniendo la ventaja que el monitoreo del estado

de los sensores se va a llevar a cabo en un sitio remoto alejado de la cámara de

concentración por medio de la implementación de la tecnología Zigbee.

Marco Teórico y Estado del Arte

- Calidad del aire: La concentración de contaminantes pueden acumularse en un

espacio cerrado y así los riesgos para la salud pueden ser mayores. Los

compuestos orgánicos volátiles (COV) y gases inorgánicos pueden contribuir a

la mala calidad del aire interior (Mandayo et al., 2014)

- Sensores de gas: La nariz electrónica, como un sistema olfativo artificial, se

puede utilizar para la estimación de la concentración de los gases combinada

con un módulo de reconocimiento de patrones.(Zhang et al., 2013)

- Tipos de sensores de gas: Dentro de los sensores de gas encontramos

diferentes tecnologías, según el campo de la aplicación a implementar con

estos dispositivos: Sensores electroquímicos, sensores con materiales

semiconductores, sensores de conductividad química, sensores catalíticos y

sensores infrarrojos. En la figura 2 se ilustran algunos de los tipos de sensores

mencionados.

80

Figura 2. Diferentes tipos de sensores. La imagen fue elaborada por los autores.

Comunicaciones Inalámbricas usando módulos XBee: Zigbee es un protocolo de

comunicaciones inalámbrico basado en el estándar de comunicaciones para redes

inalámbricas IEEE_802.15.4. Creado por Zigbee Alliance, una organización,

teóricamente sin ánimo de lucro, de más de 200 grandes empresas (destacan

Mitsubishi, Honeywell, Philips, _ ODEM_ do, Invensys, entre otras), muchas de ellas

fabricantes de semiconductores. Zigbee permite que dispositivos electrónicos de bajo

consumo puedan realizar sus comunicaciones inalámbricas. Es especialmente útil para

redes de sensores en entornos industriales, médicos y, sobre todo, domóticos.

Las comunicaciones Zigbee se realizan en la banda libre de 2.4GHz. A diferencia de

bluetooth, este protocolo no utiliza FHSS (Frequency hooping), sino que realiza las

comunicaciones a través de una única frecuencia, es decir, de un canal. Normalmente

puede escogerse un canal de entre 16 posibles. El alcance depende de la potencia de

transmisión del dispositivo así como también del tipo de antenas utilizadas

(cerámicas, dipolos, etc.) El alcance normal con antena dipolo en línea vista es de

aproximadamente (tomando como ejemplo el caso de MaxStream, en la versión de

1mW de potencia) de 100m y en interiores de unos 30m. La velocidad de transmisión

de datos de una red Zigbee es de hasta 256kbps. Una red Zigbee la pueden formar,

teóricamente, hasta 65535 equipos, es decir, el protocolo está preparado para poder

controlar en la misma red esta cantidad enorme de dispositivos.

Entre las necesidades que satisface el módulo se encuentran su bajo costo, el ultra-

bajo consumo de potencia, el uso de bandas de radio libres y sin necesidad de

licencias, la instalación barata y simple, y la posibilidad de generar redes flexibles y

extensibles.

El uso del protocolo Zigbee va desde reemplazar un cable por una comunicación

serial inalámbrico, hasta el desarrollo de configuraciones punto a punto, multipunto,

peer-to-peer (todos los nodos conectados entre sí) o redes complejas de sensores.

Una conexión típica se muestra en la Figura, donde se observa que cada módulo XBee

posee algún tipo de sensor, el cual entrega los datos para ser enviados a través de la

red a un centro que administre la información.

81

Figura 3. Conexión típica usando XBEE. La imagen fue elaborada por los autores.

Una red Zigbee la forman básicamente 3 tipos de elementos. Un único dispositivo

Coordinador, dispositivos Routers y dispositivos finales (End points) como lo enseña

Garcia (2013).

Metodología Empleada

Para llevar a cabo los objetivos propuestos en este proyecto de investigación

primero se diseñó una cámara de sensores para así poder extraer muestras de los

diferentes gases a estudiarlos para posteriormente poder clasificarlos y llevar a cabo

el monitoreo de estos. Este monitoreo se pretende implementar por medio de

tecnología inalámbrica llamada Zigbee ya que esta en comparación de otros sistemas

de comunicación inalámbrica como son Bluetooth, WiFi, radiofrecuencia, entre otros,

este sistema presenta menor consumo de energía y mayor alcance

Resultados y Conclusiones

Como resultado obtenido se tomó en cuenta cada uno de los sensores para ver su

comportamiento con respecto a un compuesto volátil en este caso se tomó como

compuesto el alcohol, ya que para las pruebas con los gases planteados no se cuenta

con la disponibilidad inmediata de estos por motivos ajenos al proyecto.

Se realizaron pruebas durante un tiempo determinado obteniendo como resultado

la siguiente grafica con una muestra de 300 datos durante 5 minutos ilustrada en la

figura 4.

82

Figura 4. Grafica de comportamiento de cada uno de los 6 sensores con una muestra de alcohol.

La imagen fue elaborada por los autores.

Referencias

Garcia, H. (2013). Desarrollo de un sistema inalambrico para la supervision y control de un

aerogenrador.

Mandayo, G. G., Gonzalez-Chavarri, J., Hammes, E., Newton, H., et al. (2014). System to control

indoor air quality in energy efficient buildings. Urban Climate.

http://doi.org/10.1016/j.uclim.2014.10.009

Zhang, L., Tian, F., Liu, S., et al. (2013). Chaos based neural network optimization for concentration

estimation of indoor air contaminants by an electronic nose. Sensors and Actuators, A:

Physical, 189, 161–167. http://doi.org/10.1016/j.sna.2012.10.023

83

Clasificación de compuestos volátiles

a través de técnicas de modulación

de temperatura en sensores de gases

químicos

Juan Pablo Benjumea Gutiérrez 17[autor]

Cristhian Manuel Duran Acevedo 17[autor]

Resumen

En el presente artículo se da a conocer el diseño y la implementación de un sistema de

acondicionamiento para una nariz electrónica, a la cual se le aplicó en su resistencia

calefactora (Heater) diferentes métodos de modulación de temperatura, con el fin de estudiar

la respuesta de los sensores, y determinar si estos son capaces de hacer una clasificación

cuando se le aplica un compuesto volátil.

El estudio se basara en observar que tan eficaz y eficiente es el sensor cuando se le aplican

diferentes compuestos volátiles y modulaciones en su Heater analizando la sensibilidad,

selectividad y repetitividad, y determinando que tipo de modulación mejorara la respuesta de

los sensores y cual la deteriora.

Introducción

Las investigaciones referentes a narices electrónicas han tenido un gran auge en

muchos campos. Estas se han utilizado para el monitoreo de olores en la industria

agroalimentaria con el fin de poder determinar la calidad de ciertos productos, al

igual que para la detección de gases en lugares donde se puede poner en riesgo la

vida humana, debido a que pueden ser nocivos para la salud. Otras de las

aplicaciones hacen referencia a la detección de enfermedades como el EPOC y como

aspecto amplio de investigación actual realiza aportes a la minería y todo el campo

referente a hidrocarburos.

Actualmente todas estas aplicaciones se han realizado siguiendo el mismo patrón

de diseño, es decir utilizando sensores que sean selectivos, repetitivos y eficaces al

momento de detectar una muestra de algún compuesto volátil.

17 Programa de Ingeniería Electrónica, Semillero de Investigación de Sistemas Multisensoriales y Reconocimiento de Patrones,

Universidad de Pamplona, Norte de Santander. Correo electrónico: [email protected]

84

En estudios realizados anteriormente por diferentes investigadores como por

ejemplo el de José Antonio Correa Duro en su artículo “Estudio de la modulación

térmica de sensores de gases de tipo micro-hotplate mediante secuencias

pseudoaleatorias”, A.Fort, M.Gregorkiewitz, N.Machetti, S.Rocchi, B.Serrano, L.Tondi,

N.Ulivieri, V.Vignoli, G.Faglia, E.Comini, en su artículo “Selectivity enhancement of

SnO_2 sensors by means of operating temperature modulation”, se han obtenidos

resultados importantes, pero pocos se han centrado en estudiar frecuencia de trabajo

y eficiencia del sensor de gas al momento de realizar la modulación de temperatura

en el Heater, en dichos estudios solo se han detenido a mirar la repuesta del sensor al

aplicarle una modulación de temperatura en el Heater pero no han centrado en ver

qué tan efectiva en la respuesta del sensor y que tan fiable es su respuesta al

momento de realizar la clasificación de compuestos volátiles.

Para realizar este estudio se basó en técnicas de modulación y métodos de

procesamiento, tales como análisis de clúster, componentes principales y redes

neuronales. Se adquirió la señal a través de un dispositivo para la captura de datos y

posteriormente poder analizar la respuesta del sensor.

Marco Teórico y Estado del Arte

Sensores De Óxido De Estaño: El óxido de estaño contiene vacantes de oxígeno en

su estructura cristalina. Cuando este material es calentado a elevadas temperaturas

(alrededor de unos 400 ºC), los electrones libres fluyen fácilmente a través de la

banda de conducción de las partículas de óxido de estaño.

En aire puro el oxígeno es absorbido por las partículas de óxido de estaño de la

superficie y atrapa electrones libres debido a su alta electroafinidad, formando una

barrera de potencial en la banda de conducción. Esta barrera de potencial restringe el

flujo de electrones causando un incremento en la resistencia eléctrica.

Cuando el sensor es expuesto a una atmósfera que contiene gases (reductores /

combustibles, CO, etc.), el óxido de estaño de la superficie absorbe moléculas del gas

produciéndose una reacción de oxidación entre el gas y el oxígeno absorbido, lo que

disminuye la barrera de potencial y en consecuencia reduce la resistencia eléctrica

(Bosch & Lecha, 2001).

Análisis de Componentes Principales (PCA): El PCA es un método que asume

colinealidad entre las variables que intervienen. El análisis de componentes

principales se trata de un algoritmo lineal que puede funcionar incorrectamente en

procesos altamente no lineales, como pueden ser las interacciones químicas entre

sensores y compuestos volátiles, pero funciona sorprendentemente bien en muchas

aplicaciones con sistemas de olfato electrónico, sobre todo en las que las

85

concentraciones de volátiles no son muy elevadas y el comportamiento de los

sensores no es excesivamente alineal.

La compresión de datos y extracción de información relevante se hace más

necesaria en aquellas situaciones en las que existe una falta de selectividad en cada

uno de los sensores que componen la matriz. Por ese motivo el análisis de

componentes principales es un método idóneo para explotar el concepto de

sensibilidades solapadas que se aplica en la mayoría de los SDOE.

El algoritmo PCA suele ser clasificado como un método no supervisado de

reconocimiento de patrones, ya que su uso más extendido con los sistemas de olfato

electrónico se limita a representar bidimensionalmente un conjunto de medidas, para

ver si se pueden determinar agrupaciones (“clusters”) espontáneas entre las diferentes

medidas realizadas previamente. Sin embargo también existen modificaciones que

permiten aplicar el algoritmo en modo supervisado (Durán, 2003).

Redes Neuronales Artificiales: Las Redes Neuronales Artificiales (RNA) nos permiten

resolver problemas, de forma individual o combinada con otros métodos, para

aquellas tareas de clasificación, identificación, diagnóstico, optimización o predicción

en las que el balance datos/conocimiento se inclina hacia los datos y donde,

adicionalmente, puede haber la necesidad de aprendizaje en tiempo de ejecución y de

cierta tolerancia a fallos. En algunos casos las RNAs se adaptan dinámicamente

reajustando constantemente los “pesos” de sus interconexiones, en otros casos estos

pesos permanecen fijos tras un proceso llamado entrenamiento. Las RNAs se basan

en la analogía que existe en el comportamiento y función del cerebro humano, en

particular del sistema nervioso, el cual está compuesto por redes de neuronas

biológicas que poseen bajas capacidades de procesamiento, sin embargo toda su

capacidad cognitiva se sustenta en la conectividad de éstas.

La unidad de una red neuronal artificial es un procesador elemental llamado

neurona que posee la capacidad limitada de calcular, en general, una suma ponderada

de sus entradas y luego le aplica una función de activación para obtener una señal

que será transmitida a la próxima neurona.

Estas neuronas artificiales se agrupan en capas o niveles y poseen un alto grado de

conectividad entre ellas, conectividad que es ponderada por los pesos. A través de un

algoritmo de aprendizaje supervisado o no supervisado, las RNAs ajustan su

arquitectura y parámetros de manera de poder minimizar alguna función de error que

indique el grado de ajuste a los datos y la capacidad de generalización de las RNAs

(Córdoba Olivares, 2013).

86

Metodología Empleada

Con el fin de estudiar la respuesta de los sensores de gases al momento de aplicar

una modulación de voltaje en la resistencia calefactora (Heater), se diseñó un sistema

de acondicionamiento para poder realizar el muestreo de la señal de salida y

posteriormente el funcionamiento correcto del circuito.

El sistema consta de una cámara de concentración, una válvula de control de flujo,

una bomba de vacío, una nariz electrónica compuesta por cuatro sensores, y

finalmente una tarjeta de adquisición de datos.

Cabe resaltar que el proyecto está enfocado a tomar mediciones con compuesto

volátiles de alimentos, por lo tanto se tomaran muestras de vino y alcoholes, entre

otros.

La puesta en marcha de sistema se realiza de la siguiente manera, primero que

todo, los sensores de gases se deben depurar para evitar que existan impurezas, esto

se debe hacer previamente a la adquisición de datos y debe ser realizado con una

señal DC durante un tiempo de 15 a 20 minutos, luego de depurar los sensores se

procederá a aplicar la modulación de voltaje en la resistencia calefactora (Heater) para

posteriormente realizar la adquisición de datos.

Una vez depurado los sensores y aplicada la modulación de voltaje se procederá a

colocar un muestra de alcohol o vino en la cámara de concentración y se dejará un

tiempo de 10 minutos, esto se hace con el fin de que la muestra genere la mayor

cantidad de volátiles dentro de la cámara y se obtenga una mejor respuesta de los

sensores.

Después de pasado el tiempo de concentración de la muestra, se activara una

electroválvula que cerrará la vía donde fluye aire puro (en este caso el que se

encuentra en el medio ambiente) y activara la vía que comunica con la cámara de

concentración, esto con el fin de hacer fluir el aire de la cámara por una bomba de

vacío, que llevará el aire con el compuesto volátil a la matriz de sensores, esto se hará

por un lapso de 5 minutos, con un periodo de muestreo de 1 segundo, dando como

resultado 300 muestras en total.

Una vez excitados los sensores se hará la adquisición de datos a través de una

tarjeta de desarrollo (Arduino), que comunicara el sistema en físico con una interfaz

creada en Matlab, en esta interfaz se podrá observar la respuesta de los sensores en

tiempo real y posteriormente el almacenado de los datos una vez haya terminado el

tiempo de muestreo.

Con los datos ya almacenados se hará el análisis correspondiente para hacer la

clasificación de los compuestos aplicados a los sensores, se tendrá en cuenta la

respuesta de los sensores en cuanto a la modulación aplicada para poder dar un

dictamen final.

87

Resultados y Conclusiones

En este proyecto se describen las técnicas utilizadas hasta el momento y los

resultados preliminares obtenidos basados en las modulaciones de voltaje aplicadas a

la resistencia calefactora (Heater).

En la figura 1 se apreciará la respuesta de los sensores TGS 800, SP-53 7Z6, TGS

826 y SP-15A 921 F, esta respuesta será tomada como patrón ya que es una

respuesta de voltaje de los sensores cuando son excitados con un volteje continuo.

Figura 1. Respuesta de los sensores sin modulación de temperatura, sometidos a una muestra de

Alcohol al 70%. La imagen fue elaborada por los autores.

En el grafico se puede apreciar cada una de las respuestas de los sensores cuando

se le aplica una muestra de 2ml de Alcohol etílico al 70% de concentración, al

observar la respuesta se puede determinar que al aplicarle un voltaje continuo a la

resistencia calefactora los sensores tienen un porcentaje de sensibilidad muy alto, ya

que responde instantáneamente al suminístrale la muestra previamente concentrada

en la cámara, la respuesta de los sensores también está determinada por el tipo de

compuesto al cual es sensible, es decir, el TGS 800 es muy utilizado para reconocer

gases como aire e hidrogeno, el TGS 826 es utilizado para reconocer amoniaco,

entonces tendrán una repuestas característica cuando se le aplican esos gases.

A continuación en la figura 2 se puede observar la respuesta de los sensores

cuando se le aplica una modulación PWM con una frecuencia de 490 Hz y un ciclo de

trabajo de 33.3%, generada por la tarjeta Arduino mega 2560 y se le aplicaron los

mismo parámetros de concentración de la muestra que se utilizaron anteriormente.

88

Figura 2. Respuesta de los sensores a una señal PWM con un ciclo de trabajo del 33.3% en la

resistencia calefactora. La imagen fue elaborada por los autores.

Al interpretar la gráfica de la respuesta en voltaje de los sensores aplicando una

modulación PWM con un ciclo de trabajo menor al 50%, se puede observar que la

respuesta cuando es excitado el sensor tiende a un valor de amplitud máximo, muy

similar a lo que sucede con respecto a una respuesta sin modulación en la resistencia

calefactora, pero con la gran diferencia de que la respuesta con la señal modulada en

el Heater tiende a sostenerse mayor tiempo en su valor máximo, mientras que la

respuesta cuando se le aplica una señal continua en el Heater tiene un declive y

tiende a mantenerse en un valor aproximado a la mitad del valor máximo obtenido

cuando es aplicada la muestra.

También se puede notar que en los sensores SP-53 7Z6, TGS 826 y SP-15 921 F la

respuesta cambia totalmente, ya que ninguno de los sensores alcanza el valor

máximo obtenido cuando se le aplicó la señal sin modulación en el Heater.

Los TGS 826 y SP-15 921 F tiene una respuesta de voltaje muy pequeña como se

puede apreciar en la figura, el voltaje máximo alcanzado no supera los 0.5 voltios,

pero sin embargo se puede decir que respondieron cuando se les aplicó la muestra de

alcohol previamente concentrada en la cámara.

En la figura 3 se ilustra la respuesta de los sensores sometidos al flujo de aire

continuo de una muestra de 2ml de vino Moscatel al 1%.

89

Figura 3. Respuesta de los sensores sin modulación de temperatura, sometidos a una muestra de

vino Moscatel al 1%. La imagen fue elaborada por los autores.

El comportamiento que sigue la señal adquirida cuando se le aplica una muestra de

2 ml de vino moscatel al 1% es muy similar a cuando se le aplica una muestra de 2 ml

de alcohol al 70%, pero se puede notar que la amplitud de la señal cambia, siendo

menor cuando se le aplica una muestra de vino.

En cuanto a sensibilidad, está siendo alta, dando una respuesta de voltaje, casi

instantáneamente cuando se le aplica la muestra de vino.

En la figura 4 se aprecia la respuesta de los sensores sometidos al flujo de aire

continuo de una muestra de 2ml de vino Moscatel al 1% aplicándoles una modulación

PWM con una frecuencia de 490 Hz y un ciclo de trabajo de 33.3%, generada por la

tarjeta Arduino mega 2560.

Figura 4. Respuesta de los sensores sometidos a modulación de temperatura, con una muestra de

vino Moscatel al 1%. La imagen fue elaborada por los autores.

90

Nótese que los sensores tienen una excelente respuesta en cuanto a amplitud, cabe

destacar que aún siguen siendo sensibles cuando se le hace la modulación de

temperatura.

La amplitud de la señal tiende a mantenerse estable después del haber alcanzado la

amplitud máxima, siendo esta respuesta favorable para hacer análisis y

procesamiento de datos,

Con este estudio preliminar se puede decir que la respuesta de los sensores

obtenida cuando se le aplica una modulación, haría más fácil el procesamiento de los

datos al momento de hacer una clasificación, a simple vista si puede notar los

cambios de voltajes producidos por los sensores y cada respuesta varia su amplitud

de acuerdo al compuesto volátil aplicado.

En este trabajo se diseñó e implementó un dispositivo, basado en sensores de gases

químicos cuya finalidad es la obtención de señales eléctricas producidas por los

sensores de gases cuando se le aplica un volátil y se hace variar la temperatura del

Heater a través de técnicas de modulación de voltaje.

Estas señales provenientes de los sensores de gases son adquiridas por un Arduino

2560 y almacenadas en un equipo de procesamiento (PC), para luego realizarle el

procesamiento de datos y posteriormente hacer la clasificación.

De acuerdo a las mediciones realizadas con la nariz electrónica se pude determinar

que los sensores varían su respuesta de acuerdo al tipo de modulación que se le

aplique al Heater, haciendo que esta varié totalmente con respecto a la respuesta de

los sensores cuando no se le aplica modulación de temperatura.

Si se hace una comparación de la respuesta de los sensores cuando se le aplica una

modulación de temperatura y cuando no se le aplica, se notara que cuando se le

aplica una modulación de temperatura el sensor genera una salida de voltaje, y al

hacer una resta del voltaje final menos el voltaje inicial se puede apreciar un valor

mayor al de la respuesta del sensor cuando no se le aplica una modulación de

temperatura, siendo esta respuesta favorable para poder realizar un procesamiento y

clasificación de compuestos volátiles, si se aplica la ecuación .

Al aplicar otro tipo de procesamiento para la selección de datos como seria las

respuestas serian favorables en cuanto a clasificación ya que se haría mucho más fácil

el reconocer y especificar el tipo de compuesto volátil.

Nótese que los sensores fueron sometidos a diferentes compuestos volátiles y en

diferentes escenarios, obteniendo respuestas muy similares con lo cual se puede

afirmar que los sensores pueden ser reproducibles, es decir, obtener la misma

respuesta en diferentes ambientes, salvo en ambientes húmedos donde genera

respuestas erráticas, debido a las condiciones inapropiadas para el sistema de

medición.

91

Referencias

Bosch, S. R., & Lecha, B. (2001). Diseño y realización de una nariz electrónica para la discriminación

de aceites.

Córdoba Olivares, S. (2013). Sistema Electrónico Para La Clasificación De Datos De Fragancia De Café

Utilizando Redes Neuronales Artificiales.

Correa, J. A. (2003). Estudio de la Modulación Térmica de Sensores de Gases de Tipo Micro-Hotplate

Mediante Secuencias Pseudoaleatorias.

Durán, C. M. (n.d.). Optimización de resultados mediante algoritmos de selección de variables

Diseño, (3), 7–13.

Fort, A., Gregorkiewitz, M., Machetti, N., Rocchi, S., et al. (2002). Selectivity enhancement of SnO 2

sensors by means of operating temperature modulation, 418, 2–8.

Gosangi, R., & Gutierrez-Osuna, R. (2013). Active temperature modulation of metal-oxide sensors

for quantitative analysis of gas mixtures. Sensors and Actuators, B: Chemical, 185, 201–210.

http://doi.org/10.1016/j.snb.2013.04.056

Martinelli, E., Polese, D., Catini, A., D’Amico, A., et al. (2012). Self-adapted temperature modulation

in metal-oxide semiconductor gas sensors. Sensors and Actuators, B: Chemical, 161(1),

534–541. http://doi.org/10.1016/j.snb.2011.10.072

Ngo, K. a., Lauque, P., & Aguir, K. (2007). High performance of a gas identification system using

sensor array and temperature modulation. Sensors and Actuators, B: Chemical, 124(1), 209–

216. http://doi.org/10.1016/j.snb.2006.12.028

Ortega, A., Marco, S., Perera, A., Šundic, T., et al. (2001). An intelligent detector based on

temperature modulation of a gas sensor with a digital signal processor. Sensors and

Actuators, B: Chemical, 78(1-3), 32–39. http://doi.org/10.1016/S0925-4005 (01)00788-2

Polese, D., Martinelli, E., Catini, a., D’Amico, a., & Di Natale, C. (2010). Self-adaptive thermal

modulation of gas sensors. Procedia Engineering, 5, 156–159.

http://doi.org/10.1016/j.proeng.2010.09.071

Vergara, a., Llobet, E., Brezmes, J., Ivanov, P., et al. (2005). Optimised temperature modulation of

metal oxide micro-hotplate gas sensors through multilevel pseudo random sequences.

Sensors and Actuators, B: Chemical, 111-112(SUPPL.), 271–280.

http://doi.org/10.1016/j.snb.2005.06.039

Zhang, G., & Xie, C. (2015). A novel method in the gas identification by using WO3 gas sensor based

on the temperature-programmed technique. Sensors and Actuators B: Chemical, 206, 220–

229. http://doi.org/10.1016/j.snb.2014.09.063

Ziyatdinov, A., Fonollosa, J., Fernández, L., et al. (2015). Bioinspired early detection through gas flow

modulation in chemo-sensory systems. Sensors and Actuators B: Chemical, 206, 538–547.

http://doi.org/10.1016/j.snb.2014.09.001

92

Medición automática de variables

antropométricas para la aplicación y

desarrollo del protocolo de

evaluación fonoaudiológica de la

respiración

Héctor Marino Flórez Vera 18[autor]

Resumen

La respiración es un proceso biológico imprescindible para la vida y, aunque se lleva a cabo

de forma involuntaria, la mayoría de las veces se hace de forma incorrecta debido a malas

posturas corporales y diversos factores de fisionomía del rostro, esto ocasiona grandes

dificultades para realizar el proceso de oxigenación del cuerpo y el cerebro. Es así como, el

Protocolo de Evaluación Fonoaudiológica de la Respiración, es una herramienta indispensable

para el profesional de la salud, para detectar posibles problemas relacionados con la mala

respiración. Dicho protocolo en su estado actual sigue una serie de pasos teóricos, en donde al

sujeto de prueba se le realizan factores evaluativos con ayuda de referencias anatómicas o

marcadores corporales que permiten caracterizar la postura corporal, antropometría facial,

examen extra - intra oral y función respiratoria de manera manual, esto conlleva a que los

datos recolectados sean subjetivo. El proyecto presenta el desarrollo de un aplicativo que

realiza de manera automática mediciones antropométricas en dos planos anatómicos, sagital y

frontal. Las mediciones antropométricas se realizan en la parte superior del cuerpo y desde la

cintura hasta la cabeza. Para la toma de los datos se usó visión artificial y para obtener los

datos antropométricos se usarán técnicas de procesamiento de imágenes como: Binarización,

etiquetado, trigonometría. Estas técnicas y los resultados obtenidos permiten desarrollar por

parte de un experto el protocolo fonoaudiológico de la respiración con puntuación.

Finalmente, el aplicativo cuenta con una interfaz gráfica amigable y de fácil manejo,

reduciendo tiempo y trabajo en la implementación del protocolo. Es importante resaltar que

este trabajo permite al especialista apoyarse en una herramienta digital que aumenta la

exactitud de las medidas Y la precisión en el diagnostico emitido, además se demostró que las

mediciones obtenidas por el aplicativo son confiables comparadas con las obtenidas de manera

manual por parte del especialista.

18 Programa de Ingeniería En Telecomunicaciones, Semillero de Investigación de Ingeniería Biomédica y Telecomunicaciones

SIIBTEL, Universidad de Pamplona, Norte de Santander. Correo electrónico: [email protected]

93

Introducción

El ser humano oxigena el cuerpo a través de la respiración, este proceso se ve

afectado por alteraciones posturales, anomalías en la anatomía facial entre otros, en

la rama de la fonoaudióloga se han creado protocolos que analizan postura,

antropometría externa e interna del rostro para encontrar problemas. Existen

aplicaciones o software especializados en medidas de la postura, pero no cumplen a

cabalidad con las medias que requiere el protocolo. En este proyecto se plantea el

desarrollo de un sistema automático, que permita la medición antropometría en dos

planos anatómicos, frontal y sagital del sujeto usando visión artificial. Esto con el fin

de hallar todas las medidas que requiere el protocolo, facilitar y reducir tiempo en su

implantación.

Metodología Empleada

1. Adquisición de imágenes: Etapa de adquisición de imágenes empleando un

Kinect.

2. Procesamiento: Etapa en marcha la cual consta en la implementación de

diferentes técnicas para realizar el acondicionamiento a las imágenes para su

procesamiento, las técnicas implementadas son las siguientes: Umbralización

(OTSU), Filtrado por áreas, Etiquetando, reconocimiento de patrones, Métodos

trigonométricos.

3. Pruebas y diseño de interfaz gráfica: Etapa basada en la implementación del

sistema a pacientes para comprobar su exactitud en las medias antropométricas y

realizar una interfaz graficas amena al usuario final.

4. Validación del sistema: Etapa en la cual se presentaran los resultados

obtenidos tras realizar el procesamiento e implementación de las técnicas

mencionadas, además de validar dichos resultados con el acompañamiento de un

profesional experto en el área de la antropometría y medidas manual.

94

Resultados y Conclusiones

En la figura 1 se presentan las Imágenes obtenidas al realizar el procesamiento:

(a) (b)

(c) (d)

Figura 1. (a) Plano Sagital Izquierdo, (b) Plano Sagital Derecho (c) Plano Frontal, (d) Plano

Posterior. La imagen fue elaborada por el autor.

Se pudo observar que tras aplicar cada una de las técnicas de procesamiento las

medias antropométricas obtenidas presentan un desfase de 1 cm, esto a causa de la

interpolación de las dos cámaras del Kinect, profundidad y RGB.

95

Los resultados obtenidos del sistema de mediciones antropométricas hasta este

punto, aún no han sido validados con respecto a la medición experimental de forma

manual por parte de un especialista, lo que se prevé para las próximas etapas del

presente trabajo, esperando obtener un porcentaje de error mínimo y así comprobar

la robustez del trabajo.

Referencias

[1] Libia Oto, Jesús C. Caracterización De Hábitos Orales En Una Muestra Poblacional De Santiago

De Cali Entre Los Años 2005 Y 2012, Revista Gastrohnup Volumen 15 Número 2 Suplemento 1: S8-

S12, 2013.

[2] Garrido Chamorro RP. Manual de antropometría. Wanceulen Editorial Deportiva S.L. Sevilla,

España, 2005

[3] Dixon F, Leonardo O. Análisis Cuantitativo De Los Movimientos Articulares Del Cuerpo

Humano Y Evaluación De La Postura Global A Nivel De La Columna Vertebral Humana Utilizando

Visión Artificial. Colombia Universidad de Pamplona.

[4] Rafael C. González, Richard E. Woods, Steven L. Eddins. Digital image processing using Matlab.

González, Woods, & Eddins, 2009.

[5] John J. Sanabria, John F. Archila, Juan C. Moreno, Lola X. bautista. Análisis Biomecánico De La

Postura Mediante Técnicas Videogramétricas, Colombia Universidad industrial de Santander.

96

Desarrollo de un aplicativo de

software para la segmentación de

arterias coronarias a partir de

imágenes angiográficas utilizando el

método de crecimiento de regiones

Gustavo Adolfo Quijada Macuart 19[autor]

Resumen

En el presente proyecto se plantea el desarrollo de un sistema automático, que permita la

segmentación de las arterias coronarias en imágenes de angiografía. La metodología a

implementar tiene como base dos fases fundamentales: la etapa de pre-procesamiento y la de

procesamiento. La primera de ellas tiene como finalidad mejorar la calidad de las imágenes y

eliminar objetos indeseados en estas (costillas, columna, pulmones, guía de imagen, entre

otros), este proceso se realizará utilizando técnicas como sustracción logarítmica, algoritmos

de realce de contraste, morfología matemática, entre otros. La fase de procesamiento se

fundamenta en un algoritmo de crecimiento de regiones, eje central del presente trabajo,

donde un pixel inicial denominado semilla, ubicado en el área de interés, es comparado con

los pixeles vecinos, estudiando características como intensidad, relación topológica y

caracterización de regiones. . A partir de ésta imagen se crean automáticamente nuevas

semillas para segmentar las restantes imágenes 2–D. La base de datos a emplear fue obtenida

en el Instituto Autónomo Hospital Universitario de la Universidad de Los Andes (I.A.H.U.L.A.),

Mérida, Venezuela.

Introducción

Las enfermedades cardiovasculares son una de las principales causas de muerte a

nivel mundial, entre las que se encuentran las cardiopatías coronarias, principalmente

la aterosclerosis y estenosis, los diagnósticos de estas patologías se realizan

principalmente con técnicas de análisis cuantitativo y cualitativo de imágenes

19 Programa de Ingeniería en Telecomunicaciones, Semillero de Investigación de Ingeniería Biomédica y Telecomunicaciones

SIIBTEL, Universidad de Pamplona, Norte de Santander. Correo electrónico: [email protected]

97

angiográficas, se plantea el desarrollo de una herramienta de segmentación de

arterias coronarias que le sirva de apoyo al especialista al momento de dictaminar un

diagnóstico sobre estas patologías. Para lograr este objetivo se plantea la

implementación de dos fases para el procesamiento digital de este tipo de imágenes;

una primera fase de pre-procesamiento, en la que se estima el uso de diferentes

algoritmos matemáticos que permitan adecuar las imágenes para la segunda fase de

procesamiento en donde se ejecutara el método de crecimiento de regiones como

base fundamental de este proyecto de investigación, que posibilite la extracción de

los mapas arteriales coronarios, para posteriormente poder validar los resultados por

medio del desarrollo de otra herramienta de segmentación, en este caso manual.

Se presentan a la fecha los resultados preliminares de finalización de la primera fase

de ejecución, en donde se puede apreciar el cumplimiento de la adecuación de las

imágenes a utilizar en la segunda fase.

Metodología Empleada

1. Obtención de la base de datos y selección de las imágenes de 3 estudios

angiográficos: La base de datos que está siendo empleada, fue obtenida en el

Instituto Autónomo Hospital Universitario de la Universidad de Los Andes

(I.A.H.U.L.A.), Mérida, Venezuela.

2. Pre-Procesamiento: Etapa en curso que consta de diferentes técnicas aplicadas

para suavizar las imágenes y prepararlas para su posterior procesamiento, para llevar

a cabo esta fase del proyecto se han implementado las siguientes técnicas:

Sustracción logarítmica, filtro promediador, regresión lineal, filtro de curvatura

anisotrópico, umbralización (OTSU), Morfología aplicada a imágenes, Filtrado por

áreas

3. Procesamiento: Etapa principal del presente trabajo de investigación, basada

en la implementación de la técnica de crecimiento de regiones, donde un píxel inicial

denominado semilla, ubicado en el área de interés, es comparado con los píxeles

vecinos, estudiando características como intensidad, relación topológica y

caracterización de regiones.

4. Presentación y validación de resultados: en esta etapa se presentaran los

resultados obtenidos tras aplicar las técnicas anteriormente descritas, además de

validar dichos resultados a través de una herramienta de segmentación manual.

Resultados y Conclusiones

En la figura 1 se ilustran las Imágenes obtenidas después de culminar la etapa de

pre-procesamiento:

98

(a) (b) (c)

(d) (e) (f)

(g) (h) (i)

Figura 1. (a) Sustracción logarítmica, (b) Filtro Promediador, (c) Regresión Lineal, (d) Filtrado de

curvatura Anisotrópico, (e) Umbralización, (f) Inversa de Umbralización, (g) Morfología de Clausura,

(h) Filtrado por áreas, (i) Crecimiento de regiones. La imagen fue elaborada por los autores.

Se pudo observar que tras aplicar cada una de las técnicas de pre-procesamiento, se

fue eliminando progresivamente algunos elementos que no son deseados para la fase

de procesamiento.

En los resultados obtenidos hasta la fecha se pudo homogenizar la imagen del

estudio, esta es una característica fundamental que debía ser obtenida antes de

99

implementar el crecimiento de regiones, de esta forma nos aseguramos que solo van

a crecer las regiones de interés.

Una vez obtenida la región de interés, que para nuestro caso es el árbol principal

coronario, pues se estipula una posible parametrización de dimensiones con respecto

a la original, así como también las dimensiones de las posibles estenosis.

Referencias

[1] Enfermedades Cardiovasculares, datos y cifras. Organización Mundial de la Salud.

http://www.who.int/mediacentre/factsheets/fs317/es/

[2]Colombia enfrenta epidemia de enfermedades cardiovasculares y diabetes [On line]

http://www.minsalud.gov.co/Paginas/Colombia-enfrenta-epidemia-de-enfermedades-

cardiovasculares-y-diabetes.aspx

[3] La investigación en técnicas de imágenes cardiacas crecerá un 15% este año.

http://www.secardiologia.es/comunicacion/notas-de-prensa/notas-de-prensa-sec/4509-

investigacion-en-tecnicas-imagen-cardiaca-crecera-un-15-este-ano

[4] A. Bravo, R. Medina, M. Garreau, M. Bedossa, C. Toumoulin and H. Le Breton. An approach to

coronary vessels detection in x-ray rotational angiography.

[5] Procesamiento de imágenes, Segmentación de Imágenes. Capítulo

6.http://www.lcc.uma.es/~munozp/documentos/procesamiento_de_imagenes/temas/pi_cap6.pdf

[6 A. Bravo, R. Medina, M. Garreau, M. Bedossa, C. Toumoulin and H. Le Breton. An unsupervised

clustering framework for automatic segmentation of left ventricle cavity in human heart angiograms.

100

Diseño e implementación de una

plataforma de software, aplicada a la

determinación de microorganismos

en medios de cultivo selectivos Leidy Jisseth López González 20[autor]

Resumen

En el presente trabajo, se pretende diseñar e implementar una plataforma de software, que

permita establecer posible tipo de microorganismo en un medio determinado. Para tal fin se

creará la Base de Datos de imágenes del comportamiento de los microorganismos sembrados

en medios selectivos, donde posteriormente se emplearán técnicas de pre-procesamiento de la

imagen, con la intención de adecuar y mejorar los datos adquiridos y resaltar de mejor manera

los objetivos a estimar o alcanzar; seguidamente se realizará un procesamiento de imágenes,

con la finalidad de detectar la pigmentación generada por el microorganismo en el medio. De

igual manera, se desarrollara una interfaz de usuario amigable a la industria, que permita de

una mejor manera analizar los resultados obtenidos.

Introducción

Las enfermedades infecciosas son actualmente la principal causa de mortalidad en

el mundo a pesar del descubrimiento de cientos de agentes antimicrobianos cada vez

más potentes y efectivos.

Las infecciones respiratorias constituye el principal motivo, el segundo lugar ocupa

las infecciones urinarias [1].

Por lo anterior, se propone generar un sistema automático, el cual permita la

clasificación de microorganismos en un medio determinado. Implementando una

metodología que tiene como base dos fases fundamentales: inicialmente adecuar la

base de datos y para posteriormente realizar un sistema de clasificación de los

microorganismos.

20 Programa de Ingeniería en Telecomunicaciones, Grupo de Ingeniería Biomédica, Universidad de Pamplona, Norte de Santander.

Correo electrónico: [email protected]

101

Metodología Empleada

En la figura 1 se ilustra la metodología aplicada a partir de un diagrama de bloques:

Figura 1. Esquema general propuesto como metodología. La imagen fue elaborada por el autor.

A continuación las figuras venideras detallan dichos procesos de la siguiente

manera:

La etapa de Data fotográfica mostrada en la figura 2, ilustra la actividad de la

esterilización de los objetos a utilizar, la disolución de los medios selectivos y

finalmente la siembra de los microorganismos en cada medio de cultivo.

Figura 2. Estructura de trabajo propuesta en la etapa de la Data fotográfica. La imagen fue

elaborada por el autor.

Luego en la etapa de Pre-procesamiento enseñada en la figura 3, se muestra la fase

de acondicionamiento de las imágenes de los microorganismos en los medios

selectivos, donde se eliminará ruido, etiquetas, zonas de baja relevancia, etc.

Figura 3. Estructura de trabajo propuesta en la etapa de pre-procesamiento. La imanten fue

elaborada por el autor.

En la figura 4 (etapa de Procesamiento), se muestran las posibles técnicas a

emplear, con la finalidad de extraer las características más relevantes de nuestro

trabajo, así poder determinar qué tipo de microorganismo se encuentra presente en el

medio selectivo.

102

Figura 4. Fases planteadas a aplicar en la parte de procesamiento. La imagen fue elaborada por el

autor.

Finalmente en la figura 5, se plantea el diseño de una interfaz de usuario, que le

permita al especialista interactuar con dichos algoritmos, de una manera amigable y

clara, durante todo el proceso programado en el presente proyecto.

Figura 5. Despliegue final de resultados amigable al especialista. La imagen fue elaborada por el

autor.

Resultados y Conclusiones

Al finalizar este trabajo, se espera obtener una herramienta importante para la

clasificación de microorganismos, que sirva de apoyo al especialista; desde el aspecto

académico será una base muy importante para futuros estudios en el área.

Se logró la elaboración adecuada de los medios selectivos, implementando el

método de esterilización que eliminaría los restos microbianos que pudiesen haber

quedado en el medio de cultivo, debido que si están contaminados no son aptos para

la siembra; teniendo en cuenta que cada medio de cultivo tiene nutrientes básicos y

factores físicos, que permiten el desarrollo de los microorganismos.

El desarrollo de colonias formadas a partir de las diluciones seriadas presentan

características que difieren en forman, borde, elevación, superficie y estructura

interna, lo cual es notablemente influenciado por las concentraciones de carga

microbiana del medio en el cual dichas colonias se desarrollan.

Referencias

Gali Navarro. Zuleica del C. (2010). Enterobacterias, antibioticoterapia [Trabajo en la red]. Cuba:

Alliance for the prudent use of antibiotics. Recuperado del sitio web

http://webcache.googleusercontent.com/search?q=cache:cJLGfv0ZUkUJ:www.sld.cu/galerias

/doc/sitios/apua-

cuba/enterobacterias_y_antibioticoterapia._dra_zuleica.doc+&cd=1&hl=es&ct=clnk&gl=co

103

Medición automática del nivel de

aprendizaje en niños de 4 a 6 años

de edad aplicando el método PLON y

técnicas de procesamiento de señales

Ivette Stefany Flórez Duarte 21[autor]

Resumen

La psicopedagogía es la disciplina que se encarga de estudiar el comportamiento humano, se

centra en la forma como aprenden y se desarrollan las personas, además, de las dificultades

que presentan durante la adquisición de nuevos aprendizajes. Es por ello, que en la búsqueda

de prevenir y neutralizar dichos problemas de aprendizaje, son necesarios instrumentos

eficaces que soporten al especialista al momento de realizar una intervención preventiva y/o

correctiva en el proceso cognoscitivo del paciente. Pero la carencia de estos instrumentos de

valoración y detección más objetivos, ha conllevado a crear este proyecto basado en la PLON

(Prueba de lenguaje oral Navarra), enfocado específicamente en niños con edades de 4, 5 y 6

años. Este software será una herramienta de gran ayuda para los psicólogos, pedagogos y

logopedas, ya que ayuda a identificar eficazmente los niños con problemas de desarrollo del

lenguaje, y diagnosticar al paciente individualmente para establecer su respectivo tratamiento

en caso de que sea necesario. La idea del proyecto es replantear la forma tradicional de realizar

la prueba, digitalizándola y sistematizándola. El programa almacenará los registros de la

producción verbal del niño durante la prueba, otorgando la posibilidad de analizar

auditivamente las frases o palabras, cuantas veces sea necesario. Se realizará un algoritmo que

analice los registros de voz, los procese, y compare, mediante diferentes técnicas como la

transformada wavelet para el procesamiento de voz y audio, debido a que esta técnica

proporciona información más precisa sobre datos en la señal que otras técnicas de análisis de

señales. Además, se utilizarán métodos de pre-procesamiento de imágenes como la

binarización para facilitar la correcta selección de los objetos en la imagen. Finalmente, se

pretende con este proyecto generar gráficas que contengan información estadística más

precisa con respecto al nivel de retraso o de normalidad en el que se encuentra el paciente, así

mismo, emplear bases de datos para llevar un registro de cada persona evaluada con la

finalidad de que el profesional pueda esclarecer un resultado especifico una vez realizado el

diagnostico, basado en los resultados que arroje el programa.

21 Programa de Ingeniería en Telecomunicaciones, Grupo de Ingeniería Biomédica, Universidad de Pamplona, Norte de Santander.

Correo electrónico: [email protected]

104

Introducción

El lenguaje es el principal vehículo de comunicación, es una de las acciones más

elaboradas y complejas que realiza el ser humano, además de ser fundamental y

necesaria durante toda la vida. El desarrollo del lenguaje se asocia directamente con

el desarrollo intelectual, ya que a medida que se adquiere conocimiento, se mejora la

habilidad lingüística. Trastornos del lenguaje en el infante pueden afectar el

comportamiento del niño a futuro, actuando como un impedimento en la vida,

afectando su desenvolvimiento en el ámbito social, condicionándolo a tener una

forma de actuar y vivir diferente a los demás, pero, el ámbito que más se ve afectado,

es el relacionado con la educación y el aprendizaje. Actualmente, existen diferentes

pruebas que evalúan el nivel de desarrollo lingüístico, pero en la mayoría de estas, el

profesional debe registrar y analizar los resultados de la prueba en forma escrita, lo

cual puede generar un posible error humano. La idea es diseñar un algoritmo que

permita obtener de forma concisa información acerca del estado verbal y lingüístico

en el que se encuentra un infante según su edad cronológica, que mediante las

diferentes técnicas de procesamiento de voz e imágenes permita determinar el grado

de retraso o normalidad de aprendizaje. Con la elaboración de este proyecto se

pretende suplir la carencia de softwares enfocados a evaluar el aprendizaje infantil,

mediante instrumentos o herramientas que ayuden a evaluar el conocimiento básico

verbal que posee el infante, y de esta forma, realizar la respectiva valoración,

detección, diagnóstico y tratamiento.

Metodología Empleada

En la figura 1 se ilustra el diagrama de bloques de los pasos metodológicos

aplicados en el presente trabajo:

Figura 1. Diagrama de bloques donde se ilustra la metodología planteada para el desarrollo del

proyecto. La imagen fue elaborada por los autores.

En la etapa de adquisición se capturan los datos de voz, imágenes y video.

Las etapas de procesamiento y tarea dependerán directamente una de la otra. Ya

que, según el ejercicio a realizar (selección de objetos dentro de una imagen o conteo

105

de palabras o frases) se decidirá el tratamiento o procesamiento que se realizará a los

datos (voz).

En la última etapa se visualizará la interfaz gráfica, en la cual se mostraran los

puntajes, el número de aciertos, las gráficas estadísticas, etc.

Resultados y Conclusiones

A continuación se procede a enseñar algunos ejercicios aplicados para la evaluación

del nivel de aprendizaje:

En la figura 2 se ilustra el ejercicio “Escuchar dos frase Repetirlas Contar el

número de palabras dichas en cada frase”.

Figura 2. Ejecución del ejercicio “Escuchar dos frase Repetirlas Contar el número de palabras

dichas en cada frase”. La imagen fue elaborada por el autor.

En la figura 3 se ilustra el ejercicio “Mostrar imágenes Señalar el objeto que se

indique Mostrar número de objetos señalados correctamente”.

Figura 3. Ejecución del ejercicio “Mostrar imágenes Señalar el objeto que se indique Mostrar

número de objetos señalados correctamente”. La imagen fue elaborada por el autor.

Por último en la figura 4 se enseña el ejercicio “Mostrar imagen Señalar el color

que se le indique Mostrar número de aciertos”.

106

Figura 4. Ejecución del ejercicio “Mostrar imagen Señalar el color que se le indique Mostrar

número de aciertos”. La imagen fue elaborada por el autor.

Al finalizar este trabajo los psicólogos, logopedas y pedagogos contarán una

herramienta importante para el análisis de procesos cognoscitivos en niños de 4 a 6

años. Además, de sentar una base sólida para un futuro trabajo en el campo de

detección de trastornos de habla y aprendizaje en niños.

Referencias

[1] G. Aguinaja Ayerra, M. L. Armentia Lopez de Suso, A. Fraile Blazquez, P. Olangua Baquedano y

N. Uriz Bidegain. PLON (Prueba de Lenguaje Oral Navarra), Barcelona: Gobierno de Navarra.

107

Análisis de señales ACARS mediante

radio definida por software

Kevin Herney Rodríguez Gómez 22[autor]

Juan Enrique Cárdenas Jiménez 22[autor]

Resumen

El presente trabajo de investigación en desarrollo consta en analizar señales que compone

una infraestructura ACARS (Aircraft Communications Addressing and Reporting System)

protocolo que identifica y monitorea todo el tráfico aéreo de la aeronave entre la comunicación

del avión y de la estación base, por lo cual a través de un sistema de radio definido por

software con dispositivos RTL_SDR se intenta lograr captar las señales en las frecuencias

respectivas, realizar la demodulación MSK y la respectiva decodificación para obtener los

paquetes a analizar. Como trabajo en desarrollo existe dentro del sistema de monitoreo de

tráfico aéreo servicios independientes de ACARS, por lo cual es una ayuda para entender el

sistema de posicionamiento que utiliza ACARS, y facilita realizar el posicionamiento de la

aeronave en tiempo real. Esta tecnología se denomina ADS-B que es uno de los servicios

predominantes, si de servicios de posicionamiento aéreo se refiere. Por último se dispone de

un aplicativo en Web que a través de Google Maps traza la trayectoria de la aeronave que se

capte por intermedio del dispositivo RTL-SDR.

Introducción

En la vida moderna del hombre en pleno siglo XXI existe la necesidad de monitorear

y analizar el tráfico aéreo que las personas, instituciones gubernamentales (Ya sean

militares, o civiles) que viajan en aviones demanda y es un servicio que va en

aumento. Con la intención de registrar la trayectoria, información común y mecánica

(Combustible, Disponibilidad de Asientos, Estado de la tripulación, Condición

Climática) (Captain Brian Payne, 2001), estipulada para el respectivo avión con el fin

de evitar impactos y desastres aéreos, etc.

Todas esas funcionalidades se soportan en una solución que a través de los años ha

estado en una continua mejora para suplir las necesidades de tráfico de las mismas

aeronaves y de los mismos accidentes que concurren actualmente. Esta funcionalidad

basa en un protocolo llamado ACARS el cual tiene una infraestructura muy costosa y

de tal envergadura que es muy difícil para un estudiante acceder a un proceso de

22 Programa de Ingeniería de Telecomunicaciones, Semillero adscrito al grupo de investigación en Seguridad y Sistemas de

Comunicaciones, GISSIC, Universidad Militar Nueva Granada, Santa Fe de Bogotá. Correo electrónico: [email protected]

108

investigación de tipo académico del funcionamiento y el conocimiento de los equipos

empleados.

Dado que el aprendizaje del funcionamiento es limitado, existen dispositivos que

permiten bajo un rango de frecuencias (Acorde al tipo de antenas) demodular y hacer

todo el proceso de tratamiento de señales con algún tipo de programa que reconozca

este tipo de dispositivo como lo es MATLAB o GNURadio. Es por ello que analizar las

señales provenientes del sistema ADS-B es posible a un bajo costo.

Estos dispositivos se denominan RTL-SDR que manejan librerías para sistemas

operativos Windows y GNU/Linux, teniendo la finalidad de este trabajo en curso con el

propósito de detallar el funcionamiento y la instalación del dispositivo en los dos

sistemas operativos.

Metodología Empleada

Iniciando el proceso de desarrollo del proyecto es preciso la definición de cada uno

de los pasos que se han realizado para cumplir de manera exitosa la recepción de

señales del sistema ADS-B para tener información de la aeronave que se encuentra en

una posición específica, esta información es captada por la antena en tiempo real y

permite recibir los datos que envía el avión al centro de operaciones que tiene en

tierra.

Como primer punto se ejecutó la documentación de la información referente a la

tecnología de radio definido por software, que es necesaria por el uso del dispositivo

RTL-SDR para tener capturas de información a diferentes frecuencias como las del

sistema ASD-B o ACARS que se encuentran entre las que utiliza el dispositivo

manejando un rango de frecuencias correspondiente a los 25 MHz y 1.75 GHz.

(Laufer, 2014) , lo que permite ver la importancia de tener una recepción de

diferentes bandas de frecuencias y mostrarlas en el equipo que se configura como

receptor del ADS-B, el programa utilizado para la recepción es el GNU/Linux donde se

configura las librerías correspondientes al RTL-SDR con el fin de captar la información

en la terminal de UBUNTU, para la parte de hardware se indaga acerca de la

arquitectura del Dispositivo RTL-SDR y del funcionamiento del sistema ACARS el cual

maneja modulación MSK (Yun Lin*, 2014) y encriptado de la información (Captain

Brian Payne, 2001), lo que hace demasiado complejo captar y demodular la

información que transmiten los aviones con datos más específicos, donde únicamente

se puede recibir la información enviada por la tecnología ADS-B que es el prototipo

utilizado para ver los datos de ubicación, velocidad, trayectoria de vuelo en un

espacio (Laufer, 2014) que logre captar la señal de información transmitida por el

avión lo que permite definir criterios y capacidades a utilizar mediante el desarrollo

que se ha llevado en el proyecto.

109

Resultados y Conclusiones

Al analizar el diseño de este protocolo, es un sistema que mediante un enlace

radioeléctrico transmite corta información de diferentes aeronaves que están

circulando por el aire teniendo comunicación con un sistema de operaciones aéreas

que se encuentra en tierra, donde la comunicación se hace desde el avión por una

banda radiada en el espectro (Captain Brian Payne, 2001); esta información que se

envía tiene un proceso de modulación tipo MSK el cual se hace en el sistema ACARS;

la información transmitida por el avión se envía en mensajes tipo Broadcast, (Liu Lian-

Sheng, 2012) los cuales llegan a antenas de VHF y HF que direccionan la información

a los satélites ya que tienen la capacidad de recepción de los mensajes enviados por

el avión y pueden así llevarlos a la estación localizada en tierra (Yun Lin*, 2014).

Dado que el funcionamiento ADS-B es un servicio de localización aérea, ACARS

utiliza un servicio similar para conocer la ubicación de la aeronave, el funcionamiento

del sistema de recepción de ADS-B utilizando el RTL_SDR se tiene en cuenta la

configuración de la plataforma que se debe configurar para el control del dispositivo

la cual es GNU/Linux, donde se lleva a cabo la instalación de las librerías de

OsmoconSDR (TRAC integrade SMC & Project Management, 2015) para que el

sistema operativo en este caso UBUNTU reconozca el dispositivo y junto con ello la

instalación en particular importancia la tecnología de RTL ADSB, tal como se ilustra en

la figura 1.

Figura 1. Captura de paquetes ADS-B sin decodificar. La imagen fue elaborada por los autores.

110

En la Figura 1 después de haber instalado la liberaría respectiva de RTL-SDR,

conectamos el dispositivo RTL2832u Tuner se ejecuta el comando rtl_adsb para

identificar el dispositivo conectado y la frecuencia sintonizada a 1.09 Ghz con una

frecuencia de muestre de 2MHz, se logra identificar todos los paquetes sin decodificar

que el dispositivo RTL-DSR logra captar.

Luego se necesita decodificar los paquetes a través de un decodificador de paquetes

ADSB denominado DUMP1090, lo cual despliega toda la información contenida en la

captura de los paquetes ADSB sin decodificar obtenidos en el proceso de la figura 1.

Teniendo en cuenta lo anterior se ejecuta el comando ./dump1090 –interactive port

[Puerto del host] –net desplegará una tabla de información como se detalla en la

Figura 2 permite ver la información de manera detallada y especifica que recibe el

dispositivo RTL_SDR.

Figura 2. Captura de los aviones en la terminal. La imagen fue elaborada por los autores.

En la tabla No 1 Indica la descripción de los atributos que puede contener un

paquete ADSB:

Tabla 1. Descripción de cada atributo del contenido del aeronave. La tabla fue elaborada por los

autores.

Campo Descripción

HEX Es una identificación de cada mensaje para cada aeronave

Flight La identificación del vuelo

Altitud Medida que permite reconocer la medida que desde el nivel del mar hacia la

atmósfera.

Velocidad Dada como información adicional de la trayectoria del aeronave

Latitud y Longitud Estos datos son los datos primordiales para reconocer la ubicación del aeronave

dentro de cualquier mapa cartográfica (En Google Maps)

Mensajes Es una medida de reconocer por cuanto tiempo el aeronave ha estado la informando

sobre la ubicación en el mapa o que tan ha sido la trayectoria.

111

Al iniciar la recepción se verifica que existe conexión a internet y para proceder a

hacer uso del aplicativo de google maps, el cual se abre teniendo en cuenta la

dirección IP que tiene el computador para acceder a internet dado por HDCP.

Después de reconocer la IP del dispositivo entonces se abre algún navegador y se

escribe lo siguiente: IP_servidor:8080, e inmediatamente se abrirá el aplicativo lo cual

nos permite observar datos de la tabla de la Imagen No 1b de los diferentes aviones

que se muestran allí, ya mencionados como la longitud y latitud, velocidad y altitud,

que permiten determinar cómo ha sido la trayectoria del vuelo en el mapa en tiempo

real, permitiendo ver de forma más interactiva los datos, gracias a la configuración y

uso de las herramienta que nos brindan el aplicativo de google maps, como lo es el

observado en la figura 3.

Figura 3. Datos recibidos y ubicación de los aviones mostrados en google maps. La imagen fue

elaborada por los autores.

La figura 3 se puede observar toda la trayectoria de la aeronave desde el despegue

del aeropuerto de Bogotá hasta la cercanía de San Cayetano que son

aproximadamente 90 Km que para un sistema de recepción sencillo pueda alcanzar

distancias de esa envergadura son resultados interesantes teniendo en cuenta que se

puede diseñar antenas con una directividad y una ganancia aún mejor que puedan

alcanzar distancias aún más grandes.

Vale la pena aclarar que son condiciones geográficas de un terreno plano y sin

obstáculos considerables como las montañas que pueden atravesar los mensajes

112

transmitidas por los aviones. De modo que la efectividad en cuanto a longitud para

recibir mensajes para situaciones geográficas más críticas puedan ser menores que

no se alcance a lograr capturar alguna aeronave.

Referencias

Gil Rodriguez, M. (2003). Introducción rápida a Matlab y Simulink para Ciencia e Ingeniería. Madrid:

Ediciones Díaz de Santos.

Consejo Nacional de Política Económica y Social CONPES. (2009). Política Nacional de ciencia,

tecnología e innovación. Departamento Nacional de Planeación(DNP). República de

Colombia. Documento 3582: Bogotá.

Oquendo, S., (2007); Semilleros de investigación y desarrollo humano. En Avances en investigación

formativa. Volumen 2. RedCOLSI. Red Colombiana de Semilleros de Investigación

Román C. E. & Herrera R. J. (2010). Aprendizaje centrado en el trabajo independiente. Revista

Educación y educadores, 13(1), 91–106.

Stewart J. (2008). Cálculo trascendentes tempranas (Sexta ed). Mexico, Cengage Learning.

Torres, L., (2005); Para qué los semilleros de investigación. Revista Memorias. Recuperado el 29 de

abril de 2015 de

http://scholar.google.es/scholar?hl=es&q=Para+qu%C3%A9+los+semilleros+de+investigac

i%C3%B3n&btnG=&lr=

Zapata G., Dominguez J., Molina J.. (2012). Didáctica reflexiva en educación superior: Una mirada

desde el relato autobiográfico. Editorial académica española.

113

Evaluación de ataques a dispositivos

móviles para el diseño de un sistema

de detección de anomalías

Mónica Johana Buitrago Ramírez 23[autor]

Resumen

En este documento se realiza la evaluación ataques de tipo MITM, backdoors y de recolección

de información, lo cual se desarrolla en cinco fases. Seleccionando herramientas para

ejecutarlos y estableciendo un escenario de red que permita capturar el tráfico en la red con el

software spleen, para analizarlo y guardar el registro.

Introducción

Actualmente, en el mercado de teléfonos inteligentes, existe una gran cantidad de

aplicaciones, algunas se caracterizan por su popularidad y manejo de información

importante del usuario, esto hace a los teléfonos inteligentes un objetivo fácil e ideal

para atacar.

Debido a esto se evalúan diferentes tipos de ataques comunes a dispositivos

móviles, para posteriormente diseñar un IDS (sistema de detección de anomalías) y

con la ayuda del software académico spleen desarrollado por la Universidad Militar

Nueva Granada, se analiza el tráfico de la red y se genera un registro en formato CSV.

Para el desarrollo de este trabajo se utilizaron las siguientes herramientas

organizadas en dos grupos:

1) Software para el análisis de Red

Spleen: Es una herramienta de software que permite recopilar y analizar la

información de una red de datos, partiendo del tráfico en ella, además permite

obtener un registro de las conexiones utilizando la misma estructura del

conjunto de datos KDD de DARPA creado por el MIT. El grupo de investigación

GISSIC de la UMNG es el propietario de los derechos sobre el software spleen

23 Programa de Ingeniería de Telecomunicaciones, Semillero ENIGMA adscrito al grupo de investigación en Seguridad y Sistemas de

Comunicaciones GISSIC, Universidad Militar Nueva Granada, Santa Fe de Bogotá. Correo electrónico: [email protected]

114

(GISSIC 2014). Ahora, para entender mejor spleen es necesario definir los

siguientes conceptos fundamentales:

- Conexión: es una sucesión de paquetes TCP en periodos de tiempo

determinados, comunicación dada por la trasmisión y recepción de datos

desde una dirección IP de origen a una dirección IP de destino basado en un

protocolo de red. Spleen le da una etiqueta a cada conexión o registro, que lo

identifica normal o ataque. (Información y Ciencias de la Computación, 2005).

- Características: el conjunto de datos importantes para la evaluación de

detección de intrusos, está compuesto por 41 variables o características, que

en este momento son insuficientes para la detección satisfactoria de un

ataque, por lo tanto spleen utiliza 10 características más para hacer una

mejora en la detección (Guillén, Rodríguez, Páez , Rodríguez, 2012).

2) Aplicaciones o herramientas para la ejecución de ataques.

- Zanti: Es una herramienta para la plataforma Android que permite la

realización de pruebas de penetración móvil para que los administradores de

red puedan evaluar el nivel de riesgo en la misma. Este contiene varios tipos de

ataques. En este trabajo se escogió el tipo de ataque MITM con método ARP.

(Zimperium, 2010).

- Inspector WiFi: Es una aplicación Android que nos permite obtener información

como dirección IP, dirección MAC, nombre de dispositivo, etc. de todos los

dispositivos que estén conectados a una red, sin importar el medio de

conexión (WI-FI o Ethernet) (LK interactive Services, 2015).

- Nessus: Es una herramienta de análisis de vulnerabilidades disponible para

varios sistemas operativos en la cual los usuarios pueden realizar varios

escáneres, tener un análisis programado, obteniendo resultados dentro del

mismo software o enviamos por correo electrónico. (Tenable, 2015).

- Kali Linux: Es un sistema operativo basado en Linux donde se puede encontrar

múltiples herramientas para penetración de seguridad. (Kali, 2015).

- Smart living: Es un software que permite el acceso sin permisos a los sensores

de un dispositivo móvil con únicamente el escáner del código QR, utilizando la

plataforma que tienen una solución para internet de las cosas.

Metodología Empleada

Para el desarrollo de este trabajo se planteó una metodología en 5 fases que

permiten lograr el objetivo de evaluación de ataques, tal como se ilustra en la figura

1.

115

Figura 1. Fases en el desarrollo del trabajo. La imagen fue elaborada por el autor.

Las fases propuestas son las siguientes:

Fase 1: Para la selección de ataques se tuvo en cuenta que estos fueran

específicamente más comunes en dispositivos móviles.

Fase 2: Se planteó un escenario que permitió la captura de tráfico a través de un

puerto espejo.

Fase 3: En la ejecución de ataques se desarrollan cada uno de los pasos de

configuración de las aplicaciones móviles y software actante

Fase 4: El tráfico capturado es de toda la red. Esto se logra mediante el uso de la

tarjeta de red en modo promiscuo y en un computador conectado a un puerto espejo

Fase 5: Luego de la captura del tráfico con el software spleen, se procede a realizar

un registro en un archivo CSV que contiene todos los registros de conexiones en la

red con cada una sus variables y sus valores.

Resultados y Conclusiones

Fase 1: Selección de 6 ataques. En esta fase fueron seleccionas 5 aplicaciones para

el grupo de 6 ataques que se explican a continuación en la tabla 1:

116

Tabla 1. Selección de ataques. La tabla fue elaborada por el autor.

Nº Herramientas Tipo De

Ataque

Descripción Resultados

De Smartphone a Smartphone

1 Zanti

MITM_1

Arp

spoofing

DNS

spoofing

Redirección de páginas

http

Redirige las paginas HTTP a las que

entra la victima a una página web

deseada por el atacante

2 Zanti

MITM_2

Arp

spoofing

Inserción de imagen en

una pagina

Pone una imagen elegida por el

atacante en la página HTTP a la que

entra la victima

3 Inspector Wi-fi

Mapeo de red

Recolección de

información de red

Recopila todas las direcciones IPs Y

MAC de la red.

De Computador a Smartphone

4 Nessus

Escaneo de

vulnerabilidad

es

Recolección de

información de

vulnerabilidades

Hace un escaneo a la víctima donde

encuentra información del equipo.

5 Kali Linux Backdoor_1 Robo de información Descarga de imagen y navegación por

directorios del móvil.

6 Smart living

Backdoor_2

Recolección de

información de sensores

El atacante sabe que movimientos se

hacen con el móvil de la víctima.

En la primera parte de la tabla 1 están los 3 ataques de Computador a Smartphone,

y en la segunda parte están los 3 de Smartphone a Smartphone.

Fase 2: escenario de red. En la figura 2 se presentan los escenarios bajo análisis de la

red.

Figura 2. Escenario de red. La imagen fue elaborada por el autor.

117

Fase 3: Ejecución de ataques.

a. Zanti: redirección http

En el ataque de redirección de página HTTP se configura del tipo MITM con método

ARP, también se debe activar el ataque “redirect HTTP” y seleccionar la página a la que

la víctima ingresara.

En los resultados del ataque, se dejó la página del ataque por defecto, la cual es

propiedad de ZIMPERIUM (creador de la app empleada) y muestra un mensaje en el

cual alerta al usuario o víctima.

b. Zanti: sustitución de imágenes

En el ataque de sustitución de imagen en un página web HTTP, se puede observar

que al igual que en redirección HTTP se configura tipo de ataque como MITM con

método ARP, también se debe activar el ataque “Replace images” y seleccionar la

imagen que la víctima vera.

En los resultados se ingresa a la página www.fotos.com, y la víctima ve solo la

imagen deseada por el atacante, en este caso una letra “v”.

c. Inspector WiFi: recolección de información o mapeo de red

En el ataque de recolección de información sobre la red, en este ataque se buscan

saber que dispositivos se encuentran en la red, conociendo su dirección MAC, su

dirección IP y el fabricante de cada uno.

La aplicación devuelve la información después de hacer un escaneo, en la cual se

encontraron 8 equipos de la red con sus características.

d. Nessus: escaneo de vulnerabilidades

En el ataque de escaneo de vulnerabilidades, Se utiliza el módulo de escaneo básico

de nessus, donde se escanea una tarjeta especifica en este caso la tarjeta de Tablet (8)

para encontrar las vulnerabilidades del equipo, en este caso se escaneo la Tablet y

como resultado se obtuvo cuatro bloques de información acerca del fabricante.

e. Metasploit: backdoor

El ataque de backdoor, Se utiliza el módulo de Metasploit de Kali Linux, donde se

ingresa al equipo víctima y se navega por sus directorios hasta encontrar el archivo

deseado y se descarga por el atacante, como se muestra en la figura 13, donde se

descargó una imagen.

f. Smart living: backdoor

En la tabla 8 se encuentran los equipos involucrados en el ataque de Smart living -

backdoor y su función. Para esto se utiliza una “actividad” de la plataforma online que

brinda soluciones a internet de las cosas, en donde la página pide que el Smartphone

escanee un código QR para empezar, luego el celular es redirigido a la página del

ataque en la cual el atacante reconoce todos los movimientos del dispositivo víctima y

mantiene un registro de los mismo.

118

Fase 4: captura de tráfico por spleen.

Figura 3. Captura de trafico dirante la redireccion de HTTP. La imagen fue elaborada por el autor.

La Figura 3 muestra las capturas de tráfico que se hicieron con el fin de observar el

comportamiento de los ataques con respecto al tráfico normal. En algunos casos fue

evidente que el tráfico no era normal, como en la redirección de tráfico, pero en otros

casos ataque el tráfico no se mostró anormal.

Fase 5: registro de conexión por spleen.

Figura 4. Documento con los registros generados y las 52 características recolectadas por spleen. La

imagen fue elaborada por el autor.

En la figura 4. Se observa un ejemplo de un archivo en el cual se guardaron los

valores de las características de las conexiones durante uno de los ataques. El cual

posee un encabezado donde se hace una breve descripción en orden de los

significados de cada una de las características. Por último está el listado de registros

de cada conexión y cada una con los 52 variables.

Algunas de las conclusiones más relevantes son las siguientes:

El software de uso académico spleen permite el análisis de tráfico en la red, pero no

se puede analizar completamente el comportamiento del ataque en la red de forma

manual, es por esto que este software permite caracterizar las conexiones de red por

119

medio de 52 variables necesarias para el diseño y desarrollo de un sistema de

detección de intrusos basado en aprendizaje de máquina.

Algunas de las aplicaciones de ataque para el desarrollo de este proyecto, permiten

analizar la red y detectar las vulnerabilidades en la misma.

Se evidencio que la aplicaciones empleadas, pueden comportase de forma maliciosa

dependiendo de la intención del usuario, es decir, realmente las aplicaciones pueden

emplearse a disposición de la persona que lo manipula, como herramienta de

detección o ataque.

En un escenario de red inalámbrico se dificulta la captura de tráfico en el sistema

operativo Windows por el manejo complejo de las tarjetas red, es por esto, que es se

utilizó una arquitectura de red hibrida con tecnología inalámbrica y cableada que

permitiera el uso de un puerto espejo.

Referencias

GISSIC, g. d. (2014). SPLEEN. Obtenido de http://gissic.umng.edu.co

Guillén, E., Rodríguez, J., Páez, R., & Rodríguez, A. (2012, Octubre). Detection of non- content

based attacks using GA with extended KDD features. In Proceedings of the world congress

on engineering and computer science (pp. 30-35).

Linux, K. (2005). Penetration testing tools present in Kali Linux.

Security, T. N. (2015). Tenable Network Security. Obtenido de

http://www.tenable.com/products/nessus/select-your-operating-system

Service, L. i. (2015). Inspector WiFi. Obtenido de

https://play.google.com/store/apps/details?id=lksystems.wifiintruder&hl=es_419

SmartLiving. (2015). Lest play a guessing game. Obtenido de http://www.smartliving.io/

Universidad de California, i. y. (2005). KDD Databases. Obtenido de

http://kdd.ics.uci.edu/databases/kddcup99/task.html

Zimperium. (2010). Mobile Security Audits Simplified. Obtenido de

https://www.zimperium.com/zanti-mobile-penetration-testing.

120

Protección de derechos de autor en

imágenes por medio de señales de

voz

María Angélica Palacios Cárdenas 24[autor]

Resumen

Uno de los tipos de datos que más se transmiten y utilizan en los medios digitales como

internet, corresponden a las imágenes. Este tipo de representación visual tiene características

que hacen que sea fácil de realizarle cualquier tipo de copia, afectando la originalidad de esta y

los datos del autor.

Para proteger los derechos de autor de una imagen se utiliza la técnica del marcado, que

consiste en insertar “una firma” en la imagen que identifique a su propietario. Sin embargo, si

la marca es fácilmente extraíble, un tercero podría manipular la imagen para extraer la marca y

poderla utilizar para sus propósitos. De tal forma, se hace indispensable que la marca

incrustada en la imagen sea robusta ante ataques pasivos como: filtrado, rotación, adición de

ruido, re-dimensionamiento, entre otros.

Con base a la anterior información se plantea este proyecto que tiene como objetivo

implementar una técnica de ocultamiento de datos para ocultar un audio dentro de una imagen

a color, con el fin de brindar protección a los derechos de autor.

Introducción

El marcado de imágenes es un tema de gran interés en la seguridad de la

información. Tradicionalmente, se han utilizado imágenes binarias como marcas y se

han propuesto numerosos esquemas de marcado de imágenes en imágenes. Sin

embargo, el marcado de imágenes con otro tipo de información como una señal de

audio, ha sido explorado en menor cantidad, debido a que la cantidad de información

de una señal de voz es más redundante que la información en una imagen. La señal

de voz puede ser una marca más robusta ante ataques pasivos en relación a las

marcas con imágenes binarias. La técnica mencionada anteriormente protegería

mejor los derechos de autor de la imagen huésped.

Para este proyecto se analizó diferentes trabajos:

24 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación Claude Shannon, Universidad Militar Nueva Granada,

Santa Fe de Bogotá. Correo electrónico: [email protected] .

121

En el artículo titulado “Image Steganography base on LSBMR using Sobel Edge

Detection” por Fouroozesh y Al ja’am en 2014, El algoritmo propuesto aplica un

esquema adaptativo en regiones utilizando sustitución LSB. La técnica de detección de

bordes de Sobel se utiliza como criterio para la identificación de la región. La LSB

Matching Revisited (LSBMR) se utiliza como el algoritmo de datos ocultos. Los

experimentos y el resultado realizados confirman que las imágenes stego incorporan

los bits. Tiene tasa capacidad de un bit por pixel (bpp). Además, da una mejor calidad

de la imagen stego en comparación con otros métodos, como el Edge Based Adaptive

LSBMR (EALSBNR).El método propuesto funciona en imágenes en escala de grises.

(Fouroozesh, Al ja’am, 2014).

En el artículo titulado “An analysis of LSB based image steganography techniques”

por Thangadurai y Sudha Devi Gen en 2014, se discute el método LSB para ocultar el

mensaje secreto en el bit menos significativo de la imagen. La técnica de modificación

LSB proporciona una manera fácil de integrar la información en imágenes, pero los

datos pueden ser fácilmente decodificados. LSB se aplica para varios formatos de

archivo. Este método se puede utilizar tanto para el formato GIF y PNG. LSB en

formato GIF es un algoritmo muy eficiente de utilizar al incrustar una cantidad

razonable de datos de una imagen de escala de grises. Los autores afirman que

pueden ocultar datos en archivos de vídeo como trabajo futuro (Thangadurai, Sudha

Devi Gen, 2014).

En el artículo “Analysis of edge base image steganography techniques in spatial

domain” por Singla y Juneja en 2014, se explora en una primera revisión la técnica

LSB, pero se determina que ésta es más propensa a los ataques estadísticos. Según el

sistema de visión humano (HVS: Human Vision System), el ojo puede reconocer los

cambios en áreas continuas más fácilmente que en las áreas no continúas. Se utiliza

este principio junto con los componentes de alta frecuencia de la imagen (Singla,

Juneja, 2014).

Metodología Empleada

Para el ocultamiento del audio en la imagen a color, se desarrollará las siguientes

fases:

Fase 1. Cuantización del audio a emplear y conversión a binario.

Fase 2. Descomposición de la imagen en los planos Red Green and Blue (RGB) y la

Discrete Wavelet Transform (DWT) al plano donde se ocultan el mensaje de voz.

Fase 3. Se oculta el audio en una de las componentes de DWT de un plano por

medio de la ecuación 1.

122

Ecuación 1. Ocultamiento con Quantization Index Modulation (Ballesteros, 2014)

Fase 4. Reconstrucción de las componentes de DWT y los planos para tener la

imagen marcada.

Fase 5. Se realiza un ataque a la imagen marcada con un ruido gaussiano, teniendo

en cuenta la media y la desviación estándar.

Para la recuperación del audio en la imagen a color, se procede a hacer ejecutar las

siguientes fases:

Fase 1. Descomposición de la imagen en los planos RGB y luego DWT al plano

donde se ocultó el mensaje de voz.

Fase 2. Extracción del mensaje de voz de la sub banda del plano con la ecuación 2.

Ecuación 2. Extracción con Quantization Index Modulation (Ballesteros, 2014)

Fase 3. Al tener el mensaje de voz, se debe descuantizar, debido a que este se

encuentra en valores binarios. En esta fase es importante tener en cuenta el valor de

la clave.

Para la corroboración de la imagen original, imagen marcada, el mensaje de voz

original y el mensaje de voz recuperado, se debe realizar la correlación y la

visualización.

El Procedimiento se realizó en el software Matlab utilizando los diferentes

comandos que este tiene.

Resultados y Conclusiones

Los resultados que se presentan a continuación en las tablas I al IV, corresponden a

las pruebas de ocultamiento de un audio de 1 segundo con una frecuencia de

muestreo de 8000 en una imagen a color de formato .tiff en una de las sub bandas de

DWT en los diferentes planos RGB:

123

Tabla I. Correlaciones de la sub banda de Aproximación para formato .tiff. La tabla fue elaborada

por el autor.

Delta ROJA APROXIMACIÓN VERDE APROXIMACIÓN AZUL APROXIMACIÓN

Wavelet Planos Audio Wavelet Planos Audio Wavelet Planos Audio

5 0,9999 0,9999 0,9985 0,9998 0,9998 0,9996 0,9999 0,9999 0,9873

10 0,9994 0,9994 0,9985 0,9991 0,9992 0,9992 0,9995 0,9995 0,9837

15 0,9987 0,9988 0,9981 0,9980 0,9982 0,9993 0,9989 0,9989 0,9884

20 0,9976 0,9978 0,9988 0,9964 0,9969 0,9990 0,9980 0,9981 0,9873

25 0,9963 0,9966 0,9986 0,9944 0,9951 0,9992 0,9969 0,9971 0,9872

30 0,9947 0,9952 0,9984 0,9919 0,9930 0,9989 0,9955 0,9959 0,9836

35 0,9927 0,9934 0,9974 0,9890 0,9905 0,9987 0,9939 0,9944 0,9862

40 0,9906 0,9915 0,9982 0,9857 0,9877 0,9979 0,9921 0,9927 0,9856

45 0,9881 0,9894 0,9970 0,9820 0,9845 0,9979 0,9901 0,9909 0,9794

50 0,9854 0,9869 0,9872 0,9779 0,9809 0,9949 0,9877 0,9887 0,9800

Tabla II. Correlaciones de la sub banda Horizontal para formato .tiff. La tabla fue elaborada por el

autor.

Delta ROJA HORIZONTAL VERDE HORIZONTAL AZUL HORIZONTAL

Wavelet Planos Audio Wavelet Planos Audio Wavelet Planos Audio

5 0,9956 0,9997 0,9990 0,9956 0,9995 0,9999 0,9956 0,9997 0,9996

10 0,9821 0,9987 0,9993 0,9825 0,9981 0,9999 0,9822 0,9989 0,9999

15 0,9610 0,9973 0,9996 0,9615 0,9961 0,9999 0,9609 0,9976 0,9999

20 0,9328 0,9955 0,9996 0,9337 0,9935 0,9999 0,9324 0,9961 0,9999

25 0,8971 0,9934 0,9996 0,8985 0,9905 0,9999 0,8970 0,9944 0,9999

30 0,8544 0,9910 0,9993 0,8557 0,9870 0,9999 0,8535 0,9923 0,9999

35 0,8060 0,9885 0,9996 0,8074 0,9832 0,9999 0,8050 0,9901 0,9997

40 0,7555 0,9858 0,9996 0,7576 0,9794 0,9999 0,7527 0,9878 0,9999

45 0,7007 0,9830 0,9996 0,7044 0,9754 0,9999 0,6985 0,9855 0,9999

50 0,6433 0,9801 0,9993 0,6455 0,9710 0,9999 0,6414 0,9829 0,9999

124

Tabla III. Correlaciones de la sub banda Vertical para formato .tiff. La imagen fue elaborada por el

autor.

Delta ROJA VERTICAL VERDE VERTICAL AZUL VERTICAL

Wavelet Planos Audio Wavelet Planos Audio Wavelet Planos Audio

5 0,9895 0,9997 0,9985 0,9899 0,9995 0,9999 0,9901 0,9997 0,9988

10 0,9563 0,9987 0,9993 0,9585 0,9981 0,9999 0,9587 0,9989 0,9999

15 0,9024 0,9974 0,9996 0,9074 0,9962 0,9999 0,9083 0,9977 0,9996

20 0,8314 0,9957 0,9999 0,8389 0,9938 0,9999 0,8402 0,9963 0,9999

25 0,7461 0,9939 0,9996 0,7573 0,9911 0,9999 0,7611 0,9948 0,9999

30 0,6520 0,9920 0,9993 0,6657 0,9882 0,9999 0,6674 0,9930 0,9999

35 0,5576 0,9900 0,9996 0,5747 0,9853 0,9999 0,5761 0,9913 0,9997

40 0,4642 0,9879 0,9999 0,4772 0,9821 0,9999 0,4809 0,9894 0,9999

45 0,3778 0,9858 0,9996 0,3908 0,9789 0,9999 0,3955 0,9876 0,9999

50 0,3035 0,9838 0,9993 0,3141 0,9757 0,9999 0,3197 0,9857 0,9999

Tabla IV. Correlaciones de la sub banda Diagonal para formato .tiff. La tabla fue elaborada por el

autor.

Delta ROJA DIAGONAL VERDE DIAGONAL AZUL DIAGONAL

Wavelet Planos Audio Wavelet Planos Audio Wavelet Planos Audio

5 0,9996 0,9997 0,9981 0,9996 0,9996 0,9999 0,9996 0,9997 0,9991

10 0,9994 0,9989 0,9995 0,9995 0,9985 0,9999 0,9994 0,9991 0,9999

15 0,9993 0,9979 0,9999 0,9994 0,9969 0,9999 0,9994 0,9982 0,9991

20 0,9992 0,9966 0,9999 0,9994 0,9950 0,9999 0,9993 0,9971 0,9992

25 0,9991 0,9952 0,9993 0,9944 0,9930 0,9999 0,9992 0,9959 0,9999

30 0,9989 0,9936 0,9996 0,9994 0,9908 0,9999 0,9991 0,9946 0,9999

35 0,9987 0,9920 0,9999 0,9994 0,9883 0,9999 0,9991 0,9931 0,9997

40 0,9985 0,9902 0,9999 0,9994 0,9858 0,9999 0,9990 0,9917 0,9999

45 0,9983 0,9885 0,9993 0,9995 0,9833 0,9999 0,9991 0,9902 0,9999

50 0,9980 0,9868 0,9996 0,9996 0,9807 0,9999 0,9991 0,9887 0,9999

De acuerdo a las pruebas realizadas se puede tener las siguientes muestras como

se ilustra en la figura 1 (Imagen Original y Marcada), figura 2 (Plano Original y

Marcado) y figura 3 (Audio Original y Recuperado).

125

Figura 1. Imagen huésped e Figura 2. Plano Original y

Imagen Marcada. Plano Marcado Azul

Las imágenes fueron elaboradas por los autores.

126

Figura 3. Audio Original y Audio Recuperado. La imagen fue elaborada por el autor.

El desarrollo del proyecto de investigación permitió concluir que las comparaciones

entre cada una de las tablas, se puede determinar que la banda RGB y la sub banda de

DWT con más robustez es el azul y la diagonal respectivamente, para un delta o

cantidad de pasos de 10.

Cuando se guarda información en una imagen tiene que ser imperceptible para que

no sea detectada por un tercero, es decir, que al realizar cualquier tipo de ataque no

se pierda ningún dato y pueda llegar correctamente a su destino.

Referencias

D, B. (2014). Procesos de ocultamiento y extracción con QIM. Bogotá D.C.

D, S., & M, J. (2014). Analysis of edge base image steganography techniques in spatial domain. IEEE

Explore.

Fourrozesh Z, & Al Ja'am , J. (2014). Image Steganography base on LSBMR using Sobel Edge

Detection. IEEE Explore.

K, T., & G, S. D. (2014). An analysis of LSB based image steganography techniques. IEEE Explorer.

127

Audio forense: Mejoramiento de la

calidad de audio Madelyng Catalina Castellanos Camargo 25[autor]

Resumen

Inicialmente se tiene una propuesta de investigación en la cual se desarrollan temas en

relación a audio forense y el mejoramiento de la calidad de audio. El proyecto plantea como

objetivo principal mejorar los procedimientos utilizados para procesar y mejorar la calidad de

las muestras en audio forense mediante el software matemático Matlab.

Inicialmente se revisa la evolución del tema propuesto y se filtra información que puede ser

valiosa para la investigación, analizando diferentes estados del arte, artículos y libros que

permitan determinar un marco referencial. Con el tiempo se seguirá indagando más sobre la

temática para un estado completo de la información requerida.

Introducción

El audio forense se ha convertido en una profesión y especialidad reconocida

gracias a su alto grado de utilización en procesos judiciales que utilizan muestras de

audio determinantes. Tiempo atrás los estudios e investigaciones se realizaban por

medio de cintas magnéticas analógicas, filtros analógicos, equipos de reproducción

variable, equipos de prueba, osciloscopios, analizadores de espectro, entre otros, en

estudios de grabación. Esta profesión se define como el proceso de recolectar,

procesar y analizar grabaciones o muestras de audio para que sean utilizados como

pruebas de investigación en procesos judiciales. Existen tres ramas principales dentro

de audio forense: la identificación del hablante, proceso al cual se somete la

grabación para identificar el sujeto implicado; mejoramiento de la calidad de audio,

proceso al cual se somete la grabación para recuperar voz y/o mejorar la calidad del

audio que es baja por ruidos y distorsiones ajenos; verificación de autenticidad de

audio, proceso al cual se somete la grabación para analizar y detectar posibles

empalmes o ediciones que pueda llegar a tener la muestra (Ciencias Forenses, s.f.).

Con el paso del tiempo se implementa herramientas de procesamiento digital de

señales que permitían agilizar el proceso por las entidades especializadas en

seguridad. Como por ejemplo la Oficina Federal de Investigaciones (FBI) aplica

métodos tecnológicos avanzados para procesar y estudiar grabaciones de audio con

25 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación Claude Shannon, Universidad Militar Nueva Granada,

Santa Fe de Bogotá. Correo electrónico: [email protected]

128

el fin de garantizar su autenticidad, calidad e interpretación, siendo estos los tres

pilares de audio forense (Maher, 2009).

En ocasiones solo se realizan procesos de grabación y procesamiento de voces

mediante software y hardware especializado en estudios de grabación para la

investigación forense con el fin de identificar al hablante y verificar su implicación,

pero estos procesos de grabación no siempre son tan eficaces y cruciales dado que

las personas involucradas no acceden a esta solicitud de forma simple, sin embargo

hay grabaciones de audio ya existentes que han sido registradas por las mismas

víctimas y son las únicas que se pueden utilizar en los procesos, por tal motivo es

necesario realizar un proceso de análisis de dichas grabación para determinar si son

contundentes (Maher, 2009). Para ese análisis se realiza un procesamiento de la señal

de audio en donde se examina la calidad del audio para determinar si dicha muestra

es una prueba apta para los procesos. En Colombia se implementa esta técnica a

mediados de 1992 porque era necesario ejecutar nuevas tecnologías para la

investigación criminal (Vargas, 2013).

Los avances tecnológicos han sido mayores, lo que permite ir más a fondo en casos

que requieren investigación para establecer culpabilidad o inocencia mediante

pruebas que evidencien dichos acontecimientos. Casos de homicidio, secuestro,

hurto, delito y extorsión se desarrollan esencialmente mediante llamadas o archivos

de voz generando pánico a la víctima. Estas muestras son pieza fundamental en la

investigación, para lo cual es necesario realizar un tratamiento que permita procesar y

analizar las muestras de forma especializada (Barreira, 2015).

Hoy en día son utilizados software de alta gama, sin embargo hay ocasiones en las

cuales las limitaciones o requisitos de ese software impiden realizar el análisis

correspondiente en ciertas muestras debido, puntualmente, a la calidad de estas

(Anuario Estadístico del Sector Seguridad y Defensa, 2010).

Dando enfoque al mejoramiento de la calidad del audio se entiende que su principal

objetivo es mejorar la calidad de la muestra que se tiene reduciendo ruidos ajenos

que impidan entender y analizar la conversación, de esta manera se pueden

evidenciar detalles importantes para la investigación en curso. (Ciencias Forenses, s.f.)

. El proceso de mejoramiento y análisis se realiza en el dominio del tiempo y en el

dominio de la frecuencia en una copia digital de la grabación original para que esta

permanezca intacta (Maher, 2009).

Las señales de voz, como las muestras de audio a estudiar, son magnitudes físicas

variantes en el tiempo o en la frecuencia, pero estas se expresan de forma

matemática como una sumatoria de señales sinusoidales, es decir, donde las

amplitudes y las frecuencias son diferentes. Estas señales se caracterizan por

contener información, dependientes de una sola variable independiente conocida

como tiempo. El autor John G. Proakis (2007) establece un diagrama de bloques,

129

como el de la Figura 1, que funcione como un sistema para el procesamiento digital

de señales.

Figura 1. Diagrama de bloques procesamiento digital de señales. (Proakis, 2007)

Este tratamiento se realiza de forma digital dado que es un sistema programable y

flexible que modifica el comportamiento de la señal de entrada mediante operaciones

que exigen bajo porcentaje de hardware, a comparación de un sistema análogo que

requiere alto porcentaje de software y limita su programación porque obliga a

reconfigurarlo todo (Proakis, 2007).

El conversor análogo-digital realiza el proceso de muestreo, cuantificación y

codificación para el procesamiento de la señal digital. El paso de muestreo es el que

convierte la señal continua en el tiempo en señal discreta en el tiempo a partir de

muestras en instantes discretos de tiempo. Se estudia a partir del Teorema de

Muestreo y la frecuencia de Nyquist que define una frecuencia de muestreo mayor a

dos veces la frecuencia máxima de la señal y esto permite recuperar la señal a partir

de sus muestras de forma exacta. El paso de cuantificación se encarga de expresar los

valores de cada muestra como números finitos de dígitos. Se interpreta como

)()( nxQnxQ . Por último el proceso de codificación es el que define una secuencia

binaria de bits para cada valor discreto (Proakis, 2007).

Se han propuesto investigaciones de audio forense que giran en torno

principalmente en la rama de identificación del hablante. Por ejemplo se han creado

protocolos para recolectar y analizar señales para uso forense analizando software ya

existente que usan en instituciones de seguridad de Colombia. Se basan en material

dubitado e indubitado. Analizan los canales que utiliza el Departamento

Administrativo de Seguridad DAS concluyendo que los canales de telefonía celular son

los más utilizados. Estudian una gran cantidad de material de forma analógica para

luego someterlas a procedimientos digitales que mejoren su inteligibilidad. Se

obtienen buenos resultados a partir de muestras poco entendibles y de mala calidad,

son analizadas y mejoradas elevando su grado de importancia. Se evidencia que los

métodos para muestrear las señales son inadecuados porque no cumplen con la

frecuencia de Nyquist. Para implementar el protocolo tienen en cuenta los canales de

comunicación, luego los equipos y software Smart Logger ll principalmente, crean una

130

base de datos para guardar las grabaciones y determinan ciertas características para

los computadores a usar. Toman restricciones en la sala para iniciar con el proceso de

grabación de voces. Al obtener dichas muestras, realizan procesos de filtrado y

rescate de información, edición, y normalización para después analizar a fondo las

muestras. De esta manera concluyen que es posible analizar y mejorar la calidad de

las muestras de audio mediante diferentes software libre o privado, unos mejores que

otros. (Jorge Castro Calderón, 2006)

Otros estudios se han basado en la metodología bayesiana que establece relaciones

de verosimilitud usando la teoría de probabilidad conocida como fórmula de Bayes,

donde se establece que:

)(

)()|()|(

BP

APABPBAP ii

i

Donde:

)( iAP =Probabilidad a priori

)|( iABP =Probabilidad condicional

)|( BAP i =Probabilidad a posteriori

La investigación tuvo como foco definir en qué medida la acusación y las

observaciones del encargado forense influyen en la investigación. En este método de

Bayes logran enumerar, interpretar y aclarar evidencias. Usan datos de grandes

poblaciones para poder realizar los cálculos y establecer un resultado. Concluyen que

“cualquier sistema de reconocimiento de locutor puede adaptarse para funcionar en

un entorno forense siguiendo la metodología bayesiana”. (J. Gonzales Rodríguez)

En Chile se han realizado estudios sobre acústica forense donde investigan como

analizar las evidencias acusatorias. Exigen peritos expertos en ingeniería acústica o

relacionada para laborar en este cargo. Se encargan de conocer la generación de la

voz humana relacionado con campos forenses. Concluyen que para estos análisis, los

costos de software, como BOTVOX, son muy elevados, por tal motivo la industria

académica le impide acceder a estos y los estudiantes se encargan de investigar y

desarrollar nuevos métodos. (Bello, 2008)

En Francia han estudiado diferentes teorías probabilísticas para analizar materiales

de sospechosos mediando pruebas de comparación con otras muestras de cierta

población. A este análisis se le conoce como “Likelihood ratio” o Coeficientes de

probabilidad. Sin embargo solo el juez toara decisiones a partir de los resultados que

se obtengan del análisis. Concluyen que la utilización de este método ha dado buenos

resultados en los últimos años y que a medida que pase el tiempo será una disciplina

complementaria para el área de defensa y seguridad del mundo (Broedera, 2004).

131

Metodología Empleada

Inicialmente se analizara de forma matemática los procedimientos que existen para

el análisis de una señal de audio y su procesamiento. Esto será con apoyo de textos

guía relacionados con el tema que cumplan con las condiciones de investigación.

Luego se estudiara a fondo los procedimientos tecnológicos ya existentes para que

sirvan como guía de análisis, esto permitirá crear mejoras para implementarlo en la

recuperación de grabaciones. Este proceso se apoya sobre el software matemático

Matlab para realizar pruebas y obtener distintos resultados y conclusiones que irán

complementando la investigación.

Resultados y Conclusiones

Los resultados que se esperan es comprobar mediante métodos matemáticos e

implementación de código la posibilidad de aumentar la condición de los

procedimientos utilizados para el procesamiento de señales digitales y el

mejoramiento de la calidad de las grabaciones, permitiendo así un correcto análisis

sobre estos para que entidades de seguridad y defensa, principalmente, tomen

decisiones certeras sobre casos y procesos judiciales que estén afectan a ciertas

poblaciones o individuos.

Las principales conclusiones obtenidas fueron las siguientes:

- Se identificó algunas teorías matemáticas que pueden ser utilizadas para el

procesamiento y análisis de señales para el mejoramiento de la calidad de

audio.

- La consulta de investigaciones realizadas, permitió identificar diferentes

métodos que se han implementado para audio forense, lo cual es

conveniente seguir analizando a detalle para lograr comprender y obtener

información valiosa para la investigación.

Referencias

Anuario Estadístico del Sector Seguridad y Defensa. (2010). Colombia.

Bello, E. A. (2008). Ingeniería acústica aplicada a la criminalística "Acústica Forense". Valdivia.

Broedera, T. (2004). Forensic speech and audio analysis, Forensic Linguistics - A review, (pág. 33).

Lyon.

Ciencias Forenses. (s.f.). Obtenido de Laboratorio de acústica forense:

http://www.cienciasforenses.jalisco.gob.mx/laboratorioacustica.php

J. Gonzales Rodríguez, J. F. (s.f.). Análisis fresne de voces dubitadas en la metodología bayesiana.

Madrid.

132

Jorge Castro Calderón, D. A. (2006). Protocolo de técnicas de adquisición y procesamiento de

señales para uso forense en instituciones de seguridad del estado. Bogotá.

Maher, R. C. (2009). Audio Forensic Examination. IEEE.

Proakis, J. G. (2007). Conversiones analógica-digital y digital-analógica. En J. G. Proakis,

Tratamiento Digital de Señales (pág. 996). Madrid: Pearson Educación.

Barreira, A. (2015). Ingenieros Consultores. Obtenido de

http://www.ingenierosconsultores.com/pericial-audio-forense-y-video/

Vargas, K. T. (2013). La acústica forense es una parte de la criminalística que en Colombia.

Colombia: Prezi.

133

Diseño de un sistema en Cloud, para

controlar dispositivos IoT vía Web

Diana Marcela Ruiz Martínez 26[autor]

Edward Guillen Pinto 26[autor]

Resumen

Esta propuesta de investigación pretende ampliar el desarrollo de un tema tan importante

como IoT, integrándolo a Cloud con el fin de diseñar un sistema que a través de la Web permita

el control de dispositivos inteligentes desde cualquier parte del país.

Para esto se hace necesario analizar a gran escala el concepto de IoT y Cloud, estudiando las

tecnologías y protocolos existentes que intervienen en el desarrollo de este nuevo sistema.

De esta forma, se realiza un estado de arte revisando proyectos, iniciativas propuestas,

trabajos, libros y artículos que giran alrededor de este tema. Además, se analizan las múltiples

aplicaciones y servicios que ofrece esta nueva tecnología.

Introducción

No es ajeno para nadie el hecho de que con el paso del tiempo internet ha ido

creciendo a gran velocidad y con este los dispositivos capaces de conectarse en red a

través de internet. Es decir, además de Internet, surge un nuevo concepto “Internet of

Things (IoT)” como un gran avance que hoy ha causado gran impacto, pero que aún

muchos no comprenden y se define como la interconexión en red de los objetos que

usamos de forma cotidiana y que son capaces de conectarse a través de internet (Xia

F, 2012). Gracias a los avances tecnológicos se estima que IoT ofrezca nuevas

oportunidades para crear aplicaciones que mejorarán la calidad de nuestras vidas

(Evans, 2011).

El Internet de las Cosas es la muestra de la relación que existe entre el mundo real y

el mundo virtual, donde los dispositivos de uso cotidiano pueden ser manejados

remotamente y además pueden actuar como puntos de acceso a los servicios de

Internet y/o cloud “que se define como una técnica de intercambio de recursos en

servidores, almacenamiento y otras infraestructuras de computación en múltiples

lugares están conectados por redes” (Chandrasekaran, 2015) mediante plataformas

en las que se destacan Microsoft Azure, Amazon, Google Apps, entre otras, las cuales

26 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación Enigma, Universidad Militar Nueva Granada, Santa Fe

de Bogotá. Correo electrónico: [email protected]

134

tienen la capacidad de integrar aplicaciones con la nube y de esta forma crear

entornos inteligentes. Hoy estas tecnologías Web permiten que cualquier persona

pueda acceder a un servicio de internet desde un computador en casa, un pc en el

trabajo o un dispositivo móvil desde cualquier parte del mundo.

Diseñar un sistema cloud para controlar dispositivos IoT da más flexibilidad y

capacidad de almacenamiento reduciendo costos de infraestructura y haciéndolo de

esta forma escalable (intel, 2015), dado que Cloud ofrece dentro de sus servicios:

infraestructuras, plataformas y software a nuestra medida (Cierco, 2011). Es por esto

que con este trabajo de investigación se busca diseñar un sistema en cloud para

controlar dispositivos IoT vía Web.

Para esto, se realiza un estado del arte que comprende el análisis de los trabajos y

avances realizados en IoT, después, es necesario analizar las protocolos de

comunicación que intervienen en IoT para comprender su funcionamiento y por

ultimo estudiar las diversas áreas de computación en nube teniendo en cuenta

aplicaciones y ejemplos de trabajo con IoT, como lo desarrollan algunos trabajos de

investigación y propuestas comerciales.

Internet de las cosas es una visión al futuro desde el principio de la era tecnológica

e incluso desde el mismo momento en que se inventó el telégrafo. Pero este concepto

solo vendría a toma valor en 1990 cuando John Romkey y Simon Hackett diseñan el

primer dispositivo con conectividad a Internet: Tostadora Sunbeam Deluxe, suceso

que da una visión más clara de la importancia que tendría conectar dispositivos a

internet; pero realmente el término IoT es acuñado solo hasta el año 1999 por el

Massachusetts Institute of Technology MIT cuando Kevin Ashton hace referencia a la

relación entre Radio Frequency Identification (RFID) y la cadena de suministro de P&G

e Internet (Donato, 2014).

Para el 2002 ya se encontraba el primer uso documentado del término y en el 2005

ya algunos libros llevaban ese término por título y también la Unión Internacional de

Telecomunicaciones (UIT) hablaba de esto como promesa y lo definiría en la

recomendación UIT-T Y.2060, como “una infraestructura global para la sociedad de la

información, permitiendo avanzados servicios por la interconexión de las cosas físicas

y virtuales, basada en existentes y en la evolución de interoperables tecnologías de la

información y de la comunicación” (ITU, 2012).

Después de estas fechas, el desarrollo de IoT es más notorio y salen a la luz

invenciones tales como el primer refrigerador con conexión a internet propuesto por

LG, botes de basura inteligentes, gafas inteligentes, entre otros (Tina, 2014).

Según la consultora International Data Corporation (IDC) que presta servicios de

asesoría sobre el mercado de tecnología informática y telecomunicaciones en

Colombia y el mundo, para el 2014 se estimó un crecimiento anual de IoT del 16.9%

el cual a nivel global se puede cifrar por aproximadamente unos 656.000 millones de

135

dólares, es decir, se espera que este sector llegue a alcanzar un valor de 1.7 billones

de dólares. Es más, para el 2020 se dice que dos tercios del mercado de IoT será

dominado por dispositivos, la conectividad y los servicios de Tecnología de la

información (TI), los cuales representaran un 32% de los dispositivos del mercado

(MacGillivray C, 2015).

Arquitectura de Internet de las Cosas: La arquitectura de IoT está organizada por

capaz. En total se hablan de cuatro capaz: Capa de Borde, Capa de Acceso, Capa

Middleware y Capa de Aplicación. Donde las dos primeras son para adquisición de

datos y las dos últimas para utilización de datos en las aplicaciones (Salvatierra,

2012).

Figura 1. Arquitectura de Internet de las Cosas (Salvatierra, 2012).

Estándares y Protocolos IoT. Con el fin de buscar una nueva conectividad, se

presentan los estándares y protocolos para IoT, dentro de los cuales se presentan:

COAP: (Protocolo de Aplicación Constrained) es un protocolo especializado para su

uso con nodos y redes restringidas. Implementa el estilo arquitectónico REST, puede

ser transparente asigna a HTTP. Sin embargo, COAP también proporciona funciones

que van más allá de HTTP como notificaciones push nativas y la comunicación de

grupo (iot ecllipse.org, 2015)

ETSI SmartM2M: Proporciona especificaciones para servicios M2M y aplicaciones y se

centra especialmente en los aspectos de internet de las cosas (IoT) y ciudades

inteligentes (iot ecllipse.org, 2015).

136

MQTT (Message Queue Telemetry Transport): Es un protocolo diseñado para

conectar los dispositivos físicos y las redes mundiales, con aplicaciones y middleware

utilizados en TI y desarrollo Web, por lo que es un protocolo de conectividad ideal

para la IO y M2M (iot ecllipse.org, 2015).

OMA LwM2M (OMA LightwightM2M): Es un estándar de la industria para a gestión

de dispositivos M2M/IO. Depende en gran medida de COAP razón por la cual esta

optimizado para las comunicaciones a través del sensor o redes celulares. Además,

proporciona un modelo de objetos extensible que permite habilitar el intercambio de

datos de aplicación, junto con las funciones de administración de dispositivos de

núcleo (iot ecllipse.org, 2015).

Además, se encuentran otros estándares como XMPP, SOAP, WSDL, HyperCat,

SOFIA2 y por último, Telefónica I+D anuncio un acuerdo para definir estándares IoT,

donde por medio de una alianza con el operador coreano KT Corporation busca

afianzar la plataforma FIWARE como estándar con el fin de desarrollar soluciones y

servicios que contemplen la conexión con IoT (TyN, 2015).

Servidores para IoT: Como herramientas y tecnologías al servicio de la IoT de forma

innovadora, varias empresas ofrecen soluciones para los desarrolladores construir y

desplegar nuevas aplicaciones, dentro de las cuales se encuentran:

Nimbits: Es un servicio de registro de datos y una plataforma de motor de reglas

para conectar personas, sensores y software a la nube y entre sí. Brindan servicios de

Server Nimbits, nimbits.io, Nimbits Android y el Nimbits nube pública (nimbits.com,

2015).

WSO2: Es una plataforma abierta para internet de las cosas. Es una plataforma

empresarial, modular de código abierto y proporciona las capacidades necesarias para

el lado del servidor de una arquitectura de la IO (WSO2, 2015).

Zetta: Es una plataforma de código abierto construido sobre Node.js para la

creación de servidores de internet de las cosas, los cuales se ejecutan en todos los

equipos geo-distribuido y la nube. Servidores Zetta se ejecutan en la nube, en los

ordenadores y en equipos únicos de mesa. Con Zetta se pueden vincular Raspberry

Pis, BeagleBones y PC, junto con plataformas en la nube (ZETTA, 2015).

Y otras como: OracleloT, Etherios, Echelon, evrything, entro otros (PROFITBRICKS,

2015).

Gateway IoT: Las puertas de enlace conectan sistemas heredados y nuevos, y

permiten el flujo de datos seguros y sin problemas entre los dispositivos de última

generación y la nube (intel, 2015).

Wyliodrin: Es una herramienta gratuita con un entorno de programación visual en

línea y lenguaje de programación Scratch. Con esta herramienta se puede programar

137

dispositivos integrados empleando un navegador en cualquier computador de una

forma muy sencilla por medio de programación visual y programación por bloques.

(Wyliodrin, 2014).

Metodología Empleada

Inicialmente se indaga sobre diferentes conceptos que involucran los servidores, el

IoT y cloud mediante investigaciones ya realizadas para realizar un análisis sobre los

diferentes protocolos existentes y plataformas que cumplan con los requerimientos

necesarios para el desarrollo del sistema propuesto.

Luego de un estudio exhaustivo se determinarán los lineamientos correspondientes

para continuar con el proceso de investigación.

Y por último se pretende realizar pruebas de comunicación en tiempo real de

dispositivos IoT y el servidor en cloud, haciendo uso de la herramienta Wyliodrin para

programar dispositivos como Raspberry Pi.

Resultados y Conclusiones

Las conclusiones más importantes del trabajo ejecutado son las siguientes:

- Se logra estudiar diferentes conceptos que involucran los servidores, IoT y

cloud con el fin de integrarlos en un solo sistema innovador para dicha

temática.

- Incursionar en el tema de IoT no solo contribuirá a un avance más en el tema

si no que abrirá una visión más amplia de este concepto a nivel global y aún

más, podrá aterrizar más estos conceptos a un ambiente actual.

- Servidor IoT en cloud es un sistema viable, que traerá múltiples beneficios

entre los cuales se encuentran reducción en costos de infraestructura,

integración de múltiples servicios y además, incursión en temas de

investigación.

- Además, este trabajo abre la posibilidad de explorar nuevos campos de

investigación y aplicaciones para mejorar la calidad de vida a diferentes

niveles por medio del desarrollo de los conceptos y arquitectura propia de

IoT. Para lo cual se necesitaran servidores capaces de soportar estas

aplicaciones dándole relevancia a esta propuesta de investigación.

138

Referencias

Chandrasekaran, K. (2015). Essentials of Cloud Computing. U.S: Taylor & Francis Group.

Cierco, D. (02 de 2011). Cloud Computing: Retos y Oportunidades. Obtenido de

https://books.google.com.co/books?id=_fTJXVjOD90C&pg=PA12&dq=cloud+que+ofrece&

hl=es&sa=X&ved=0CBoQ6AEwAGoVChMInYn9o-

2hyAIVhCQeCh3URgpS#v=onepage&q=cloud%20que%20ofrece&f=false

Donato, F. (2014). FierceMobileIT. Obtenido de: A brief history of the Internet of Things:

http://www.fiercemobileit.com/story/brief-history-internet-things/2014-07-23

Evans, D. (2011). Cisco. Obtenido de Internet of Things:

http://www.cisco.com/web/ES/assets/executives/pdf/Internet_of_Things_IoT_IBSG_0411FIN

AL.pdf

Intel. (2015). Transform Business with Intelligent Gateway Solutions for IoT. Obtenido de Internet of

Things: http://www.intel.com/content/www/us/en/internet-of-things/gateway-

solutions.html

IoT ecllipse.org. (2015). Obtenido de IoT Standars: http://iot.eclipse.org/standards

ITU, I. T. (2012). Series y: global information infrastructure, internet protocol aspects and next-

generation networks. ITU-T.

MacGillivray C, T. V. (2015). IDC Analyze the future. Obtenido de Document at a Glance:

http://www.idc.com/getdoc.jsp?containerId=256397

nimbits.com. (2015). Obtenido de http://www.nimbits.com/index.jsp

PROFITBRICKS. (2015). Tools for the Internet of things. Obtenido de

https://blog.profitbricks.com/top-49-tools-internet-of-things/

Salvatierra, A. G. (2012). El Internet de las Cosas y los nuevos riesgos para la privacidad. Madrid,

España.: Universidad Politécnica.

Tina, C. (13 de Marzo de 2014). Siliconrepublic. Obtenido de: The internet of things: The past, the

present, and the future (infographic):

https://www.siliconrepublic.com/machines/2014/03/13/the-internet-of-things-the-past-

the-present-and-the-future-infographic

TyN, I. o. (06 de Marzo de 2015). MWC 2015: Acuerdo para definir estándares IoT. Obtenido de

http://www.tyniot.com/mwc2015-acuerdo-para-definir-estandares-iot/

WSO2. (2015). Obtenido de Open platform for internet of things: http://wso2.com/landing/internet-

of-things

Wyliodrin. (2014). Obtenido de https://www.wyliodrin.com/

Xia F, Y. L. (2012). Internet of Things. International journal of communication systems.

ZETTA. (2015). Obtenido de An API_First Internet of things Platform: http://www.zettajs.org/

139

Prototipo para generación vectorial

de señales RF a través de interface

GPIB

Juan Carlos Martínez 27[autor]

Luis Carlos Sánchez Monroy 27[autor]

Andrés Camilo Alejo Torrijos 27[autor]

Resumen

El control de equipos de laboratorio de forma remota es una herramienta que ayuda a

automatizar medidas dando mayor eficiencia y precisión en caso de tener generación de

señales o mediciones consecutivas repetitivas o que siguen un patrón. En el presente proyecto

se pretende hacer usos de un software que permita controlar el generador vectorial mediante

la interface GPIB.

Introducción

Se ha establecido como objetivo principal del proyecto de investigación desarrollar

un prototipo para generación vectorial de señales de RF a través de interface GPIB.

Documentar el funcionamiento de la interface GPIB y los comandos necesarios para el

control del equipo desde un software remoto; y como objetivo específico Implementar

un software que sea capaz de generar diferentes tipos de señales vectoriales de

manera externa al equipo usando la interface GPIB.

Metodología Empleada

El enfoque metodológico del proyecto se presenta alrededor de la investigación

descriptiva y experimental. Se realiza una recopilación de información con relación al

generador para hacer el prototipo y se procede a la implementación y mediciones

finales.

Para el desarrollo del proyecto se definen las siguientes fases:

a. Revisión bibliográfica del funcionamiento de la interface GPIB.

27 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación adscrito al grupo de investigación GISSIC, Universidad

Militar Nueva Granada, Santa Fe de Bogotá. Correo electrónico: [email protected]

140

b. Estudio de información técnica.

c. Instalación de herramientas de software y hardware necesarias.

e. Validación mediante generación y medición de señales vectoriales.

f. Análisis de resultados

Resultados y Conclusiones

Se pudo observar la correcta conexión entre un generador de señales vectoriales

(EXG Vector Signal Generator) y un equipo remoto con la ayuda de una interface GPIB,

en donde se pudo observar que efectivamente se establecía la conexión y se permitía

la modificación de los parámetros de fábrica.

Cuando se observó el GPIB-ENET/1000 se pudo observar el número de serial, su

dirección MAC y un hostname que tenía por defecto, como se puede ver en la figura

1.

Figura 1. Equipo GPIB-ENET/1000 con sus características por fábrica. La imagen fue

capturada por los autores.

Una vez se conectó el GPIB-ENET/1000 al PC a través de un enlace Ethernet. Los

parámetros de conexión aparecieron por defecto como DHCP como se puede apreciar

en la figura 2.

141

Figura 2. Parámetros por defecto. La imagen fue capturada por los autores.

Estos parámetros se pudieron observar en WEB gracias a que se permitía acceder

desde el navegador con la facilidad de modificar los parámetros, para acceder desde

el navegador bastaba con escribir el hostname seguido de un “.local” como aparece en

la figura 3.

Figura 3. Parámetros desde el navegador. La imagen fue capturada por los autores.

Al acceder desde el navegador se pueden cambiar los parámetros del hostname y

establecer una dirección estática, además de poder cambiar la contraseña del usuario

142

y agregar unos comentarios. Una vez observados estos parámetros evidenciamos que

efectivamente se tiene una conexión entre el GPIB-ENET/1000 y el PC, con la ayuda de

CDM y el comando ping a la dirección 169.254.25.118 como se observa en la figura

4.

Figura 4. Comprobación de la comunicación entre el PC y el GPIB-ENET/1000. La imagen fue

elaborada por los autores.

Gracias a esto se pudo acceder al generador vectorial, para esto se tiene que el

generador vectorial debe tener una dirección GPIB diferente de 0 y de acá se establece

a través del PC con la ayuda del VISA Interactive control, en donde el PC establecerá

una conexión con el generador a través de la dirección GPIB que se le asigno

previamente al generador, una vez el VISA Interactive control establezca la conexión,

aparecerá el instrumento que se enlazo con la dirección GPIB que se le asignó al

generador vectorial, para nuestro caso se le asignó una dirección GPIB de 6, como se

muestra en la figura 5.

143

Figura 5. Conexión entre el PC y el generador vectorial a través de una dirección GPIB. La imagen fue

capturada por los autores.

Una vez establecida la conexión entre estos dos dispositivos, con la ayuda del VISA

Interactive control, se genera una señal de identificación en donde se pregunta al

dispositivo por sus características y se empieza a trabajar con el dispositivo. Ver

figura 6.

Figura 6. Identificación del equipo a través del VISA interactive control. La imagen fue capturada por

los autores.

Para saber que se está trabajando desde el PC, basta con observar el generador

vectorial, en donde se observa que todo el teclado está bloqueado, si se desea

trabajar manualmente de nuevo es necesario presionar el botón de “local” para que se

desbloquee el teclado del generador. Ver figura 7.

144

Figura 7. Generador controlado remotamente. La imagen fue capturada por los autores.

Para esto se hizo una conexión entre un equipo (PC) a través de su enlace Ethernet

hacia un GPIB-ENET/1000 en su enlace Ethernet. De acá se tiene una conexión a

través de la interface GPIB del GPIB-ENET/1000 a la interface GPIB de un generador

de señales vectoriales (EXG Vector Signal Generator), tal como se ilustra en la figura 8.

Figura 8. Conexión ejecutada. La imagen fue capturada por los autores.

145

El NI GPIB-ENET/1000 posee una interfaz Web la cual está protegida con una

contraseña por defecto, esta se puede configurar para fácil manejo del NI GPIB-

ENET/1000. Se puede comunicar y configurar a través de PC´s en la red, así como

también con dispositivos IEEE 488 desde cualquier parte en una red (LAN) TCP/IP

basada en Ethernet (Gigabit, 100BASE-TX, 10BASE-T). Además que posee las

siguientes características:

- Es compatible con Windows 7/Vista/XP (incluido), así como Linux and Mac

OS X (descarga únicamente).

- Interfaz Web fácil de manejar y protegida con contraseña.

- Razones de transferencia de hasta 5.6 MB/s.

- Compatibilidad con red Gigabit, 100BASE-TX, y 10BASE-T Ethernet.

- Habilidad para compartir hasta 14 dispositivos GPIB desde varios servidores

en red.

- Compatible con RoHS; transferencias hasta 4 veces más rápidas que el GPIB-

ENET/100.

Adicionalmente se tiene una NI ExpressCard-GPIB con la que se puede conectar a la

ranura de ExpressCard que posee el PC, La NI ExpressCard-GPIB posee un bajo costo

y alto rendimiento la cual ofrece razones de transferencia de datos sostenidas hasta

de 1.8 MB/s, esto es porque la ExpressCard trabaja usando el protocolo de

sincronización estándar IEEE 488.1 para transferencias de datos comparativas de

hasta 7.7 MB/s. ver figura 9.

Figura 9. NI. ExpressCard-GPIB. La imagen fue capturada por los autores.

146

Esta ExpressCard se trabaja conectándola directamente al PC (portátil) que posea

una ranura de ExpressCard, y después la ExpressCard se conecta a un cable de

adaptador GPIB, como se muestra en la figura 10, cabe aclarar que no se tenía en

disposición un portátil con la ranura de ExpressCard y por esta razón no se trabajó

por medio de este dispositivo.

Figura 10. NI ExpressCard-GPIB conectada a un cable de adaptador GPIB. La imagen fue capturada

por los autores.

Finalmente se trabajó con el generador de señales vectoriales (EXG Vector Signal

Generator) el cual trabaja con frecuencias desde los 9kHz y los 6GHz, en donde se

tiene un rendimiento muy rápido y un tiempo de actividad largo, la EXG está

optimizado para la prueba de la fabricación con las señales que necesita para la

prueba paramétrica básico de componentes y calibración de los receptores. Además

de que se tiene modulación AM, FM, ØM y narrow pulse. Este generador se puede

observar en la figura 11.

Figura 11. Generador de señales vectoriales. La imagen fue capturada por los autores.

147

Este proyecto posee el objetivo del control de equipos de laboratorio de forma

remota, a través de una interface GPIB, se puede concluir que la comunicación remota

es efectiva y nos permite el manejo de un equipo desde un lugar remoto al

dispositivo, con el fin de que sea de fácil manejo y se pueda tener una caracterización

de los dispositivos que se manejan remotamente. Se puede presentar una correcta

manipulación de un generador de señales vectoriales en donde se observa su manejo

remotamente desde un PC (portátil) con la ayuda de una interface GPIB.

Referencias

National instruments. (2009). Generador de señales vectoriales. 25/Agosto/15, de National

instruments. Sitio web: http://www.keysight.com/en/pd-2114132-pn-N5171B/exg-x-

series-rf-analog-signal-generator?cc=CO&lc=eng

National instruments. (2009). NI ExpressCard-GPIB. 25/Agosto/15, de National instruments. Sitio

web:http://sine.ni.com/nips/cds/view/p/lang/es/nid/202353

National instruments. (2009). NI GPIB-ENET/1000. 25/Agosto/15, de National instruments. Sitio

web: http://sine.ni.com/nips/cds/view/p/lang/es/nid/209211

148

Análisis de vulnerabilidades de

elementos inalámbricos utilizados en

la tecnología IoT

Andrés Parrado Carmona 28[autor]

Resumen

El internet de las cosas (IoT) es un concepto que ha adquirido una gran importancia durante

los últimos años, principalmente por su enfoque a la interconexión digital de los objetos

circundantes con internet y al acceso a los datos en tiempo real. El incremento acelerado del

flujo de datos que se transportan mediante la tecnología IoT, desde la seguridad informática

se hace necesario realizar un análisis de vulnerabilidades para fortalecer la protección de la

información en la tecnología IoT.

De acuerdo a la anterior premisa este proyecto tiene como objetivo realizar pruebas de

interconexión de elementos inalámbricos utilizando la tecnología IoT en un ambiente de

laboratorio para explorar diferentes vulnerabilidades existentes en este tipo de interconexión.

Introducción

El concepto novedoso IoT surgió aproximadamente entre los años 2008 y 2009 con

el crecimiento explosivo de los smartphones y las tablet PC (Evans, 2011) y se

caracteriza por la interconexión de dispositivos, que facilitan el compendio de datos,

procesamiento, análisis y almacenamiento de la información en la nube, mediante la

Identificación por Radiofrecuencia en Red (RFID) y de sensores emergentes, que

permiten detectar el estado físico de las cosas.

El uso de RFID en el internet de las cosas, permite a los objetos que se encuentran

en el entorno obtener una única “etiqueta inteligente” que almacena pequeñas

cantidades de datos (Gama, Touseau, & Donsez, 2012).

La tecnología RFID generalmente se caracteriza por el uso de dispositivos sencillos

en un extremo del enlace como Tags (etiquetas) o transpondedores (dispositivo

receptor y emisor de señales) y dispositivos más complejos en el otro extremo, a

menudo son lectores, interrogadores y/o balizas (dispositivo Bluetooth M2M) que

28 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación Enigma, Universidad Militar Nueva Granada, Santa Fe

de Bogotá. Correo electrónico: [email protected]

149

tienen mayor capacidad al conectarse a una red o un host, utilizando una frecuencia

de 1000 kHz a 10 GHz (Landt, 2005).

Al recrear inteligencia a los objetos cotidianos mediante la tecnología IoT, estos

dispositivos no solo recopila información si no que interactuar y controlar el entorno

que los rodea (Borgia, 2014).

La tecnología de internet de las cosas (IoT) se caracteriza por tener una arquitectura

compuesta por 3 capas:

i. Capa de Percepción: tiene como función principal identificar el objeto,

recopilando toda su información. (García & Carlos) En esta capa se origina toda la

información y es la capa base de IoT, ya que percibe todo tipo de información

recolectada por : red de sensores, sensores inalámbricos (WSN), tags, sistemas RFID,

cámaras, sistemas de posicionamiento global (GPS) y datos electrónicos (EDI) entre

otros.

ii. Capa de Red: funciona como red de acceso y red de control central. Cuenta con

la capacidad para transmitir datos y procesar información de manera eficiente y

transparente, toda la información obtenida de la capa de percepción. Los elementos

que incluye esta capa son: red convergente de comunicación, red de internet, centro

de información y centro de procesamiento inteligente (García & Carlos).

iii. Capa de servicio o aplicación: contiene dos subniveles, el primero es el subnivel

de servicio en el que se procesó de aplicación a la información y proporciona una

interfaz eficiente para el usuario. El segundo subnivel corresponde al de gestión de

datos complejos e información incierta como compilación , limpieza y identificación ,

servicio de directorio, servicio de mercado a mercado (M2M) , calidad de servicio

(QoS), centro de gestión, Geomática, entre otros, utilizando arquitectura orientada al

servicio (SOA) y tecnologías de computación en la nube. ( Jia, Feng, Q, Fan, & Lei,

2012).

150

Figura 1. Capas de la arquitectura IoT. (García & Carlos)

Las arquitecturas de la IoT permanecen actualmente en desarrollo y se pretende a

futuro lograr una estandarización. Durante los planteamientos básicos de esta

arquitectura sé han encontrado dos grandes problemas a solucionar: el primero

consiste en encontrar la forma estándar de acceso al medio y a los respectivos

dispositivos. Logrando entender la estructura estandarizada para la aplicación de IoT,

mediante el desarrollo de una relación basada en los modelos de capas OSI y TCP/IP

que se presentan en la figura 2 ( Rodríguez González, 2013).

El segundo problema consiste buscar la forma de integrar los dispositivos a la

Internet (Rodríguez González, 2013).

Figura 2. Arquitectura IoT, Basada en modelos OSI y TCP/IP (Rodríguez González, 2013)

151

Actualmente las aplicaciones están siendo impactadas por la tecnología IoT, se

asume que en el 2015, se encuentran conectados 4.9 billones de dispositivo IoT y se

promedia que en 4 años los dispositivos IoT aumentarán a 25 billones (Thierer,

2015).

Las aplicaciones se pueden clasificar de acuerdo a diferentes factores como: el tipo

de red disponible, la cobertura, la escala, la heterogeneidad, la repetibilidad, la

participación de los usuarios y el impacto (Gluhak, Krco, & Nati, 2011). Estos

factores hacen que las aplicaciones se concentran básicamente para cuatro tipos de

dominios:

i. Personal y Social: Este tipo de aplicaciones tiene como objetivo permitir que el

usuario construya relaciones sociales al interactuar con otras personas utilizando los

dispositivos IoT. Este tipo de dominio permite activar y enviar mensajes

automáticamente para informar sobre acciones que se estén realizando en la oficina,

casa y otros lugares de esparcimiento. También permiten emitir alertas en caso de

pérdidas o robos de dispositivos.

ii. Autocuidado: Las aplicaciones IoT para el autocuidado de la salud facilita a los

profesionales de la salud realizar el seguimiento de los dispositivos, pacientes y

personal médico, mediante la identificación y autenticación de personas y la

recolección de datos automáticamente (Vilamovska, y otros, 2009).

iii. Entornos Inteligentes: Un entorno inteligente se considera un lugar físico que

utiliza dispositivos tecnológicos (Sensores y actuadores) para proporcionar

comodidad al usuario o para mejorar la automatización en plantas industriales con

un despliegue masivo de Etiquetas RFID. (Atzori, Iera, & Morabito, 2010)

iv. Transporte y logística: Diferentes sistemas de transporte están equipados con

sensores, actuadores y etiquetas RFID, que envían información en tiempo real a los

centros de logística de mercancía y transporte.

Para poder entender la estructura y conformación de los distintos protocolos

utilizados en IoT, es necesario comparar los protocolos a los estilos de los modelos

OSI y TCP/IP como se presentó anteriormente en la figura 2.

Las características principales de los protocolos IoT son las siguientes:

- Message Queue telemetry transport (MQTT): Se utiliza en tráfico pesado, con

backhaul celular o vía celular, su comunicación es two-way en redes no

confiables además se utiliza en dispositivo de baja potencia y con

hibernación de equipos de un 95% (Hunkeler, Truong, & Stanford-Clark,

2008).

152

- Message Queue telemetry transport for sensor network (MQTT-SN): Tiene

una mayor hibernación que el protocolo antes mencionado en las redes de

sensores, además puede escalar diez veces más dispositivos que MQTT,

pero su gran problema radica en la NAT, por lo cual se debe prevenir en la

planificación de la red (Stanford-Clark & Truong, 2013).

- Constrained Application Protocol (CoAP): Tiene más variaciones que MQTT-

S, sus servicios estan orientados a la arquitectura web. Este protocolo es

muy utilizado en la construcción de plataformas de desarrollo abiertas en

internet. (Shelby, Hartke, & Bormann, 2014).

- IEEE 802.15.4: Protocolo creado para redes inalámbricas de bajo costo, como

nuevo protocolo ofrece una flexibilidad en la red y permite bajo costo por el

consumo de energía. Se utiliza principalmente en aplicaciones donde es baja

la tasa de transmisión de datos. Fue pensado para definir una utilidad en la

capa física y de acceso al medio. (García Salvatierra, 2012).

- M2MXML: Este protocolo con la función de máquina a máquina (M2M)

agregado permite la representación de mensajes en documentos XML

(Extensible Markup Language). Como protocolo debe satisfacer a plenitud la

totalidad rigurosidad, para cumplir un nivel legible de su función de

depuración, también aprovecha la utilización de un lenguaje existente, lo

que permite el uso de APIs garantizando un mejor manejo. (García

Salvatierra, 2012).

El riesgo en la privacidad de información es el principal factor de amenaza. Esta

vulnerabilidad inicia con la revelación de información sin autorización, generando

una insaciable búsqueda para lograr rastrear y obtener dicha información. Las

etiquetas RFID tienen una gran falencia debida a la gran cantidad de riesgos que tiene

este sistema, en este documento no especificaremos los riesgos, pero algunos de

ellos se enlistan así:

-Uso de datos no especificados

-Recolección de información y almacenamiento de datos para objetivos no definidos

-Falta de transparencia y de información

-Falta de políticas en sistemas de eliminación de datos

-Desactivación de etiquetas RFID sin consentimiento expreso del usuario

-Recolección de información secreta, sin consentimiento del usuario

-Derechos de gestión de acceso incompletos

-Mecanismos de autentificación faltantes

-Procesamiento ilegítimo de datos

153

Los anteriores riesgos puede afectar el sistema. Los ataques más recurrentes en el

RFID son: Spoofing (engaño del sistema), Inserción (introducción de comandos), MTIM

(suplantación de identidades), DOS (denegación de servicios), mediantes estos

ataques se puede afectar la información de un sistema de IoT (García Salvatierra,

2012).

OWASP para Internet de las cosas (IoT) es un proyecto de seguridad, que permite a

los fabricantes, desarrolladores y usuarios evaluar la seguridad en la construcción,

implementación y la evaluación las tecnologías IO. (OWASP, 2014)

Las diez áreas de seguridad que implementa este proyecto se presentan a

continuación en la figura 3:

Figura 3. Modelo OWASP para IoT (OWASP, 2014).

Metodología Empleada

Para el desarrollo del proyecto se plantean 4 fases de ejecución que se describen a

continuación:

Fase 1. Recopilación de información y elaboración del estado del arte actual de IoT

y de sus aplicaciones en el entorno.

Fase 2. Programación de las aplicaciones en los dispositivos IoT utilizando un

sistema operativo compatible.

154

Fase 3: Realización de pruebas de interconexión de las aplicaciones desarrolladas y

los dispositivos IoT.

Fase 4: Análisis del rendimiento y vulnerabilidades de las pruebas realizadas en la

interconexión.

Resultados y Conclusiones

Los resultados que se esperan obtener con este proyecto, corresponden a un

análisis detallado de las vulnerabilidades según el modelo OWASP encontradas en la

interconexión entre los dispositivos IoT.

Adicionalmente se determinaran las características técnicas de los dispositivos IoT

utilizados y se analizara el funcionamiento y rendimiento de la interconexión de las

tarjetas IoT con dispositivos inalámbricos.

Las conclusiones más importantes del trabajo ejecutado son las siguientes:

- Se identificaron las arquitecturas IoT utilizadas en los últimos años por

diferentes organizaciones. Estas arquitecturas permiten la interoperabilidad

entre los diferentes dispositivos inalámbricos e internet y facilitan su uso en

las aplicaciones con dominios: personal y social, Healthcare, entornos

inteligentes, transporte y logística.

- Se identificó los protocolos utilizados por la tecnología IoT y se estructuro

bajo el estilo de los modelos OSI y TCP/IP, para facilitar la comprensión de la

estructura de red que utiliza la tecnología IoT.

Referencias

Atzori, L., Iera, A., & Morabito, G. (2010). The internet of things: A survey. Computer networks,

54(15), 2787-2805.

Borgia, E. (2014). The Internet of Things vision: Key features, applications and open issues. (Elsevier,

Ed.) Computer Communications, 1-31.

Evans, D. (2011). Internet de las cosas: Como la próxima evolución de Internet lo cambia todo.

Cisco.

Gama, K., Touseau, L., & Donsez, D. (2012). Combining heterogeneous service technologies for

building an Internet of Things middleware. (Elsevier, Ed.) Computer Communications, 35(4),

405-417.

García Salvatierra, A. (2012). El Internet de las Cosas y los nuevos riesgos para la privacidad.

(Doctoral dissertation, E_Telecomunicacion).

García, L., & Carlos, L. (s.f.). Estudio del impacto técnico y económico de la transición de internet al

internet de las cosas (IoT) para el caso colombiano. Doctoral dissertation, Universidad

Nacional de Colombia.

155

Gluhak, A., Krco, S., & Nati, M. (2011). A survey on facilities for experimental internet of things

research. Communications Magazine, IEEE, 49(11), 58-67.

Hunkeler, U., Truong, H., & Stanford-Clark, A. (2008). MQTT-S—A publish/subscribe protocol for

Wireless Sensor Networks. Communication systems software and middleware and

workshops, 2008. comsware 2008. 3rd international conference on (págs. 791-798). IEEE.

Jia, X., Feng, Q., Fan, T., & Lei, Q. (2012). RFID technology and its applications in Internet of Things

(IoT). Consumer Electronics, Communications and Networks (CECNet), 2012 2nd

International Conference on (págs. 1282--1285). IEEE.

Landt, J. (2005). The history of RFID. Potentials, IEEE, 24(4), 8-11.

OWASP. (2014). OWASP Internet of Things Top Ten Project. Obtenido de

https://www.owasp.org/index.php/OWASP_Internet_of_Things_Top_Ten_Project#tab=OWAS

P_Internet_of_Things_Top_10_for_2014

Rodríguez González, D. (2013). Arquitectura y Gestión de la IoT. Revista Telem@ tica, 12(3), 49-60.

Shelby, Z., Hartke, K., & Bormann, C. (2014). The constrained application protocol (CoAP). Obtenido

de https://tools.ietf.org/html/rfc7252

Stanford-Clark, A., & Truong, H. (2013). MQTT for Sensor Networks (MQTT-SN) Protocol

Specification.

Thierer, A. (2015). The Connected World: Examining the Internet of Things. Available at SSRN

2563765.

Vilamovska, A., Hattziandreu, E., Schindler, R., Van Oranje, C., De Vries, H., & Krapelse, J. (2009).

RFID application in healthcare–scoping and identifying areas for rfid deployment in

healthcare delivery. RAND Europe.

156

Viabilidad de acceso al campus

UMNG

Iván Santiago Suarez Rodríguez 29[autor]

Jonathan Minota Ospina 29[autor]

Resumen

Este proyecto está dirigido a dar solución a una problemática de acceso que se viene

presentando en relación al acceso al Campus UMNG. Es un proyecto en curso que está

encaminado a evaluar la viabilidad de las posibilidades reales y existentes de solución a dicha

problemática. El principal medio de acceso a las instalaciones universitarias, es un puente

peatonal provisto por la Concesión Devinorte el cual ya no cuenta con la capacidad suficiente

para proveer a la comunidad de la UMNG un acceso eficiente a las instalaciones.

De esta manera, se pretende plantear y a su vez evaluar las diferentes posibilidades y

alternativas que existen para dar solución a esta situación, ofreciendo un proyecto que esté

desarrollado por los estudiantes que pertenecen al Semillero SATIC, haciendo uso de las

capacidades y habilidades adquiridas en el transcurso de la carrera; siendo una oportunidad de

aportar al crecimiento del Campus de la UMNG.

Introducción

En este trabajo se analizará y evaluará el creciente flujo peatonal que se presenta en

el puente de acceso a la universidad, conociendo que la construcción de esté fue con

base a un diseño que prevé a la obra de doble calzada Cajicá - Zipaquirá y

entendemos que en ese momento el proyecto Campus UMNG no estaba predispuesto,

ahora que esta sede de la universidad ya tiene un gran avance se vio el aumento del

personal, el cual se percibe durante dos determinadas horas del día (llegada y salida

del tren), donde se identifican sobrecargas en la estructura.

Con el fin de divisar si el puente dará el desempeño óptimo para el personal que

está en crecimiento; se realizarán y entregarán datos estadísticos de información,

mediante la interpretación de datos que nos facilitan algunos de los empleados de la

universidad como son los funcionarios de Turistren o la oficina de seguridad y de este

modo ejecutar un informe definitivo para ser analizado y lograr alternativas viables.

29 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación Sistema en avanzada tecnológica en ingeniería civil,

SATIC, Universidad Militar Nueva Granada, Santa Fe de Bogotá. Correo electrónico: [email protected]

157

Metodología Empleada

La metodología bajo la cual esta propuesta el desarrollo de este proyecto, está

conformada por tres aspectos fundamentales:

1. Analizar Posibilidades

2. Contemplar Factores

3. Determinar viabilidad y factibilidad

Aspectos para tener en cuenta tales como, el económico, el legal, la seguridad, el

tiempo de ejecución, las repercusiones en el entorno, el impacto ambiental, entre

otros. por tal razón, es objeto de la propuesta de investigación considerar todas

analizar las diferentes posibilidades de solución a dicha problemática, tomando en

cuenta los factores que deben ser tenidos en cuenta para finalmente, como último

aspecto fundamental, poder concluir según el desarrollo de la investigación cuál es la

mejor opción, considerando la viabilidad y factibilidad del proyecto, para dar una

solución de acuerdo a las exigencias de la Universidad en proyección a ser la mejor,

mencionando que el aspecto de la seguridad de los estudiantes es objetivo primordial

de la UMNG.

Resultados y Conclusiones

Para el desarrollo y ejecución de esta investigación se espera poder obtener

resultados de manera tal que permitan determinar cuál es la mejor alternativa para

contribuir en el desarrollo y progreso de la movilidad de la Comunidad estudiantil del

Campus UMNG dando solución a la problemática en la ineficiencia del Puente peatonal

en su función de acceso a la Universidad.

Algunas de las conclusiones más importantes del trabajo son las siguientes:

Es evidente el crecimiento de la universidad, es por esto que en un futuro no muy

lejano el puente podría llegar a su máxima capacidad, poniendo en alto riesgo la

comunidad neogranadina, además, por su ubicación si se llegara a colapsar afectaría

la movilidad de la autopista que lo cruza.

Por medio de los datos suministrado por los representantes de Turistren, fue

posible efectuar un análisis previo de cuantos estudiantes en promedio pasaban el

puente a la hora de llegada.

158

Referencias

Sánchez, Torres, Urazan (2013). El rol de los pasos peatonales subterráneos como alternativa en los

actuales esquemas de planeación urbana. Universidad de la Salle 2013.

Arias Gallegos (2012) Motivos del desuso de puentes peatonales en Arequipa.

Muñoz, Valbuena (s.f.). Evaluación del estado de los puentes de acero de la red vial de Colombia.

Pontificia Universidad Javeriana.

Muñoz Díaz (s.f.). Estudio de las causas del colapso de algunos puentes. Pontificia Universidad

Javeriana.

159

Prototipo de generación de

modulaciones digitales de señales de

RF mediante SDR y LabView

Juan Carlos Martínez 30[autor]

Nelson Enrique Arévalo Arias 30[autor]

Javier Ricardo Blanco 30[autor]

Resumen

Los sistemas de radio definido por software (SDR), permiten la reconfiguración de un sistema

de radiofrecuencia RF especial mediante la conexión con un computador que realiza el

procesamiento digital de señales recibidas o transmitidas, mientras el hardware se encarga de

operaciones como mezclado, amplificación, filtrado, conversión análoga digital, digital análoga

e interacción con el PC entre otras. La plataforma RTL-SDR permite la configuración del

hardware y procesamiento de las señales mediante 3 tipos de software diferente: GNU radio,

Matlab y LabView. En el presente proyecto se pretende hacer uso del software LabView para

trabajar con modulaciones a partir de las herramientas de programación con las que cuenta el

software, se realizará una comparación de los resultados con los teóricos.

Introducción

Los dispositivos RTL-SDR son receptores de señales RF de muy bajo costo (cuestan

alrededor de 25 US), inicialmente fueron diseñados como receptores DVB-T, pero

actualmente vienen siendo diseñados para recepción de señales en un amplio rango

de frecuencias que va desde los 25 MHz hasta los 1.75 GHz, lo cual permite su uso

en diversas aplicaciones.

El software LabView es un entorno gráfico de programación orientado a desarrollos

de diversas ramas de la ingeniería y la ciencia, este software posee diversas librerías

para el uso y compatibilidad con múltiples herramientas, entre ellas el trabajo con

dispositivos SDR, logrando realizar mezclado, filtrado, conversión A/D y D/A, en este

caso como el dispositivo que se usa es solamente receptor, inicialmente interesa

lograr la demodulación de las señales en frecuencias de FM, limitándonos a un rango

desde los 88.5 MHz hasta los 108 MHz, para entender el proceso de demodulación en

30 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación Maxwell, Universidad Militar Nueva Granada, Santa Fe

de Bogotá. Correo electrónico: [email protected]

160

frecuencia de señales y teniendo esta base, continuar con señales de modulación

digital. Finalmente además de realizar el procedimiento a nivel experimental, se debe

comprobar teóricamente el desarrollo de la demodulación con el fin de identificar la

precisión del trabajo realizado.

Metodología Empleada

El enfoque metodológico del proyecto se presenta alrededor de la investigación

descriptiva y experimental.

Se realiza una recopilación de información con relación al software y hardware

requerido para hacer prototipo y se procede a la implementación y mediciones finales.

Para el desarrollo del proyecto se definen las siguientes fases:

- Revisión bibliográfica de los conceptos y herramientas involucradas en el

proyecto.

- Estudio de información técnica del software y hardware.

- Instalación de herramientas de software sobre el hardware y corrección de

errores.

- Validación mediante pruebas de flujo de datos y comparación con un sistema

convencional.

- Análisis de resultados.

Resultados y Conclusiones

Para lograr la demodulación digital de la señal FM existen diferentes métodos: la

modulación diferencial, demodulación no coherente y demodulación coherente.

En este caso se usó e implementó el método que mediante PLL realiza la

demodulación en varios pasos:

a) Se recibe la señal FM a través del RTL-SDR, esta señal es de carácter complejo

puesto que para el tratamiento de la misma se discrimina una parte real de una parte

imaginaria

b) La señal al ser recibida por el sistema es procesada por un comparador, luego

es filtrada por un filtro pasabajos, procesada por un detector de fase y finalmente es

puesta en la salida de demodulación.

En la figura 1 se presenta la topología del radio empleado.

161

Fig.1. Demodulación digital de la señal FM. Adaptado de Software defined radio using Matlab &

Simulink and the RTL-SDR. La imagen fue elaborada por los autores.

Al realizar la puesta en marcha del programa creado en LabView, inicialmente se

tienen inconvenientes de ruido, por lo cual es necesario reprogramar para poder tener

un piso de ruido más bajo y poder obtener la señal mucho más clara. Otro de los

inconvenientes que se tuvieron fue que debido a la ubicación física, en algunas

ocasiones no fue sencillo captar las señales FM, puesto que la potencia con la que era

recibida la señal no era suficiente para el procesamiento de la misma. Finamente se

logró el objetivo de demodular señales entre los 88.5 MHz y los 108 MHz, con

técnicas de procesamiento digital de señal, siendo recibidas por el dispositivo RTL-

SDR y procesadas por un laptop Asus, con procesador Intel Core i7, 8 Gb de RAM, y el

programa elaborado en LabView instalado en esta máquina.

Las conclusiones más relevantes del trabajo son:

- El trabajo con dispositivos RTL-SDR resulta ser mucho más práctico y

económico comparado con dispositivos USRP, con la desventaja de que el

RTL no permite realizar la transmisión de señales y el rango de frecuencia de

trabajo es mucho menor.

- El rango de frecuencias de uso de RTL, permite su aplicación no solo en el

caso de señales FM sino que también tiene usos a nivel de aeronáutica, UHF,

telefonía celular (4G, GSM)

- El software LabView permite la fácil integración de herramientas como los

SDR y bloques de procesamiento de señal, facilitando la programación e

interacción con su interfaz gráfica siendo una gran característica para un

software especializado que aventaja a otros como GNU Radio o inclusive

Matlab con su módulo Simulink siendo LabView un software más intuitivo en

cuanto a su programación, ejecución y simulación.

162

Referencias

Software defined radio using Matlab & Simulink and the RTL-SDR, Stewart Bob, Barlee Kenneth,

Atkinson Dale, Crocket Louise, University of Strathcyde, Glasgow, Scotland, UK.

http://www.rtl-sdr.com/ Actualizado Sept 8 de 2015.

http://www.ni.com/labview-communications/usrp/esa/ Consultado Sept 10 de 2015.

Adaptado de Software defined radio using Matlab & Simulink and the RTL-SDR.

163

Sistema de gestión de espectro

radioeléctrico empleando el hardware

RTL - SDR

Carlos Julio López Romero 31[autor]

Miguel Antonio Fernández Salgado 31[autor]

José De Jesús Rúgeles Uribe 31[autor]

Resumen

Este Proyecto de Investigación Científica tiene como propósito realizar un sistema de gestión

del espectro radioeléctrico empleando dispositivos de captación de señales RTL SDR (Radio

definida por software), que permita hacer un barrido parcial del espectro radioeléctrico entre el

rango de frecuencia aproximado de 25MHz y 1.75 GHz en el que se prestan en la actualidad

servicios como Radio FM, DAB ,GSM, aunque la elección del ancho de banda que se pretende

analizar se podría efectuar en variedad de rangos con el uso de diseños multi - etapa

aumentando el cubrimiento del barrido que se realiza. Este proyecto se está realizando

mediante el uso de la herramienta Simulink de MATLAB con la cual se lograra visualizar el

espectro y determinar que señales se están trasmitiendo en tiempo real, como parte inicial de

la implementación lo que permite analizar y gestionar las frecuencias que están siendo

usadas y las que están libres en un momento oportuno, este proyecto contara con una interfaz

gráfica desde donde se podrá gestionar determinada frecuencia y detallar en qué estado se

encuentra, en conclusión le proporcionara al usuario del espectro electromagnético una

herramienta de fácil portabilidad y manejo para gestionar de forma eficaz sus comunicaciones.

Introducción

El avance significativo de las tecnologías principalmente las orientadas a

telecomunicaciones van exigiendo día a día nuevos retos a los investigadores, los

cuales deben proporcionarle a los usuarios dispositivos que se adapten a su vida

cotidiana y brinden fácil portabilidad, en este sentido el proyecto de investigación se

encamina a dar solución al acceso táctico de tecnologías de gestión del espectro

radioeléctrico sin necesidad de acudir a multiplataforma de uso limitado, además de

servir como herramienta para futuras aplicaciones en el que se pretenda dar solución

al problema de la ineficiencia en la utilización del espectro de frecuencias, ya que la

31 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación adscrito al grupo de Investigación GISSIC, Universidad

Militar Nueva Granada, Santa Fe de Bogotá. Correo electrónico: [email protected]

164

identificación de bandas disponibles permite la optimización del uso del espectro

dependiendo de la necesitad y el tipo de servicio que se preste o se requiera.

Tal como se enuncio anteriormente el software que se utiliza para la ejecución de

este proyecto es Simulink de MATLAB ya que este ofrece un sin número de

herramientas ya definidas que nos facilitan la ejecución, análisis e implementación en

hardware como lo es el bloque RTL-SDR Radio, para este proyecto se contara con

un Hardware RTL-SDR NOOELEC RTL2832U que permite captar las señales del

espectro radioeléctrico para luego mostrarlas y analizarlas al ejecutar un diagrama de

bloques previamente definido en Simulink.

Metodología Empleada

Como parte del proceso de desarrollo del proyecto es preciso la definición de cada

uno de los pasos que se han realizado para cumplir de manera exitosa la

implementación del sistema de gestión del espectro radioeléctrico. Como primer

punto se realiza un estado del arte concerniente a la tecnología de radio definido por

software, el uso del espectro de frecuencias, bandas de frecuencias disponibles, uso

de los bloques de Matlab para SDR, en lo que respecta implementación de la interfaz

de usuario; en la parte física se indago acerca de la arquitectura del Hardware RTL-

SDR NOOELEC RTL2832U, que permite definir criterios y capacidades a utilizar

mediante la ejecución del proyecto. Una vez recolectada la información y depurando

las utilidades, características y demás elementos de software y hardware se procedió a

la segunda parte que consiste en instalación de librerías (bloque RTL-SDR Radio en

Simulink, MATLAB), en lo que respecta a la configuración de controladores del

dispositivo USB RTL-SDR. Como tercera fase del proyecto de investigación se realiza

la programación con diagrama de bloques en Simulink que permitiera la visualización

de las bandas de frecuencia; para facilitar la funcionalidad del sistema de gestión se

implementa una interfaz gráfica que permita al usuario un manejo práctico de la

herramienta determinando frecuencias de operación y ganancia de elección.

Resultados y Conclusiones

Dentro de las capacidades del sistema de gestión de espectro radioeléctrico

empleando el hardware RTL SDR se destaca un rango de cobertura por dispositivo de

25MHz y 1.75 GHz; este dispositivo permite captar señales de Radio FM, DAB Radio,

Televisión Digital, Sistemas GSM, entre otros; dentro de las bandas de frecuencia que

el usuario puede examinar se encuentran FM Radio con un rango de 88MHz a

108MHz, BAD Radio rango de 175MHz a 240MHz, TV Digital de 470 a 862 MHz y

GSM Señales Móviles de 800MHz a 1000MHz.

165

Como resultados se tiene una aplicación hecha en Simulink de MATLAB que

permite realizar consultas en el espectro radioeléctrico con el fin de determinar la

disponibilidad e identificar el centro deseado de la frecuencia seleccionada. Como se

evidencia en la figura 1.

Figura 1. a) Interfaz Gráfica, b) Analizador del Espectro en FFT, c) Analizador del Espectro en

Cascada. Las Imágenes fueron capturadas por los autores.

En la figura 1 (a) se observa la interfaz gráfica desarrollada para el usuario final del

sistema de gestión de espectro radioeléctrico, dentro de la cual se puede apreciar

cada uno de los elementos que se pueden configurar como los rangos de frecuencias

166

a analizar, la ganancia, la frecuencia central que el usuario tomara como referencia

para el estudio de su interés y elementos para ajustar la visualización de la resultante

de la captura en una banda específica, en la figura 1 (b) se presenta luego de la

configuración de los parámetros dados en la interfaz de usuario la respuesta en

frecuencia de la banda utilizada a través del analizador de espectros de Simulink, con

esta el usuario puede identificar el uso de una banda de frecuencia en específico, las

características de las señales que se están enviando a través de esta banda y en

general cualquier elemento que sea de importancia del análisis en el dominio de la

frecuencia, en la figura 1 (c) se muestra el espectro en cascada el cual permite

visualizar de forma más detallada las señales que se están generando en el momento.

El analizador se ha configurado con los con los siguientes parámetros

presentados en la figura 2:

Figura 2. Parámetros configurados en el analizador. La imagen fue capturada por los autores.

De acuerdo a los resultados que se obtienen en esta etapa del proyecto de

investigación se puede concluir que con el uso del software Matlab herramienta

Simulink y de cada uno de los bloques se logra implementar un sistema de gestión

de espectro radioeléctrico que permite la consulta del estado de frecuencias

disponibles en el espectro radioeléctrico de forma práctica.

Este sistema de gestión podría ser utilizado como una herramienta para la

optimización del espectro radioeléctrico permitiendo el uso de bandas disponibles

para variedad de servicios evitando el desperdicio de este recurso.

Referencias

Bob Stewart, Kenneth Barlee, Dale Atkinson et al. (2015). Software Defined Radio Using MATLAB &

Simulink and the RTL-SDR, Glasgow, Reino Unido, University Strathclyde.

167

Medición y monitoreo de caudales en

cuenca hidrográfica, río Bogotá,

ribera UMNG Campus, mediante el

uso de Wireless Sensor Network,

para prevención y posible estimación

de desastres naturales

Jimena Astrid Ospina Caro 32[autor]

Paula Daniela Pinilla Torres 32[autor]

Resumen

El grupo de investigación SATIC, en su constante interés por el desarrollo de técnicas

habituales que permitan la elaboración de proyectos innovadores, como en este caso: la

prevención de posibles desastres naturales que aquejan nuestro entorno, realizará en la

primera fase del proyecto, un estudio de monitoreo de un tramo del río Bogotá que se

encuentra ubicado dentro de los límites que abarca la universidad.

Las inundaciones son fenómenos naturales y puede esperarse que ocurran a intervalos

irregulares de tiempo en todos los cursos de agua, por dicha razón, la expectativa principal de

este proyecto es el poder predecir estos sucesos; para ello se hará uso de sensores de caudal.

Teniendo en cuenta que es un plan de prevención, y que lo que se quiere es pronosticar

posibles inundaciones se medirá el flujo del volumen de agua dentro de cotas establecidas

entre el nivel más bajo del caudal y cuando su aumento de volumen puede ocasionar

desbordamientos de la cuenca.

Introducción

Actualmente el estudio del río Bogotá ocupa uno de los primeros lugares de

atención pública ante el creciente deterioro del mismo. Las tecnologías para el control

32 Programa de Ingeniería Civil, Semillero de Investigación adscrito al grupo Sistemas de Avanzada Tecnológica En Ingeniería Civil,

SATIC, Universidad Militar Nueva Granada, Santa Fe de Bogotá. Correo electrónico: [email protected]

168

del caudal evolucionan con mayor rapidez y a medida que se hacen más eficientes se

da espacio a la posible estimación de variaciones considerables del crecimiento y

decrecimiento del caudal que posea una cuenca específica.

Para el desarrollo del proyecto se pretende determinar un estudio que estime la

tendencia al riesgo de inundación que posee la Universidad Militar Nueva Granada

(Sede campus) al colindar con un tramo del río Bogotá que se ubica dentro de los

límites de la institución educativa .Para la realización de dicho proyecto se diseñará

un plan de gestión de riesgos en colaboración con la universidad, que se

desarrollará mediante un estudio monitoreado implementando el uso de sensores de

caudal.

Las alteraciones en el comportamiento de las condiciones climáticas, son un factor

determinante para este estudio, puesto que en el caso de la cuenca alta del río

Bogotá, actividades como la expansión de la frontera agrícola, la tala de árboles, la

sobreexplotación de los suelos y el mal uso del recurso hídrico señalan un alto

impacto en el aumento de precipitaciones, dando como consecuencia alteraciones en

los caudales y una degradación de la cobertura vegetal de la cuenca.

Metodología Empleada

El río Bogotá posee un curso de 255 km y en su recorrido riega tierras de 26

municipios, incluyendo la zona occidental del Distrito Capital.

El proyecto se realizará en diferentes fases, que establecerán parámetros relevantes

para su desarrollo:

Inicialmente se indagará sobre posibles inundaciones previas al estudio y se

determinará si el caudal del río ha incrementado o ha decrecido desde dichos eventos.

Luego se determinarán las épocas del año en las que se incrementa el caudal del río

por precipitación.

Es necesario especificar cuáles son las edificaciones con mayor cercanía a la cuenca

del río, puesto que estas son las que se encuentran expuestas a mayor riesgo de

probables inundaciones.

Adicionalmente se realizará un estudio de campo para visualizar la cuenca y el

terreno, se tomará registro fotográfico de lo que se considere relevante a estudiar

para el desarrollo del monitoreo.

Es importante establecer las ubicaciones adecuadas para situar los sensores. Para

tal fin se tendrá en cuenta las necesidades pertinentes para su uso.

Po último se procederá a realizar una lectura gradual a diferentes horas del día,

para determinar en cuales lapsos de tiempo y estados del clima, los distintos

169

sensores puedan indicar un crecimiento del caudal que supere el límite de la cuenca

del río, y cause afectaciones o riesgos para la comunidad neogranadina.

Los resultados nos permitirán generar tablas de información que serán organizadas

y utilizadas de la mejor forma, estas ayudarán a cuantificar las cotas de afectación y a

prever los factores que puedan impulsar el riesgo natural que deseamos evitar.

A partir de las estimaciones de los riesgos que genera el tramo del río, se procederá

a hacer uso del sistema de monitoreo sensorial, con el objetivo de desarrollar un plan

de prevención de riesgos en acción conjunta con la universidad.

Resultados y Conclusiones

Se realizaron investigaciones y consultas para conocer el comportamiento previo

del rio cuando continúe su curso en el sector que colinda en la Universidad Militar

Nueva Granada, gracias esto, se obtuvo:

RÍO BOGOTÁ: El río Bogotá nace al nororiente de Cundinamarca en el páramo de

Guacheneque municipio de Villapinzón, a 3300 m.s.n.m. y sus aguas fluyen hacia el

suroeste para desembocar al río Magdalena en Girardot a 280 m.s.n.m. drenando las

aguas de una cuenca de 6000 km2 con aproximadamente 7 millones de habitantes y

40 municipios.

Se encuentra localizado entre las coordenadas planas 1.055.000N; 1.035.000E;

1.080.000N y 1.065.000E.

Figura 1. Curso del río Bogotá. (es.wikipedia.org, 2016).

170

CARACTERIZACIÓN DE LA CUENCA DEL RÍO BOGOTÁ: Es una de las 14 cuencas

principales con que cuenta el departamento de Cundinamarca, se extiende

diagonalmente sobre el territorio departamental y ocupa un área de 6107 km2. En la

figura 2 se presenta la cuenca del río.

En la cuenca del río Bogotá se pueden distinguir tres tramos (Alto, Medio, Bajo),

pero en especial trataremos la cuenca alta del rio Bogotá: La cuenca alta del río al

norte de Bogotá con una longitud de 170 km, está comprendida entre dos puntos

extremos: el nacimiento del río Bogotá en el municipio de Villapinzón, hasta el Puente

de la Virgen en Cota, y su caudal medio en la estación de la virgen es de 13.5 m3/s.

En la figura 3 se muestra la descripción de la cuenca alta del río Bogotá.

Figura 2. Caracterización de la cuenca del río Bogotá. La imagen fue elaborada por los

autores.

Figura 3. Descripción de la cuenca alta del río Bogotá. La imagen fue elaborada por los

autores.

ANÁLISIS DE DATOS DE LAS ESTACIONES, EL ESPINO Y PUENTE DE LA VIRGEN: La

cuenca alta del Río Bogotá se comprende entre el municipio de Villapinzón y El puente

de la Virgen en Cota (Cundinamarca), en dicho tramo se establecen varias

171

estaciones de registro que realizan mediciones tanto de fluctuaciones de los niveles

de agua como de Caudal. En base a registros tomados de las estaciones (El Espino y

Puente la Virgen) se pudo realizar una investigación previa para observar

continuamente y tener en cuenta los cambios en los niveles de Caudal abarcados por

el tramo del Río Bogotá, ribera que cruza por la UMNG Campus.

Partiendo de que el tramo de estudio se ubica en medio de las dos estaciones, se

elaboró un cuadro comparativo de mediciones, para realizar un promedio y

visualizar de manera aproximada la cuenca en cuestión con respecto a su nivel y

Caudal actual.

Los resultados obtenidos son una aproximación de lo que se busca obtener del

monitoreo, ya cuando este se desarrolle, se obtendrán datos más confiables y

precisos.

Figura 4. Comparación estaciones de medida y tramo UMNG Campus. La imagen fue elaborada

por los autores.

Las principales conclusiones obtenidas del trabajo son:

- Se delimitó la cuenca del río Bogotá, por medio de estudios pertinentes,

dentro de límites preestablecidos en divisiones de la cuenca alta, media y

baja, y los posibles problemas ambientales que se puedan presentar al

aumentar la cota de afectación. Municipio Villa pinzón y el Puente de la

Virgen en Cota.

- La metodología presentada permite evaluar las características de red de

sensores adecuadas en cuanto a exactitud y efectividad de la medición de

caudales ante posibles escenarios de cambio climático incluyendo un estudio

172

de campo y registro fotográfico que coopera con el desarrollo del plan de

prevención de desastres.

- El presente trabajo se adelantó en condiciones restrictivas de disponibilidad

de información lo que introducen facilidades para la interpretación de los

datos obtenidos por medio de las estaciones del espino y puente de la

Virgen.

- Esta investigación desarrolló una metodología general que puede ser

utilizada para el mismo fin con otros ríos, sin duda alguna con buena

disponibilidad de información los resultados brindarán conclusiones

apropiadas para la disminución del riesgo de posibles desastres naturales de

los ríos.

- En el transcurso de este trabajo se evaluaron caudales con distintos niveles

de información desde estaciones con un monitoreo constante en la cuenca

alta del río, por ello brinda un buen blanco para la valoración del riesgo de

desastres, sin embargo se requiere continuar con este trabajo

complementándolo con los datos de la medición por métodos

convencionales y por red de sensores para generar el respectivo cuadro

comparativo entre estos registros y los de las estaciones consultadas con

anterioridad, También se deben reajustar los datos con los que brinda el

IDEAM debido a que en el transcurso del estudio no estaban disponibles.

Referencias

Alcaldía de Bogotá, CAR, plan de ordenación y manejo de la cuenca hidrográfica del río Bogotá.

Banco Mundial 1818 H Street NW Washington, Water Partnership Program (WPP), Gestión Integral de

Aguas Urbanas Estudio de Caso Bogotá.

Boada, Paola (2011). Caracterización climatológica de la cuenca alta del río Bogotá”.

Bogotá, A. D. (2015). Río Bogotá - El Espino. Obtenido de estación El Espino.

Bogotá, A. D. (2015). Río Bogotá - puente La Virgen. Obtenido de Estación puente la virgen.

Corredor, Jorge ( 2011). Identificación de los parámetros del modelo del número de curva y su

incertidumbre mensual en la cuenca alta del río Bogotá.

D´Crescenzo, Camilo (2009). Evaluación de impacto ambiental Método Riam.

Instituto de hidrología, meteorología y estudios ambientales (2007). Estudio de la caracterización

climática Bogotá y cuenca alta del río Tunjuelo/IDEAM. Bogotá D.C.

173

Análisis visual para el mayor

rendimiento del estudiante y menor

esfuerzo visual, en el edificio “D”

(aulas D101 y D102) de la

Universidad Militar Nueva Granada –

Sede Campus (Cajicá)

Julián Esteban Galvis Correa 33[autor]

Ayde Lucero Durán Devia 33[autor]

Resumen

Este proyecto de iniciación científica pretende determinar la cantidad de luz natural que

favorece la iluminación en las aulas 101 y 102, ubicadas en el primer piso del edificio D

construido recientemente en el campus de la Universidad Militar Nueva Granada; y evaluar si es

absolutamente necesaria la permanente activación de la luz artificial en estos salones, por

medio del análisis de datos obtenidos por la lectura de sensores que cumplan con el sistema

requerido que nos lleve a conocer la variable que nos inquieta en este momento y da origen al

presente proyecto.

Los sensores estarán ubicados en zonas relativamente oscuras o menos iluminadas de los

salones, para identificar el alcance de la luz natural. También se tendrá en cuenta el fácil

acceso para realizar la toma de datos, y garantizar que no sean manipulados por personas

ajenas al proyecto, que puedan generar interrupciones en el proceso o generen datos

incorrectos.

La contaminación ambiental en la actualidad es un tema que genera polémica en la sociedad,

debido a las consecuencias que nos afectan a todos. Teniendo en cuenta que el consumo de

energía eléctrica afecta al medio ambiente, el objetivo de este proyecto es analizar si es posible

reemplazar, en cierto modo, la luz incandescente o fluorescente por la luz natural; generando

una menor cantidad de CO2 y por lo tanto, contribuir a la disminución del calentamiento

global.

33 Programa de Ingeniería Civil, Semillero de Investigación adscrito al grupo Sistemas de Avanzada Tecnológica En Ingeniería Civil,

SATIC, Universidad Militar Nueva Granada, Santa Fe de Bogotá. Correo electrónico: [email protected]

174

Al finalizar el análisis de los datos obtenidos, determinaremos si es necesaria la luz artificial

en los salones ya mencionados, o en qué condiciones específicas se requiere de ésta

iluminación para que favorezca a la comunidad estudiantil y al medio ambiente de forma

simultánea.

Introducción

El uso diario que se le dan a las diferentes aulas de clase, en este caso algunas de

las que se encuentran en el edificio de ingeniería (bloque D), como el debido

crecimiento de la población neogranadina, hizo que el grupo de investigación SATIC

se cuestionará acerca del buen uso que se le da a la luz artificial ubicada en las aulas

D101 a D107 debido a que son salones de uso diario y de gran importancia para el

aprendizaje; hoy en día sabemos que el medio ambiente se ha convertido en una

herramienta fundamental para las diferentes tareas diarias que se nos presentan, la

idea es usar esta herramienta cuando se pueda y así generar cada día un menor

impacto ambiental.

Dentro de las aulas de clase a estudiar encontramos un problema en común, pues

estas poseen menos ventanas que los otros salones de clase, de esta forma se logra

identificar que la luz entrante es menor. A raíz de lo anterior, los estudiantes no

contienen el ambiente más adecuado de aprendizaje, lo que causa

desconcentraciones y bajo rendimiento académico; además se maneja el tema de

impacto ambiental que causa la luz artificial, donde la luz artificial puede ser gastada

de forma innecesaria, lo que causa poco ahorro en la economía de la universidad y

también podría causar enfermedades en las personas que dan uso a estas aulas ya

que se emite una radiación infrarroja.

La pregunta de investigación planteada es la siguiente: De acuerdo al progresivo

crecimiento que se ha venido dando del programa de ingeniería y demás programas

que dan uso de las aulas del edificio D ¿Es suficiente la luz natural que entra a las

aulas de clase D-101 y D-102, para garantizar un espacio adecuado de aprendizaje?

Los objetivos planteados en el trabajo investigativo son los siguientes:

- Analizar, evaluar y medir la cantidad de luz natural que entra en las aulas 101

y 102 del Bloque D de la Universidad Militar Nueva Granada, para poder

desarrollar un método que pueda controlar todo el sistema eléctrico y

determine la necesidad del consumo de energía; que podrá establecer un nivel

óptimo de intensidad para tareas visuales de complejidad media, que ayudarán

a potenciar un consumo de energía eléctrica.

- Ubicar de manera estratégica los equipos a utilizar, garantizando datos

completamente puntuales.

175

- Análisis de sensores mediante herramientas tecnológicas disponibles,

(software gratuito) para cualificar su impacto.

- Realizar la toma de datos mediante los análisis de sensores.

- Cuantificar la cantidad de luz natural que ingresa a los salones evaluados, por

medio de un software, que permita determinar si la luz que hay en las aulas es

suficiente para evitar el uso de energía eléctrica (salones D101 y D102).

- Desarrollar y proponer un documento con el análisis estadístico pertinente de

los datos recopilados.

- Buscar posibles soluciones a los salones que carecen de la entrada de luz

natural, desarrollando propuestas (a futuro) que reduzcan de alguna forma el

consumo de energía eléctrica en estos puntos.

La idea de este proyecto, surge de la necesidad de evaluar si la luz natural en los

salones es la adecuada para la visión promedio de los estudiantes o si se debe usar la

luz artificial para beneficiar al usuario de las instalaciones.

Metodología Empleada

Con el fin de prever distintas situaciones que puedan afectar el proceso de

investigación, se hace necesario evaluar algunos fenómenos o factores que puedan

afectar la intensidad de luz presente, de esta forma el proyecto esta evaluado en

distintas fases:

1. Identificar factores como:

El clima, porque no estamos exentos de encontrarnos con días más cálidos que

otros, en caso de estar nublado, se tendría poca iluminación.

La hora, se estipularan horarios para la toma de los datos, ya que si se realizaran

tomas en la noche no sería lógico. Los horarios para evaluar serian 7:30 am, 12:00 y

4:00pm, se enfatizan estos ya que son las horas más frecuentadas.

La salud visual, en este caso no todas las personas poseen la salud visual en

óptimas condiciones para ver, o simplemente son más sensibles, lo que provoca

que no haya unificación en este sentido.

2. Buscar un sitio adecuado para hacer la toma de datos, es decir el punto más

crítico con el que se pueda llegar a un buen análisis.

3. Después de tener todo lo anterior ya se puede empezar a tomar las mediciones

en los horarios nombrados anteriormente, el sensor a usar seria el luxómetro, ya

que nos da facilidad de lectura y es de fácil manejo.

4. Tomar nota de cada uno de los valores observados en el display del luxómetro.

176

5. Tabulación de los datos recolectados, a través del programa Excel se realizaran

tablas para que la información quede organizada y entendible.

6. Con los datos anteriores se realizaran gráficas a las cuales se le puedan

realizar un análisis y llegara a la conclusión.

7. Finalmente se le da solución de ser posible al problema planteado inicialmente

y podemos llegar a obtener los siguientes resultados: Luego del análisis de los

datos obtenidos a partir de las lecturas generadas por dichos sensores también, al

realizar dicho análisis, respecto al clima como los casos de soleado o nublado, se

propondrán diferentes soluciones para que la iluminación sea la más adecuada en

las aulas y no se requiera de mucho apoyo por parte de la luz artificial.

Mediante el análisis de los datos recopilados por medio de los sensores, es posible

dar respuesta a la hipótesis, acerca de la intensidad de luz requerida en un ambiente

de aprendizaje.

Resultados y Conclusiones

Como el proyecto apenas se encuentra en etapa de planeación, se ha propuesto

como meta analizar la cantidad de luz presente en las aulas 101 y 102 del edificio D,

de la Universidad Militar Nueva Granada para el manejo efectivo de la iluminación

natural; el cual se desarrollará salón a salón y establecerá un patrón como manejo de

información según su ubicación y su estado, teniendo en cuenta pruebas en horarios

diurnos que establecerán la capacidad de apoyo visual, y que permitirán reducir el

consumo medido de la energía electricidad.

Este proyecto está encaminado a ser usado por varias entidades educativas a nivel

nacional e internacional, y se pretende que el mismo, se establezca como punto de

partida para nuevos sistemas que brinden la capacidad de mejorar el nivel visual en

ciertas áreas y sea posible implementarlo en otras entidades, como las comerciales y

administrativas, abarcando diferentes zonas de trabajo.

Referencias

Escuela de ingenieros Julio Garavito. (2008). Iluminación Protocolo. Bogotá.

Hick, R. L., &Leinen, R. A. (2012).Patente nº US8227731 B2. Estados unidos.

Javier. (18 de Marzo de 2011). Blogspot. Recuperado el 3 de Mayo de 2015, de http://javier-

temporizadores.blogspot.com/2011/03/sensores-fotoelectricos-un-sensor.html

Led Box. (2012). Recuperado el 3 de Mayo de 2015, de http://blog.ledbox.es/informacion-led/637

177

QuimiNet. (2011). Recuperado el 3 de Mayo de 2015, de http://www.quiminet.com/articulos/el-

luxometro-la-mejor-opcion-para-controlar-los-niveles-de-iluminacion-en-la-industria-

2575351.htm

Whitttaker, R. (2003). CyberCollege. Recuperado el 3 de Mayo de 2015, de

http://www.cybercollege.com/span/tvp029.htm

Lu, J., Birru, D., Whitehouse, &Kamin. (2010). Using simple light sensors to achieve smart daylight

harvesting. New York: ACM New York.

Begemann, S. H., Van Den Beld, G. J., &Tenner, A. D. (1997). Patente nº US5648656 A. Estados

Unidos.

Carlson, R. S. (1982). Patente nº US4347461 A. Estados Unidos.

Pierpoint, W. (1981). Patente nº US4273999 A. Estados Unidos.

Saraceni, R. (1980). Patente nº US4225808 A. Estados Unidos.

Smith, M. N. (1976). Patente nº US4135116 A. Estados Unidos.

Ayres, J. A. (2007). Patente nº US7253570 B2. Estados Unidos.

Eckel, D. P., Tansi-Glickman, S., Bonasia, G., Hebeisen, S. P., &Porter, J. A. (2002). Patente nº

US6388399 B1. Estaos Unidos.

Evansm, D. F. (2006). Patente nº US7045975 B2.Estados Unidos.

Hick, R. L., & Leinen, R. A. (2009).Patente nº US7608807 B2.Estados Unidos.

Hoffknecht, M. (2004).Patente nº US20040002792 A1.Estados Unidos. Miki, M. (2009). Patente nº US7633406 B2.Estados Unidos.

Paton, J. D. (2007). Patente nº US7190126 B1. Estados Unidos.

178

Comparación de la sensórica

implementada en equipos de fatiga

de pavimentos existentes entre

América y Europa

Jenny Gabriela Prado Quintero 34[autor]

Ángel Santiago López Marroquín 34[autor]

Johan David Barajas Pinilla 34[autor]

Camilo Andrés Galvis Morales 34[autor]

Resumen

En nuestra vida cotidiana es evidente que los pavimentos no han sido desarrollados de una

manera total y eficiente, que garantice una vida útil apropiada para todas las necesidades que

día a día son exigidos los pavimentos tanto por carga como por factores climáticos, es por esto

que como grupo de investigación queremos informar cuales son los avances que hasta ahora

tiene el área de los pavimentos en cuestión de pruebas de fatiga y todo el equipo utilizado

para evaluar los comportamientos de los pavimentos y observar variaciones con diferentes

dispositivos que miden la deformación y demás sensores que evidencian otros efectos sobre

las propiedades del pavimento sometido a cargas.

Con el objetivo de realizar una comparación de los avances y desarrollos que presentan los

diferentes equipos de fatiga tanto en América como en Europa, con el fin de incentivar la

investigación e innovación de esta rama tan importante de la ingeniera civil.

Introducción

La presente investigación abarca los temas referentes a la intensidad de luz

adecuada para un ambiente académico, también las características y beneficios que

representan la luz natural y su medición por medio de sensores.

La idea de este proyecto, surge de la necesidad de evaluar si la luz natural en los

salones es la adecuada para la visión promedio de los estudiantes o si se debe usar la

luz artificial para beneficiar al usuario de las instalaciones. A continuación se pretende

especificar y dar a conocer los avances de esta investigación.

34 Programa de Ingeniería Civil, Semillero de Investigación adscrito al grupo Sistemas de Avanzada Tecnológica En Ingeniería Civil,

SATIC, Universidad Militar Nueva Granada, Santa Fe de Bogotá. Correo electrónico: [email protected]

179

Metodología Empleada

Con el fin de prever distintas situaciones que puedan afectar el proceso de

investigación, se hace necesario evaluar algunos fenómenos o factores que puedan

afectar la intensidad de luz presente, de esta forma el proyecto está evaluado en

distintas fases:

1. Identificar factores como:

El clima, porque no estamos exentos de encontrarnos con días más cálidos que

otros, en caso de estar nublado, se tendría poca iluminación.

La hora, se estipularan horarios para la toma de los datos, ya que si se realizaran

tomas en la noche no sería lógico. Los horarios para evaluar serian 7:30 am, 12:00 y

4:00pm, se enfatizan estos ya que son las horas más frecuentadas.

La salud visual, en este caso no todas las personas poseen la salud visual en

óptimas condiciones para ver, o simplemente son más sensibles, lo que provoca que

no haya unificación en este sentido.

2. Buscar un sitio adecuado para hacer la toma de datos, es decir el punto más

crítico con el que se pueda llegar a un buen análisis.

3. Después de tener todo lo anterior ya se puede empezar a tomar las mediciones

en los horarios nombrados anteriormente, el sensor a usar seria el luxómetro, ya que

nos da facilidad de lectura y es de fácil manejo.

4. Tomar nota de cada uno de los valores observados en el display del luxómetro.

5. Tabulación de los datos recolectados, a través del programa Excel se realizaran

tablas para que la información quede organizada y entendible.

6. Con los datos anteriores se realizaran gráficas a las cuales se le puedan

realizar un análisis y llegara a la conclusión.

7. Finalmente se le da solución de ser posible al problema planteado inicialmente

y podemos llegar a obtener los siguientes resultados:

Luego del análisis de los datos obtenidos a partir de las lecturas generadas por

dichos sensores también, al realizar dicho análisis, respecto al clima como los casos

de soleado o nublado, se propondrán diferentes soluciones para que la iluminación

sea la más adecuada en las aulas y no se requiera de mucho apoyo por parte de la luz

artificial.

Mediante el análisis de los datos recopilados por medio de los sensores, es posible

dar respuesta a la hipótesis, acerca de la intensidad de luz requerida en un ambiente

de aprendizaje.

180

Resultados y Conclusiones

Se han propuesto los siguientes objetivos generales y específicos del proyecto de

investigación:

Ubicar de manera estratégica los equipos a utilizar, garantizando datos

completamente puntuales.

Análisis de sensores mediante herramientas tecnológicas disponibles, (software

gratuito) para cualificar su impacto.

Realizar la toma de datos mediante los análisis de sensores.

Cuantificar la cantidad de luz natural que ingresa a los salones evaluados, por

medio de un software, que permita determinar si la luz que hay en las aulas es

suficiente para evitar el uso de energía eléctrica (salones D101 y D102).

Desarrollar y proponer un documento con el análisis estadístico pertinente de los

datos recopilados.

Buscar posibles soluciones a los salones que carecen de la entrada de luz natural,

desarrollando propuestas (a futuro) que reduzcan de alguna forma el consumo de

energía eléctrica en estos puntos.

Referencias

Alcaldía Mayor de Bogotá (2011). Manual de instrumentación de pavimentos. Bogotá D.C.: Instituto

de desarrollo urbano, Universidad de los Andes.

Dussan Navarro, Eduardo y Flautero Valencia, Fernando (2005). Automatización de ensayos

dinámicos del laboratorio de pavimentos en el equipo N.A.T. de la Pontificia Universidad

Javeriana [Trabajo de grado]. Bogota D.C.: Pontifica Universidad Javeriana.

9