Laboratori on 6 Fina 2014 l

28
GEOLOGÍA ESTRUCTURAL Y DEL PETRÓLEO LABORATORIO NO 6 [SOFTWARE 1, GENERACIÓN DE SUPERFICIES] BECERRA CALA LINA PAOLA JARAMILLO AMAYA HELENA MARGARITA OVALLE ARCOS OSCAR ADOLFO JUAN BADILLO UNIVERSIDAD INDUSTRIAL DE SANTANDER

description

HBHJ BHJLB JHBKLHBHJK

Transcript of Laboratori on 6 Fina 2014 l

Page 1: Laboratori on 6 Fina 2014 l

GEOLOGÍA ESTRUCTURAL Y DEL PETRÓLEO

LABORATORIO NO 6

[SOFTWARE 1, GENERACIÓN DE SUPERFICIES]

BECERRA CALA LINA PAOLA

JARAMILLO AMAYA HELENA MARGARITA

OVALLE ARCOS OSCAR ADOLFO

JUAN BADILLO

UNIVERSIDAD INDUSTRIAL DE SANTANDER

BUCARAMANGA

2014

Page 2: Laboratori on 6 Fina 2014 l

1. ¿Qué es interpolación?

La interpolación es un proceso por el cual se define un valor en un punto cualquiera a partir de los valores conocidos en algunos puntos dados. Por ejemplo: tenemos temperatura, presión y viento en distintas localidades que cuentan con estaciones meteorológicas y queremos estimar el clima en un pueblo cualquiera. Suponiendo que las estaciones son razonablemente cercanas, surgen dos preguntas: ¿qué estaciones considero? y ¿cómo calculo los valores desconocidos en función de los conocidos?

En general, tenemos un conjunto finito de nodos o puntos fijos con valores nodales asociados a cada uno de ellos: {(xi, vi)}, donde xi = {xi, yi (, zi)} es la posición del i-ésimo punto y vi el valor conocido en el punto fijo; se pretende encontrar el valor v asociado a un punto de coordenadas x cualquiera.

El proceso de interpolación define el valor asociado al punto variable. Podría, por ejemplo, asignarse el valor del punto más cercano o una combinación de valores cercanos o de todos los conocidos. En una sola dimensión es muy sencillo encontrar el punto más cercano o los dos nodos que “encierran” el punto buscado, pero en más dimensiones resulta más complicado.

La forma estándar, para variables continuas, consiste en hacer una suma de valores ponderados:

v(x) = Σ i(x) vi (Σ i = 1)

El valor v en el punto variable x se calcula asignando, a cada punto fijo, un peso αi que depende de la posición del punto variable. Normalmente se pretende que el peso de cada punto esté en relación inversa con la distancia al punto móvil, de ese modo el valor estará más influenciado por los puntos más cercanos. Pero hay muchas formas de definir los pesos. Es justamente, la selección de pesos la que define el método de interpolación.

Hay muchos métodos y no hay una única clasificación pero debemos mencionar algunas:

a) Métodos Locales versus Globales: Los métodos globales consideran todos los nodos. Un ejemplo es el método de Kriging, muy utilizado en ciencias de la tierra, donde se construyen los pesos en relación inversa a las distancias con algunos supuestos de variabilidad. Para los métodos locales, en cambio, sólo se consideran los nodos cercanos, a los más lejanos se les asigna peso nulo, en general se utilizan estos últimos métodos pues son algorítmicamente más veloces, sobre todo cuando se dispone de un método rápido para encontrar el conjunto de nodos cercanos.

b) Interpolación versus Extrapolación: En la interpolación se asume que el punto, cuyo valor se busca, esta “entre los nodos”, en caso contrario es

Page 3: Laboratori on 6 Fina 2014 l

extrapolación. Este concepto (“entre”) es trivial en 1D: el punto está entre el nodo extremo izquierdo y el nodo extremo derecho, pero en más dimensiones es más complejo (envoltorio convexo) y en breve lo desarrollaremos.

c) Interpolación versus Aproximación: Supóngase móvil al punto incógnita, cuando el punto se mueve el valor cambia. Se denomina interpolación cuando el punto móvil adquiere el valor nodal cuando coincide con un nodo: v (xj) = i (xj, xi) vi = vj. El caso contrario recibe el nombre de aproximación y el ejemplo más conocido de aproximante es la regresión lineal o, en general, los procesos de mínimos cuadrados.

Imagen n1-Fuente: imagen realizada por los estudiantes vectorizada en Corel. (INTERPOLACION-EXTRAPOLACION). En la imagen podemos detallar como se le denomina a cada parte que conforma tanto

una interpolación como una extrapolación.

Nodos

Punto extrapolado

Tramos extrapolados

Punto interpolado

Nodos

Curva interpolado

Curva interpolado

Page 4: Laboratori on 6 Fina 2014 l

La interpolación es un proceso por el cual se define un valor en un punto cualquiera a partir de los valores conocidos en algunos puntos dados. Una de las aplicaciones de este método es poder calcular y dibujar las curvas de nivel. La interpolación espacial es el procedimiento de estimar el valor de una propiedad en localizaciones no muestreadas en un área dentro de la cual existan observaciones.

2-.¿Cuál es el objetivo de interpolar?

El objetivo principal de la interpolación poder estimar valores funcionales a partir de cierto número de datos iniciales. En ingeniería y algunas ciencias es frecuente disponer de un cierto número de puntos obtenidos por muestreo o a partir de un experimento y pretender construir una función que los ajuste. El razonamiento intuitivo de la idea de interpolación se establece en el ámbito de la Geografía mediante la ley de Tobler: las observaciones que se encuentran próximas unas con otras presentan valores similares en contraste con las observaciones que se encuentran alejadas, las cuales muestran valores poco parecidos.

Los contornos es una representación gráfica del resultado de la interpolación.

En geografía, geo ciencias y otras disciplinas afines es importante describir variaciones espaciales de parámetros. Dichas variaciones pueden ser representadas en mapas a través de líneas de contornos o líneas de isovalores.

Cualquier mapa que utilice líneas de contornos para representar las variaciones espaciales de una variable o parámetro puede ser considerado un mapa de contornos. Un ejemplo son los mapas topográficos que representen variaciones en la elevación del terreno.

3- Consulte y explique los siguientes métodos de interpolación:

• Kriging: Las herramientas de interpolación IDW (Distancia inversa ponderada) y Spline son consideradas métodos de interpolación determinísticos porque están basados directamente en los valores medidos circundantes o en fórmulas matemáticas especificadas que determinan la suavidad de la superficie resultante. Hay una segunda familia de métodos de interpolación que consta de métodos geoestadísticos, como kriging, que está basado en modelos estadísticos que incluyen la autocorrelación, es decir, las relaciones estadísticas entre los puntos medidos. Gracias a esto, las técnicas de estadística geográfica no solo tienen la capacidad de producir una superficie

Page 5: Laboratori on 6 Fina 2014 l

de predicción sino que también proporcionan alguna medida de certeza o precisión de las predicciones.

Kriging presupone que la distancia o la dirección entre los puntos de muestra reflejan una correlación espacial que puede utilizarse para explicar la variación en la superficie. La herramienta Kriging ajusta una función matemática a una cantidad especificada de puntos o a todos los puntos dentro de un radio específico para determinar el valor de salida para cada ubicación. Kriging es un proceso que tiene varios pasos, entre los que se incluyen, el análisis estadístico exploratorio de los datos, el modelado de variogramas, la creación de la superficie y (opcionalmente) la exploración de la superficie de varianza. Este método es más adecuado cuando se sabe que hay una influencia direccional o de la distancia correlacionada espacialmente en los datos. Se utiliza a menudo en la ciencia del suelo y la geología.

La fórmula de kriging

El método kriging es similar al de IDW en que pondera los valores medidos circundantes para calcular una predicción de una ubicación sin mediciones. La fórmula general para ambos interpoladores se forma como una suma ponderada de los datos:

Fórmula de la suma ponderada

z (so)=∑i=1

n

z ¿¿

Dónde:

Z (si) = el valor medido en la ubicación i

λi = una ponderación desconocida para el valor medido en la ubicación i

s0 = la ubicación de la predicción

N = la cantidad de valores medidos

En IDW, la ponderación, λi, depende exclusivamente de la distancia a la ubicación de la predicción. Sin embargo, con el método kriging, las ponderaciones están basadas no solo en la distancia entre los puntos medidos y la ubicación de la predicción, sino también en la disposición espacial general de los puntos medidos. Para utilizar la disposición espacial en las ponderaciones, la correlación espacial debe estar cuantificada. Por lo tanto, en un kriging ordinario, la ponderación, λi, depende de un modelo ajustado a los puntos medidos, la distancia a la ubicación de la predicción y las relaciones espaciales entre los valores medidos alrededor de la ubicación de la predicción. En las siguientes secciones se describe cómo se utiliza la fórmula

Page 6: Laboratori on 6 Fina 2014 l

general de kriging para crear un mapa de la superficie de predicción y un mapa de la precisión de las predicciones.

-Crear un mapa de la superficie de predicción con el método kriging:

Para llevar a cabo una predicción con el método de interpolación de kriging, es necesario realizar dos tareas:

Descubrir las reglas de dependencia. Realizar las predicciones.

A fin de completar estas dos tareas, kriging atraviesa un proceso de dos pasos:

Crea los variogramas y las funciones de covarianza para calcular los valores de dependencia estadística (denominada autocorrelación espacial) que dependen del modelo de autocorrelación (ajustar un modelo).

Prevé los valores desconocidos (hacer una predicción).

Se dice que en este método los datos se utilizan dos veces, debido a estas dos tareas bien distintivas: la primera vez, para calcular la autocorrelación espacial de los datos, y la segunda, para hacer las predicciones.

Variografía

El ajuste de un modelo, o modelado espacial, también se conoce como análisis estructural o variografía. En el modelado espacial de la estructura de los puntos medidos, se comienza con un gráfico del semivariograma empírico, calculado con la siguiente ecuación para todos los pares de ubicaciones separados por la distancia h:

Semivariograma (distanceh) = 0.5 * average((valuei – valuej)2)

La fórmula implica calcular la diferencia cuadrada entre los valores de las ubicaciones asociadas.

En la imagen a continuación se muestra la asociación de un punto (en color rojo) con todas las demás ubicaciones medidas. Este proceso continúa con cada punto medido.

Page 7: Laboratori on 6 Fina 2014 l

Imagen n2-Fuente: imagen realizada por los estudiantes de grupo en base a: http://help.arcgis.com/es/arcgisdesktop/10.0/help/index.html#//009z00000076000000 vectorizada en Corel. En

la imagen podemos observar un punto de color rojo el cual se encuentran asociados a otro conjunto de puntos.

A menudo, cada par de ubicaciones tiene una distancia única y suele haber varios pares de puntos. La diagramación de todos los pares rápidamente se vuelve imposible de administrar. En lugar de diagramar cada par, los pares se agrupan en bins de intervalo. Por ejemplo, calcule la semivarianza promedio de todos los pares de puntos que están a más de 40 metros de distancia pero a menos de 50 metros. El semivariograma empírico es un gráfico de los valores de semivariograma promediados en el eje Y, y la distancia (o intervalo) en el eje X (consulte el diagrama a continuación).

Page 8: Laboratori on 6 Fina 2014 l

Semivariancia

Distancia

Imagen n3-Fuente: imagen realizada por los estudiantes de grupo en base a: http://help.arcgis.com/es/arcgisdesktop/10.0/help/index.html#//009z00000076000000 vectorizada en Corel.

Podemos observar una ubicación de puntos de una gráfica de sermivariancia vs distancia el cual nos da una idea del comportamiento de la relacione especial de semejanza el cual los puntos más cercanos entre si

tienden a tener relaciones o características parecidas de las que están más lejos.

La autocorrelación espacial cuantifica un principio básico de geografía: es más probable que las cosas que están más cerca sean más parecidas que las que están más alejadas. Entonces, los pares de ubicaciones que están más cerca (extremo izquierdo del eje X de la nube de semivariograma) deberían tener valores más similares (parte inferior en el eje Y de la nube de semivariograma). A medida que los pares de ubicaciones estén más separados entre sí (hacia la derecha en el eje X de la nube de semivariograma), deberían ser más distintos y tener una diferencia cuadrada más grande (hacia arriba en el eje Y de la nube de semivariograma).

Comprender un semivariograma: rango, meseta y nugget:

Como se indicó previamente, el semivariograma muestra la autocorrelación espacial de los puntos de muestra medidos. Tal como lo expresa un principio básico de la geografía (las cosas más cercanas son más parecidas), los puntos medidos que están cerca por lo general tendrán una diferencia cuadrada menor que la de aquellos que están más distanciados. Una vez diagramados todos los pares de ubicaciones después de haber sido colocados en un bin, se ajusta un modelo para estas ubicaciones. El rango, la meseta y el nugget se utilizan, generalmente, para describir estos modelos.

Page 9: Laboratori on 6 Fina 2014 l

Rango y meseta:

Al observar el modelo de un semivariograma, notará que a una determinada distancia, el modelo se nivela. La distancia a la que el modelo comienza a aplanarse se denomina rango. Las ubicaciones de muestra separadas por distancias más cortas que el rango están autocorrelacionadas espacialmente, mientras que las ubicaciones que están más alejadas que el rango, no lo están.

Nugget:

En teoría, a una distancia de separación cero (por ej. intervalo = 0), el valor del semivariograma es 0. No obstante, a una distancia de separación infinitamente inferior, el semivariograma a menudo muestra un efecto nugget, que es un valor mayor que 0. Si el modelo de semivariograma intercepta el eje Y en 2, entonces el nugget es 2.

El efecto nugget puede atribuirse a errores de medición o a fuentes espaciales de variación a distancias que son menores que el intervalo de muestreo (o a ambas cosas). Los errores de medición ocurren debido al error inherente a los dispositivos de medición. Los fenómenos naturales pueden variar espacialmente en un rango de escalas. La variación a micro escalas más pequeñas que las distancias de muestreo aparecerán como parte del efecto nugget. Antes de recopilar datos, es importante lograr comprender las escalas de variación espacial en las que está interesado.

Imagen n4-Fuente: imagen realizada por los estudiantes de grupo en base a: http://es.wikipedia.org/wiki/Krigeaje#mediaviewer/File:Variograma-exemplo.png vectorizada en Corel. Al

graficar cada punto en el y ubicada ubicarlas en un bin, se ajusta un modelo para estas ubicaciones. Con el El rango, la meseta y el nugget se utilizan, generalmente, para describir estos modelos

Page 10: Laboratori on 6 Fina 2014 l

Mínimum Curvature

Este método de interpolación trata de producir la superficie continua de mínima curvatura sobre la cual todos los puntos de observación están anclados. El método de la mínima curvatura está inspirado por el principio de las reglas flexibles (“thin plates) en las cuales la presión ejercida en un punto dado produce una reacción (deformación) que afecta un ambiente local determinado por ciertos puntos fijos o fronteras. En el espacio 2D, este ambiente local es conocido como una placa o pieza que formando parte del mosaico total de la superficie interpolada. La unión entre las diferentes placas del mosaico debe definir una superficie continua, derivable al primer y al segundo grados (pendiente y curvatura). La superficie interpolada por el método de curvatura mínimo es análoga a una placa delgada, linealmente elástico que pasa por cada uno de los valores de los datos con una cantidad mínima de flexión.

Mínimo de curvatura es similar al método de spline bi-cúbico. Sin embargo, la interpolación no es exacta, pero cerca de la exacta, y está diseñado para asegurar que la cantidad de curvatura de la superficie es tan pequeña como sea posible.

Esto se logra a través de un proceso de múltiples etapas. La primera etapa de regresión lineal simple y la extracción de los residuos. El procedimiento utiliza estos residuos en lugar de la interpolación de los datos originales de puntos. Al finalizar, a la interpolación de los residuos se le añade la superficie de regresión.

Este método se considera un interpolador local y exacto. Utiliza polinomios con el fin de proporcionar una serie de parches o piezas que resultan en una superficie que presenta la primera y segunda derivadas continuas.

Se asegura continuidad en: elevación (que la superficie no tenga picos), en gradiente (que la superficie no tenga cambios de pendiente abruptos) y en curvatura (que la superficie posea mínima curvatura

Este método de interpolación trata de producir la superficie continua de mínima curvatura sobre la cual todos los puntos de observación están anclados. Superficies aún menos curvadas son por ejemplo las superficies de tendencia basadas en una regresión polinomial de mínimos cuadrados o bien las superficies planas producidas por las redes triangulares TIN. Sin embargo, las superficies de tendencia no tratan de reproducir los valores observados con exactitud, mientras que las superficies en TIN no son superficies con continuidad matemática. El método de la mínima curvatura está inspirado por el principio de las reglas flexibles (“thin plates”) en las cuales la presión ejercida en un punto dado produce una reacción (deformación) que afecta un ambiente local determinado por ciertos puntos fijos o fronteras. En el espacio 2D, este ambiente local es conocido como

Page 11: Laboratori on 6 Fina 2014 l

una placa o pieza que formando parte del mosaico total de la superficie interpolada. La unión entre las diferentes placas del mosaico debe definir una superficie continua, derivable al primer y al segundo grados (pendiente y curvatura). La aproximación de una superficie tal es una extensión de las funciones splines, equivalentes matemáticas de las reglas flexibles utilizadas por los dibujantes. Son funciones polinomiales seccionadas en las cuales aquellas de tercer grado reproducen bastante bien las deformaciones de las reglas flexibles. Una vez extendidas al espacio 3D, estas funciones son llamadas bicubic splines o B-splines. La aproximación por B-splines o por la mínima curvatura es una solución de interpolación que tiene como finalidad estimar el conjunto de los valores Z* para los nodos de una red de puntos regular, de manera que la estimación para el punto de la red se acerca al valor observado Z cuando la posición del punto de observación se acerca a la posición del punto de la red. Este enfoque de interpolación no obliga a conocer de manera explícita la función continua en el espacio 3D que reproduce la superficie real. En el primer caso, la interpolación está hecha a partir de una solución numérica por diferencias finitas, mientras que en el último, se debe encontrar una solución analítica a través del cálculo diferencial. Desde una perspectiva diferencial, el problema a resolver consiste en encontrar la deformación inducida sobre la “regla flexible” por las fuerzas que actúan sobre puntos discretos, de manera que los desplazamientos hacia estos puntos sean iguales a las observaciones Z conocidas, el trabajo sobre splines para el análisis espacial fue principalmente iniciado por Wahba en 1980

La ecuación de spline

El algoritmo que utiliza la herramienta Spline se basa en la siguiente fórmula para la interpolación de la superficie:

La fórmula de spline:

S ( x , y )=T ( x , y )+∑j=1

n

λ j R (rj)

Dónde:

j = 1, 2,..., N

N es la cantidad de puntos.

λj son coeficientes determinados por la solución de un sistema de ecuaciones lineales.

rj es la distancia del punto (x,y) al punto j.

T(x,y) y R(r) se definen de forma diferente, según la opción seleccionada.

Por cuestiones de cómputo, todo el espacio del ráster de salida está dividido en bloques o regiones de igual tamaño. La cantidad de regiones en las direcciones x

Page 12: Laboratori on 6 Fina 2014 l

e y son las mismas y tienen forma rectangular. La cantidad de regiones se determina dividiendo la cantidad total de puntos del dataset de puntos de entrada por el valor especificado para la cantidad de puntos. Para los datos distribuidos con menor uniformidad, las regiones pueden contener una cantidad de puntos significativamente diferente, siendo el valor para la cantidad de puntos un mero promedio aproximado. Si en alguna región la cantidad de puntos es menor que ocho, esa región se expande hasta contener un mínimo de ocho puntos

Imagen n5-Fuente: imagen realizada por los estudiantes vectorizada en Corel. El cual da una aproximación de 4 puntos y su ubicación en el espacio.

Imagen n6-Fuente: imagen realizada por los estudiantes vectorizada en Corel. Grafica ejemplarizando el uso mínimo de 8 puntos

Page 13: Laboratori on 6 Fina 2014 l

Imagen n7-metodo de la mínima curvatura para ejemplarizar el modelo como tal. La primera foto no está vectorizada es la 2.esto es un ejemplo usando el método de mínimo curvatura en 3d usando el surfer 11,

viendo el comportamiento habitual de estos.

Polynomial Regression

Dentro de los procesos manipulados en métodos numéricos el manejo de la interpolación es muy importante, puesto que permite estimar valores intermedios entre datos definidos por puntos, Según [1], el método más común que se usa para este propósito es la interpolación polinomial. Recuerde que la fórmula general para un polinomio de n-ésimo grado es

Page 14: Laboratori on 6 Fina 2014 l

Dados n + 1 puntos, hay uno y sólo un polinomio de grado* n que pasa a través de todos los puntos. Por ejemplo, hay sólo una línea recta (es decir, un polinomio de primer grado) que une dos puntos (figura 1.1a). De manera similar, únicamente una parábola une un conjunto de tres puntos (figura 18.1b). La interpolación polinomial consiste en determinar el polinomio único de n-ésimo grado que se ajuste a n + 1 puntos. Este polinomio, entonces, proporciona una fórmula para calcular valores intermedios.

Aunque hay uno y sólo un polinomio de n-ésimo grado que se ajusta a n + 1 puntos. Existe una gran variedad de formas matemáticas en las cuales puede expresarse este Polinomio.

Imagen n 8-Ejemplos de interpolación polinomial: a) de primer grado (lineal) que une dos puntos, b) de Segundo grado (cuadrática o parabólica) que une tres puntos y c) de tercer grado (cúbica). Imagen realizada

por los estudiantes y modificada en corel.

Regresión polinómica es una forma de regresión lineal en la que la relación entre la variable independiente x y la variable dependiente y se modela como un n º grado polinomio. Regresión polinómica se ajusta a una relación no lineal entre el valor de x y el correspondiente media condicional de y, denotado E (y | x). El objetivo del análisis de regresión es modelar el valor esperado de una variable dependiente y en términos del valor de una variable independiente (o vector de variables independientes) x. En la regresión lineal simple, el modelo

Se utiliza, donde ε es un error aleatorio no observado con media cero acondicionado en un escalar la variable x. En este modelo, para cada unidad de

Page 15: Laboratori on 6 Fina 2014 l

aumento en el valor de x, la expectativa condicional de Y aumenta en un 1 unidades.

El objetivo de regresión polinómica es modelar una relación no lineal entre las variables independientes y dependientes. Esto es similar a la meta de la no paramétrica de regresión, que tiene como objetivo captar las relaciones de regresión no lineal. Por lo tanto, la regresión no paramétrica se acerca como alisado puede ser alternativas útiles a la regresión polinómica. Algunos de estos métodos hacen uso de una forma localizada de regresión polinómica clásica. Una ventaja de regresión polinómica tradicional es que el marco inferencial de regresión múltiple se puede utilizar.

Imagen n 9-regresion polinomial. Imagen realizada por los estudiantes y modificada en corel. En la imagen podemos detallar la regresión lineal de primer grado con determinados datos nos podemos dar la idea de

cómo hacer la regresión,

Triangulation with Linear Interpolation

Es un método exacto de interpolación basado en la generación previa de una malla irregular de triángulos (triangulación de Delaunay) cuyos vértices coinciden con los puntos conocidos. La interpolación se realiza suponiendo que dichos puntos pertenecen a la superficie plana de primer orden que se apoya en los vértices de cada triángulo.

Los valores máximos y mínimos se conservan. En ocasiones los mapas presentan el llamado "efecto de borde", cuando los triángulos son demasiado oblicuos.

Page 16: Laboratori on 6 Fina 2014 l

Este método de interpolación requiere primero la creación de la red triangular o RTI,. Una vez que los triángulos de Delaunay han sido construidos, se describe la superficie interior del triángulo por una función lineal derivada de las altitudes de cada uno de los puntos de muestreo que constituyen los vértices del triángulo. Esta función permite calcular la altitud en cada punto del triángulo de manera que el valor Z* estimado pueda ser transcrito tanto como un atributo en la base de datos de un programa que maneja las estructuras de datos vectoriales, o como la cota “Z” en la grilla regular de un programa que maneja las estructuras de datos matriciales (el programa Surfer por ejemplo. Formalmente:

Z=a+bx+cy

Donde a, b, c son coeficientes a determinar mientras que x, y son las coordenadas cartesianas de abscisa y de ordenada.

Ejemplo:

En el ejemplo (fig. 85), Z* fue obtenida solucionando el sistema de las tres ecuaciones lineales siguientes:

1275 =a+ 513101.54b + 210683.22c (1a)

1280 = a + 513128.82b + 210681.96c (1b)

1285 = a + 513118.66b + 210667.96c (1c)

Reordenando 1 a, se obtiene:

a = 1275 - 513101.54b - 210683.22c (2)

Remplazando este valor a en la ecuación 1b, se obtiene:

1280 = (1275 - 513101.54b - 210683.22c) + 513128.82b + 210681.96c, o

b = [(5 + 1.26c) / 27.28] (3)

Y se puede remplazar este valor b en la ecuación 2:

Page 17: Laboratori on 6 Fina 2014 l

a = 1275 - 513101.54 ((5+1.26c) / 27.28) - 210683.22c

a = -92768.53739 - 234382.1914c (3)

Y ahora, se puede utilizar la ecuación 1c para calcular c

1285 = -92768.53739 - 234382.1914c + 513118.66 [(5 + 1.26c) / 27.28] + 210667.96c

c = -0.4742591871

Remplazando c en la ecuación 3, se obtiene:

a = -92768.53739 -234382.1914 (-0.4742591871)

a = 18389.37021

Y remplazando c en la ecuación 2, se obtiene b:

b = [(5 + 1.26 (-0.4742591871)) / 27.28]

b = 0.1613795243

Sea Z(x,y) = Z(513120,210675), un punto al interior del triángulo :

Z*= 18389.37021 + 0.1613795243 (513120) + (-0.4742591871) (210675)

Z*= 1281.877476.

A diferencia del método de las medias móviles ponderadas, la triangulación de Delaunay va siempre a respetar el valor Z cuando la posición de un punto de muestreo coincide con aquel de un nodo de grilla o píxel a interpolar. Es decir, Z –Z* = 0, cuando las posiciones xi, y xj coinciden. Esta propiedad es muy deseable en todo método de interpolación. Por el contrario, la interpolación por triangulación es incapaz de “predecir” la existencia de cimas o depresiones locales salvo aquellas descritas explícitamente en los datos medidos. Esta forma de “predicción” es otra propiedad deseable. Con la triangulación de Delaunay, se puede tomar en cuenta los caracteres lineales (las líneas estructurales: ríos, líneas divisorias, líneas de escarpe) de la superficie original, ya sea agregando estas líneas encima de la red (opción disponible en la versión 3.0 del programa ArcView, así como en el programa GWN-DTM de Intergraph, entre otros) para, por consiguiente, redefinir la red o, menos eficazmente, agregando suficientes puntos a lo largo de tales ejes (Única opción disponible en el programa Surfer) sin integración real de las líneas. Esto representa una ventaja considerable con relación a los métodos basados en una triangulación de Delaunay. Al contrario, este método se arriesga al alisar excesivamente la superficie cuando una ausencia local de datos obliga a crear triángulos muy grandes. Además, independientemente del tamaño del triángulo, la

Page 18: Laboratori on 6 Fina 2014 l

varianza interna es modelizada por una superficie lineal, lo que significa un sobre-simplificación de la realidad, incompatible con varios tipos de aplicación.

Imagen n10-metodo de regresión polinomial para ejemplarizar el modelo como tal. La primera foto no está

vectorizada es la 2 la vectorizada en corel. Ejemplo usando el surfer 11 para dar una claridad más exacta con el método del Triangulation with Linear Interpolation

4-¿Qué es geo-referenciar?

La geo-referenciacion es el proceso por el cual dotamos de un sistema de

referencia (coordenadas terreno) a una imagen digital que se encuentra en

coordenadas de píxel (filas y columnas). Este proceso exige una búsqueda de

puntos homólogos entre la imagen y el mapa final. El resultado es

una transformación que supone un escalado, giro y deformación de la imagen

original para adaptarse al mapa final. Su uso principal es la de poner imágenes

raster como referencia de datos vectoriales. Nunca se deberían usar imágenes

georreferenciadas para obtener datos vectoriales por digitalización. Para ello

deberíamos utilizar imágenes ortorectificadas (georreferenciadas y corregidas de

perspectiva cónica mediante la aplicación de un modelo digital de elevaciones). Es

la técnica de posicionamiento espacial de una entidad en una localización

geográfica única y bien definida en un sistema de coordenadas y datum

específicos. Es una operación habitual dentro de los Sistemas de Información

Geográfica (SIG) tanto para objetos ráster (imágenes de mapa de píxeles) como

Page 19: Laboratori on 6 Fina 2014 l

para objetos vectoriales (puntos, líneas, polilíneas y polígonos que representan

objetos físicos).

La georreferenciación es un aspecto fundamental en el análisis de datos

geoespaciales, pues es la base para la correcta localización de la información de

mapa y, por ende, de la adecuada fusión y comparación de datos procedentes de

diferentes sensores en diferentes localizaciones espaciales y temporales. Por

ejemplo, dos entidades georreferenciadas en sistemas de coordenadas diferentes

pueden ser combinables tras una apropiada transformación afín (bien al sistema

de coordenadas del primer objeto, bien al del segundo).

5-Que formatos permiten ser geo-referenciados en Global Mapper?

Las imágenes que permite geo-referenciar son formatos JPG, TIFF, GIF o PNG y los permite guardar como un nuevo archivo.

Compare los dos mapas y explique cuál sería la diferencia si la hay al utilizar los distintos métodos de interpolación.

En los dos mapas pudimos observar que las técnicas Kriging y mínima curvatura proporcionaron resultados similares en la interpolación, sin embargo Kriging aportó los mejores resultados, en este se ven curvas más pronunciadas es decir más explicitas .En el método de mínima curvatura la interpolación no es exacta, pero cerca de la exacta, y está diseñado para asegurar que la cantidad de curvatura de la Superficie pueda ser lo más pequeña posible, además de ser continua, la superficie no tiene picos, no se presenta cambios de pendiente y posee la mínima curvatura, mientras que el método de kriging es exacto con un porcentaje mínimo e incluso nulo de error.

Page 20: Laboratori on 6 Fina 2014 l

Mapa n1 kringing

Mapa n 1 mínima curvatura

Page 21: Laboratori on 6 Fina 2014 l

Mapa n2 kringing

Mapa n2 método mínima curvatura

Page 22: Laboratori on 6 Fina 2014 l

Webgrafia:

http://www.gisits.com/docs/Interpolacion_espacial.PDF http://www.geocities.ws/datos_universidad/MNumericos/

AjusteDeCurvas.pdf http://fcaglp.fcaglp.unlp.edu.ar/referenciacion/index.php?

title=Generaci%C3%B3n_y_uso_de_mallas&redirect=no http://sigmcalispa.files.wordpress.com/2013/01/10-5-anc3a1lisis-

espacial_interpolacic3b3n_metodos_pt21.pdf http://help.arcgis.com/es/arcgisdesktop/10.0/help/index.html#//

009z00000076000000 https://es.scribd.com/doc/97965336/Interpolacion