Q Tesis SIE Hac Anexoa - urbanismo

download Q Tesis SIE Hac Anexoa - urbanismo

of 16

description

teoría de los juegos. En busca de la ecología de la forma. ecología urbana y criterios de sostenibilidad.arquitetura urbanismo, teorias.

Transcript of Q Tesis SIE Hac Anexoa - urbanismo

  • ANEXO A

    CONCEPTOS

    OPERATIVOS

    ANNEX A

    OPERATIVE CONCEPTS

    ANEXO A

    MANUEL JOS SIERRA HERNNDEZ

    371

  • El presente anexo trata de una exposicin resumida y concisa de

    los conceptos operativos que en este trabajo se utilizan.

    Principalmente, son los siguientes:

    - Teora de la informacin o de la comunicacin.

    - Valores discretos y valores continuos.

    - Lgica difusa.

    - Teora de juegos.

    - Teora de la complejidad computacional.

    - Incompletitud.

    1. A Mathematical Theory of Communication [1]

    El artculo que da ttulo a este punto, fue publicado en 1948 en la

    revista The Bell System Technical Journal por el ingeniero

    elctrico y matemtico estadounidense Claude Elwood Shannon.

    Aunque algunas de las leyes matemticas en l descritas ya fueron

    presentadas veinte aos atrs por Hartley, uno de sus colegas en

    los laboratorios Bell, y sus planteamientos tericos introducidos

    por varios autores, es en este artculo donde por primera vez se

    fundamenta el hecho que si la nocin de comunicacin se puede

    entender como todos aquellos procedimientos mediante los

    cuales una mente puede influir en otra [2], entonces, adems de

    atender en el comunicado a la componente semntica (cmo se

    estructura para dar significado) o pragmtica (las modificaciones

    en la conducta que el mensaje produce), tendramos que

    preguntarnos adems por el procedimiento de transmisin entre el

    emisor y el receptor. En otras palabras, los aspectos tcnicos del

    comunicado. No porque se hable o se intente comunicar algo toda

    la informacin puede ser comprendida o interceptada por el

    receptor; si el canal se halla contaminado por ruido de otra

    procedencia, o si el propio emisor ofrece informacin de ms, el

    sentido podra incluso perderse, tornarse confuso. La

    comunicacin, de repente, pasa a ser algo susceptible de ser

    imperfecto. Para ello, el propsito inicial de la Teora de la

    Comunicacin, o de la Informacin, supuso el ser un intento de

    modelizar matemticamente los problemas que los incipientes

    medios de informacin en pleno desarrollo (la radio, la televisin, el

    telfono, etc.) planteaban. En este contexto, las preguntas a las

    que este modelo tena que responder eran las siguientes: Cul es

    la capacidad de carga de un determinado medio o canal?, Qu

    medio es el mejor para reproducir un determinado tipo de

    mensaje? y cmo separar las distorsiones, el ruido, la informacin

    de ms, del mensaje? Con estas premisas, haba que conformar

    una metodologa que permitiera computar, hacer cuantificable, la

    capacidad del canal, el ruido del canal y la informacin contenida

    en el mensaje.

    Un primer paso para desentramar esta metodologa sera cmo

    conceptualizar la transmisin del mensaje. En un comunicado

    podemos distinguir entre el contenido o lo que se expresa, el

    cdigo que sirve para configurar el mensaje, el modo de

    transmisin, el medio o canal por el que se transmite, y el tiempo

    requerido para la comprensin del contenido. Por ejemplo, un

    poema de Garcilaso, las variantes fonticas del castellano, la voz

    humana, el aire de una sala, y a la par que se pronuncia el poema.

    ANEXO A

    373

    This annex contains a brief exposition of the

    operative concepts that mainly have been used:

    - Theory of Communication or of

    Information

    - Computational Complexity Theory

    - Discrete and Continuous Mathematics

    - Fuzzy Logic

    - Game Theory

    - Incompleteness

    1. A Mathematical Theory of Communication [1]

    In the study of the communication there is a

    semantic perspective (how the language is

    structured to produce meanings) and there is

    also a pragmatic one (the effect that the

    communication produces in the receiver). It

    should also have a technical perspective, we

    would have to wonder about the transmission

    method between an originator and a receiver. It

    is possible that although we emit a message it

    could not arrive to the receiver.

    In 1948, Claude Elwood Shannon

    formulated the Mathematical Theory of

    Communication (or of the information), to

    respond the necessity of studying these technical

    aspects. We need, to communicate a message,

    a system of signs to configure it, a channel to

    transmit it and a method that would be

    compatible with the necessary time that the

    receiver needs to understand the message

    appropriately. The first step would be not to keep

    in mind the meaning of the message, but only

    the signs that are transmitted. We have a group

    of signs with which we can configure infinite

    messages. The quantity of information of the

    message would be the probability that aleatorily,

    with that system of signs, we can configure it.

    For example, a position in a chess board. The

    probability would be of 1/64 because the board

    La teora de la informacin apareci para estudiar

    los aspectos tcnicos de los primeros medios de

    comunicacin. The theory of information appeared

    to study the technical aspects of the first media. Sin

    referencia. Without reference.

  • Una primera conclusin es que, lgicamente, para que se

    transmita el mensaje a travs de un medio, ste tiene que ser

    compatible con el modo de transmisin. La palabra hablada no se

    transmite en el vaco. Por otra parte, el modo de transmisin debe

    ser capaz de formular todos los diferentes matices que puede dar

    de s el cdigo. Y en tercer lugar, el contenido tiene que poder ser

    construido con ese cdigo. Con estas relaciones obtenemos que

    un mensaje es susceptible de ser enviado si su contenido es

    codificable, toda la variedad de matices de ste es abordable por

    el modo de transmisin, su naturaleza es compatible con el medio

    o canal, y el tiempo requerido para su transmisin es el correcto.

    Un segundo paso consistira en tratar de reducir todas estas

    variables. Si la naturaleza del modo de transmisin es compatible

    con el medio o canal entonces pueden simplificarse a una sola: el

    canal. Y, modificando el orden entre el contenido y el cdigo,

    quizs resultase mejor si en vez de partir de un contenido

    especfico del mensaje, pensar que ese sistema de codificacin,

    aparte de poder generar ese comunicado en concreto, es capaz de

    hacerlo con otros muchos. De este modo, resulta mucho ms

    prctico trabajar con todos los contenidos posibles que con uno

    solo, contemplar la comunicacin ms que como la transmisin de

    un contenido como la transmisin de un grado de libertad, que se

    caracterizara por esa esta variedad de mensajes posibles. Por

    ejemplo, si cada colocacin en un tablero de ajedrez fuera un

    mensaje, el nmero sera igual a sesenta y cuatro posibles

    colocaciones.

    Aunque, no es que se elimine el poder trabajar con un

    contenido en concreto, sino que lo que se hace es relacionarlo con

    ese grado de libertad. Se introduce el concepto de cantidad de

    informacin de un mensaje y se introduce como la probabilidad

    [3] o incertidumbre de que aleatoriamente se pueda formular ese

    contenido mediante ese cdigo. En un tablero de ajedrez,

    siguiendo con el ejemplo, existe una probabilidad, o incertidumbre,

    de uno contra 64 (o 6 bits de informacin, como se explica ms

    adelante) de que aleatoriamente se opte por una colocacin

    concreta. En mensajes ms complicados como escribir una

    palabra, la incertidumbre se multiplicara por la eleccin de cada

    letra (con cada paso la informacin o grado de libertad es de 28

    posibles caracteres).

    Un tercer paso sera ya definir cmo computar la informacin. Esto

    se realiza a travs de una unidad de medida, el bit de informacin,

    que se puede definir como el nmero de preguntas con una

    cantidad de respuestas posibles fija que seran necesarias para

    distinguir un mensaje en concreto dentro del grado de libertad.

    Normalmente, el nmero de respuestas fijas es de dos: s/no,

    blanco/negro, 0/1, etc., obteniendo as un cdigo binario. Ahora

    bien, si entendemos que cada una de estas preguntas reduce a la

    mitad los posibles mensajes, entonces no habr dificultades a la

    hora de catalogar que si la cantidad de informacin de un

    comunicado es de 6 bits, no es que haya (2x6) 12 posibles

    mensajes esperando a ser utilizados, sino 64 (2 elevado a 6). Por lo

    tanto, para calcular la cantidad de informacin de un comunicado,

    la frmula sera log

    2

    A (logaritmo en base 2 de A), siendo A el

    nmero de posibles contenidos que se pudieran enviar.

    Con esto ltimo ya podemos saber la cantidad de

    informacin de un comunicado, no obstante necesitaramos de una

    ANEXO A

    374

    has 64 cells.

    The measure unit is the bit. The bit is

    defined as the number of questions with a finite

    number of answers that would be necessary to

    configure the message. That number of answers

    is usually two (yes/no, white/black, 0/1.)

    obtaining this way a binary system. Every time

    we formulate a question we reduce the number

    of possibilities in half, therefore if in a chess

    board we have 64 possible placements, the

    number of questions or of bits it is log

    2

    64 = 6.

    The following step would be to define

    the necessary time to transmit the message. We

    have a transmission channel. The capacity of the

    channel is the number of signs that is able to

    transmit for unit of time multiplied for the variety

    of signs with which it configures the message.

    For example, a channel that only transmits 0 and

    1 and whose transmission speed is of 6 signs

    per second. Its capacity would be of 1bit x 6 = 6

    bits/s. This channel would take one second in

    transmitting a position in a chess board.

    Nevertheless, let us imagine that we

    want to transmit a video. They are twenty-four

    images per second, each picture is made up of

    100 pixels, and 256 tonalities exist. The previous

    channel of 6 bits/s would take 400 seconds in

    transmitting a single picture. If we are patient this

    transmission speed is correct. But, what happens

    if we want to see the video on real time? This

    transmission speed is insufficient. The

    appropriate channel is that that can transmit the

    message in the time that we want.

    Now then, the quantity of information

    can decrease. If in the message exists signs that

    are more usual than others, we understand that

    there is a redundancy of that sign. This way, the

    probability to conform a message aleatorily is

    smaller since we know that this sign is more

    usual.

    However, the quantity of information of a

    message can also increase. We have a channel,

    and through it the information that we want to

    transmit is transmitted, but at the same time,

    without realizing, another class of information

    64 posibles colocaciones igual a 6 bits de

    informacin. 64 cells equal to 6 bits of information.

    Malfada, de Quino.

  • quinta variable, el tiempo requerido, para analizar su inteligibilidad,

    o mejor dicho, su adecuacin o fidelidad de reproduccin en un

    determinado canal. Por ejemplo, intentando dar respuesta a una de

    las preguntas que al principio se sealaron: cul es la capacidad

    de transmisin de un canal? En ausencia de ruido, si el nmero de

    caracteres diferentes que contiene el sistema de codificacin es de

    32 (5 bits), y el nmero de estos caracteres que puede enviar por

    segundo, o representar simultneamente, es de N, entonces la

    capacidad del canal es de 5xN bits/segundo o 5xN bits

    simultneos. Esto conectara con otra pregunta: qu medio es el

    mejor para reproducir un determinado tipo de mensaje? Aquel que

    permita combinar la reproduccin de la cantidad de informacin

    del mensaje con el tiempo o espacio que se estimara necesario

    para que el contenido adquiera sentido. Siguiendo con el ejemplo

    del tablero de ajedrez, con 64 posibles situaciones, si en el anterior

    medio o canal 5xN bits, N es igual a 1, entonces se tardaran dos

    segundos en enviar un mensaje. Esto en principio parece viable,

    pero imaginemos que en vez de la colocacin de una ficha en un

    tablero de ajedrez, se enva una grabacin de video de 8 bits de

    color (256 tonalidades diferentes). Podemos enviar la imagen por

    este canal? S, igualmente. Incluso se podra enviar dicha imagen a

    travs de un cdigo morse, con seales largas y cortas que

    funcionan como ceros y unos que codifiquen cada una de las

    tonalidades. Otra cuestin es si se pretende que el receptor

    contemple la imagen a tiempo real a la vez que la enva el emisor.

    Tenemos un canal de 5 bits por segundo, para una grabacin de 8

    bits multiplicada por el tamao de la imagen y por el nmero de

    imgenes por segundo que requiere para simular el movimiento.

    Resultara del todo insuficiente. Para ver la imagen con estos

    requisitos de tiempo necesitaramos una capacidad al menos igual

    o superior que la que dicha imagen necesita. A este requerimiento

    de bits de informacin en el tiempo o de manera simultnea, se le

    llama tasa de transmisin, un nmero que relaciona la cantidad de

    informacin del mensaje y el tiempo que se requiere para su

    transmisin.

    Ahora bien, la cantidad de informacin de un mensaje puede

    reducirse si se hiciera constar las repeticiones o la redundancia

    que dentro de su contenido tienen determinados fragmentos de

    cdigo. Dicho de otro modo, si se repiten palabras, o se repiten

    posiciones, o existe un determinado reglamento, por ejemplo de

    tipo ortogrfico, entonces la probabilidad de que un mensaje se

    conforme aleatoriamente bajo dichas reglas, es mayor que si no

    existiese dicha redundancia en los contenidos, y por tanto la

    cantidad de informacin es menor. Por ejemplo, en una situacin

    de inicio de partida de ajedrez, la colocacin de la reina se reduce

    a un bit de informacin (dos posiciones a un lado y al otro del

    tablero), la de los alfiles, los caballos y las torres, a dos bits, y la de

    los peones a cuatro bits. No obstante, si decidimos que slo nos

    incumbe la posicin de los peones negros, la informacin se

    reduce a tres bits, y que un pen negro es indistinguible de otro

    pen negro, entonces a medio bit: cualquier posicin de la

    segunda fila del lado de las negras.

    No obstante, el contenido del mensaje tambin puede

    aumentar la informacin. Cambiando de ejemplo, si tuviramos

    que responder a la pregunta acerca del da del ao en el que naci

    una persona, en principio variaramos sobre 365 posibilidades (o

    dicho de otro modo, 8.51 bits de informacin). Si a esta pregunta

    ANEXO A

    375

    could be transmitted. This information is added

    to the message, the quantity of information of the

    same one increases, and it would be possible

    under these conditions that the channel cannot

    transmit the message in the time that it requires.

    This excess of information is denominated

    noise.

    Finally, to conclude with this point, it is

    necessary to introduce the formula that Shannon

    proposed for the computation of the information:

    H = P

    i

    log

    2

    (1/P

    i

    ); P

    i

    es la

    probabilidad de encontrar un

    determinado signo dentro del mensaje.

    Pi is the probability of finding a certain

    sign inside the message.

    2. Computational Complexity

    The purpose of this point is to introduce the

    algorithm concept, mainly from the point of view

    of its effectiveness. The algorithmic, or

    computational, complexity is the discipline that

    studies these circumstances.

    An algorithm is a process constituted by a series

    of steps by which it negotiates an input and

    obtains an output. This number of steps must be

    finite. Besides, each step must be perfectly

    defined and to offer precise results. These steps,

    and the memory that they need, in other words,

    the resources that the algorithm needs,

    constitute the computational complexity of the

    algorithm. An algorithm is more effective than

    other if for the same operation, its complexity, the

    Diseo de John Maeda. Maeda es autor de una

    buena parte de los emoticones y otros elementos

    que a menudo vemos por Internet y que por s

    solos son capaces de comunicar un mensaje

    integrado proveniente de ms all de la propia

    imagen. Para recibir un mensaje, necesitaramos

    un programa cuya capacidad de memorizacin de

    emoticones fuera al menos igual o superior que la

    que dicho mensaje necesita. Design of John

    Maeda. Maeda is author of a big part of the

    emoticons and other elements that we often see for

    Internet and that are able to conform a message by

    themselves. To receive a message, we would need

    a program whose capacity of memorization of

    emoticons would be at least the same or bigger that

    the one that the message needs. MAEDA, J. (2006)

    Las leyes de la simplicidad. Editorial Gedisa,

    Barcelona, 2007.

  • resolviramos con la afirmacin naci en verano, entonces

    reduciramos a la mitad (puesto que no sabemos si naci en el

    hemisferio norte o sur), y el nmero de posibilidades sera

    aproximadamente de 182 (7.51 bits). No obstante, podra suceder

    lo contrario: que propongamos la afirmacin dicha persona tiene

    ms de cuarenta aos. Se trata de informacin, pero no es la que

    buscamos para reducir o para desentramar el mensaje. Sin

    embargo, se aade a l, es una posibilidad ms que la

    comunicacin contiene, por lo que el nmero de mensajes

    posibles se amplia: existen 365 das en los que esa persona ha

    podido nacer y aparte puede tener ms o menos de cuarenta aos.

    El nmero de posibilidades se acrecienta, a 730, siendo el nmero

    de bits de informacin de 9.51.

    Por un lado se puede opinar que este bit de ms acrecienta

    el grado de libertad del comunicado, el nmero de posibilidades.

    Por tanto, la flexibilidad que el emisor presenta a la hora de

    expresar sus intenciones. Sin embargo, tiende a confundir el

    objetivo del comunicado, que es averiguar el da del ao en que

    naci esa persona. No es informacin relevante en el mensaje,

    pero se acopla a l. Introduce incertidumbre, pero si el saber que

    contamos con 365 das es una incertidumbre deseada, en este

    caso la incertidumbre no es deseada. En definitiva, este tipo de

    informacin irrelevante es lo que se denomina ruido, datos,

    interferencias, informacin de ms, que al aumentar la cantidad de

    informacin disminuye la probabilidad de conformacin del

    mensaje, de tal modo que ste, dependiendo del canal, de la tasa

    de transmisin necesaria para que se reproduzca de un modo

    coherente, pudiera incluso no llegar a codificarse, transmitirse e

    interpretarse adecuadamente [4]. El aumento de la incertidumbre y

    la capacidad del canal influye en la transmisin del mensaje:

    demasiada informacin que necesita transmitirse en muy poco

    tiempo dificulta la fidelidad y la inteligibilidad del mismo.

    Es en este punto donde entra la resolucin de la tercera cuestin:

    cmo separar las distorsiones, el ruido, la informacin de ms, del

    mensaje? Para ello, es necesario introducir el concepto de entropa

    (H). La entropa mide la aleatoriedad de un mensaje, es decir, es

    bastante similar al concepto de probabilidad excepto que se mide

    en bits de informacin. Su formulacin es la siguiente:

    H = P

    i

    log

    2

    (1/P

    i

    );

    P es la probabilidad en tanto por uno de sucederse cada uno de

    los smbolos de un mensaje. Si por ejemplo dispusiramos cuatro

    signos que se interpretan como estados del tiempo (nublado,

    soleado, lluvioso, niebla) y los asociramos a cada uno con una

    probabilidad de sucederse, entonces la entropa medira la

    capacidad de poder predecir el siguiente estado de una manera

    aleatoria. Si el valor de la entropa fuera alto significara que todos

    los estados tienen probabilidades parecidas de sucederse por lo

    que sera difcil la prediccin. Si en cambio fuera bajo eso querra

    decir que habra valores con distintas probabilidades por lo que

    resultara ms fcil discretizar entre los mismos. De este modo,

    siguiendo este concepto de la entropa, la separacin del ruido del

    mensaje respecto de lo que en realidad interesa se realizara

    mediante la aplicacin de teoremas (de los cuales no creo que sea

    el tema de este trabajo el entrar a fondo a analizarlos) cuyo objeto,

    ANEXO A

    376

    resources that it needs, is smaller.

    For example, you can distinguish

    between space and temporary complexity. The

    space complexity is the memory that the

    algorithm requires. But let us stop better in the

    other complexity. The temporary complexity is

    defined as the necessary number of steps for a

    certain operation. The nomenclature is T (n),

    being n the number of steps. Depending on

    this number the algorithms can be classified in

    complexity classes:

    - O(1), constant complexity class.

    - O(log n), logarithmic complexity class.

    - O(n), lineal complexity class.

    - O(n log n), quasi-lineal complexity

    class.

    - O(n

    2

    ), square complexity class.

    - O(n

    3

    ), cubil complexity class.

    - O(n

    a

    ), polinomio complexity class.

    - O(2

    n

    ), exponential complexity class.

    - O(n!), factorial complexity class.

    An algorithm to conform a net among n

    elements of a group would be formulated in the

    following way: T (n) = (n

    2

    - n) / 2, a square

    complexity class O(n

    2

    ).

    The previous text corresponds to a brief

    description of the computational complexity

    theory. Also, in this topic, it is convenient to

    speak of the Kolmogorov Complexity. Usually,

    this theory is introduced as an alternative

    information theory to Shannons. Shannon

    describes the quantity of information as the

    probability to conform a message aleatorily.

    Kolmogorov, on the other hand, describes the

    number of steps that would be necessary to

    compose a message.

    For example, we have the two following

    code lines:

    A: 01010101010101010101

    A travs de un registro histrico meteorolgico, la

    entropa sera igual a la probabilidad de predecir

    qu tiempo har maana. Through a historical

    meteorological registration, the entropy would be

    similar to the probability of predicting tomorrow's

    weather. www.inm.es

  • a travs del anlisis de las distintas probabilidades, sera el clculo

    de una entropa media alrededor del cual se disponen los datos

    que interesan para la emisin del mensaje.

    2. Complejidad algortmica.

    El propsito de este punto es introducir el concepto de algoritmo, y

    particularmente desde el punto de vista de su eficacia. La

    complejidad algortmica, que se constituye como una rama de la

    teora de la computacin, es la disciplina que estudia estas

    circunstancias.

    La definicin de un algoritmo se corresponde con la formulacin

    de un proceso o serie de pasos por los cuales se gestiona una

    entrada de datos y se obtiene una salida. Para este cometido, cada

    paso debe estar perfectamente definido, arrojar resultados

    precisos, no indeterminados, y el nmero en total de stos ser una

    cantidad finita. Con esta definicin se considera que un algoritmo

    es ms eficaz que otro si para un mismo tipo de operacin, por

    ejemplo ordenar los elementos de un conjunto desordenado segn

    categoras, el nmero de recursos necesarios es menor. A esta

    cantidad de recursos se le denomina complejidad algortmica o

    computacional, y segn el tipo de recursos se puede distinguir

    entre complejidad temporal, el tiempo empleado, y complejidad

    espacial, la memoria requerida por el suceso.

    Desde el punto de vista de este trabajo, es particularmente

    interesante detenerse en la complejidad temporal. El tiempo

    empleado se halla en relacin con el nmero de pasos, y tambin

    de otros factores como el tipo de mquina empleada, el lenguaje

    de programacin, etc. Esto se escribe con la nomenclatura T(n) ,

    siendo n el nmero de datos de entrada. Para simplificar esto, lo

    que se hace comnmente es independizar al nmero de pasos del

    resto de los factores, y agrupar los diferentes tiempos en familias

    llamadas rdenes de complejidad, de este modo se obtiene una

    serie de familias O que son comunes para todos los

    computadores y con el cual evaluar los algoritmos. Los rdenes de

    complejidad ms habituales, ordenados de mayor a menor

    eficacia, son los siguientes:

    - O(1), orden de complejidad constante.

    - O(log n), orden de complejidad logartmico.

    - O(n), orden de complejidad lineal.

    - O(n log n), orden de complejidad cuasi-lineal.

    - O(n

    2

    ), orden de complejidad cuadrtico.

    - O(n

    3

    ), orden de complejidad cbico.

    - O(n

    a

    ), orden de complejidad polinmico.

    - O(2

    n

    ), orden de complejidad exponencial.

    - O(n!), orden de complejidad factorial.

    Un algoritmo que consista en la seleccin de un elemento

    dentro de un conjunto, contiene una sola operacin, y pertenece a

    un orden de complejidad constante O(1).

    Un algoritmo que consista en un proceso de ordenacin de

    n elementos dentro de un conjunto desordenado en una serie de

    categoras podra requerir para cada elemento de tres operaciones:

    seleccin, identificacin y distribucin, por lo que T(n) = 3n, y

    ANEXO A

    377

    B: 10011010110010110110

    Both sequences, according to Shannon,

    have the same information because the number

    of 0 and 1 is the same. But, according to

    Kolmogorov, that defines the quantity of

    information like the number of bits of the minimum algorithm to conform the sequence, A has less quantity of information than B because it

    can be formulated by the algorithm Repeats 01

    ten times, while B would have to repeat the

    whole sequence. Finally, an operation that

    cannot be solved by any algorithm, you can

    understand that its complexity is infinite.

    3. Discrete and Continuous Mathematics

    The discrete mathematics are those that

    predominantly are used in the matrixes of

    territorial shift. Hence, it is licit to describe on

    what they consist and to differentiate them of

    another type of mathematics as the continuous

    ones.

    The discrete mathematics are those that

    only admit operations with rational and finite

    numbers. The continuous mathematics, on the

    other hand, are those where are possible an

    irrational number as a result.

    In general, the continuous mathematics

    have more precision than the discrete ones since

    they admit a bigger numeric spectrum.

    Nevertheless, when calculating, the continuous

    mathematics we could have big problems. These

    mathematics admit infinite and irrational

    numbers, processes with an infinite number of

    steps. Just as it is contemplated in the previous

    point about the computational complexity, these

    numbers, these processes, cannot be contained

    by any algorithm. In other words, they are not

    computable. This way, the discrete mathematics

    are those that preferably are used in that

    necessity of computability.

    4. Fuzzy sets [2]

    Fuzzy sets were introduced for the first time by

    the Russian mathematician Lofti A. Zadeh in

    1965. Fuzzy Sets appeared as a result of the

    appearance of a logic type that equally was

    denominated as fuzzy.

    Classic logic only admits two answer

    classes: yes/no, true/false, etc. But there are

    considerations that need a bigger number of

    answers, even tending to infinite. For example,

    the next question: is that person tall or not? A

    possible answer would be: Tall with regard to

    what? It doesnt exist an only answer. The

    solution would be to take two reference values

    as a meter and two meters and to consider that a

    person is more or less tall depending if his/her

    height is closer to a value or to the other one.

    This is an example of a fuzzy set that accepts

    infinite solutions. If for the statement: that person

  • entrara dentro de un orden de complejidad lineal O(n).

    Un algoritmo para el establecimiento de conexiones entre

    todas las componentes de un conjunto requerira de T(n) = (n

    2

    n) / 2, y el orden de complejidad que se obtendra sera cuadrtico

    O(n

    2

    ).

    Lo desarrollado hasta ahora se concibe como una breve

    introduccin a la complejidad computacional. Aparte, es lcito

    comentar un punto especfico dentro de ella. La Teora de la

    Complejidad Algortmica fue formulada en 1965 por el matemtico

    ruso Andri Kolmogrov. Usualmente se la contempla como una

    teora de la informacin alternativa a la propuesta por Shannon

    veinte aos atrs. La diferencia consiste en que si la teora de

    Shannon se atiene a la probabilidad con que los distintos smbolos

    o fragmentos de cdigo aparecen en un mensaje, la complejidad

    de Kolmogrov concibe el comunicado como un todo, como una

    secuencia de orden establecido inalterable, y su cometido es

    calcular los pasos necesarios que requerira un algoritmo para

    componer ese mensaje.

    Por ejemplo, tenemos las dos siguientes secuencias binarias:

    A: 01010101010101010101

    B: 10011010110010110110

    Ambas secuencias, por la teora de Shannon, poseen la

    misma cantidad de informacin ya que el nmero de ceros y de

    unos es el mismo. La cuestin difiere con Kolmogrov, que define

    la complejidad de una secuencia como la longitud en bits del

    mnimo algoritmo que es necesario para reproducirla [5]. La

    secuencia A se puede formular con un algoritmo del estilo: Repite

    01 diez veces, mientras que en la secuencia B no se reconoce

    ningn patrn y el mnimo programa tendra que referirse a la

    cadena al completo. De este modo, la complejidad de Kolmogrov

    de B es mayor que la de A. La utilidad de esta teora descansa en

    la posibilidad de comprimir cadenas y de reducir as los recursos

    que una mquina, que una computadora, necesitara para codificar

    la secuencia. Si existe ese mnimo algoritmo, la complejidad de la

    secuencia es la longitud de ese algoritmo. En cambio, si se revela

    la incapacidad de encontrar un algoritmo que formule esa cadena

    entonces la complejidad de Kolmogrov es igual a infinito.

    3. Valores discretos y continuos.

    Las matemticas discretas son las que predominantemente se

    emplea en las matrices de cambio territorial. Por ello, es lcito

    describir en qu consiste y diferenciarlas de otro tipo de

    matemticas como son las continuas.

    Para empezar, es preciso definir una funcin continua como

    aquella en la que sus resultados pueden ser nmeros enteros,

    pero tambin otros que tan slo son una aproximacin hacia algo,

    o un nmero irracional, o incluso que tiende a infinito. El nmero

    dos, por ejemplo, en una funcin continua podra solamente existir

    como lmite hacia el cual tienden las sucesivas operaciones pero

    sin llegar nunca a l; es decir, llegar un momento en el por mucho

    que avancemos en el desarrollo de dicha funcin, lo nico que

    conseguiramos sera expandir la serie peridica de nueves del 1.9,

    ANEXO A

    378

    is tall, one meter is false and two meters true,

    this logic allows us to take infinite intermediate

    values growing the truthfulness of that statement

    in the measure it comes closer to two meters.

    5. Theory of Games and Economic Behavior [3]

    The game theory was outlined per first time by

    mathematicians Morgensten and Von Neumann.

    Its purpose is the analysis of the different

    behaviors that the players attack to achieve an

    objective. To each strategy a result corresponds:

    winner, defeats, tie, balance situation. Inside the

    different situations that can be given in the game

    theory, one of the most well-known models is the

    denominated Nash Equilibrium [4], a situation

    in which all the players have a strategy that

    whenever they don't change it they will obtain a

    minimum gain.

    5.1 Classification of the different types of games.

    Games can be classified in the following way:

    - Symmetric and asymmetric games. The

    symmetrical games are those where the different

    players adopt the same role, or said with other

    words, they can exchange their roles without

    changing the game rules and the results. The

    asymmetric games are those where this

    condition is not possible. For example, the fight

    between a dictator and a rebellious.

    Problema de los puentes de Knigsberg. La teora

    de grafos naci de la pregunta de los habitantes

    de Knigsberg acerca de si se poda, cruzando los

    siete puentes de la ciudad una vez, regresar al

    mismo punto. Euler, en 1736, demostr que no se

    poda. Valores discretos, lo importante no es la

    trama al completo de la ciudad, ni los accidentes

    del ro, ni la distancia entre un puente y otro, tan

    slo la posicin de los puentes con respecto de las

    islas y de los mrgenes. Problem of the bridges of

    Knigsberg. The graphs theory was born from the

    question of the inhabitants of Knigsberg about if

    one could, crossing the seven bridges of the city

    once, to return to the same point. Euler, in 1736,

    demonstrated that this question was impossible.

    Discrete values, the important thing is not the

    complete city, neither the accidents of the river,

    neither the distance among a bridge and other, only

    the position of the bridges with regarding the

    islands.

  • pero jams el valor 2. En definitiva, las matemticas continuas son

    aquellas que admiten que cualquier valor de la linealidad entre

    menos y ms infinito, ambos inclusive, sea susceptible de ser un

    resultado.

    En contra, las matemticas discretas son aquellas que

    nicamente admiten operaciones con nmeros racionales y finitos.

    Al operar nunca obtendremos aproximaciones hacia algo, tan slo

    cantidades y operaciones finitas. Como la misma palabra indica se

    discretiza dentro del amplsimo e infinito panorama del campo

    matemtico continuo. Expresado con un ejemplo cromtico, en

    matemticas discretas trabajaramos con el blanco, el negro, y si

    acaso tres o cuatro tonalidades de grises que hayamos

    preseleccionado. Esto es, un nmero finito de valores. En

    Matemticas continuas en cambio estaramos abiertos a operar

    con infinitos matices de grises intermedios, no necesariamente

    preseleccionados, sin tener que llegar nunca al blanco o al negro.

    Un acercamiento a la relacin entre ambas matemticas se

    podra explicar por medio de la precisin. A priori, el discretizar

    entre la linealidad de los valores continuos, el negar la posibilidad

    de que determinados valores participen o sean resultado de las

    operaciones, aparentemente disminuye la precisin. Slo

    aparentemente. La Teora de la Informacin, por ejemplo, si se

    trabajase con cantidades de informacin que pueden tender a

    infinito contradice la propia necesidad de computabilidad finita de

    la misma; la hace ms compleja de lo que debera de tal manera

    que la incertidumbre es infinita. Del mismo modo, un algoritmo

    debe contar con un nmero de pasos finito porque en caso

    contrario no podra ser introducido en una mquina. En la Teora de

    grafos no se puede trabajar con el territorio completo, con todos

    los matices, con todas las variables y atributos, sino que se

    requiere discretizar puntos dentro de l para despus

    relacionarlos; en caso contrario dichas relaciones tendran que

    pasar por todos las situaciones intermedias, tener en cuenta su

    influencia en cada una de las partculas y atributos, de tal modo

    que la modelizacin se perdera en infinitas operaciones. O la

    pixelizacin de una fotografa, el ordenador no puede desplegar

    hasta el infinito la gama de detalles y de color de la imagen; en

    caso contrario el nmero de bits necesarios para almacenar dicha

    imagen sera infinito y no tendra capacidad para operar con ella. El

    acoger los valores discretos como modo de operar supone trabajar

    con no linealidades, con entidades finitas. Puede suponer una

    reduccin, pero si analizramos por ejemplo un rbol de una

    manera continua, la informacin que obtendramos copara la

    memoria de todos los ordenadores del mundo y an as seguira

    sobrando. Respecto de la Teora de la Informacin, se podra

    afirmar que cuanto la cantidad de informacin ms se acerque a

    infinito, ms nos acercaremos a operar con valores continuos. Pero

    si un mensaje se define por una probabilidad, y sta es

    inversamente proporcional a la cantidad de informacin, entonces

    la probabilidad sera igual a cero, y ese mensaje de ningn modo

    podra ser enviado o generado. De aqu podramos obtener una

    conclusin inesperada: un objeto real o material nunca puede ser

    transmisible, puesto que su cantidad de informacin tiende a

    infinito. Y si la cantidad de informacin tiene que ser finita, la

    informacin entonces puede ser una magnitud fsica cuantificable

    pero se trata de una magnitud fsica necesariamente virtual.

    En conclusin, es razonable pensar que las matemticas

    ANEXO A

    379

    - Games of zero sum and non zero sum. The

    games of zero sum are those where the sum of

    the playerss losses and earnings is equal to

    zero. That is to say, one player only can win

    whenever the other player loses, and the

    quantity of what he/she obtains is similar to what

    his/her litigant loses.

    - Cooperative and not cooperative games.

    Cooperative games are those where the different

    players collaborate to get a result.

    - Simultaneous and sequential games. The

    simultaneous games are those where the players

    don't know information of the previous

    movements of the other litigants. The sequential

    games, in the other hand, are those where the

    players know part of the previous steps of the

    rest of the competitors, or all the steps as in the

    games of perfect information.

    - Finally, infinitely long games. It doesnt exist a

    final result and the interesting thing in these

    games is to value the strategic position of every

    player in order to confront the future challenges.

    6. Incompleteness

    For incompleteness it is understood in

    mathematics the impossibility of consolidating a

    only perfect formal language, built by a series of

    rules, starting from those you are able to

    formulate all the propositions and theorems of

    this discipline. This matter presents a great

    transcendency nowadays as soon as the

    confirmation of this incompleteness indicates that

    it is possible to find certain problems, certain

    propositions that at least with the help of the

    computers wont never be solved.

    In 1931, Kurt Gdel demonstrated [5] that this

    formal language can not exist, there are

    propositions that can not be outlined by a group

    of rules, even in elementary mathematics using

    natural numbers.

    Not very later, Turing demonstrated that

    there were certain operations that can not be

    resolved by an algorithm. As the problem of the

    detention, to know when an algorithm stops

    working when it has obtained a result.

    Lastly, the computational complexity

    indicates us that an algorithm is more efficient

    than other if, for the same operation, the number

    of resources is smaller. Nevertheless, one

    cannot know if that algorithm is the most efficient

    that you can formulate.

    [1] SHANNON, C. E. (1948) A Mathematical Theory of Communication. Published in The Bell System Technical Journal. Vol. 27, PP. 379.423, 623.656, July-

    October, 1948.

    [2] ZADEH, L. (1965) Fuzzy sets. Information and Control 8, Pgs. 338-353, University of Berkeley, 1965.

  • continuas presentan una mayor precisin que las discretas, pero

    en cuanto se refieren a objetos virtuales finitos, las matemticas

    discretas resultan ser ms precisas que las continuas.

    4. Fuzzy sets [6]

    Fuzz es una palabra inglesa que se puede traducir como tamo,

    pelusa, vello [7]. En este sentido, se puede hablar de Fuzzy como

    lleno de pelusas, nebuloso, borroso. Finalmente, Fuzzy Sets

    como establecimientos o conjuntos difusos.

    Los conjuntos difusos fueron introducidos por primera vez

    por el matemtico ruso Lofti A. Zadeh en 1965, en su artculo Fuzzy

    Sets, publicado por el departamento de publicaciones de la

    Universidad de Berkeley en Estados Unidos. Los conjuntos difusos

    aparecen como la expresin de la resolucin de un determinado

    modelo de lgica que igualmente responde bajo el adjetivo de

    difusa, borrosa o nebulosa (fuzzy). Fuzzy en cuanto que no ofrece

    resultados concretos, o mejor dicho, que trata de preguntas cuyas

    respuestas no tienen una definicin clara.

    Por ejemplo, la lgica clsica o bivaluada (dos valores) slo

    presenta dos clases de respuestas: verdadero o falso, 0 o 1,

    blanco o negro, etc. La respuesta a la pregunta si los hombres son

    mortales es verdadero; si la pregunta consistiera en si la sangre es

    prpura la respuesta sera falso. Ahora bien, qu pasara si la

    pregunta fuese del tipo si esa persona que vemos en frente nuestra

    es alta? Primero, alta con respecto a qu? Y segundo: si acaso

    esa persona se la considerase alta, no podra existir otra todava

    ms alta? La lgica difusa (o multivaluada porque permite mltiples

    respuestas) dara solucin a esta disyuntiva proponiendo unos

    valores de referencia entre los cuales puede incluirse la medida de

    la altura de esa persona. Si un metro es bajo (0), y dos alto (1), esa

    persona se la considerara ms o menos alta en funcin de su

    cercana a los valores de un metro y dos metros. Si midiera 1.75,

    entonces el valor de su altura perteneciente al conjunto difuso

    entre 0 y 1 sera de 0.75. Dicho de otro modo, si 0 es falso y si 1

    fuera verdadero, la veracidad de una afirmacin crecera con

    respecto se acercase a 1.

    Esto es, no existen nicamente dos posibles respuestas,

    sino infinitas entre los valores de 0 y 1. Si comparramos con lo

    que comentamos en el anterior apartado acerca de valores

    discretos y valores continuos, la lgica clsica o bivaluada

    pertenecera al mbito de las matemticas discretas; en oposicin,

    la lgica difusa se acercara ms a los valores continuos. No

    obstante, hay que hacer aqu una aclaracin. Los conjuntos difusos

    surgen de una discretizacin de la linealidad en un solo intervalo.

    Funcionan porque se ha acotado el campo continuo. Si en la teora

    de la informacin el nmero de posibles mensajes que se pueden

    enviar debe ser finito precisamente para que pueda ser enviado, en

    la lgica difusa se permite trabajar con un infinito nmero de

    posibilidades siempre que se hallen acotadas por los lmites de

    verdadero/falso, 0/1, blanco/negro, alto/bajo, etc. Dicho de otro

    modo, con la lgica difusa se podra conseguir el extender cada bit

    de informacin a un infinito nmero de valores. O al revs, acotar

    infinitos valores en un solo bit de informacin.

    Por otra parte, la lgica difusa tambin permite operar con

    magnitudes y respuestas intermedias. Por ejemplo, con una lgica

    ANEXO A

    380

    [3] MORGENSTERN, O.; NEUMANN, J. V. (1947)

    Theory of Games and Economic Behavior. Princeton University Press.

    [4] NASH, J. F. (1950) Equilibrium points in n-person games. Proceedings of the National Academy of the USA.

    [5] NAGEL, E.; NEWMAN, J. R. (1958) Gdels Proof. Routledge, New York, 2005.

    Get Fuzzy, de Darby Conley. Las relaciones entre

    un perro y un gato no se limitan a una lgica

    bivaluada entre el perro no persigue al gato y el

    perro persigue al gato, hay que tener en cuenta

    las infinitas posibilidades intermedias. Get Fuzzy, of

    Darby Conley. The relationships between a dog and

    a cat are not limited to a dual logic between the

    dog it doesn't pursue the cat and the dog pursues

    the cat, it is necessary to keep in mind the infinite

    intermediate possibilities. CONLEY, D. (2002) Get

    fuzzy (A contrapelo n2); Logica Difuzza. Astiberri

    Ediciones, Bilbao, 2007.

  • bivaluada o es todo (verdadero) o es nada (falso). Con la lgica

    difusa lo que obtenemos es un nivel de respuestas acorde con la

    magnitud de la entrada. Si el grado de veracidad de una

    proposicin es tal, el modo de actuar a continuacin deber ser en

    consecuencia y proporcional a tal. Esto se puede ver en las

    diferencias que Fredric Jameson [8] seala entre el fordismo y el

    postfordismo. Si en los principios de las cadenas de montaje, el

    consumidor poda elegir entre el Ford T negro, y el Ford T gris (o

    blanco o negro, o verdadero o falso, o alto o bajo, etc.), la industria

    fue evolucionado hacia lo que hoy llamamos postfordismo, el cual,

    basndose en las tecnologas de la informacin, no es que el

    consumidor haya de elegir entre el modelo negro o el gris, sino

    que la industria acoge sus preferencias de color, textura, tamao,

    peso, prestancia, etc., y le confiere al consumidor un coche a su

    medida (a cada valor dentro de intervalo corresponde una

    determinada y caracterstica respuesta; infinitos valores, infinitas

    respuestas).

    Otra aplicacin de la lgica difusa es aquella que se emplea

    en control de sistemas complejos. Por ejemplo, un aire

    acondicionado con un sensor de temperatura ambiente. Si

    estuviera programado para encenderse cuando la temperatura

    fuera mayor de 25C, con una lgica bivaluada, o blanco o negro,

    si dicha temperatura se hallase oscilando entre 24.5 y 25.5, el

    aparato estara apagndose y encendindose continuamente, con

    el consiguiente costo de energa, desgaste de la tecnologa, etc.

    Con la lgica difusa lo que se hara es formalizar una nube de

    puntos, tomar las sucesivas oscilaciones de temperatura entre

    dichos valores y realizar como un clculo de la entropa de la

    probabilidad de que se sucedan dichos valores. Dicho con otras

    palabras, se obtendra el centro de gravedad o de inercia de dicha

    nube de valores, y dependiendo de su valor se apagara o se

    encendera. De este modo el funcionamiento del aparato sera

    mucho ms estable y consecuente con la realidad del ambiente, o

    al menos mucho ms flexible ante sus cambios.

    Finalmente, para terminar con este apartado, responder a la

    cuestin: cundo es conveniente usar sistemas que empleen

    lgica fuzzy o difusa? [9]:

    - En procesos complejos, si no existe un modelo de solucin

    sencillo.

    - En procesos no lineales.

    - Cuando haya que introducir la experiencia de un operador

    experto que se base en conceptos imprecisos obtenidos

    de su experiencia.

    - Cuando ciertas partes del sistema a controlar son

    desconocidas y no pueden medirse de forma fiable (con

    errores posibles).

    - Cuando el ajuste de una variable puede producir el

    desajuste de otras.

    - En general, cuando se quieran representar y operar con

    conceptos que tengan imprecisin o incertidumbre (como en

    las Bases de Datos Difusas).

    Actualmente las tecnologas fuzzy o borrosas se emplean en:

    - Control de sistemas: trfico terrestre, trfico areo

    ANEXO A

    381

    Henry Ford en un Ford T, 1917. Henry Ford drivinf a

    Ford T, 1917.

  • (helicpteros...), compuertas en plantas hidroelctricas,

    centrales trmicas, mquinas lavadoras, ascensores,...

    - Prediccin y optimizacin: Prediccin de terremotos,

    optimizar horarios,...

    - Reconocimiento de patrones y Visin por ordenador:

    Seguimiento de objetos con cmara, reconocimiento de

    escritura manuscrita, reconocimiento de objetos,

    compensacin de vibraciones en la cmara,

    - Sistemas de informacin o conocimiento: Bases de datos,

    - Inteligencia artificial.

    5. Theory of Games and Economic Behavior [10]

    La Teora de Juegos naci de la mano de los matemticos John

    von Neumann y Oskar Morgenstern en 1947 para explicar y

    desarrollar comportamientos en los procesos econmicos, aunque

    posteriormente se aplic a campos tan diversos como la biologa o

    la filosofa. Los modelos que se estudian son procesos que

    contienen a los personajes, los denominados juegos, donde cada

    entidad dentro de l, como jugador, desarrolla un rol y un

    comportamiento. Su funcionamiento se basa en el nmero de

    posibles acciones, de combinaciones de acciones, de estrategias,

    que los jugadores puedan plantear en la formulacin del juego, y a

    cada combinacin se le asocia un resultado de acuerdo con la

    obtencin de una ganancia: victoria, derrota, empate, situacin de

    desequilibrio, etc.

    Con esta lgica de partida, la teora de juegos es fcilmente

    complementable. Si utilizramos conjuntos difusos aplicados al

    juego, aparte de las situaciones de victoria o derrota, se podra

    trabajar con los mltiples estados intermedios entre la victoria y la

    derrota de cada uno de los jugadores. O, si aplicramos la teora

    de la informacin aqu, concibiendo que cada combinacin de

    acciones o estrategia se viera como un posible mensaje,

    podramos utilizar los conceptos de entropa y de redundancia, con

    la suposicin de que las estrategias con mayor garanta de xito

    son las que ms redundancia tienen, para predecir cules

    comportamientos o acciones son ms probables a acometer.

    De este modo, ahora podramos hablar del equilibrio de

    Nash [11] como una situacin hipottica dentro de la Teora de

    Juegos en la que todos los jugadores que se enfrentan a una

    situacin tienden de una manera natural y autoorganizada a

    adoptar una serie de estrategias en la que todos y cada uno sin

    excepcin obtienen la victoria siempre y cuando no varen su

    estrategia (por ello equilibrio). Esto se podra explicar con el

    dilema del prisionero, uno de los modelos de interaccin ms

    famosos de la teora de juegos. En el dilema del prisionero se narra

    la situacin de dos presos que han participado conjuntamente en

    un delito grave pero que han sido capturados por otro delito

    menor. La polica los encierra en celdas separadas sin contacto

    entre ellas y se dispone a interrogar a cada uno de los presos, y

    dependiendo de esta confesin la pena de crcel ser una u otra.

    En esta situacin a los jugadores se les presenta dos estrategias a

    seguir: o confesar que fue el otro nicamente quien cometi el

    delito grave (esto es, traicionar), o no decir nada (mantenerse fiel).

    Imaginemos unas ganancias para cada accin: si los dos

    jugadores se traicionan mutuamente, cada uno obtiene una pena

    ANEXO A

    382

    En la teora de juegos la informacin se gestiona

    en funcin de los resultados, de tal modo que cada

    combinacin o eleccin de acciones no es un

    mensaje sino una estrategia, y los jugadores

    tendern a acoger esa estrategia que les permita

    obtener una situacin ms cercana a la victoria. In

    the game theory the information is negotiated in

    function of the results, in such a way that each

    combination or election of actions is not a message

    but a strategy, and the players will tend to those

    strategies that allow them to obtain a nearer

    situation to the victory. GOYA, F. (1920-1923) Duelo

    a garrotazos.

  • de crcel de diez aos; si ambos se mantienen fieles, cuatro aos;

    y si slo uno traiciona al otro ste obtendr dos aos de crcel y su

    compaero diez. Por supuesto, aqu cuanto menor es la pena

    mejor es el resultado, por lo que es probable que uno de los dos

    traicionase al otro. Pero si el jugador contrario hace lo mismo

    entonces sucede que ambos son castigados a la pena ms alta.

    Entonces, el planteamiento de Nash informara que la situacin a la

    que se tendera es que ambos decidieran mantenerse fieles y as

    obtener una ganancia intermedia, y seguiran obteniendo esta

    ganancia siempre que no decidiesen cambiar de estrategia.

    5.1 Clasificacin de los distintos tipos de juegos:

    Dentro de la Teora de Juegos se han desarrollado distintas

    maneras de clasificar y categorizar a los mismos. Entre ellas

    conviene destacar las siguientes clasificaciones entre juegos

    simtricos y asimtricos, de suma cero y de suma no cero,

    cooperativos y no cooperativos, simultneos y secuenciales.

    - Los juegos simtricos son aquellos en los que los personajes

    pueden intercambiar sus papeles sin que las combinaciones de

    acciones o las posibles ganancias se modifiquen. Un ejemplo lo

    tenemos en el dilema del prisionero explicado anteriormente por el

    que cualquiera de los prisioneros puede tomar el rol del otro. Son

    indistinguibles. En cambio, en un juego asimtrico esto no sucede;

    si tomamos como referencia la relacin entre el dictador y el

    revolucionario, el revolucionario no puede tomar el rol del dictador

    sin que sus posibles acciones o las ganancias que pueda obtener

    se mantengan impertrritas.

    - Los juegos de suma cero son aquellos en los que la suma total de

    las recompensas obtenidas por los diferentes jugadores es igual a

    0. Es decir, necesariamente la ganancia positiva de un jugador

    repercute en que la ganancia de otro ha de ser negativa. Por

    ejemplo, el ajedrez. La victoria se computa con 1, la derrota con -1,

    y las tablas con 0. El empate no beneficia a ninguno de los dos

    contendientes, para obtener un resultado positivo hay que ganar a

    costa del despropsito del otro. En cambio, un juego de suma no

    cero sera aquel en el que existe una posibilidad por la cual si un

    jugador obtiene una ganancia positiva, sus contrincantes no por

    ello su ganancia ha de ser negativa. El ejemplo lo tenemos en el

    propio dilema del prisionero, o en la liga de ftbol donde un

    empate proporciona un punto respecto al valor 0 de la derrota.

    - La diferencia entre juegos cooperativos y no cooperativos es que

    en los primeros los jugadores no compiten, sino que anan sus

    esfuerzos hacia un fin comn, siendo la derrota o la victoria una

    ganancia de grupo. En este tipo de juegos, por tanto, lo importante

    es el anlisis de las estrategias que cada uno de los jugadores

    puede tomar hacia un fin comn.

    - Los juegos simultneos son aquellos en los que cada jugador no

    conoce los movimientos previos de otros jugadores, de este modo

    es como si decidieran sus acciones a la vez. Por ejemplo, el dilema

    del prisionero. En cambio, en los secuenciales (tambin llamados

    dinmicos), cada jugador cuenta con algo de informacin acerca

    de los movimientos anteriores del otro, como en el ajedrez.

    ANEXO A

    383

  • Dentro de los secuenciales cabe distinguir los denominados

    juegos de informacin perfecta. En ellos cada uno de los jugadores

    conoce la totalidad de las posibles estrategias, posibles ganancias,

    as como las acciones que ha acometido cada jugador a lo largo

    de la partida. De este modo, podramos comparar este tipo de

    juegos con lo que se coment respecto de la teora de la

    informacin respecto a que la redundancia en el mensaje puede

    reducir la informacin o aumentar la probabilidad de predecir el

    siguiente movimiento. Es decir, conociendo dichos datos un

    jugador puede permitirse anteceder las operaciones del rival. Por

    ello, lo importante de este tipo de juegos es plantear las estrategias

    con el fin de disminuir la redundancia y con ello la capacidad que

    presentan los rivales para prever los movimientos a continuacin.

    En otras palabras, el valor de la estrategia no se halla en la

    consecucin de un resultado final, sino que vara segn el nmero

    de posibles estrategias posteriores que haga viables, todas con la

    misma o similar ganancia, o dicho de otra manera, aumentar la

    informacin.

    Finalmente, queda comentar acerca de la existencia de los

    Juegos de Longitud Infinita o Super Juegos. Como el mismo

    nombre indica en este tipo de juegos el nmero de secuencias es

    infinito y por tanto no hay un resultado final tipo victoria o derrota.

    Recordando lo que se dijo en el prrafo anterior, ms que el

    anlisis de las consecuencias finales del juego, lo que importa en

    este tipo de modelos es el movimiento actual, o mejor dicho, cada

    movimiento, siendo la consecuencia de dicho anlisis el definir

    quin o qu jugador en cada instante presenta la mejor estrategia

    (ya sea conociendo los movimientos anteriores o no).

    6. Incompletitud.

    Por incompletitud se comprende en matemticas la imposibilidad

    de consolidar un nico lenguaje formal perfecto comprendido por

    una serie de reglas a partir de las cuales poder formular todas las

    proposiciones y teoremas de esta disciplina. Este asunto presenta

    una gran trascendencia hoy en da en cuanto que la confirmacin

    de esta incompletitud indica que existen ciertos problemas, ciertas

    sentencias, que al menos con la ayuda de los ordenadores jams

    se podr resolver. A principios del siglo XX, David Hilbert, un

    eminente matemtico alemn, se propuso como finalidad

    precisamente el encontrar este lenguaje formal perfecto. Para l,

    esta tarea supona la gran meta a la que deban aspirar los

    matemticos, puesto que una vez identificado, la matemtica

    podra considerarse como un juego en el que nicamente

    atendiendo a sus reglas, sin necesidad de comprobaciones

    empricas ni de recursos externos como la intuicin del individuo,

    se podran sonsacar todos los teoremas de la matemtica. Sin

    embargo, aos ms tarde en 1931, Kurt Gdel demostr [12] que

    haba proposiciones que no podan ser planteadas formalmente,

    incluso utilizando en matemticas elementales basadas en

    nmeros enteros. Existen afirmaciones que aunque fcilmente

    resolubles por la intuicin, no pueden ser satisfechas siguiendo

    principios lgicos.

    No obstante, el formalismo de Hilbert supuso, a pesar de

    esta incompletitud, un gran avance, sobre todo en lo referido a la

    teora de computacin [13]. El hecho de que mediante una serie de

    ANEXO A

    384

    Los juegos se conciben como un entrenamiento.

    La ciencia ficcin se ha alimentado a menudo de

    esta nocin hasta confundir juego o simulacro con

    realidad. Games are conceived as a training. The

    science fiction has often despicted this notion until

    confusing game or mockery with reality. SCOTT

    CARD, O. (1985) El juego de Ender. Editorial Zeta

    Bolsillo, Barcelona, 2006.

  • reglas que conforman un lenguaje formal se pueda realizar un

    conjunto de operaciones sin necesidad de ayuda exterior, fue de

    gran inspiracin para la creacin de los ordenadores. Por

    supuesto, debido a esta incompletitud, los ordenadores son

    incapaces de resolver ciertas cuestiones, presentan un lmite.

    Por ejemplo, Turing demostr que los ordenadores no

    pueden resolver el problema de la detencin, acerca de cundo un

    algoritmo se detendr al haber completado la operacin que se le

    designa. Y de especial inters es otra cuestin relacionada con la

    complejidad algortmica. Dado un mismo objetivo un algoritmo es

    ms eficiente que otro si por ejemplo el nmero de pasos es

    menor. No obstante, no se puede demostrar que ese algoritmo sea

    el ms eficiente, que no exista otro con un menor nmero de pasos

    a la hora de resolver esa operacin. Esto, aplicado sobre otros

    campos, plantea la duda sobre la optimizacin del conocimiento.

    Dada una serie de circunstancias, una teora que las explique es

    ms eficiente que otra si el nmero de postulados que contiene es

    menor, pero nunca se puede asegurar que esa teora sea la ptima.

    [1] SHANNON, C. E. (1948) A Mathematical Theory of

    Communication. Publicado en The Bell System Technical Journal.

    Vol. 27, PP. 379.423, 623.656, Julio, Octubre, 1948.

    [2] LPEZ, A; PARADA, A.; SIMONETTI, F. (1995) Introduccin a la

    psicologa de la comunicacin. Ediciones Universidad Catlica de

    Chile, Santiago, 1995.

    [3] Actualmente la Teora de la Informacin se encuadra como una

    parte de la Teora Matemtica de la Probabilidad.

    [4] A esto podramos plantear una contradiccin. Puede que el

    saber que una persona tenga ms o menos de cuarenta aos no

    indique nada acerca del da de su cumpleaos, pero en principio el

    saber si naci en el hemisferio norte o en el hemisferio sur

    tampoco, a menos que se conozca la estacin. Esto es, el orden

    de las preguntas influye en la designacin del mensaje. O mejor

    dicho, el supuesto ruido, dependiendo del orden o de las

    combinaciones de las distintas informaciones, es capaz de reducir

    la informacin aumentando as la inteligibilidad de un comunicado.

    [5] MARTNEZ, F.; MARTN, G (2003) Introduccin a la

    programacin estructurada en C. Volumen 64 de Educaci,

    Universidad de Valencia, 2003.

    [6] ZADEH, L. (1965) Fuzzy sets. Information and Control 8, Pgs.

    338-353, Universidad de Berkeley, 1965.

    [7] GALINDO, J. Conjuntos y sistemas difusos (lgica difusa y

    aplicaciones). Departamento de Lenguajes y Ciencias de la

    Computacin. E.T.S. de Ingeniera Informtica. Universidad de

    Mlaga.

    [8] JAMESON, F. (1994) Las semillas del Tiempo. Editorial Trotta,

    Madrid, 2000.

    [9] VV.AA. (1997) Lgica Fuzzy para Principiantes. Sur A&C, Omron

    ANEXO A

    385

    Kurt Godel. Sin referencia. Without reference.

  • Electronics S.A. Editorial I. Hernndez, 1997.

    [10] MORGENSTERN, O.; NEUMANN, J. V. (1947) Theory of Games

    and Economic Behavior. Princeton University Press.

    [11] NASH, J. F. (1950) Equilibrium points in n-person games.

    Proceedings of the National Academy of the USA.

    [12] NAGEL, E.; NEWMAN, J. R. (1958) Gdels Proof. Routledge,

    New York, 2005.

    [13] CHAITIN, G. J. (1999) Ordenadores, paradojas y fundamentos

    de las matemticas. Revista Investigacin y Ciencia, Madrid, julio

    del 2003.

    ANEXO A

    386