UNIDAD I INTRODUCCIÓN Y CONCEPTOS …uat.gustavoleon.com.mx/IA1 - Introduccion y Conceptos...

14
1-1 Gustavo León 2017 UNIDAD I INTRODUCCIÓN Y CONCEPTOS BÁSICOS 1.1 Introducción y definición de la Inteligencia Artificial Desde tiempos inmemorables el hombre siempre ha tenido la inquietud de delegar tareas difíciles, ya sea por pesadas, tediosas o repetitivas, lo cual lo ha llevado a desarrollar un sinnúmero de herramientas con el fin de aligerar su carga. En la medida que dichas herramientas se asemejan o copian la manera en la que el hombre soluciona sus problemas se habla de Sistemas Inteligentes ó Sistemas con Inteligencia Artificial (I.A.). La I.A. se define como la ciencia que estudia las funciones cognoscitivas del ser humano para su aplicación en el diseño de máquinas. Otra definición aceptable también es, que la I.A. es el estudio de cómo hacer que las computadoras hagan cosas en las cuales hasta hoy el hombre es mejor. 1.2 Elementos de Inteligencia Aún cuando a estas alturas ya contamos con una definición formal de la I.A., es conveniente que definamos el concepto de Inteligencia en términos generales, dado que sobre esta definición girarán algunas suposiciones posteriores. Básicamente podemos definir la Inteligencia en dos bloques funcionales: Razonamiento y Conocimiento, interconectados como se muestra a continuación en la Figura de abajo RAZONAMIENTO CONOCIMIENTO

Transcript of UNIDAD I INTRODUCCIÓN Y CONCEPTOS …uat.gustavoleon.com.mx/IA1 - Introduccion y Conceptos...

1-1 Gustavo León 2017

UNIDAD

I

INTRODUCCIÓN Y CONCEPTOS BÁSICOS

1.1 Introducción y definición de la Inteligencia Artificial

Desde tiempos inmemorables

el hombre siempre ha tenido la inquietud de delegar tareas difíciles, ya sea por pesadas, tediosas o repetitivas, lo cual lo ha llevado a desarrollar un sinnúmero de herramientas con el fin de aligerar su carga. En la medida que dichas herramientas se asemejan o copian la manera en la que el hombre soluciona sus problemas se habla de Sistemas Inteligentes ó Sistemas con Inteligencia Artificial (I.A.).

La I.A. se define como la ciencia que estudia las funciones cognoscitivas del ser humano para su aplicación en el diseño de máquinas. Otra definición aceptable también es, que la I.A. es el estudio de cómo hacer que las computadoras hagan cosas en las cuales hasta hoy el hombre es mejor.

1.2 Elementos de Inteligencia

Aún cuando a estas alturas ya contamos con una definición formal de la I.A., es conveniente que definamos el concepto de Inteligencia en términos generales, dado que sobre esta definición girarán algunas suposiciones posteriores.

Básicamente podemos definir la Inteligencia en dos bloques funcionales: Razonamiento y Conocimiento, interconectados como se muestra a continuación en la Figura de abajo

RAZONAMIENTO CONOCIMIENTO

1-2 Gustavo León 2017

Ambos elementos cuya interdependencia en los esquemas de inteligencia humana es evidente, se encuentran completamente separados en los modelos artificiales cuya analogía se muestra en la Figura de abajo.

Las equivalencias Razonamiento / Procesamiento y Conocimiento / Datos de los modelos Humano / Artificial son solamente un esquema simulado ya que por un lado el razonamiento tiene una naturaleza heurística (concepto que será ampliamente descrito en unidades posteriores), mientras el procesamiento es de naturaleza algorítmica. Asimismo el conocimiento se localiza a través de

conexiones neuronales mientras que los datos se localizan por medio de direcciones. Estas diferencias se han convertido en una limitación para el desarrollo de sistemas inteligentes, sin embargo en la medida que los esquemas artificiales

se asemejen a los humanos estaremos hablando de Sistemas Inteligentes reales.

Existen otros elementos

asociados con la inteligencia que son de carácter emocional entre los que podemos mencionar:

* Creatividad * Sensibilidad

1.3 El paradigma de las Máquinas

La máquina no puede pensar, hace sólo lo que el hombre le dice

"Un grupo de científicos colocó cinco monos en una jaula, en cuyo centro colocaron una escalera y, sobre ella, un montón de bananos. Cuando un mono subía la escalera para agarrar los bananos, los científicos lanzaban un chorro de agua fría sobre los que quedaban en el suelo. Después de algún tiempo, cuando un mono iba a subir la

escalera, los otros lo agarraban a palos.

Pasado algún tiempo más, ningún mono subía la escalera, a pesar de la tentación de los bananos. Entonces, los científicos sustituyeron uno de los monos. La primera cosa que hizo fue subir la escalera, siendo rápidamente bajado por los otros, quienes le pegaron. Después de algunas palizas, el

PROCESAMIENTO DATO

S

1-3 Gustavo León 2017

nuevo integrante del grupo ya no subió más la escalera.

Un segundo mono fue sustituido, y ocurrió lo mismo. El primer sustituto participó con entusiasmo de la paliza al novato. Un tercero fue cambiado, y se repitió el hecho. El cuarto y, finalmente, el último de los veteranos fue sustituido.

Los científicos quedaron, entonces, con un grupo de cinco monos que, aun cuando nunca recibieron un baño de agua fría, continuaban golpeando a aquel que intentase llegar a los bananos.

Si fuese posible preguntar a algunos de ellos por qué le pegaban a quien intentase subir la escalera, con certeza la respuesta sería:

«No sé, las cosas siempre se han hecho así, aquí...» ¿le suena conocido?"

Es que solo por el hecho que siempre se han hecho así las cosas, ¿es esa la mejor forma de hacerlas?.

La obsolescencia total en informática, es de 5 años, ¿por qué entonces, no revisamos los procesos que posiblemente tienen muchos más años?

Joel Arthur Barkeren en su libro "Paradigmas el negocio de descubrir el futuro", define

paradigma como: «Un conjunto de reglas y disposiciones (escritas o no) que hace dos cosas: establecer o definir límites, e indicar cómo comportarse dentro de tales límites para tener éxito, al cual se mide por la habilidad para resolver problemas»

En cierto sentido, un

paradigma indica la existencia de un juego, en qué consiste y cómo jugarlo con éxito de acuerdo con las reglas establecidas. Un cambio

paradigmático es, por tanto, un cambio hacia un nuevo juego, un nuevo conjunto de reglas. Pero más importante que conocer esas nuevas reglas, es conocer qué fue lo que dio lugar al cambio; no hay que esperar a que las tendencias se desarrollen, sino buscar a las personas que están enredándose con las reglas, porque esa es la primera señal de un cambio importante.

Durante mucho tiempo diseñadores e ingenieros en el área de sistemas de cómputo, han cerrado todas las posibilidades hacia el concepto de que pudieran construirse máquinas con inteligencia autónoma, equiparables con la mente humana. Esta barrera ha retardado el desarrollo de sistemas inteligentes por varias razones:

* Limitaciones teóricas * Limitaciones tecnológicas * Limitaciones éticas

1.3.1 Limitaciones Teóricas

En general se puede decir que el conocimiento teórico es aquel que está basado en el método científico

1-4 Gustavo León 2017

En términos de Inteligencia Artificial, se refiere al hecho de la limitación que existe para implementar I.A. en virtud de la falta de conocimiento científico, en específico del cerebro humano, que sería el punto focal para el desarrollo de la misma.

1.3.1.1 B.R.A.I.N En este sentido, los Estados

Unidos a través del Presidente en función en el 2013, Barack Obama, ha lanzado una iniciativa con la mira de obtener el conocimiento teórico suficiente del cerebro humano.

El programa, denominado Investigación del Cerebro a través de Neurotecnologías Innovadoras Avanzadas (BRAIN - Brain Research through Advancing Innovative Neurotechnologies, por sus siglas en inglés), será financiado con un presupuesto inicial de100 millones de dólares, proyectados para el año fiscal 2014 de la administración del presidente Obama.

"La Iniciativa BRAIN acelerará el desarrollo y aplicación de nuevas tecnologías que permitirán a los investigadores producir fotos dinámicas del cerebro que muestren cómo las neuronas individuales y los complejos circuitos neurológicos interactúan a la velocidad del pensamiento", dijo la Casa Blanca en un comunicado.

"Estas tecnologías abrirán nuevas puertas para explorar cómo el cerebro registra, procesa, usa, almacena y recuerda grandes cantidades de información, y arrojará luz sobre las complejas relaciones

entre el funcionamiento cerebral y la conducta", añadió.

Según los científicos que desarrollan el proyecto, este esfuerzo promoverá tecnologías que permitan que los investigadores produzcan imágenes dinámicas del cerebro en las cuales pueda verse cómo las células individuales y los complejos circuitos de neuronas interactúan a la velocidad del pensamiento.

Sitio oficial del proyecto

BRAIN: http://www.nih.gov/science/brain/

BRAIN es una especie de continuación del Proyecto “Conectoma Humano”

1.3.1.2 Proyecto Conectoma Humano

El proyecto Conectoma Humano (HCP) forma parte de los grandes proyectos de la Humanidad, como lo han sido la Conquista del Espacio y el proyecto Genoma Humano.

La factibilidad de conocer la estructura y funcionamiento de especies animales de menor complejidad que la humana, como son las del gusano Caenorhabditis elegans que posee 302 neuronas realizada por Sydney Brenner (Premio Nobel de Medicina 2002) y el cerebro de ratones mediante la tecnología de Brainbow desarrollada por Jeff Lichtman (Premio Nobel de Química 2008) ha conducido a

1-5 Gustavo León 2017

realizar el desafío de establecer el mapa de las conexiones neuronales del cerebro humano.

Nuestro cerebro se suele dividir en varios cientos de pequeñas áreas a las que se atribuyen funciones altamente especializadas. Vistas bajo el microscopio, muchas de estas áreas, que tienen un ancho de centímetros, presentan patrones de células claramente visibles. Cada una de estas áreas está conectada por millones de proyecciones neuronales con forma de hilo, llamados axones, que corren en paralelo, enrollándose para formar lo que parece un cable grueso de fibra óptica. Se estima que nuestro cerebro posee 176.000 km de axones. El cerebro funciona en base a procesos y estos procesos tienen lugar porque existen estas conexiones entre áreas especializadas. Se postula la

existencia de columnas neuronales de conexión que contienen 60.000 neuronas y que en nuestro cerebro existirían alrededor de 50 millones de estas columnas.

El Proyecto Conectoma Humano pretende establecer los circuitos del cerebro humano en 1.200 adultos sanos, utilizando métodos de avanzados de neuroimagen no invasiva, como son la obtención de imágenes de Resonancia Magnética por difusión (dMRI)o Funcionales (fMRI). Estas técnicas permiten obtener imágenes realmente espectaculares del cerebro funcionando en vivo

Sitio oficial del proyecto

Human Connectome Project:

http://www.humanconnectome.org/about/project/

1.3.1.3 Proyecto del Cerebro Humano

A principios del 2013, La

Comunidad Europea lanzó una iniciativa similar denominada “El Proyecto del Cerebro Humano” (Human Brain Project), con un presupuesto inicial de 500 millones de Euros cuya meta es muy similar a la de la iniciativa BRAIN propuesta posteriormente por los norteamericanos.

Sitio oficial del proyecto HBP:

https://www.humanbrainproject.eu/

Ejercicio 1.a Leer y discutir en clase el artículo “Why Spend a Billion Dollars to Map the Human Brain?” y emitir una conclusión acerca de las repercusiones que las iniciativas ahí descritas tendrán en el ámbito del conocimiento teórico del cerebro y el impacto que esto puede tener en el futuro para el desarrollo de la Inteligencia Artificial en el transcurso de generaciones futuras.

Ejercicio 1.b Leer y discutir en clase el

artículo “Lo que debes saber de la iniciativa Brain?” y emitir una conclusión acerca de las repercusiones que las iniciativas ahí

1-6 Gustavo León 2017

descritas tendrán en el ámbito del conocimiento teórico del cerebro y el impacto que esto puede tener en el futuro para el desarrollo de la Inteligencia Artificial en el transcurso de generaciones futuras.

http://quo.mx/noticias/2013/0

4/02/lo-que-debes-saber-de-iniciativa-brain

conocimiento teórico del cerebro y el impacto que esto puede tener en el futuro para el desarrollo de la Inteligencia Artificial en el transcurso

de generaciones futuras.

1.3.2 Limitaciones Tecnológicas

Una vez que los conceptos

teóricos se muestran sólidos, la siguiente etapa consiste en desarrollar mecanismos prácticos o modelos que físicamente lleven a cabo el trabajo inteligente en el mundo real. En muchos de los casos dichos modelos no pueden ser implementados ya sea porqué los dispositivos físicos no han sido desarrollados lo suficiente, porque las dimensiones en volumen los hacen imprácticos o simplemente su costo los hace prohibitivos para su implementación.

1.3.3 Limitaciones Éticas

Este es el paradigma al que por lo general la humanidad se tiene que enfrentar cuando se encuentra en el parteaguas de ciencias

emergentes tal y como ha sucedido con la Ingeniería Genética en épocas recientes (por citar un ejemplo actual). Se requiere romper con el “status quo” que mantiene las cosas como se han tenido por décadas, siglos o desde siempre.

El género humano no acepta que pueda una entidad artificial igualar o en algunos casos superar lo que durante mucho tiempo fue su característica exclusiva que es la de razonar y emitir juicios basado en la comprensión y entendimiento de las situaciones cotidianas y no admite que baja ciertas circunstancias pueda verse rebasado por dichas entidades. Las generaciones de principios del siglo XXI tendrán que vencer el paradigma para verdaderamente generar una difusión de dicho concepto y tener un panorama más abierto y ampliamente aceptado de que una entidad artificial pueda desarrollar funciones cognoscitivas equivalentes a la del ser humano

Pag 1-7 Gustavo León 2017

Ejercicio 1.c Formar equipos de trabajo según instrucciones del profesor y discutir las 3 limitaciones que conforman el paradigma de las máquinas.

Limitaciones teóricas

Limitaciones tecnológicas

Limitaciones éticas

Tiempo : 15 minutos para discusión en grupo 15 minutos para unificación de criterios en el grupo

1-8 Gustavo León 2017

1.4 Antecedentes Históricos

1.4.1 Década 50’s En la década de los 50's se

generó un interés especial por parte de los Pedagogos y Psicólogos, por encontrar los métodos generales de solución de problemas con el fin de que estos métodos se pudieran enseñar a los estudiantes y con ellos se mejorara su preparación. Se había observado ya en aquel entonces que las personas aún conociendo toda la información necesaria para resolver correctamente un problema (definiciones, fórmulas, métodos, etc.) son muchas veces incapaces de conseguirlo, realizando con frecuencia razonamientos defectuosos, así como conclusiones erróneas. Como preámbulo a inicios de los 50’s Alan Touring propone un método para evaluar la inteligencia de una máquina y que es descrito en la sección 1.5.

El nacimiento de la Inteligencia artificial se relaciona principalmente a la conferencia Darmouth en el año de 1956, donde Newell, Shaw y Simon presentaron sus programas para demostrar las proposiciones lógicas Logical Theorist .

La expresión Inteligencia Artificial la propuso en

aquel mismo año por John McCarthy. En los años siguientes a 1956 se dieron las condiciones para el desarrollo del primer programa demostrador de

teoremas basado en lógica proposicional (General Problem Solver, por Newell, Shaw y Simon en 1957).

Los primeros estudios se realizaron con problemas de resolución geométrica, sin embargo, las limitaciones tecnológicas de la época tanto en Hardware como el Software fueron evidentes. Es decir los conceptos acerca del funcionamiento de la inteligencia rebasaron a la tecnología de la época, por lo que su implementación fue impráctica.

1.4.2 Década 60’s En la década de los 60's con la

llegada del lenguaje LISP se dio uno de los primeros pasos para avanzar dentro de los terrenos de la I.A. Sin embargo los sistemas desarrollados sólo eran simuladores de aplicaciones específicas que distan todavía de nuestra definición de la IA. LISP, desarrollado por McCarthy en 1959 y publicado en 1962 es un lenguaje que reconoce solamente dos tipos de entidades, átomos y listas; la lista es una estructura en árbol binario. El LISP no distingue entre procedimientos y datos y es muy modular, es muy fácil de añadirle reglas o conocimientos. Esta última cualidad permitió su rápida adopción por los investigadores de IA durante la década de los 60’s. En esta década se sentaron los principios básicos de la investigación en las estructuras en árbol así como el movimiento de ideas empleadas actualmente en la resolución de problemas y los sistemas expertos.

Los textos Newell y Simon (1972) y Nilsson(1971) marcan el final de este período. Los principales métodos en estrutura de árbol, que todavía se emplean hoy en los programas de sistemas expertos, estaban ya disponibles en aquel tiempo.

1-9 Gustavo León 2017

Pero las realizaciones de los investigadores se concentraron especialmente en problemas fáciles de describir, pero muy complejos de resolver, por ejemplo, el juego del ajedrez o la demostración de teoremas matemáticos. Precisamente lo que ha llegado a ser el principal campo de aplicación de la IA son los problemas imprecisamente definidos que constan de un gran número de reglas y de hechos pero de una complejidad estratégica limitada, no habían sido abordados en aquel tiempo. Los investigadores comenzaron a considerar problemas que eran simples de describir donde todo era conocido con certidumbre y donde tenía que construirse una profunda y potencialmente amplia estructura de árbol.

En la década del 60 se comienza en el MIT el estudio de la visión artificial, lo cual implica no solo captar imágenes a través de una

cámara, sino también la comprensión, por parte del ordenador, de lo que estas imágenes representan. Un resultado importante en este trabajo lo constituye el "mundo de micro-bloques", en el cual un robot era capaz de percibir un conjunto de bloques sobre una mesa, moverlos y apilarlos; el éxito se debió a los investigadores Larry Roberts, Gerald Sussman, Adolfo Guzman, Max Clowes, David Huffman, David Waltz, Patrick Winston, y Berthold Horn.

1.4.3 Década 70’s En la década de los 70's los

programas e investigaciones se enfocan

hacia la naturaleza del conocimiento. Investigadores de distintas procedencias (informática, psicología filosofía y matemáticas) intentan determinar lo que es el conocimiento. Después de la manera más natural, dirigen su atención a la más compleja de las formas del conocimiento, es

decir, a la que es inexacta, mal definida e implícita, en otras palabras: el sentido común del hombre de la calle.

En esta década (70’s) se desarrollan los primeros lenguajes orientados a la I.A. (ver Tabla “Lenguajes Orientados a la Inteligencia Artificial”), En esta década los investigadores sintieron la necesidad de enriquecer el LISP y de diseñar lenguajes en los que el control del razonamiento deductivo fuese fácil de escribir y de comprobar, siendo éste el

1-10 Gustavo León 2017

período en el que surgen los primeros lenguajes orientados a objetos como son el SIMULA-67 (Dhal, Myhrhaug, Nygaard, 1970) y SMALLTALK-72 de Xerox (Kay, 1976) que es el primero y genuino lenguaje orientado a objetos.

Es en esta época cuando surge también la primera generación de sistemas expertos que se constituyeron en los antecesores de los actuales sistemas inteligentes.

Dos grandes éxitos de sistemas desarrollados en la década de los 70's son PROSPECTOR desarrollado por Standford Research Institute (Duda & Hart) en 1974, que ha ayudado a la detección de importantes yacimientos minerales. Este sistema experto dio mucho de qué hablar, al ser la clave para el descubrimiento de un yacimiento de Molibdeno cuyo valor en su tiempo fue estimado en alrededro de 100 millones de dólares.

Y el

sistema MYCIN(Shortliff

e) diseñado en la Universidad de Standford en el año de 1977 el cual es un sistema de diagnóstico de

enfermedades infecciosas de

orden bacteriano.

1.4.4 Década 80’s En la década de los 80’s se

comenzaron a comercializar los Sistemas Expertos. El primer sistema comercial denominado R1 (McDermott, Digital Equipment Corporation1982), se utilizaba en la elaboración de pedidos de nuevos sistemas de cómputo. Esto

en 1986 representó un ahorro de 40 millones de dólares anuales. En esta misma década de los 80’s se retomaron conceptos y teorías sobre Redes Neuronales para convertirse en una de las fuentes más promisorias en busca de la Inteligencia Artificial.

El lenguaje de programación Python fue creado a finales de los ochenta por Guido van Rossum en el Centro para las Matemáticas y la Informática (CWI, Centrum Wiskunde & Informatica), en los Países Bajos, como un sucesor del lenguaje de programación ABC, capaz de manejar excepciones e interactuar con el sistema operativo Amoeba.3.

Python es un lenguaje de programación interpretado cuya filosofía hace hincapié en una sintaxis muy limpia y que favorezca un código legible. Se trata de un lenguaje de programación multiparadigma, ya que soporta orientación a objetos, programación imperativa y, en menor medida, programación funcional. Es un lenguaje interpretado, usa tipado dinámico (habilidad de que una misma variable pueda tomar valores de distinto tipo en distintos momentos) y es multiplataforma.

1.4.5 Década 90’s En la década de los 90’s nuevas

técnicas fueron probadas como los Modelos de Markov Ocultos y los Algoritmos Genéticos, destacando El Sistema Experto “Deep Blue” que en 1997 ha derrotado al más grande ajedrecista de nuestros tiempos: Gary Kasparov, lo cual ha sido considerado como uno de los más grandes logros de la IA hacia el final del siglo XX.

En los 80's y los 90's también se

han dado cambios significativos debido al vertiginoso avance en la parte de

1-11 Gustavo León 2017

hardware de los sistemas. El alto grado de integración y la reducción del costo en este renglón han permitido desarrollar nuevas técnicas y poner en práctica viejas teorías.

1.4.6 Década 00’s En esta Primera década del siglo

21 se ha generado un debate en dos grandes corrientes una denominada “neats" y otra llamada “scruffies”. Mientras los “neats” buscan y demuestran con métodos científicos y desarrollan descripciones formales, los “scruffies” se apoyan en técnicas empíricas y tratan de simplificar la disciplina con explicaciones más directas sin palabras rebuscadas ni complicaciones.

En esta década es también en la

cual tiene un gran auge un nuevo concepto relacionado con la IA denominado, Vida Artificial (VA).

La vida artificial pretende crear vida mediante la imitación de procesos y comportamientos de los seres humanos, todo esto con el objetivo de solucionar problemas del mundo real.

La vida artificial que tienen como objetivo la aplicación del conocimiento sobre el funcionamiento de cierto fenómeno el cual se denomina de una manera genérica: vida, y su aplicación

dentro de la investigación y desarrollo de ciertas tecnologías. Esta ya es una nueva disciplina, a la cual se aplicaran principios biológicos a sistemas computacionales ya que promete ser la rama más importante y revolucionaria en cuanto a la tecnología.

Las aplicaciones de la vida artificial se pueden encontrar en alguno de estos casos:

Los sistemas complejos adaptativos, que han dado paso a una nueva generación de sistemas expertos, que son capaces de aprender y evolucionar.

Los autómatas celulares, que imitan funciones de los organismos celulares en programas complejos, aplicando el conocimiento biológico de los mismos a principios prácticos de organización en sistemas de cómputo.

Los agentes autónomos que son cada día más usados en aplicaciones de búsqueda.

En el conocimiento de comportamientos adaptativos, para el desarrollo de robots adaptativos.

La computación cuántica, que a través del uso de las propiedades cuánticas de los átomos y sus desplazamientos, posibilitara una nueva forma de cálculos binarios.

En muchos campos de la vida artificial se plantea dos tipos de simulaciones las cuales ayudan a una toma de decisión en el mundo real las cuales son:

La primera de ellas está basada en la realidad, centrándose en los aspectos “a más alto nivel” de cada problema utilizando fórmulas y reglas o hechos históricos que ayudan a la toma de decisiones. Un ejemplo de esto pueden ser las fórmulas del tiro

1-12 Gustavo León 2017

parabólico ya que estos pueden entenderse como modelos de simulación.

La segunda también está basada en la realidad, poniendo atención en los aspectos “a más bajo nivel”, mediante fórmulas o reglas, una de las ventajas de este tipo de simulaciones es que sus características son más sencillas, ya que suelen ser más fáciles de detectar.

1.4.6 Década 10’s

En nuestra década actual, un evento relevante ha sido, la competencia entre una supercomputadora creada por IBM (nuevamente) y que denominaron “Watson” (en honor al primer presidente y fundador de la compañía), y dos humanos sobresalientes en el tipo de desafío en el que se enfrentaron.

A lo largo de tres días en febrero de 2011, para probar las capacidades reales de la máquina, se llevó a cabo una partida especial de dos juegos en el concurso de televisión estadounidense Jeopardy!, derrotando a sus dos oponentes humanos: Brad Rutter, el mayor ganador de dinero en toda la historia del programa, y Ken Jennings, el poseedor del récord por la racha más larga de campeonatos (después de haber ganado 75 partidos).

Watson consistentemente superó a sus oponentes humanos en el dispositivo de señalización empleado por el juego, aunque tuvo problemas en responder a algunas (realmente pocas) categorías, notablemente compuestas de pistas cortas con pocas palabras. Para cada pista, las respuestas más probables de Watson fueron mostradas por la pantalla de televisión. Watson tuvo acceso a 200,000,000 páginas de contenido, estructurado y no estructurado, que consumió cuatro terabytes de almacenamiento en disco, incluyendo el texto completo de la Wikipedia en inglés. Watson no fue conectado al Internet durante el juego.

También podemos incluir como parte de la cronología de la década 10’s las iniciativas para desarrollar el Conectoma Humano, mencionadas en la sección anterior correspondiente a los Paradigmas de la I.A.

Ejercicio 1.d

Ver el video de Kasparov vs. Deep Blue

Formar equipos de trabajo según instrucciones del profesor y analizar los paradigmas mostrados en el video.

1-13 Gustavo León 2017

1.5 Prueba de Turing

Una de las preguntas más importantes a resolver por cualquier científico o investigador en un proyecto, es la

determinación de si éste ha sido exitoso. La Inteligencia Artificial no es la excepción. ¿Cómo sabremos si hemos construido una máquina inteligente?

En 1950,

Alan Turing propuso el siguiente método para determinar si una máquina puede pensar o no. Este método ha sido denominado como Prueba de Turing.

Para efectuar este método, se necesitarán dos personas y la máquina que va a ser evaluada. Una de las personas jugará el papel de interrogador. El interrogador puede

hacer preguntas ya sea a la persona o a la computadora tener conocimiento de cual es cual. El interrogado sólo puede identificarlos como A ó B y su tarea será la de determinar cuál de ellos es la persona y cual la máquina. La meta de la máquina es engañar al interrogador para hacerlo creer que es la persona. Si la máquina tiene éxito

en esto, se concluirá en que la máquina puede pensar. A la máquina se

le permite prácticamente cualquier cosa. Por ejemplo, si es interrogada sobre la pregunta “¿Cuánto es 12,324 por 73,981?”, podría tardarse algunos minutos en responder.

Nuestras conclusiones al respecto de la prueba de Turing son:

Su naturaleza empírica la limita a un nivel básico

No existe una medición de la magnitud de Inteligencia que una máquina posee

Por su sencillez, no requiere de demostraciones ni justificaciones.

1.5.1 Premio Loebner

El Premio Loebner es una competencia anual que concede premios a un programa de computadora que esté considerado por el jurado que lo compone, como el más inteligente de los que se han presentado. El formato de la competencia sigue el estándar establecido en la prueba de Turing. Un juez humano se enfrenta a dos pantallas de computadora, una de ellas que se encuentra bajo el control de un sistema de cómputor, y la otra bajo el control de un humano. El juez plantea preguntas a las dos pantallas y recibe respuestas. En base a las respuestas, el juez debe decidir qué pantalla es la controlada por el ser humano y cuál es la controlada por el programa de computadora.

1-14 Gustavo León 2017

Ejercicio 1.e

Formar equipos de trabajo según instrucciones del profesor y responder a los siguientes cuestionamientos:

¿Es la Inteligencia humana perfecta?

¿Es la Inteligencia humana superior a la de las máquinas? ¿En qué aspectos si, y en qué aspectos, no?

¿Sería deseable duplicar solamente aspectos positivos de la Inteligencia humana o los negativos también?

Son las emociones parte de la inteligencia o un hecho separado de ella?

¿Cuáles considera que son los hechos de la Inteligencia Artificial y lo que pudiera representar una ficción?

Ejercicio 1.f Se otorgará un punto extra

acreditable al primer examen teórico, para aquellos que coloquen una pregunta de la sección 1.4 (Antecedentes históricos) de esta unidad como post en muro del facebook

de la materia. Para acreditarse el punto alguien diferente debe de contestar correctamente la pregunta en cuyo caso el que responda tendrá también un punto extra. El máximo de puntos acreditables por alumno es de 5. En la página http://uat.gustavoleon.com.mx pueden encontrar la liga así como la fecha límite para completar el ejercicio.