IA Reducido

30
Que e IA? Las definiciones en la parte superior tienen que ver con los procesos de pensamiento y el razonamiento, mientras que los que están en el comportamiento dirección inferior. Las definiciones sobre el éxito medida dada en términos de fidelidad a la actuación humana, mientras que los que están en la justa medida en contra de una medida ideal de rendimiento, llamada Un sistema es racional si lo hace "lo correcto", teniendo en cuenta lo que sabe. Un enfoque centrado en el hombre debe ser, en parte, una ciencia empírica, que implica observaciones e hipótesis sobre el comportamiento humano. Un enfoque racionalista s implica una combinación de las matemáticas y la ingeniería. Los diversos grupos han menospreciado tanto y ayudado mutuamente. cuatro enfoques. Pensando Humanamente Ordenadores piensan máquinas con la mente, en el sentido pleno y literal." (Haugeland, 1.985) "[La automatización de] las actividades que asociamos con el pensamiento humano, actividades como la toma de decisiones, ing resolución de problemas, aprendizaje .. (Hellman, 1978) Actuando Humanamente "El arte de crear máquinas que per- funciones de formulario que requieren de inteligencia cuando es realizada por la gente." (Kurzweil, 1990) "El estudio de cómo hacer que las computadoras hacen las cosas en la que, por el momento, la gente está mejor." (Rich y Knight, 1991) Pensando Racionalmente "facultades mentales mediante el uso de modelos computacionales." (Charniak y McDermott, 1985) "El estudio de los cálculos que hacen posible percibir, razonar y (Winston, 1992) Actuar racionalmente "Inteligencia Computacional es el estudio del diseño de agentes inteligentes". (Poole et al, 1998) "Al se ocupa de comportamiento inteligente en artefactos." (Nilsson, 1998)

description

Inteligencia artificial

Transcript of IA Reducido

Que e IA?

Las definiciones en la parte superior tienen que ver con los procesos de pensamiento y el razonamiento, mientras que los que están en el comportamiento dirección inferior. Las definiciones sobre el éxito medida dada en términos de fidelidad a la actuación humana, mientras que los que están en la justa medida en contra de una medida ideal de rendimiento, llamada Un sistema es racional si lo hace "lo correcto", teniendo en cuenta lo que sabe.

Un enfoque centrado en el hombre debe ser, en parte, una ciencia empírica, que implica observaciones e hipótesis sobre el comportamiento humano. Un enfoque racionalista s implica una combinación de las matemáticas y la ingeniería. Los diversos grupos han menospreciado tanto y ayudado mutuamente.

cuatro enfoques.

Pensando Humanamente

Ordenadores piensan máquinas con la mente, en el sentido pleno y literal." (Haugeland, 1.985)

"[La automatización de] las actividades que asociamos con el pensamiento humano, actividades como la toma de decisiones, ing resolución de problemas, aprendizaje .. (Hellman, 1978)

Actuando Humanamente

"El arte de crear máquinas que per- funciones de formulario que requieren de inteligencia cuando es realizada por la gente." (Kurzweil, 1990)

"El estudio de cómo hacer que las computadoras hacen las cosas en la que, por el momento, la gente está mejor." (Rich y Knight, 1991)

Pensando Racionalmente

"facultades mentales mediante el uso de modelos computacionales." (Charniak y McDermott, 1985)

"El estudio de los cálculos que hacen posible percibir, razonar y (Winston, 1992)

Actuar racionalmente

"Inteligencia Computacional es el estudio del diseño de agentes inteligentes". (Poole et al, 1998)

"Al se ocupa de comportamiento inteligente en artefactos." (Nilsson, 1998)

1.1.1.Actuando humanamente: El enfoque de prueba de Turing

El Test de Turing, propuesta por Alan Turing (1950), fue diseñado para proporcionar una definición operativa satisfactoria de la inteligencia. Una computadora pasa la prueba si un interrogador humano, después de posar algunas preguntas escritas, no puede decir si las respuestas escritas provienen de una persona o de un ordenador. El equipo tendría que poseer las siguientes capacidades:

• procesamiento del lenguaje natural para que pueda comunicarse con éxito en Inglés;

• la representación del conocimiento para almacenar lo que conoce o escucha;

• razonamiento automatizado para utilizar la información almacenada para contestar preguntas y extraer nuevas conclusiones;

■ aprendizaje automático para adaptarse a las nuevas circunstancias y para detectar y extrapolar los patrones.

• visión por computador para percibir objetos y ROBÓTICA

• robótica para manipular objetos y se mueven.

Estos seis disciplinas componen la mayor parte de Al, y Turing merece el crédito por el diseño de una prueba que sigue siendo relevante 60 años más tarde.

1.1.2 Pensando humanamente: El enfoque de modelado cognitivo

Tenemos que entrar en el funcionamiento real de la humana.

Hay tres formas de hacerlo: a través de la introspección, tratando de atrapar a nuestros propios pensamientos a medida que avanzan por; a través de experimentos-observación psicológica de una persona en la acción; y a través del cerebro de imagen de observación del cerebro en acción. Una vez que tenemos una teoría suficientemente precisa de la mente, se hace posible expresar la teoría como un programa de ordenador. Si la conducta de entrada-salida del programa de partidos correspondiente comportamiento humano, es evidencia de que algunos de los mecanismos del programa también podría estar operando en los seres humanos.

1.1.3 El pensamiento racional: El enfoque de "leyes del pensamiento"

El filósofo griego Aristóteles fue uno de los primeros en intentar codificar "pensamiento correcto", que silogismo es, procesos de razonamiento irrefutables. Sus silogismos proporcionado pautas de estructuras de argumentos que siempre produjeron conclusiones correctas cuando se administra correcta locales, por ejemplo, "Sócrates es un hombre; todos los hombres son mortales; por lo tanto, Sócrates es mortal. "Estas leyes del pensamiento eran

Hay dos obstáculos principales a este enfoque.

En primer lugar, no es fácil de tomar informal el conocimiento y el Estado en los términos formales exigidos por la notación lógica, sobre todo cuando el conocimiento es inferior al 100% seguro.

En segundo lugar, hay una gran diferencia entre la solución de un problema "en principio" y resolver en la práctica. Incluso problemas con unos pocos cientos de hechos pueden agotar los recursos computacionales de cualquier ordenador a menos que tenga alguna orientación en cuanto a qué medidas de razonamiento para probar primero.

1.1.4 Actuar racionalmente: El enfoque de agente racional

Por supuesto, todos los programas informáticos hacen algo, pero se espera que los agentes de computadora para hacer más: funcionar de forma autónoma, perciben su entorno, persisten durante un período de tiempo prolongado, se adaptan a cambio de agente racional, y crear y alcanzar metas.

Un agente racional es uno que actúa de modo que se logren el mejor resultado o, cuando hay incertidumbre, el mejor resultado que se espera.

Una manera de actuar racionalmente es razonar lógicamente a la conclusión de que una acción determinada alcanzará las metas de uno y luego actuar sobre esa conclusión.

Por otro lado, la inferencia correcta no es todo de racionalidad; en algunas situaciones, no existe algo demostrable correcta de hacerlo, pero algo hay que hacer.

El enfoque racional-agente tiene dos ventajas sobre los otros enfoques.

En primer lugar, es más general que el enfoque de "leyes del pensamiento", porque la inferencia correcta es sólo uno de varios mecanismos posibles para el logro de la racionalidad.

En segundo lugar, es más susceptible al desarrollo científico que son enfoques basados en el comportamiento humano o pensamiento humano.

El estándar de la racionalidad es matemáticamente bien definida y completamente general. y puede ser "desempaquetado" para generar diseños de agentes que demostrablemente lograrlo.

1.2 LAS BASES de la inteligencia artificial

1.2.1 Filosofía

• ¿Pueden las reglas formales pueden utilizar para sacar conclusiones válidas?

• ¿Cómo surge la mente de un cerebro físico?

• ¿De dónde viene el conocimiento viene?

• ¿Cómo plomo conocimiento a la acción?

Aristóteles desarrolló un sistema informal de silogismos para el razonamiento adecuado.Ramón Lull tuvo la idea de que el razonamiento útil en realidad podría ser llevada a cabo por un artefacto mecánico. Thomas Hobbes (1588-1679) propuso que el razonamiento era como el cálculo numérico.

El elemento final en el cuadro filosófico de la mente es la conexión entre el conocimiento y la acción. Esta cuestión es vital para Al porque la inteligencia requiere de acción, así como el razonamiento. Además, sólo mediante la comprensión de cómo se justifican las acciones podemos entender cómo construir un agente cuyas acciones son justificables (o racional).

1.2.2 Matemáticas

• ¿Cuáles son las reglas formales para sacar conclusiones válidas?

■ ¿Qué se puede calcular?

• ¿Cómo razonar con información incierta?

La ciencia formal requiere un nivel de formalización matemática en tres áreas fundamentales: la lógica, acción computacional, y probabilidad.

El trabajo de George Boole (1815-1864), que trabajó en los detalles de la lógica proposicional, o booleano, (Boole, 1847).

En 1879, Gottlob (1848-1925) extendió la lógica de Boolc incluir objetos y relaciones, la creación de la lógica de primer orden que se utiliza hoy en día. 4 Alfred Tarski (1902 hasta 1983) introdujo una teoría de la referencia que muestra cómo se relacionan los objetos en una lógica a los objetos en el mundo real.

El siguiente paso fue determinar los límites de lo que se podría hacer con la lógica y

El primer algoritmo no trivial se piensa que es el algoritmo de Euclides para la computación máximo común divisor.

En términos generales, un problema se llama intratable si el tiempo requerido para resolver instancias del problema crece exponencialmente con el tamaño de las instancias.

Además de la lógica y la computación, la tercera gran contribución de las matemáticas a la IA es la teoría de la probabilidad.

Probabilidad convirtió rápidamente en una parte muy valiosa de todas las ciencias cuantitativas, ayudando a lidiar con las mediciones de incertidumbre y teorías incompletas.

1.2.3 Economía

• ¿Cómo debemos tomar decisiones con el fin de maximizar la rentabilidad?

• ¿Cómo debemos hacerlo cuando otros pueden no estar de acuerdo?

• ¿Qué debemos hacer esto cuando la recompensa puede ser mucho en el futuro?

filósofo escocés Adam Smith (1723 hasta 1790) publicó Investigación sobre la Naturaleza y Causas de la Riqueza de las Naciones.

Teoría de la decisión, que combina la teoría de la probabilidad con la teoría de la utilidad, proporciona una y un marco completo para las decisiones (económicas o de otro tipo) hechas bajo incertidumbre- es decir, en los casos en que las descripciones probabilísticas captan adecuadamente el medio ambiente del que toma las decisiones.

El trabajo en la economía y la investigación de operaciones ha contribuido mucho a nuestra noción de agentes racionales, pero durante muchos años la investigación en IA desarrollan por caminos totalmente independientes. Una de las razones fue la aparente complejidad de la toma de decisiones racionales.

1.2.4 Neurociencia

• ¿Cómo procesar información cerebros?

Camillo Golgi (1843- 1926) desarrollaron una técnica de tinción que permite la observación de las neuronas individuales en el cerebro (véase la Figura L2). Esta técnica fue utilizada por Santiago y Cajal (1852-1934) en sus estudios pioneros de estructuras neuronales del cerebro.

Nicolas Rashevsky (1936.1938) fue el primero en aplicar modelos matemáticos para el estudio de los sistemas nervioso

La única teoría alternativa real es que las mentes operan en algún reino místico que está más allá de la ciencia física.

Los cerebros y computadoras digitales tienen un tanto diferentes propiedades, las computadoras tienen un tiempo de ciclo que es un millón de veces más rápido que un cerebro. El cerebro compensa eso con mucha más capacidad de almacenamiento e interconexión que incluso un ordenador personal de gama alta, a pesar de las supercomputadoras más grandes tienen una capacidad que es similar a la brain's_ (Cabe señalar, sin embargo, que el cerebro no parece utilizar todas

sus neuronas simultáneamente) futuristas hacen gran parte de estos números, que apunta a una singularidad que se acerca a la que los equipos lleguen a un nivel sobrehumano de rendimiento, pero las comparaciones primas no son especialmente informativo. Incluso con un ordenador de la capacidad prácticamente ilimitada, todavía no sabríamos cómo alcanzar el nivel del cerebro de la inteligencia.

1.2.5 Psicología

¿Cómo los seres humanos y los animales de pensar y actuar?

La psicología cognitiva, que considera al cerebro como un dispositivo de procesamiento de la información, se remonta al menos a las obras de William James (1842-1910). Helmholtz también insistió en que la percepción implicaba una forma de inferencia lógica inconsciente. El punto de vista cognitivo fue eclipsado en gran medida por el conductismo en los Estados Unidos, pero al Re- de Cambridge recorrían Unidad de Psicología, dirigida por Frederic Bartlett (1.886-1.969), el modelado cognitivo fue capaz de florecer. La naturaleza de la explicación, por Bartlett alumno y sucesor Kenneth Craik (1943), la fuerza restablecida la legitimidad de términos tales "mentales" como creencias y objetivos, con el argumento de que son tan científica como, por ejemplo, el uso de la presión y la temperatura a hablar invernadero, a pesar de su ser hecho de moléculas tienen ninguno. Craik especifica el tres pasos clave de un agente basado en el conocimiento: (1) el estímulo deben traducirse en una representación interna, (2) la representación es manipulada por los procesos cognitivos para derivar nuevas representaciones internas, y estos son a su vez retraducido volver a la acción . Él explica claramente por qué esto era un buen diseño para un agente:

el organismo lleva un "modelo a pequeña escala 'de la realidad externa y de sus propias acciones posibles dentro de su cabeza, que es capaz de probar varias alternativas, la conclusión de que es el mejor de ellos, reaccionar ante situaciones futuras antes de que surjan, utilizar la el conocimiento de los acontecimientos pasados en el trato con el presente y el futuro, y en todas las formas de reaccionar de una manera mucho más plena, más seguro, de manera más competente para los casos de emergencia que se enfrentan a él. (Craik, 1943)

Teoría de la máquina lógica. Estos tres documentos influyentes mostraron cómo se podrían utilizar los modelos de computadora para hacer frente a la psicología de la memoria, el lenguaje y el pensamiento lógico, respectivamente. Ahora es un común (aunque lejos de ser universal) vista entre los psicólogos que "una teoría cognitiva debe ser como un programa de ordenador" (Anderson, 1980); es decir, se debe describir una detallada mecanismo que permita a alguna función cognitiva podría ser implementado.

1.2.6. Ingeniería ordenador

• ¿Cómo podemos construir un equipo eficiente?

Para la inteligencia artificial para tener éxito, necesitamos dos cosas: la inteligencia y un artefacto. El equipo ha sido el artefacto de la elección. La computadora electrónica digital moderna inventó de forma independiente y casi simultáneamente por los científicos en tres países asediados en la Segunda Guerra Mundial. El primer equipo operativo fue Heath electromecánico construido en 1940 por el equipo de Alan Turing para un solo propósito: descifrar alemán En 1943, el mismo grupo desarrolló el Coloso, una potente máquina de propósito general basado en el vacío La primera computadora programable operativa fue la Z 3, la invención de Konrad Zuse en Alemania en 1941. Zuse también inventó los números de punto flotante y el primer lenguaje de programación de alto nivel, la primera computadora electrónica, el ABC, fue montado por John Atanasoff y Clifford Berry su alumno entre 1940 y 1942 en la Universidad Estatal de Iowa. investigación recibió poco apoyo o reconocimiento; fue la desarrollada como parte de un proyecto militar secreto en la Universidad de Pennsylvania por un equipo que incluye a John y John Eckert, que resultó ser el más influyente precursor de los ordenadores modernos.

Desde entonces, cada generación de hardware de la computadora ha traído un aumento de la velocidad y la capacidad y una disminución en el precio. Rendimiento duplicó ery ev 18 meses o así hasta alrededor 2005, cuando los problemas de disipación de energía llevaron a los fabricantes a iniciar multiplicando el número de núcleos de CPU en lugar de la velocidad de reloj. Las expectativas actuales son que los futuros aumentos en el poder vendrá de enorme paralelismo a una curiosa convergencia con las propiedades del cerebro.

Por supuesto, hubo cálculo de los dispositivos antes de la computadora electrónica. Lo más temprano citas automatizado del 17 se discutieron en la página 6. La primera máquina programable era un telar, ideado en 1805 por Joseph Marie Jacquard (1.752-1834), que utilizaba tarjetas perforadas para almacenar instrucciones para el patrón que se teje. En la mitad del siglo 19, Charles Babbage (1892-71) diseñó dos máquinas, ninguno de los cuales se completaron. La máquina diferencial fue pensado para calcular tablas matemáticas para la ingeniería y proyectos científicos. Finalmente se construyó y se muestra a trabajar en 1991 en el Museo de Ciencias de Londres (Swade, 2000). Máquina Analítica era mucho más ambicioso: se incluye memoria direccionable, programas almacenados y saltos condicionales y fue el primer artefacto capacidades ble de la computación universal. El colega de Babbage Ada Lovelace, hija del poeta Lord Byron, fue quizás la primera programadora del mundo. (El lenguaje de programación Ada lleva su nombre.) Ella escribió programas para la máquina analítica sin terminar e incluso especuló que la máquina podría jugar al ajedrez o componer música.

AI también tiene una deuda con el lado del software de la informática, que ha suministrado los sistemas operativos, lenguajes de programación y herramientas necesarias para escribir programas de módem (y documentos acerca de ellos). Pero esta es un área en la que la deuda ha sido pagada: el trabajo en la IA tiene Pio- neered muchas ideas que han hecho su camino de regreso a la corriente principal de la informática, incluyendo tiempo compartido, intérpretes interactivos. ordenadores personales con ventanas y ratones, rápidos entornos de desarrollo, la lista de tipos de datos vinculados, gestión de almacenamiento automático, y los conceptos clave de la programación simbólica, funcional, declarativa, y orientado a objetos.

1.2.7 Control de la teoría y la cibernética

• ¿Cómo pueden operar artefactos bajo su control?

Ktesibios de Alejandría 250 aC) construyó la primera máquina de auto-control: un reloj de agua con un regulador que mantiene un caudal constante. Esta invención cambió la definición de lo que un artefacto podía hacer. Anteriormente, las cosas sólo viven podrían modificar su comportamiento en respuesta a los cambios en el medio ambiente. Otros ejemplos de sistemas de control de retroalimentación de autorregulación incluyen el regulador del motor de vapor, creado por James Watt (1736 a 1819), y el termostato. inventado por Cornelis Drebbel (1572-1633), quien también inventó el submarino. La teoría matemática de los sistemas de retroalimentación estables fue desarrollado en el siglo 19.

La figura central en la creación de lo que hoy se llama la teoría de control fue Norbert

Wiener Wiener fue un brillante matemático que trabajó con Bertrand Ru- venta, entre otros, antes de desarrollar un interés en los sistemas de control biológico y mecánico y su conexión con la cognición. Como Craik (que también utiliza los sistemas de control como modelos psicológicos), Wiener y sus colegas Arturo Rosenblueth y Julian Bigelow desafiaron la ortodoxia conductista (Rosenblueth et al., 1943). Ellos vieron un comportamiento intencional como ing SURJAN de un mecanismo de regulación tratando de minimizar el "error", la diferencia entre el estado actual y el estado final. A fines de 1940, Wiener, junto con Warren McCulloch, Walter Pitts, y John von Neumann, organizó una serie de conferencias influyentes que exploraron los nuevos modelos matemáticos y computacionales de la cognición. El libro de Wiener Cibernética (1948) ESTÁ el vino un éxito de ventas y despertó al público la posibilidad de máquinas de inteligencia artificial. Mientras tanto, en Gran Bretaña, W. Ross Ashby (Ashby, 1940) fue pionero en ideas similares. Ashby, Alan Turing, gris y otros formaron la Relación de club de "los que tenían las ideas de Wiener antes del libro de Wiener apareció." Diseño de Ashby de Cerebro (1948, 1952) se

refirió a su idea de que la inteligencia podría ser creado por el uso de dispositivos homeostáticos que contienen retroalimentación apropiada bucles para lograr la conducta adaptativa estable.

La teoría de control del módem, especialmente la rama conocida como control óptimo estocástico, tiene como objetivo el diseño de sistemas que maximizan una función objetivo en el tiempo. Esto coincide más o menos nuestro punto de vista de los sistemas que se comportan de manera óptima el diseño Por qué, then_ son AI y de control de la teoría de dos campos diferentes, a pesar de las estrechas conexiones entre sus fundadores? La respuesta radica en la estrecha unión entre las técnicas matemáticas que eran familiares a los participantes y los conjuntos correspondientes de problemas que se engloban en cada visión del mundo. Cálculo y álgebra de matrices, las herramientas de la teoría de control, se prestan a los sistemas que son descriptibles por conjuntos fijos de las variables continuas, mientras que AI fue fundada, en parte, como una manera de escapar de las estas limitaciones percibidas. Las herramientas de la inferencia lógica y la computación permitieron Al investigadores a considerar los problemas tales como el lenguaje, la visión y la planificación que se cayó por completo fuera del ámbito del teórico control.

1.2.8 Lingüística

• ¿Cómo se relaciona el lenguaje con el pensamiento?

En 1957, F. Skinner publicó comportamiento verbal. Este fue un recuento exhaustivo, detallado acción del enfoque conductista para el aprendizaje de idiomas, escrito por el experto más destacado en el campo. Pero curiosamente, una reseña del libro se hizo tan conocido como el libro en sí, y sirvió para casi sentenciar interés en el conductismo. El autor de la revisión fue el lingüista Noam Chomsky, quien acababa de publicar un libro sobre su propia teoría, Estructuras sintácticas. Chomsky señaló que la teoría conductista no abordó la noción de creatividad en un lenguaje que no explicó cómo un niño puede entender y componer frases que él o ella nunca había escuchado antes. La teoría de base de Chomsky en los modelos sintácticos que se remontan a la lingüista indio (c 350. Explicar esto, ya diferencia de las teorías anteriores, era lo suficientemente formal que podría, en principio, que él programado.

La lingüística módem y AL entonces, "nacieron" más o menos al mismo tiempo, y crecieron juntos, se cruzan en un campo híbrido llamado lingüística computacional o el procesamiento del lenguaje natural. El problema de la comprensión del lenguaje pronto resultó ser mucho más complejo de lo que parecía en 1957. La comprensión del lenguaje requiere una comprensión de la materia y el contexto, no sólo una comprensión de la estructura de las oraciones, Esto puede parecer obvio, pero no fue ampliamente apreciada hasta el 1960. Gran parte de los primeros trabajos en la representación del conocimiento (el estudio de cómo poner el conocimiento en una forma que una computadora puede razonar con) estaba atado a la lengua e informado por la investigación en lingüística, que estaba conectado a su vez a décadas de trabajo en el análisis filosófico del lenguaje.

1.3 LA HISTORIA de la inteligencia artificial

Con el material de fondo detrás de nosotros, estamos dispuestos a cubrir el desarrollo de la propia AI.

1.3.1 La gestación de la inteligencia artificial (1943 - 1955)

La primera obra que ahora se reconoce generalmente como AI hecho por Warren McCulloch y Walter Pins (1943). Ellos se basaron en tres fuentes: el conocimiento de la fisiología básica y la función de las neuronas en el cerebro; un análisis formal de la lógica proposicional, debido a Russell y Whitehead; y la teoría de la computación de Turing. Propusieron un modelo de neuronas artificiales en la que cada neurona se caracteriza por ser "on" u "off", con un interruptor en "on" se producen en respuesta a la estimulación por un número suficiente de neuronas vecinas. El estado de una neurona se concebía como "de hecho equivalente a una proposición que propuso su estímulo adecuado." Ellos mostraron, por ejemplo, que cualquier función computable puede ser calculada por algunos a la red de neuronas conectadas, y que todos los conectores lógicos (y,

o, no, etc.) podrían ser implementadas por las estructuras simples netos. McCulloch y Pitts también sugirieron que las redes adecuadamente definidos podrían aprender. Donald Hebb (1949) demostró una simple actualización

para la modificación de las fuerzas de conexión entre las neuronas. Su gobierno, que ahora se llama aprendizaje de Hebb, sigue siendo un modelo influyente hasta nuestros días.

Dos estudiantes de pregrado en la Universidad de Harvard, Marvin Minsky y Dean Edmonds, construyó el primer ordenador de la red neuronal en 1950. El como se le llamaba, utilizan 3.000 tubos de vacío y un superávit mecanismo de piloto automático de un bombardero B-24 para simular una red de 40 Más tarde, en Princeton, Minsky estudió computación universal en las redes neuronales.

Su Ph.D. comité se mostró escéptico acerca de si este tipo de trabajo se debe considerar las matemáticas, pero von Neumann habría dicho: "Si no es ahora, será algún día." Minsky era tarde para demostrar teoremas influyentes que muestran las limitaciones de la investigación de redes neuronales.

Hubo una serie de principios de los ejemplos de la labor que se pueden caracterizar como Al, pero la visión de Alan Turing fue tal vez el más influyente. Dio conferencias sobre el tema tan pronto como en la Sociedad Matemática de Londres y articuló un programa de persuasión en su 1950 artículo "Computing Machinery e inteligencia." Ahí, él introdujo la prueba de Turing, aprendizaje automático, algoritmos genéticos, y el aprendizaje por refuerzo. Propuso la idea del Programa de Niños, "En lugar de tratar de un programa para simular la mente adulta, ¿por qué no más bien tratar de producir una que simula la del niño?"

1.3.2 El nacimiento de la inteligencia artificial (1956)

Princeton fue el hogar de otra figura influyente en la AI, John McCarthy. Después de recibir su doctorado allí en 1951 y trabajar durante dos años como instructor, McCarthy se trasladó a Stanford y luego a la Universidad de Dartmouth, que iba a convertirse en el lugar de nacimiento oficial del campo. McCarthy convenció Minsky, Claude Shannon, y Nathaniel Rochester para ayudarle a reunir a investigadores estadounidenses interesados en la teoría de autómatas, redes neuronales, y el estudio de ligence_ tual Se organizó un taller de dos meses en el Dartmouth en el verano de 1956. Los estados de la propuesta : 1 °

Proponemos que un 2 meses, 10 estudio hombre de inteligencia artificial se llevará a cabo durante el verano de 1956 en el Dartmouth College en Hanover, New Hamp- shire_ El estudio es proceder sobre la base de la conjetura de que todos los aspectos del aprendizaje u otra característica de la inteligencia puede, en principio, por lo que, precisamente, describió que una máquina se puede hacer para simularlo. Se hará un intento de encontrar cómo hacer máquinas utilizan el lenguaje, formar abstracciones y conceptos, resolver los tipos de problemas que ahora reservadas a los seres humanos, y mejorar a sí mismos. Creemos que un avance significativo se puede realizar en uno o más de estos problemas si un grupo cuidadosamente seleccionado de científicos trabajar en él junto piel un verano.

Hubo 10 participantes en total, incluyendo Trenchard Más de Princeton, Arthur Samuel de IBM, y Ray Solomonoff y Oliver Selfridge del MIT.

Dos investigadores de Carnegie Allen Newell y Herbert Simon, en vez robó

El show. Aunque los otros tenían las ideas y en algunos casos los programas para determinadas aplicaciones, como las damas, Newell y Simon ya tenía un programa de razonamiento, el Teórico Lógico (LT), de la que Simon afirmó: "Hemos inventado un programa informático capaz de hacer y de esta manera resuelve la mente-cuerpo venerable Poco después del taller, el programa fue capaz de probar la mayor parte de los teoremas en el capítulo 2 de la venta y Russell de Whitehead fue supuestamente encantado cuando Simon le mostró que el programa había llegado con una prueba para un teorema que

fue más corto que el de los editores de la revista Journal of Symbolic Lógica estaban menos impresionados, sino que rechazaron un papel en coautoría con Newell, Simon, y Lógica Teórico.

El taller de Dartmouth no condujo a ningún nuevos avances, pero se introducen todas las grandes figuras entre sí. Durante los siguientes 20 años, el campo estaría dominado por estas personas y sus estudiantes y colegas en el MIT, Stanford, e IBM.

En cuanto a la propuesta para el taller de Dartmouth (McCarthy et al., 1955), que puede ver por qué era necesario que Al se convierta en un campo separado. ¿Por qué no todo el trabajo realizado en la IA han tenido lugar bajo el nombre de teoría de control o de las operaciones de investigación o teoría de la decisión. que, después de todo, tienen objetivos similares a los de Al? O por qué no es Al una rama de las matemáticas? La primera respuesta es que la IA desde el principio abrazó la idea de duplicar las facultades humanas tales como la creatividad, la superación personal, y el uso del lenguaje. Ninguno de los otros campos se dirigiera a estos temas. La segunda respuesta es la metodología. Al es el único de estos campos que es claramente una rama de la informática (aunque la investigación de operaciones hace compartir un énfasis en las simulaciones por ordenador), y la IA es el único campo para tratar de construir máquinas que funcionarán de manera autónoma en entornos cambiantes complejos.

1.3.3 entusiasmo temprano, grandes expectativas (1952 - 1969)

Los primeros años de la IA estaban llenos de éxitos-de una manera limitada. Dados los los ordenadores primitivos y herramientas de programación de la época y el hecho de que los ordenadores sólo unos pocos años antes eran vistos como cosas que podrían hacer la aritmética y no más, que era sorprendente cada vez que un ordenador hizo nada remotamente inteligente. La creación intelectual, en general, prefiere creer que "una máquina no puede hacer X" (Consulte el Capítulo 26 para una larga lista de X 's recogida por Turing.) Investigadores de IA naturalmente respondido mediante la demostración de un X tras otro. John McCarthy se refirió a este período como "Mira, mamá, sin manos!" era.

Newell y Simon éxito inicial fue seguido por el problema general o A diferencia teórico, este programa fue diseñado desde el principio para imitar a los protocolos de resolución de problemas humanos. Dentro de la clase limitada de los puzzles que podría manejar, resultó que el orden en que los sub-objetivos del programa considerado y las posibles acciones fue similar a aquella en la que los seres humanos se acercó a los mismos problemas. Por lo tanto, el GPS fue probablemente el primero encarnar el enfoque "pensar humanamente". El éxito de GPS y la posterior pro-gramos como modelos de la cognición llevaron Newell y Simon (1976) para formular la famosa hipótesis del sistema de símbolos físicos, que establece que "un sistema de símbolos físicos dispone de los medios necesarios y suficientes para la acción inteligente en general." Lo que querían decir es que la inteligencia de cualquier sistema (humano o máquina) que exhibe debe operar mediante la manipulación de estructuras de datos compuestas de símbolos. Veremos más adelante que esta hipótesis ha sido cuestionada desde muchas direcciones.

En IBM, Nathaniel Rochester y sus colegas produjeron algunos de los primeros programas de IA. Herbert Gelernter (1959) construyó la Geometría Teorema Demostrador, que fue capaz de demostrar teoremas que muchos estudiantes de las matemáticas encontrarían bastante complicado. A partir de 1952, Arthur Samuel escribió una serie de programas para damas (borradores) que con el tiempo

para jugar en un fuerte nivel amateur. En el camino, él refutó la idea de que las computadoras pueden hacer sólo lo que se les dice que: el programa rápidamente aprendió a jugar una buena partida de su creador. El programa se demostró en la televisión en febrero de 1956, creando una fuerte impresión. Como Turing, Samuel tuvo problemas para encontrar tiempo de computadora. Trabajar por la noche, utilizó las máquinas que aún estaban en el piso de las pruebas en la planta de fabricación de IBM. Capítulo 5 cubre juego de juego, y el Capítulo 21 explica las técnicas de aprendizaje utilizadas por Samuel.

John McCarthy se mudó de Dartmouth al MIT y no hizo tres contribución fundamental

ciones en un año histórico: 1958. En el MIT AI Lab Memo Nº 1, McCarthy definieron el Lisp lenguaje de alto nivel, que se convertiría en la lengua dominante de programación AI para los próximos años. Con Lisp. McCarthy tenía la herramienta que necesitaba, pero el acceso a los recursos compu- tación escasos y caros también era un problema grave. En respuesta, él y otros en el MIT inventó tiempo compartido. También en 1958, McCarthy publicó un artículo titulado Los programas con sentido común, en el que se describe el Consejo Taker, un programa hipotético que puede ser visto como el primer sistema completo de Al. Al igual que el Teórico Lógico y Geometría Teorema Demostrador, el programa de McCarthy fue diseñado para utilizar el conocimiento para buscar soluciones a los problemas. Pero a diferencia de los otros, era encarnar el conocimiento general del mundo. Por ejemplo, mostró cómo algunos axiomas simples permitirían al programa para generar un plan para llevarme al aeropuerto. El programa también fue diseñado para aceptar nuevos axiomas en el curso normal de la operación, con lo que podrá alcanzar la competencia en nuevas áreas sin ser reprogramado. Así, el Consejo Taker encarna los principios centrales de la representación del conocimiento: que es útil tener una representación formal, explícito del mundo y su funcionamiento y para ser capaces de manipular que la representación de los procesos deductivos. Es notable la cantidad de papel de 1958 sigue siendo relevante hoy en día.

1958 también fue el año en que Marvin Minsky trasladó al MIT. Su colaboración inicial con McCarthy no duró, sin embargo. McCarthy subrayó representación y razonamiento en for-

lógica mal, mientras que Minsky estaba más interesado en conseguir programas para trabajar y eventualmente desarrolló una perspectiva anti-lógica. En 1963, McCarthy comenzó el laboratorio de IA de Stanford. Su plan de usar la lógica para construir el Asesoramiento última Taker fue avanzado por descubrimiento de JA Robinson en 1965 del método de resolución (un algoritmo teorema demostrando completa para la lógica de primer orden; véase el capítulo Trabajo en Stanford enfatizó métodos de uso general para la lógica razonamiento. Aplicaciones de la lógica incluyeron preguntas de respuesta y de planificación de sistemas de Cordell Verdes (Green, y el proyecto de robótica Shakey en el Instituto de Investigación de Stanford (SRI). Este último proyecto, discutido en el Capítulo 25, fue el primero en demostrar la completa integración de el razonamiento lógico y la actividad física.

Minsky supervisó una serie de estudiantes que eligieron problemas limitados que parecían requerir inteligencia para resolver. Estos dominios limitados a ser conocidos como programa de James SAINT (1963) fue capaz de resolver de forma cerrada problemas de integración de cálculo

típico de los cursos universitarios de primer año. Programa de la analogía de Tom Evans (1968) resuelve los problemas de analogía geométricas que aparecen en los tests de inteligencia. Programa ESTUDIANTE Daniel (1967)

problemas de la historia de álgebra resueltos, tales como las siguientes:

Si el número de clientes Tom consigue es el doble del cuadrado de 20 por ciento del número de anuncios que ejecuta, el número de anuncios que ejecuta es ¿cuál es el número de clientes Tom consigue?

El más famoso fue el mundo bloques, que consiste en un conjunto de bloques sólidos colocados sobre una mesa (o más a menudo, una simulación de un tablero de la mesa), como se muestra en la Figura 1.4. Una tarea típica en este mundo es la de reorganizar los bloques de una determinada manera, el uso de una mano robot que puede recoger un bloque a la vez. El mundo de los bloques fue el hogar del proyecto de visión de David Huffman (1971), la visión y la restricción de propagación de trabajo de David vals (1975). la teoría del aprendizaje de Patrick Winston (1970), el programa de lengua-comprensión natural de Terry Winograd (1972), y el planificador de Scott (1974).

Los primeros trabajos de construcción en las redes neurales de McCulloch y Pitts también floreció.

El trabajo de Winograd y Cowan (1963) mostró cómo un gran número de elementos podría representar colectivamente un concepto individual, con el correspondiente aumento en la robustez y el paralelismo. Métodos de aprendizaje de Hebb se

mejoraron por Bernie Widrow (Widrow y Hoff.1960; 1962), llamó a sus redes y por Frank Rosenblatt (1962) con sus perceptrones. El teorema de la convergencia perceptrón (Block et a1., 1962) dice que el algoritmo de aprendizaje puede ajustar las fuerzas de conexión de un perceptrón para que coincida con los datos de entrada, siempre existe un partido de este tipo. Estos temas se tratan en el Capítulo 20.

1.3.4 Una dosis de realidad (1.966-1.973)

Desde el principio, los investigadores no fueron tímidos a la hora de hacer predicciones de sus próximos éxitos. La siguiente declaración de Herbert Simon en 1957 es citado a menudo:

No es mi objetivo para sorprender o butthe forma más sencilla que puedo resumir diciendo que ahora hay en las máquinas del mundo que piensan, que aprender y que crean una sacudida eléctrica. Además, su capacidad para hacer estas cosas va a aumentar rápidamente hasta que en un futuro visible, la gama de problemas que pueden manejar será la misma extensión que la gama a la que se ha aplicado la mente humana.

Términos tales como "el futuro visible" pueden interpretarse de varias maneras, pero Simon también hicieron predicciones más concretas: que dentro de 10 años una computadora sería campeón de ajedrez, y un teorema matemático significativo se probó por la máquina. Estas predicciones se hicieron realidad (o aproximadamente cierta) dentro de los 40 años en lugar de 10. exceso de confianza de Simon se debió al desempeño prometedor de los primeros sistemas de Al en ejemplos sencillos. En casi todos los casos. sin embargo, estos primeros sistemas resultaron fracasar miserablemente cuando probado en más amplias selecciones de problemas y en los problemas más difíciles.

El primer tipo de dificultad surgió porque la mayoría de los programas para la primera sabían nada de su objeto, lo lograron por medio de manipulaciones sintácticas sencillas. Una típica historia ocurrió en los esfuerzos de traducción automática primeros, que fueron generosamente financiados por el Consejo de Investigación de Estados Unidos Na- cional en un intento de acelerar la traducción de documentos científicos rusos a raíz del lanzamiento del Sputnik en 1957. Inicialmente se pensó que sencilla transformaciones sintácticas basadas en las gramáticas de reemplazo Ruso e Inglés, y la palabra de un diccionario electrónico, serían suficientes para preservar los significados exactos de frases. El hecho es que la traducción exacta requiere conocimiento de fondo con el fin de resolver la ambigüedad y establecer el contenido de la sentencia. El famoso retraducción de "el espíritu está dispuesto, pero la carne es débil", como el vodka es bueno, pero la carne está podrida "ilustra las dificultades ES- contrarrestado. En 1966, un informe de un comité asesor encontraron que" no ha habido ninguna máquina traducción de textos científicos en general, y ninguno está en perspectiva inmediata. "Todo fue cancelada EE.UU. fondos gubernamentales para proyectos de traducción académicos. Hoy en día, la traducción automática es una herramienta perfecta, pero muy utilizado tante para, documentos técnicos comerciales, gubernamentales y de Internet.

El segundo tipo de dificultad fue la intratabilidad de muchos de los problemas que Al se

intentar resolver. La mayoría de los primeros programas de Al resolverse problemas probando diferentes combinaciones de pasos hasta que se encontró la solución. Esta estrategia funcionó inicialmente debido a que contiene muy pocos objetos y, por tanto, muy pocas acciones posibles y muy corto

secuencias de soluciones. Antes de que se desarrolló la teoría de la complejidad computacional, se cree ampliamente que la "ampliación" de los problemas más grandes era simplemente una cuestión de hardware más rápido y los recuerdos más grandes. El optimismo que acompañó el desarrollo de probar resolución teorema, por ejemplo, fue pronto humedecido cuando los investigadores no lograron demostrar teoremas involv- ing más de una docena de hechos. El hecho de que un programa puede encontrar una solución, en principio, no quiere decir que el programa contiene cualquiera de los mecanismos necesarios para encontrarlo en la práctica.

La ilusión de la potencia de cálculo ilimitada no se limitaba a los programas de resolución de problemas E. Los primeros experimentos en la evolución de la máquina (ahora llamados algoritmos genéticos) (Friedberg, 1958;. Friedberg et al, 1959) se basa en la creencia de que, sin duda, correcta por

hacer una serie apropiada de pequeñas mutaciones a un programa de código máquina, se puede ge- lerar un programa con el buen desempeño de cualquier tarea en particular. La idea, entonces, fue tratar de mutaciones al azar con un proceso de selección para conservar mutaciones que parecían útiles. Rencor miles mento de horas de tiempo de CPU, se demostró casi ningún progreso. Algoritmos genéticos modernos utilizan mejores representaciones y han mostrado un mayor éxito.

Términos tales como "el futuro visible" pueden interpretarse de varias maneras, pero Simon también hicieron predicciones más concretas: que dentro de 10 años una computadora sería campeón de ajedrez, y un teorema matemático significativo se probó por la máquina. Estas predicciones se hicieron realidad (o aproximadamente cierta) dentro de los 40 años en lugar de 10. exceso de confianza de Simon se debió al desempeño prometedor de los primeros sistemas de Al en ejemplos sencillos. En casi todos los casos. sin embargo, estos primeros sistemas resultaron fracasar miserablemente cuando probado en más amplias selecciones de problemas y en los problemas más difíciles.

El primer tipo de dificultad surgió porque la mayoría de los programas para la primera sabían nada de su objeto, lo lograron por medio de manipulaciones sintácticas sencillas. Una típica historia ocurrió en los esfuerzos de traducción automática primeros, que fueron generosamente financiados por el Consejo de Investigación de Estados Unidos Na- cional en un intento de acelerar la traducción de documentos científicos rusos a raíz del lanzamiento del Sputnik en 1957. Inicialmente se pensó que sencilla transformaciones sintácticas basadas en las gramáticas de reemplazo Ruso e Inglés, y la palabra de un diccionario electrónico, serían suficientes para preservar los significados exactos de frases. El hecho es que la traducción exacta requiere conocimiento de fondo con el fin de resolver la ambigüedad y establecer el contenido de la sentencia. El famoso retraducción de "el espíritu está dispuesto, pero la carne es débil", como el vodka es bueno, pero la carne está podrida "ilustra las dificultades ES- contrarrestado. En 1966, un informe de un comité asesor encontraron que" no ha habido ninguna máquina traducción de textos científicos en general, y ninguno está en perspectiva inmediata. "Todo fue cancelada EE.UU. fondos gubernamentales para proyectos de traducción académicos. Hoy en día, la traducción automática es una herramienta perfecta, pero muy utilizado tante para, documentos técnicos comerciales, gubernamentales y de Internet.

El segundo tipo de dificultad fue la intratabilidad de muchos de los problemas que Al se

intentar resolver. La mayoría de los primeros programas de Al resolverse problemas probando diferentes combinaciones de pasos hasta que se encontró la solución. Esta estrategia funcionó inicialmente debido a que contiene muy pocos objetos y, por tanto, muy pocas acciones posibles y muy corto

secuencias de soluciones. Antes de que se desarrolló la teoría de la complejidad computacional, se cree ampliamente que la "ampliación" de los problemas más grandes era simplemente una cuestión de hardware más rápido y los recuerdos más grandes. El optimismo que acompañó el desarrollo de probar resolución teorema, por ejemplo, fue pronto humedecido cuando los investigadores no lograron demostrar teoremas involv- ing más de una docena de hechos. El hecho de que un programa puede encontrar una solución, en principio, no quiere decir que el programa contiene cualquiera de los mecanismos necesarios para encontrarlo en la práctica.

La ilusión de la potencia de cálculo ilimitada no se limitaba a los programas de resolución de problemas E. Los primeros experimentos en la evolución de la máquina (ahora llamados algoritmos genéticos) (Friedberg, 1958;. Friedberg et al, 1959) se basa en la creencia de que, sin duda, correcta por

hacer una serie apropiada de pequeñas mutaciones a un programa de código máquina, se puede ge- lerar un programa con el buen desempeño de cualquier tarea en particular. La idea, entonces, fue tratar de mutaciones al azar con un proceso de

selección para conservar mutaciones que parecían útiles. Rencor miles mento de horas de tiempo de CPU, se demostró casi ningún progreso. Algoritmos genéticos modernos utilizan mejores representaciones y han mostrado un mayor éxito.

El incumplimiento de luchar a brazo partido con la "explosión combinatoria" fue una de las principales críticas formuladas de AI figuran en el informe Lighthill 1973), que sirvió de base para la decisión del gobierno británico para acabar con apoyo a la investigación de AI en todos menos dos universidades. (Tradición oral pinta un cuadro algo diferente y más colorido, con ambiciones políticas y animosidades personales cuya descripción no viene al caso.)

Una tercera dificultad surge debido a algunas limitaciones fundamentales en las estructuras básicas

que se utiliza para generar un comportamiento inteligente. Por ejemplo libro, Minsky y Papert de

(1969) demostró que, a pesar de perceptrones (una forma sencilla de redes neuronales) se pudo demostrar que aprender todo lo que eran capaces de representar, podrían representar muy poco. En en particular, un perceptrón de dos entradas (restringido a ser más simple que la forma originalmente Rosenblatt

estudiados) no pudieron ser entrenados para reconocer cuando sus dos entradas fueron diferentes. Aunque sus resultados no se aplican a las redes más complejas, de múltiples capas, financiación de la investigación para la investigación-red neuronal pronto se redujo a casi nada. Irónicamente, el nuevo aprendizaje de algoritmos de las redes de retropropagación que iban a causar un enorme resurgimiento en neuronal-net

la investigación a finales de 1980 fueron en realidad descubierta por primera vez en 1969 (Bryson y Ho, 1969).

1.3.5 Conocimiento - sistemas basados en: La clave del poder? (1969 -1979)

mecanismo de búsqueda de propósito general tratando de hilvanar pasos de razonamiento elementales a encontrar soluciones completas. Estos planteamientos han sido llamados métodos débiles porque, a pesar de en general, que no se escalan hasta casos de problemas grandes o difíciles. La alternativa a los métodos débiles es utilizar más poderoso conocimiento de dominio específico que permite medidas de razonamiento más grandes y puede manejar más fácilmente típicamente ocurren casos en zonas estrechas de expertise_ Se podría decir que para resolver un problema difícil, tienes que casi sabe la respuesta Ya.

El programa DENDRAL (Buchanan et al., 1969) fue un ejemplo temprano de este enfoque.

Para resolver el problema de inferir la estructura molecular de la información proporcionada por un espectrómetro de masas. La entrada al programa consiste en la fórmula elemental de la molécula C614131 \ 102) y el espectro de masas dando las masas de los diversos fragmentos de la molécula generada cuando es bombardeado por un haz de electrones. Por ejemplo, el espectro -masa podría contener un pico a rn = 15, correspondiente a la masa de un fragmento de metilo (CH3).

La versión ingenua del programa genera todas las estructuras posibles en consonancia con el fórmula, y luego predijo lo espectro de masas se observaría para cada uno, comparando esto con el espectro real. Como era de esperar, se trata de pieles intratable incluso moléculas.

Los investigadores DENDRAL consultados químicos analíticos y encontraron que trabajaban buscando patrones conocidos de picos en el espectro que sugerían subestructuras comunes en la molécula. Por ejemplo, la siguiente regla se utiliza para reconocer una cetona

(C = O) subgrupo (que pesa 28):

si hay dos picos a y x 2 de tal manera que

(a) = M + 28 (M es la masa de toda la molécula);

(b) xi - 28 es un alto pico; (c) - 28 es un alto pico;

(d) Al menos uno de x i y x 2 es alta.

a continuación, hay un subgrupo cetona Reconociendo que la molécula contiene una subestructura particular, reduce el número de candidatos posibles enormemente. DENDRAL era poderoso porque conocimientos teóricos relevantes para resolver estos problemas se ha mapeado el relevo de su forma general en el componente de predicción] ("primeros principios") a eficientes formas especiales ("recetas de cocina"). (Feigenbaum et al., 1971)

La importancia de DENDRAL fue que era el primer sistema exitoso: su experiencia deriva de un gran número de normas de uso especial. Sistemas posteriores también incorporan el tema principal del Consejo Taker separación limpia de McCarthy del conocimiento (en forma de reglas) del componente de razonamiento.

Con esta lección en mente, Feigenbaum y otros en Stanford comenzaron el heurístico Pro- programación de proyectos para investigar el grado en que la nueva metodología de sistemas expertos se podría aplicar a otros ámbitos de la experiencia humana. El siguiente esfuerzo importante fue en el área de diagnóstico médico. Feigenbaum, Buchanan, y el Dr. Edward desarrollados para diagnosticar infecciones de la sangre. Con cerca de 450 normas, era capaz de realizar así como algunos expertos, y considerablemente mejor que los médicos en formación. También contenía dos principales diferencias con respecto a DENDRAL. En primer lugar, a diferencia de las normas DENDRAL, ningún modelo teórico general existió desde que se podrían deducir las reglas. Tenían que ser adquirido de extensas entrevistas de expertos, que a su vez ellos adquirieron los libros de texto, otros expertos y la experiencia directa de los casos. En segundo lugar, las reglas tenían que reflejar la incertidumbre asociada con los conocimientos médicos. incorpora un cálculo de la incertidumbre llamadas factores de certeza (véase el Capítulo 14), que parecía (en el momento) para encajar bien con cómo los médicos evaluaron el impacto de la evidencia sobre el diagnóstico.

La importancia del conocimiento de dominio también fue evidente en el área de la comprensión naturales Aunque el sistema de Winograd para la comprensión del lenguaje natural había engendrado una buena dosis de entusiasmo, su dependencia de análisis sintáctico causado algunos de los mismos problemas como ocurrió en el trabajo de traducción automática temprano. Fue capaz de superar la ambigüedad y entender referencias pronombre, pero esto se debió principalmente a que fue diseñado específicamente para una zona del mundo bloques. Varios investigadores, entre ellos Eugene un estudiante becario graduado de Winograd del MIT, sugirieron que la sólida comprensión del lenguaje requeriría el conocimiento general sobre el mundo y un método general para usando ese conocimiento.

En Yale, lingüista convertido en Al-investigador Roger Schank enfatizó este punto, afirmando: "No hay tal cosa como la sintaxis", lo que molestó a muchos lingüistas, pero sirvió para comenzar una discusión útil. Schank y sus estudiantes construyeron una serie de programas (Schank y Abelson, 1977; Schank y 1981; Dyer, 1983) de que todos tenían la tarea de comprensión de pie en lenguaje natural. El énfasis, sin embargo, fue menor en el lenguaje por sí y más en los problemas de la representación y el razonamiento con el lenguaje de pieles conocimientos necesarios comprensión. Los problemas incluyen representación de situaciones estereotipadas (Cullingford, describiendo organización de la memoria humana (Rieger, 1976; Kolodner, 1983), y la comprensión de los planes y metas (WilmsIcy, 1983).

El crecimiento generalizado de las aplicaciones a los problemas del mundo real provocó un aumento concurrente en las exigencias aplicables a los regímenes de representación del conocimiento viables. Se han desarrollado un gran número de diferentes de representación y razonamiento idiomas. Algunos se basan en la lógica de ejemplo, el lenguaje Prolog se hizo

popular en Europa, y el planificador de fami- lia en los Estados Unidos. Otros, siguiendo la idea de Minsky de marcos (19751, adoptaron un enfoque más estructurado, montaje hechos sobre determinados tipos de objetos y eventos y la organización de los tipos en un gran jerarquía taxonómica análoga a una taxonomía biológica.

1.3.6 AI se convierte en una industria

El primer sistema experto comercial exitoso, RI, Comenzó su actividad en la Digital Equipment Corporation (McDermott, 1982). El programa ayudó a configurar los pedidos de nuevos sistemas informáticos; para 1986, se estaba salvando la empresa un estimado de $ 40 millones al año. Por 1988. El grupo de diciembre contaba con 40 sistemas expertos desplegados, con más en camino. DuPont tenía 100 en uso y 500 en el desarrollo, el ahorro estimado de $ 10 millones al año. Casi cada gran empresa estadounidense tenía su propio grupo AI y fue ya sea utilizando o investigando los sistemas expertos.

En 1981, los japoneses anunciaron el proyecto "quinta generación", un plan de 10 años para construir

computadoras inteligentes corriendo Prolog. En respuesta, los Estados Unidos formó los microelectrónica y Computer Technology Corporation (MCC) como un consorcio de investigación diseñado para garantizar la competitividad nacional. En ambos casos, AI fue parte de un amplio esfuerzo, incluyendo el diseño de chips y la investigación de la interfaz humana. En Gran Bretaña, el informe Alvey restableció la financiación que fue cortado por la En los tres países, sin embargo, los proyectos nunca cumplen sus objetivos ambiciosos.

En general, la industria de AT auge de unos pocos millones de dólares a miles de millones de dólares

en 1988, incluyendo a cientos de compañías que construyen sistemas expertos, sistemas de visión, robots y software y hardware especializados para estos fines. Poco después de eso vino un período llamado el "AI invierno", en el que muchas empresas quedaron en el camino, ya que no lograron cumplir las promesas extravagantes.

1.3.7 El retorno de las redes neuronales

De vuelta en los al menos cuatro grupos diferentes reinventado el algoritmo de aprendizaje de retropropagación primero descubierto en 1969 por Bryson y El algoritmo se aplicó a muchos problemas de aprendizaje en ciencias de la computación y de la psicología, y la amplia difusión de los resultados en el Paralelo colección Distribuidos Procesamiento (Rumelhart y McClelland, 1986) causó gran emoción.

Conexionistas Estos llamados modelos conexionistas de sistemas inteligentes fueron vistos por algunos como di- competidores rect tanto a los modelos simbólicos promovidos por Newell y Simon ya la enfoque logicista de McCarthy y otros (Smolensky, 1988). Puede parecer obvio que en algún nivel de los seres humanos manipulan símbolos; de hecho, el libro de Terrence Deacon La Simbólica

Para guardar la vergüenza, un nuevo campo llamado IKBS (Intelligent Basada en el Conocimiento Systems) fue inventado porque Inteligencia Artificial se había cancelado oficialmente

Especies (1997) sugiere que esta es la característica que define a los humanos-pero la abolladura más ar- cuestionado si la manipulación de símbolos tenía ningún papel explicativo real en modelos detallados de la cognición. Esta pregunta sigue sin respuesta, pero la visión actual es que los enfoques conexionistas y simbólico son complementarias y no en competencia. Al igual que ocurrió con la separación de la ciencia cognitiva, la investigación de redes neuronales se ha bifurcado en dos campos, uno que se trate con la creación de arquitecturas y algoritmos de redes eficaces y la comprensión de sus propiedades matemáticas, la otra preocupada por cuidado modelización de las propiedades empíricas de las neuronas reales y conjuntos de neuronas.

1.3.8 AI adopta el método científico (1987 - presente)

Los últimos años han visto una revolución tanto en el contenido y la metodología de trabajo en la inteligencia artificial. Ahora es más común de construir sobre las teorías existentes que proponer los nuevos, a las reclamaciones de base en teoremas rigurosos o evidencia experimental dura más que en la intuición, y mostrar interés para aplicaciones del mundo real en lugar de ejemplos de juguete.

AI fue fundada, en parte, como una rebelión en contra de las limitaciones de los campos existentes como el control

teoría y estadísticas, pero ahora se está adoptando aquellos Como David McAllester (1998) puso

En los primeros tiempos de Al parecía plausible que las nuevas formas de cálculo simbólico, por ejemplo, las tramas y redes semánticas, hicieron gran parte de la teoría clásica esto llevó a una forma de aislamiento en la que Al se separó en gran parte del resto de la informática. Este aislamiento se está abandonando la actualidad. Hay un reconocimiento de que el aprendizaje de la máquina no debe ser aislado de teoría de la información, que el razonamiento incierto no debe aislarse de la modelización estocástica, esa búsqueda no debe ser aislado de optimización y control clásica, y que el razonamiento automatizado no debe ser aislado de métodos y análisis .

En cuanto a la metodología, AI ha llegado finalmente firmemente bajo el método científico. Para ser aceptado, las hipótesis deben ser sometidos a experimentos empíricos rigurosos, y los resultados deben ser analizados estadísticamente por su importancia (Cohen, 1995). Ahora es posible replicar los experimentos mediante el uso de repositorios compartidos de datos de prueba y el código.

El Geld de expresión ilustra el patrón. En el una amplia variedad de

diferentes arquitecturas y enfoques eran Muchos de éstos eran más bien ad hoc y frágiles, y se demostraron en sólo unos pocos ejemplos especialmente seleccionados. En los últimos años, los enfoques basados en los modelos ocultos de Markov (HMMs) han llegado a dominar la zona. Dos aspectos de HMMs son relevantes. En primer lugar, se basan en una teoría matemática rigurosa. Esto ha permitido a los investigadores del habla para construir en varias décadas de resultados matemáticos desarrollados en otros campos. En segundo lugar, que son generados por un proceso de formación en un gran corpus de datos de voz real. Esto asegura que el rendimiento es robusto, y en pruebas a ciegas rigurosos los HMMs han ido mejorando sus resultados de forma constante. La tecnología del habla y el campo relacionado con el reconocimiento de caracteres manuscritos ya están haciendo la transición a la generalizada industrial

y aplicaciones de consumo. Tenga en cuenta que no hay una afirmación científica de que los seres humanos utilizan para reconocer el habla; más bien, HMM proporcionan un marco matemático para entender el problema y apoyar la afirmación de la ingeniería que funcionan bien en la práctica.

Traducción automática sigue el mismo curso que el reconocimiento de voz. En la década de 1950 allí

era entusiasmo inicial por un enfoque basado en secuencias de palabras, con modelos aprendidos de acuerdo con los principios de la teoría de la información. Ese enfoque cayó en desgracia en el 1960, pero regresó a finales de 1990 y ahora domina el campo.

Las redes neuronales también se ajustan a esta tendencia. Gran parte del trabajo en redes neuronales en la década de 1980 fue hecho en un intento de alcance lo que se podía hacer y para aprender cómo las redes neuronales difieren de las técnicas "tradicionales". Utilizando una metodología mejorada y marcos teóricos, el campo llegó a un entendimiento en el que las redes neuronales ahora se pueden comparar con las técnicas correspondientes de estadísticas, reconocimiento de patrones y aprendizaje automático, y la técnica más prometedora se puede aplicar a cada aplicación. Como resultado de esta evolución, la llamada

Tecnología de minería de datos MINERAS DAIS ha dado lugar a una nueva industria vigorosa.

(1988) razonamiento probabilístico de Judea Pearl en Sistemas Inteligentes llevó a una nueva aceptación de la probabilidad y la teoría de la decisión en Al, a raíz de un resurgimiento del interés personificado

RED por (1985) Artículo Peter Cheeseman "En defensa de la Probabilidad." La red bayesiana

formalismo se inventó para permitir la representación eficaz de, y el razonamiento riguroso. conocimiento incierto. Este enfoque supera en gran medida muchos de los problemas de los sistemas de razonamiento probabilístico de los años 1960 y 1970; ahora domina la investigación en IA en sistemas ING y expertos razonables inciertos. El enfoque permite aprender de la experiencia, y que combina lo mejor de las redes clásicas AI y neuronales. (. Horvitz y Beckerman, 1986; y otros, 1986) El trabajo de Judea Pearl (982A) y Eric Horvitz y David Beckerman promovió la idea de sistemas expertos normativos: los que actúan racionalmente de acuerdo con las leyes de la teoría de la decisión y no se tratan imitar los pasos de pensamiento de los expertos humanos. El sistema operativo incluye varios sistemas expertos de diagnóstico normativos para corregir los problemas. Capítulos

13 al 16 de tapa de esta área.

Revoluciones suaves similares han ocurrido en la robótica, visión artificial, y el conocimiento

representation_ Una mejor comprensión de los problemas y sus propiedades complejidad, combinada con una mayor sofisticación matemática, ha llevado a las agendas de investigación viables y métodos robustos. Aunque el aumento de la formalización y especialización dirigidos campos tales como la visión y robótica para convertirse en algo aislado de la "corriente principal" Al en la década de 1990, esta tendencia se ha invertido en los últimos años como herramientas de aprendizaje de máquinas, en particular, han demostrado ser eficaces para muchos problemas. El proceso de reintegración ya está dando beneficios significativos

1.19 La aparición de agentes inteligentes

Tal vez alentado por el progreso en la solución de los subproblemas de AI, los investigadores también han comenzado a mirar el problema "agente conjunto" de nuevo. El trabajo de Allen Newell, John Laird. y Paul Rosenbloom en SOAR (Newell, 1990;. Laird et al, 1987) es el ejemplo más conocido de una arquitectura de agente completa. Uno de los ambientes más importantes para agentes inteligentes es la Internet. Al sistemas se han vuelto tan comunes en las aplicaciones basadas en la Web que el sufijo ha entrado en el lenguaje cotidiano. Además, las tecnologías de Al subyacen muchos

Herramientas de Internet, tales como motores de búsqueda, sistemas de recomendación, y agregadores sitio Web.

Una de las consecuencias de tratar de construir agentes completas es la comprensión de que el anteriormente

subcampos aislados de AI podrían necesitan ser reorganizado un poco cuando sus resultados deben ser atados juntos. En particular, ahora es ampliamente apreciado que los sistemas sensoriales (visión, sonar, de reconocimiento de voz, etc.) no pueden entregar la información perfectamente fiable sobre el medio ambiente. Por lo tanto, los sistemas de razonamiento y planificación deben ser capaces de manejar la incertidumbre. Una segunda consecuencia importante de la perspectiva de agente es que la IA se ha dibujado en contacto mucho más cercano con otros campos, como la teoría de control y la economía, que también se ocupan de los agentes. Los recientes progresos en el control de los vehículos robóticos ha derivado de una mezcla de enfoques que van desde mejores sensores, integración de control de la teoría de la detección, localización y cartografía, así como un grado de planificación de alto nivel.

A pesar de estos éxitos, algunos fundadores influyentes de AI, incluyendo a John McCarthy Marvin Minsky (2007), Nils Nilsson 2005) y Patrick Winston (Beal y Winston, 2009), han expresado su descontento con el progreso de la IA. Ellos piensan que la IA debe poner menos énfasis en la creación de versiones mejoradas constante de aplicaciones que son buenos para

una tarea específica, como conducir un coche, jugar al ajedrez, o el reconocimiento de voz. En cambio, creen AI debe volver a sus raíces de la lucha por, en palabras de Simon, "máquinas que piensan, que aprenden

Al y que crean "Lo llaman el esfuerzo AI o HLAI;. Su primer simposio fue en

2004 (Minsky et al .. 2004). El esfuerzo requerirá grandes bases de conocimiento; Hendler et al.

(1995) discuten en estas bases de conocimiento pueden provenir de

Una idea relacionada es el subcampo de la Inteligencia Artificial General o AGI (Goenzel y Pennachin, 2007), que celebró su primera conferencia y organizó la Amnia! de Artificial General Sr. Inteligencia en 2008. busca un algoritmo universal para aprender y actuar en cualquier entorno, y tiene sus raíces en la obra de Ray Solomonoff (1964), uno de los dees atención de la conferencia original de 1956 de Dartmouth. Garantizar que lo que creamos es realmente

1.3.10 La disponibilidad de grandes conjuntos de datos (2001-presente)

A lo largo de los 60 años de historia de la informática, se ha hecho hincapié en el algoritmo como el tema principal de estudio. Sin embargo, algunos trabajos recientes en Al sugiere que para muchos problemas, tiene más sentido que preocuparse acerca de los datos y ser menos exigente con lo que se aplica el algoritmo. Esto es así debido a la creciente disponibilidad de fuentes de datos muy grandes: por ejemplo, miles de millones de palabras de Inglés y miles de millones de imágenes de la web y Grefenstette, 2006); o miles de millones de pares de bases de secuencias genómicas (Collins et al., 2003).

Un papel influyente en esta línea fue la obra de (1995) Yarowsky en el boca-sentido biguation disam-: dado el uso de la palabra "planta" en una frase, ¿eso se refieren a la flora o la fábrica? Enfoques anteriores al problema habían dependido de ejemplos humanos etiquetados combinados con algoritmos de aprendizaje automático. mostró que la tarea se puede realizar, con una precisión superior al 96%, sin ejemplos etiquetados en absoluto. En lugar de ello, dado un corpus de muy grande texto y sólo las definiciones del diccionario de la planta de dos industrial "y

"flora, vida vegetal" -uno pueden etiquetar ejemplos en el corpus, y de ahí arrancar aprender

nuevos patrones que ayudan a etiquetar nuevos ejemplos. Banko y Brill (2001) muestran que las técnicas como éste realizan incluso mejor como la cantidad de texto disponible va de un millón de palabras a los mil millones y que el aumento en el rendimiento del uso de más datos excede cualquier diferencia en la elección algoritmo; un algoritmo mediocre con 100 millones de palabras de datos de entrenamiento sin etiqueta supera el algoritmo más conocido con 1 millón de palabras.

Como otro ejemplo, Hays y Efros (2007) discuten el problema de rellenar agujeros en una

fotografía. Supongamos que utiliza Photoshop para enmascarar un ex-amigo de una foto de grupo, pero ahora lo que necesita para rellenar el área enmascarada con algo que coincide con el fondo. Hays y Efros definen un algoritmo que busca a través de una colección de fotos de encontrar algo coincidirá. Encontraron el desempeño de su algoritmo era pobre cuando utilizaron una colección de sólo diez mil fotos, pero cruzó un umbral hacia un rendimiento excelente cuando crecieron la colección a dos millones de fotos.

Trabaja como esto sugiere que el - cuello de botella del conocimiento "en Al-el problema de cómo

expresar todos los conocimientos que necesita un sistema-puede ser resuelto en muchas aplicaciones de los métodos de aprendizaje en lugar de la ingeniería del conocimiento codificado a mano, siempre que los algoritmos de aprendizaje tienen datos suficientes para ir en (Halevy et 2009). Los reporteros han dado cuenta de la oleada de nuevas aplica- ciones y han escrito que "Al invierno" puede cediendo a una nueva primavera

Como Kurzweil (2005) escribe: "hoy en día, muchos miles de aplicaciones de IA están profundamente arraigados en la infraestructura de todas las industrias."

1.4 ESTADO. DE ARTE

¿Qué puede hacer la IA hoy? Vehículos robóticos: Un coche sin conductor robótico llamado STANLEY apresuraron a través del terreno áspero del desierto de Mojave a las 22 mph, terminar el curso de 132 millas primera para ganar el 2005

DARPA Gran Challenge_ es un Volkswagen equipado con cámaras, radares y telémetros láser para detectar el medio ambiente y el software de a bordo para comandar el lante ing, el frenado y la aceleración de 2006).

El reconocimiento de voz: Un viajero llamando United Airlines para reservar un vuelo puede tener la conversación neumáticos en- guiado por un reconocimiento de voz automático y sistema de gestión de diálogo.

Planificación autónoma y programación: Cien millones de millas de la Tierra, la NASA

Programa Remote Agent se convirtió en el primer programa de planificación autónoma a bordo para controlar la programación de operaciones para una nave espacial (Jonsson et al., 2000). Planes nerada agente remoto generación de objetivos de alto nivel especifican desde el suelo y supervisaron la ejecución de esos planes de detección, el diagnóstico, y se recuperan de problemas tal como ocurrieron. Programa sucesor (Al-Chang et al, 2004) prevé las operaciones diarias de Mars Exploration Rovers de la NASA, y MEXAR2 (Cesta et al., 2007) hizo la logística de planificación, tanto de misión

y la planificación para la ciencia-misión Mars Express de la Agencia Espacial Europea en 2008.

Juego de juego: de IBM DEEP BLUE se convirtió en el primer programa de ordenador para derrotar al campeón del mundo en una partida de ajedrez, cuando superó a Garry Kasparov por una puntuación de 3,5 a 2,5 en un partido de exhibición. Kasparov dijo que se sentía un "nuevo tipo de inteligencia" en todos los ámbitos de él. La revista Newsweek calificó el encuentro como "última batalla del cerebro." El valor de las acciones de IBM se incrementó en $ 18 mil millones. Campeones Humanos estudiaron la derrota de Kasparov y fueron capaces de sacar algunas coincidencias en los años siguientes

Lucha contra el spam: Cada día, los algoritmos de aprendizaje clasifican más de mil millones de mensajes como correo no deseado, salvar el destinatario de tener que perder tiempo borrando lo que, para muchos usuarios, podría comprender

80% o 90% de todos los mensajes, si no se clasifican por algoritmos de distancia. Debido a que los spammers están

actualizar continuamente sus tácticas, es difícil para un enfoque programado estática para mantenerse al día, y algoritmos de aprendizaje funcionan mejor (Sahami et al., 1998; Goodman y 2004).

La planificación logística: Durante la crisis del Golfo Pérsico de 1991, las fuerzas estadounidenses desplegadas una

Análisis Dinámico y replanificación Herramienta, DART (Cruz y Walker, 1994), para no automatizar la planificación logística y la programación para el transporte. Esta involucrados hasta vehículos, carga y personas a la vez, y tuvo que dar cuenta de los puntos de partida, destinos. rutas, y la resolución de conflictos entre todos los parámetros. Las técnicas de planificación de AI generan en horas un plan que habría tomado semanas con métodos antiguos. La Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) declaró que esta sola aplicación más pagado de DARPA

La inversión de 30 años en Al.

Robótica: El iRobot Corporation ha vendido más de dos millones de Roomba aspiradoras robóticas para uso en el hogar. La empresa también implementa la más resistente a Irak y Afganistán, donde se utiliza para manejar materiales peligrosos, explosivos claras, e identificar la ubicación de francotiradores.

Traducción Automática: Un programa de computadora traduce automáticamente del Árabe al Inglés, lo que permite un altavoz Inglés para ver el titular "Ardogan confirma que Turquía no acepta ninguna presión, instándolos a reconocer a Chipre." El programa utiliza un modelo estadístico construido a partir de ejemplos de Árabe-a-Inglés traducciones y de ejemplos de texto Inglés por un total de dos billones de palabras (Brants o Ninguno de los científicos de la computación en el equipo de hablar árabe, pero sí entender las estadísticas y algoritmos de aprendizaje automático.

Estos son sólo algunos ejemplos de sistemas de inteligencia artificial que existen en la actualidad. No es magia o ciencia-ficción, pero en lugar de ciencia, ingeniería y matemáticas, a la que este libro ofrece una introducción.

1.5 Resumen

En este capítulo se define AI y establece el fondo cultural contra el que tiene desarrollado. Algunas de las pinturas importantes son los siguientes:

• Diferentes personas se acercan a Al con diferentes objetivos en mente, Dos preguntas importantes son: ¿Está preocupado con el pensamiento o el comportamiento? ¿Quieres modelar los seres humanos o el trabajo a partir de una norma ideal?

■ En este libro, se adopta la opinión de que la inteligencia se ocupa principalmente de la acción racional. Idealmente, un agente inteligente toma la mejor acción posible en una situación. Se estudia el problema de los agentes que son inteligentes en este sentido la construcción.

• Los filósofos (que se remonta a 400 hecho AI concebible considerando las ideas que la mente es en cierto modo como una máquina, que funciona en el conocimiento codificado en un lenguaje interno, y que el pensamiento puede ser utilizado para elegir qué acciones tomar.

• Los matemáticos proporcionan las herramientas para manipular las declaraciones de la seguridad lógica, así como las declaraciones inciertas, probabilísticos. También establecen las bases para la comprensión de cálculo y razonamiento sobre algoritmos.■ Los economistas formalizaron el problema de la toma de decisiones que maximicen el resultado esperado para la toma de decisiones.■ Los neurocientíficos descubrieron algunos hechos acerca de cómo funciona el cerebro y las formas en las que es similar y diferente de las computadoras.• Psicólogos adoptó la idea de que los humanos y los animales pueden considerarse máquinas de procesamiento de la información. Los lingüistas mostraron que el uso del lenguaje encaja en este modelo.

■ Los ingenieros informáticos siempre que las cada vez más poderosas máquinas que hacen las aplicaciones de IA posible.

■ La teoría de control con diseño de dispositivos que actúan de manera óptima sobre la base de la retroalimentación del medio ambiente. Inicialmente, las herramientas matemáticas de la teoría de control eran muy diferentes de la IA, pero los campos están llegando más cerca.

• La historia de Al ha tenido ciclos de éxito, el optimismo fuera de lugar. y resultando los recortes en el entusiasmo y la financiación. También ha habido ciclos de la introducción de nuevos enfoques creativos y refinar sistemáticamente las mejores.■ AI ha avanzado más rápidamente en la última década debido a un mayor uso del método científico en la experimentación y la comparación de enfoques.■ Los recientes avances en la comprensión de la base teórica de la inteligencia ha ido de la mano con mejoras en las capacidades de los sistemas reales. Los subcampos de AI se han integrado más, y AI ha encontrado un terreno común con otras disciplinas.