Una breve historia de la inteligencia artificial

¿Pueden pensar las máquinas?

En la primera mitad de la 20 ª siglo, la ciencia ficción familiarizado con el mundo el concepto de robots de inteligencia artificial. Comenzó con el hombre de hojalata “sin corazón” del Mago de Oz y continuó con el robot humanoide que se hizo pasar por María en Metrópolis.. En la década de 1950, teníamos una generación de científicos, matemáticos y filósofos con el concepto de inteligencia artificial (o IA) asimilado culturalmente en sus mentes. Una de esas personas fue Alan Turing, un joven erudito británico que exploró la posibilidad matemática de la inteligencia artificial. Turing sugirió que los humanos usan la información disponible y la razón para resolver problemas y tomar decisiones, entonces, ¿por qué las máquinas no pueden hacer lo mismo? Este fue el marco lógico de su artículo de 1950, Computing Machinery and Intelligence, en el que discutió cómo construir máquinas inteligentes y cómo probar su inteligencia.

Haciendo posible la persecución

Desafortunadamente, hablar es barato. ¿Qué impidió que Turing se pusiera a trabajar en ese mismo momento? Primero, las computadoras necesitaban un cambio fundamental. Antes de 1949, las computadoras carecían de un requisito previo clave para la inteligencia: no podían almacenar comandos, solo ejecutarlos. En otras palabras, a las computadoras se les puede decir lo que deben hacer, pero no pueden recordar lo que hacen. En segundo lugar, la informática era extremadamente cara . A principios de la década de 1950, el costo de arrendar una computadora ascendía a 200.000 dólares al mes. Solo universidades prestigiosas y grandes empresas tecnológicas podían permitirse el lujo de meterse en estas aguas inexploradas. Se necesitaba una prueba de concepto, así como la defensa de personas de alto perfil, para persuadir a las fuentes de financiación de que valía la pena perseguir la inteligencia artificial.

La conferencia que lo inició todo

Cinco años más tarde, la prueba de concepto se inició a través de Allen Newell, Cliff Shaw y Herbert Simon’s, Logic Theorist . The Logic Theorist fue un programa diseñado para imitar las habilidades de resolución de problemas de un ser humano y fue financiado por Research and Development (RAND) Corporation. Muchos lo consideran el primer programa de inteligencia artificial y se presentó en el Proyecto de investigación de verano de Dartmouth sobre inteligencia artificial.(DSRPAI) organizada por John McCarthy y Marvin Minsky en 1956. En esta histórica conferencia, McCarthy, imaginando un gran esfuerzo de colaboración, reunió a los mejores investigadores de varios campos para una discusión abierta sobre inteligencia artificial, el término que acuñó al principio evento. Lamentablemente, la conferencia no cumplió con las expectativas de McCarthy; la gente iba y venía a su antojo, y no se llegó a un acuerdo sobre los métodos estándar para el campo. A pesar de esto, todos se alinearon de todo corazón con el sentimiento de que la IA se podía lograr. La importancia de este evento no se puede socavar, ya que catalizó los próximos veinte años de investigación en IA.

Montaña rusa de éxitos y reveses

De 1957 a 1974, la IA floreció. Las computadoras podían almacenar más información y ser más rápidas, más baratas y más accesibles. Los algoritmos de aprendizaje automático también mejoraron y las personas mejoraron en saber qué algoritmo aplicar a su problema. Las primeras demostraciones como Newell y Simon’s General Problem Solver y ELIZA de Joseph Weizenbaum mostraron promesas hacia los objetivos de resolución de problemas y la interpretación del lenguaje hablado, respectivamente. Estos éxitos, así como la defensa de los principales investigadores (es decir, los asistentes a la DSRPAI) convencieron a agencias gubernamentales como la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) para financiarInvestigación de IA en varias instituciones. El gobierno estaba particularmente interesado en una máquina que pudiera transcribir y traducir el lenguaje hablado, así como el procesamiento de datos de alto rendimiento. El optimismo era alto y las expectativas eran aún mayores. En 1970, Marvin Minsky le dijo a Life Magazine, “de tres a ocho años tendremos una máquina con la inteligencia general de un ser humano promedio”. Sin embargo, si bien la prueba de principio básica estaba allí, todavía quedaba un largo camino por recorrer antes de que pudieran lograrse los objetivos finales del procesamiento del lenguaje natural, el pensamiento abstracto y el autorreconocimiento.

Anyoha SITN Figura 2 Cronología de IA

Romper la niebla inicial de la IA reveló una montaña de obstáculos. El más grande fue la falta de poder computacional para hacer algo sustancial: las computadoras simplemente no podían almacenar suficiente información o procesarla lo suficientemente rápido. Para comunicarse, por ejemplo, es necesario conocer el significado de muchas palabras y comprenderlas en muchas combinaciones. Hans Moravec, un estudiante de doctorado de McCarthy en ese momento, afirmó que “las computadoras todavía eran millones de veces demasiado débiles para exhibir inteligencia”. A medida que la paciencia se fue agotando, también lo hizo la financiación, y la investigación llegó a un ritmo lento durante diez años.

En la década de 1980, la inteligencia artificial fue reactivada por dos fuentes: una expansión del conjunto de herramientas algorítmicas y un impulso de fondos. John Hopfield y David Rumelhart popularizaron las técnicas de “aprendizaje profundo” que permitían a las computadoras aprender usando la experiencia. Por otro lado, Edward Feigenbaum introdujo sistemas expertos que imitaban el proceso de toma de decisiones de un experto humano. El programa le preguntaría a un experto en un campo cómo responder en una situación dada, y una vez que esto se aprendiera para prácticamente todas las situaciones, los no expertos podrían recibir asesoramiento de ese programa. Los sistemas expertos se utilizaron ampliamente en las industrias. El gobierno japonés financió fuertemente los sistemas expertos y otros esfuerzos relacionados con la inteligencia artificial como parte de su Proyecto de Computadora de Quinta Generación.(FGCP). De 1982 a 1990, invirtieron 400 millones de dólares con el objetivo de revolucionar el procesamiento de computadoras, implementar la programación lógica y mejorar la inteligencia artificial. Desafortunadamente, la mayoría de los ambiciosos objetivos no se cumplieron. Sin embargo, se podría argumentar que los efectos indirectos del FGCP inspiraron a una joven y talentosa generación de ingenieros y científicos. Independientemente, la financiación del FGCP cesó y AI salió del centro de atención.

Irónicamente, en ausencia de financiación gubernamental y publicidad pública, la IA prosperó. Durante las décadas de 1990 y 2000, se habían logrado muchos de los objetivos históricos de la inteligencia artificial. En 1997, el actual campeón mundial de ajedrez y gran maestro Gary Kasparov fue derrotado por Deep Blue de IBM , un programa informático para jugar al ajedrez. Esta partida altamente publicitada fue la primera vez que un campeón mundial de ajedrez perdió ante una computadora y sirvió como un gran paso hacia un programa de toma de decisiones artificialmente inteligente. En el mismo año, el software de reconocimiento de voz, desarrollado por Dragon Systems, se implementó en Windows.. Este fue otro gran paso adelante, pero en la dirección del esfuerzo de interpretación del lenguaje hablado. Parecía que no había ningún problema que las máquinas no pudieran manejar. Incluso la emoción humana era un juego limpio como lo demuestra Kismet , un robot desarrollado por Cynthia Breazeal que podía reconocer y mostrar emociones.

El tiempo cura todas las heridas

No nos hemos vuelto más inteligentes sobre cómo estamos codificando la inteligencia artificial, entonces, ¿qué cambió? Resulta que el límite fundamental del almacenamiento informático que nos retenía hace 30 años ya no era un problema. La Ley de Moore , que estima que la memoria y la velocidad de las computadoras se duplica cada año, finalmente se puso al día y, en muchos casos, superó nuestras necesidades. Así es precisamente cómo Deep Blue pudo derrotar a Gary Kasparov en 1997, y cómo Alpha Go de Google pudo derrotar al campeón chino de Go, Ke Jie, hace solo unos meses. Ofrece una pequeña explicación a la montaña rusa de la investigación de la IA; saturamos las capacidades de la IA al nivel de nuestro poder computacional actual (almacenamiento de la computadora y velocidad de procesamiento), y luego esperamos a que la Ley de Moore vuelva a ponerse al día.

La inteligencia artificial está en todas partes

Ahora vivimos en la era de los ” macrodatos ” , una época en la que tenemos la capacidad de recopilar enormes sumas de información demasiado engorrosas para que una persona pueda procesarlas. La aplicación de la inteligencia artificial a este respecto ya ha sido bastante fructífera en varias industrias como la tecnología, la banca , el marketing y el entretenimiento . Hemos visto que incluso si los algoritmos no mejoran mucho, el big data y la computación masiva simplemente permiten que la inteligencia artificial aprenda a través de la fuerza bruta. Puede haber evidencia de que la ley de Moore se está desacelerando un poco, pero el aumento de datos ciertamente no ha perdido impulso.. Los avances en informática, matemáticas o neurociencia sirven como salidas potenciales a través del techo de la Ley de Moore.

Realizamos una animación de una fotografía antigua usando IA

Usamos esta fotografía como referencia para realizar la animación con la IA
Animación con IA del Expresidente de Guatemala Juan Jacobo Árbenz Guzmán (Quetzaltenango, 14 de septiembre de 1913-Ciudad de México, 27 de enero de 1971) 

El futuro

Entonces, ¿qué nos depara el futuro? En el futuro inmediato, el lenguaje de la IA parece ser la próxima gran novedad. De hecho, ya está en marcha. No recuerdo la última vez que llamé a una empresa y hablé directamente con un humano. ¡En estos días, las máquinas incluso me están llamando! Uno podría imaginarse interactuar con un sistema experto en una conversación fluida, o tener una conversación en dos idiomas diferentes siendo traducida en tiempo real. También podemos esperar ver autos sin conductor.en la carretera en los próximos veinte años (y eso es conservador). A largo plazo, el objetivo es la inteligencia general, que es una máquina que supera las capacidades cognitivas humanas en todas las tareas. Esto está en la línea del robot sensible que estamos acostumbrados a ver en las películas. A mí me parece inconcebible que esto se logre en los próximos 50 años. Incluso si la capacidad está ahí, las cuestiones éticas servirían como una fuerte barrera contra la fructificación. Cuando llegue ese momento (pero mejor incluso antes de que llegue el momento), necesitaremos tener una conversación seria sobre la política y la ética de las máquinas (irónicamente, ambos sujetos fundamentalmente humanos), pero por ahora, permitiremos que la IA mejore constantemente y se vuelva loca. en sociedad.

Breve cronología de la IA

1308 El poeta y teólogo catalán Ramon Llull publica Ars generalis ultima (El último arte general), perfeccionando aún más su método de utilizar medios mecánicos basados ​​en papel para crear nuevos conocimientos a partir de combinaciones de conceptos.

1666 El matemático y filósofo Gottfried Leibniz publica Dissertatio de arte combinatoria (Sobre el arte combinatorio), siguiendo a Ramon Llull al proponer un alfabeto del pensamiento humano y argumentar que todas las ideas no son más que combinaciones de un número relativamente pequeño de conceptos simples.

1726 Jonathan Swift publica Los viajes de Gulliver , que incluye una descripción de la Máquina, una máquina en la isla de Laputa (y una parodia de las ideas de Llull): “un proyecto para mejorar el conocimiento especulativo mediante operaciones prácticas y mecánicas”. Mediante el uso de esta “Controversia”, “la Persona más ignorante a un precio razonable y con un poco de trabajo corporal, puede escribir libros de filosofía, poesía, política, derecho, matemáticas y teología, con la menor ayuda de un genio o de estudios”. “

1763 Thomas Bayes desarrolla un marco para razonar sobre la probabilidad de eventos. La inferencia bayesiana se convertirá en un enfoque líder en el aprendizaje automático.

1854  George Boole sostiene que el razonamiento lógico se puede realizar de forma sistemática de la misma manera que se resuelve un sistema de ecuaciones.

1898 En una exhibición de electricidad en el Madison Square Garden, recientemente terminado, Nikola Tesla hace una demostración del primer barco controlado por radio del mundo El barco estaba equipado con, como describió Tesla, “una mente prestada”.

1914 El ingeniero español Leonardo Torres y Quevedo demuestra la primera máquina de jugar al ajedrez, capaz de jugar finales de rey y torre contra rey sin intervención humana.

1921 El escritor checo Karel Čapek introduce la palabra “robot” en su obra RUR (Robots universales de Rossum). La palabra “robot” proviene de la palabra “robota” (trabajo).

1925 Houdina Radio Control lanza un automóvil sin conductor controlado por radio que recorre las calles de la ciudad de Nueva York.

1927 Se estrena la película de ciencia ficción Metropolis . Cuenta con un robot doble de una campesina, María, que desata el caos en el Berlín de 2026: fue el primer robot representado en una película, inspirando el aspecto Art Deco de C-3PO en Star Wars .

1929 Makoto Nishimura diseña Gakutensoku , japonés para “aprender de las leyes de la naturaleza”, el primer robot construido en Japón. Podría cambiar su expresión facial y mover la cabeza y las manos a través de un mecanismo de presión de aire.

1943 Warren S. McCulloch y Walter Pitts publican “Un cálculo lógico de las ideas inmanentes en la actividad nerviosa” en el Bulletin of Mathematical Biphysics . Este artículo influyente, en el que discutieron las redes de “neuronas” artificiales idealizadas y simplificadas y cómo podrían realizar funciones lógicas simples, se convertirá en la inspiración para las “redes neuronales” basadas en computadoras (y más tarde el “aprendizaje profundo”) y su descripción popular como “imitar el cerebro”.

1949   Edmund Berkeley publica Giant Brains: Or Machines That Think en el que escribe: “Recientemente ha habido una gran cantidad de noticias sobre extrañas máquinas gigantes que pueden manejar información con gran velocidad y habilidad … Estas máquinas son similares a lo que haría un cerebro sea ​​si estuviera hecho de hardware y alambre en lugar de carne y nervios… Una máquina puede manejar información; puede calcular, concluir y elegir; puede realizar operaciones razonables con información. Una máquina, por tanto, puede pensar “.

1949 Donald Hebb publica Organization of Behavior: A Neuropsychological Theory en la que propone una teoría sobre el aprendizaje basada en conjeturas sobre las redes neuronales y la capacidad de las sinapsis para fortalecerse o debilitarse con el tiempo.

1950  “Programación de una computadora para jugar al ajedrez” de Claude Shannon es el primer artículo publicado sobre el desarrollo de un programa de computadora para jugar al ajedrez .

1950 Alan Turing publica “Computing Machinery and Intelligence” en el que propone “el juego de imitación” que luego se conocerá como el “Test de Turing”.

1951 Marvin Minsky y Dean Edmunds construyen SNARC (Calculadora de refuerzo análogo neuronal estocástico), la primera red neuronal artificial, utilizando 3000 tubos de vacío para simular una red de 40 neuronas.

1952  Arthur Samuel desarrolla el primer programa de computadora para jugar a las damas y el primer programa de computadora para aprender por sí solo.

31 de agosto de 1955 El término “inteligencia artificial” se acuñó en una propuesta para un “estudio de inteligencia artificial de 2 meses y 10 hombres” presentado por John McCarthy (Dartmouth College), Marvin Minsky (Universidad de Harvard), Nathaniel Rochester (IBM), y Claude Shannon (Bell Telephone Laboratories). El taller, que tuvo lugar un año después, en julio y agosto de 1956, se considera generalmente como la fecha de nacimiento oficial del nuevo campo.

Diciembre de 1955 Herbert Simon y Allen Newell desarrollan el Teórico de la Lógica , el primer programa de inteligencia artificial, que eventualmente probaría 38 de los primeros 52 teoremas en los Principia Mathematica de Whitehead y Russell .

1957 Frank Rosenblatt desarrolla Perceptron, una red neuronal artificial temprana que permite el reconocimiento de patrones basado en una red de aprendizaje por computadora de dos capas. El New York Times informó que el Perceptron es “el embrión de una computadora electrónica que [la Marina] espera que sea capaz de caminar, hablar, ver, escribir, reproducirse y ser consciente de su existencia”. The New Yorker lo llamó una “máquina extraordinaria … capaz de lo que equivale a pensar”.

1958 John McCarthy desarrolla el lenguaje de programación Lisp, que se convierte en el lenguaje de programación más popular utilizado en la investigación de inteligencia artificial.

1959 Arthur Samuel acuña el término “aprendizaje automático”, informando sobre la programación de una computadora “para que aprenda a jugar un juego de damas mejor que el que puede jugar la persona que escribió el programa”.

1959 Oliver Selfridge publica “ Pandemonium: un paradigma para el aprendizaje ” en las Actas del Simposio sobre mecanización de procesos de pensamiento , en el que describe un modelo para un proceso mediante el cual las computadoras podrían reconocer patrones que no se han especificado de antemano.

1959 John McCarthy publica ” Programas con sentido común ” en las Actas del Simposio sobre la mecanización de procesos de pensamiento , en el que describe el Asesor Taker, un programa para resolver problemas mediante la manipulación de oraciones en lenguajes formales con el objetivo último de hacer programas “que aprender de su experiencia con la misma eficacia que los humanos “.

1961 El primer robot industrial, Unimate , comienza a trabajar en una línea de montaje en una planta de General Motors en Nueva Jersey.

1961 James Slagle desarrolla SAINT (Symbolic Automatic INTegrator), un programa heurístico que resolvió problemas de integración simbólica en el cálculo de estudiantes de primer año.

1964 Daniel Bobrow completa su disertación de doctorado en el MIT titulada “ Entrada de lenguaje natural para un sistema de resolución de problemas informáticos ” y desarrolla ESTUDIANTE, un programa informático de comprensión del lenguaje natural.

1965  Herbert Simon predice que “las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que un hombre pueda hacer”.

1965  Hubert Dreyfus publica “Alquimia y IA”, argumentando que la mente no es como una computadora y que había límites más allá de los cuales la IA no progresaría.

1965  IJ Good escribe en “Especulaciones sobre la primera máquina ultrainteligente” que ” la primera máquina ultrainteligente es el último invento que el hombre necesita hacer, siempre que la máquina sea lo suficientemente dócil para decirnos cómo mantenerla bajo control”.

1965 Joseph Weizenbaum desarrolla ELIZA , un programa interactivo que lleva a cabo un diálogo en idioma inglés sobre cualquier tema. Weizenbaum, que quería demostrar la superficialidad de la comunicación entre el hombre y la máquina, se sorprendió por la cantidad de personas que atribuían sentimientos similares a los humanos al programa de computadora.

1965 Edward Feigenbaum, Bruce G. Buchanan, Joshua Lederberg y Carl Djerassi comienzan a trabajar en DENDRAL en la Universidad de Stanford. El primer sistema experto, automatizó el proceso de toma de decisiones y el comportamiento de resolución de problemas de los químicos orgánicos, con el objetivo general de estudiar la formación de hipótesis y construir modelos de inducción empírica en la ciencia.

1966 El robot Shakey es el primer robot móvil de propósito general capaz de razonar sobre sus propias acciones. En un artículo de la revista Life de 1970 sobre esta “primera persona electrónica”, se cita a Marvin Minsky diciendo con “certeza”: “En de tres a ocho años tendremos una máquina con la inteligencia general de un ser humano promedio”.

1968 Se estrena la película 2001: Space Odyssey , protagonizada por Hal, una computadora inteligente.

1968 Terry Winograd desarrolla SHRDLU , un programa informático de comprensión del lenguaje natural temprano.

1969 Arthur Bryson y Yu-Chi Ho describen la retropropagación como un método de optimización del sistema dinámico de múltiples etapas. Un algoritmo de aprendizaje para redes neuronales artificiales multicapa, ha contribuido significativamente al éxito del aprendizaje profundo en las décadas de 2000 y 2010, una vez que la potencia informática ha avanzado lo suficiente para adaptarse al entrenamiento de grandes redes.

1969 Marvin Minsky y Seymour Papert publican Perceptrons: An Introduction to Computational Geometry , destacando las limitaciones de las redes neuronales simples. En una edición ampliada publicada en 1988, respondieron a las afirmaciones de que sus conclusiones de 1969 redujeron significativamente el financiamiento para la investigación de redes neuronales: “Nuestra versión es que el progreso ya se había detenido virtualmente debido a la falta de teorías básicas adecuadas … a mediados de En la década de 1960 se habían realizado muchos experimentos con perceptrones, pero nadie había sido capaz de explicar por qué eran capaces de reconocer ciertos tipos de patrones y no otros “.

1970 Se construye el primer robot antropomórfico, el WABOT-1 , en la Universidad de Waseda en Japón. Consistía en un sistema de control de extremidades, un sistema de visión y un sistema de conversación.

1972   MYCIN , un sistema experto temprano para identificar bacterias que causan infecciones graves y recomendar antibióticos, se desarrolla en la Universidad de Stanford.

1973  James Lighthill informa al Consejo Británico de Investigación Científica sobre la investigación estatal en inteligencia artificial, concluyendo que “en ninguna parte del campo los descubrimientos realizados hasta ahora han producido el gran impacto que se prometió”, lo que llevó a una drástica reducción del apoyo gubernamental para la investigación de la IA. .

1976 El informático Raj Reddy publica “Reconocimiento de voz por máquina: una revisión” en las Actas del IEEE , que resume el trabajo inicial sobre el procesamiento del lenguaje natural (PNL).

1978 Se desarrolla en la Universidad Carnegie Mellon el programa XCON (eXpert CONfigurer), un sistema experto basado en reglas que ayuda en el pedido de computadoras VAX de DEC seleccionando automáticamente los componentes según los requisitos del cliente.

1979  El Stanford Cart atraviesa con éxito una habitación llena de sillas sin intervención humana en unas cinco horas, convirtiéndose en uno de los primeros ejemplos de vehículo autónomo.

1980  Se construye Wabot-2 en la Universidad de Waseda en Japón, un robot humanoide músico capaz de comunicarse con una persona, leer una partitura musical y tocar melodías de dificultad media en un órgano electrónico.

1981 El Ministerio de Industria y Comercio Internacional de Japón presupuesta $ 850 millones para el proyecto de Computadora de Quinta Generación . El proyecto tenía como objetivo desarrollar computadoras que pudieran mantener conversaciones, traducir idiomas, interpretar imágenes y razonar como seres humanos.

1984  Se estrena Electric Dreams , una película sobre un triángulo amoroso entre un hombre, una mujer y una computadora personal.

1984 En la reunión anual de AAAI, Roger Schank y Marvin Minsky advierten sobre el próximo ” Invierno de la IA ” , prediciendo un estallido inmanente de la burbuja de la IA (que ocurrió tres años después), similar a la reducción de la inversión en IA y la financiación de la investigación en mediados de la década de 1970.

1986 Primer automóvil sin conductor, una camioneta Mercedes-Benz equipada con cámaras y sensores, construida en la Universidad Bundeswehr en Munich bajo la dirección de Ernst Dickmanns , conduce hasta 55 mph en calles vacías.

Octubre de 1986 David Rumelhart, Geoffrey Hinton y Ronald Williams publican ” Representaciones de aprendizaje mediante errores de retropropagación “, en la que describen “un nuevo procedimiento de aprendizaje, retropropagación, para redes de unidades similares a neuronas”.

1987 El video Knowledge Navigator , que acompaña al discurso de apertura del CEO de Apple, John Sculley, en Educom, prevé un futuro en el que “agentes inteligentes que trabajen en redes conectadas a cantidades masivas de información digitalizada accederán a las aplicaciones de conocimiento”.

1988 Judea Pearl publica Razonamiento probabilístico en sistemas inteligentes . Su mención del Premio Turing 2011 dice: “Judea Pearl creó la base de representación y computación para el procesamiento de información en condiciones de incertidumbre. Se le atribuye la invención de las redes bayesianas, un formalismo matemático para definir modelos de probabilidad complejos, así como los principales algoritmos utilizados para la inferencia en estos modelos. Este trabajo no solo revolucionó el campo de la inteligencia artificial, sino que también se convirtió en una herramienta importante para muchas otras ramas de la ingeniería y las ciencias naturales ”.

1988 Rollo Carpenter desarrolla el chat-bot Jabberwacky para “simular el chat humano natural de una manera interesante, entretenida y divertida”. Es un intento temprano de crear inteligencia artificial a través de la interacción humana.

1988 Los miembros del IBM TJ Watson Research Center publican ” Un enfoque estadístico para la traducción de idiomas “, que anuncia el cambio de los métodos basados ​​en reglas a los métodos probabilísticos de traducción automática y refleja un cambio más amplio hacia el “aprendizaje automático” basado en el análisis estadístico de ejemplos conocidos. , no comprensión y “comprensión” de la tarea en cuestión (el proyecto Candide de IBM, que se tradujo con éxito del inglés al francés, se basó en 2,2 millones de pares de oraciones, en su mayoría de los procedimientos bilingües del parlamento canadiense).

1988 Marvin Minsky y Seymour Papert publican una edición ampliada de su libro de 1969 Perceptrons . En “Prólogo: una visión de 1988”, escribieron: “Una de las razones por las que el progreso ha sido tan lento en este campo es que los investigadores que no están familiarizados con su historia han seguido cometiendo muchos de los mismos errores que otros han cometido antes que ellos”.

1989 Yann LeCun y otros investigadores de AT&T Bell Labs aplican con éxito un algoritmo de retropropagación a una red neuronal multicapa, reconociendo códigos postales escritos a mano. Dadas las limitaciones de hardware en ese momento, tomó alrededor de 3 días (aún una mejora significativa con respecto a los esfuerzos anteriores) para capacitar a la red.

1990 Rodney Brooks publica “Los elefantes no juegan al ajedrez “, que propone un nuevo enfoque de la inteligencia artificial: la construcción de sistemas inteligentes, específicamente robots, desde cero y sobre la base de la interacción física continua con el medio ambiente: “El mundo es lo mejor de sí mismo”. modelo … El truco consiste en detectarlo de forma adecuada y con la suficiente frecuencia “.

1993 Vernor Vinge publica “ La singularidad tecnológica venidera ”, en la que predice que “dentro de treinta años, tendremos los medios tecnológicos para crear inteligencia sobrehumana. Poco después, la era humana terminará “.

1995 Richard Wallace desarrolla el chatbot ALICE (Entidad informática de Internet lingüística artificial), inspirado en el programa ELIZA de Joseph Weizenbaum, pero con la incorporación de la recopilación de datos de muestra de lenguaje natural a una escala sin precedentes, gracias al advenimiento de la Web.

1997 Sepp Hochreiter y Jürgen Schmidhuber proponen Long Short-Term Memory (LSTM), un tipo de red neuronal recurrente que se utiliza hoy en día en el reconocimiento de escritura a mano y el reconocimiento de voz.

1997   Deep Blue se convierte en el primer programa informático de ajedrez en vencer a un campeón mundial de ajedrez.

1998 Dave Hampton y Caleb Chung crean Furby , el primer robot doméstico o mascota.

1998 Yann LeCun, Yoshua Bengio y otros publican artículos sobre la aplicación de redes neuronales al reconocimiento de escritura a mano y sobre la optimización de la propagación hacia atrás .

2000 Cynthia Breazeal del MIT desarrolla Kismet , un robot que puede reconocer y simular emociones.

2000 El robot ASIMO de Honda , un robot humanoide artificialmente inteligente, es capaz de caminar tan rápido como un humano, entregando bandejas a los clientes en un restaurante.

2001  Se lanza AI Artificial Intelligence , una película de Steven Spielberg sobre David, un androide infantil programado de forma única con la capacidad de amar.

2004 El primer DARPA Grand Challenge , un concurso de premios para vehículos autónomos, se lleva a cabo en el desierto de Mojave. Ninguno de los vehículos autónomos terminó la ruta de 150 millas.

2006 Oren Etzioni, Michele Banko y Michael Cafarella acuñan el término ” lectura automática “, definiéndolo como una “comprensión autónoma del texto” inherentemente no supervisada.

2006 Geoffrey Hinton publica ” Learning Multiple Layers of Representation ” , que resume las ideas que han llevado a “redes neuronales multicapa que contienen conexiones de arriba hacia abajo y las entrenan para generar datos sensoriales en lugar de clasificarlos”, es decir, los nuevos enfoques de aprendiendo.

2007 Fei Fei Li y sus colegas de la Universidad de Princeton comienzan a ensamblar ImageNet , una gran base de datos de imágenes anotadas diseñada para ayudar en la investigación del software de reconocimiento visual de objetos.

2009 Rajat Raina, Anand Madhavan y Andrew Ng publican ” Aprendizaje profundo no supervisado a gran escala usando procesadores gráficos “, argumentando que “los procesadores gráficos modernos superan con creces las capacidades computacionales de las CPU multinúcleo y tienen el potencial de revolucionar la aplicabilidad de métodos de aprendizaje profundo no supervisado”. . “

2009 Google comienza a desarrollar, en secreto, un automóvil sin conductor . En 2014, se convirtió en el primero en aprobar, en Nevada , una prueba de conducción autónoma del estado de EE. UU.

2009 Los científicos informáticos del Laboratorio de Información Inteligente de la Universidad Northwestern desarrollan Stats Monkey , un programa que escribe noticias deportivas sin intervención humana.

2010 Lanzamiento del ImageNet Large Scale Visual Recognition Challenge (ILSVCR), un concurso anual de reconocimiento de objetos de IA.

2011 Una red neuronal convolucional gana el concurso alemán de reconocimiento de señales de tráfico con un 99,46% de precisión (frente a los humanos con un 99,22%).

2011 Watson, una computadora que responde preguntas en lenguaje natural, compite en Jeopardy! y derrota a dos ex campeones.

2011 Investigadores de IDSIA en Suiza informan una tasa de error del 0,27% en el reconocimiento de escritura a mano utilizando redes neuronales convolucionales, una mejora significativa con respecto a la tasa de error de 0,35% -0,40% en años anteriores.

Junio ​​de 2012 Jeff Dean y Andrew Ng informan sobre un experimento en el que mostraron una red neuronal muy grande 10 millones de imágenes sin etiquetar tomadas al azar de videos de YouTube, y “para nuestra diversión, una de nuestras neuronas artificiales aprendió a responder fuertemente a imágenes de … . gatos. “

Octubre de 2012 Una red neuronal convolucional diseñada por investigadores de la Universidad de Toronto logró una tasa de error de solo el 16% en el ImageNet Large Scale Visual Recognition Challenge , una mejora significativa sobre la tasa de error del 25% lograda por la mejor entrada el año anterior.

Marzo de 2016 AlphaGo de Google DeepMind derrota al campeón de Go Lee Sedol.

Una cronología de los desarrollos en informática y robótica.

Los avances en la inteligencia artificial (IA) le han dado al mundo computadoras que pueden vencer a la gente en el ajedrez y “Jeopardy!”, Así como conducir automóviles y administrar calendarios. Pero a pesar del progreso, los ingenieros todavía están a años de desarrollar máquinas que sean conscientes de sí mismas. Algunos creen que la singularidad tecnológica resultante erradicará la pobreza y las enfermedades, mientras que otros advierten que podría poner en peligro la supervivencia humana.

Fuente: Universidad de Harvard, LiveScience y Forbes.