ıllı Internet y Tecnologías de la Información (2018)

internet, Hosting, dominios, seo, antivirus, banco de imágenes, páginas web, tiendas online

[Enciclopedia Online Gratuita] Diccionario de Internet y Tecnologías de la Información y la Comunicación (TIC):

ıllı Paradoja de Moravec : que es, definición y significado, descargar videos y fotos.

videos internet

salud  ıllı Paradoja de Moravec : que es, definición y significado, descargar videos y fotos.  


La paradoja de Moravec es el descubrimiento en el campo de la inteligencia artificial y robótica de que, de forma antiintuitiva, el pensamiento razonado humano (el pensamiento inteligente y racional) precisa de poca computación, al paso que las habilidades sensoriales y motoras, no conscientes y compartidas con muchos otros animales, precisan de grandes sacrificios computacionales. Este principio fue postulado por Hans Moravec, Rodney Brooks, Marvin Minsky y otros en la década de los ochenta. Como Moravec dijo: «es simple de manera comparativa lograr que las computadoras muestren capacidades afines a las de un humano adulto en tests de inteligencia, y bastante difícil o bien imposible conseguir que tengan las habilidades perceptivas y motrices de un bebé de un año».

Marvin Minsky escribió «En general, no somos siendo conscientes de nuestras mejores habilidades», agregando que «somos más siendo conscientes de los pequeños procesos que nos cuestan que en los complejos que se efectúan de forma fluida»

Una posible explicación a la paradoja deriva de la teoría de la evolución. Conforme a la selección natural, las capacidades humanas han sido mantenidas y optimizadas; más todavía, conforme más viejas eran esas habilidades, mayor tiempo ha habido para mejorarlas. Así, pues el pensamiento abstracto es un descubrimiento reciente en términos evolutivos, podría ser que no se hubiese alcanzado una solución eficaz por carencia de tiempo.

Una posible explicación de la paradoja, ofrecida por Moravec, se fundamenta en la evolución. Todas y cada una de las habilidades humanas se incorporan biológicamente, usando maquinaria desarrollada por el proceso de la selección natural. En el curso de su evolución, la selección natural ha tendido a conservar aquellas mejoras en el diseño y optimizaciones. Cuanto más vieja es una habilidad, más tiempo ha tenido la selección natural para progresar el diseño. El pensamiento abstracto se desarrolló últimamente, por consiguiente, no debemos aguardar que su aplicación sea singularmente eficaz.

Como Moravec escribe:

Una forma compacta de expresar este razonamiento sería:

  • Debemos aguardar que la complejidad de aplicar ingeniería inversa sobre cualquier habilidad humana haya de ser, aproximadamente, proporcional a la cantidad de tiempo que la habilidad ha tomado evolucionando en los animales.
  • Las más viejas habilidades humanas son, en una gran parte, inconscientes y de ahí que semejan ser simples.
  • Por lo tanto, debemos aguardar que las habilidades que aparenten ser simples sean bastante difíciles de aplicar ingeniería inversa, mas aquellas habilidades que requieren esmero no necesariamente puede ser bastante difíciles de diseñar en lo más mínimo.

Algunos ejemplos de las habilidades que han ido evolucionando a lo largo de millones de años son: el reconocimiento facial, desplazamiento en el espacio, juzgar las motivaciones de las personas, atrapar una pelota, reconocimiento de voz, establecimiento de objetivos alcanzables, prestar atención a las cosas interesantes; todo cuanto deba ver con la percepción, la atención, la visualización, las habilidades motoras, habilidades sociales, etc.

Algunos ejemplos de habilidades que han aparecido más últimamente son: las matemáticas, la ingeniería, juegos humanos, la lógica y la mayoría de lo que llamamos ciencia. Estos resultan ser bastante difíciles para nosotros, pues no son lo que nuestros cuerpos y cerebros se desarrollaron primordialmente para hacer. Estas son habilidades y técnicas adquiridas últimamente y han tenido unos pocos miles y miles de años para ser refinados, eminentemente por la evolución cultural.

En los primeros días de investigación sobre la inteligencia artificial, los primordiales estudiosos frecuentemente pronosticaron que serían capaces de crear máquinas pensantes en pocas décadas (ver la historia de la inteligencia artificial). Su optimismo se deriva en una parte del hecho de que habían tenido éxito en redactar programas que usan lógica, solucionar inconvenientes algebraicos y geométricos, y jugaban juegos como las damas y el ajedrez.

La lógica y el álgebra son difíciles para las personas con lo que son considerados un signo de inteligencia. Aceptaron que, teniendo (prácticamente) resueltos los inconvenientes "bastante difíciles", los inconvenientes "simples" de la visión y el argumento del los pies en el suelo pronto caerían en su sitio. Se confundieron, y una de las razones es que estos inconvenientes no son nada simples, sino más bien impresionantemente bastante difíciles. El hecho de que habían resuelto inconvenientes como la lógica y el álgebra era intrascendente, pues estos inconvenientes son exageradamente simples para ser resueltos por máquinas.

Rodney Brooks explica que, conforme las primeras investigaciones de IA, la inteligencia es "mejor caracterizada como las cosas que los científicos enormemente educados hallan retador", como el ajedrez, la integración simbólica, demostración de teoremas matemáticos y solucionar inconvenientes de álgebra difíciles. "Las cosas que los pequeños de 4 o bien 5 años podían hacer sin esmero, como distinguir visualmente entre una taza de café y una silla, o bien pasear en 2 patas, o bien hallar el camino desde su dormitorio a la sala no eran considerados como actividades que requiriesen inteligencia." 

Esto llevaría Brooks a proseguir una nueva dirección en la inteligencia artificial y la robótica. Decidió edificar máquinas inteligentes con "No cognición. Solo detección y acción. Eso es todo cuanto voy a edificar, totalmente dejando a un lado lo que de forma tradicional se pensó como la inteligencia de la inteligencia artificial." "? Esta nueva dirección, a la que llamó "Nouvelle IA" fue muy influyente en la robótica y la IA.

 

 

wiki  MÁS DATOS DE INTERÉS:

 

La historia de la Inteligencia Artificial (IA) comenzó en la antigüedad, con mitos, historias y rumores de seres artificiales dotados de inteligencia o conciencia por maestros artesanos; como Pamela McCorduck escribe, IA comenzó con ""un antiguo deseo de forjar los dioses".

Las semillas de la IA moderna fueron plantadas por filósofos clásicos que intentaron describir el proceso del pensamiento humano como la manipulación mecánica de los símbolos. Este trabajo culminó con la invención del ordenador digital programable en la década de 1940, una máquina basada en la esencia abstracta del razonamiento matemático. Este dispositivo y las ideas detrás de él inspiraron a un puñado de científicos a empezar a discutir seriamente la posibilidad de construir un cerebro electrónico.

El campo de investigación de la IA se fundó en un taller celebrado en el campus de Dartmouth College durante el verano de 1956. Los que asistieron se convertirían en los líderes de la investigación de la IA durante décadas. Muchos de ellos predijeron que una máquina tan inteligente como un ser humano existiría en no más de una generación y se les dieron millones de dólares para hacer realidad esta visión.

Con el tiempo se hizo evidente que habían subestimado enormemente la dificultad del proyecto. En 1973, en respuesta a las críticas a James Lighthill y a las continuas presiones del Congreso, los gobiernos de Estados Unidos y Gran Bretaña dejaron de financiar investigaciones no dirigidas a la inteligencia artificial, y los años difíciles que siguieron se conocieron más tarde como un ""invierno de la IA"". Siete años más tarde, una iniciativa visionaria del Gobierno japonés inspiró a los gobiernos y a la industria a proporcionar a AI miles de millones de dólares, pero a finales de los años 80 los inversores se desilusionaron por la falta de la potencia (hardware) necesaria para los ordenadores y volvieron a retirar la financiación.

La inversión y el interés en la IA se dispararon en las primeras décadas del siglo XXI, cuando el aprendizaje automático se aplicó con éxito a muchos problemas en la academia y la industria debido a la presencia de un potente hardware informático. Como en anteriores ""veranos de IA"", algunos observadores (como Ray Kurzweil) predijeron la inminente llegada de la inteligencia general artificial: una máquina con capacidades intelectuales que superan las capacidades de los seres humanos.

El sueño de la inteligencia artificial se pensó por primera vez en filosofías indias como las de Charvaka, una famosa tradición filosófica que se remonta al año 1500 a.C. y que sobrevive a documentos alrededor del año 600 a.C. McCorduck (2004) escribe que ""la inteligencia artificial de una forma u otra es una idea que ha impregnado la historia intelectual, un sueño que necesita urgentemente ser realizado"", expresada en mitos, leyendas, historias, especulaciones y relojes automáticos de la humanidad.

 

Inteligencia artificial en la ficción

Los hombres mecánicos y los seres artificiales aparecen en los mitos griegos, como los robots de oro de Hefesto y Galatea de Pigmalión En la Edad Media, había rumores de medios secretos místicos o alquímicos para poner la mente en la materia, como Takwin de Jābir ibn Hayyān, el homúnculo de Paracelso y el Golem del rabino Judá Loew.

En el siglo XIX, las ideas sobre los hombres artificiales y las máquinas de pensamiento se desarrollaron en la ficción, como en el Frankenstein de Mary Shelley o en el R.U.R. (Robots Universales de Rossum) de Karel Čapek, y la especulación, como ""Darwin among the Machines"" de Samuel Butler, ha seguido siendo un elemento importante de la ciencia ficción hasta el presente.

 

Autómatas programables de AutomatonAl-Jazari (1206 CE)

Los autómatas humanoides realistas fueron construidos por artesanos de todas las civilizaciones, incluyendo Yan Shi, Héroe de Alejandría, Al-Jazari, Pierre Jaquet-Droz y Wolfgang von Kempelen Los autómatas más antiguos conocidos eran las estatuas sagradas del antiguo Egipto y Grecia. Los fieles creían que el artesano había impregnado a estas figuras con mentes muy reales, capaces de sabiduría y emoción, y Germes Trismegistus escribió que ""al descubrir la verdadera naturaleza de los dioses, el hombre ha sido capaz de reproducirla"".

 

Razonamiento formal

La inteligencia artificial se basa en el supuesto de que el proceso del pensamiento humano puede ser mecanizado. El estudio del razonamiento mecánico o ""formal"" tiene una larga historia. Los filósofos chinos, indios y griegos desarrollaron métodos estructurados de deducción formal en el primer milenio antes de Cristo. Sus ideas fueron desarrolladas a lo largo de los siglos por filósofos como Aristóteles (que hizo un análisis formal del silogismo), Euclides (cuyos Elementos eran un modelo de razonamiento formal), al-Khwārizmī (que desarrolló el álgebra y dio su nombre al ""algoritmo"") y filósofos escolásticos europeos como Guillermo de Ockham y Duns Escoto.

El filósofo mallorquín Ramon Llull (1232-1315) desarrolló varias máquinas lógicas dedicadas a la producción de conocimiento por medios lógicos; Llull describió sus máquinas como entidades mecánicas que podían combinar verdades básicas e innegables mediante simples operaciones lógicas, producidas por la máquina mediante significados mecánicos, de tal forma que produjeran todo el conocimiento posible La obra de Llull influyó mucho en Gottfried Leibniz, que volvió a desarrollar sus ideas

Gottfried Leibniz, quien especuló que la razón humana podía reducirse a un cálculo mecánico.

En el siglo XVII, Leibniz, Thomas Hobbes y René Descartes exploraron la posibilidad de que todo pensamiento racional pudiera ser tan sistemático como el álgebra o la geometría, como escribió Hobbes en Leviatán: ""19] Leibniz concibió un lenguaje universal del razonamiento (su characteristica universalis) que reduciría la argumentación al cálculo, de modo que ""no habría más necesidad de disputa entre dos filósofos que entre dos contables"". Porque bastaría con tomar sus lápices en la mano, bajar a sus pizarras y decirse unos a otros (con un amigo como testigo, si quieren): Estos filósofos habían comenzado a articular la hipótesis del sistema de símbolos físicos que se convertiría en la fe guía de la investigación de la IA"".

En el siglo XX, el estudio de la lógica matemática proporcionó el avance esencial que hizo que la inteligencia artificial pareciera plausible. Los cimientos habían sido establecidos por obras como Las leyes del pensamiento de Boole y Begriffsschrift de Frege. Basándose en el sistema de Frege, Russell y Whitehead presentaron un tratamiento formal de los fundamentos de las matemáticas en su obra maestra, el Principia Mathematica en 1913. Inspirado por el éxito de Russell, David Hilbert desafió a los matemáticos de las décadas de 1920 y 1930 a responder esta pregunta fundamental: ""14] Su pregunta fue contestada con la prueba de Gödel de que estaba incompleta, la máquina de Turing y el cálculo de la lambda de Church

La ENIAC, en la Escuela de Ingeniería Eléctrica de Moore. Esta foto ha sido oscurecida artificialmente, oscureciendo detalles como las mujeres presentes y el equipo de IBM en uso.

Su respuesta fue sorprendente en dos sentidos. Primero, demostraron que, de hecho, existían límites a lo que la lógica matemática podía lograr. Pero en segundo lugar (y más importante para AI) su trabajo sugería que, dentro de estos límites, cualquier forma de razonamiento matemático podría ser mecanizado. La tesis de Church-Turing implicaba que un dispositivo mecánico, que barajaba símbolos tan simples como 0 y 1, podía imitar cualquier proceso concebible de deducción matemática. La idea clave fue la máquina de Turing, una construcción teórica simple que capturó la esencia de la manipulación abstracta de los símbolos. Esta invención inspiraría a un puñado de científicos a comenzar a discutir la posibilidad de las máquinas de pensamiento.

Las máquinas de cálculo fueron construidas en la antigüedad y mejoradas a lo largo de la historia por muchos matemáticos, incluyendo (una vez más) al filósofo Gottfried Leibniz. A principios del siglo XIX, Charles Babbage diseñó un ordenador programable (el Motor Analítico), aunque nunca se construyó.

Ada Lovelace especuló que la máquina ""podría componer piezas musicales elaboradas y científicas de cualquier grado de complejidad o extensión"" (a menudo se la acredita como la primera programadora por un conjunto de notas que escribió y que detallan completamente un método para calcular los números de Bernoulli con el motor).

Los primeros ordenadores modernos fueron las enormes máquinas de romper códigos de la Segunda Guerra Mundial (como Z3, ENIAC y Colossus). Las dos últimas de estas máquinas se basaban en los fundamentos teóricos establecidos por Alan Turing y desarrollados por John von Neumann

The IBM 702: un ordenador utilizado por la primera generación de investigadores de la IA.

En las décadas de 1940 y 1950, un puñado de científicos de una variedad de campos (matemáticas, psicología, ingeniería, economía y ciencias políticas) comenzaron a discutir la posibilidad de crear un cerebro artificial. El campo de la investigación de la inteligencia artificial se fundó como disciplina académica en 1956.

Cibernética y redes neuronales tempranas

Las primeras investigaciones sobre las máquinas de pensamiento se inspiraron en una confluencia de ideas que se generalizó a finales de la década de 1930, 1940 y principios de la década de 1950. Investigaciones recientes en neurología han demostrado que el cerebro es una red eléctrica de neuronas que disparan pulsos de todo o nada. La cibernética de Norbert Wiener describió el control y la estabilidad en las redes eléctricas. La teoría de la información de Claude Shannon describía las señales digitales (es decir, señales de todo o nada). La teoría de cálculo de Alan Turing mostraba que cualquier forma de cálculo podía ser descrita digitalmente. La estrecha relación entre estas ideas sugiere que podría ser posible construir un cerebro electrónico.

Ejemplos de trabajo en esta línea incluyen robots como las tortugas de W. Grey Walter y la Bestia de Johns Hopkins. Estas máquinas no utilizaban computadoras, electrónica digital o razonamiento simbólico; eran controladas enteramente por circuitos analógicos.

Walter Pitts y Warren McCulloch analizaron redes de neuronas artificiales idealizadas y mostraron cómo podrían realizar funciones lógicas simples. Uno de los estudiantes inspirado por Pitts y McCulloch fue un joven Marvin Minsky, entonces estudiante de postgrado de 24 años. En 1951 (con Dean Edmonds) construyó la primera máquina de redes neuronales, la SNARCMinsky, que se convertiría en uno de los líderes e innovadores más importantes de la IA durante los próximos 50 años.

 

El test de Turing

En 1950 Alan Turing publicó un artículo histórico en el que especulaba sobre la posibilidad de crear máquinas que piensen y señaló que ""pensar"" es difícil de definir e ideó su famoso Turing Test. Si una máquina podía mantener una conversación (a través de una teleimpresora) que era indistinguible de una conversación con un ser humano, entonces era razonable decir que la máquina estaba ""pensando"". Esta versión simplificada del problema permitió a Turing argumentar de manera convincente que una ""máquina de pensamiento"" era al menos plausible y que el documento respondía a todas las objeciones más comunes a la propuesta La Prueba de Turing fue la primera propuesta seria en la filosofía de la inteligencia artificial.

En 1951, usando la máquina Ferranti Mark 1 de la Universidad de Manchester, Christopher Strachey escribió un programa de damas y Dietrich Prinz uno para ajedrez El programa de damas de Arthur Samuel, desarrollado a mediados de los años 50 y principios de los 60, finalmente alcanzó la habilidad suficiente para desafiar a un respetable aficionado La IA de juego continuaría utilizándose como una medida de progreso en la IA a lo largo de su historia.

 

El razonamiento simbólico y la teoría de la lógica

Cuando el acceso a las computadoras digitales se hizo posible a mediados de los años cincuenta, algunos científicos reconocieron instintivamente que una máquina que podía manipular números también podía manipular símbolos y que la manipulación de símbolos bien podía ser la esencia del pensamiento humano. Este fue un nuevo enfoque para crear máquinas de pensamiento.

En 1955, Allen Newell y (futuro Premio Nobel) Herbert A. Simon crearon el ""Logic Theorist"" (con la ayuda de J. C. Shaw). El programa eventualmente probaría 38 de los primeros 52 teoremas enPrincipia Mathematica de Russell y Whitehead, y encontraría pruebas nuevas y más elegantes para algunos Simon dijo que habían ""resuelto el venerable problema mente/cuerpo, explicando cómo un sistema compuesto de materia puede tener las propiedades de la mente""(Esta fue una declaración temprana de la posición filosófica que John Searle más tarde llamaría ""Inteligencia Artificial Fuerte"": que las máquinas pueden contener mentes tal como lo hacen los cuerpos humanos).

 

Conferencia de Dartmouth 1956: el nacimiento de AI

La Conferencia de Dartmouth de 1956 fue organizada por Marvin Minsky, John McCarthy y dos científicos de alto nivel: Claude Shannon y Nathan Rochester de IBM. La propuesta para la conferencia incluía esta afirmación: ""Cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede describirse con tanta precisión que se puede hacer que una máquina la simule"" Entre los participantes se encontraban Ray Solomonoff, Oliver Selfridge, Trenchard More, Arthur Samuel, Allen Newell y Herbert A. Simon, todos los cuales crearon programas importantes durante las primeras décadas de investigación de la IA.

En la conferencia, Newell y Simon debutaron con el ""Teórico Lógico"" y McCarthy persuadió a los asistentes a aceptar la ""Inteligencia Artificial"" como el nombre del campo La conferencia de Dartmouth de 1956 fue el momento en que la IA ganó su nombre, su misión, su primer éxito y sus principales actores, y es ampliamente considerada el nacimiento de la IA.

Los años posteriores a la conferencia de Dartmouth fueron una era de descubrimientos, de carreras a toda velocidad por nuevos terrenos. Los programas que se desarrollaron durante este tiempo fueron, para la mayoría de la gente, simplemente ""asombrosos"": las computadoras estaban resolviendo problemas de álgebra, probando teoremas en geometría y aprendiendo a hablar inglés. Los investigadores expresaron un intenso optimismo en lo privado y en la prensa escrita, pronosticando que en menos de 20 años se construiría una máquina totalmente inteligente, y agencias gubernamentales como DARPA invirtieron dinero en el nuevo campo.

Hubo muchos programas exitosos y nuevas direcciones a finales de los años 50 y 60. Entre los más influyentes estaban estos:

 

Razonamiento como search

Muchos de los primeros programas de IA utilizaban el mismo algoritmo básico. Para lograr algún objetivo (como ganar un juego o demostrar un teorema), procedían paso a paso hacia él (haciendo un movimiento o una deducción) como si buscaran en un laberinto, retrocediendo cuando llegaban a un callejón sin salida. Este paradigma se llamaba ""razonamiento como búsqueda"".

La principal dificultad era que, para muchos problemas, el número de caminos posibles a través del ""laberinto"" era simplemente astronómico (una situación conocida como ""explosión combinatoria""). Los investigadores reducirían el espacio de búsqueda utilizando heurística o ""reglas generales"" que eliminarían aquellos caminos que probablemente no llevarían a una solución.

Newell y Simon intentaron capturar una versión general de este algoritmo en un programa llamado ""General Problem Solver"" Otros programas de ""búsqueda"" fueron capaces de realizar tareas impresionantes como resolver problemas de geometría y álgebra, como el Geometry Theorem Prover de Herbert Gelernter (1958) y SAINT, escrito por el estudiante de Minsky James Slagle (1961).

Otros programas buscaron a través de metas y subobjetivos para planificar acciones, como el sistema STRIPS desarrollado en Stanford para controlar el comportamiento de su robot Shakey

 

Lenguaje natural

Un objetivo importante de la investigación de la IA es permitir que las computadoras se comuniquen en idiomas naturales como el inglés. Un éxito temprano fue el programa STUDENT de Daniel Bobrow, que podía resolver problemas de álgebra de palabras en la escuela secundaria.

Una red semántica representa conceptos (por ejemplo, ""casa"", ""puerta"") como nodos y relaciones entre conceptos (por ejemplo, ""has-a"") como enlaces entre los nodos.

El primer programa de IA en utilizar una red semántica fue escrito por Ross Quillian y la versión más exitosa (y controvertida) fue la teoría de dependencia conceptual de Roger Schank.

El ELIZA de Joseph Weizenbaum podía llevar a cabo conversaciones que eran tan realistas que los usuarios ocasionalmente se engañaban al pensar que se estaban comunicando con un ser humano y no con un programa. Pero de hecho, ELIZA no tenía idea de lo que estaba hablando. Ella simplemente dio una respuesta enlatada o repitió lo que se le había dicho, reformulando su respuesta con unas cuantas reglas gramaticales. ELIZA fue el primer chatterbot.

 

Edición de Micro-mundos

A finales de los años 60, Marvin Minsky y Seymour Papert, del Laboratorio de IA del MIT, propusieron que la investigación de la IA se centrara en situaciones artificialmente simples conocidas como micromundos. Señalaron que en ciencias exitosas como la física, los principios básicos a menudo se comprendían mejor utilizando modelos simplificados como los planos sin fricción o los cuerpos perfectamente rígidos. Gran parte de la investigación se centró en un ""mundo de bloques"", que consiste en bloques de colores de diversas formas y tamaños dispuestos en una superficie plana.

Este paradigma llevó al trabajo innovador en visión artificial de Gerald Sussman (que dirigió el equipo), Adolfo Guzmán, David Waltz (que inventó la ""propagación de la restricción""), y especialmente Patrick Winston. Al mismo tiempo, Minsky y Papert construyeron un brazo robot que podía apilar bloques, dando vida al mundo de los bloques. El mayor logro del programa de micro-mundo fue el SHRDLU de Terry Winograd. Podía comunicarse en oraciones ordinarias en inglés, planificar operaciones y ejecutarlas.

 

El optimismo

La primera generación de investigadores de la IA hizo estas predicciones sobre su trabajo:

1958, H. A. Simon y Allen Newell: ""en diez años un ordenador digital será el campeón mundial de ajedrez"" y ""en diez años un ordenador digital descubrirá y probará un nuevo e importante teorema matemático"".

1965, H. A. Simon: ""las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que un hombre pueda hacer"".

1967, Marvin Minsky: ""Dentro de una generación... el problema de crear'inteligencia artificial' se resolverá sustancialmente"".

1970, Marvin Minsky (en la revista Life): ""En tres a ocho años tendremos una máquina con la inteligencia general de un ser humano promedio"".

El moneyEdit

En junio de 1963, el MIT recibió una subvención de 2,2 millones de dólares de la recién creada Agencia de Proyectos de Investigación Avanzada (más tarde conocida como DARPA). El dinero se utilizó para financiar el proyecto MAC que subsumió al ""Grupo AI"" fundado por Minsky y McCarthy cinco años antes. DARPA siguió aportando tres millones de dólares al año hasta los años 70. DARPA otorgó subvenciones similares al programa de Newell y Simon en CMU y al Stanford AI Project (fundado por John McCarthy en 1963) Otro importante laboratorio de IA fue establecido en la Universidad de Edimburgo por Donald Michie en 1965 Estas cuatro instituciones continuarán siendo los principales centros de investigación (y financiación) de IA en el ámbito académico durante muchos años.

El dinero fue ofrecido con pocas condiciones: J. C. R. Licklider, entonces director de ARPA, creía que su organización debía ""financiar a la gente, no a los proyectos"" y permitía a los investigadores seguir cualquier dirección que pudiera interesarles, lo que creó una atmósfera de libre albedrío en el MIT que dio origen a la cultura hacker, pero este enfoque de ""manos libres"" no duraría.

En Japón, la Universidad de Waseda inició el proyecto WABOT en 1967, y en 1972 completó el WABOT-1, el primer robot humanoide inteligente a escala real del mundo, o androide. Su sistema de control de extremidades le permitía caminar con las extremidades inferiores y agarrar y transportar objetos con las manos, utilizando sensores táctiles. Su sistema de visión le permitía medir distancias y direcciones a objetos utilizando receptores externos, ojos y oídos artificiales. Y su sistema de conversación le permitía comunicarse con una persona en japonés, con una boca artificial.

En la década de 1970, AI fue objeto de críticas y reveses financieros. Los investigadores de la IA no habían apreciado la dificultad de los problemas a los que se enfrentaban. Al mismo tiempo, el campo del conexionismo (o redes neuronales) fue cerrado casi por completo durante 10 años por la crítica devastadora de Marvin Minsky a los perceptores A pesar de las dificultades con la percepción pública de la IA a finales de los años 70, se exploraron nuevas ideas en la programación lógica, el razonamiento con sentido común y muchas otras áreas.

 

Los problemas

A principios de los años setenta, las capacidades de los programas de IA eran limitadas. Incluso los más impresionantes sólo podían manejar versiones triviales de los problemas que se suponía que debían resolver; todos los programas eran, en cierto sentido, ""juguetes"" Los investigadores de la IA habían empezado a toparse con varios límites fundamentales que no podían ser superados en la década de 1970. Aunque algunos de estos límites serían conquistados en décadas posteriores, otros siguen bloqueando el campo hasta el día de hoy.

Potencia limitada de la computadora: No había suficiente memoria o velocidad de procesamiento para lograr algo verdaderamente útil. Por ejemplo, el exitoso trabajo de Ross Quillian sobre el lenguaje natural se demostró con un vocabulario de sólo veinte palabras, porque eso era todo lo que cabía en la memoria Hans Moravec argumentó en 1976 que las computadoras todavía eran millones de veces demasiado débiles para mostrar inteligencia. Sugirió una analogía: la inteligencia artificial requiere potencia de ordenador de la misma manera que los aviones requieren caballos de fuerza. Por debajo de un cierto umbral, es imposible, pero, a medida que aumenta la potencia, podría llegar a ser fácil Con respecto a la visión por computador, Moravec estimó que simplemente igualar las capacidades de detección de bordes y de movimiento de la retina humana en tiempo real requeriría un ordenador de propósito general capaz de realizar 109 operaciones/segundo (1000 MIPS) A partir de 2011, las aplicaciones prácticas de visión por computador requieren entre 10.000 y 1.000.000.000 de MIPS. En comparación, el superordenador más rápido de 1976, Cray-1 (que vendía al por menor entre 5 y 8 millones de dólares), sólo tenía capacidad para entre 80 y 130 MIPS, y un ordenador de sobremesa típico en ese momento tenía menos de 1 MIPS.

La intratabilidad y la explosión combinatoria. En 1972 Richard Karp (basándose en el teorema de Stephen Cook de 1971) mostró que hay muchos problemas que probablemente sólo pueden ser resueltos en tiempo exponencial (en el tamaño de las entradas). Encontrar soluciones óptimas a estos problemas requiere cantidades inimaginables de tiempo de computadora, excepto cuando los problemas son triviales. Esto significaba casi con toda seguridad que muchas de las soluciones de ""juguete"" utilizadas por la IA probablemente nunca se ampliarían a sistemas útiles.

Conocimiento y razonamiento de sentido común. Muchas aplicaciones importantes de la inteligencia artificial, como la visión o el lenguaje natural, requieren simplemente una enorme cantidad de información sobre el mundo: el programa necesita tener alguna idea de lo que podría estar mirando o de lo que está hablando. Esto requiere que el programa sepa la mayoría de las mismas cosas sobre el mundo que un niño. Los investigadores pronto descubrieron que se trataba de una cantidad realmente enorme de información. Nadie en 1970 podía construir una base de datos tan grande y nadie sabía cómo un programa podía aprender tanta información.

 

La paradoja de Moravec:

Probar teoremas y resolver problemas de geometría es relativamente fácil para las computadoras, pero una tarea supuestamente simple como reconocer una cara o cruzar una habitación sin chocar con nada es extremadamente difícil. Esto ayuda a explicar por qué la investigación sobre la visión y la robótica había progresado tan poco a mediados de la década de 1970.

El marco y los problemas de calificación. Investigadores de IA (como John McCarthy) que usaron la lógica descubrieron que no podían representar deducciones ordinarias que implicaran planificación o razonamiento por defecto sin hacer cambios en la estructura de la lógica misma. Desarrollaron nuevas lógicas (como la lógica no monótona y la lógica modal) para tratar de resolver los problemas.

 

El fin de la financiación. Invierno AI

Las agencias que financiaron la investigación de la IA (como el gobierno británico, DARPA y NRC) se frustraron por la falta de progreso y finalmente cortaron casi toda la financiación para la investigación no dirigida de la IA. El patrón comenzó ya en 1966, cuando apareció el informe de ALPAC criticando los esfuerzos de traducción automática. En 1973, el informe Lighthill sobre el estado de la investigación de la IA en Inglaterra criticó el fracaso total de la IA para lograr sus ""objetivos grandiosos"" y condujo al desmantelamiento de la investigación de la IA en ese país.

 (El informe mencionaba específicamente el problema de la explosión combinatoria como una de las razones de las fallas de AI) DARPA estaba profundamente decepcionado con los investigadores que trabajaban en el programa de investigación de comprensión del habla de CMU y canceló una subvención anual de tres millones de dólares. 89] Para 1974, era difícil encontrar financiación para los proyectos de AI.

Hans Moravec atribuyó la crisis a las predicciones poco realistas de sus colegas. ""Sin embargo, había otro problema: desde la aprobación de la Enmienda Mansfield en 1969, DARPA había estado bajo una creciente presión para financiar ""investigación directa orientada a la misión, en lugar de investigación básica no dirigida"". Los fondos para la exploración creativa y libre que se había llevado a cabo en los años 60 no provendrían de DARPA. En cambio, el dinero se destinó a proyectos específicos con objetivos claros, tales como carros de combate autónomos y sistemas de gestión de batallas.

 

Filosofía de la inteligencia artificial

Varios filósofos tenían fuertes objeciones a las afirmaciones de los investigadores de la IA. Uno de los primeros fue John Lucas, quien argumentó que el teorema de Gödel'sincompletitud mostraba que un sistema formal (como un programa de computadora) nunca podría ver la verdad de ciertas declaraciones, mientras que un ser humano sí podría.

Hubert Dreyfus ridiculizó las promesas incumplidas de los años sesenta y criticó las suposiciones de AI, argumentando que el razonamiento humano en realidad implicaba muy poco ""procesamiento de símbolos"" y una gran parte del ""saber hacer"" encarnado, instintivo e inconsciente El argumento de John Searle sobre el Chinese Room, presentado en 1980, intentaba mostrar que no se podía decir que un programa ""entendiera"" los símbolos que utiliza (una cualidad llamada ""intencionalidad""). Si los símbolos no tienen ningún significado para la máquina, argumentó Searle, entonces la máquina no puede ser descrita como ""pensamiento"".

Estas críticas no fueron tomadas en serio por los investigadores de la IA, a menudo porque parecían estar muy alejadas del tema. Problemas como la intratabilidad y el conocimiento del sentido común parecían mucho más inmediatos y serios. No estaba claro qué diferencia hacía el ""saber hacer"" o la ""intencionalidad"" en un programa de ordenador real. Minsky dijo de Dreyfus y Searle que ""ellos no entienden bien y deben ser ignorados"" Dreyfus, que enseñaba en el MIT, fue ignorado: más tarde dijo que los investigadores de la IA ""no se atrevían a ser vistos almorzando conmigo"" Joseph Weizenbaum, el autor de ELIZA, sintió que el trato de sus colegas hacia Dreyfus era poco profesional e infantil. Aunque criticaba abiertamente las posiciones de Dreyfus, ""deliberadamente dejó claro que no era la manera de tratar a un ser humano"".

Weizenbaum comenzó a tener serias dudas éticas sobre la IA cuando Kenneth Colby escribió un ""programa de computadora que puede llevar a cabo un diálogo psicoterapéutico"" basado en ELIZA Weizenbaum se sintió perturbado por el hecho de que Colby considerara un programa sin sentido como una herramienta terapéutica seria. Comenzó una disputa y la situación no mejoró cuando Colby no dio crédito a Weizenbaum por su contribución al programa. En 1976, Weizenbaum publicó Computer Power and Human Reason, que argumentaba que el mal uso de la inteligencia artificial tiene el potencial de devaluar la vida humana.

 

Perceptrones y la oscura era del conexionismo

Un perceptrón era una forma de red neuronal introducida en 1958 por Frank Rosenblatt, que había sido compañero de clase de Marvin Minsky en la Bronx High School of Science.

Como la mayoría de los investigadores de la IA, era optimista acerca de su poder, prediciendo que ""el perceptrón puede eventualmente ser capaz de aprender, tomar decisiones y traducir idiomas"". A lo largo de los años sesenta se llevó a cabo un programa activo de investigación sobre el paradigma, pero se detuvo repentinamente con la publicación del libro de Minsky y Papert, Perceptrons, de 1969. Sugirió que había limitaciones severas a lo que las percepciones podían hacer y que las predicciones de Frank Rosenblatt habían sido extremadamente exageradas. El efecto del libro fue devastador: prácticamente no se hizo ninguna investigación sobre el conexismo durante 10 años. Eventualmente, una nueva generación de investigadores reviviría el campo y después se convertiría en una parte vital y útil de la inteligencia artificial. Rosenblatt no viviría para ver esto, ya que murió en un accidente de barco poco después de la publicación del libro.

 

Los neats: razonamiento lógico y simbólico

La lógica fue introducida en la investigación de la IA ya en 1958, por John McCarthy en su propuesta Advice Taker En 1963, J. Alan Robinson había descubierto un método sencillo para implementar la deducción en los ordenadores, la resolución y el algoritmo de unificación. Sin embargo, las implementaciones sencillas, como las que McCarthy y sus estudiantes intentaron a finales de la década de 1960, fueron especialmente intratables: los programas requerían un número astronómico de pasos para probar teoremas simples.102] Un enfoque más fructífero de la lógica fue desarrollado en los años 70 por Robert Kowalski en la Universidad de Edimburgo, y pronto esto condujo a la colaboración con los investigadores franceses Alain Colmerauer y Philippe Roussel, quienes crearon el exitoso lenguaje de programación lógica Prolog, que utiliza un subconjunto de lógica (cláusulas Horn, estrechamente relacionadas con las ""reglas"" y las ""reglas de producción"") que permiten la computación manejable. Las reglas continuarían siendo influyentes, proporcionando una base para los sistemas expertos de Edward Feigenbaum y el trabajo continuo de Allen Newell y Herbert A. Simon que llevaría a Soar y sus teorías unificadas de la cognición.

Los críticos del enfoque lógico señalaron, al igual que Dreyfus, que los seres humanos rara vez usaban la lógica cuando resolvían problemas. Experimentos de psicólogos como Peter Wason, Eleanor Rosch, Amos Tversky, Daniel Kahneman y otros proporcionaron pruebas:McCarthy respondió que lo que la gente hace es irrelevante. Argumentó que lo que realmente se necesita son máquinas que puedan resolver problemas, no máquinas que piensen como la gente.

 

Los desaliñados: cuadros y scripts

Entre los críticos del enfoque de McCarthy estaban sus colegas de todo el país en el MIT. Marvin Minsky, Seymour Papert y Roger Schank intentaban resolver problemas como la ""comprensión de la historia"" y el ""reconocimiento de objetos"" que exigían que una máquina pensara como una persona. Para utilizar conceptos ordinarios como ""silla"" o ""restaurante"" tenían que hacer las mismas suposiciones ilógicas que la gente hacía normalmente. Desafortunadamente, conceptos imprecisos como estos son difíciles de representar en la lógica. Gerald Sussman observó que ""usar un lenguaje preciso para describir conceptos esencialmente imprecisos no los hace más precisos"" Schank describió sus enfoques ""anti-lógicos"" como ""desaliñados"", en oposición a los paradigmas ""limpios"" usados por McCarthy, Kowalski, Feigenbaum, Newell y Simon.

En 1975, en un artículo fundamental, Minsky observó que muchos de sus compañeros investigadores ""desaliñados"" estaban usando el mismo tipo de herramienta: un marco que capta todas nuestras suposiciones de sentido común sobre algo. Por ejemplo, si utilizamos el concepto de pájaro, hay una constelación de hechos que nos vienen inmediatamente a la mente: podemos suponer que vuela, come gusanos y así sucesivamente. Sabemos que estos hechos no siempre son ciertos y que las deducciones que se hagan con ellos no serán ""lógicas"", pero estos conjuntos estructurados de suposiciones forman parte del contexto de todo lo que decimos y pensamos. Llamó a estas estructuras ""marcos"". Schank utilizó una versión de marcos que llamó ""scripts"" para responder con éxito a preguntas sobre cuentos cortos en inglés.Muchos años más tarde, la programación orientada a objetos adoptaría la idea esencial de la ""herencia"" de la investigación de la IA sobre los marcos.

En la década de 1980, las corporaciones de todo el mundo adoptaron una forma de programa de IA llamado ""sistemas expertos"" y el conocimiento se convirtió en el centro de la investigación principal de la IA. En esos mismos años, el gobierno japonés financió agresivamente la IA con su proyecto informático de quinta generación. Otro acontecimiento alentador a principios de la década de 1980 fue el renacimiento del conexionismo en la obra de John Hopfield y David Rumelhart. Una vez más, AI había logrado el éxito.

 

El auge de los sistemas expertos

Un sistema experto es un programa que responde a preguntas o resuelve problemas sobre un dominio específico de conocimiento, utilizando reglas lógicas que se derivan del conocimiento de los expertos. Los primeros ejemplos fueron desarrollados por Edward Feigenbaum y sus alumnos. Dendral, iniciado en 1965, identificó compuestos a partir de las lecturas del espectrómetro. MYCIN, desarrollado en 1972, diagnosticó enfermedades infecciosas de la sangre. Demostraron la viabilidad del enfoque.

Los sistemas expertos se limitaron a un pequeño dominio de conocimiento específico (evitando así el problema del conocimiento con sentido común) y su diseño simple hizo relativamente fácil que los programas se construyeran y luego se modificaran una vez que estuvieran en su lugar. En general, los programas demostraron ser útiles: algo que AI no había sido capaz de lograr hasta ese momento.

En 1980, un sistema experto llamado XCON se completó en CMU para Digital Equipment Corporation. Fue un éxito enorme: en 1986 la empresa ahorraba 40 millones de dólares anuales, mientras que las empresas de todo el mundo comenzaron a desarrollar e implementar sistemas expertos y en 1985 gastaban más de mil millones de dólares en inteligencia artificial, la mayor parte de ellos en departamentos internos de inteligencia artificial. Una industria creció para apoyarlos, incluyendo compañías de hardware como Symbolics y Lisp Machines y compañías de software como IntelliCorp y Aion.

 

La revolución del conocimiento

El poder de los sistemas expertos provenía del conocimiento experto que contenían. Formaban parte de una nueva dirección en la investigación de la IA que había ido ganando terreno a lo largo de los años 70. ""Los investigadores de la IA estaban empezando a sospechar -a regañadientes, porque violaba el canon científico de la parsimonia- que la inteligencia podría muy bien basarse en la capacidad de utilizar grandes cantidades de conocimiento diverso de diferentes maneras"", escribe Pamela McCorduck. ""La gran lección de los años setenta fue que el comportamiento inteligente dependía en gran medida del conocimiento, a veces bastante detallado, de un dominio en el que se encontraba una tarea determinada"" Los sistemas basados en el conocimiento y la ingeniería del conocimiento se convirtieron en uno de los principales focos de la investigación de la IA en los años ochenta.

La década de 1980 también vio el nacimiento de Cyc, el primer intento de atacar directamente el problema del conocimiento con sentido común, mediante la creación de una base de datos masiva que contendría todos los hechos mundanos que la persona promedio conoce. Douglas Lenat, quien inició y dirigió el proyecto, argumentó que no hay atajos - la única manera de que las máquinas conozcan el significado de los conceptos humanos es enseñarles, concepto por concepto, a mano. No se esperaba que el proyecto se completara hasta dentro de muchas décadas.

Los programas de ajedrez HiTech y Deep Thought derrotaron a los maestros de ajedrez en 1989. Ambos fueron desarrollados por la Universidad Carnegie Mellon; el desarrollo del Pensamiento Profundo preparó el camino para Deep Blue.

 

El dinero vuelve: el proyecto de quinta generación

En 1981, el Ministerio de Comercio Internacional e Industria de Japón asignó 850 millones de dólares para el proyecto informático de quinta generación. Sus objetivos eran escribir programas y construir máquinas que pudieran mantener conversaciones, traducir idiomas, interpretar imágenes y razonar como seres humanos.

Otros países respondieron con nuevos programas propios. El Reino Unido comenzó el proyecto ₤ million Alvey.

Un consorcio de empresas estadounidenses formó la Microelectronics and Computer Technology Corporation (o ""MCC"") para financiar proyectos a gran escala en IA y tecnología de la informaciónDARPA respondió también, fundando la Strategic Computing Initiative y triplicando su inversión en IA entre 1984 y 1988

 

El renacimiento del conexionismo

En 1982, el físico John Hopfield pudo demostrar que una forma de red neuronal (ahora llamada ""red Hopfield"") podía aprender y procesar información de una manera completamente nueva. Al mismo tiempo, Geoffrey Hinton y David Rumelhart popularizaron un nuevo método para entrenar redes neuronales llamado ""backpropagation"" (descubierto años antes por Paul Werbos). Estos dos descubrimientos revivieron el campo del conexionismo que había sido abandonado en gran medida desde 1970.

El nuevo campo fue unificado e inspirado por la aparición del Procesamiento Distribuido Paralelo en 1986, una colección de dos volúmenes de documentos editados por Rumelhart y el psicólogo James McClelland. Las redes neuronales se convertirían en un éxito comercial en la década de 1990, cuando comenzaron a utilizarse como motores de programas como el reconocimiento óptico de caracteres y el reconocimiento de voz.

La fascinación de la comunidad empresarial por la IA aumentó y cayó en la década de 1980 en el patrón clásico de una burbuja económica. El colapso se debió a la percepción de AI por parte de las agencias gubernamentales y los inversionistas - el campo continuó avanzando a pesar de las críticas. Rodney Brooks y Hans Moravec, investigadores del campo relacionado de la robótica, abogaron por un enfoque completamente nuevo de la inteligencia artificial.

 

AI winter

El término ""invierno de la IA"" fue acuñado por investigadores que habían sobrevivido a los recortes de fondos de 1974, cuando se preocuparon de que el entusiasmo por los sistemas de expertos se había desbocado y de que la desilusión se produciría a continuación Sus temores estaban bien fundados: a finales de la década de 1980 y principios de la década de 1990, la IA sufrió una serie de reveses financieros.

La primera indicación de un cambio en el tiempo fue el colapso repentino del mercado de hardware especializado de IA en 1987. Los ordenadores de sobremesa de Apple e IBM habían ido ganando velocidad y potencia y en 1987 se volvieron más potentes que las máquinas Lisp, más caras, fabricadas por Symbolics y otros. Ya no había una buena razón para comprarlos. Una industria entera de 500 millones de dólares fue demolida de la noche a la mañana.

Eventualmente, los primeros sistemas expertos exitosos, como XCON, resultaron ser demasiado costosos de mantener. Eran difíciles de actualizar, no podían aprender, eran ""frágiles"" (es decir, podían cometer errores grotescos cuando se les daban insumos inusuales) y eran presa de problemas (como el problema de la calificación) que se habían identificado años antes. Los sistemas expertos resultaron útiles, pero sólo en unos pocos contextos especiales.

A finales de la década de 1980, la Iniciativa de Computación Estratégica redujo la financiación de la IA ""profunda y brutalmente"". Los nuevos dirigentes de la DARPA habían decidido que AI no era ""la próxima ola"" y dirigieron los fondos hacia proyectos que parecían tener más probabilidades de producir resultados inmediatos.

En 1991, la impresionante lista de metas escritas en 1981 para el Proyecto de Quinta Generación de Japón no se había cumplido. De hecho, algunos de ellos, como ""mantener una conversación informal"", no se habían cumplido para el 2010 Al igual que otros proyectos de IA, las expectativas eran mucho más altas de lo que realmente era posible.

 

La importancia de tener un cuerpo: nueva IA

A finales de los años ochenta, varios investigadores abogaron por un enfoque completamente nuevo de la inteligencia artificial, basado en la robótica, y creían que, para mostrar una inteligencia real, una máquina necesita tener un cuerpo: necesita percibir, moverse, sobrevivir y tratar con el mundo. Argumentaban que estas habilidades sensomotrices son esenciales para las habilidades de nivel superior como el razonamiento con sentido común y que el razonamiento abstracto era en realidad la habilidad humana menos interesante o importante (ver la paradoja de Moravec).

Ellos abogaron por construir inteligencia ""de abajo hacia arriba"".

El enfoque revivió ideas de la cibernética y la teoría del control que habían sido impopulares desde los años sesenta. Otro precursor fue David Marr, que había llegado al MIT a finales de la década de 1970 con una formación exitosa en neurociencia teórica para dirigir el grupo de estudio de la visión. Rechazó todos los enfoques simbólicos (tanto la lógica de McCarthy como los marcos de Minsky), argumentando que AI necesitaba entender la maquinaria física de la visión de abajo hacia arriba antes de que tuviera lugar cualquier procesamiento simbólico. (El trabajo de Marr sería interrumpido por la leucemia en 1980).

En un artículo de 1990, ""Elephants Don't Play Chess"" (Los elefantes no juegan al ajedrez), el investigador en robótica Rodney Brooks apuntó directamente a la hipótesis del sistema de símbolos físicos, argumentando que los símbolos no siempre son necesarios ya que ""el mundo es su mejor modelo"". Siempre está exactamente al día. Siempre tiene todos los detalles que hay que conocer. En las décadas de 1980 y 1990, muchos científicos cognitivos también rechazaron el modelo de procesamiento de símbolos de la mente y argumentaron que el cuerpo era esencial para el razonamiento, una teoría llamada la tesis de la mente encarnada"".

El campo de la IA, ahora con más de medio siglo de antigüedad, finalmente logró algunos de sus objetivos más antiguos. Comenzó a utilizarse con éxito en toda la industria de la tecnología, aunque un poco entre bastidores. Parte del éxito se debió al aumento de la potencia de los ordenadores y otra parte se logró centrándose en problemas específicos aislados y persiguiéndolos con los más altos estándares de responsabilidad científica. Sin embargo, la reputación de la IA, al menos en el mundo de los negocios, era menos que prístina. Dentro del campo había poco acuerdo sobre las razones por las que la IA no cumplió el sueño de la inteligencia a nivel humano que había capturado la imaginación del mundo en la década de 1960. Juntos, todos estos factores ayudaron a fragmentar la IA en subcampos competitivos centrados en problemas o enfoques particulares, a veces incluso bajo nuevos nombres que disfrazaban el pedigrí empañado de la ""inteligencia artificial"" La IA fue más cautelosa y exitosa de lo que nunca había sido.

 

Hitos y la ley de Moore

El 11 de mayo de 1997, Deep Blue se convirtió en el primer sistema de juego de ajedrez por ordenador que venció a un campeón mundial de ajedrez, Garry Kasparov El superordenador era una versión especializada de una estructura producida por IBM, y era capaz de procesar el doble de movimientos por segundo que durante el primer partido (que Deep Blue había perdido), supuestamente 200.000.000 de movimientos por segundo. El evento fue transmitido en vivo por Internet y recibió más de 74 millones de visitas.

En 2005, un robot de Stanford ganó el DARPA Grand Challenge conduciendo de forma autónoma durante 131 millas a lo largo de un sendero desértico no ensayado Dos años más tarde, un equipo de CMU ganó el DARPA Urban Challenge navegando de forma autónoma 55 millas en un entorno urbano, al tiempo que cumplía con los peligros del tráfico y todas las leyes de tráfico.141] En febrero de 2011, en un partido de exhibición del concurso Jeopardy!quiz show, el sistema de respuesta de preguntas de IBM, Watson, derrotó a los dos grandes campeones de Jeopardy!, Brad Rutter y Ken Jennings, por un margen significativo.

Estos éxitos no se debieron a un nuevo paradigma revolucionario, sino sobre todo a la tediosa aplicación de la habilidad de la ingeniería y al tremendo aumento de la velocidad y capacidad del ordenador en los años 90. De hecho, el ordenador de Deep Blue era 10 millones de veces más rápido que el Ferranti Mark 1 que Christopher Strachey enseñó a jugar al ajedrez en 1951 Este dramático aumento se mide por la ley de Moore, que predice que la velocidad y la capacidad de memoria de los ordenadores se duplica cada dos años. El problema fundamental de la ""potencia bruta de los ordenadores"" se estaba superando lentamente.

 

Agentes inteligentes

Un nuevo paradigma llamado ""agentes inteligentes"" fue ampliamente aceptado durante los años 90. Aunque investigadores anteriores habían propuesto enfoques modulares de ""divide y vencerás"" a la IA, el agente inteligente no alcanzó su forma moderna hasta que Judea Pearl, Allen Newell, Leslie P. Kaelbling y otros introdujeron conceptos de la teoría de la decisión y la economía en el estudio de la IA Cuando la definición del economista de un agente racional se unió a la definición de un objeto o módulo de la informática, el paradigma del agente inteligente estaba completo.

Un agente inteligente es un sistema que percibe su entorno y toma acciones que maximizan sus posibilidades de éxito. Por esta definición, los programas sencillos que resuelven problemas específicos son ""agentes inteligentes"", al igual que los seres humanos y las organizaciones de seres humanos, como las empresas. El paradigma de los agentes inteligentes define la investigación de la IA como ""el estudio de los agentes inteligentes"". Esta es una generalización de algunas definiciones anteriores de IA: va más allá del estudio de la inteligencia humana; estudia todo tipo de inteligencia.

El paradigma otorgaba a los investigadores licencia para estudiar problemas aislados y encontrar soluciones que fueran a la vez verificables y útiles. Proporcionó un lenguaje común para describir problemas y compartir sus soluciones entre sí, y con otros campos que también utilizaban conceptos de agentes abstractos, como la economía y la teoría de control. Se esperaba que una arquitectura de agentes completa (como la de Newell'sSOAR) permitiera algún día a los investigadores construir sistemas más versátiles e inteligentes a partir de agentes inteligentes interactivos.

 

Victoria de los neats

Los investigadores de la IA empezaron a desarrollar y utilizar herramientas matemáticas sofisticadas más que nunca en el pasado. Había una comprensión generalizada de que muchos de los problemas que la IA necesitaba resolver ya estaban siendo trabajados por investigadores en campos como las matemáticas, la economía o la investigación operativa. El lenguaje matemático compartido permitía tanto un mayor nivel de colaboración en campos más establecidos y exitosos como el logro de resultados medibles y demostrables; la IA se había convertido en una disciplina ""científica"" más rigurosa. Russell & Norvig (2003) describen esto como nada menos que una ""revolución"" y ""la victoria de los neats"".

El influyente libro de Judea Pearl de 1988 introdujo la teoría de la probabilidad y la decisión en la IA. Entre las muchas herramientas nuevas que se utilizaron estaban las redes bayesianas, los modelos Markov ocultos, la teoría de la información, el modelado estocástico y la optimización clásica. También se desarrollaron descripciones matemáticas precisas para paradigmas de ""inteligencia computacional"" como redes neuronales y algoritmos evolutivos.

 

AI entre bastidores

Los algoritmos desarrollados originalmente por los investigadores de la IA comenzaron a aparecer como partes de sistemas más grandes. La IA había resuelto muchos problemas muy difíciles y sus soluciones demostraron ser útiles en toda la industria de la tecnología, como la minería de datos, la robótica industrial, la logística, el reconocimiento de voz, el software bancario, el diagnóstico médico y el motor de búsqueda de Google.

El campo de la IA recibió poco o ningún crédito por estos éxitos en la década de 1990 y principios de la década de 2000. Muchas de las mayores innovaciones de la IA se han reducido al estatus de un elemento más en la caja de herramientas de la informática Nick Bostrom explica: ""Mucha IA de última generación se ha filtrado en aplicaciones generales, a menudo sin ser llamada IA porque una vez que algo se vuelve lo suficientemente útil y común, ya no se le llama IA"".

Muchos investigadores de la IA en los años noventa llamaron deliberadamente a su trabajo con otros nombres, como informática, sistemas basados en el conocimiento, sistemas cognitivos o inteligencia computacional. En parte, esto puede deberse a que consideraban que su campo era fundamentalmente diferente de AI, pero también los nuevos nombres ayudan a conseguir financiación. Al menos en el mundo comercial, las promesas fallidas del invierno de la IA continuaron persiguiendo la investigación de la IA en la década de 2000, como informó el New York Times en 2005: ""Los informáticos y los ingenieros de software evitaron el término inteligencia artificial por miedo a ser vistos como soñadores de ojos salvajes"".

 

¿Dónde está el HAL 9000?

En 1968, Arthur C. Clarke y Stanley Kubrick habían imaginado que para el año 2001 existiría una máquina con una inteligencia que igualaba o excedía la capacidad de los seres humanos.

El personaje que crearon, HAL 9000, se basaba en la creencia compartida por muchos de los principales investigadores de la IA de que tal máquina existiría para el año 2001.

En 2001, el fundador de la IA, Marvin Minsky, preguntó: ""Entonces la pregunta es por qué no recibimos HAL en 2001"" Minsky creía que la respuesta es que los problemas centrales, como el razonamiento con sentido común, estaban siendo descuidados, mientras que la mayoría de los investigadores perseguían cosas como las aplicaciones comerciales de las redes neuronales o los algoritmos genéticos. Para Ray Kurzweil, el problema es la potencia de la computadora y, utilizando la Ley de Moore, predijo que las máquinas con inteligencia a nivel humano aparecerán en 2029. Jeff Hawkins argumentó que la investigación en redes neuronales ignora las propiedades esenciales de la corteza humana, prefiriendo modelos sencillos que han tenido éxito en la resolución de problemas sencillos Había muchas otras explicaciones y para cada una de ellas había un programa de investigación correspondiente en curso.

En las primeras décadas del siglo XXI, el acceso a grandes cantidades de datos (conocidos como ""grandes datos""), ordenadores más rápidos y técnicas avanzadas de aprendizaje automático se aplicaron con éxito a muchos problemas de la economía. De hecho, McKinsey Global Institute estimó en su famoso artículo ""Big data: La siguiente frontera para la innovación, la competencia y la productividad"" que ""en 2009, casi todos los sectores de la economía estadounidense tenían al menos una media de 200 terabytes de datos almacenados"".

En 2016, el mercado de productos, hardware y software relacionados con la IA alcanzó más de 8.000 millones de dólares, y el New York Times informó que el interés por la IA había alcanzado un ""frenesí"" Las aplicaciones de los grandes datos comenzaron a llegar también a otros campos, como los modelos de formación en ecología y para diversas aplicaciones en economía Los avances en el aprendizaje profundo (en particular, las redes neuronales convolucionales profundas y las redes neuronales recurrentes) impulsaron el progreso y la investigación en el procesamiento de imágenes y vídeo, el análisis de textos, e incluso el reconocimiento del habla.

 

Aprendizaje profundo

El aprendizaje profundo es una rama del aprendizaje automático que modela abstracciones de alto nivel en datos utilizando un gráfico profundo con muchas capas de procesamiento Según el teorema de la aproximación universal, la profundidad no es necesaria para que una red neuronal pueda aproximarse a funciones continuas arbitrarias. Aún así, hay muchos problemas que son comunes a las redes poco profundas (como el sobreequipamiento) que las redes profundas ayudan a evitar Como tal, las redes neurales profundas son capaces de generar de manera realista modelos mucho más complejos en comparación con sus contrapartes poco profundas.

Sin embargo, el aprendizaje profundo tiene sus propios problemas. Un problema común para las redes neuronales recurrentes es el problema del gradiente de desaparición, que es cuando los gradientes que pasan entre capas se reducen gradualmente y literalmente desaparecen a medida que se redondean a cero. Se han desarrollado muchos métodos para abordar este problema, como las unidades de memoria a corto plazo.

Las arquitecturas de redes neurales profundas de última generación pueden a veces incluso rivalizar con la precisión humana en campos como la visión por computador, específicamente en cosas como la base de datos MNIST, y el reconocimiento de señales de tráfico.

Los motores de procesamiento de lenguaje impulsados por motores de búsqueda inteligentes pueden vencer fácilmente a los humanos al responder preguntas generales de trivialidad (como IBM Watson), y los recientes desarrollos en el aprendizaje profundo han producido resultados asombrosos al competir con los humanos, en cosas como Go and Doom (que, al ser un juego de disparos en primera persona, ha desatado cierta controversia)

 

Grandes Datos  (Big Data)

Los datos grandes se refieren a una colección de datos que no pueden ser capturados, administrados y procesados por las herramientas de software convencionales dentro de un cierto marco de tiempo. Se trata de una enorme cantidad de capacidades de toma de decisiones, conocimiento y optimización de procesos que requieren nuevos modelos de procesamiento. En la era de los grandes datos escrita por Victor Meyer Schonberg y Kenneth Cooke, los grandes datos significan que en lugar del análisis aleatorio (encuesta por muestreo), todos los datos se utilizan para el análisis.

Las características 5V de los grandes datos (propuesto por IBM): Volumen, Velocidad, Variedad, Valor, Veracidad La importancia estratégica de la tecnología de los grandes datos no es dominar la enorme información de datos, sino especializarse en estos datos significativos. En otras palabras, si los grandes datos se comparan con una industria, la clave para obtener rentabilidad en esta industria es aumentar la ""capacidad de proceso"" de los datos y realizar el ""valor añadido"" de los datos a través del ""procesamiento"".

 

Inteligencia general artificial

La inteligencia artificial es una rama de la informática que intenta comprender la esencia de la inteligencia y producir una nueva máquina inteligente que responde de manera similar a la inteligencia humana. La investigación en esta área incluye robótica, reconocimiento de voz, reconocimiento de imágenes, procesamiento del lenguaje natural y sistemas expertos. Desde el nacimiento de la inteligencia artificial, la teoría y la tecnología han ido madurando y los campos de aplicación se han ido ampliando. Es concebible que los productos tecnológicos traídos por la inteligencia artificial en el futuro sean el ""contenedor"" de la sabiduría humana. La inteligencia artificial puede simular el proceso de información de la conciencia y el pensamiento humanos. La inteligencia artificial no es inteligencia humana, pero puede ser como el pensamiento humano, y puede exceder la inteligencia humana. la inteligencia artificial general también se denomina ""inteligencia artificial"", ""inteligencia artificial total"" o como la capacidad de una máquina para realizar una ""acción inteligente general"" Las fuentes académicas reservan la ""inteligencia artificial fuerte"" para referirse a las máquinas capaces de experimentar la conciencia.


  ELIGE TU TEMA DE INTERÉS: 


autoayuda.es   Internet y Tecnologias 

Está aquí: Inicio > [ INTERNET ] > ıllı Paradoja de Moravec : que es, definición y significado, descargar videos y fotos.

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Ver políticas