Capítulo 1 : Inteligencia artificial
En contraste con la inteligencia natural que exhiben los animales, incluidos los humanos, la inteligencia artificial (IA) se refiere a la inteligencia demostrada por los robots. La investigación en inteligencia artificial (IA) ha sido descrita como el área de estudio de los agentes inteligentes, que se refiere a cualquier sistema que detecta su entorno y realiza acciones que optimizan su posibilidad de alcanzar sus objetivos. En otras palabras, la investigación en IA es una disciplina que estudia a los agentes inteligentes. El término "impacto de la IA" se refiere al proceso por el cual las actividades que antes se pensaba que necesitaban "inteligencia" pero que ya no están incluidas en el concepto de inteligencia artificial a medida que avanza la tecnología. Los investigadores de IA han adaptado e incorporado una amplia variedad de enfoques para abordar problemas, incluida la búsqueda y la optimización matemática, la lógica formal, las redes neuronales artificiales y los métodos basados en estadísticas, probabilidad y economía, con el fin de abordar estas dificultades. La informática, la psicología, la lingüística, la filosofía y muchas otras disciplinas académicas contribuyen al desarrollo de la IA.
La teoría de que el intelecto humano "puede ser caracterizado con tanta precisión que una computadora puede ser construida para imitarlo" fue el principio rector detrás del establecimiento de esta disciplina. Esto desencadenó debates filosóficos sobre la mente y las implicaciones éticas de imbuir a los organismos artificiales de un intelecto comparable al de los humanos; Estos son temas que han sido investigados por el mito, la literatura y la filosofía desde la antigüedad.
En la antigüedad, las criaturas artificiales con inteligencia artificial se utilizaban en diversos dispositivos narrativos.
y se ven a menudo en obras literarias, como en Frankenstein de Mary Shelley o R.U.R. de Karel Capek.
El diseño formal de las "neuronas artificiales" completas de Turing que McCullouch y Pitts desarrollaron en 1943 fue la primera obra que ahora se entiende ampliamente como un ejemplo de inteligencia artificial.
Los asistentes a la conferencia se convirtieron en pioneros en el campo de la investigación de la IA.
Ellos, junto con sus alumnos, fueron capaces de construir programas que la prensa calificó de "asombrosos". Estos programas incluían máquinas que eran capaces de aprender técnicas de damas, resolver problemas de palabras en álgebra, demostrar teoremas lógicos y tener un buen dominio del idioma inglés.
Hacia mediados de la década de 1960, las investigaciones realizadas en los Estados Unidos
recibía una cantidad significativa de fondos del Departamento de Defensa, y se estaban estableciendo instalaciones en todo el mundo.
así como la continua presión del Congreso de los Estados Unidos para invertir en esfuerzos más fructíferos, Los Estados Unidos de América
tanto el gobierno canadiense como el británico dejaron de financiar la investigación exploratoria en inteligencia artificial.
Los próximos años se denominarían en el futuro como un "invierno de la IA".
Una época en la que era difícil conseguir financiación para iniciativas de inteligencia artificial.
Una especie de software de inteligencia artificial que imitaba el conocimiento y la destreza analítica de los profesionales humanos.
En 1985, se estaban transaccionando más de mil millones de dólares en el negocio de la inteligencia artificial.
Mientras esto sucede, los Estados Unidos y el Reino Unido han restablecido el apoyo a la investigación universitaria como resultado directo del programa informático de Japón para la quinta generación.
Sin embargo, cuando el mercado de las máquinas de ceceo se desplomó en 1987, fue el comienzo de una espiral descendente.
La IA volvió a caer en desgracia, así como comenzó otro invierno más duradero.
A Geoffrey Hinton se le atribuye el mérito de revivir el interés por las redes neuronales y el concepto de "conexionismo".
A mediados de la década de 1980, David Rumelhart y algunos otros estuvieron involucrados. Durante la década de 1980, se crearon muchas herramientas de computación blanda.
incluyen cosas como las redes neuronales, los sistemas difusos, la teoría del sistema gris, el uso de la computación evolutiva, así como una serie de métodos derivados de la optimización estadística o matemática.
A finales de la década de 1990 y principios del siglo XXI, la IA trabajó para rehabilitar progresivamente su imagen mediante el desarrollo de soluciones adaptadas para abordar desafíos particulares. Debido al estricto énfasis, los investigadores pudieron desarrollar conclusiones que podían verificarse, utilizar un mayor número de enfoques matemáticos y trabajar con expertos de otras áreas (como estadística, economía y matemáticas). En la década de 1990, las soluciones producidas por los investigadores de IA nunca se denominaron "inteligencia artificial", pero en el año 2000, se empleaban ampliamente en todo el mundo. Según Jack Clark de Bloomberg, el año 2015 fue un año decisivo para la inteligencia artificial. Esto se debe a que el número de proyectos de software que emplean IA dentro de Google pasó de un "uso esporádico" en 2012 a más de 2.700 proyectos en 2015.
El desafío general de emular (o fabricar) la inteligencia se ha segmentado en una variedad de desafíos más específicos. Estas son ciertas características o habilidades que los investigadores anticipan que posee un sistema inteligente. Se ha hecho el mayor hincapié en las características que se detallan a continuación.
Los investigadores de los primeros días de la informática idearon algoritmos que reflejaban el razonamiento paso a paso que las personas usan cuando resuelven problemas o hacen inferencias lógicas. A finales de la década de 1980 y principios de la de 1990, la investigación en inteligencia artificial había establecido estrategias para hacer frente a la información incierta o parcial. Estos enfoques utilizaron nociones de probabilidad y economía. Incluso entre los humanos, el tipo de deducción paso a paso que los primeros estudios en inteligencia artificial podrían replicar es poco común. Son capaces de abordar la mayoría de sus problemas tomando decisiones rápidas basadas en su intuición.
La ingeniería de la información y la representación de ese conocimiento es lo que permite a los sistemas de inteligencia artificial responder de manera inteligente a las consultas y sacar conclusiones sobre eventos del mundo real.
Una ontología es una colección de objetos, relaciones, ideas y atributos que se caracterizan formalmente para garantizar que los agentes de software sean capaces de comprenderlos. Una ontología es una descripción de "lo que existe". Las ontologías superiores son ontologías que buscan proporcionar una base para toda la demás información y operan como mediadores entre ontologías de dominio, que cubren el conocimiento especializado sobre un dominio de conocimiento particular. Las ontologías superiores son las ontologías más amplias, y también se denominan ontologías (campo de interés o área de interés). Un software que sea genuinamente inteligente también requeriría acceso al conocimiento de sentido común, que es la colección de hechos de los que el ser humano típico es consciente. En la mayoría de los casos, la lógica de descripción de una ontología, como el Web Ontology Language, se utiliza para expresar la semántica de una ontología. Además de otros dominios, situaciones, eventos, estados y tiempos; causas y efectos; conocimiento sobre el conocimiento (lo que sabemos sobre lo que otras personas saben); razonamiento por defecto (cosas que los humanos asumen que son ciertas hasta que se les dice de manera diferente y seguirán siendo ciertas incluso cuando otros hechos estén cambiando); y el conocimiento sobre el conocimiento sobre el conocimiento son ejemplos de dominios. La amplitud de la información de sentido común (el número de hechos atómicos de los que el ser humano típico es consciente es inmenso) y la naturaleza subsimbólica de la mayoría del conocimiento de sentido común son dos de los desafíos más desafiantes en la inteligencia artificial (gran parte de lo que las personas saben no se representa como "hechos" o "declaraciones" que podrían expresar verbalmente). La interpretación de imágenes, la asistencia en la toma de decisiones terapéuticas, el descubrimiento de conocimientos (la extracción de información "interesante" y procesable de grandes conjuntos de datos) y otras disciplinas son áreas que podrían beneficiarse de la inteligencia artificial.
Un agente inteligente que es capaz de planificar crea una representación del estado actual del mundo, hace predicciones sobre cómo sus acciones afectarán al medio ambiente y toma decisiones que maximizan la utilidad (o "valor") de las opciones disponibles. En los problemas tradicionales de planificación, el agente puede hacer la suposición de que es el único sistema que funciona en el mundo. Esto permite al agente estar seguro de los resultados que obtendrán de las acciones que realice. Sin embargo, si el agente no es el único actor, es necesario que el agente razone bajo la ambigüedad, reevalúe continuamente su entorno y se adapte a las nuevas circunstancias.
El estudio de los sistemas informáticos que pueden mejorarse a sí mismos automáticamente a través de la acumulación de experiencia se conoce como aprendizaje automático (ML), y ha sido una parte esencial de la investigación en IA desde el inicio de la materia. En el método de...