Capítulo 1 : Inteligência artificial
Em contraste com a inteligência natural exibida pelos animais, incluindo os seres humanos, a inteligência artificial (IA) refere-se à inteligência demonstrada pelos robôs. A pesquisa em inteligência artificial (IA) tem sido descrita como a área de estudo de agentes inteligentes, que se refere a qualquer sistema que sente seu entorno e realiza ações que otimizam sua possibilidade de atingir seus objetivos. Em outras palavras, a pesquisa em IA é uma disciplina que estuda agentes inteligentes. O termo "impacto da IA" refere-se ao processo pelo qual atividades que antes se pensava necessitarem de "inteligência", mas que já não estão incluídas no conceito de inteligência artificial à medida que a tecnologia avança. Os pesquisadores de IA adaptaram e incorporaram uma ampla variedade de abordagens para abordar questões, incluindo pesquisa e otimização matemática, lógica formal, redes neurais artificiais e métodos baseados em estatística, probabilidade e economia, a fim de enfrentar essas dificuldades. Ciência da computação, psicologia, linguística, filosofia e muitas outras disciplinas acadêmicas contribuem para o desenvolvimento da IA.
A teoria de que o intelecto humano "pode ser caracterizado com tanta precisão que um computador pode ser construído para imitá-lo" foi o princípio orientador por trás do estabelecimento desta disciplina. Isso desencadeou debates filosóficos sobre a mente e as implicações éticas de imbuir organismos artificiais com intelecto comparável ao dos seres humanos; Estes são tópicos que têm sido investigados pelo mito, literatura e filosofia desde a antiguidade.
Nos tempos antigos, criaturas artificiais com inteligência artificial eram usadas em vários dispositivos narrativos.
e são frequentemente vistos em obras de literatura, como no Frankenstein de Mary Shelley ou no R.U.R. de Karel Capek.
O projeto formal para "neurônios artificiais" Turing-complete que McCullouch e Pitts desenvolveram em 1943 foi o primeiro trabalho que agora é amplamente entendido como um exemplo de inteligência artificial.
Os participantes da conferência tornaram-se pioneiros no campo da pesquisa de IA.
Eles, juntamente com seus alunos, foram capazes de construir programas que a imprensa chamou de "surpreendentes". Estes programas incluíam máquinas capazes de aprender técnicas de damas, resolver problemas de palavras em álgebra, demonstrar teoremas lógicos e ter um bom domínio da língua inglesa.
Em meados da década de 1960, pesquisas feitas nos Estados Unidos
estava recebendo uma quantidade significativa de financiamento do Departamento de Defesa, e instalações estavam sendo criadas em todo o mundo.
bem como a pressão contínua do Congresso dos Estados Unidos para investir em empreendimentos mais frutíferos, os Estados Unidos da América
os governos canadense e britânico pararam de financiar pesquisas exploratórias em inteligência artificial.
Os anos seguintes seriam referidos no futuro como um "inverno da IA".
uma época em que era difícil obter financiamento para iniciativas de inteligência artificial.
uma espécie de software de inteligência artificial que imitava o conhecimento e a destreza analítica dos profissionais humanos.
Em 1985, mais de mil milhões de dólares estavam agora a ser transacionados no negócio da inteligência artificial.
Enquanto isso acontece, os Estados Unidos e o Reino Unido restabeleceram o apoio à investigação universitária como resultado direto do programa informático do Japão para a quinta geração.
No entanto, quando o mercado de máquinas lisp caiu em 1987, foi o início de uma espiral descendente.
A IA mais uma vez caiu em desgraça, assim como outro inverno mais duradouro começou.
Geoffrey Hinton é creditado por reavivar o interesse em redes neurais e no conceito de "conexionismo".
Em meados da década de 1980, David Rumelhart e alguns outros estiveram envolvidos. Durante a década de 1980, muitas ferramentas de computação suave foram criadas.
incluem coisas como redes neurais, sistemas difusos, Teoria do sistema cinzento, o uso da computação evolutiva, bem como uma série de métodos derivados da otimização estatística ou matemática.
Ao longo do final da década de 1990 e no início do século 21, a IA trabalhou para reabilitar progressivamente sua imagem, desenvolvendo soluções que foram adaptadas para enfrentar desafios específicos. Devido à ênfase apertada, os pesquisadores foram capazes de desenvolver conclusões que poderiam ser verificadas, usar um maior número de abordagens matemáticas e trabalhar com especialistas de outras áreas (como estatística, economia e matemática). Na década de 1990, as soluções que foram produzidas por pesquisadores de IA nunca foram referidas como "inteligência artificial", mas no ano 2000, elas estavam sendo empregadas extensivamente em todo o mundo. De acordo com Jack Clark, da Bloomberg, o ano de 2015 foi um divisor de águas para a inteligência artificial. Isso se deve ao fato de que o número de projetos de software que empregam IA dentro do Google passou de "uso esporádico" em 2012 para mais de 2.700 projetos em 2015.
O desafio abrangente de emular (ou fabricar) inteligência foi segmentado em uma variedade de desafios mais específicos. Estas são certas características ou habilidades que os pesquisadores esperam que um sistema inteligente possua. A maior ênfase foi dada às características que são detalhadas abaixo.
Pesquisadores nos primórdios da ciência da computação desenvolveram algoritmos que espelhavam o raciocínio passo a passo que as pessoas usam quando resolvem problemas ou fazem inferências lógicas. A pesquisa em inteligência artificial tinha, no final da década de 1980 e início da década de 1990, estabelecido estratégias para lidar com informações incertas ou parciais. Estas abordagens utilizaram noções de probabilidade e economia. Mesmo entre humanos, o tipo de dedução passo a passo que os primeiros estudos em inteligência artificial poderiam replicar é incomum. Eles são capazes de resolver a maioria de seus problemas tomando decisões rápidas com base em sua intuição.
A engenharia da informação e a representação desse conhecimento são o que permitem que os sistemas de inteligência artificial respondam de forma inteligente a perguntas e tirem conclusões sobre eventos do mundo real.
Uma ontologia é uma coleção de objetos, relações, ideias e atributos que são formalmente caracterizados, a fim de garantir que os agentes de software sejam capazes de compreendê-los. Uma ontologia é uma descrição do "que existe". As ontologias superiores são ontologias que procuram fornecer uma base para todas as outras informações e operam como mediadoras entre ontologias de domínio, que abrangem conhecimentos especializados sobre um determinado domínio do conhecimento. As ontologias superiores são as ontologias mais amplas, e também são denominadas ontologias (campo de interesse ou área de preocupação). Um software que seja genuinamente inteligente também exigiria acesso ao conhecimento do senso comum, que é a coleção de fatos que o humano típico está ciente. Na maioria dos casos, a lógica de descrição de uma ontologia, como a Web Ontology Language, é usada para expressar a semântica de uma ontologia. Além de outros domínios, situações, eventos, estados e tempos; causas e efeitos; conhecimento sobre o conhecimento (o que sabemos sobre o que as outras pessoas sabem); raciocínio padrão (coisas que os seres humanos assumem que são verdadeiras até que sejam ditas de forma diferente e continuarão a ser verdadeiras mesmo quando outros fatos estão mudando); e o conhecimento sobre o conhecimento são exemplos de domínios. A amplitude da informação do senso comum (o número de fatos atômicos que o humano típico está ciente é imenso) e a natureza subsimbólica da maioria do conhecimento do senso comum são dois dos desafios mais desafiadores da inteligência artificial (muito do que as pessoas sabem não é representado como "fatos" ou "declarações" que elas poderiam expressar verbalmente). Interpretação de imagens, assistência à decisão terapêutica, descoberta de conhecimento (a extração de insights "interessantes" e acionáveis de grandes conjuntos de dados) e outras disciplinas são áreas que podem se beneficiar da inteligência artificial.
Um agente inteligente que é capaz de planejar cria uma representação do estado atual do mundo, faz previsões sobre como suas ações afetarão o ambiente e toma decisões que maximizam a utilidade (ou "valor") das opções disponíveis. Em problemas tradicionais de planejamento, o agente pode assumir que é o único sistema funcionando no mundo. Isso permite que o agente tenha certeza dos resultados que virão das ações que ele toma. No entanto, se o agente não é o único interveniente, é necessário que o agente raciocine sob ambiguidade, reavalie continuamente o seu ambiente e se adapte a novas circunstâncias.
O estudo de sistemas computacionais que podem melhorar-se automaticamente através da acumulação de experiência é referido como aprendizagem automática (ML), e tem sido uma parte essencial da investigação em IA desde o início do assunto. No método de aprendizagem conhecido como reforço, o agente é recompensado pelas respostas apropriadas e disciplinado pelas inadequadas. O agente organiza suas respostas em categorias, a fim de formular uma estratégia para navegar na área problemática que enfrenta.
O termo "processamento de linguagem natural" (PNL) refere-se a uma técnica que permite aos computadores...