Capitolo 2 : Intelligenza artificiale
In contrasto con l'intelligenza naturale esibita dagli animali, compresi gli esseri umani, l'intelligenza artificiale (AI) si riferisce all'intelligenza dimostrata dai robot. La ricerca nell'intelligenza artificiale (AI) è stata descritta come l'area di studio degli agenti intelligenti, che si riferisce a qualsiasi sistema che percepisce l'ambiente circostante ed esegue azioni che ottimizzano la possibilità di raggiungere i propri obiettivi. In altre parole, la ricerca sull'intelligenza artificiale è una disciplina che studia gli agenti intelligenti. Il termine "impatto dell'IA" si riferisce al processo attraverso il quale attività che in precedenza si pensava necessitassero di "intelligenza" ma che non sono più incluse nel concetto di intelligenza artificiale con l'avanzare della tecnologia. I ricercatori di intelligenza artificiale hanno adattato e incorporato un'ampia varietà di approcci per affrontare i problemi, tra cui la ricerca e l'ottimizzazione matematica, la logica formale, le reti neurali artificiali e i metodi basati su statistica, probabilità ed economia, al fine di affrontare queste difficoltà. L'informatica, la psicologia, la linguistica, la filosofia e molte altre discipline accademiche contribuiscono allo sviluppo dell'IA.
La teoria secondo cui l'intelletto umano "può essere caratterizzato in modo così accurato che un computer può essere costruito per imitarlo" è stato il principio guida dietro l'istituzione di questa disciplina. Ciò ha scatenato dibattiti filosofici riguardanti la mente e le implicazioni etiche dell'infondere negli organismi artificiali un intelletto paragonabile a quello degli esseri umani; Questi sono argomenti che sono stati indagati dal mito, dalla letteratura e dalla filosofia fin dall'antichità.
Nell'antichità, le creature artificiali con intelligenza artificiale venivano utilizzate in vari dispositivi narrativi.
e sono spesso visti in opere letterarie, come in Frankenstein di Mary Shelley o R.U.R. di Karel Capek.
Il progetto formale per i "neuroni artificiali" completi di Turing che McCullouch e Pitts svilupparono nel 1943 fu il primo lavoro che ora è ampiamente riconosciuto come un esempio di intelligenza artificiale.
I partecipanti alla conferenza sono diventati pionieri nel campo della ricerca sull'intelligenza artificiale.
Loro, insieme ai loro alunni, sono stati in grado di costruire programmi che la stampa ha definito "sorprendenti". Questi programmi includevano macchine in grado di apprendere le tecniche della dama, risolvere problemi di parole in algebra, dimostrare teoremi logici e avere una buona padronanza della lingua inglese.
Intorno alla metà del decennio degli anni '60, la ricerca condotta negli Stati Uniti
riceveva una notevole quantità di finanziamenti dal Dipartimento della Difesa e venivano allestite strutture in tutto il mondo.
così come la continua pressione da parte del Congresso degli Stati Uniti per investire in sforzi più fruttuosi, gli Stati Uniti d'America
sia il governo canadese che quello britannico hanno smesso di finanziare la ricerca esplorativa sull'intelligenza artificiale.
Gli anni successivi saranno definiti in futuro come un "inverno dell'intelligenza artificiale".
Un periodo in cui era difficile reperire finanziamenti per iniziative di intelligenza artificiale.
Una sorta di software di intelligenza artificiale che imitava la conoscenza e l'abilità analitica dei professionisti umani.
Nel 1985, oltre un miliardo di dollari veniva scambiato nel settore dell'intelligenza artificiale.
Nel frattempo, gli Stati Uniti e il Regno Unito hanno ristabilito il sostegno alla ricerca universitaria come risultato diretto del programma informatico giapponese per la quinta generazione.
Tuttavia, quando il mercato delle macchine lisp crollò nel 1987, fu l'inizio di una spirale discendente.
L'IA cadde ancora una volta in disgrazia, così come iniziò un altro inverno più duraturo.
A Geoffrey Hinton è attribuito il merito di aver ravvivato l'interesse per le reti neurali e il concetto di "connessionismo".
Intorno alla metà degli anni '80, David Rumelhart e pochi altri furono coinvolti. Durante gli anni '80 sono stati creati molti strumenti di soft computing.
includono cose come le reti neurali, i sistemi fuzzy, la teoria del sistema grigio, l'uso del calcolo evolutivo e una serie di metodi derivati dall'ottimizzazione statistica o matematica.
Alla fine degli anni '90 e all'inizio del XXI secolo, l'IA ha lavorato per riabilitare progressivamente la sua immagine sviluppando soluzioni su misura per affrontare sfide particolari. Grazie all'enfasi rassegnata, i ricercatori sono stati in grado di sviluppare conclusioni che potevano essere verificate, utilizzare un numero maggiore di approcci matematici e lavorare con esperti di altri settori (come statistica, economia e matematica). Negli anni '90, le soluzioni prodotte dai ricercatori di intelligenza artificiale non sono mai state definite "intelligenza artificiale", ma nel 2000 sono state ampiamente impiegate in tutto il mondo. Secondo Jack Clark di Bloomberg, il 2015 è stato un anno spartiacque per l'intelligenza artificiale. Ciò è dovuto al fatto che il numero di progetti software che utilizzano l'intelligenza artificiale all'interno di Google è passato da un "uso sporadico" nel 2012 a più di 2.700 progetti nel 2015.
La sfida generale di emulare (o fabbricare) l'intelligenza è stata segmentata in una varietà di sfide più specifiche. Queste sono alcune caratteristiche o abilità che i ricercatori prevedono che un sistema intelligente possieda. La massima enfasi è stata posta sulle caratteristiche descritte di seguito.
I ricercatori agli albori dell'informatica hanno ideato algoritmi che rispecchiavano il ragionamento passo dopo passo che le persone usano quando risolvono problemi o fanno inferenze logiche. Alla fine degli anni '80 e all'inizio degli anni '90, la ricerca sull'intelligenza artificiale aveva stabilito strategie per far fronte a informazioni incerte o parziali. Questi approcci utilizzavano nozioni di probabilità ed economia. Anche tra gli esseri umani, il tipo di deduzione passo dopo passo che i primi studi sull'intelligenza artificiale potrebbero replicare è raro. Sono in grado di affrontare la maggior parte dei loro problemi prendendo decisioni rapide basate sul loro intuito.
L'ingegneria dell'informazione e la rappresentazione di tale conoscenza sono ciò che consente ai sistemi di intelligenza artificiale di rispondere in modo intelligente alle richieste e trarre conclusioni sugli eventi del mondo reale.
Un'ontologia è una raccolta di oggetti, relazioni, idee e attributi che sono formalmente caratterizzati al fine di garantire che gli agenti software siano in grado di comprenderli. Un'ontologia è una descrizione di "ciò che esiste". Le ontologie superiori sono ontologie che cercano di fornire una base per tutte le altre informazioni e operano come mediatori tra le ontologie di dominio, che coprono la conoscenza specializzata su un particolare dominio di conoscenza. Le ontologie superiori sono le ontologie più ampie e sono anche chiamate ontologie (campo di interesse o area di interesse). Un software che sia veramente intelligente richiederebbe anche l'accesso alla conoscenza del buon senso, che è la raccolta di fatti di cui l'essere umano tipico è consapevole. Nella maggior parte dei casi, la logica di descrizione di un'ontologia, come il Web Ontology Language, viene utilizzata per esprimere la semantica di un'ontologia. Oltre ad altri domini, situazioni, eventi, stati e orari; cause ed effetti; conoscenza sulla conoscenza (ciò che sappiamo di ciò che sanno gli altri); ragionamento predefinito (cose che gli esseri umani presumono siano vere fino a quando non vengono raccontate in modo diverso e continueranno ad essere vere anche quando altri fatti stanno cambiando); e conoscenza sulla conoscenza sulla conoscenza sono tutti esempi di domini. L'ampiezza delle informazioni di senso comune (il numero di fatti atomici di cui l'essere umano tipico è consapevole è immenso) e la natura sub-simbolica della maggior parte della conoscenza di senso comune sono due delle sfide più impegnative dell'intelligenza artificiale (gran parte di ciò che le persone sanno non è rappresentato come "fatti" o "dichiarazioni" che potrebbero esprimere verbalmente). L'interpretazione delle immagini, l'assistenza alle decisioni terapeutiche, la scoperta della conoscenza (l'estrazione di intuizioni "interessanti" e fruibili da grandi set di dati) e altre discipline sono tutte aree che potrebbero trarre vantaggio dall'intelligenza artificiale.
Un agente intelligente in grado di pianificare crea una rappresentazione dello stato attuale del mondo, fa previsioni su come le sue azioni influenzeranno l'ambiente e prende decisioni che massimizzano l'utilità (o "valore") delle opzioni disponibili. Nei problemi tradizionali di pianificazione, l'agente può fare l'ipotesi di essere l'unico sistema funzionante al mondo. Ciò consente all'agente di essere sicuro dei risultati che deriveranno dalle azioni che intraprende. Tuttavia, se l'agente non è l'unico giocatore, è necessario che l'agente ragioni, rivaluti continuamente l'ambiente circostante e si adatti alle nuove circostanze.
Lo studio di sistemi informatici in grado di migliorarsi automaticamente attraverso l'accumulo di esperienza è indicato come apprendimento automatico (ML) ed è stato una parte essenziale della ricerca sull'IA sin dall'inizio della materia. Nel metodo di apprendimento noto come rinforzo, l'agente viene ricompensato per le risposte appropriate e disciplinato per quelle inappropriate. L'agente organizza le sue...