Con i robot si possono eseguire esperimenti creando sistemi artificiali intelligenti allo scopo di modellare sistemi biologici, esplorare i principi dell'intelligenza in generale e sviluppare applicazioni. Lavorare con i robot fisici è altamente istruttivo e produttivo anche se spesso si possono ottenere i risultati desiderati usando solamente la simulazione.
Il punto di vista secondo il quale l'intelligenza è riconducibile alla computazione, dove la computazione è un meccanismo che opera sulle rappresentazioni, è noto come paradigma cognitivista, o funzionalismo.
L'idea di computazione è stata formalizzata da Alan Turing (1936), benchè nei fatti altri matematici come Alonzo Church abbiano sviluppato idee simili approssimativamente negli stessi anni. La macchina di Turing è un modello teorico astratto di elaboratore la cui realizzazione fisica è del tutto irrilevante rispetto al meccanismo concettuale di esecuzione ad ogni singolo passo della computazione.
Le macchine di Turing sono universali perchè modellano o simulano qualunque altra macchina astratta per la computazione. Questa conclusione ha portato Turing a supporre che le sue macchine potrebbero simulare l'intelligenza umana, ipotesi nota come tesi di Church-Turing.
Esistono in letteratura molte versioni (alcune più deboli, altre più forti) di questa tesi, la quale può enunciarsi nelle due parti riportate di seguito.
Appare evidente dalla sua enunciazione come il secondo punto citato sia la giustificazione epistemologica delle ricerche in Intelligenza Artificiale. Nelle applicazioni robotiche, funzionalismo e paradigma cognitivista possono considerarsi largamente sinonimi. Con il termine funzionalismo, secondo l'accezione proposta da Hillary Putman (1975), si intende che
"il pensare e le altre funzioni dell'intelligenza non necessitino un hardware specifico, ossia, lo stesso tipo di funzioni può essere eseguito su dispositivi hardware (machinary) diversi."
L'intelligenza o la cognizione possono essere studiati al livello degli algoritmi o dei processi computazionali senza dover considerare la struttura sottostante dei dispositivi su cui gli algoritmi sono eseguiti. Secondo il punto di vista del funzionalismo occorre distinguere fra hardware e software e quest'ultimo è il vero oggetto delle indagini. Se una macchina è universale e può eseguire qualunque computazione, allora è importante considerare il programma eseguito e non l'hardware che lo esegue.
L'ipotesi del sistema dei simboli fisici fu presentato per la prima volta da Newell e Simon ("Computer Science as Empirical Enquiry") al Turing award del 1976 nel quale si suggeriva un approccio empirico, piuttosto che teoretico, allo studio dell'intelligenza umana. Gli autori vedono l'intelligenza come una manipolazione di simboli, permettondo loro di affermare che, nella sostanza,
"un sistema di simboli fisici è condizione necessaria e sufficiente per un'azione intelligente in generale".
Il termine fisico si riferisce all'idea che il sistema simbolico deve essere realizzato con l'impiego di qualche mezzo fisico (carta, elaboratore, cervello) ma la sua effettiva realizzazione è irrilevante. Tipici esempi di sistemi simbolici fisici sono i cosiddetti sistemi di produzione (production system), basati su regole if-then o i linguaggi di programmazione d'uso generale come il LISP o il C.
Il termine necessario significa che qualunque sistema che non ha questa proprietà non può essere intelligente mentre sufficiente implica che se un sistema gode di questa proprietà allora ha tutte le potenzialità per eseguire azioni intelligenti. In questo senso, poichè i linguaggi di programmazione sono sistemi di simboli fisici, gli elaboratori possono essere resi potenzialmente intelligenti.
I processi computazionali operano su rappresentazioni, quelle che si dicono
le strutture simboliche che, nel senso di Newell
e Simon devono essere intesa come qualcosa che si riferisce ad una situazione
del mondo esterno e che obbedisce alla legge della rappresentazione,
ossia
I problemi fondamentali dell'A.I. classica riguardano tutti la relazione dell'agente col mondo reale, in particolare, l'interazione con esso.
Frame Problem
Il problema fu originariamente identificato da McCarthy e Hayes (1969) e
deriva da molte situazioni diverse che hanno in comune il modo con cui
modellare il cambiamento. Secondo Janlert (1987) il frame problem
si presenta in due aspetti distinti
Symbol Grounding Problem
Il problema è stato riconosciuto per la prima volta da
Steven Harnad (1990) e si riferisce al modo con cui i simboli sono legati
al mondo reale. Nell'A.I. tradizionale i simboli sono definiti in modo
puramente sintattico considerando il loro legame con gli altri simboli e
al modo con cui sono processati da qualche interprete. Raramente viene
considerata la loro connessione col mondo esterno: nell'A.I. classica
generalmente si assume che sistemi siano chiusi.
L'uso dei simboli nei sistemi di elaborazione non è un grosso problema finchè la presenza dell'uomo ne assicuri una loro corretta interpretazione, in grado di stabilire le appropriate relazioni con un qualche mondo esterno. Nel caso dei sistemi autonomi, in cui non c'è una presenza diretta dell'uomo, il significato dei simboli deve essere ancorato (grounded) nell'interazione propria del sistema con l'ambiente.
Embodiment Problem
Si riferisce al fatto che gli algoritmi astratti non interagiscono col mondo
fisico. I sistemi che "non sono embodied" soffrono del Symbol
Grounding Problem.
Situatedness Problem
Un agente è situato quando è in grado di acquisire la situazione
corrente attraverso i suoi sensori in interazione con l'ambiente. Si noti,
tuttavia, che l'embodiment non implica automaticamente il fatto di essere
situati.