LEZIONE del 20 Gennaio

Con i robot si possono eseguire esperimenti creando sistemi artificiali intelligenti allo scopo di modellare sistemi biologici, esplorare i principi dell'intelligenza in generale e sviluppare applicazioni. Lavorare con i robot fisici è altamente istruttivo e produttivo anche se spesso si possono ottenere i risultati desiderati usando solamente la simulazione.

FUNZIONALISMO

Il punto di vista secondo il quale l'intelligenza è riconducibile alla computazione, dove la computazione è un meccanismo che opera sulle rappresentazioni, è noto come paradigma cognitivista, o funzionalismo.

L'idea di computazione è stata formalizzata da Alan Turing (1936), benchè nei fatti altri matematici come Alonzo Church abbiano sviluppato idee simili approssimativamente negli stessi anni. La macchina di Turing è un modello teorico astratto di elaboratore la cui realizzazione fisica è del tutto irrilevante rispetto al meccanismo concettuale di esecuzione ad ogni singolo passo della computazione.

Le macchine di Turing sono universali perchè modellano o simulano qualunque altra macchina astratta per la computazione. Questa conclusione ha portato Turing a supporre che le sue macchine potrebbero simulare l'intelligenza umana, ipotesi nota come tesi di Church-Turing.

Esistono in letteratura molte versioni (alcune più deboli, altre più forti) di questa tesi, la quale può enunciarsi nelle due parti riportate di seguito.

Appare evidente dalla sua enunciazione come il secondo punto citato sia la giustificazione epistemologica delle ricerche in Intelligenza Artificiale. Nelle applicazioni robotiche, funzionalismo e paradigma cognitivista possono considerarsi largamente sinonimi. Con il termine funzionalismo, secondo l'accezione proposta da Hillary Putman (1975), si intende che

"il pensare e le altre funzioni dell'intelligenza non necessitino un hardware specifico, ossia, lo stesso tipo di funzioni può essere eseguito su dispositivi hardware (machinary) diversi."

L'intelligenza o la cognizione possono essere studiati al livello degli algoritmi o dei processi computazionali senza dover considerare la struttura sottostante dei dispositivi su cui gli algoritmi sono eseguiti. Secondo il punto di vista del funzionalismo occorre distinguere fra hardware e software e quest'ultimo è il vero oggetto delle indagini. Se una macchina è universale e può eseguire qualunque computazione, allora è importante considerare il programma eseguito e non l'hardware che lo esegue.

IPOTESI DEL SISTEMA SIMBOLICO

L'ipotesi del sistema dei simboli fisici fu presentato per la prima volta da Newell e Simon ("Computer Science as Empirical Enquiry") al Turing award del 1976 nel quale si suggeriva un approccio empirico, piuttosto che teoretico, allo studio dell'intelligenza umana. Gli autori vedono l'intelligenza come una manipolazione di simboli, permettondo loro di affermare che, nella sostanza,

"un sistema di simboli fisici è condizione necessaria e sufficiente per un'azione intelligente in generale".

Il termine fisico si riferisce all'idea che il sistema simbolico deve essere realizzato con l'impiego di qualche mezzo fisico (carta, elaboratore, cervello) ma la sua effettiva realizzazione è irrilevante. Tipici esempi di sistemi simbolici fisici sono i cosiddetti sistemi di produzione (production system), basati su regole if-then o i linguaggi di programmazione d'uso generale come il LISP o il C.

Il termine necessario significa che qualunque sistema che non ha questa proprietà non può essere intelligente mentre sufficiente implica che se un sistema gode di questa proprietà allora ha tutte le potenzialità per eseguire azioni intelligenti. In questo senso, poichè i linguaggi di programmazione sono sistemi di simboli fisici, gli elaboratori possono essere resi potenzialmente intelligenti.

I processi computazionali operano su rappresentazioni, quelle che si dicono le strutture simboliche che, nel senso di Newell e Simon devono essere intesa come qualcosa che si riferisce ad una situazione del mondo esterno e che obbedisce alla legge della rappresentazione, ossia

decode[encode(T)(encode(X1))] = T(X1)

dove X1 è la situazione esterna originale mentre T è la trasformazione esterna.
Le rappresentazioni sono strutture che sono presenti nell'individuo e sono da lui interpretabili. Questo modo di guardare alle rappresentazioni sembra molto naturale anche se porta con se molti problemi, in particolare, quando applicato agli uomini e agli animali. Si noti che Newell e Simon non richiedono che l'intelligenza sia la stessa cosa che un'elaborazione di simboli, piuttosto la suggeriscono come ipotesi da verificare empiricamente. L'obiettivo della ricerca in A.I. è "verificare fino a che punto l'ipotesi del sistema di simboli fisici sia vera".

PROBLEMI DELLA RAPPRESENTAZIONE

I problemi fondamentali dell'A.I. classica riguardano tutti la relazione dell'agente col mondo reale, in particolare, l'interazione con esso.

Frame Problem
Il problema fu originariamente identificato da McCarthy e Hayes (1969) e deriva da molte situazioni diverse che hanno in comune il modo con cui modellare il cambiamento. Secondo Janlert (1987) il frame problem si presenta in due aspetti distinti

Symbol Grounding Problem
Il problema è stato riconosciuto per la prima volta da Steven Harnad (1990) e si riferisce al modo con cui i simboli sono legati al mondo reale. Nell'A.I. tradizionale i simboli sono definiti in modo puramente sintattico considerando il loro legame con gli altri simboli e al modo con cui sono processati da qualche interprete. Raramente viene considerata la loro connessione col mondo esterno: nell'A.I. classica generalmente si assume che sistemi siano chiusi.

L'uso dei simboli nei sistemi di elaborazione non è un grosso problema finchè la presenza dell'uomo ne assicuri una loro corretta interpretazione, in grado di stabilire le appropriate relazioni con un qualche mondo esterno. Nel caso dei sistemi autonomi, in cui non c'è una presenza diretta dell'uomo, il significato dei simboli deve essere ancorato (grounded) nell'interazione propria del sistema con l'ambiente.

Embodiment Problem
Si riferisce al fatto che gli algoritmi astratti non interagiscono col mondo fisico. I sistemi che "non sono embodied" soffrono del Symbol Grounding Problem.

Situatedness Problem
Un agente è situato quando è in grado di acquisire la situazione corrente attraverso i suoi sensori in interazione con l'ambiente. Si noti, tuttavia, che l'embodiment non implica automaticamente il fatto di essere situati.