RETI NEURALI
La r.n. è un insieme di elementi semplici interconnessi in parallelo in larga misura, la cui organizzazione gerarchica è progettata in modo da interagire con gli oggetti del mondo reale come il sistema nervoso. L'aspetto più tipico della r.n. è la capacità di acquisire ''esperienza'', nel senso di autorganizzarsi sulla base di esempi del compito che deve svolgere.
Lo sviluppo recente delle r.n. è stato motivato dalla constatazione dell'incapacità degli approcci tradizionali dell'intelligenza artificiale a risolvere problemi di riconoscimento di grande importanza pratica, quali il riconoscimento delle immagini, del parlato, del parlante, ecc. Questa incapacità è dovuta non a una scarsa potenza di elaborazione dei dati da parte della tecnologia attuale, ma al modo di gestirla. Tale affermazione si basa sulla constatazione che la potenza di elaborazione di un calcolatore di uso corrente è paragonabile a quella del cervello di un animale. Sviluppando il confronto nel caso di un personal computer e un piccione, si trova infatti per ambedue una potenza di elaborazione dell'ordine di 1014 bit/s. Tuttavia, è un dato di fatto che il piccione risolve i propri problemi quotidiani, che sono usualmente di riconoscimento, in tempi molto brevi ed efficacemente, mentre il calcolatore, gestito con l'approccio tradizionale, non è in grado di fare nulla di simile. È interessante osservare, in relazione a tale esempio, che la potenza di elaborazione viene raggiunta nei due casi in modo molto diverso. In particolare, nel caso biologico il ritmo delle operazioni è estremamente lento rispetto al calcolatore, mentre risulta molto maggiore il numero di elementi costituenti di base e la loro connettività. Tuttavia, la differenza fondamentale consiste nella gestione della potenza di elaborazione, cioè nell'algoritmo di elaborazione dei dati usato nei due casi. È infatti necessario osservare che i neuroni operano in tempi dell'ordine della decina di millisecondi e la soluzione dei problemi quotidiani biolo gici dev'essere disponibile in tempi dell'ordine del secondo o meno per ragioni di sopravvivenza. Ciò significa che ''l'algoritmo biologico'' deve completarsi in un numero di passi inferiore a 100. Questo vincolo biologico è quello più caratteristico e impone l'utilizzazione di un numero notevolissimo di elementi organizzati in modo da poter lavorare parallelamente.
L'osservazione precedente, che il sistema nervoso risolve problemi di grande interesse, al di fuori della portata dei calcolatori gestiti con le tecniche tradizionali, ha indirizzato la ricerca verso l'imitazione del sistema nervoso. La r.n. è il risultato di tale sforzo tuttora in corso, il cui impatto più evidente è nella terminologia usata. Infatti l'elemento di base della r.n. prende il nome di neurone, il peso della connessione prende il nome di sinapsi, che può essere inibitoria o eccitatoria a seconda del segno.
Lo sviluppo delle r.n. ha conosciuto tre cicli successivi di entusiasmo e scetticismo a partire dal lavoro classico di W.S. McCullough e W. Pitts del 1943, in cui gli autori concepirono per la prima volta il cervello umano come un calcolatore. Il ciclo successivo è quello databile al lavoro di F. Rosenblatt del 1962, dove viene proposto il perceptron come base per il modellamento del cervello e quindi dell'intelligenza artificiale, e concluso dal lavoro di M.L. Minsky e S.A. Papert del 1969, che evidenziò l'incapacità del perceptron di risolvere problemi semplici. Il ciclo attuale, in fase di sviluppo molto rapido, è databile ai lavori di J.J. Hopfield dei primi anni Ottanta, al quale va tra l'altro il merito di una notevole azione di divulgazione scientifica in favore delle r. neurali. Fondamentali per lo sviluppo attuale sono stati: a) il congresso internazionale sulle r.n. (San Diego, 1987) USA; b) i numeri speciali dedicati alle r.n. da parte delle riviste scientifiche più prestigiose dei vari settori dell'ingegneria, fisica, biologia, economia, psicologia, fisiologia, ecc.; c) l'introduzione di numerose riviste dedicate specificatamente alle r.n., a partire dal 1989.
Gli aspetti fondamentali di una r.n. sono l'architettura e il meccanismo di apprendimento. L'architettura riguarda la connessione tra i neuroni, l'ingresso e l'uscita. Le due strutture di base sono quella unidirezionale e quella ricorrente. Nel primo caso l'informazione si propaga solo dall'ingresso all'uscita; nel secondo caso si propaga anche in senso inverso. È importante notare che ciò che una r.n. può fare dipende dalla sua architettura e dalle proprietà computazionali dei
suoi elementi. Nessuna rete può apprendere quello che non è capace di fare intrinsecamente. Sfortunatamente non c'è modo d'individuare la rete migliore o di sapere che cosa una rete è capace di apprendere. Si cerca di ovviare a quest'inconveniente in due modi opposti: a) s'inizia da una struttura semplice e via via la si arricchisce secondo le esigenze del problema; b) s'inizia da una struttura complessa e si eliminano successivamente connessioni e neuroni poco attivi. Il meccanismo di apprendimento può essere essenzialmente di due tipi: supervisionato e competitivo. Nel primo caso gli esempi che vengono presentati alla r.n. contengono sia l'ingresso che l'uscita; si dice che la rete apprende in presenza di un ''maestro'' (apprendimento supervisionato). Nel secondo caso, si segue la strategia della selezione naturale, modificando le sinapsi solo dei neuroni più attivi (apprendimento competitivo). Una variante mitigata di tale meccanismo viene attuata mediante la regola di Hebb, che modifica la sinapsi proporzionalmente all'attività degli elementi connessi.
L'applicazione del meccanismo di apprendimento al problema d'interesse ha lo scopo di modificare le sinapsi in modo che la r.n. sia in grado di risolvere il problema stesso. Per poter funzionare, occorre avere a disposizione un insieme di esempi da presentare alla r.n., che da questo insieme ricava l'informazione necessaria a operare. Si formano spontaneamente associazioni organizzate di neuroni che operano collettivamente secondo comportamenti caratteristici, i quali costituiscono ciò che può definirsi esperienza. Nell'evoluzione della r.n. in questa direzione svolge un ruolo fondamentale la scelta degli esempi, la loro manipolazione preventiva, la loro rappresentazione ed eventualmente l'intervento di un supervisore che svolge l'azione di un insegnante, il quale controlla in qualche modo la correttezza dell'evoluzione stessa. L'introduzione della supervisione richiede una conoscenza approfondita dei meccanismi biologici, se si vuole evitare di forzare in modo innaturale il funzionamento della r.n., perdendo la certezza di pervenire a quelle prestazioni che interessa ottenere proprio con l'imitazione del sistema nervoso.
La possibilità di acquisire esperienza dagli esempi mediante operazioni semplici effettuate dai neuroni e in virtù della loro organizzazione collettiva, caratterizzata da una diffusa interconnessione e da un massiccio parallelismo, costituisce la caratteristica peculiare di una r. neurale. L'obiettivo ambizioso finale è quello di ottenere un ''esperto'' imitando il modo in cui un esperto umano si realizza nel suo interno. Infatti, questi acquisisce, tramite la trattazione di innumerevoli casi, la capacità di prendere decisioni corrette in relazione a essi, pervenendo a formulare implicitamente una serie di regole e comportamenti con cui interfacciare la realtà. Tale sua capacità è la conseguenza di opportune associazioni dei neuroni che costituiscono il suo cervello. Quello che si vuole imitare è la struttura e i meccanismi di organizzazione dei neuroni in modo che si formino organizzazioni analoghe a quelle che caratterizzano il cervello dell'esperto umano a seguito di esposizione agli stessi esempi ed eventualmente con l'intervento di un supervisore. L'osservazione precedente mette in evidenza la differenza sostanziale esistente tra la r.n. e l'approccio attuale dell'intelligenza artificiale. Nel caso della r.n. l'esperto viene imitato a livello di microstruttura e le sue regole di comportamento si formano autonomamente senza necessità di conoscerle. Nel caso dell'intelligenza artificale l'imitazione è a livello di macrostruttura e quello che si imita sono proprio le regole di comportamento.
Descrizione dei tipi principali di reti neurali unidirezionali. - Per ragioni di spazio limitiamo la trattazione a un tipo di r.n. unidirezionale per classe, cioè al Perceptron Multistrato (PMS) nel caso supervisionato e alla Rete di Kohonen (RK) nel caso competitivo.
I due tipi di r.n., che descriveremo, sono i più rappresentativi delle due classi. Tuttavia, occorre mettere in evidenza che esistono numerose varianti di essi, altri tipi di r.n. e r.n. risultanti dall'associazione di tipi diversi. Ricordiamo per quanto riguarda le varianti: il PMS con ritardi, in cui le uscite ritardate di alcuni neuroni sono riportate in ingresso al fine di prelevare informazioni dell'ingresso distribuite nel tempo; il PMS a spazio d'ingresso aumentato, che permette di risolvere il problema dei minimi locali; il PMS con ''connessioni funzionali'', in cui le sinapsi sono sostituite da funzioni particolari allo scopo di adattare il perceptron al problema d'interesse. Per quanto riguarda gli altri tipi di r.n., ricordiamo la madaline, analoga al PMS; il neocognitron, basato sull'imitazione del sistema visivo; le r.n. del tipo ART caratterizzate da una notevole complessità per il raggiungimento di un alto livello d'imitazione biologica. Infine, relativamente alle associazioni, ricordiamo la r.n. a contropropagazione ottenuta dalla RK con la rete Outstar, e l'associazione tra PMS e RK e tra più RK.
L'architettura del PMS è mostrata in fig. 1. Il neurone opera effettuando la combinazione lineare dei suoi ingressi (che possono essere gli ingressi alla r.n. nel caso del primo strato, oppure le uscite dei neuroni dello strato precedente, oltre a un ingresso particolare corrispondente alla polarizzazione). L'uscita è una funzione della combinazione precedente: come funzione (funzione di attivazione) viene usata usualmente una delle due funzioni sigmoidali seguenti
con la costante positiva p che fissa la pendenza.
L'architettura è quindi determinata dal numero di strati (strato d'ingresso, strato di uscita, strati nascosti) e dal numero di neuroni per strato. Per quanto riguarda il numero di strati, è noto che si può realizzare una qualsiasi trasformazione uscita-ingresso con uno strato nascosto nel caso di trasformazioni continue (Cybenko) e due strati nascosti nel caso più generale (Kolmogorov). Perciò, non è necessario superare due strati nascosti, anche se può risultare vantaggioso il farlo al fine di una riduzione del numero complessivo di neuroni impiegato, dipendentemente dall'applicazione.
L'algoritmo di apprendimento supervisionato del PMS è basato su un procedimento del tipo gradiente a discesa più ripida, che minimizza la funzione errore usata per misurare il discostamento tra l'uscita del PMS con le sinapsi e polarizzazioni correnti e l'uscita voluta, nell'ambito dell'esempio considerato. L'algoritmo è caratterizzato da un calcolo concatenato delle derivate della funzione errore rispetto ai parametri, che inizia in corrispondenza all'uscita e si propaga fino all'ingresso. Per questa ragione esso è noto come algoritmo di retropropagazione dell'errore ed è riassunto nel seguente schema.
Vediamo in tale schema che è necessario inizializzare i parametri e fissare il passo di correzione. Quest'ultimo parametro è molto critico e deve essere scelto con attenzione. Infine, un'osservazione importante riguarda il funzionamento del PMS: poiché esso si basa su una tecnica tipo gradiente, la soluzione che fornisce potrebbe non essere quella ottimale, in quanto il minimo a cui si perviene è un minimo locale e non quello globale.
I problemi connessi alla scelta del passo di correzione e alla presenza di minimi locali possono essere mitigati ricorrendo a vari accorgimenti: scelta di una misura appropriata dell'errore in uscita diversa da quella quadratica considerata nel riquadro precedente, calcolo dell'errore non esempio per esempio ma sull'insieme degli esempi (iterazione per epoche), funzione di attivazione più complessa, utilizzazione della derivata seconda, utilizzazione di un termine di regolarizzazione nella formula di correzione dei pesi, ecc.
Il PMS è una delle reti più usate nelle applicazioni malgrado gli inconvenienti detti, in quanto è semplice da usarsi e fornisce usualmente risultati soddisfacenti. Applicazioni note riguardano l'elaborazione delle immagini e del parlato, la diagnosi medica, la guida automatica di veicoli, il modellamento di impianti e strutture fisiche, la fusione sensoriale, il riconoscimento di bersagli sonar, l'avviamento postale sulla base di codici scritti a mano. Per dare un'idea riportiamo i dettagli riguardanti l'applicazione alla lettura di un testo scritto.
Per tale applicazione è stato usato un PMS con 7 × 29 ingressi, uno strato nascosto costituito da 80 neuroni, 26 uscite. Sono state usate 1024 parole come esempi di allenamento. I risultati ottenuti sono seguenti: lettura intelligibile al 95% di accuratezza dopo 50 epoche di allenamento e al 78% su parole diverse da quelle di allenamento; comportamento simile a quello di un bambino che impara a leggere; prestazioni ridotte in modo graduale in seguito alla rimozione di neuroni e sinapsi.
L'architettura tipica della rete di Kohonen (RK) è costituita da un insieme di neuroni disposti su una griglia a due dimensioni, ciascuno collegato a tutti gli ingressi, come mostrato in fig. 2. Il neurone è dotato della capacità di misurare la distanza tra i pesi delle sue connessioni verso gli ingressi e il valore di questi, per es. mediante la formula
Inoltre, è presente un dispositivo che sceglie il neurone ''più vicino'' all'ingresso, cioè quello per cui Dj è minimo tra tutti i neuroni. Tale dispositivo, che prende il nome di ''il vincitore prende tutto'', attua la selezione naturale. In fase di apprendimento vengono modificate le sinapsi di tale neurone e quelle dei neuroni appartenenti a un suo vicinato, che va restringendosi man mano che procede l'apprendimento, fino a scomparire nell'ultima fase dell'apprendimento stesso. Contemporaneamente l'entità della correzione, che tende a portare le sinapsi a coincidere con l'ingresso, tende a diminuire. I dettagli dell'algorit mo di apprendimento sono riportati nel seguente schema, e una possibile strutturazione del vicinato al procedere delle iterazioni è mostrato in fig. 3.
L'algoritmo di apprendimento della RK ha basi biologiche. È noto infatti che nei tessuti nervosi laminari esistono collegamenti trasversali tra i neuroni che ne determinano un funzionamento collettivo, caratterizzato dall'innesco delle cosiddette ''bolle di attività'', cioè di regioni in cui tutti i neuroni hanno uscita massima mentre il resto dei neuroni è inattivo. Tali bolle di attività tendono a restringersi e poi a sparire dopo l'innesco dovuto all'applicazione di un'eccitazione. Utilizzando modelli opportuni di tale fenomeno si è visto che, contemporaneamente al fenomeno ''bolla'', le sinapsi ingresso-neuroni si modificano nel senso di tendere a coincidere con i relativi ingressi e limitatamente ai neuroni della bolla. Inoltre, anche tale variazione delle sinapsi tende a diminuire e a sparire.
L'apprendimento richiede di precisare molti parametri, quali: uso di una o due fasi caratterizzate dalla presenza o assenza del vicinato; numero di iterazioni da usare per esse; forma del vicinato; variazione del vicinato con le iterazioni; variazione del fattore di correzione η; misura della distanza; ordine di presentazione degli esempi.
Dopo l'apprendimento la RK è in grado di evidenziare proprietà implicite negli esempi trattati. Il caso più evidente è quello in cui gli esempi sono generati da un processo dipendente da due variabili, anche in modo molto complicato. In questo caso la RK è caratterizzata dal fatto che ciascun neurone diviene specializzato a una coppia particolare di valori delle due variabili. Inoltre la corrispondenza tra neuroni e valori delle variabili è ordinata nel senso che nello spostarci in una direzione della rete i valori associati ai neuroni che incontriamo variano nello stesso senso (crescente o decrescente). Tale proprietà può essere dimostrata teoricamente.
L'ordinamento dei neuroni rispetto alle variabili implicite è in genere non uniforme e dipende dalla densità di probabilità degli esempi presentati rispetto ai valori delle variabili. Inoltre, se le variabili sono più di due, la RK prende in considerazione le due più influenti, relegando le altre a disturbo. Nel caso di un numero di variabili implicite diverse da due può essere utile usare RK mono-dimensionali o tri-dimensionali. Nel caso più complesso di processi naturali, la RK evidenzia proprietà rilevanti di tali processi. L'esempio più tipico è quello del parlato. In questo caso, i segmenti del parlato vengono pre-elaborati e inviati alla RK. Dopo apprendimento, la RK associa a ciascun neurone un fonema, eventualmente con ripetizione. Quindi, presentando i successivi segmenti di una parola, si crea sulla RK una traiettoria. Si parla perciò in questo caso della RK, così allenata, come di una mappa fonotopica. Tali mappe hanno un riscontro biologico nel cervello umano. Va infine ricordato che esse sono state utilizzate, mediante un'opportuna post-elaborazione, come ingrediente base del primo prototipo di macchina da scrivere automatica.
Reti neurali ricorrenti. - Il tipo più rappresentativo di questa categoria è la rete di Hopfield, di cui sono importanti sia la versione algoritmica che quella differenziale. In particolare, quest'ultima è facilmente realizzabile per via elettronica od ottica. Esaminiamo la versione differenziale, in quanto costituisce la base delle r.n. ottimizzatrici. Essa è caratterizzata da N neuroni che interagiscono tra loro come descritto dalle seguenti equazioni differenziali
in cui: xj è lo stato del neurone j-esimo; yj è la sua uscita; f(..) è la sua funzione di attivazione, usualmente del tipo sigmoidale; Ij è il suo ingresso; Tij è il peso della connessione dal neurone i a quello j. Nell'ipotesi che Tij=Tji, la rete di Hopfield si stabilizza in una situazione di minimo della funzione
raggiungendola con una dinamica che prevede solo la sua diminuzione. Tale proprietà è il fondamento dell'uso della rete di Hopfield come rete ottimizzatrice. Infatti, in un problema di ottimizzazione sono assegnate le variabili del problema e l'espressione che interessa minimizzare. L'utilizzazione della rete di Hopfield in questo caso richiede d'individuare i valori dei pesi delle connessioni e degli ingressi in modo che la funzione E coincida con l'obiettivo da minimizzare.
Il passo precedente non è facilmente effettuabile nel caso della rete di Hopfield; per poterlo eseguire senza difficoltà occorre passare ad altre r.n. ottimizzatrici basate sulla teoria dei circuiti non-lineari, e per le quali la funzione E ha un significato fisico ben preciso. In tali r.n., la procedura d'individuazione della rete a partire dal problema è molto semplice e affidabile. È interessante osservare a questo proposito che le strutture a cui si arriva in questo caso sono del tutto simili a quelle sviluppate agli inizi degli anni Sessanta e note sotto il nome di ''calcolatori analogici''. Tali calcolatori vennero abbandonati a causa dello sviluppo tecnologico inadeguato di quel tempo.
Le r.n. ottimizzatrici differiscono da quelle tipiche per il fatto che manca in esse la fase caratteristica di apprendimento da esempi. In effetti può essere invocato per esse un principio biologico, considerando la funzione E come una sorta di codice genetico che ne guida l'evoluzione dinamica. Tale comportamento risulta ancora più esplicito in un'altra categoria di r.n., le r.n. cellulari. In queste ultime, ciascun neurone è interconnesso solo con i vicini ed è caratterizzato da pochi parametri, che costituiscono appunto il codice genetico che ne controlla il funzionamento e quindi ne caratterizza il comportamento specifico. È infine da notare che le configurazioni di tali r.n. sono particolarmente adatte alla realizzazione elettronica VLSI (Very Large Scale Integration).
La r.n. non è in grado d'individuare il minimo globale della funzione E. Ciò è un inconveniente tipico delle r.n. ottimizzatrici. Si può ovviare a esso ricorrendo alla tecnica della ''ricristallizzazione simulata'', il cui principio di funzionamento è basato su considerazioni fisiche legate alla formazione dei cristalli a partire dal liquido di fusione.
La proprietà caratteristica della ricristallizzazione simulata è quella d'introdurre nella procedura di minimizzazione la possibilità di accettare variazioni delle variabili che fanno momentaneamente risalire la funzione E da minimizzare. A livello intuitivo, ciò è chiaro se si pensa al processo di minimizzazione come alla traiettoria di una pallina lungo una superficie sotto l'azione della gravità. Tale pallina si fermerà nell'avvallamento più vicino anche se tale avvallamento è un risalto lieve della superficie e si trova in vicinanza di una cavità profonda (corrispondente al minimo globale). Permettere alla pallina di risalire momentaneamente, significa permettere l'uscita dai buchi insignificanti per precipitare in quelli più profondi. Inoltre occorre che tali spostamenti in salita siano di entità notevole all'inizio e poi successivamente via via sempre più modesti per evitare la fuoriuscita dall'avvallamento d'interesse. Nella cristallizzazione avviene qualcosa di simile: l'energia da minimizzare è quella complessiva della sostanza che sta solidificando. Lo stato di minimo globale corrisponde al cristallo; i minimi locali a forme amorfe o parzialmente cristallizzate. La riduzione dell'energia è determinata dal raffreddamento; la possibilità di aumenti momentanei dell'energia è dovuta all'agitazione termica. Più alta è la temperatura e maggiori sono gli aumenti possibili. È necessario che la temperatura diminuisca lentamente perché si verifichino gli assestamenti che consentono lo svolgimento regolare del processo di cristallizzazione. Il metodo di minimizzazione basato sulla ricristallizzazione simulata, anche se giustificato inizialmente per via fisica, è stato successivamente ancorato su solide basi matematiche, che ne permettono l'utilizzazione efficiente nelle r. neurali. In particolare è da ricordare per la sua importanza la macchina di Boltzman, che può considerarsi come una modifica della rete di Hopfield in modo da incorporare la ricristallizzazione simulata.
Memorie associative. - Le ''memorie associative'' sono delle r.n. aventi l'obiettivo di riprodurre il meccanismo con cui la nostra mente richiama le informazioni in essa contenute. È esperienza comune che tale richiamo avviene per associazione di oggetti, parole, situazioni collegate in qualche modo alla nozione da richiamare.
Le caratteristiche principali da imitare sono: a) la capacità d'immagazzinare il maggior numero possibile di configurazioni; b) il meccanismo di apprendimento, mediante il quale le configurazioni vengono immagazzinate; c) la plasticità e stabilità: i prototipi, una volta immagazzinati, devono rimanere nella memoria senza essere distrutti da nuove informazioni (stabilità); nello stesso tempo dev'essere possibile, se necessario, modificare le informazioni registrate per effetto dell'acquisizione di nuovi particolari (plasticità); d) l'associatività: il richiamo deve avvenire a partire solo da versioni incomplete, distorte o rumorose dell'informazione desiderata; la memoria deve cioè possedere capacità di compressione del rumore e di rigenerazione dell'informazione.
Si prestano particolarmente bene alla realizzazione di memorie associative le r.n. ricorrenti. La dinamica di tali reti presenta infatti degli attrattori che possono essere utilizzati per immagazzinare informazioni che risultano recuperabili a partire da dati incompleti, distorti o rumorosi corrispondenti a stati inclusi nel loro dominio di attrazione. La rete proposta da Hopfield può essere considerata come il riferimento classico di questo tipo di r. neurali. A partire dal meccanismo originalmente proposto da Hopfield per il calcolo delle sinapsi, molti altri ne sono stati proposti con lo scopo di migliorare le prestazioni della memoria associativa ottenuta, riguardanti: capacità, domini di attrazione dei prototipi immagazzinati, attrattori spuri, cioè corrispondenti a configurazioni immagazzinate non desiderate.
Il metodo originalmente proposto da Hopfield consiste nel determinare le sinapsi con la formula
dove con yi(k) s'intende la componente i-esima della k-sima configurazione da immagazzinare. La capacità massima ottenibile in questo caso è dell'ordine di 0,15 N, nel caso ci si riferisca a componenti binarie. Rimanendo entro questi limiti, il funzionamento della r.n. è soddisfacente. Il valore di capacità precedente può essere superato facendo ricorso ad algoritmi diversi di apprendimento, che permettono il miglioramento contemporaneo anche delle altre prestazioni. Tuttavia, sono da tenere presenti altri tipi di memorie associative come quelle basate sul PMS reazionato, sulle BAM, sulle reti di tipo ART, ecc.
Applicazioni delle reti neurali. - In precedenza sono state già descritte alcune applicazioni del PMS; qui di seguito riportiamo un elenco dei campi di applicazione delle r. neurali.
1) Sistemi intelligenti basati su ingressi da segnali di origine sensoriale (visiva, acustica, tattile, mista): a) visiva: rivelazione, verifica e identificazione di caratteri e oggetti (codici a barre, caratteri stampati o scritti a mano, impronte digitali, firme, facce, difetti di prodotti, oggetti meccanici, minerali, ecc.); movimento di oggetti e guida (sicurezza, automazione della fabbrica, sistemi di navigazione, di difesa, robot mobili); elaborazione delle immagini (compressione, eliminazione di difetti di immagini in tempo reale); b) acustica: riconoscimento della voce (selezione telefonica, elaborazione di parole dettate, interfaccia intelligente uomo-calcolatore, verifica e identificazione di persone per via vocale, riconoscimento di oggetti dai suoni emessi, sistemi di diagnostica); movimento di oggetti e guida (localizzazione passiva di sorgenti sonore, localizzazione attiva e guida di oggetti, sistemi di navigazione); elaborazione del suono (compressione e miglioramento in tempo reale della voce e della musica, aiuti audio e protesi); c) tattile e mista: applicazioni basate su ingresso tattile (interfaccia intelligente uomo-macchina); altri sistemi sensoriali (sensori a infrarossi, accelerometri, termocoppie, ecc., per misure, controllo e sicurezza); sistemi sensoriali misti (dal testo al parlato, dalle immagini al suono, dalle immagini al tattile, riconoscimento di configurazioni tramite fusione sensoriale).
2) Sistemi di controllo adattativi: sistemi d'integrazione sensoriale-motore; sistemi intelligenti di controllo dei processi; sistemi intelligenti di controllo di apparecchiature.
3) Elaborazione adattativa dei segnali: compressione dati per comunicazione e archivio (voce, musica, immagini, video); miglioramento e sintesi dati (fax, voce, televisione ad alta risoluzione, grafica, cancellazione di rumore); memorie associative.
4) Sistemi esperti.
5) Robot autonomi.
Realizzazione di reti neurali. - Il modo più semplice per realizzare una r.n. è la simulazione sul calcolatore. Il vantaggio di questa soluzione è l'economicità; lo svantaggio è l'impossibilità di giungere a tempi di calcolo e dimensioni significativi. La realizzazione diretta è in rapido sviluppo, indirizzato nelle direttrici tecnologiche basate sui semiconduttori e sull'ottica. Soprattutto la prima, basata sul silicio cristallino, è quella in fase di sviluppo più avanzato, anche se la presenza di limiti fisici invalicabili richiede di modificare alla base il modo di progettare i circuiti elettronici costituenti la r. neurale. Al riguardo vanno tenute presenti le seguenti osservazioni.
Per il cervello umano, l'entità dell'energia consumata per un'operazione è dell'ordine di 10−16 J/op (Joule per operazione), e la potenza richiesta per effettuare le operazioni, valutate a circa 1016 al secondo, è dell'ordine di qualche watt. Un microprocessore dei primi anni Novanta richiede circa 10−7 J/op. Procedendo fino ai limiti fisici con lo stesso approccio, si può sperare di arrivare a un valore di 10−9 J/op. Da notare che con questa tecnologia del futuro occorrerebbe la potenza di una centrale elettrica per effettuare lo stesso numero di operazioni al secondo del cervello umano! È facile rendersi conto che tale disparità di efficienza tra la realizzazione con silicio cristallino e sistema nervoso è attribuibile soprattutto al modo in cui i dispositivi di base funzionano piuttosto che alle loro richieste di energia per funzionare. Infatti è del tutto ragionevole valutare in 10−15 J il consumo di energia richiesto per effettuare l'operazione elementare di cambiamento di stato di un transistore, e tale valore è vicino all'analogo del sistema nervoso. La via da seguire è quindi quella di utilizzare, a imitazione del sistema nervoso, quelle operazioni a costo energetico nullo legate direttamente alla struttura fisica del dispositivo che si usa, come per es. l'effettuare la somma utilizzando le leggi di Kirchhoff. Un esempio a questo riguardo è rappresentato dalla retina artificiale, in cui la singola operazione richiede un consumo di 10−11 J rispetto ai 10−7 J necessari usando la stessa tecnologia, ma con l'approccio tradizionale degli inizi degli anni Novanta. Proiezioni ragionevoli fino agli inizi del 2000 propongono consumi dell'ordine di 10−13 J, impiegando una tecnologia WSI (Wafer Scale Integration) al posto della VLSI (Very Large Scale Integration).
Bibl.: F. Rosenblatt, Principles of neurodynamics, New York 1962; M.L. Minsky, S.A. Papert, Perceptrons, Cambridge 1969; D.E. Rumelhart, J.L. McClelland, Parallel distributed processing: explorations in the microstructure of cognition, ivi 1986; J.A. Anderson, E. Rosenfeld, Neurocomputing: foundations of research, ivi 1988; T. Kohonen, Self-organization and associative memories, Berlino 1989; C.A. Mead, Analog VLSI and neural systems, Reading (Mass.) 1989; L. Cliffort, Neural networks: theoretical foundations and analysis, Piscataway (USA) 1992.