Ricordando padre Roberto Busa, il gesuita pioniere dell’ipertesto

 

 

 

 

 

 

 

 

 

 

Il 9 agosto scorso a 97 anni anni è morto padre Roberto Busa, un pioniere dell’uso dell’informatica per l’analisi del testo, la lessicografia e la ricerca bibliografica, in particolare nella realizzazione dell’Index Tomisticus. Tutto cominciò nel 1949, quando padre Busa si mise in testa di analizzare l’opera omnia di san Tommaso: un milione e mezzo di righe, nove milioni di parole. Cercava, senza trovarlo, un modo per mettere in connessione i singoli frammenti del pensiero dell’Aquinate e per confrontarli con altre fonti.

Riassume Stefano Lorenzetto su L’Osservatore Romano” del 10 agosto: “In viaggio negli Stati Uniti, padre Busa chiese udienza a Thomas Watson, fondatore dell’Ibm. Il magnate lo ricevette nel suo ufficio di New York.  Nell’ascoltare la richiesta del sacerdote italiano, scosse la testa: «Non è possibile far eseguire alle macchine quello che mi sta chiedendo. Lei pretende d’essere più americano di noi». Padre Busa allora estrasse dalla tasca un cartellino trovato su una scrivania, recante il motto della multinazionale coniato dal boss — Think, pensa — e la frase «Il difficile lo facciamo subito, l’impossibile richiede un po’ più di tempo». Lo restituì a Watson con un moto di delusione. Il presidente dell’Ibm, punto sul vivo, ribatté: «E va bene, padre. Ci proveremo. Ma a una condizione: mi prometta che lei non cambierà Ibm, acronimo di International business machines, in International Busa machines»”. 

Così nacque l’ipertesto, quell’insieme strutturato di informazioni unite fra loro da collegamenti dinamici consultabili sul computer. Il termine hypertext fu coniato da Ted Nelson nel 1965 per ipotizzare un sistema software in grado di memorizzare i percorsi compiuti da un lettore. Ma, come ammise lo stesso Nelson, l’idea risaliva a prima dell’invenzione del computer.

***

Ecco il testo di una intervista rilasciata il 24 novembre 1995 presso l’Università La Sapienza di Roma:

Padre Busa, Lei è stato tra i pionieri dell’uso dell’informatica per i testi elettronici, in particolare nella realizzazione dell'”Index tomisticus”. Può raccontarci questa esperienza?

Quando preparavo la docenza all’Università Gregoriana di Roma, avevo per tema il concetto di “presenza” di San Tommaso. Dopo sei mesi di lavoro, ricercando manualmente la parola “presenza” nei testi, mi sono accorto che quella parola nel vocabolario di San Tommaso è periferica. La parola centrale, é la preposizione “in”. Allora ho ricominciato da capo. Mi son schedato a mano più di diecimila passi, in cui c’era l’uso della preposizione “in”. Ho giocato dei grandi solitari, con queste schede, ne è venuto fuori il libro della mia docenza, insieme con due idee. La prima: il valore pregnante filosofico delle particelle del discorso degli uomini, la preposizione “in” è una delle chiavi del pensiero filosofico, già dai tempi di Aristotele, non è iniziato con San Tommaso. Secondo: che io avrei reso un buon servizio alla comunità degli studi, se avessi trovato la maniera di risparmiarle il rifarsi a mano le schede di tutte le parole. Nel ’49, ebbi l’occasione, di fare un primo viaggio negli Stati Uniti, dove ho visitato una quarantina di università, da costa a costa, cercando delle macchine per fare quello che io volevo. Mi rivolsi a un giovane professore al MIT, che mi mandò alla IBM. Così nel 1949 ho cominciato a trafficare con la macchina della IBM. Il lavoro è durato fino al 1980, con la stampa dei cinquantasei volumi. Credevo di aver finito e non avevo finito, perché ero interessato all’evoluzione. Ci sono state tre epoche: Prima: le schede perforate. L’obiettivo era uno schedario di dodici milioni di schede, quindi un fronte di novanta metri, alto 1,20, profondo un metro, peso 500 tonnellate. Io avevo perforato e consumato un sei milioni di schede, stampando dietro il contesto di ciascuna. La misericordia del Signore, ha ispirato i tecnici ad inventare i nastri magnetici. E così non più cinquecento tonnellate di materiale. Seconda fase: impiego dei nastri magnetici. Ho avuti un pacco di 1.800 nastri magnetici, che sono 1.600 chilometri di nastro, come da Parigi a Lisbona, o Milano-Palermo. Alla fine ho avuto un altro formato di venti nastri magnetici, sedici chilometri di nastro, con 1.630.000.000 di byte. Questi venti nastri magnetici hanno preso da loro due strade: dal 1974 hanno cominciato ad andare in stampa su carta ed hanno prodotto le settantamila pagine dell'”index tomisticus”. Nel 1980 abbiamo cominciato a pensare a forme più abbreviate e nel ’92 abbiamo messo tutto su CD ROM. Un CD ROM, di quelli ancora in uso, ha una capienza di seicento milioni di byte. Noi ne avevamo un miliardo e seicentomila, però han potuto essere compressi, senza perdere informazioni, in duecento megabyte, e adesso c’è questo dischetto in cui, su una spirale di quattro chilometri e mezzo, c’è tutto quello che mi stava in venti nastri magnetici. Questa è stata l’evoluzione. Ma io mi barcamenavo ormai abbastanza bene con i vecchi computer che chiamo i “dinosauri”. Negli ultimi anni, a Venezia, erano una dozzina di armadi come pianoforti verticali, collegati da cavi sotto il pavimento. Oggi ci sono i personal computer, sapete meglio di me cosa fanno.

Lei ha vissuto questi passaggi, da necessità di capienza così grosse a questi minuscoli CD ROM pieni di dati. Cosa vede per il futuro, che ipotesi fa?

Non son profeta e l’esperienza di questi anni mi ha insegnato che è più saggio non fare profezie sul futuro. Ho alcuni desideri. Il primo: che non si studino i testi di un sola lingua, ma si facciano assaggi coordinati sui principali sistemi linguistici ed alfabetici di questo mondo. E’ un lavoro che io avevo cominciato già ai tempi dell'”Index tomisticus”, perché, trovandomi a essere il primo a dover eseguire questo tipo di operazione, ho dovuto lavorare su altri dieci, undici milioni di parole in diciotto lingue diverse, in alfabeti che vanno dall’ebraico, all’arabo, al gaelico, all’armeno, al gotico, non me li ricordo tutti, ma erano otto alfabeti diversi, con lingue che scrivono da sinistra a destra e con lingue che scrivono da destra a sinistra. Questo andrebbe continuato. Secondo: andrebbe continuata un’analisi più metodica, laboriosissima, per rifare una filologia, ossia una morfologia, una sintassi, un lessico per uso di computer. Oggi la filologia è vino vecchio messo in otri nuovi, non funziona molto bene. Non dico che la vecchia filologia vada gettata via, ma va approfondita, precisata e accompagnata da informazioni quantitative probabilistiche. Per le applicazioni pratiche del linguaggio, quello che manca non è da parte del computer, non è che manchino rapidità di accesso o ampiezza di memoria o abilità di software, mancano informazioni di base, di natura filologica, su come microanalizzare, e quindi mitizzare, le operazioni umane che noi vorremmo delegare alla macchina. Per esempio, se Lei é davanti a me e mi chiede quanti verbi della lingua italiana io conosco, io non so dirlo. Poi Lei incalza e mi dice: “Padre, di tutti i verbi che Lei conosce, che non so quanti siano, per operare a un computer bisognerebbe dargliene, mi dica, quali sono sempre e solo transitivi, quali sono sempre e solo intransitivi e quali qualche volta sono transitivi e qualche volta sono intransitivi? Poi, di questi ultimi mi dica quali sono le caratteristiche contestuali di quando sono transitivi, di quando sono intransitivi?” Se io fornisco a un programmatore queste informazioni, è possibile ottenere un programma di elaborazione dei testi più spinto di quello che abbiamo oggi. Però noi non ne sappiamo ancora molto. Cinquant’anni fa, un tecnico dell’IBM nello stato di New York, dove era allora il laboratorio dell’IBM ai tempi delle macchine a schede, aveva già parlato di “automatic indexing” e “automatic restricting”. E’ un sogno fa innamorare. Il sogno di aver ben compiuto un bellissimo programma, fatto da persone abilissime, in cui ci metto tutte le corrispondenze che arrivano e che partono, e il programma assegna a ogni documento le parole chiave con cui archiviarlo e recuperarlo. Questo è ancora un sogno. Chissà perché? Perché noi non sappiamo ancora quali sono i processi logici nostri di quando noi riassumiamo.

Come vede il rapporto tra uomo e computer, soprattutto nelle prospettive, un rapporto non sempre facile, che può presentare problemi?

Quarant’anni fa era visto molto male. Quando è scoppiata la cibernetica, era diventato di moda piangere sui disastri che la cruda tecnologia avrebbe portato nel campo della gentile Matelda, che “s’en va cantando, scegliendo fior da fiore”, che era il campo dell’Umanesimo. Io già allora queste le consideravo stupidaggini. E’ durato due, tre decadi, i due mondi sono rimasti come isolati. Oggi saranno forse otto anni, in cui il mondo della tecnologia, richiama ed esige interventi della filologia, della psicologia umana. Io lo vedo un campo molto promettente, lo vedo ribollente e tenendo però fermi alcuni punti. Il rapporto uomo-macchina, uomo-computer, è il rapporto autore-opera. Allora si parlava anche del fare la macchina pensante, è vero. Parlare di macchina pensante ha lo stesso senso come parlare di una orchestra compositrice. Un’orchestra che sta suonando l’Aida dovrebbe mettere in essere un Giuseppe Verdi con la sua fantasia creatrice musicale. Mi sembra senza senso, come se uno dicesse che il papà è figlio del proprio figlio. Il rapporto autore-opera è un rapporto a senso unico, irreversibile. Tenendo questo, il computer è il figlio della mente dell’uomo, è una specie di prolungamento strumentale del suo corpo. Il computer lo potrei definire mani off-line di un uomo, come tutta la sua apparecchiatura corporea, fino alle mani, dai sensi alle mani, la potrei definire un computer on-line con la mente dell’uomo. Io sono uno degli innamorati dell’intelligenza artificiale, anche se non mi piace la parola intelligenza artificiale. Mi sembrerebbe più appropriato dire “espressione artificiale”, più che intelligenza artificiale. Avendo ora messo le mani sui microelementi fisici del microcosmo, che sono gli elementi di base della natura, le frequenze e i bit, più in giù di quello non si può andare. Le possibilità di delega, di invenzione, di creatività sono sfruttate solo ai loro inizi. C’è la spinta economica al guadagno, a produrre, mettere sul mercato prodotti nuovi. E poi c’è la speranza di quei colpi di fantasia creatrice, che capitano, secondo le leggi del caso, a qualche persona, secondo riti e miti, che sono ignoti a noi. Una delle sfide che mi piacerebbe realizzare sarebbe quella del “riassunto automatico”. Non ci siamo ancora. Immagini: io ho una lettera urgente da mandare, sono trecento parole? Caso vuole che il mio fax sia guasto, il fax di arrivo pure risulta guasto. Devo mandarla per telegramma. Allora faccio un lavoro di condensare il messaggio in un numero minimo di parole, che però racchiudano tutte le informazioni. Si fa facilmente. Poter fare questo a macchina, al programma, sarebbe una meraviglia. Perché non riusciamo a farlo? Perché noi non abbiamo ancora fatto la microanalisi di quei processi interiori, quando io mi metto lì, prendo queste trecento parole e le riassumo in trenta parole. Dobbiamo, per dir così, “liofilizzare”, ridurre alla molecola minimale tutti questi processi mentali, questo andirivieni tumultuoso, velocissimo, che facciamo noi quando riassumiamo. Quando noi lo avessimo descritto questo lavoro analitico, dopo mitizzarlo, farne un programma sarà un gioco; non c’è niente che manca da parte dell’informatica, manca da parte di noi filologi, che non conosciamo ancora scientificamente tante delle nostre capacità e forze operative.