Per contenere il pericoloso entusiasmo degli umanisti e rendere ricostruibile il recupero dei testi, vennero teorizzate varie metodologie di lavoro.
Il metodo Lachmann e lo Stemma codicum
Angelo Poliziano, anche se ancora lontano da un metodo scientifico, capì che occorreva dare maggiore autorità alle copie più antiche, in media copiati meno volte quindi più simili all’originale; esplicitava ogni correzione effettuata, perché fosse possibile risalire al testo iniziale; infine affermava che su un’opera filologica pervenuta in un’unica copia non si dovesse fare alcuna correzione, neanche in presenza di un errore oggettivo –ad esempio grammaticale-.
Lachmann ricostruiva l’albero genealogico di un’opera, mettendo in relazione di figliolanza le copie in base agli errori al loro interno -se due manoscritti condividono un errore è probabile che derivino dallo stesso-. Costruito lo schema –Stemma codicum– sceglieva la migliore tra le versioni in base a regole ben delineate –ad esempio se una versione è presente nella maggior parte dei manoscritti ma derivano tutti da un antenato comune è meno probabile che sia giusta-. Questo procedimento è chiamato collazione.
Bedier, invece, sceglieva il testo meglio conservato e più antico, mantenendo un piccolo lavoro di collazione solo per gli errori più evidenti. In questo modo il testo proposto sarebbe un testo realmente esistito e letto, e non una composizione artificiale di diversi testi.
Oggi il lavoro continua perché in assenza di una copia approvata dall’autore, non esiste una versione considerabile definitiva. Ad esempio se tutte le copie presentano un errore che l’autore non può aver commesso –come un errore geografico di un’area che conosceva molto bene- l’insieme dei manoscritti fornisce un’immagine verosimile dell’originale, ma la presenza di un errore mette in dubbio ogni altra parola che, per quanto plausibile, può essere scorretta.
La tradizione antica della filologia
In contemporanea anche le opere con una tradizione molto antica e con molte traduzioni sono difficili da analizzare. Per l’Eneide –che conta più di 1000 codici- sono stati utilizzati i più antichi e un campione dei recenti in più edizioni tra l’Ottocento e gli anni 2000, ma i risultati hanno differenze poco rilevanti. Sarebbe poco fruttuosa un’analisi completa di tutti i manoscritti, tuttavia è possibile che tra quelli esclusi sia presente una versione più corretta di quelli già presi in analisi.
Ultimamente c’è stato un notevole progresso per leggere per mezzo della TAC i manoscritti di Ercolano, carbonizzati dal Vesuvio, che potrebbero nascondere opere dimenticate. È una speranza in una scienza che sembra destinata alla frustrazione. Ma anche un appassionato dialogo attraverso il tempo tra grandi autori, piccoli copisti e filologi.
FONTI
produzione intellettuale propria;
http://motherboard.vice.com;
La trasmissione dei testi latini. Casi specifici, Paolo Chiesa, a.a. 2014-2015;
CREDITS