Program 2017

Lunedì 12 Giugno – Introduzione

09.00 – 10.30
Introduzione alla Scuola

Enrica Salvatori (Università’ di Pisa)

In questa introduzione verranno presentati gli scopi e le finalità della Scuola, soffermandoci su come le tecnologie digitali abbiano cambiato e stiano tuttora cambiando il modo di lavorare degli umanisti, non solo permettendo di fare studi e ricerche in modo più veloce e accurato, ma anche aprendo nuovi orizzonti di ricerca, prima neppure pensabili in assenza di strumenti digitali.
Verrà anche presentato e discusso un (breve) questionario per capire le motivazioni dei partecipanti alla Scuola, in quali progetti sono coinvolti, e cosa si aspettano “di portare a casa” dalla Scuola.

10.30 – 11.00 Caffè
11.00 – 12.30
Calcolatori, Internet e il Web – Panoramica delle nozioni di base

Vittore Casarosa (ISTI-CNR e Università di Pisa)

Poiché’ la Summer School tratterà di “strumenti digitali”, a beneficio di tutti coloro che sono stati esposti all’Informatica tanto tempo fa, oppure ne sono stati soltanto sfiorati, in questo intervento vedremo brevemente i concetti alla base del funzionamento di un calcolatore (incluso brevi cenni alla sua storia) e come vengono rappresentate le informazioni al suo interno (testi, immagini, musica, video).
Vedremo poi (sempre brevemente) come l’evoluzione della tecnologia dei calcolatori e delle reti di comunicazione abbia portato, agli inizi degli anni ’90, al rapido sviluppo di una rete mondiale di calcolatori (Internet) a alla crescita esplosiva delle informazioni accessibili tramite Internet (il Web). Vedremo infine l’evoluzione del Web da mezzo di pubblicazione (Web 1.0) a mezzo di socializzazione (Web 2.0) a mezzo di interazione tra dispositivi (Web 3.0, meglio conosciuta come Internet of Things).

12.30 – 14.00 Pranzo
14.00 – 15.30
Introduzione al web semantico

Carlo Meghini (ISTI-CNR) e Angelica Lo Duca (IIT-CNR)

Questo intervento presenterà una breve introduzione al Semantic Web, e come questo sia rilevante per le Digital Humanities, soffermandosi in particolare sulla produzione e utilizzo di Linked Data. Verrà presentata la visione iniziale dell’inventore del Web (Sir Tim Berners Lee) e verranno presentate e discusse le tecnologie di base necessarie alla realizzazione di questa visione: URI, XML, RDF.
Queste tecnologie sono alla base della definizione di ontologie, e verranno brevemente esaminate alcune ontologie di interesse per le Digital Humanities. Infine, verranno presentate le nozione alla base del Linked Data e verranno presentati alcuni degli strumenti più utili per la loro produzione e utilizzo.
Questi concetti verranno esemplificati tramite due progetti attualmente in corso, il “Dante Source project”, incentrato sulle fonti primarie dei lavori di Dante, ed un progetto per la creazione e visualizzazione di “storie” basate su elementi del patrimonio culturale.

15.30 – 16.00 Caffè
16.00 – 17.30
Valutazione della complessità linguistica a sostegno dell’attività didattica

Giulia Venturi (ILC-CNR)

Partendo dall’analisi linguistica di testi prodotti da apprendenti l’italiano, in questo intervento si mostrerà come metodi e strumenti di annotazione linguistica automatica permettano di ricostruire il profilo linguistico di chi scrive, e come tale profilo muti nel tempo permettendo di monitorare l’evoluzione del processo di apprendimento. Verranno inoltre introdotti strumenti di analisi automatica della leggibilità di un testo e verrà illustrato come essi possano essere impiegati per valutare il livello di complessità delle strutture linguistiche presenti in materiali didattici, sia rispetto al livello di competenza iniziale degli apprendenti sia come tale livello evolva nel tempo.
Sarà infine mostrato come metodi di estrazione e organizzazione automatica della conoscenza possono essere impiegati per identificare in maniera automatica i contenuti rilevanti di corpora di materiali didattici aiutando a costruire mappe concettuali di dominio e per l’analisi delle produzioni scritte per valutare le conoscenze degli studenti.

Martedì 13 Giugno – Filologia digitale (analizzare)

09.00 – 10.30
Metodi e strumenti della Filologia Digitale

Roberto Rosselli Del Turco (Università di Torino e Università di Pisa)

Nel corso degli ultimi anni sono state pubblicate molte edizioni digitali, a conferma dell’importanza di questi recenti sviluppi nell’ambito della critica testuale. Molte di tali edizioni, tuttavia, sono il risultato di un lavoro di programmazione e configurazione di framework complessi, alla portata di gruppi di ricerca medio-grandi, con adeguata disponibilità di fondi. La codifica nel formato TEI XML permette anche al singolo studioso di preparare un’edizione digitale, ma la pubblicazione online e la navigazione di un sito del genere restano ancora un’operazione complicata e potenzialmente dispendiosa.
In questo intervento verra’ presentato (ed usato) EVT – Edition Visualization Technology (http://evt.labcd.unipi.it/). EVT è uno strumento open source, liberamente utilizzabile, che ha come obiettivo permettere allo studioso una pubblicazione di edizioni basate su codifica TEI in maniera facile e mettendo a disposizione dell’utente finale strumenti di navigazione e ricerca. Nato per la pubblicazione del Vercelli Book Digitale, EVT si è evoluto in uno strumento flessibile, adatto a testi di epoche e tradizioni diverse. Al momento attuale è disponibile in due versioni: EVT 1 per le edizioni diplomatiche con immagini digitalizzate del manoscritto, EVT 2 per edizioni critiche con gestione automatica dei testimoni.

10.30 – 11.00 Caffè
11.00 – 12.30
L’edizione elettronica di epistolari

Elena Spadini (DiXiT – Huygens ING e Università di Roma La Sapienza)

L’edizione elettronica risulta particolarmente adatta per i documenti che fanno parte di una corrispondenza, poiché essi danno vita ad una rete di testi, persone, luoghi, temi, riferimenti.
Durante il corso, sarà presentata una selezione di edizioni digitali di lettere ed epistolari, attraverso cui discutere alcuni aspetti fondamentali dell’edizione elettronica in genere. Si passeranno quindi in rassegna gli standard per la codifica di questo tipo di testi, concentrandosi sulla relativa sezione delle Guidelines TEI, introdotta solo recentemente (2015). Saranno presentate infine le collezioni e infrastrutture per le edizioni digitali di corrispondenze. Il corso alternerà momenti di lezione frontale a esercizi pratici per i partecipanti.

12.30 – 14.00 Pranzo
14.00 – 15.30
Leggere o Non leggere: è questo il problema?

Giorgio Guzzetta (University College Cork)

Come smontare e rimontare i testi con l’aiuto del computer.
Ormai si legge soprattutto su schermi, di vario tipo e di vario formato, e questo sta cambiando il modo in cui leggiamo, le nostre abitudini e come ricaviamo del senso dalle infinite possibili combinazioni delle lettere dell’alfabeto. In questo intervento verranno presentate diverse modalità di lettura “assistita” che il computer offre, partendo però dal presupposto che, più che i singoli strumenti, quello che conta è l’ambiente digitale in cui la lettura avviene. E’ proprio questo infatti che influisce profondamente sul processo interpretativo che sta alla base di qualsiasi lettura di testi.
Si parla molto di distant reading e di close reading (un’opposizione che nasce prima dell’arrivo dei computer, perlomeno dei computer come li conosciamo oggi), ma la vera novità nel processo di lettura consiste nello scalable reading, nella possibilità cioè di combinare insieme vari livelli di profondità nella lettura del testo, e anche la possibilità di entrare ed uscire, di leggere il testo o il contesto, alternativamente. A questo scopo verrà presentato Voyant, un ambiente di analisi testuale che unisce insieme vari strumenti. Voyant permette proprio questo tipo di lettura scalabile, mettendo al centro la dimensione interpretativa ed ermeneutica.

15.30 – 16.00 Caffè
16.00 – 17.30
Correzione collaborativa di risorse digitali acquisite tramite OCR

Federico Boschetti (ILC-CNR)

L’acquisizione del testo digitale costituisce uno dei principali colli di bottiglia per lo sviluppo delle Digital Humanities, in quanto tutti i successivi livelli di analisi linguistica, annotazione, visualizzazione e ricerca testuale richiedono come punto di partenza la digitalizzazione del testo delle fonti primarie o del testo di edizioni critiche a stampa. Questo intervento, limitato all’acquisizione del testo a stampa, mira ad illustrare il processo di digitalizzazione tramite Optical Character Recognition (OCR) nelle sue diverse fasi.
La prima parte presenterà il trattamento delle immagini digitali delle pagine di testo; la seconda parte passerà in rassegna alcuni software di OCR non commerciali (in particolare Tesseract e OCRopus), mostrandone il funzionamento; la terza parte illustrerà l’uso di piattaforme online per la correzione collaborativa dell’OCR.

Mercoledì 14 Giugno – Storia digitale (scoprire)

09.00 – 10.30
Natural Language Processing per la Storia

Rachele Sprugnoli (FBK – Fondazione Bruno Kessler)

Negli ultimi anni i processi di ricerca, organizzazione, analisi e divulgazione dei documenti storici sono stati fortemente influenzati dalla sempre maggiore proliferazione di fonti storiche digitalizzate. In particolare, mentre negli anni ‘90 gli sforzi maggiori erano stati dedicati alla produzione di immagini digitali mediante la scansione di manoscritti e libri, più recentemente si è avuta una crescita esponenziale di archivi digitali contenenti testi ricercabili e in formato machine-readable. Tale crescita da un lato ha facilitato l’accesso a documenti prima difficilmente reperibili ma dall’altro ha esposto gli storici ad un sovraccarico di informazioni in formato digitale. In questo contesto, metodi e strumenti di Natural Language Processing (NLP) possono aiutare l’analisi dei testi storici a livello lessicale, grammaticale, sintattico e semantico nonché la loro esplorazione.
In questa lezione, dopo una introduzione alle tematiche di NLP, e alle principali fasi di analisi automatica dei testi verranno mostrati degli esempi di applicazione dell’NLP alle fonti storiche e verra’ mostrato (con la partecipazione attiva degli studenti) l’uso di alcuni strumenti di NLP liberamente disponibili nel Web.

10.30 – 11.00 Caffè
11.00 – 12.30
Storia pubblica digitale

Enrica Salvatori (Università’ di Pisa)

La rivoluzione digitale ha avuto un profondo impatto sul modo in cui oggi la storia viene studiata, analizzata, condivisa, insegnata oltre che sul modo in cui le fonti che documentano i fenomeni del passato vengono pubblicate, conservate e addirittura prodotte. Si può quindi certamente parlare di un digital turn per la professione di storico.
Inoltre, a fianco della metodologia di ricerca tradizionale trasformata dall’impatto del digitale e talvolta a integrazione di quest’ultima, nuovi scenari pubblici si sono venuti a creare, in cui semplici cittadini partecipano del modo in cui la storia è scritta, raccontata, vissuta e condivisa ponendo delle sfide rivolte alla storia accademica. Un mondo digitale nel quale tutti siano diventati “storici” ha delle conseguenze radicali sul vecchio mestiere di Clio e obbliga i suoi cultori ad interrogarsi sul loro ruolo nella società in rete.

12.30 – 18.00 Pranzo
Nel pomeriggio visita alla Certosa di Calci e visita al Museo di Storia Naturale

Giovedì 15 Giugno – Pubblicare e conservare a lungo termine (conservare)

09.00 – 10.30
Mappe e dintorni: esploriamo la cartografia digitale

Augusto Ciuffoletti (Universita’ di Pisa)

La collocazione geografica delle vicende umane è rilevante dal punto di vista documentario, didattico e di indagine scientifica. Gli strumenti ed i servizi che semplificano l’operazione di collocare geograficamente eventi del passato, manufatti, itinerari reali o immaginari sono largamente disponibili.
In questo intervento esploreremo le possibili applicazioni e le potenzialità di vari strumenti per la cartografia digitale, verificando cosa possiamo fare con gli strumenti di uso quotidiano.

10.30 – 11.00 Caffè
11.00 – 12.30
Dal giornalista digitale al content manager

Nicoletta Salvatori (Universita’ di Pisa)

Promuovere, sedurre e vendere con i contenuti: la rivoluzione del marketing passa dallo storytelling.
Da sempre i brand hanno creato o cercato di creare contenuti di qualità in modo da crearsi una propria audience, attirare clienti, farsi conoscere e apprezzare. L’universo digitale e in particolare la mobile trasformation ha portato il content marketing a nuovi livelli di sofisticazione e di sviluppo. Produrre e gestire contenuti è diventato un imperativo per le aziende i brand, le istituzioni, la politica. Però questi contenuti devono essere “buoni contenuti”, capaci di narrare storie vere e significative, essere congruenti con il media scelto per veicolarli, modificarsi in base ai diversi canali usati per trasmetterli, lanciati nel momento giusto e al pubblico giusto.
Per anni gli umanisti sono stati considerati estranei al mondo della comunicazione d’impresa dove la forma vinceva quasi sempre sul contenuto. Oggi le cose stanno cambiando radicalmente. Essere in grado di produrre contenuti di qualità e avere familiarità con l’universo digitale sono due requisiti sempre più richiesti in un mercato in cui le storie dei prodotti stanno diventando più importanti dei prodotti stessi.
E’ previsto che alla fine vengano svolte due esercitazioni pratiche:
– preparazione di una strategia digitale per una azienda editoriale che lancia una collana di libri;
– preparazione di una strategia per un museo locale che vuole promuovere la sua visibilità.

12.30 – 14.00 Pranzo
14.00 – 15.30
Requisiti informativi e professionali per la gestione e conservazione a lungo termine di risorse digitali

Pierluigi Feliciati (Universita’ di Macerata)

La conservazione a lungo termine di risorse digitali, intesa come garanzia di accesso prolungata nel tempo, al di là delle differenze in merito alle loro caratteristiche specifiche e agli obiettivi dei contesti di produzione, può basarsi unicamente su attività di cura specializzata lungo tutto il loro ciclo di vita. Questo ciclo inizia dalla concezione delle risorse, prosegue con la loro produzione, la gestione, scambio, gestione delle regole di accesso ed infine all’impianto di un sistema di conservazione a lungo termine.
La lezione presenterà sinteticamente i contesti, i problemi e i requisiti professionali richiesti per il curatore di depositi digitali di conservazione, con uno sguardo internazionale e richiedendo infine ai partecipanti la compilazione di un questionario di auto-valutazione sui temi trattati.

15.30 – 16.00 Caffè
16.00 – 17.30
Digitalizzazione di artefatti documentali: preparazione del processo e post-processing degli oggetti digitali

Nicola Barbuti (Università di Bari)

Nei processi di digitalizzazione di artefatti culturali, le operazioni di acquisizione ottica, post elaborazione degli oggetti digitali e conversione nei formati di pubblicazione sul web sono senza dubbio i nodi di maggiore importanza per garantire la piena e perfetta esecuzione dei successivi passaggi finalizzati alla pubblicazione sul Web 2.0. Questo intervento presenterà metodologie e tecnologie dell’acquisizione ottico digitale, post elaborazione e conversione di oggetti digitali riproducenti artefatti documentali (libri, documenti d’archivio, mappe, etc.), descrivendo per ciascuna fase le diverse attività necessarie alla migliore esecuzione.
La prima parte presenterà l’acquisizione ottico digitale descrivendone le attività di analisi degli artefatti analogici, setting delle attrezzature hardware e software idonee alla corretta esecuzione, quality control degli oggetti digitali in produzione; la seconda parte illustrerà i diversi livelli di post elaborazione delle immagini tra correzione delle rumorosità e miglioramento qualitativo; la terza parte si soffermerà sulle tecniche di conversione nei formati di pubblicazione e sulle procedure di predisposizione degli oggetti digitali per l’indicizzazione con i metadati amministrativi, gestionali e descrittivi.

Venerdì 16 Giugno – Web semantico e ontologie (condividere)

09.00 – 10.30
Annotazioni collaborative di testi storici

Angelo Del Grosso (ILC-CNR) e Matteo Abrate (IIT-CNR)

Con l’avvento delle tecnologie e degli strumenti digitali, l’annotazione di testi (storici) è divenuta ancora più importante ed essenziale nel lavoro di strutturazione, di analisi e di comprensione dei fenomeni testuali. Inoltre, considerando gli aspetti più filologici, la realizzazione di una edizione digitale semanticamente connotata determina il bisogno di arricchire il testo con informazioni di varia granularità, di varia natura e di vario tipo.
Questo intervento presenterà un approccio all’annotazione che tragga vantaggio dal Web semantico e dalle sue tecnologie. Le risorse testuali verranno caratterizzate da una forte interconnessione con risorse esterne favorendo di fatto la costruzione e l’interrogazione di un’unica banca dati globale, condivisa e formalmente descritta. In concreto, verrà presentato come scrivere annotazioni in RDF, utilizzando strumenti di annotazione disponibili sul web: a) il Text Encoder and Annotator (TEA); b) Annotarium. Il primo orientato alla trascrizione e all’annotazione delle risorse testuali, il secondo orientato alla gestione e alla interrogazione full-text e concettuale delle risorse annotate.

10.30 – 11.00 Caffè
11.00 – 12.30
Ontologie nel campo delle Digital Humanities

Maurizio Lana (Universita’ del Piemonte Orientale) e Timothy Tambassi (University College Cork)

Le ontologie informatiche hanno recentemente ricevuto nuovo impulso e attenzione a seguito della nascita e dello sviluppo del cosiddetto Web semantico. Questo rappresenta un’estensione del Web “classico” verso un sistema che, accanto alle risorse informative, concepite e realizzate per la fruizione da parte di utenti umani, offre anche dati e risorse il cui significato è (almeno in parte) “comprensibile” anche da parte di agenti artificiali (per esempio, applicazioni software).
Le ontologie sono uno degli elementi abilitanti di un tale sistema e il consorzio W3C, riconoscendone il ruolo centrale, ha progettato e definito OWL: un linguaggio logico appositamente creato per la rappresentazione di ontologie su Web. Le ontologie in informatica stanno così progressivamente trovando applicazione in molti contesti nei quali possano favorire la condivisione di dati e informazioni, l’interoperabilità (soprattutto fra sistemi software), l’integrazione di dati, l’aggregazione di contenuti, e la comunicazione e la mutua comprensione fra esseri umani, fra sistemi software e anche fra esseri umani e sistemi software.
Obiettivo del nostro intervento sarà definire cosa si intenda con ontologia in ambito informatico, specificandone gli obiettivi e i principali problemi a cui deve dare risposta. Una particolare attenzione sarà alle Digital Humanities, che costituiscono un’area di ricerca all’interno delle quali l’utilizzo di tali ontologie sembra offrire uno strumento efficace per la sistematizzazione e la catalogazione delle informazioni contenute nei singoli progetti.

12.30 – 14.00 Pranzo sociale
14.00 – 15.30
Conclusioni e fine della Scuola
21.00 – 24.00 Luminaria di San Ranieri e fuochi artificiali (facoltativo 😛 )

Per chi non è Pisano, vale la pena di ricordare che il 17 Giugno è la festa del Santo Patrono di Pisa (San Ranieri) e la sera precedente (Venerdì 16 Giugno) ha luogo la tradizionale Luminaria di San Ranieri, con circa 100 mila lumini ad olio accesi sui Lungarni e fuochi artificiali a conclusione della serata. Se possibile, conviene organizzarsi per restare a Pisa anche il Venerdì sera.