Questo post non è un addio

26 novembre 2016

The Geek Librarian” è stato per alcuni anni il post(o) in cui ho pubblicato informazioni, news e riflessioni sul mondo delle digital library.
Dal 2011 non mi occupo più di questo affascinante ambito. La mia vita lavorativa è virata direttamente verso i Sistemi Informativi, l’Area dell’Università di Milano-Bicocca per cui attualmente lavoro: questo passaggio, che ritengo fondamentale al pari di quello che nel 2005 mi ha portato a lavorare nella nostra splendida Biblioteca, è stato reso possibile grazie a Luisella Sironi, mio Maestro e mentore.
Adesso mi occupo di siti web e piattaforme per la ricerca.
Il blog e il suoi post sono dove li avevate lasciati… Se andate in cerca di qualche informazione, la troverete sempre a partire dall’Archivio, dal motore di ricerca o dalle categorie e dai tag. Il processo di check sui contenuti non più attivi o aggiornati è ancora in corso: chiedo venia se vi capita di trovare link rotti o pagine 404…
Questo sito per il momento è dedicato ai miei esperimenti nel mondo del Web, perciò potrebbe capitarvi di veder strani oggetti transitarvi dentro… Non vi spaventate ;-) Magari un giorno tornerò a bloggare. Intanto ringrazio tutti i meravigliosi lettori e commentatori e, in generale tutti coloro che mi hanno arricchito con i loro suggerimenti e le loro critiche (come non ricordare Fabio Metitieri…).
Grazie a tutti un arrivederci a presto – qui o altrove. In qualche altro spazio o tempo della Rete…

La doppia identità di BOA: anagrafe della produzione scientifica e repository istituzionale

7 novembre 2010

Il video dell’intervento che ho tenuto per presentare il Bicocca Open Archive al seminario organizzato presso l’Università di Milano-Bicocca il 19 ottobre scorso, dal titolo Pubblicare ad accesso aperto i vantaggi per la ricerca, l’esperienza dei ricercatori. L’incontro, organizzato per la prima volta in Bicocca, in occasione della Settimana Internazionale dell’Open Access, ha visto tra i relatori: giuristi, ricercatori, esperti di beni culturali, evangelisti dell’Open Access. Potete leggere le slide sul sito della Biblioteca, e sul canale Bicocca di YouTube, guardare i video di tutti gli interventi attraverso i link posti sulla destra (“Suggerimenti”),

Nasce JLIS.it, rivista italiana di LIS peer reviewed e Open Access

27 giugno 2010

E’ online il primo, attesissimo numero della nuova rivista di biblioteconomia e information science, JLis.it: e-journal italiano peer reviewed e completamente open access. Il first issue si compone di diversi, interessanti articoli (immeritatamente ce n’è anche uno mio: I mashup e le biblioteche: le tecnologie dietro le quinte, ovvero la versione italiana del capitolo sulle tecnologie alla base dei mashup pubblicato nel volume Library Mashups).

JLis.it è il risultato del lavoro, della creatività e del grande impegno sull’Open Access in primis di Mauro Guerrini, presidente AIB, e dei suoi valenti collaboratori, nonché del CILEA, che ha realizzato l’infrastruttura tecnologica, usando peraltro la piattaforma per e-journal OJS, prodotto open source per la gestione delle riviste elettroniche sempre più diffuso a livello internazionale e soprattutto per le riviste OA.

JLis.it , pubblicato dall’Università di Firenze, Dipartimento di studi sul Medioevo e Rinascimento, pur appena nato, ha già ricevuto un importante riconoscimento: il “marchio” di SPARC Europe. Come evidenzia una news sul sito:

Novità: JLis.it ottiene il sigillo di SPARC Europe per l’accesso aperto

Il “sigillo” segna il rispetto di alcune condizioni importanti per l’editoria ad accesso aperto:
  1. la scelta di una licenza CC-BY,
  2. la fornitura al repertorio DOAJ dei metadati degli articoli pubblicati
Per la redazione è un primo segnale positivo a conferma della validità della strada intrapresa.

Sulla pagina delle Info, tutte le informazioni sulla policy Open Access, sul processo editoriale e sul profilo scientifico della rivista. Reputo la nascita di JLis.it un grande successo, non solo come è evidente per i bibliotecari e i ricercatori (e l’Università di Firenze) che hanno deciso di impegnarsi in una attività onerosa come quella di pubblicare una rivista (voglio sottolineare che il fatto che sia referata conferisce agli articoli un elevato spessore scientifico e ai loro autori un’alta credibilità), ma anche per la coraggiosa e condivisibile scelta di pubblicare ad accesso aperto, favorendo così la visibilità e l’impatto dei contenuti e degli autori, e marcando un significativo passo in avanti nel campo dell’editoria scientifica e accademica italiana. Insomma… davvero nel nostro panorama (e non solo) JLis.it si configura come una sfida intellettuale e politico-culturale al contempo!

Il web 2.0 e le biblioteche, un incontro possibile?

30 dicembre 2009

Il 15 gennaio 2010 si terrà presso la Biblioteca Universitaria di Torino, una tavola rotonda organizzata dall’A.I.B. Piemonte su biblioteche e web 2.0:

Si discute molto di web 2.0, social network, blog, piattaforme web interattive, di una rete che promuove la partecipazione attiva degli utenti alla costruzione e diffusione delle informazioni. Si tratta davvero di una nuova evoluzione del web? Quali sono le opportunità che la rete offre ai propri utenti e come usarle in biblioteca? Come vedono le biblioteche questi nuovi strumenti? Un’occasione o una nuova minaccia per il ruolo del bilbiotecario/mediatore?

Partecipano: Bonaria Biancu (Università Milano Bicocca), Andrea Marchitelli (Cilea), Rossana Morriello (Università degi studi di Udine), Eleonora Pantò (CSP Piemonte), Gino Roncaglia (Università degli studi della Tuscia). Modera: Eugenio Pintore (Settore Biblioteche e Archivi della Regione Piemonte)

***************************

Aggiornamento [17/01/2010]: ecco le slide del mio intervento:

Library Mashups 3 – Library Catalog Mashup: Using Blacklight to expose collections

22 dicembre 2009

Library Catalog Mashup: Using Blacklight to Expose Collections, il capitolo di Library Mashups dedicato alla soluzione OPAC dell’UVA (University of Virginia Libraries) si apre con una avvertenza preliminare sul concetto di mashup che da questi colleghi viene inteso in senso creativo – e non come semplice giustapposizione di informazioni già esistenti; insomma come nuovo amalgama, remix e riprogrammazione di contenuti, moduli e in sostanza flussi di informazioni ma in maniera inedita, modulare e user-centered.

Altra puntualizzazione degli autori, riguarda la motivazione alla base della creazione di Blacklight, il prodotto-mashup che viene presentato nel capitolo: tutto nasce da un senso di frustrazione che accomunava i bibliotecari e gli utenti di UVA nella fruizione delle classiche interfacce dei cataloghi online (OPAC) che non avevano nulla di moderno, che spesso erano essenziali ma in senso negativo, e comunque lontane mille miglia dai servizi 2.0 cui pian piano siamo andati abituandoci (Flickr, NetFlix etc.).

Bess Sadler, Joseph Gilbert e Matt Mitchella mettono giustamente in luce perché le interfacce di ricerca evolvono così lentamente: esse sono sempre state storicamente agganciate agli ILS, ovvero ai sistemi di automazione bibliotecaria (software con cui si gestiscono catalogazione, prestiti etc.), che di per sé sono sistemi molto complessi, che cambiano con molta difficoltà (e vanno fatti evolvere anche con molta cautela). Il segreto sta dunque nello scorporo delle funzionalità e quindi degli applicativi: che gli ILS continuino con le loro pesanti ma solide articolazioni a sostenere il peso delle biblioteche, e che gli OPAC possano diventare leggeri, agili, integrabili e adattarsi ai desiderata degli utenti.

Blacklight nasce quindi come progetto per la realizzazione di un’interfaccia di search, discovery e delivery diversa: più modulare, più ricca e più facile da sviluppare/implementare/cambiare; è open source e il suo indice si basa sul motore di ricerca Lucene e sul wrapper Apache Solr, che consente un approccio più easy alla gestione del motore (l’invio e la richiesta di contenuti verso il motore di ricerca vengono effettuati in modalità web service-like attraverso chiamate di XML via HTTP). L’utilizzo di Lucene e Solr non è un dettaglio, perché ha consentito al modulo Blacklight ampia libertà nella costruzione non solo di interfacce diversificate di accesso ai dati, ma di indici ed esposizione dei dati stessi personalizzabili e adattati ai vari contesti (es.: una biblioteca di Medicina può mostrare ai suoi utenti solo certi contenuti e magari mostrarli attraverso indici, percorsi o metadati particolari).

D’altronde tra i primi obiettivi di University of Virginia Libraries vi era la creazione di un OPAC unico per tutti i contenuti della biblioteca, e non solo per i classici libri o riviste. Ecco dunque che Blacklight diviene l’interfaccia di ricerca anche per gli oggetti digitali dei repository delle biblioteche della Virginia, portando alla luce un tesoro di immagini, file audio, pubblicazioni accademiche e in genere contenuti che fino a quel momento erano sempre rimasti nascosti agli occhi degli utenti. D’altronde, per ogni tipologia di materiale e/o per ogni collezione, sono possibili punti di accesso diversificati, in modo che la ricerca non debba appiattirsi su un denominatore comune povero o uniformante (ogni tipo di oggetto possiede anche proprie modalità di presentazione: per es. le immagini sono rappresentate attraverso thumbnail mentre i libri mostrano le copertine che vengono recuperate dai vari siti dedicati, e così via).

Blacklight è in grado di acquisire in sé anche contenuti non provenienti da biblioteche: un esempio portato nel capitolo riguarda la collezione di immagini di antiche monete greche e romane – immagini che è stato possibile aggiungere in poche ore all’indice del catalogo. Come? Attraverso una semplice richiesta di POST verso Solr del file XML contenente i dati, e in seguito con la creazione di un’interfaccia HTML di visualizzazione utilizzando il linguaggio Ruby (on Rails) [cfr. Solr: Indexing XML with Lucene and REST].

La finalità della costruzione di Blacklight non solo sono interne, o comunque OPAC-centered. Uno degli aspetti essenziali è che intorno a questo modulo e al suo core Solr, si sviluppano e dipartono diversi web services che consentono un utilizzo massivo e personalizzato delle informazioni contenute nell’indice. Un classico esempio sono le uscite in RSS, PHP o JSON con cui chiunque (intendiamo qualsiasi utente) può costruire a sua volta bookmark, URL permanenti di ricerche e pagine di risultati o ulteriori mashup combinando i contenuti del catalogo con altri contenuti ancora.

Altro servizio che esemplifica bene l’approccio di UVA, è l’incorporazione del server Z39.50 in un’API web, quindi traducendo la difficoltà del linguaggio di querying tipico dei cataloghi di biblioteca, in un set di istruzioni facilmente comprensibili e invocabili da praticamente qualsiasi applicazione web. In conclusione, Blacklight e il suo design web service-like, offrono alle biblioteche la possibilità di differenziare le modalità di presentazione delle informazioni contenute nei vari cataloghi, ma intendono anche marcare uno step importante verso l’utilizzo sempre maggiore di prodotti open source (in questo caso oltre tutto un’interfaccia che può risiedere benissimo on the top di un ILS proprietario) e infine verso l’apertura dei dati e il loro remix (Blacklight incrocia le informazioni provenienti dagli OPAC con quelle offerte gratuitamente da altri web services presenti in Rete).

Bess Sadler, Metadata Specialist for User Projects for the University of Virginia Library; Joseph Gilbert, Head of the Scholars’ Lab at the University of Virginia Library; and Matt Mitchell

Tenurometer: Google Scholar e citazioni a portata di browser

13 dicembre 2009

Tenurometer è un nuovo servizio proposto dall’Università dell’Indiana per il calcolo delle citazioni e dell’H-Index atttraverso Google Scholar. Risulta innovativo che sia offerto come toolbar per Firefox e che poggi su una organizzazione disciplinare collaborativa, che si esplica attraverso il tagging dei contenuti/autori ricercati. Dalla mia esperienza posso dimostrare che, al di là di database citazionali a pagamento come Scopus o Web of Science, Scholar è sempre molto consultato dai docenti e ricercatori, e se Tenurometer riesce a superare i limiti di Publish or Perish, potrà forse aspirare al successo nella comunità accademica. Di seguito qualche info in più dal sito (bold mines):

… Tenurometer is a browser extension that provides a smart interface for Google Scholar, it does not have the limitations of server based citation analysis tools that sit between the user and Google Scholar. At the same time Tenurometer is not an application, such as Publish or Perish, and therefore it is platform independent and runs on every system that supports the Firefox browser. Still, Tenurometer uses Google Scholar, which provides the most comprehensive source of citation data across the sciences and social sciences.

exposes advanced query syntax in a simple way to empower non-experts to submit complex queries such as boolean combinations (and/or/not) of author names and keywords.

provides many advanced features that make it easier and less error prone to compute impact measures based on citations. For example, the user can merge multiple versions of the same paper; exclude papers by different authors with the same name, or other noisy data; filter papers by many criteria such as years, disciplines, name variations, and coauthors; and perform live search over the results.

is a social (crowdsourcing) application that leverages the wisdom of the crowds. It requires users to tag their queries with one or more discipline names, choosing from predefined ISI subject categories or arbitrary tags

Da notare che, oltre all’interessante H-Index universale, che rende comparabili autori di discipline diverse, Tenurometer offre anche indicatori di impatto come il g-index.

Tenurometer is a browser extension that provides a smart interface for Google Scholar, it does not have the limitations of server based citation analysis tools that sit between the user and Google Scholar. At the same time Tenurometer is not an application, such as Publish or Perish, and therefore it is platform independent and runs on every system that supports the Firefox browser. Still, Tenurometer uses Google Scholar, which provides the most comprehensive source of citation data across the sciences and social sciences.
Back to top

Empowers non-experts to submit complex queries and maintains their history

Tenurometer exposes advanced query syntax in a simple way to empower non-experts to submit complex queries such as boolean combinations (and/or/not) of author names and keywords. For example you can search for articles by Jane Smith or JM Smith-White but not JF Smith at Cornell or Stanford. Tenurometer also maintains a history of recent queries to help you remember those complex queries.
Back to top

Allows filtering, sorting, deleting and live search to compute error free impact measures

Tenurometer provides many advanced features that make it easier and less error prone to compute impact measures based on citations. For example, the user can merge multiple versions of the same paper; exclude papers by different authors with the same name, or other noisy data; filter papers by many criteria such as years, disciplines, name variations, and coauthors; and perform live search over the results. The impact measures are dynamically recalculated based on the user’s manipulations.
Back to top

A social application with tagging functionality

Tenurometer is a social (crowdsourcing) application that leverages the wisdom of the crowds. It requires users to tag their queries with one or more discipline names, choosing from predefined ISI subject categories or arbitrary tags. This generates annotations that go into a database, which collects statistics about the various disciplines, such as average number of citations per paper, average number of papers per authors, etc. This data will be made publicly available.
Back to top