Heldig Summit 2019

Heldig Digital Humanities Summit 2019 was on 7.11.2019. See here for program and slides: https://www.helsinki.fi/en/helsinki-centre-for-digital-humanities/heldig-digital-humanities-summit-2019 . The day was full of both research infrastructure people and researchers, so it was good place for both parties to learn about novelties in either side.

Iso kissa vasemmalla ja pikkukissoja rivissä

Tie vapauteen, 01.09.1922, nro 9, s. 9
https://digi.kansalliskirjasto.fi/aikakausi/binding/1360361/articles/3278605?page=9
Kansalliskirjaston digitaaliset aineistot

The keynotes expanded the thinking and told about current latest development. Dr Marieke von Erp presented research and work done with the Dutch newspapers. For example, some interesting work had been done in analysing food recipes of old newspapers and what do tell about the food culture. With this case sample also the quality of digitisation and text recognition errors were also mentioned as things that the researcher should be aware of .

There was also interesting work done with fiction books. A network analysis done for the characters of the book where the ‘-mark in a name can confuse the algorithm, and give even tilted results.

Time Machine – Now!

Tomi Ahoranta from National Archives of Finland presented the Time Machine project. He explained that also National Library and National Museum have joined in to Finnish Time Machine planning team. Now Time Machine concept is being fine-tuned further based on recent user survey and it is still going strong towards the next EU funding period.  The question is that is this our last chance to get digitisation levels up, as the development of the techniques and work itself will take its own time.

 

P.S. We are hiring,so check out the job application here: https://www.helsinki.fi/fi/avoimet-tyopaikat/suunnittelija

 

Nimiä, nimiä, nimiä

Digitalian Kansalliskirjaston osaprojektissa yhtenä tavoitteena on ollut tutkia kuinka nimiä voisi laajoista lehtiainestoista löytyä. Nimet olisivat tässä yhteydessä henkilönimiä, paikannimiä, ja yhteisönimiä. Nimet olisivat kiinnostavia koska suurin osa hauista kohdistuu nimiin ja niiden avulla voi löytää juttuja omista sukulaisista, aikansa merkkihenkilöistä tai vaikka tarinoita paikallishistoriaan. Tutkimuksen tuloksena digiin asti on saatu uusi kokeellinen työkalu ‘Nimiapuri’, jota voit kokeilla https://digi.kansalliskirjasto.fi/name-search -osoitteessa

Nimiapuri-toiminnon etusivun kuva

Nimiä varten kehitettiin tapa jolla ALTO XML tiedostosta voi paikallistaa nimet ja merkitä ne sinne yhdeksi lisätiedoksi tiettyjen sanojen tai sanayhdistelmien oheen. Tavasta voit lukea lisää tutkimusartikkelista:

Ruokolainen, Teemu Petteri ; Kettunen, Kimmo Tapio. / À la recherche du nom perdu – Searching for Named Entities with Stanford NER in a Finnish Historical Newspaper and Journal Collection. Julkaisun esittämispaikka: IAPR International Workshop on Document Analysis System, Wien, Itävalta.2 Sivumäärä  (Suora linkki)

 

Nimiapuri, Name Acolyte!

Nimihakua parantamaan olemme tehneet Digiin ‘Nimiapuri’ -aputyökalun, johon pääsee haun yhteydestä. Nimiapuri näyttää Uuteen Suomettareen tehtyjen nimienhaun tuloksia ja hausta on mahdollista valita nimimuodot, jotka omaan käyttöön ovat hyödyllisimpiä. Esimerkiksi etsimällä nimihausta Runebergin, voi hakujoukoksi muodostua esimerkkilauseen mukainen. Voikin tavallaan ajatella, että Uusi Suometar toimii oraakkelina kaikkeen aineistoon, sillä läheisyyshaku toimii kaikkiin aineistoihin vaikka niille nimientunnistusta ei ole vielä tehty. Nimiapuri voikin auttaa sekä muistamaan miten läheisyyshaku tehtiinkään, ja sitä myöten löytämään niitä viimeisimpiä harvinaisimpia osumia

 

Huom, huom!

Huomaathan että nimien poimintaa on tehty nyt yhdelle lehdelle, joten aineiston määrä on erittäin rajattu suhteessa kaikkeen aineistoon. Haku kuitenkin osuu kaikkiin lehtiin, joten se  voi kuitenkin tuoda esille uusia löytöjä. Nimien poiminnassa voi olla myös virheitä, joten edes samalta sivulta kaikki nimet eivät välttämättä löydy. Tarkkuus on noin 80%, joka voi kuitenkin vaihdella riippuen esimerkiksi sivun rakenteesta.

Lähetä siis palautetta ja kommentoi jos löydät erikoisia osumia…

Liberin digitaalisten ihmistieteiden kysely tutkimuskirjastoille

Aiemmin keväällä julkaistiin Liberin joka on kansainvälisten tutkimuskirjastojen yhteisö, järjestämän tutkimuksen tulokset, jossa käytiin läpi sitä kuinka digitaalisten ihmistieteiden (digital humanities, DH) tutkimusta eri kirjastoissa lähestytään. Kyselyyn vastasi 56 ihmistä, 54 instituutiosta jotka olivat jakautuneet 20:neen maahan.

Kiinnostavaa oli että digitaalisiin ihmistieteisiin liittyvä tekeminen rahoitettiin pääosin kirjaston omasta budjetista, ja noin 34-39% oli saanut hankkeisiin rahoitusta joko tutkimusrahoituksesta, Eurooppalaisesta rahoituksesta tai muista määrärahoista. Syynä lienee että kyseessä on uudenlainen “palvelutarve” joten kestää hetken ennen kuin rahoitusta osataan hakea ja toisaalta sitä myönnetään, joten ensikäynnistys tuntuisi vaativan omaa ponnistusta, mutta tukea kirjastoissa tunnuttiin tarvittavan rahoitukselle.

Key takeaways (p.29)

Digitointi ja fyysiset kokoelmat

Digitointi ja fyysiset kokoelmat nähtiin merkitykseltään yhteensitoutuneina. Fyysinen kokoelma luo pohjan jonka päälle digitointi voi rakentua. Digitointia pidetään jopa aivan kriittisenä tehtävänä. Kuten myös pitkäaikaissäilytystä, joka varmistaa tilanteen tuleville tutkijasukupolville.

Tämän myötä myös vaateet datan tuottamiselle kasvavat,  datan tarjoamiseen tulee uusia tehtäviä, jotka vaativat myös osaamista.

DH data creation activities

Jatkuvana toimintaa tai ad-hoc toiminnan määrän kasvattamisessa on vielä työtä, tosin voi tietysti olla että kaikissa tilanteissa jotakin ei voi tehdä ja tilanteet ehkä eri vuosina vaihtelevat. Yhtenä vuonna pääkeskittymiskohde voi olla yhdenlainen ja toisena toisenlainen, joka voi datan luomisessakin vaikuttaa.

Yhteistyö, yhteistyö, yhteistyö

Vaikuttavuutta ja metriikoita myös korostettiin. Vaikuttavuudella saa yhteistyökumppaneita, joiden kanssa voi sitten yhdessä oppia sekä menetelmistä, että jakaa myös kirjastoissa sisässä olevaa tietoa kokoelmista ja niiden ominaispiirteistä. Yhteistyön myötä toivottiin myös taitojen kasvattamista, joka taas auttaa paremmin asiakkaiden toiveiden ymmärtämisessä. Vaikka väkeä on vähän, voidaan silti ehkä löytää keinoja joilla voidaan joitakin asioita tehdä paremmin.

Decorative

Uusi Suometar, 01.04.1915, nro 88, s. 3 https://digi.kansalliskirjasto.fi/sanomalehti/binding/1197802?page=3 Kansalliskirjaston digitaaliset aineistot

Kiinnostavaa kehitystä on siis edessä. Liberin DH WG työryhmä olikin etsimässä uusia jäseniä pohtimaan raportista löydettyjä yhteisiä teemoja, ja niitä aletaan sitten järjestelmällisesti käsittelemään. Jos haluat lukea koko raportin se löytyy osoitteesta:  https://doi.org/10.5281/zenodo.3247285

 

DH 2019 – notes

Thanks to Mikkeli University Consortium help, the National Library of Finland was present at the DH 2019 conference in Utrecht.  The conference is organized by the The Alliance of Digital Humanities Organizations (ADHO), and organized annually, usually every other year in Europe or in Americas. Netherlands was a good choice of venue, since the National Library of Netherlands is doing excellent work with the library lab development as with the researcher-in-residence program, having then much of calls for visiting them, as we got to hear in the library labs session during one lunch break. At building library labs pre-conference workshop we had a paper, outlining current work we do with the researchers (morning coffees, data clinics etc) and briefly outlining the possible future directions for improving tools and services forwards.

DH in European research libraries

A poster of recent survey done about DH in European Research Libraries

About the conference

Conference was large and very popular, at the very last minute the participant amount grew to the bit over 1000 so the venue was packed. This despite there were four parallel tracks that nicely divided the participants to the different locations of the venue. The conference venue was a music hall, with halls and rooms for 30-1000 people in different wings within the hall. Usually it was just simplest to experience a session in full to secure a spot there where you wanted it.

Researchers, scholars, academics, go!

I tended to pick most of the long paper sessions, where there were academics from various universities and research institutes from all over the world. Also the fields of studies varied: data, quantitative and qualitative, machine learning used and also with many different languages and collections were targeted. Mostly digital, but also mentions of microfilm were there.

The multitude of tracks meant that there was a cornucopia of good sessions to choose from, and regardless it felt that you were missing out something after picking some session, but that is how it usually goes in these events.

One side discussion in Twitter occurred on the woes of the lack of digitisation. The situation in countries is naturally varies, some have got some millions of pages of their collections digitized and some are only starting their way.

Heard a few , as expected, mentions of the OCR quality, and at least one, quick remark of the post correction of OCR.  Newspapers, books, libraries, archives of many kinds were used (even if not all of them were named). One interesting one was the Impresso project, which talks about “newspapers as an Eldorado”, that with an addition to the NewsEye and READ (Transcribus) development could be that even more in the future.

Lots of libraries were developing platforms, where the machine learning capabilities are part of the solution given to the researchers, British Library had ‘Curatr’ where there was word embeddings that work in the background, and allow reseacher to make their own small subcorpora of their research question as the tools were integrated within the presentation system. There also one main feature was to be able to variate between distant reading and close reading – you could get back to the original page which could explain why certain thing was included to the search results. Then there was authorship verification work, work with dictionaries and DH, maps, image capturing of various material types, segmentation, fake news, multi-language woes (i.e. why quite much of research is done on English corpora?) . But also to the concrete, how to get the new generation to read, how the collections should be put available online  and combine different media? What kind of features would be needed from the newspaper collections, which initiated an ad-hoc meetup on Friday to collect the researcher needs and work on those onwards in the coming DH2020 conference and between.

Finland

Finnish universities were present quite well in the conference. Comhis group had several papers and posters that talked about utilizing the national bibliography, or newspaper collections. They tweeted the slides and abstracts for anyone to utilize:

and the interesting ways how you can utilize the digitisation process metadata in novel ways to show and tell the changes in newspaper landscape.

University of Turku had also Comhis and Oceanic Exchanges related papers presented.

 

Transcribus seminar 2019

The air was cloudy, but at the final days of the Transcribus project there was a seminar in National Archives of Finland (NAF) going through the outcomes of the project . After welcome words of Maria Kallio and Vili Haukkovaara we went onwards with presentations from the developers and users.

Panel participants of the seminar.

Günther Mülberg  from Uni of Innsbruck tells about READ-COOP , about what was the beginning. In the Consortia there were archives doing digitisation, but also universities, some who did manual transcribing and those who are expert in transcribtion and pattern matching.

Facts of Transkribus

  • EU Horizon 2020 Project
  • 8,2M eur funding
  • 1.1.2016- 30.6.2019
  • 14 partners coordinated by Uni of Innsbruck

Focus:

  • research: 60% – Pattern recognition, machine learning, computer vision,…
  • network building: 20% – scientific computations, workshops, support,…
  • service:  20% – set up of a service platform.

 

Service platform:

  • digitisation, transcription, recognition and searching hisorical docs
  • research infrastructure

User amount has doubled every year.

In 4-11.4.2019

  • images uploaded  by users 98166; new users 344; active users 890, created docs 866, exported docs 230, layout analysis jobs: 1745, htr jobs 943
  • Model training is one major thing

Training data

  • Jan 2019: 228 HTR models trained by Transkribus user
  • Pages: 204.359; words 21.200.035
  • Value: about 120 person years, monetary value ca 2-3 Million EUR

 

Co-op society SCE presentation

  • enable collab of independent institution
  • distributed ownership and sharing of data, resources and knowledge in the focus

Main features of an SCE

  • Mixture between an association and a company
  • Members acquire a minimum share of the SCE – 1000/250 Eur
  • Open for new members, members can leave anytime

Foundation of READ-COOP 1.7.2019 : founding members are listed on webpage alreay.

“Every institution or private person willing to collaborate with Transkribus is warmly invited to take part”.

E.g. NewsEye project was seen as one collaborative project towards Transkribus in the layout analysis part. Also with NAF there is a name entity recognition effort where things continue.

During presentations from the developers of the Transkribus platform and the users it became evident that the software has indeed matured. The character error rates were at 10% of at best can be less than 3%, so system has evolved considerably. One interesting topic might also be keyword spotting (KWS), where even with poor OCR the search is still able to find the particular word of interest from the data.

Interesting also was the ‘text-to-image’ where it might/should be possible to “align” a clear text and its corresponding page image – this could help as in some cases blogs or even wikipedia can have corrected text but it is separated from the original collection.

Also the segmentation tool (dhSegment) looked promising, as sometimes the problem is there, and the tool supports diverse documents from different time periods. There via masks done to the page, the neural network can be thought to find anfangs , illustrations or whatever part in the page is the target. The speaker also told that if the collections are homogeneous they might not need even that much training data.

As of today, the Transkribus changes to a co-operative (society), so it needs to be seen how the project outcomes evolve after the project itself has ended.