Liberin digitaalisten ihmistieteiden kysely tutkimuskirjastoille

Aiemmin keväällä julkaistiin Liberin joka on kansainvälisten tutkimuskirjastojen yhteisö, järjestämän tutkimuksen tulokset, jossa käytiin läpi sitä kuinka digitaalisten ihmistieteiden (digital humanities, DH) tutkimusta eri kirjastoissa lähestytään. Kyselyyn vastasi 56 ihmistä, 54 instituutiosta jotka olivat jakautuneet 20:neen maahan.

Kiinnostavaa oli että digitaalisiin ihmistieteisiin liittyvä tekeminen rahoitettiin pääosin kirjaston omasta budjetista, ja noin 34-39% oli saanut hankkeisiin rahoitusta joko tutkimusrahoituksesta, Eurooppalaisesta rahoituksesta tai muista määrärahoista. Syynä lienee että kyseessä on uudenlainen “palvelutarve” joten kestää hetken ennen kuin rahoitusta osataan hakea ja toisaalta sitä myönnetään, joten ensikäynnistys tuntuisi vaativan omaa ponnistusta, mutta tukea kirjastoissa tunnuttiin tarvittavan rahoitukselle.

Key takeaways (p.29)

Digitointi ja fyysiset kokoelmat

Digitointi ja fyysiset kokoelmat nähtiin merkitykseltään yhteensitoutuneina. Fyysinen kokoelma luo pohjan jonka päälle digitointi voi rakentua. Digitointia pidetään jopa aivan kriittisenä tehtävänä. Kuten myös pitkäaikaissäilytystä, joka varmistaa tilanteen tuleville tutkijasukupolville.

Tämän myötä myös vaateet datan tuottamiselle kasvavat,  datan tarjoamiseen tulee uusia tehtäviä, jotka vaativat myös osaamista.

DH data creation activities

Jatkuvana toimintaa tai ad-hoc toiminnan määrän kasvattamisessa on vielä työtä, tosin voi tietysti olla että kaikissa tilanteissa jotakin ei voi tehdä ja tilanteet ehkä eri vuosina vaihtelevat. Yhtenä vuonna pääkeskittymiskohde voi olla yhdenlainen ja toisena toisenlainen, joka voi datan luomisessakin vaikuttaa.

Yhteistyö, yhteistyö, yhteistyö

Vaikuttavuutta ja metriikoita myös korostettiin. Vaikuttavuudella saa yhteistyökumppaneita, joiden kanssa voi sitten yhdessä oppia sekä menetelmistä, että jakaa myös kirjastoissa sisässä olevaa tietoa kokoelmista ja niiden ominaispiirteistä. Yhteistyön myötä toivottiin myös taitojen kasvattamista, joka taas auttaa paremmin asiakkaiden toiveiden ymmärtämisessä. Vaikka väkeä on vähän, voidaan silti ehkä löytää keinoja joilla voidaan joitakin asioita tehdä paremmin.


Uusi Suometar, 01.04.1915, nro 88, s. 3 Kansalliskirjaston digitaaliset aineistot

Kiinnostavaa kehitystä on siis edessä. Liberin DH WG työryhmä olikin etsimässä uusia jäseniä pohtimaan raportista löydettyjä yhteisiä teemoja, ja niitä aletaan sitten järjestelmällisesti käsittelemään. Jos haluat lukea koko raportin se löytyy osoitteesta:


DH 2019 – notes

Thanks to Mikkeli University Consortium help, the National Library of Finland was present at the DH 2019 conference in Utrecht.  The conference is organized by the The Alliance of Digital Humanities Organizations (ADHO), and organized annually, usually every other year in Europe or in Americas. Netherlands was a good choice of venue, since the National Library of Netherlands is doing excellent work with the library lab development as with the researcher-in-residence program, having then much of calls for visiting them, as we got to hear in the library labs session during one lunch break. At building library labs pre-conference workshop we had a paper, outlining current work we do with the researchers (morning coffees, data clinics etc) and briefly outlining the possible future directions for improving tools and services forwards.

DH in European research libraries

A poster of recent survey done about DH in European Research Libraries

About the conference

Conference was large and very popular, at the very last minute the participant amount grew to the bit over 1000 so the venue was packed. This despite there were four parallel tracks that nicely divided the participants to the different locations of the venue. The conference venue was a music hall, with halls and rooms for 30-1000 people in different wings within the hall. Usually it was just simplest to experience a session in full to secure a spot there where you wanted it.

Researchers, scholars, academics, go!

I tended to pick most of the long paper sessions, where there were academics from various universities and research institutes from all over the world. Also the fields of studies varied: data, quantitative and qualitative, machine learning used and also with many different languages and collections were targeted. Mostly digital, but also mentions of microfilm were there.

The multitude of tracks meant that there was a cornucopia of good sessions to choose from, and regardless it felt that you were missing out something after picking some session, but that is how it usually goes in these events.

One side discussion in Twitter occurred on the woes of the lack of digitisation. The situation in countries is naturally varies, some have got some millions of pages of their collections digitized and some are only starting their way.

Heard a few , as expected, mentions of the OCR quality, and at least one, quick remark of the post correction of OCR.  Newspapers, books, libraries, archives of many kinds were used (even if not all of them were named). One interesting one was the Impresso project, which talks about “newspapers as an Eldorado”, that with an addition to the NewsEye and READ (Transcribus) development could be that even more in the future.

Lots of libraries were developing platforms, where the machine learning capabilities are part of the solution given to the researchers, British Library had ‘Curatr’ where there was word embeddings that work in the background, and allow reseacher to make their own small subcorpora of their research question as the tools were integrated within the presentation system. There also one main feature was to be able to variate between distant reading and close reading – you could get back to the original page which could explain why certain thing was included to the search results. Then there was authorship verification work, work with dictionaries and DH, maps, image capturing of various material types, segmentation, fake news, multi-language woes (i.e. why quite much of research is done on English corpora?) . But also to the concrete, how to get the new generation to read, how the collections should be put available online  and combine different media? What kind of features would be needed from the newspaper collections, which initiated an ad-hoc meetup on Friday to collect the researcher needs and work on those onwards in the coming DH2020 conference and between.


Finnish universities were present quite well in the conference. Comhis group had several papers and posters that talked about utilizing the national bibliography, or newspaper collections. They tweeted the slides and abstracts for anyone to utilize:

and the interesting ways how you can utilize the digitisation process metadata in novel ways to show and tell the changes in newspaper landscape.

University of Turku had also Comhis and Oceanic Exchanges related papers presented.


Transcribus seminar 2019

The air was cloudy, but at the final days of the Transcribus project there was a seminar in National Archives of Finland (NAF) going through the outcomes of the project . After welcome words of Maria Kallio and Vili Haukkovaara we went onwards with presentations from the developers and users.

Panel participants of the seminar.

Günther Mülberg  from Uni of Innsbruck tells about READ-COOP , about what was the beginning. In the Consortia there were archives doing digitisation, but also universities, some who did manual transcribing and those who are expert in transcribtion and pattern matching.

Facts of Transkribus

  • EU Horizon 2020 Project
  • 8,2M eur funding
  • 1.1.2016- 30.6.2019
  • 14 partners coordinated by Uni of Innsbruck


  • research: 60% – Pattern recognition, machine learning, computer vision,…
  • network building: 20% – scientific computations, workshops, support,…
  • service:  20% – set up of a service platform.


Service platform:

  • digitisation, transcription, recognition and searching hisorical docs
  • research infrastructure

User amount has doubled every year.

In 4-11.4.2019

  • images uploaded  by users 98166; new users 344; active users 890, created docs 866, exported docs 230, layout analysis jobs: 1745, htr jobs 943
  • Model training is one major thing

Training data

  • Jan 2019: 228 HTR models trained by Transkribus user
  • Pages: 204.359; words 21.200.035
  • Value: about 120 person years, monetary value ca 2-3 Million EUR


Co-op society SCE presentation

  • enable collab of independent institution
  • distributed ownership and sharing of data, resources and knowledge in the focus

Main features of an SCE

  • Mixture between an association and a company
  • Members acquire a minimum share of the SCE – 1000/250 Eur
  • Open for new members, members can leave anytime

Foundation of READ-COOP 1.7.2019 : founding members are listed on webpage alreay.

“Every institution or private person willing to collaborate with Transkribus is warmly invited to take part”.

E.g. NewsEye project was seen as one collaborative project towards Transkribus in the layout analysis part. Also with NAF there is a name entity recognition effort where things continue.

During presentations from the developers of the Transkribus platform and the users it became evident that the software has indeed matured. The character error rates were at 10% of at best can be less than 3%, so system has evolved considerably. One interesting topic might also be keyword spotting (KWS), where even with poor OCR the search is still able to find the particular word of interest from the data.

Interesting also was the ‘text-to-image’ where it might/should be possible to “align” a clear text and its corresponding page image – this could help as in some cases blogs or even wikipedia can have corrected text but it is separated from the original collection.

Also the segmentation tool (dhSegment) looked promising, as sometimes the problem is there, and the tool supports diverse documents from different time periods. There via masks done to the page, the neural network can be thought to find anfangs , illustrations or whatever part in the page is the target. The speaker also told that if the collections are homogeneous they might not need even that much training data.

As of today, the Transkribus changes to a co-operative (society), so it needs to be seen how the project outcomes evolve after the project itself has ended.


Arkistopäivät 2019

Digitalia-väkeä oli myös paikalla arkistopäivillä 2019 yhdessä Finna-palveluiden kanssa. Arkistopäivät ovat arkisto-, museo- ja julkishallinnon toimijoiden yhteinen seminaari jossa päivitetään osaamista ja kerrotaan eri puolilla tapahtuvista kehityskohteista. Tämä neljän vuoden välein järjestettävä tapahtuma järjestettiin nyt yhdeksättä kertaa ja osallistujia oli yli 300.

Vieraita esittelypisteessä

Digitalia mainittiin Johanna Liljan esityksessä, kuten myös NewsEye -hanke, jossa jatketaan kansainvälisessä yhteistyössä myös sanomalehtien tutkimuskäytön parantamista.

Kautta päivien esitykset olivat hyviä ja osoitti arkistomaailman kehitystä digitaalisuuden suhteen. Puheenvuoroissa puhuttiin tietoturvasta yksilön ja organsaation näkökulmasta kuin myös siitä, ettei paikallisasiakkaita tule unohtaa. Arkistotyön arvoa tuotiin myös esille sekä käyttäjälöytöjen että tutkijoiden tarpeiden kautta. Digitaalisuus oli päivien sana ja siinä oli kiinnostavia kehityslinjoja jo olemassa, joista on kiinnostavaa nähde kuinka kaikesta saadaan loppukäyttäjäpalveluita. Tiedonhallintalaki oli myös monella mielessä ja seuraavien arkistopäivien aikaanhan se on jo toteutuksessa.


OECD:n tekoälyn peruspilarit

OECD julkaisi toukokuun lopulla tekoälykehitystyölle viisi periaatetta, joita sitä kehittäessä tulisi pitää lähtökohtina. Pidemmässä taustadokumentissa on myös avattu sanastoa ja annettu lisäselityksiä periaatteiden takana.

AI system: An AI system is a machine-based system that can, for a given set of human-defined  objectives, make predictions, recommendations, or decisions influencing real or virtual  environments. AI systems are designed to operate with varying levels of autonomy.([2], p. 7)



Alkuperäinen ja vapaamuotoinen käännös löytyvät ao. taulukosta.

AI should benefit people and the planet by driving inclusive growth, sustainable development and well-being. Tekoälyn tulisi tuoda ihmisille ja planeetoille hyötyä, kannustamalla mukaanottavaan kasvuun, kestävään kehitykseen ja hyvinvointiin.
AI systems should be designed in a way that respects the rule of law, human rights, democratic values and diversity, and they should include appropriate safeguards – for example, enabling human intervention where necessary – to ensure a fair and just society. Tekoälyjärestelmät tulisi suunnitella tavalla, joka kunnioittaa lain sääntöjä, ihmisoikeuksia, demokraattisia arvoja ja monimuotoisuutta, ja niiden pitäisi sisällyttää sopivat turvat – esimerkiksi ihmisen väliintulon tarvittaessa – mahdollistamaan rehellisen ja oikeudenmukaisen yhteiskunnan.
There should be transparency and responsible disclosure around AI systems to ensure that people understand AI-based outcomes and can challenge them. Tekoälyjärjestelmien tulisi olla  läpinäkyvia ja vastuullinen ilmoittaminen niistä, jotta ihmiset ymmärtävät tekoälypohjaiset lopputulokset ja voivat haastaa ne.
AI systems must function in a robust, secure and safe way throughout their life cycles and potential risks should be continually assessed and managed. Tekoälyjärjestelmien täytyy toimia vakaalla, tietoturvallisella ja turvallisella tavalla koko elämänkaarensa ajan ja mahdollisia riskejä tulisi koko ajan arvioida ja hallita.
Organisations and individuals developing, deploying or operating AI systems should be held accountable for their proper functioning in line with the above principles. Organisaatioiden ja yksilöiden jotka kehittävät, julkaisevat tai käyttävät tekoälyjärjestelmiä tulisi pitää vastuullisena siitä, että ne toimivat kunnollisesti ylläolevien periaatteiden mukaan.

Kiintoisaa nähdä, alkavatko nämä periaatteet nousta käyttöön. Kuitenkin jo 42 maata on omaksunut periaatteet ja asiantuntijaryhmä , joka määritelmät on luonut, on kerätty osallistujia eri puolilta.

Saksan tekoälystrategian 12 toimenpidealuetta

Saksan tekoälystrategia

Saksan tekoälystrategiassa liikutaan toimenpiteiden ja tavoitteiden välimaastossa. Vuoden 2018 lopussa tehdyssä strategiassa mainitaan 12 tavoitetta, jolla tekoälyn käyttöä valtiossa ja muuallakin yhteiskunnassa pyritään kasvattamaan.


Euroopassa julkaistiin huhtikuussa 2019 ‘Ethics guidelines for trustworthy AI’ , jossa luotiin kehys, jonka puitteissa tekoälyä eri puolilla yhteiskuntaa tulisi kehittää, kuvattuna am. kuvassa [4].


Suomessa kansallinen tekoälyohjelma tunnetaan AuroraAI-nimellä jonka toimeenpanosuunnitelma pohjautuu ‘Tekoälyaika Suomessa’-raporttiin ja työryhmätyöhön jossa eri osioita on käsitelty laajemmin.

Antti Rinteen tuoreessa hallitusohjelmassa mainitaan tekoäly kahdeksan kertaa.

“Varmistetaan, ettei tekoälyjärjestelmissä hyödynnetä välittömästi tai välillisesti syrjiviä toimintamalleja.”

Joka tuntuisi olevan hyvin linjassa aiemmin esitettyjen tekoälyn periaatteiden kanssa.



[1] OECD. (2019b). OECD Principles on Artificial Intelligence. Osoitteessa

[2] OECD. (2019a). OECD Legal Instruments. Osoitteessa
[3] European Comission. (2019, huhtikuuta 8). Ethics guidelines for trustworthy AI [Text]. Noudettu 30. toukokuuta 2019, osoitteesta Digital Single Market – European Commission website:
[4] The Federal Government. (ei pvm.). Home – KI Strategie. Noudettu 30. toukokuuta 2019, osoitteesta