Liberin digitaalisten ihmistieteiden kysely tutkimuskirjastoille

Aiemmin keväällä julkaistiin Liberin joka on kansainvälisten tutkimuskirjastojen yhteisö, järjestämän tutkimuksen tulokset, jossa käytiin läpi sitä kuinka digitaalisten ihmistieteiden (digital humanities, DH) tutkimusta eri kirjastoissa lähestytään. Kyselyyn vastasi 56 ihmistä, 54 instituutiosta jotka olivat jakautuneet 20:neen maahan.

Kiinnostavaa oli että digitaalisiin ihmistieteisiin liittyvä tekeminen rahoitettiin pääosin kirjaston omasta budjetista, ja noin 34-39% oli saanut hankkeisiin rahoitusta joko tutkimusrahoituksesta, Eurooppalaisesta rahoituksesta tai muista määrärahoista. Syynä lienee että kyseessä on uudenlainen “palvelutarve” joten kestää hetken ennen kuin rahoitusta osataan hakea ja toisaalta sitä myönnetään, joten ensikäynnistys tuntuisi vaativan omaa ponnistusta, mutta tukea kirjastoissa tunnuttiin tarvittavan rahoitukselle.

Key takeaways (p.29)

Digitointi ja fyysiset kokoelmat

Digitointi ja fyysiset kokoelmat nähtiin merkitykseltään yhteensitoutuneina. Fyysinen kokoelma luo pohjan jonka päälle digitointi voi rakentua. Digitointia pidetään jopa aivan kriittisenä tehtävänä. Kuten myös pitkäaikaissäilytystä, joka varmistaa tilanteen tuleville tutkijasukupolville.

Tämän myötä myös vaateet datan tuottamiselle kasvavat,  datan tarjoamiseen tulee uusia tehtäviä, jotka vaativat myös osaamista.

DH data creation activities

Jatkuvana toimintaa tai ad-hoc toiminnan määrän kasvattamisessa on vielä työtä, tosin voi tietysti olla että kaikissa tilanteissa jotakin ei voi tehdä ja tilanteet ehkä eri vuosina vaihtelevat. Yhtenä vuonna pääkeskittymiskohde voi olla yhdenlainen ja toisena toisenlainen, joka voi datan luomisessakin vaikuttaa.

Yhteistyö, yhteistyö, yhteistyö

Vaikuttavuutta ja metriikoita myös korostettiin. Vaikuttavuudella saa yhteistyökumppaneita, joiden kanssa voi sitten yhdessä oppia sekä menetelmistä, että jakaa myös kirjastoissa sisässä olevaa tietoa kokoelmista ja niiden ominaispiirteistä. Yhteistyön myötä toivottiin myös taitojen kasvattamista, joka taas auttaa paremmin asiakkaiden toiveiden ymmärtämisessä. Vaikka väkeä on vähän, voidaan silti ehkä löytää keinoja joilla voidaan joitakin asioita tehdä paremmin.

Uusi Suometar, 01.04.1915, nro 88, s. 3 https://digi.kansalliskirjasto.fi/sanomalehti/binding/1197802?page=3 Kansalliskirjaston digitaaliset aineistot

Kiinnostavaa kehitystä on siis edessä. Liberin DH WG työryhmä olikin etsimässä uusia jäseniä pohtimaan raportista löydettyjä yhteisiä teemoja, ja niitä aletaan sitten järjestelmällisesti käsittelemään. Jos haluat lukea koko raportin se löytyy osoitteesta:  https://doi.org/10.5281/zenodo.3247285

 

DH 2019 – notes

Thanks to Mikkeli University Consortium help, the National Library of Finland was present at the DH 2019 conference in Utrecht.  The conference is organized by the The Alliance of Digital Humanities Organizations (ADHO), and organized annually, usually every other year in Europe or in Americas. Netherlands was a good choice of venue, since the National Library of Netherlands is doing excellent work with the library lab development as with the researcher-in-residence program, having then much of calls for visiting them, as we got to hear in the library labs session during one lunch break. At building library labs pre-conference workshop we had a paper, outlining current work we do with the researchers (morning coffees, data clinics etc) and briefly outlining the possible future directions for improving tools and services forwards.

DH in European research libraries

A poster of recent survey done about DH in European Research Libraries

About the conference

Conference was large and very popular, at the very last minute the participant amount grew to the bit over 1000 so the venue was packed. This despite there were four parallel tracks that nicely divided the participants to the different locations of the venue. The conference venue was a music hall, with halls and rooms for 30-1000 people in different wings within the hall. Usually it was just simplest to experience a session in full to secure a spot there where you wanted it.

Researchers, scholars, academics, go!

I tended to pick most of the long paper sessions, where there were academics from various universities and research institutes from all over the world. Also the fields of studies varied: data, quantitative and qualitative, machine learning used and also with many different languages and collections were targeted. Mostly digital, but also mentions of microfilm were there.

The multitude of tracks meant that there was a cornucopia of good sessions to choose from, and regardless it felt that you were missing out something after picking some session, but that is how it usually goes in these events.

One side discussion in Twitter occurred on the woes of the lack of digitisation. The situation in countries is naturally varies, some have got some millions of pages of their collections digitized and some are only starting their way.

Heard a few , as expected, mentions of the OCR quality, and at least one, quick remark of the post correction of OCR.  Newspapers, books, libraries, archives of many kinds were used (even if not all of them were named). One interesting one was the Impresso project, which talks about “newspapers as an Eldorado”, that with an addition to the NewsEye and READ (Transcribus) development could be that even more in the future.

Lots of libraries were developing platforms, where the machine learning capabilities are part of the solution given to the researchers, British Library had ‘Curatr’ where there was word embeddings that work in the background, and allow reseacher to make their own small subcorpora of their research question as the tools were integrated within the presentation system. There also one main feature was to be able to variate between distant reading and close reading – you could get back to the original page which could explain why certain thing was included to the search results. Then there was authorship verification work, work with dictionaries and DH, maps, image capturing of various material types, segmentation, fake news, multi-language woes (i.e. why quite much of research is done on English corpora?) . But also to the concrete, how to get the new generation to read, how the collections should be put available online  and combine different media? What kind of features would be needed from the newspaper collections, which initiated an ad-hoc meetup on Friday to collect the researcher needs and work on those onwards in the coming DH2020 conference and between.

Finland

Finnish universities were present quite well in the conference. Comhis group had several papers and posters that talked about utilizing the national bibliography, or newspaper collections. They tweeted the slides and abstracts for anyone to utilize:

and the interesting ways how you can utilize the digitisation process metadata in novel ways to show and tell the changes in newspaper landscape.

University of Turku had also Comhis and Oceanic Exchanges related papers presented.

 

Transcribus seminar 2019

The air was cloudy, but at the final days of the Transcribus project there was a seminar in National Archives of Finland (NAF) going through the outcomes of the project . After welcome words of Maria Kallio and Vili Haukkovaara we went onwards with presentations from the developers and users.

Panel participants of the seminar.

Günther Mülberg  from Uni of Innsbruck tells about READ-COOP , about what was the beginning. In the Consortia there were archives doing digitisation, but also universities, some who did manual transcribing and those who are expert in transcribtion and pattern matching.

Facts of Transkribus

  • EU Horizon 2020 Project
  • 8,2M eur funding
  • 1.1.2016- 30.6.2019
  • 14 partners coordinated by Uni of Innsbruck

Focus:

  • research: 60% – Pattern recognition, machine learning, computer vision,…
  • network building: 20% – scientific computations, workshops, support,…
  • service:  20% – set up of a service platform.

 

Service platform:

  • digitisation, transcription, recognition and searching hisorical docs
  • research infrastructure

User amount has doubled every year.

In 4-11.4.2019

  • images uploaded  by users 98166; new users 344; active users 890, created docs 866, exported docs 230, layout analysis jobs: 1745, htr jobs 943
  • Model training is one major thing

Training data

  • Jan 2019: 228 HTR models trained by Transkribus user
  • Pages: 204.359; words 21.200.035
  • Value: about 120 person years, monetary value ca 2-3 Million EUR

 

Co-op society SCE presentation

  • enable collab of independent institution
  • distributed ownership and sharing of data, resources and knowledge in the focus

Main features of an SCE

  • Mixture between an association and a company
  • Members acquire a minimum share of the SCE – 1000/250 Eur
  • Open for new members, members can leave anytime

Foundation of READ-COOP 1.7.2019 : founding members are listed on webpage alreay.

“Every institution or private person willing to collaborate with Transkribus is warmly invited to take part”.

E.g. NewsEye project was seen as one collaborative project towards Transkribus in the layout analysis part. Also with NAF there is a name entity recognition effort where things continue.

During presentations from the developers of the Transkribus platform and the users it became evident that the software has indeed matured. The character error rates were at 10% of at best can be less than 3%, so system has evolved considerably. One interesting topic might also be keyword spotting (KWS), where even with poor OCR the search is still able to find the particular word of interest from the data.

Interesting also was the ‘text-to-image’ where it might/should be possible to “align” a clear text and its corresponding page image – this could help as in some cases blogs or even wikipedia can have corrected text but it is separated from the original collection.

Also the segmentation tool (dhSegment) looked promising, as sometimes the problem is there, and the tool supports diverse documents from different time periods. There via masks done to the page, the neural network can be thought to find anfangs , illustrations or whatever part in the page is the target. The speaker also told that if the collections are homogeneous they might not need even that much training data.

As of today, the Transkribus changes to a co-operative (society), so it needs to be seen how the project outcomes evolve after the project itself has ended.

 

Arkistopäivät 2019

Digitalia-väkeä oli myös paikalla arkistopäivillä 2019 yhdessä Finna-palveluiden kanssa. Arkistopäivät ovat arkisto-, museo- ja julkishallinnon toimijoiden yhteinen seminaari jossa päivitetään osaamista ja kerrotaan eri puolilla tapahtuvista kehityskohteista. Tämä neljän vuoden välein järjestettävä tapahtuma järjestettiin nyt yhdeksättä kertaa ja osallistujia oli yli 300.

Vieraita esittelypisteessä

Digitalia mainittiin Johanna Liljan esityksessä, kuten myös NewsEye -hanke, jossa jatketaan kansainvälisessä yhteistyössä myös sanomalehtien tutkimuskäytön parantamista.

Kautta päivien esitykset olivat hyviä ja osoitti arkistomaailman kehitystä digitaalisuuden suhteen. Puheenvuoroissa puhuttiin tietoturvasta yksilön ja organsaation näkökulmasta kuin myös siitä, ettei paikallisasiakkaita tule unohtaa. Arkistotyön arvoa tuotiin myös esille sekä käyttäjälöytöjen että tutkijoiden tarpeiden kautta. Digitaalisuus oli päivien sana ja siinä oli kiinnostavia kehityslinjoja jo olemassa, joista on kiinnostavaa nähde kuinka kaikesta saadaan loppukäyttäjäpalveluita. Tiedonhallintalaki oli myös monella mielessä ja seuraavien arkistopäivien aikaanhan se on jo toteutuksessa.

 

OECD:n tekoälyn peruspilarit

OECD julkaisi toukokuun lopulla tekoälykehitystyölle viisi periaatetta, joita sitä kehittäessä tulisi pitää lähtökohtina. Pidemmässä taustadokumentissa on myös avattu sanastoa ja annettu lisäselityksiä periaatteiden takana.

AI system: An AI system is a machine-based system that can, for a given set of human-defined  objectives, make predictions, recommendations, or decisions influencing real or virtual  environments. AI systems are designed to operate with varying levels of autonomy.([2], p. 7)

 

 

Alkuperäinen ja vapaamuotoinen käännös löytyvät ao. taulukosta.

AI should benefit people and the planet by driving inclusive growth, sustainable development and well-being. Tekoälyn tulisi tuoda ihmisille ja planeetoille hyötyä, kannustamalla mukaanottavaan kasvuun, kestävään kehitykseen ja hyvinvointiin.
AI systems should be designed in a way that respects the rule of law, human rights, democratic values and diversity, and they should include appropriate safeguards – for example, enabling human intervention where necessary – to ensure a fair and just society. Tekoälyjärestelmät tulisi suunnitella tavalla, joka kunnioittaa lain sääntöjä, ihmisoikeuksia, demokraattisia arvoja ja monimuotoisuutta, ja niiden pitäisi sisällyttää sopivat turvat – esimerkiksi ihmisen väliintulon tarvittaessa – mahdollistamaan rehellisen ja oikeudenmukaisen yhteiskunnan.
There should be transparency and responsible disclosure around AI systems to ensure that people understand AI-based outcomes and can challenge them. Tekoälyjärjestelmien tulisi olla  läpinäkyvia ja vastuullinen ilmoittaminen niistä, jotta ihmiset ymmärtävät tekoälypohjaiset lopputulokset ja voivat haastaa ne.
AI systems must function in a robust, secure and safe way throughout their life cycles and potential risks should be continually assessed and managed. Tekoälyjärjestelmien täytyy toimia vakaalla, tietoturvallisella ja turvallisella tavalla koko elämänkaarensa ajan ja mahdollisia riskejä tulisi koko ajan arvioida ja hallita.
Organisations and individuals developing, deploying or operating AI systems should be held accountable for their proper functioning in line with the above principles. Organisaatioiden ja yksilöiden jotka kehittävät, julkaisevat tai käyttävät tekoälyjärjestelmiä tulisi pitää vastuullisena siitä, että ne toimivat kunnollisesti ylläolevien periaatteiden mukaan.

Kiintoisaa nähdä, alkavatko nämä periaatteet nousta käyttöön. Kuitenkin jo 42 maata on omaksunut periaatteet ja asiantuntijaryhmä , joka määritelmät on luonut, on kerätty osallistujia eri puolilta.

Saksan tekoälystrategian 12 toimenpidealuetta

Saksan tekoälystrategia

Saksan tekoälystrategiassa liikutaan toimenpiteiden ja tavoitteiden välimaastossa. Vuoden 2018 lopussa tehdyssä strategiassa mainitaan 12 tavoitetta, jolla tekoälyn käyttöä valtiossa ja muuallakin yhteiskunnassa pyritään kasvattamaan.

Euroopassa

Euroopassa julkaistiin huhtikuussa 2019 ‘Ethics guidelines for trustworthy AI’ , jossa luotiin kehys, jonka puitteissa tekoälyä eri puolilla yhteiskuntaa tulisi kehittää, kuvattuna am. kuvassa [4].

Suomessa

Suomessa kansallinen tekoälyohjelma tunnetaan AuroraAI-nimellä jonka toimeenpanosuunnitelma pohjautuu ‘Tekoälyaika Suomessa’-raporttiin ja työryhmätyöhön jossa eri osioita on käsitelty laajemmin.

Antti Rinteen tuoreessa hallitusohjelmassa mainitaan tekoäly kahdeksan kertaa.

“Varmistetaan, ettei tekoälyjärjestelmissä hyödynnetä välittömästi tai välillisesti syrjiviä toimintamalleja.”

Joka tuntuisi olevan hyvin linjassa aiemmin esitettyjen tekoälyn periaatteiden kanssa.

 

Lähteet

[1] OECD. (2019b). OECD Principles on Artificial Intelligence. Osoitteessa http://www.oecd.org/going-digital/ai/principles/

[2] OECD. (2019a). OECD Legal Instruments. Osoitteessa https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449
[3] European Comission. (2019, huhtikuuta 8). Ethics guidelines for trustworthy AI [Text]. Noudettu 30. toukokuuta 2019, osoitteesta Digital Single Market – European Commission website: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
[4] The Federal Government. (ei pvm.). Home – KI Strategie. Noudettu 30. toukokuuta 2019, osoitteesta https://www.ki-strategie-deutschland.de/home.html?file=files/downloads/Nationale_KI-Strategie_engl.pdf

DHH19 – remote live notes

As has already been in earlier years, the DHH19 hackathon was due. This time there were:

  • 38 participants
  • 10 days
  • 4 teams and projects
  • Computer science + social science + humanities

This time DHH19 went international, and the group was versatile

 

There was communication part in each team, which explained at least the Twitter-using teams, and there were also interviews made from the participants.

13:20-14:30 Group presentations

DHH19-Brexit group

RQ: What is the relationship between social media and politics?

  • Types of tweets: retweet (massive amount), original, reply, quotes
  • Checked regional tweets, and who are the most dominant users.
  • 1 user can be responsible of certain combination of hashtags (whose account anyhow suspended)
  • Real-life events vs events on Twitter
  • Several hashtag groups can be identified and that was visualized and put to a timeline (as assumed that hashtag correlates to a time)

  • Research on subgroups: all users, verified users, members of parliament
  • Frequency analysis: most shared Twitter content vs. external content.
  • Blame : groups mobilise different content to futher their agenda
  • Who are people angry at?   “the anger scale”  (person id’s of angry tweets)
  • hashtags of MP’s ; hashtag avoidance by politicians? (removal of themselves from the discussion?)
  • Problems: how well the dataset matches the population, e.g. PM is missing from the data?
    • Experimented with NER, ‘May’ ends up as Date 🙂
    • tweet json contains so many fields, where rt’s and hashtags don’t get to correct field due to way how api was used
    • https://blogs.helsinki.fi/digital-humanities-hackathon/brexit
  • Couldn’t go further to data as historical data would have a cost of several thousands of euros.

 

 

DHH19-EU Parliament group

  • Update on communications
  • “We communicated”
    • the future, << political discourse & debate >>,  history, the past
  • What is EU?
  • Whole corpus
    • 249,955 speeches in English, 50M words, 2M sentences
    • metadata: speaker (name, country, political functions, gender, date, topic)
    • 2013 change in protocol, after 2013 , 99.7% of English speeches from UK and IRL
  • Created subcorpora:
    • picked keywords, to find suitable parts from data, brainstormed ideas for subset, observed data , topic modelling, word embedding… and selected keywords then
    • word ‘past’ might work if they talk about last session
    • Past: 13.230 speeches, future 5430 speeches, totaliariasmi 4517, climate change 12k
  • Key results
    • Past and future are very related
    • Construction of Future (network with ‘key hubs’)
    • Thinking conceptually what is the future
    • Topic modelling : which topics connected with the past or to the future
    • Sentiment analysis : speakers seem to be less emotional and more concrete while talking about future. (Utilized existing tools for doing analysis)

  • variance of sentiment analysis
  • analysis of sentiment analysis compared to gender, country -> by this noticed the 2013 issue
  • Qualitative analysis: close reading to extract ideas between past and the future. MP’s utilize ‘past’ elements as something to avoid or sometimes as some things to preserve & generic human values.

‘Future’ is something to plan , fear or hope for

* RQ: Case study 20thcenttot” How is the horseshoe theory present in discourse on the topic and how does it differ by region (E/W)?

  • strongly connected in discourse, with no significant differences between East and West
  • frequency analysis of specific terms, 2005 a spike visible .

* RQ: Case study: The climate crisis. How is climate change talked about in EP? Are there differences how diff countries talk about it?

  • Proportion of speeches in climate change, spike in 2007 to 2010 (combination of current events, 2008 – 2011 first impl of Kyoto protocol). Might be impacted by nbr of speeches
  • Sentiment analysis – by country , a problem found. E.g. Lux vs. IRL , sth in the data (number of speeches vs. climate speeches)
  • False positives and negatives in understanding the sentences.
  • Compared Finland & Spain: word clouds differ , in Finlandd emission, carbon at top, in Spain: water , mediterranean

Challenges

  • defining the past and the future: how to detect it in the corpus?
  • Missing English translated speeches and missing metadata
  • English corpus included other languages

More work to do: look at differences between political parties ; issues w dataset should be solved.

A break: coffee (&tea) consumption in DHH2019

15-16 Groups

DHH19-Genre and Style group

“Name-dropping in 18th century public discourse”

RQ: Which personal names are frequently mentioned in 18th century British publications?   On the basis of the freq and co-occ. of individual names, what kind of patterns can we detect that are characteristic of genres and time periods?

Data:

  • 18th century collections online (ECCO)
  • high representativeness: ca 50% of all 18th century British printed texts (180k titles, 32M pages)
  • OCR issues, unreliable metadata

Analysis

  • Keyword analysis
  • Three subset over time: hist, relig, social
  • Methods

Results:

  • “Even when data was good it was not standardized”
  • Name dropping was used in text (Queen elisabeth, Cicero,…)
  • Identified the most common people mentioned
  • Looked at this over time (20-year periods)
  • The people mentioned in books have some similarity context (network of books, clusters of religious texts, historical texts, social affairs where subclusters)
  • Origins of mentioned individuals (ancient, classical, early medieval, late medieval, renaissance, contemporary, NA)

Future research:

  • Automatic genre classification based on named entity networks
  • Improve NER and subsets by using domain-specific resources
  • examine less popular entities and their role
  • focus on 1st editions, inspecting specific sections of books
  • creating interactive visualizations

Communication: blogs medium & blogs.helsinki.fi, Twitter (1 post from everyone), Instagram.

DHH19 – Newspapers

Why newsppapers? “Most important public record from the past”

Research themes:

  • presence of ads
  • language of persuation

Approach

  • working in smaller groups, 2 meetings every day. Interlinking blogs

Results

  • Presence of ads in morning post 1800-1900
  • everything compared to the ads quantity
  • Åbo Underrättelser 1824-1890
    • Only a handful of finnish Newspapers have ad segmentation , none in 1892-…
  • The development of Ads in British Newspapers 1800-1900 : country, city and paper level
  • The pres. of ads in Morning post 1800-1900

The language of persuasion in advertisements

  • What linguistic strategies were used for persuading people into buying or using?
  • close reading of 1 newspaper issue per decade
  • Testimony : authority & ordinary people
  • Advertisements used adjectives, describing the high quality of the product – compared ratio of ads vs. articles -> no differences
  • Interesting was the ratio of words (ads vs. articles)   (ads used short sentences, easy to remember)

3. “The pills that cure everything – drug advertisements” ( a subcorpus)

  • compared gender
  • found out which illnesses the ads were targeted against
  • descriptive language compared between different ads, e.g. ‘nervous’ came less important in women ads, but not on males – treatment of the word maybe changed.
  • illustrations with the ads were interesting between diff genres (very different contexts, emotions visible for e.g. nervousness)

3. job advertisements, class and societal change?

  • most sought occupations in newspaper ads /HISCO categories
  • requirements connected to different occupations
  • social and cultural expectations regarding these jobs
  • differences between country in terminology, and even industrial changes
  • top 15 occupations in Åbo Underrättelser : e.g. teachers !

Problems

  • OCR…
  • article separation (british newspapers)

Plan for future research

  • 10 days, couldn’t do everything they wanted
  • typology, trajectories, rhetorical tropes, medical/drugs & hysteria, marketing strategies

Dashboards available online.

Summa summarum

Sounds like that the hackathon was very interesting and the teams got far. Tools were used in interesting ways. Need to be considered how the ideas here could be used in research and development work done in the Digitalia project, too. This gave good food for thought 🙂

 

“Ennen oli ennen…” – osa 2

Jatkoa 16.5.2019 olleeseen sanomalehtisymposiumin osaan 1.

Sessio 2

Digitoidut sanomalehdet feminismin historian tutkimuksessa Heidi Kurvinen (Turun yliopisto) osoitti sen kuinka lehdet, omalta osaltaan, näyttävät kirjonsa, milloin ilmiö saa “nimen” ja milloin käsite alkaa saada lisämerkityksiä , ja milloin positiivisia ja milloin negatiivisia. Pohdittavaksi jäi, kuinka voisimme auttaa tutkimusympäristön luomisessa ja vinkata muista palveluista tai valmisohjelmistoista joilla pääsee jo pitkälle. DH-tutkijan ei (minusta) tarvitse välttämättä edes ohjelmoida, usein systemaattinen ja oikeiden työkalujen, oikea käyttö vie jo pitkälle. Se sitten, mikä on missäkin tilanteessa sopivin työkalu onkin sitten jo pidempi tarina.

Amerikansuomalaisten sanomalehtien ja ylipäätään sirtolaislehtien digitointia toivottiin. Aikakauslehdissä on jonkin verran, jotka löytyivät ikään kuin sattumalta, kun alettiin katsomaan lehtien ilmestymispaikkoja, mitäs ihmettä nämä New York – ilmestymispaikat ovatkaan?

 

Digitoitu sanomalehtiaineisto ja julkisen kuoleman käsittelyn tutkiminen Anna Huhtala (Tampereen yliopisto) . Tässä esityksessä lähestyttiin yhtä teemaa, jota aina välillä pohdimme sopimusneuvottelujen ja aineiston autenttisuuden parissa. Aineisto on aina aikakautensa näköinen. Toimitukselliset kriteerit ovat aikojen kulussa muuttuneet, ja journalistiset ohjeetkin on loppujen lopuksi luotu vasta 1950-luvulta, kun ensimmäiset etikettisäännöt lehtimiehille julkaistiin ja josta sitten hiljalleen kehittyi Julkisen sanan neuvosto ja journalistiset ohjeet. Murhenäytelmiä ja tragediaa…  mutta toisaalta “millaisia teemoja valtavirralle tarjottiin lohdutukseen”, komentoi puhuja. Leikkeet olivat myös tässä tutkimuksessa oleellinen apuväline, joka auttoi tutkimusaineiston järjestelyssä.

Pilapiirrosten tulkinta historiallisen diskurssin osana Meri Arni-Kauttu (Itä-Suomen yliopisto). Osittain palattiin jo ensimmäisissä sessioissa puhuttuihin stereotypioihin, mutta toisesta tulokulmasta. Olikin hieno kuinka esityksen kansikuvaa katsoikin tutkimusaiheen kuvauksen jälkeen aivan uusin silmin. Tosiaan, keiden näkökulmasta pilakuva olikaan tehty? Näyttää siis, että vaikka tekoäly ehkä “näkee” kuvituksen, niin silti kuvan ymmärtäminen ja kontekstin luominen onkin jo vaikeampi tapaus. Tutkimusta tarvitaan! Mainittiin esimerkiksi nimekkäät taiteilijat , kuten Alex Federley. Pikaisena digivinkkinä, nykyinen Digin “näytä kuvitukset”-toiminto pohjautuu sivun tekstiin ja digitoinnin jälkiprosessoinnin analyysiin suvasta. Haku tehdään sivun tekstiin pohjautuen, eli jos kuvan yhteydestä löytyy haluttu hakusana (esim. A. Federley) ja sivulta löytyy kuva, niin tällöin se näytetään haussa. Epätarkkuutta aiheuttaa se, että emme voi olla varma mihin tekstiin sivulla kuvitushaku osuu – se voi olla parhaimmillaan kuvateksti, mutta sanomalehdissä jotakin aivan muuta. Digissä kokeiltava esimerkkihaku: kuvitus + kuvituksen tekijä hakulauseessa sivun sisältöön pohjautuen (vain aikauslehdet) . Muokkaa ja katso mitä löytyy!

Sessio 3

Puoluehistoria ja sanomalehtiaineisto Kati Katajisto (Helsingin yliopisto). Tässä tutkimuksessa tuli hyvin esille kuinka aineiston kanssa saa olla tarkkana, erityisesti jos hakusana on yleissana, jolloin koivu ei välttämättä ole nimi tai voi olla ihan vain tuttu puulajike, … Joten hakutuloksia kannattaa aina tarkastella kriittisesti, nouseeko tietyn hakusanan ilmentymät koska asia aidosti on lehdissä merkittävä, vai vaikka vain siksi, että jokin mainoskampanja on aikanaan käynnistynyt, jossa tietty sana sitten esiintyy. Täytyy tuntea tekstin tai aineiston ominaispiirteet ja miten eri hakutulokset siihen suhtautuvat.

 

Kunnanvaltuustojen perustaminen ja sen herättämä demokratiakeskustelu lehdistössä 1890-1917 Sami Suodenjoki (Tampereen yliopisto) . Tässä kunnanvaltuustotyössä yhtenä tuloksena oli kunnanvaltuustotietojen lisääminen suoraan myös Wikipediaan, jolloin niihin pystyttiin lisäämään myös lähdetiedot, mistä lehdestä tietyn kunnanvaltuuston perustaminen löytyikään. Yleisöstä kommentoitiin, että hyvä olisi hyödyntää ehkä myös WikiDataa, jolloin tiedoista saisi ehkä myös entistä rakenteisemman ja mahdollisuuden linkittää dataa paremmin keskenään. Wikidata olisi muutenkin tiettyjen asioiden kanssa hyödyllinen, joten asiaa pitää pitää vireillä muutenkin.

Mormonien vaiheet 1800-luvun suomalaislehdistön kuvaamana Kim Östman (Åbo Akademi) oli hiukan aiemmin tehty tutkimus, mutta silti kiinnostava ja nykyaikaankin sopiva. Kuinka uusi ilmiö Suomeen tulee, ja millaista keskustelua se aiheuttaa lehdistössä tai ympäröivässä yhteiskunnassa. Kiinnostava ajatus oli, että tulisiko muista uskontokuntien tulosta Suomeen vastaavanlainen keskustelu , ja ylipäätään milloin ja milloin yksittäisitä mielipiteistä tuleekin yhteinen julkinen mielipide, joka alkaa ruokkia itseään?

Sessio 4

16:00-16:15 Näkökulmia Fenno-Ugrican sanomalehtien tutkimuskäyttöön Niko Partanen (Kotimaisten kielten keskus)  osoitti sen, että laajasta digitaalisesta tarjonnasta on hyötyä ja mitä etua on, kun sama teksti löytyy useampana käännöksenä aineistojen joukosta (Github).  Tässä kohtaa symposiumissa jäätiin pohtimaan tekstintunnistusta ja siihen liittyviä työkaluja – oikeastaan tekstintunnistus ei ehkä enää olekaan se ongelma (ainakin malleja pystyy opettamaan ja työkalut kehittyneeet), mutta haaste voikin enemmän olla se, kuinka hailakka sivukuva saadaan segmentoitua niin, että tekstintunnistukselle tarjotaan sopiva alue, josta teksti saadaan luotettavasti ulos. Sanat, virkkeet, kuvatekstit, mainokset, ovat pulma, kun lehtien rakenne vaihtuu vuosikymmenittäin, ja opetusaineistonkin teko on hidasta, tai kuten Digitalia-projektissa on huomattu, eri lehdet voivat vaatia oman mallinsa. Ehkä voikin tehdä vain työtapamallin, jolla erilaisia lehtiä taklataan, ja jatkaa työtä lehti lehdeltä eteenpäin, mahdollista hyvän, avoimen lähdekoodin, segmentointityökalua odottaessa.

16:15-16:30 Digitaalisten aineistojen käyttö väitöskirjatutkimuksessa Inkerin kirkon nousu ja suomalaiset 1988-1993 Antti Luoma (Helsingin yliopisto) . Aineistojen valinnassa voi olla myös monipuolinen – erityisesti jos tutkimus vaatii tuoreampien aineisotojen käyttöä, tällöin tulee ilmi se, että koko lehti on digitoitu koko historialtaan vain muutaman lehden osalta ja tätä avattiinkin keskustelussa seminaarissa.

Ylipäätään tämä avasi tutkijan haasteita, aineistoa etsitään eri puolilta, hieman eri tavoin, ja näin saadaan luotua laajempi kuva tutkittavasta kohteesta yhdistämällä arkistomateriaalia, sanomalehtiä ja vaikka jopa TV-ohjelmia, jotka voivat osaltaan käynnistää keskustelun sanomalehdissä ja sitten taas ilmestyä arkistomateriaaliin tovin kuluttua. Yhtenä kiitoskohteena aiemmin mainittujen aineistojen lisäksi mainittiin  Kavi:n Ritva-tietokannan kanssa oleellista on metadata, jolloin voi helposti löytää haluamastaan teemasta ohjelmia.

 

16:30-16:45 Painettujen ja käsinkirjoitettujen lehtien vertaileva tutkimus – digitoinnin tuomat uudet mahdollisuudet ja haasteet Kirsti Salmi-Niklander (Helsingin yliopisto). Takaisin paperiin! Kaikkea ei kuitenkaan ole digitoitu ja yksi esimerkki tästä on pienehköt teemalehdet, joita ei välttämättä ole julkaistu vaan jaettu rajatussa piirissä, kun tavoitteena on ollut esimerkiksi välttää sensuuria. Käsinkirjoitettujen lehtien löytämisessä on jo omat haasteensa, ja irtolehtien koostaminen on jo iso työ, kun metadatakin on luotava itse. Toivotaan, että NewsEye- tai Read-projektin eteneminen käsinkirjoitetun tekstin tunnistuksessa etenee nykyisellä vauhdilla, niin sitä voisi käsinkirjoitettuihin ainistoihin käyttää.

Summa Summarum

“Helppo tiedonhaku auttaa ymmärtämään omaa kulttuuria”

HS:n pääkirjoitus 21.5.2019.

Seminaarissa osallistujana yksi taustateema oli, että kuinka monipuolista ja kiinnostavaa tutkimusta eri yliopistoissa tehdään. Vaikka yhteistä ei ehkä ole kuin osa aineistoista, tai palvelu josta aineisto löytyy, osaan ideoista on löydettävissä ratkaisuja, jotka auttavat monia. Digi.kansalliskirjasto.fi -esitysjärjestelmän kehityksen yksi kantava ajatus onkin ollut, että lisättävät toiminnot olisivat yleishyödyllisiä – toimintoja, jotka toimivat sekä tutkijoille, että muille käyttäjille, jolloin yhdellä toiminnolla saadaan eri käyttäjäryhmät katetuksi edes osin, jolloin tie jää auki jatkaa siitä eteenpäin.

“Aineistot ovat työväline”

Symposiumin lopussa huokaistiin myös ylläoleva “Aineistot ovat työväline” , eivätkä itsetarkoitus. Kukin toki innostuu aineistosta tai työkalusta, jolla pääsee haluamaansa asiaa tekemään, mutta ytimenähän on tutkimuskysymys ja sen ratkaiseminen. Luonnollisesti digitaalisten aineistojen kehittäjänä (sekä sisältö eli digitointi että palvelun toiminnallisuuksien kannalta) , haaste on ennakoida tulevia toiveita – sisältötuotanto etenee omaa vauhtiaan projektien myötä, ja sen lomassa aineistojen rikastaminen päästää syvemmälle jo nyt tehtyjen digitointien suhteen – kuinka helpottaa hakua ja antaa uusia mahdollisuuksia saada kuvaa vaikka aineiston osakohteista, jotka voivat edelleen nostaa mahdollisuuksia uusien tutkimuskysymysten käsittelyyn. Esimerkiksi juuri julkaistussa tutkimusartikkelissa (Hiding in Plain Sight: Poetry in Newspapers and How to Approach it) siitä kuinka DHH17-hackathonissä tehtiin runojen etsintää sanomalehdistä verraten käsityötä ja koneoppimista, jossa huomattiin että molemmista menetelmissä on hyötynsä ja molempia voi hyödyntää samanaikaisestikin.

Eteenpäin

Toivottavasti sanomalehtisymposium järjestetään ensi vuonna uudestaan ja voimme laajentaa kestoa ja saada lisää osallistujia, jotka toimivat muidenkin aineistolähteiden parissa tai jos on aineistoja joihin toivoisi pääsevän käyttämään, mutta keinoa ei vielä ole löytynyt.

Tavoitteena on parantaa tutkijayhteistyötämme, jossa työmalleina onkin jo olleet tutkijoiden aamukahvit, dataklinikat eri yliopistoissa, osallistuminen ja esittäminen eri tutkimusyhteisöjen seminaareissa ja erilaiset julkaisut. Palautetta voi vakiotavoin jatkuvasti antaa, ja käytämme mielellämme hyviä ideoita palveluiden (teknisten tai tutkijapalvelujen ylipäätään) jatkokehityksessä. Esimerkiksi Digitalia-projektin tuotoksia alkaa hiljalleen Digi-palveluun ilmestyä, uutuuksista lisää myöhemmin tässä blogissa.

 

“Proof is in the pudding” – osa 1.

Ensimmäinen Kansalliskirjaston tutkijapalveluiden sanomalehtisymposium järjestettiin 16.5.2019. Tällä kertaa keskityimme sanomalehtiaineistoihin, tarkoituksena saada kuvaa aineistojen käyttötavoista juuri nyt, nykyisillä sopimusmalleilla ja käyttöehdoilla. Tavoitteenamme oli kerätä tietoa mikä tilanne on nyt, mitä toiveita on, ja miten jatkossa tulisi varautua nykyisen lehtiaineistojen tutkimuskäytön suhteen. Halusimme saada mahdollisimman laajasti kokemuksia eri puolilta ja siksi kasvatimme seminaarin kestoa aiotusta, kun hyviä ehdotuksia tuli niin paljon, joista halusimme itse tietää ja antaa mahdollisuuden myös tutkijoille kuulla toisistaan, kun yhteisenä tekijänä on saman aineistokokonaisuuden osa – vaikka tutkimusaiheet ja -alat vaihtelivat teologiasta feminismin tutkimukseen, tai arkkiveisuista, liki nykypäivään.

Iso kissa vasemmalla ja pikkukissoja rivissä

Tie vapauteen, 01.09.1922, nro 9, s. 9
https://digi.kansalliskirjasto.fi/aikakausi/binding/1360361/articles/3278605?page=9
Kansalliskirjaston digitaaliset aineistot

Ylikirjastonhoitajan tervetuliaispuheen jälkeen, jossa korostettiin tutkimuksen tärkeyttä ja yhteistyötä aineistojen ja tutkijoiden kesken, pääsivät puhujat irti! Kansalliskirjaston omalla tutkimus- ja kehitystyön kertomuksilla aloitettiin, jotta päivä saatiin käyntiin ja kaikki paikalle. Digi.kansalliskirjasto.fi  – palvelun uutuuksista mainittiin, kuten samana päivänä julkaistusta uudesta avauksesta. Kerrottiin myös Digitalia-projektin tuomista uutuuksista lyhyesti, mitä seuraavaksi julkaistaan, eli tekstintunnistuksen korjauksesta, artikkelinpoiminnasta, nimien poiminnasta ja kuvitusten luokittelusta, joita aletaan pian viemään tuotantoon kohdelehteen eli Uuteen Suomettareen ja toivottavasti siitä eteenpäin (hiljalleen) mitä prosessointiteho antaa myöten.

Digitalian Kimmo Kettunen kertoi tekstintunnistuksen korjauksista, joka on oleellinen vaihe ennen nimien poimintaa, jotta virheiden määrä vähenee. Tunnistus paranee, joka taas parantaa aineistojen löydettävyyttä. Kun yleisöstä kysyttiin mitä tutkimuksen jälkeen tapahtuu, niin Kimmo kertasi, Kansalliskirjaston DH-tutkimuksen ja aineistojen rikastamisen pääidean: “Proof is in the pudding”, eli ajatus on, että tutkimuksen tuotokset viedään tuotantoon ja aina Digi-esitysjärjestelmään saakka, jolloin tutkijat ja kansalaiset voivat yhtä lailla hyödyntää aineistoja tehokkaammin tai uusin keinoin, kumpaa sitten parempana pitääkään.

Juha Rautiainen kertoi kiinnostavasta NewsEye-projektista, jossa ajatus on viedä työkalukehitystä vielä eteenpäin. Tutkijat saavat uusia työkaluja, joilla prosessoida aineistoja ja joilla pääsevät nopeammin tutkimuskysymystään vastaavaan aineistoon. Näitä työkalujen ensimmäisiä versioita testattiin jo NewsEye-projektin omassa kokoontumisessa  alkuviikosta, joten kehitys etenee sielläkin saralla.

Jussi-Pekka Hakkarainen paljasti tulevia suunnitelmia lehtiaineistojen tutkimuskäytön suhteen. Olemme saaneet tämän ensimmäisen pilotin aikana palautetta siitä, että miksi vain tietty tutkimusryhmä saa aineistot käyttöön, ja toinen naapurista ei, miksi vuosiraja on tietty, eikä jokin muu ja mitäs oikeastaan aineistoilla nyt sai tehdäkään?  Näihin kysymyksiin,  työnimellä Tutkain aloittanut neuvotteluprosessi pyrkii löytämään ratkaisuja hyvässä yhteistyössä tekijänoikeusjärjestön (eli lehtien oikeudenhaltijoiden) kanssa. Suunnitelmat ovat vielä hyvin alkuvaiheessaan, ja työ aivan alussa, joten kärsivällisyyttä ja positiivisia ajatuksia neuvottelijoiden suuntaan.

Varoitus: Alla oleva tulkinta esityksistä on kirjoittajan, esityksiä oli kuitenkin lukuisia, joten osa vivahteista on voinut jäädä huomaamatta, josta pahoittelut virheistä jo etukäteen. Ideoita tuli tulvimalla!

Sessio 1.

Historiallinen sanomalehtikirjasto on fantastinen!

Tarja Luukkanen toi mieleen ne kaikki tarinat, uutiset joita sanomalehtiainistosta löytyy. Kuinka esimerkiksi August Ahlqvist oli vuonna 1860 saanut suureelliset juhlat, ja sitten hautajaiset 1889 ja kuinka tämän jälkeinen sanomalehtikeskustelu nosti hänestä kansallista suurmiestä. Miten Topeliuksen tarina on luonut suomalaisen miehen prototyyppiä, jopa stereotyyppiä, josta ehkä ei vieläkään ole päästy täysin irti. Hienoa oli kuulla tällaisestä pitkäaikaisesta tutkimuksessa, jossa edetään systemaattisesti aineiston parissa!

Toiveina: lehtien “luokittelu”, eli mitä puoluekantaa lehdet olivat (esimerkiksi hyödyntäen Suomen sanomalehdistön historian -teossarjassa jo olevaa tätä tietoa),  lehden levikki ja agenda.

Lehdistössä julkaistuja paikalliskirjeitä kokoava Translocalis-tietokanta Heikki Kokko (Tampereen yliopisto):  kertoi kuinka aineistokoelmansa, joka on tehty digin perustoimintojen avulla on edennyt siihen vaiheeseen, että pallo heitetiin kohti Kansalliskirjastoa ja miettiä kuinka leiketoimintoa voisi hyödyntää eteenpäin. Lehtileikkeet ovat olleet yllättävä menestys ja hyvä tapa tutkijoille kerätä tutkimusaineistoa talteen.

Biografinen materiaali ja sen löytäminen Kaisa Kyläkoski, esitti  kiinnostava katsaus henkilöhistoriaan ja samalla sai kuvaa mitä kaikkea suositun bloginsa taustalla tapahtuu (lyhyesti sanoen). Hän on ollut palvelun parissa jo vuodesta 2004, joten matkan varrella hän on voinutkin havaita kuinka palvelu on hiljalleen muuttunut. Kaisalta taisikin tulla kiitos niinkin perustoiminnosta kuin hakutulosten järjestämistä kronologisesti, joka oli yhden hänen kirjaprojektinsa näin pelastanutkin. Hän oli myös konkreettisesti kokenut nimien löytämisen vaikeuden – kuinka tekstintunnistuksen virheet tai jopa välimerkit voivat haussa aiheuttaa yllätyksiä, mutta toisaalta myös uusia löytöjä.

”Maaseudun tulevaisuus on ihan loistava aineisto”

Digitoitu lehtiaineisto ja historiantutkimus: kokemuksia ja kehittämiskohteita Hannu Salmi (Turun yliopisto), kertoi useammastakin projektista joissa tutkimusryhmänsä on sanomalehtien kanssa työskentelemässä. Yksi näistä on tuttu Comhis, jossa Kansalliskirjastokin on mukana, tämän lisäksi kuulimme myös mannerten yli ulottuvusta tutkimuksesta nimeltään OceanicExchanges, jossa viedään tutkimusteemoja vielä laajemmalle, globaaleihin uutisiin ja niiden leviämiseen. Ovelaa oli se, että samanlaisten geeni, tekstipätkien etsinnässä pystytään osin kiertämään tekstintunnistuksen heikkoudet ja virheet, jolloin pystytään löytämään kuinka uutiset ovat siirtyneet lehdestä toiseen ja ajassa eteenpäin. Ovatko aikansa kirjoittajat arvanneet, että aika merkittävä määrä artikkeleita on ilmestynyt myöhemmissä lehdissä uudestaan, 10 , 20, 40, tai jopa 100 vuoden kuluttua?

Tässä puheessa tuli myös esille se, että on myös arvokasta, että joitakin lehtiä on olemassa koko julkaisuhistorialtaan – tällöin tiettyjä teemoja (esimerkiksi ilmastoon liittyviä) voidaan seurata systemaattisesti lehden sisällön kautta. Pääetenemä digitoinnissa menee vuosittain, ja yksittäisiä lehtiä on tehty digitointikumppanuuksina, joka on mahdollistanut näiden muutaman lehden osalta kattavan katsauksen – tällöin on luonnollista, että näihin harvinaisuuksiin, jotka ovat helposti käytettävissä koko julkaisuhistorialtaan, että ne saavat huomiota tutkijoilta.

Vaka, vanha mikrofilmi!

Päivän aikana tuli myös kiitosta mikrofilmeille – sekin on kuitenkin tapa välttää paperiseen originaaliin tarttumista, sivujen selailu kuitenkin onnistuu (ja aineiston talletus omalle tikulle) vaikka hakua ei olekaan. Mikrofilmit ovat kuitenkin kattavasti lehdille tehty, säilytystavoitteiden saavuttamiseksi. Eräälle kysyjälle korjaukseksi näin jälkikäteen, lehdet ovat Pohjoissalissa saatavilla vuoteen 1945 ja tätä tuoreemmat tulee tilata etukäteen. Syynä tähän, että tila on salissa kuitenkin rajattu, joten käytetyimmät lehdet löytyvät valmiina, eli joitakin lehtiä löytyy myös pidemmälle. Lista lehdistä  ja ohjeita mikrofilmien tilauksesta löytyy verkkosivultamme ja mikrofilmiskannerin käytöstä on myös ohjevideo.

Päivän pohdinta jatkuu seuraavassa blogikirjoituksessa…

DigiSuomi-seminaari 2019

DigiSuomi-tapahtuma järjestettiin 14-15.5.2019. Osallistuimme siihen ensi kertaa, kiinnostuneena kuulemaan muita asiantuntijoita, kuntien ja valtion virastojen muita tekijöitä, ja miten digitaalisuutta Suomesta kehitetään. Digitointi, digitaalisuus, digitaalisen tiedon hallinta ja sen rikastaminen on Digitaliaa lähellä, mutta tulipa seminaarissa myös tietojohtaminen aika ajoin eri tahoilta mainittuna.

Vertailupohjaa sai jo ensimmäisestä avauspuheenvuorosta, Euroopan innovaatisimmaksi pääkaupungiksi, valitun Ateenan CDO:n Konstantinos Champidiksen kertomus kuinka Ateenassa digitalisaatiolla saatiin tiukasta lähtötilanteesta, jossa sekä rahoitusongelmia, henkilöstövajeita ja vielä maahanmuuttokriisi, saatiin digitalisaatiolla tilannetta selkeämmäksi ja paremmaksi. Lähtötilanteessa Suomen digitaalisen teknologian integraatioindex on DTEI oli 79%  ja Kreikan 36%, josta kaupungin tilannetta alettiin kehittämään. Kolme perusolettamaa olivat: siirtymä älykkäistä kaupungeista digitaaliseen muutokseen, digitaalisuus ei ole väistettävissä vaan on välttämätöntä ja että on paljon kysymyksiä joihin vastauksia tarvitaan. Ratkaisuna nähtiin CDO-roolin luominen ja siihen panostaminen  Digital Council:n avulla (johon kuuluu kaupungin johtoa ja merkittävien yritysten pääjohtajat), ja Digitaalisuuden Tiekartta, jolla luotiin suunnitelma eteenpäin. Lopputuloksena oli akuuttien ongelmien nopea ratkaisu, Maker Space-konseptin tuominen, e-Frontdesk  – kansalaisten aktivointi eri tavoin ylipäätään. Näillä muutoksilla Ateena on päässyt parantamaan palveluja kaikille ja lopputulema olikin tuo edellä  mainittu palkinto innovatiivisuudesta.

Jarkko Moilanen muistutti rajapintojen ja alustapalvelujen tärkeydestä.

Suuret alustapalvelut ovat muualta kuin Euroopasta, joka asettaakin tänne haasteen kuinka eteenpäin – ratkaisuksi annettiin rajapinnat, joilla kumppanit, muut kehittäjät voivat jatkaa ja tehdä omia sovelluksiaan peruskäytön päälle.

Tähän  hieno jatko oli VM:n Maria Nikkilä, joka kertoi Suomen AuroraAI-hankkeesta osana esitystään, jossa kerrottiin kuinka tekoäly jalkautuu julkiselle sektorille. Tekoälyohjelman loppuraportissa olikin annettu yksitoista kokonaisuutta, jotka luovat raamit jatkolle

Tämä tuntuikin tutulta, yht’äkkiä, kuten Digitalia-projektissakin oli huomattukin, havaitsemme että ihan omassa projektissa ollaankin tekemässä kuvitusten luokittelua tekoälyä hyödyntäen  ja päädymmekin annotoinnin pulmiin, eli mistä saisi tarpeeksi digitaalista dataa, jotta tekoälyn opetusmallista saadaan tarpeeksi kattava ja monipuolinen. Tekoäly tulee hiljalleen, niin että emme huomaakaan :). Hyvä esimerkki tästä on 28.5. järjestettävä “Tekoäly tuli töihin” -seminaari, jossa katsotaan kuinka jo nyt tekoälyä kirjastotyössä käytetään, joko automaattisen kuvailun (ks. annif.org) tai muiden työkalujen tai menetelmien kautta.

Kiinnostava oli myös esitys Apotti-hankkeesta, joka on Etelä-Suomen sosiaali- ja terveysohjelmistojen kehityksistä varmasti merkittävin hanke pitkään aikaan. Kuulimme hallintamallista ja siitä kuinka hallintamallil itsessään kehittyi, projektin aikataulusta ja skenaarioista, mutta myös käytännön vinkeistä kuinka toimittajien kanssa voi kommunikointi olla vaikeaa , mutta minkälaisilla keinoilla siitäkin pääsee yli.

Yhteenvetona, kiinnostava tapahtuma, jossa oli myös uusia puhujia, joilla oli hyviä näkökulmia joko kuntien tai valtion roolista ja kenen pitäisi koordinoida ja ketä, joten toivottavasti keskustelu jatkuu eteenpäin. Oli myös kiinnostavaa keskustella muiden osallistujien kanssa ja kuulla hiukan epävirallisemmin millaisia haasteita esim. GDPR-vaatimukset ovat eri puolille tehneet.