ETD 2007 (3): Tieteellisen julkaisemisen tulevaisuus

[Tämä merkintä liittyy Uppsalassa 13.-16.6.2007 järjestettyyn opinnäytteiden verkkojulkaisemista käsittelleeseen ETD 2007 -konferenssiin, ks. myös ensimmäinen merkintä]

Irti paperijulkaisemisen kaavoista

Torstain keynote speaker, kemian tutkija ja Cambridgen yliopiston lehtori Peter Murray-Rust kritisoi PDF:ää tallennusformaattina, ja samaan aiheeseen palattiin myös sekä saman iltapäivän käytettävyyteen paneutuneessa paneelikeskustelussa että seuraavan päivän tutkimusaineistoja käsitelleessä paneelikeskustelussa.

Adoben jo 1990-luvun alkupuolella lanseeraama PDF on hyväksytty opinnäytejulkaisemisessa eräänlaiseksi väliaikaisratkaisuksi, josta vähitellen siirryttäisiin aidommin digitaalisen maailman ja datan hyödyntämisen ehdoilla toimiviin, esim. XML-pohjaisiin formaatteihin. PDF:n valtakausi on kuitenkin osoittautumassa paljon odotettua pidemmäksi, ja sen mukana tieteellinen julkaiseminen näyttää yhä jääneen yllättävän sitkeästi kiinni paperiaikakauden ajattelutapoihin ja toimintamalleihin.

Opinnäytteiden muokkaamista SGML- tai XML-formaatteihin on toki tehty myös käytännössä joissakin yliopistokirjastoissa, etenkin Saksassa ja Suomessa Oulun yliopistossa, mutta toiminnan vaatima tekninen osaaminen ja sen oletettu kalleus ovat kuitenkin pitäneet käytännön soveltajien määrän pienenä. Tällä hetkellä näyttää pikemminkin siltä, että muutoksen on lähdettävä tutkijoista ja tieteenalojen sisäisistä julkaisukäytännöistä, jolloin myös kunkin tieteenalan erityistarpeita voidaan ottaa paremmin huomioon kuin kirjastojen tekemissä väistämättä melko geneerisissä formaattimuunnoksissa.

Perjantain paneelikeskusteluun osallistunut tanskalainen biokemisti Lars Juhl Jensen kertoi esimerkkejä siitä, miten konservatiivisia useimmat perinteiset tieteelliset lehdet ovat. Niiden editorit suhtautuvat yleensä nihkeästi pieniinkin julkaisemisen käytäntöjä tai tallennusformaatteja koskeviin muutoksiin.

Coalition for Networked Informationin johtaja Clifford Lynch jatkoi samasta teemasta perjantaina konferenssin päätössanoissa. Hänen mukaansa olemme tulossa pisteeseen, jossa monet perinteiset tieteellisen julkaisemisen käytännöt alkavat murtua. Perinteisissä lehdissä julkaistavien artikkelien kautta tapahtuva muodollinen akateeminen pätevöityminen näyttää vähitellen eriytyvän yhä kauemmaksi erilaisten uusien ja usein epämuodollisten väylien kautta tapahtuvasta tieteellisestä kommunikaatiosta, jolla on itse tieteenteon kannalta yhä suurempi merkitys.

Tieteellisten artikkelien tulevaisuuden lisäksi Lynch nosti esiin myös kysymyksen tieteellisten monografioiden tulevaisuudesta. Monografioiden julkaiseminen ei ole kansainvälisellä tasolla enää taloudellisesti kannattavaa toimintaa, sillä myyntiluvut ovat yleensä melko pieniä. Käytännössä tämä tarkoittaa sitä, että esim. väitöskirjojen pohjalta muokattuja monografioita on yhä vaikeampi saada julkaistaviksi, etenkin jos ne käsittelevät suuren yleisön näkökulmasta marginaalisia aiheita.

Erityisesti humanistisella ja yhteiskuntatieteellisellä alalla monografioita pidetään kuitenkin edelleen tärkeänä asiana, ja niiden julkaisemista pyritään jatkamaan ongelmista huolimatta. Yhtenä mahdollisena tulevaisuuden mallina Lynch mainitsi American Historical Associationin Gutenberg-E-projektissa toteutettujen verkkokirjojen kaltaiset ratkaisut (Gutenberg-E:n taustasta ks. myös hanketta ideoimassa olleen kirjahistorioitsija Robert Darntonin haastattelu Ennen & Nyt –lehdessä 1/01). Suomalaisesta näkökulmasta on ehkä huomionarvoista, että Gutenberg-E:n julkaisut on muokattu nimenomaan valmiiden, hyväksyttyjen väitöskirjojen pohjalta: väitöskirjat sinällään ovat ainakin täällä Suomessa pysyneet formaatiltaan varsin konservatiivisina oppineisuuden osoituksina, joissa ei ole juuri uskallettu tehdä julkaisun muotoon liittyviä kokeiluita.

Lynch pohti myös julkaisujen ja dokumenttien rajojen merkitystä esim. interaktiivisuutta koskevien web 2.0 –henkisten toiveiden kannalta. Haluavatko kaikki tutkijat todella käydä loputtomia keskusteluita julkaisujensa sisällöstä? Jossain vaiheessa on kuitenkin hyvä saada työ loppuun ja siirtyä muiden aiheiden pariin. Lynch piti tärkeänä kysymyksenä myös sitä, missä kulkevat itse julkaisun ja siihen liittyvän taustamateriaalin väliset rajat.

Tutkimusdata ja julkaisuarkistot

Perjantain paneelikeskustelussa käsiteltiin erityisesti tutkimusdataa ja sen tallentamista, joka on ollut muutenkin ajankohtainen teema viime aikoina. Paneelikeskustelun osallistujat näyttivät pitävän laajoja alakohtaisia arkistoja ja tutkijoiden yhteistyössä tuottamia datapankkeja hajautettuja organisaatiokohtaisia julkaisuarkistoja mielekkäämpänä ratkaisuna. Kun oman alan data on saatavilla keskitetysti (ja mahdollisimman avoimesti) yhdestä paikasta, sitä on helpompi hyödyntää mm. tiedon louhintaan.

Datan määrän kasvu on luonnontieteissä huimaa: esim. biokemiassa kertyi pelkästään vuoden 2006 aikana enemmän uutta dataa kuin koko tieteenalan aiemman historian aikana yhteensä. Valtavien tietomassojen hallinnasta ja tutkijoiden välisestä datan jakamisesta onkin tullut tieteenalan keskeisiä menestystekijöitä. Tekijänoikeuslainsäädännön ja kustantajien kaupallisten intressien tiedon vapaalle hyödyntämiselle asettamista esteistä on kuitenkin edelleen paljon harmia.

Yleisön joukosta tulleessa kommentissa todettiin, että tutkijat haluavat päästä käsiksi nimenomaan suoraan dataan, eivätkä he ole niinkään kiinnostuneita sen pohjalta muodostetuista valmiista näkymistä tai jonkin ulkopuolisen tahon (lue: kirjastot?) tarjoamista käyttöliittymistä. Murray-Rust kritisoi myös DSpacen kaltaisten järjestelmien tapaa kätkeä data yksittäisinä palasina metadataa sisältävien sivujen taakse. Clifford Lynch huomautti, että kehitteillä oleva ORE-protokolla (joka mahdollistaa metadatan lisäksi myös julkaisuarkiston sisältämien dokumenttien haravoimisen) saattaa auttaa jossain määrin auttaa tähän ongelmaan.

Julkaisemisen työnjako

Clifford Lynch muisteli päätössanojensa yhteydessä 15 vuoden takaista tilannetta, jolloin yliopistojen IT-väki, kirjastot, yliopistopainot ja tiedekuntien edustajat kokoontuivat yhdessä miettimään digitaalisen maailman haasteita. Tuolloin kirjastot vielä empivät, uskaltavatko ne ottaa vastuuta elektronisten aineistojen säilyttämisestä.

Nykynäkökulmasta tarkasteltuna yliopistojen IT-palvelut ovat muuttuneet julkaisemisen kannalta lähes läpinäkyviksi, ja hyvä kysymys on myös se, miten kirjastojen rooli tulee kehittymään. Vaikka kirjastot ovat olleet etulinjassa opinnäytteiden julkaisemisessa ja myös julkaisuarkistojen perustamisessa, saattaa olla että laitosten ja yksittäisten tutkijoiden rooli kasvaa tulevaisuudessa. Esim. Murray-Rustin ja Jensenin esittelemien kemistien ja biokemistien käyttämien XML-pohjaisten merkintäjärjestelmien hyödyntäminen taitaa vaatia sellaista alakohtaista asiantuntemusta, ettei sitä useimmista kirjastoista löydy. Laitosten ja tiedekuntien henkilökunta pitäisi siis saada paremmin integroitua mukaan miettimään julkaisemisen ja julkaisupalveluiden kehittämistä.

Kansainvälisten alakohtaisten datapankkien perustaminen poikkeaa myös kirjastojen perinteisestä toimintaideasta nimenomaan omia paikallisasiakkaitaan palvelevana organisaationa. Toisaalta tämä liittyy suurempiin kirjastojen identiteettiä ja tulevaisuutta liittyviin kysymyksiin. Kuten klassillisen filologian tutkija Greg Crane totesi omassa torstaisessa keynote-esitelmässään, kirjastot ovat perinteisesti hankkineet muiden tuottamaa valmista ja sisällöltään pysyväksi oletettua aineistoa paikallisasiakkailleen. Digitaalisessa maailmassa tämä toimintamalli on joka tapauksessa jossain vaiheessa menneisyyttä, ja perinteisen paperimaailman tarpeita varten rakennetun kirjaston tilalle saatetaan tarvita kokonaan uudenlaista infrastruktuuria.

[Jatkuu seuraavassa merkinnässä]