#munkirjasto-kilpailu oli menestys!

Helsingin yliopiston kirjaston järjestämä #munkirjasto -kuvakilpailu sai suuren suosion.

Kirjaston Instagram– ja Twitter-tilille lähetettiin kymmeniä kuvia kirjastoelämästä opiskelijan silmin.

Arvonta on suoritettu ja voittaja julkaistaan piakkoin.

Muita kuvia voi katsella:

enjoygram.com/tag/munkirjasto

twitter.com/hashtag/munkirjasto

Yliopistorankingit – kevyttä hupia vai totista kilpailua?

Maailman yliopistot kilpailevat keskenään opiskelijoista, rahoituksesta, tutkimuksen herättämästä kiinnostuksesta ja arvostuksesta, kaiken kaikkiaan: keskinäisestä paremmuudesta. Yliopistorankingeja on julkaistu vuodesta 2003, ja ensimmäinen niistä oli Shanghai Jiao Tong University (SJTU) — Academic Ranking of World Universities (ARWU). Sen jälkeen on perustettu useita muita ranking-listoja, joissa painotetaan hiukan eri asioita. Eri listoilla myös Helsingin yliopisto on sijoittunut eri tasoille.

Prof. Arto Mustajoki on usean vuoden ajan perehtynyt monenlaisten työtehtäviensä kautta tutkimuksen arviointiin ja siinä yhteydessä kiinnostunut myös yliopistorankingeista. Bibliometriikkaverkoston tilaisuudessa 19.2.2014 kuulimme hänen ajatuksiaan ja kriittistäkin pohdintaa. Mitä rankingit kertovat? Miksi ne niin kiinnostavat?

Mitä ranking-listoja on tarjolla?

Tällä hetkellä ranking-listoja on useita. Niistä tunnetuimpia Shanghain listan lisäksi ovat Times Higher Education (2004-), QS World University Rankings (2010-), Taiwan Ranking (2007-), SCImago /Scopus (2009-) ja Leiden Ranking (2008-). Eri listoilla painotetaan eri asioita: Shanghain listalla Nobel-palkinnoilla on painoarvoa, samoin Nature- ja Science –lehdissä julkaistuilla artikkeleilla. Times Higher Education taas painottaa viittausten määrää, mutta myös tutkimuksen ja opetuksen maineella on merkitystä. QS pitää tärkeänä mm. kansainvälisten opiskelijoiden ja tutkijoiden osuutta, joskin myös Scopus-tietokantaan pohjautuvan viittausten määrän painoarvo on huomattava. Taiwan korostaa julkaisujen näkyvyyttä, ja mm. kahden vuoden h-indeksi on tässä erittäin tärkeä, mikä taas on niiden yliopistojen etu, joissa on luonnontieteitä ja lääketiedettä ja viittauksia alkaa kerääntyä nopeasti. SCImagossa on mukana myös tutkimuslaitoksia, ja niinpä kärjessä ovat Kiinan, Venäjän ja Ranskan tiedeakatemiat.

Helsingin yliopisto on koko maailman rankingeissä sijoittunut eri listoilla eri sijoille: Shanghain mukaan sijalle 76, THE:ssä sijalle 100, QS:ssa sijalle 69 ja Taiwanissa sijalle 64. Yliopiston tavoitteena on päästä maailman 50 parhaan yliopiston joukkoon – mutta millä listalla?

Ei yksiselitteistä

Mustajoki toi esiin ranking-listoissa esiintyviä ongelmia. Kaikki listat kattavat vain osan kriteereistä, yleensä pelkän tutkimuksen. Opetus ja yhteiskunnallinen vaikuttavuus yleensä unohdetaan kokonaan. Ranking-listat myös kattavat vain osan tieteenaloista. Joskus ne voivat olla tarkoitushakuisia ja aina ne heijastavat menneisyyttä ts. historiaa ja aikaisempia ansioita, ei tulevaisuutta. Tekniseltä näyttävät seikat, kuten tieteenalaluokitus, voivat vaikuttaa paljon lopputulokseen. Siitä esimerkkinä Mustajoki mainitsi korva- ja nielututkimuksen Tanskassa.

Joskus myös arvioitavien yliopistojen organisaatioissa tapahtuneet muutokset voivat vaikuttaa tuloksiin, kuten silloin kun henkilöstöryhmiä (opiskelijat, tutkijat) määritellä uudelleen.

Tieteenalojen erot ja tutkimuksen arviointi

Mustajoki pohti myös tutkimuksen arviointia laajemmin. Eri tieteenaloilla julkaisukulttuuri ja julkaisemisen tavat ovat erilaisia, kuten mm. yliopistomme tutkimuksen arvioinnin julkaisuanalyysit osoittivat. Joillakin aloilla kirjoitetaan pääasiassa englanninkielisiä vertaisarvioituja tieteellisiä artikkeleita, jolloin ne pääsevät kansainvälisiin viittaustietokantoihin ja tulevat sitä kautta näkyviksi. Toisilla aloilla tuotetaan pääasiassa kirjoja ja niitäkin monasti suomen kielellä, jolloin mahdollisuudet päästä viittaustietokantoihin ja siten tieto viittausten kerääntymisestä jää piiloon. Tosin jotain voi kertoa Google Scholar, joka sisältää monenkielisiä julkaisuja.

Mustajoki esitti kiinnostavan vertailun Suomen Akatemian muutaman humanistis-yhteiskuntatieteellisen alan huippututkijan saamista julkaisu- ja viittausmääristä Web of Science –tietokannassa ja Google Scholariin pohjautuvassa Publish or Perish –tietokannassa. Psykologian alan huippututkija Mikko Samsin julkaisuja ja niiden saamia viittauksia oli runsaasti sekä WoS:ssa että PoP:ssä. Sen sijaan pienemmän tieteenalan, papyrologian, kansainvälisesti arvostetun huippututkijan Jaakko Frösenin julkaisuja ei ollut lainkaan WoS:ssa, koska niitä lehtiä, joissa hän julkaisee, ei ole tuossa tietokannassa. PoP:ssa hänellä oli 50 julkaisua ja 73 viittausta; ala on pieni, tutkijoita vähän ja viittauskulttuurikin erilainen kuin psykologiassa.

Rankingien ongelmia

Mustajoki toi esiin Ranking-listojen ongelmia. On havaittu, että jotkut lehdet pyrkivät manipuloimaan omia impaktejaan eli vaikuttavuuskertoimia. Yliopistot ovat tieteenaloiltaan ja tavoitteiltaan erilaisia, mutta erilaiset tavoitteet eivät heijastu rankingeissä. Ranking-listat voivat väärällä tavalla homogenisoida yliopistojen tavoitteita. Lisäksi jos yliopisto pyrkii menestykseen rankingeissä, se saattaa edellyttää yliopiston strategiasta poikkeavia toimia. Näitä ovat mm. nobelistien ”ostaminen” yliopistoon tai pyrkiminen julkaista erityisesti Science – ja Nature –lehdissä.

Rankingien mukanaan tuoma kilpailu voi vaikuttaa mm. niin, että suuret kysymykset jäävät tutkimatta, kun täytyy ”tehtailla” artikkeleita. Julkaisukäytännöt yksipuolistuvat, jos kerätään tietoisesti pisteitä. Kilpailu lisää vilpin riskiä. Myös Open Science -ajatus tiedon ja datan jakamisesta vaarantuu kilpailun vuoksi. Lisäksi on mahdollista, että syntyy ”tieteenalaklikkejä”: tutkijat kirjoittelevat toisilleen artikkeleita, joihin voi olla paljon viittauksia, mutta tiede ei varsinaisesti etene.

Miten rankingeihin tulisi suhtautua?

Ranking-listoja lukevat yliopistoväen lisäksi median edustajat. TV:n uutislähetyksissä on jo kerrottu yliopistojen sijoittumisesta eri listoilla, ja Helsingin Sanomat tekee näkyviä juttuja uusien yliopistorankingien ilmestyttyä. Ranking-listoja on kiinnostavaa seurata, mutta niihin ei ehkä kannattaisi suhtautua liian vakavasti. Kuten Arto Mustajoen erinomaisesta esityksestä saatoimme todeta, rankingeja on monenlaisia ja eri kriteerit vaikuttavat niissä eri lailla.

Myös OKM:n uusi rahoitusmalli on nyt esitelty tiedeyhteisölle. Siinäkin on ehdotettu muutoksia aiempiin. Ehkäpä tieteessä ei kannata liikaa laskelmoida rahoitusmallien tai ranking-listojen vuoksi, vaan pyrkiä tekemään hyvää tutkimusta.

Arto Mustajoen julkaisuja yliopistorankingeistä ja tutkimuksen arvioinnista:

Tutkimuksen vaikuttavuus: mitä se on ja voidaanko sitä mitata? Tieteessä tapahtuu 6/2005, 33-37.

Yliopistojen rankingit – paljon melua tyhjästä? Tieteessä tapahtuu 8/2010, 20-29.

Henriikka Clarkeburn & Arto Mustajoki. Tutkijan arkipäivän etiikka. Vastapaino 2007.

Assessing Europe’s University-Based Research. Expert Group on Assessment of University-Based Research, 2010.

Measuring excellence in Social Sciences and Humanities: Limitations and opportunities. In Global university rankings, ed. by Tero Erkkilä. Palgrave MacMillan 2013, 147-165

Teksti:

Maria Forsman
Johtava tietoasiantuntija
Helsingin yliopiston kirjasto

Kuvat:

topuniversities.com
universitiesnews.com
visualizing.org