Responsiivinen Gov.uk ja muuta suuntaa

Viime aikoina www-kehittäjien – ja varmaan vähän muidenkin – huulilla on jo jonkin aikaa pyörinyt muotitermi “mobile first”. Idea on se, että www-palvelut suunnitellaan valmiiksi mobiililaitteille, niiden selaimille ja käyttötavoille sopiviksi, vasta sitten perinteisille työasemille selaimineen.

Asiaan liittyy myös toinen termi eli “responsiivinen design”. Sillä puolestaan tarkoitetaan sitä, että palvelu muotoutuu käyttäjän päätelaitteen mukaisesti. Eli sama palvelu on käytettävissä oli edessäsi kannettava tietokone tai pieniruutuisempi älypuhelin.

Tekniikkana näissä on usein HTML5 ja CSS3.

Nyt tähän ruutuun on pistänyt pelimerkkinsä Britannian hallitus: https://www.gov.uk/ Tutustumisen arvoinen sivusto.

* * *

Kehitys vie siihen suuntaan, että yhä enemmän palveluita käytetään mobiilisti ja yhä enemmän luovutaan perinteisestä työasemakäytöstä. Samalla HTM5-tyyliset teknologiat yleistyvät ja hankalien erillisten appsien ja sovellusten tarve vähenee. Käyttäjän tarvitsemat palvelut tarjotaan suoraan verkosta, joko organisaation omista tai pilveen sijoitetuista alustoista.

Samalla päästään yhä syvemmälle käyttöjärjestelmä- ja selainriippumattomuuteen. Esimerkiksi HTM5:n tietoturvan osalta on vielä matkaa maaliin, mutta eipä se standardi vielä valmis olekaan.

Nämä ovat käyttäjän kannalta oivallisia kehityssuuntia, yhä vähemmän sovelluskohtaista säätämistä ja asentelemista ja yhä enemmän hallittuja palveluita. Infrastruktuurin puolella tämä kehityskaari tarkoittaa itse alustojen arkkitehtuuristen muutosten lisäksi ainakin kahteen tärkeään seikkaan huomion kiinnittämistä:

1) Verkkoyhteyksien oltava kunnossa ja saavutettavissa. Ilman verkkoa tämä palvelut toimivat enintään huonosti.

2) Käyttäjän identiteetinhallinnan on oltava kunnossa. Käyttäjällä itsellään on oltava kontrolli siihen mitä hänestä missäkin tiedetään. Monissa nykyisissä www-palveluissa tämä asia on pitkälti retuperällä.

* * *

Linkkejä aiheeseen:

27. NORDUnet konferenssi Oslossa 18.-20.9.2012

Høgskolen i Oslo

Konferenssipaikka

Vaikka Tiken matkaraportti on julkaistu Tietosetissä, pistän tähän omimista muistiinpanoista tehdyn laajemman tekstin tänne. Samalla poistin näkyvistä aiemmat sekavat muistiinpanot. Toivottavasti tästä saa vähän paremmin selvää.

Konferenssi oli siis 27. NORDUnetin konferenssi Oslossa 18.-20.9.2012. NORDUnet (http://www.nordu.net) on pohjoismainen tutkimuksen ja koulutuksen infrastruktuuri, joka ylläpitää myös pohjoismaista verkkoa.

Sen jäseninä on 5 pohjoismaista NREN:ä Islannista (RHnet), Norjasta (Uninett), Ruotsista (SUNET), Suomesta (Funet) ja Tanskasta (Forskningsnettet).

Avaussessio

HIOA:n (Høgskolen i Oslo og Akershus) varajohtajan avajaissanat hän itse tiivisti otsikon Strategic Campus Development Summary alle neljällä avainsanalla: Mobility, Collaboration, Flexibility, User Driven.

Roshene McCool puhui aiheesta “The Square Kilometre Array – The world’s largest radio telescope”. SKA (http://www.skatelescope.org/) on radioastronomiaan keskittyvä globaali projekti, ollut käynnissä vuodesta 2006. Tavoitteena on toteuttaa SKA kahdessa vaiheessa vuoteen 2024 mennessä. Observatorioiden sijainnit ovat Australiassa ja Etelä-Afrikassa. Näiden kahden paikan täytyy pelata yhteen myös tietoverkkojen tasolla ja dataa syntyy valtavasti.

Vaiheessa 1 on 250 lautasantennia. Ne sijoittuvat 100 km säteeltään olevan ympyrän alueella. Vaiheessa 2 antenneja on arviolta 3000. Verkko, jolla näitä ohjataan ja dataa kerätään täytyy siis rakentaa aavikolle. Tekeillä oleva teleskooppi ei toimi ilman optisiin kuituihin perustuvaa verkkoa. Laskentamäärät exaflopseja ja tallennettava datamäärä petatavuja.

NORDUnetin CEO René Buch kuvaili tulevia haasteita vuoteen 2020 lähinnä NRENien näkökulmasta. Tällainen NREN (National Research and Education Network) on Suomessa CSC (http://www.csc.fi). Buchin mukaan tutkimus ja opetus ovat muutoksessa ja korkea-asteen opinahjot, varsinkin Euroopassa, aliarvioivat ICT:n vaikutusta koulutukseen. Samaan aikaan opettajat ja opiskelijat kuitenkin adaptoivat uusia tietämyksen jakamisen menetelmiä. Korkeakouluopetus tulee yhä digitaalisemmaksi ja on jatkuvasti enemmän online. Tutkimus on samanlaisessa muutoksessa ja datan määrä kasvaa.

The Data Deluge 1

Sessiossa Bergenin yliopiston professori Koenraad De Smedt kertoi CLARIN-projektista, jossa kielitietelijät pyrkivät puruteumaan sotkuiseen ja vähemmän sturukturoituun dataan. Ja kieleen perustuvaa dataahan joka päivä syntyy valtavia määriä, sillä suuri osa ihmisen kommunikaatiosta perustuu kieleen. EU-rahoitteinen CLARIN-hanke (http://www.clarin.eu/) hallinnoi kielidataa ja palvelee ensisijassa humanistisia tieteitä ja erityisesti kielitieteitä. Suomesta hankkeessa on mukana HY:n nykykielten laitos ja tietotekniikkakeskus osallistuu erääseen pilottiin tukemalla federoitua eduGAIN-autentikointia.

Samassa sessiossa JIVE:n ( http://www.jive.nl/) johtaja Huib van Langevelde jatkoi taivaalle kurkottamista kertomalla millaisia datamääriä radiastronomit saavat aikaiseksi Very Long Baseline Interferometry (VLBI) -tekniikalla. Dataa liikkuu tulevaisuudessa tälläkin alueella enemmän, sillä esim. käytettävät kaistanleveydet ovat kasvussa ja kuvadatan määrä kasvaa kertaluokilla. uusi projekti tällä alueella on jo tekeillä: NEXPReS (http://www.nexpres.eu/). Suomesta näissä kuvioissa on mukana Metsähovin radio-observatorio.

The Data Deluge 2

Tanskan teknillisen yliopiston professori Søren Brunak puhui biologisen datan käsittelyyn liittyvistä työkaluista ja infrastruktuurista ELIXIR-hankkeessa (http://www.elixir-europe.org/). Tietoverkot ja kaistanleveydet eivät ole tavanneet näytellä sen suurempaa roolia biologiassa, mutta tämä on nyt muuttumassa. Bioinformatiikan rooli on kasvamassa ja se on keskeinen osa nykyaikaista biologiaa. Brunak kertoi erääksi haasteeksi sen, että vaikka tietokoneiden nopeus ja tallennuskapasiteetti tuplaantuu 18 kuukaudessa, DNA:n sekvenssidatan määrä tuplaantuu 6-8 kuukaudessa. Näin ollut viimeiset 3 vuotta ja kehitys näyttää jatkuvan ainakin tämän vuosikymmenen. Tällä sektorilla Datan määrä siis kasvaa rajusti lähivuosina, sillä datatyyppejä on runsaasti, datasettejä konvertoidaan yksilöllisiksi tiedoiksi ja tutkijayhteisö on varsin iso. Brunakin mukaan nk. open access on tällä tutkimuksen sektorilla tärkeä periaate.

CSC:n Ari Lukkarinen kertoi suuresta ja paikoin kaoottisesta datasta esitellessään EUDAT-hanketta (http://www.eudat.eu/). Lukkarisen mukaan tutkimusdatan määrä kasvaa voimakkaasti mm. mittaustekniikan parantuessa, prosessorien halvetessa ja analogisen konvertoinnin digitaaliseksi lisääntyessä. Lukkarinen muistutti siitä, että vaikka dataa tuleekin lisää, se menettää herkästi merkityksensä, jos siitä ei huolehdita kunnolla. EUDAT on luotu taklaamaan tätä haastetta,.

Norjalaisen UNINETTin Otto J Wittner kertoi luentojen videointisysteemistä. Luentoja taltioitaessa on syytä’ huomioida useampi tietolähde kerralla eli esimerkiksi salikamera, tietokone, jonkun palvelun tietokanta, luennolla käytetyt videopalvelut tai portaalit ja niin edelleen. Wittnerin mukaan luentojen taltioimisen määrä kasvaa kovaa vauhtia. Hän kertoi, että myös heillä on käytetty avoimen lähdekoodin Matterhorn- ja OpenCast-tuotteita. Jatkossa Norjassa aiotaan kokeilla esimerkiksi speech-to-text -teknologiaa.

Data Sharing Strategies

Hollantilaisen SURFnetin Alf Moenson puhui tietoturvasta hollantilaisissa yliopistoissa. Valtakunnallinen analyysi paljasti, että hollantilaiset yliopistot ovat hyvin vahoja fyysisessa tietoturvassa, mutta hyvin heikkoja toiminnan jatkuvuuden varmistamisessa ja turvallisuustietoisuudessa. Hollannissa on suomalaista CSC:tä vastaavan SURFnetin yhteyteen perustettu SURFAudit, joka on sikäläisen korkeakoulumaailman tietoturvaa ohjaava toiminto.

Ruotsin opetus- ja tutkimusministeriön Eva Stensköld puhui tutkimuksesta, avoimesta datasta ja sen saatavuudesta. Hän viittasi siihen, että periaate, jonka mukaan “julkisilla varoilla tuotetut aineistot pitäisi olla vapaasti saatavilla”, pitäisi olla helppo toteutta, vaan ei näytä olevan. Ongelmia tulee esimerkiksi lehtien julkaisupolitiikasta tai kaupallisten toimijoiden taloudellisista intresseistä. Tutkijayhteisöissä onkin ilmaantunut protestointia julkaisupolitiikkoja kohtaan (http://thecostofknowledge.com/). Tutkimusinstituutiot Ruotsissa ovat allekirjoittaneet Berliinin julistuksen: http://oa.mpg.de/berlin-prozess/berliner-erklarung/.

Stensköld kertoi Ruotsin valtion open access -politiikan uusista hankkeista, missä yhteydessä hän totesi Suomen pärjäävän tällä sektorilla hyvin toisin kuin Ruotsi. Suomessahan julkisia aineistoja on avattu konkreettisesti.

Keskiviikon plenary

Australialainen Geoff Huston puhui varsin elähdyttävästi ja valaisevilla esimerkeillä aiheesta One Protocol Good, Two Protocols ?

Aihe kosketti siis sitä, että olemme käyttäneet internetiä pitkään yhdellä protokollalla. Nyt se on muuttumassa, koska IPv4-numerot ovat loppumassa ja olemme ottamassa IPv6:sta käyttöön. Vaikka siirtymä uuteen versioon on ajankohtainen, maailma toimii kuitenkin vielä IPv6:lla.

On jo pitkään tiedetty, että näin käy. Nyt se on toteutumassa ja on aika siirtyä IPv6:een. Maailma kuitenkin toimii vielä IPv4:llä. Huston pohti esimerkein sitä mitä TCP-klientti tekee kahden pinon ympäristössä? Ja onko se hyvä asia.

Tavallisessa TCP-maailmassa vaihdetaan SYN/ACK-paketteja. Jos kaikki ei menekään kuten on ajateltu ja vastausta ei tulekaan, TCP yrttää lähettää uudelleen ja uudelleen. Esim. Windows yrittää 3 kertaa ja 19 sekuntia. FreeBSD 11 SYN-pakettia ja 75 sekuntia ennen kuin luovuttaa. Linux 189 sekuntia ja 6 SYN-pakettia. Aikaa siis kuluu siihen, että viestejä lähetellään yhä uudestaan ja uudestaan.

Miksi järjestelmät ovat hitaita reagoimaan virheisiin? Vanhaa tekniikkaa? Ei oikein muutakaan mahdollisuutta. Entäpä, jos olisikin Plan B? Kahden pinon TCP?

Voidaan suosia IPv6:n käyttöä (preferences) ja saada parempaa liikennettä. Se ei välttämättä aina onnistu. Voi aina palata takaisin IPv4:ään, mutta jälleen menee minuutteja ennen kuin systeemi pystyy tekemään päätöksiä.

Tunnelointi on Hustonin mukaan huonoin asia, minkä voi tehdä. Kyse tunneloinnissa on siis siitä, että käytetään IPv6:sta IPv4:n yli. Tilanne ei muutu sen kummemmaksi eli aikaa kuluu virheiden selvittelemisessä. Hustonin mukaan tarvitsemme parempia virheitä – We need better failures! Hän ihmetteli sitä, että pikosekuntien ja terabittien tietoverkkojen maailmassa me toteutamme strategiaa, joka käytännössä toimii minuuteissa.

Jos valitaan rinnakkainen strategia eli käytetää sekä IPv4:ää että IPv6 – eli multi-addressingia – asiat saattavat mennä vain pahemmaksi, kun jokaista osoitetta varten joudutaan odottelemaan kymmeniä sekunteja.

Hustonin esittelemien testien perusteella parhaat tulokset saadaan, kun käytetään IPv6:sta unicastina.

Lyhyesti sanottuna, jos käyttää natiivia IPv6:sta, se on yhtä nopea kuin IPv4. Jos tunneloi tms. tilanne voi mennä huonommaksi. Onko IPv6 sitten yhtä robusti kuin IPv4? Hustonin mukaan ei. Noin 2 % IPv6 yhteysyrityksistä kokee virheitä.

Session toinen puhuja, ICANN’s Root Server Systems Advisory Committeen jäsen ja vanhempi järjestelmäasiantuntija Lars-Johan Liman puhui siitä mitä “infrastruktuuri” tarkoittaa. Hänen pointtinsa oli se, että internetin merkitys infrastruktuurina ei ole itsestään selvä ja jotkut kenties hyötyisivät siitä, että asia ei olisi niin. Jos internet ajateltaisiinkin palveluna eikä infrastruktuurina, se vaikuttaisi kontrolliin eli siihen kuka saa päättää mistäkin. Hänen mukaansa internet toimii innovatiivisena yhteistyön alustana niin kauan kuin ihmiset voivat käyttää sitä kuten infrastruktuuria eli esimerkiksi nojaten sen avoimuuteen.

Campus Issues 1

Norjalaisen UNINETTin CTO Ingrid Melve kertoi videoiden käytöstä osana eCampus-konseptia. Pointtina on se, että videoiden määrä internetliikenteestä on kasvanut muuta liikennettä voimakkaammin ja kasvaa edelleen. Tätä tukee myös Ciscon arviot asiasta. Esityksen perusteella videopalvelut ovat yksi keskeinen osa kokonaisuutta, jossa oppimista voidaan tehdä useampaa aistia hyödyntäen ja 24/7-tyylillä. Opiskelijat kun käyttävät palveluita hyvinkin erilaisina kellonaikoina.

Melven kanssa samassa sessiossa puhui UNINETTin Jan Meijer erilaisista kommunikaatioteknologioista kuten Adobe Connectista, Lyncistä, SIP:stä, H323:sta jne. Hänen viestinsä erilaisista välineistä oli se, että niillä ei ole väliä niin kauan kuin ne työkalut ovat olemassa. Ihmiset myös muuttavat tapaansa tehdä töitä työvälineiden mukaan. Toisaalta hänen mukaansa ei ole olemassa yksittäistä sovellusta, joka ratkaisisi kaiken. Ei ainakaan vielä, ehkä muutaman vuoden päästä. Joka tapauksessa tulevaisuus näyttää olevan näiltä osin jossain määin hämärän peitossa. Yksi mielenkiintoinen avoimen koodin projekti on WebRTC: http://www.webrtc.org/

Identity

Brittiläisen Janetin Josh Howlett puhui luottamusverkostoista sekä siitä mitä niiden rakentamisessa on hyvä huomioida. Luotetun tiedon ja ehdotuksen välillä on epäuskon kuilu, joka pitäisi ylittää ja se on aina jollain tavalla riski. Orgasnisaatiot haluavat vähentää teknologioita, mutta samaan aikaan pitäisi tukea laajaa joukkoa erilaisia politiikkavaatimuksia. Yksi koko sopii kaikille -ratkaisua ei tähän ole. Samaa pulmaa ilmentää se, että organisaatiot ovat edelleen hierarkisia, mutta tämä hierarkia on tulossa käyttäjille yhä yhdentekevämmäksi. Tätä haastetta Janet on ratkaisemalla rakentamalla Moonshotin: https://community.ja.net/groups/moonshot. Sen pitäisi olla ensi vuoden alusta julkisessa beta-vaiheessa.

Session toinen puhuja oli SURFnetin Maarten Kremers ja hän puhui VOOT:n käytöstä tutkijoiden virtuaalisten organisaatioiden tukena. VOOT (Virtual Organization Orthogonal Technology, http://openvoot.org/voot-2.0.html) on keskitetty palvelu, jossa käyttäjiä voidaan liittää ryhmiin ja ottaa heidät sieltä pois. Näin vältetään se, että kun käyttäjiä menee ja tulee, niin heidät pitäisi poistaa jokaisesta ryhmätyövälineestä erikseen. VOOT-ryhmät ovat riippumattomia identiteettifederaatioista ja voidaan siten ottaa käyttöön organisaatiorajojen ylitse.

Session päätteeksi Uumajan yliopiston IT-arkkitehti Roland Hedberg ja UNINETTin tutkija Andreas Åkre Solberg puhuivat OpenID Connectista, joka on OpenID:n uusi versio. Tässä versiossa rakennetaan autentikointi ja sessionhallinta OAuth 2.0:n päälle ja tästä voi olla merkittävää hyötyä tulevaisuudessa federoitujen palveluiden toteuttamiselle. Hedberg on yhdessä Solbergin kanssa totettaneet automatisoiden testaus- ja verifiointi-infrastruktuurin OpenID Connect-toteutusten laadun selvittämiseksi: https://fed-lab.org/

Lightning Talkeista voi lisäksi nostaa esiin parit linkkivinkit:

Green IT

KAIST:n, Tsinghuan ja Keion yliopistojen professori Kilnam Chon totesi, että internetin käyttäjämäärät kasvavat kovaa vauhtia ja vuonna 2020 rikotaan 5 miljardin raja. Hänen mukaansa keskeinen kysymys on se, kuinka uudet ja nykyiset käyttäjät saavat verkon käyttöönsä ekologisesti kestävällä tavalla ja tavalla, jolla suojellaan ja rikastetaan paikallisia kulttuureja. Hänen pointtinsa on siinä miten internetin käyttäjien toimintamallit saadaan toimimaan enemmänkin kesätävällä tavalla ja miten ilmastonmuutos todellisuudesssa huomioidaan. Paikallinen kulttuuri on olennaista ja se voi tosiaankin vaatia sitä, että luovutaan liiketoimintavetoisesta kehittämisestä koska internet on keskeinen sosiaalinen infrastruktuuri. Jos tähän edelliseen ei usko niitä, niin Chon totesi myös datan, koulutuksen ja tutkimuksen avoimuuden olevan tärkeitä ekologisen internetin osia, jotka muutoksen saavat liikkeelle.

Session toisessa esityksessä irlantilaisen HEAnetin projektipäällikkö Andrew Mackarel kertoi GÉANTin parhaista käytännöistä vihreän IT:n saralla. GÉANT on julkaissut aiheesta julkaisun “DN 3.5.3 Study of Environmental Impact” (http://www.geant.net/Media_Centre/Media_Library/Pages/Deliverables.aspx). Mackarel korosti sitä, että pitää asettaa tavoitteita ja tarvitaan evaluaatioita ja auditointeja jotta asiat etenevät. IT:n vihreydessä on tyypillisesti kysymys energian käytön tehokkuudesta ja sille on olemassa mittarinsa eli PUE (Power Usage Effectiveness). Käytännön toimissa ei sinänsä ollut mitään uutta, palvelinten määrää on syytä vähentää virtualisoimalla ja yksittäisten palvelinten käyttöastetta nostamalla, lisäämällä videokonferenssien käyttöä, huomioimalla ympäristötekijät julkisissa hankinnoissa jne. Mackarel kehotti myös harkitsemaan NaaSia eli network as a service-konseptia tällainen on esimerkiksi OpenNaaS (http://www.opennaas.org)

Päätössessio

Yhdysvaltalaisen ESnetin Gregory Bell puhui aiheesta Network as Instrument: the View from Berkeley.

Energy Science Network – ESnet – pyörittää maailman suurina kokoelmaa tieteellisiä tutkimusyksiköitä (32 kappaletta). Sen piiriin kuuluu supertietokoneita, kiihdyttuimiä, röntgen- ja neutronilähteitä, elektronimikroskooppeja, sekvenssereitä ja niin edelleen. Organisaation piiristä on tullut yli 100 nobelia.

Berkeleyn tutkimuskulttuurin ominaispiirteisiin kuuluvat isot tiimit, isot kysymykset ja globaali vaikutus.

Tietoiikenteen kasvu on ollut käytännössä ekspotentiaalista (kts. slaidi nro 11 Unrelenting Growth in Traffic for >20 Years, sladit läytyvät myös em. linkin takaa: http://goo.gl/FlK35).

Hänen mukaansa menneessä ajattelutavassa on ajateltu tietoverkko infrastruktuurina ja tulevaisuudessa se pitää nähdä instrumenttina. Kuten Roshene McCool aiemmin totesi “tietoverkot ovat teleskoopin sydämessä”.

Bell totesi, että kun puhutaan globaaleista tutkimus- ja koulutusverkoista kaupalliset toimijat eivät aina halua tai pysty toimittamaan tarvittavia yhteyksiä. Toisaalta kyse on määrästä ja toisaalta laadusta.

Hänen mukaansa tämän pitäisi olle tietoliikenteen kultakautta, jos pystymme tekemään instrumentin laajemmin hyödylliseksi.

Voivatko kaikki tutkimusyhteisöt käyttää globaalia instrumenttia tehokkaasti hyväksi? Eipä aina. Bell kuvaili esimerkkiä ilmastotutkimukseen liittyneestä ehdotuksesta, jossa haluttiin tehdä 400 miljoonaa CPU-tuntia laskentaa. CPU ei ole tässä ongelma, mutta siirtäminen tuli pullonkaulaksi.

 

Lopuksi

Konferensissa 220 osallistujaa, 33 maasta. 27 maasta katsottiin videoita. Konferenssin aikaan yli 600 eri laitetta kiinni verkossa. 35 % näistä käytti IPv6-osoitteita.

Seuraava NORDUnetin konferenssi järjestetään vuonna syyskuun lopussa 2014 Ruotsissa.

Pilven reunoja

Pilvipalveluhypen pölyt ovat hiljalleen laskeutumassa ja arki alkamassa. Pilven tekninen ja kaupallinen konsepti on varsin ymmärrettävä ja luonnollinen, melkein voisi sanoa, että evoluution seuraava askel.

Tätä ajatusta voidaan kritisoida – aivan perustellusti – siitä, että kysehän on perusteiltaan vanhasta asiasta eli siitä, että hankitaan palveluita verkkoyhteyden päästä. Näinhän on tehty ainakin periaatteessa jo vuosikymmeniä, joskin erilaisella konseptilla ja hinnoittelumallilla.

Joskus kuulee kysyttävän, että mitkä ovat ne syyt, jota estävät pilvipalveluiden käyttämisen? Oikea vastaus tähän lienee se, että ei ole olemassa mitään yksittäistä estettä, vaan samaa harkintaa kuin silloin kun hankitaan IT-palvelua jostain. Harkintaa ihan siksi, että pilvipalvelumalli ei ole myöskään automaatti parempaan maailmaan.

Seuraavassa on muutama harkintaa vaativa seikka ja näkemys, joita on kerätty omista kokemuksista, seminaareista ja muiden asiantuntijoiden lausunnoista. Täydellinen lista ei ole, mutta avannee hieman asiaa.

Luottamusta vaaditaan

Pilvipalveluiden riskit ovat osin eri paikassa kuin perinteisessä IT-palveluiden tuotantomallissa. Niin on myös data.

Pilvet myös vuotavat tietoja, joten siinä missä omasta infrasta tapahtuvat tietojen vuotamiset voidaan hallita oman organisaation sisällä on pilvessa usein luotettava siihen, mitä palveluntarjoaja tekee tai sanoo. Tässä on tyypillisesti uskottava puheisiin ja papereihin, sillä asiakas ei pääse auditoimaan pilvitoimittajan tietoturvaa tai muutakaan toimintaa.

Luottamus konkretisoituu sopimuksissa. Miten tätä luottamusta sitten mitataan, jos se pitää tehdä peräämällä omia oikeuksia toisen EU-maan tai jonkin yhdysvaltalaisen osavaltion tuomioistuimessa?

Tietoturva pilvessä on vasta kehittymässä ja sekin perustuu pitkälti luottamukseen. Asiakas ei itse pääse auditoimaan toimittajan tietoturvaa tai muutakaan toimintaa. Kolmannen osapuolen audintointiraportteja on tyypillisesti mahdollista saada.

Pilvipalvelut ovat erilaisia myös monitoroinnin suhteen. Tietoturvan näkökulmasta katsottuna pilvistä saa joitain tietoja, mutta ei esimerkiksi kunnollista käyttäjäseurantaa.

Juridiikkaa riittää

Ongelmatilanteiden lisäksi juridiikka vaikuttaa pilvipalveluiden käytön arviointiin siten, että eri maissa on erilaisia säädöksiä siitä miten palveluita saadaan käyttää. Esimerkiksi joissain maissa saatetaan vaatia vaikkapa salasanojen liikuttamista tietyissä tilanteissa selväkielisenä, mikä ei esimerkiksi Suomessa tulisi kuuloonkaan. On siis syytä tietää minkä maan laki on kulloinkin voimassa.

Julkisten pilvipalveuiden oma haasteensa tulee tietojen yhdistelemisestä ja linkityksestä. Onko miten yhdentekevää miten hyvän profiilin esimerkikisi mainostilaa myyvä yritys käyttäjistä voi tai saa tehdä? Profiileista kun voi luoda varsin tarkkoja. Esimerkiksi tästä kelpaa Googlen yksityiskäyttäjilleen laatimista uusista käyttöhedoista, jotka sallivat yhtiölle laajat oikeudet yhdistellä tietoja toisiinsa.

Pilvissä tietojen yhdisteleminen on tehty erityisen helpoksi, sillä siellä käytetään yhtenäisiä tietomalleja (mikä toki on viisasta muutenkin).

Perinteisen heikko argumentti, jonka mukaan “sillä ei ole väliä, jos joku saa tietojani käsiini, koska minulla ei ole salattavaa”, ei toimi pilvipalveluidenkaan kohdalla. Jokaisella meistä on olemassa jotain tai asioioiden kokonaisuuksia, joita ei halua näyttää muille. Ja kysymys ei ole pelkästään siitä, mitä nyt tapahtuu, vaan myös siitä mitä tietoja kerääntyy vaikkapa vuosikymmenessä.

Jotta asia ei olisi ihan näin yksinkertainen, niin millainen on esimerkiksi yliopiston tai korkeakoulun vastuu esimerkiksi opiskelijoidensa tietojen vuotamisesta vuosien varrella pitkin maailman verkkoja? Käyttäjät kun eivät aina tiedosta tähän liittyviä ongelmia ennen kuin ne konkretisoituvat vaikkapa työnhakutilanteessa. Pitäisikö palvelun kylkeen liittää varoituksia savukeaskien tapaan?

Oman mausteensa tuo EU:n tietosuojadirektiivi, joka rajoittaa sitä mitä tietoja saa siirtää maanosasta toiseen. Pilvipalveluiden tarjoajilla on erilaisia ratkaisuja datan maantieteellisen sijainnin suhteen. Jotkut takaavat, että data pysyy EU-alueella ja jotkut eivät. Hajonta on varsin suurta. Usein unohdetaan käydä keskustelu siitä, onko pilvipalveluntarjoajalla ylläpitoa, joka toimii EU-alueen ulkopuolella, mutta pääsee käsiksi EU-alueella sijaitsevaan dataan.

Pilvet eivät ulkoista riskejä tai vastuita

Pilvipalvelu voi mennä nurin tai palvelu voi toimia väärin. Niin tietysti voi se omassa konesalissakin oleva palvelin. Kysymys on tässäkin siitä, miten riskit hallitaan ja vastuut jaetaan. Tyypillisesti pilvessä asiakas hankkii jotain ratkaisua palveluna ja vastaa itse sen käytöstä. Toimintaa ja vastuuta palvelun toiminnasta ei pilvipalveluiden kanssa automaattisesti ulkoisteta.

Yhdysvalloissa on voimassa Patriot Act (ja esimerkiksi Britanniassa jotain suunnilleen samanlaista). Sen nojalla yhdysvaltalaiset yhtiöt voivat joutua luovuttamaan tietoja viranomaisille, vaikka palvelu olisikin maan rajojen ulkopuolella kuten esimerkiksi Euroopassa. Yrityksillä ei edes ole välttämättä oikeutta kertoa asiakkailleen tietojen luovutuksista.

Tämä ei tietenkään tarkoita, että yritykset tietoja automaattisesti luovuttaisivat, mutta ei se tarkoita sitäkään etteikö niin voisi käydä.

Tietoturvakonsultit näyttävätkin suosittelevan sitä, että kaikki vähänkään arvokas tieto kryptataan kunnolla ennen kuin se siirretään pilveen.

Kaikkea ei pilvestä saa

Jotkut asiat organisaation on lähtökohtaisesti jollain tasolla hoidettava itse. Tällaisia ovat esimerkiksi indentiteetihallinta ja sovellusintegraatiot.

Pilvipalvelut tarjoavat näille rajapinnat ja luonnollisesti pilvestä saa identiteetinhallinnan palveluita tai integraatioalustaa. Olennaista on kuitenkin se, että käyttäjän on itse organisoitava asiat. Lisäksi nimenomaan indentiteetihallinnassa ja integraatioissa nousevat korostetusti esille erilaiset tietoturva- ja tietosuojavaatimukset.

Identiteettien hallinta on organisaatiolle kriittinen tekijä. Näin siksi, että siinä tunnetaan ja yhdistettynä pääsynhallintaan tunnistetaan käyttäjät. Kyse on siis organisaation tietoturvan kivijalasta ja murtuessaan voi aiheuttaa vakavan uhkan koko organisaatiolle.

Integraatioissa taas on kyse siitä, miten organisaation toimintaprosessit muutetaan tietotekniikaksi. Näitä on varsin harvoin mahdollista suoraan kopioida organisaatiosta toiseen. Tässä on siis kyse myös organisaation ydintoiminnasta.

Yksi asia, jonka toteutus pilvessä on harkittava tarkoin on tietojen varmistaminen. Kaikki pilvipalvelut eivät tee sitä sellaisessa muodossa kuin organisaatio sitä toivoisi tai tarvitsisi. Monin osin varmistaminen jätetään muutenkin tilaajan harteille esimerkiksi niin, että varmistuksen voi tilata erikseen eri paikasta.

Miten tiedot, jotka on tallennettu pilveen saadaan sieltä pois? Vastaus kysymykseen ei ole triviaali, vaikka se sellaiselta voikin kuulostaa. Käyttötapaukset, joissa tiedot pitää saada pois pilvestä voivat liittyä esimerkiksi siihen, että organisaatio haluaa vaihtaa pilvipalvelun tarjoajan toiseen. Kilpailu alalla on joka tapauksessa lisääntymässä.

Toinen esimerkki käyttötapauksesta voisi olla vaikkapa se, että organisaatioiden tärkeitä informaatioita pilveen tallentanut käyttäjä poistuu maisemista esimerkiksi kuolemantapauksen kautta. Nykyisellään pilvet eivät helpolla anna organisaation tietoja henkilön omiin nimiin tallentamia tietoja hänen organisaatiolleen.

Teknologiaa ei voi unohtaa

Kun organisaatio siirtää palveluitaan pilveen, on sen samalla myös sopeuduttava palvelutarjoajan teknologiaan ja sen kehityspolkuihin.

Tämä tulee esiin esimerkiksi siinä miten pilvessä tarjoaja omia alustojaan päivittää ja mitä ominaisuuksia sinne tuodaan missäkin vaiheessa.

Samalla pilvipalvelun tarjoaja voi edellyttää myös käyttäjien valitsevan ja käyttävän tietynlaista tai tietyntasoista tekniikkaa. Ilmiö, joka sekään ei ole oikeastaan uusi.

Pilvet eivät siis tuota aina yksinkertaisempaa teknologia-arkkitehtuuria.

Yhteenlaskua

Pilvipalveluiden hinnoittelu ja todelliset kustannukset eivät sekään ole aivan triviaali kysymys, vaikka palveluita tarjotaan “ilmaiseksi” tai esimerkiksi tuntihinnoittelulla. Jokin palvelu voi olla maksuton nyt, mutta kuinka kauan? Miten hinnoittelu ylipäätänsä muuttuu? Miten lasaketaan kaikki palveluun liittyvät kustannukset? Kysymykset ovat tietysti pitkälti samoja kuin missä tahansa palvelun tuottamisessa.

Jos edellä olevasta yrittää tehdä yhteenvetoa, voi todeta että pilvipalveluiden käytölle on koko joukko ehtoja ja rajauksia. Useimmat niistä organisaatiokohtaisia ja monet tekemällä hoidettavia.

Se mitä pilvipalvelut vaativat organisaatiolta, on vahvaa ymmärrystä omasta toiminnasta ja organisaation omasta kokonaisarkkitehtuurista.

 

Työasemalinuxin versio tarjouspyynnöissä

Pikainen havainto ja muistiinpano aiheesta työasemakäyttöjärjestelmät tarjouspyynnöissä.

Miten merkitään Linuxin työasemakäyttöjärjestelmän haluttu versio tarjouspyynnön vaatimusmäärittelyissä?

Jos kysymys kuulostaa tyhmältä, niin otetaan esimerkki.

Microsoft Windowsista voi käyttää esim. määritettä “Microsoft Windows XP SP 3 ja uudemmat” tai Mac OS:stä määritettä “Mac OS X 10.4 ja uudemmat”. Tällainen kuvaus antaa kohtuullisen selkeän kuvan siitä mitä vaaditaan.

Entäpä linux-työasemien kohdalla? Linuxilla ei suoraan ole mitään versiota, linuxia jaetaan useissa erilaisissa jakelupaketeissa. Paketteja on lukuisa joukko ja niiden kaikkien luetteleminen ei taas ole oikein perusteltua. Jos määritteen tekee ytimen (versiot kernel.org:ssa) mukaan (esim. “Linux (kernel-versiot 2.6 ja uudemmat)”) jätetään erilaisiin jakelupaketteihin ja työpöytäympäristöihin liittyvät asiat huomiotta.

Tietysti tästä problematiikasta päästään eroon, jos päästään käyttöjärjestelmäriippuvuudesta eroon ja pystytään tekemään sovellukseet esimerkiksi HTML5:llä mahdollisimman monelle selaimelle kerralla sopiviksi.

Ehkä sitten tulevaisuudessa.

Päivitys työasematilanteeseen

Kohta tulee kaksi vuotta täyteen ilman Windowsia työasemassa (käytössä Ubuntu Linux 10.10) ja toimintaympäristössä, jossa suurin osa muista käyttäjistä käyttää Windiows-työasemia ja sovelluksia.

Edelleenkään ei yhtään tehtävää ole jäänyt tekemättä Windows-softien puutteen vuoksi ja luulen, että tehokkuudessakaan ei erityisiä tappioita ole tullut, vaikka käytännön syistä jonkun verran enemmän täytyy konveroida materiaalia Open Officesta PDF-formaattiin, jotta sen voi jakaa muille.

Suurimmat haasteet ovat esiintyneet silloin käsittelee eräitä uudempia PowerPoint-tiedostoja (.pptx) Open Officella. Ne tuppaavat joskus menemään nk. rikki ruudulla, mutta säilyvät usein luettavana.

Yksi olennainen muutos on työskentely-ympäristöön tullut eli Windows 7 on asennettu VirtualBoxiin eli virtuaalikoneeseen. Sitä käytetään siksi, että saadaan Microsoft IE käyttöön, koska Service Desk ei suostu toimimaan kunnolla yhteen FireFoxin kanssa. Ilmeisesti kysymys on ko. järjestelmän version käyttöliittymistä ja ongelmat ilmeisesti olisi poistettavissa versiopäivityksellä.

Sitä odotellessa tuon VirtualBoxin availeminen on varsin pieniä vaiva.

Kokonaisuus on toistaiseksi yhä edelleen plussan puolella verrattuna XP-aikoihin. Virtuaalikoneessa Windows 7 vaikuttaa ihan vikkelältä yms., mutta toistaiseksi ei ole ilmaantunut tarvetta ajatella paluuta siihen maailmaan.

Jos tietotekniikkaa ajattelee, niin kehitys näyttää muutenkin menevän siihen suuntaan, että työt voi tehdä sillä järjestelmällä mikä on käytössä ja riippuvuus jostain nimenomaisesta käyttöjärjestelmästä työpöydällä vähenee vähenemistään. Ja niin sen pitääkin olla.

Vuosi ilman Windowsia

Nyt on kulunut vuosi siitä, kun tämän blogin kirjoittaja vaihtoi työasemansa käyttöjärjestelmän Windows XP:stä Ubuntuun.

Työasemalla tehdään töitä ympäristössä, jossa valtaosa kollegoista  ja muista toimijoista tekee työnsä Windows-pohjaisilla sovelluksilla, joten joitain haasteita saattoi odottaa ja myös ratkaisuja niihin.

Vuoden käyttökokemuksen jälkeen yhteenvetona voi havaita olennaisen eli yhtään asiaa ei ole jäänyt tekemättä eikä edes suurempiin pulmiin yhdessäkään asiassa ole jouduttu. Ohjelmistojen versiopäivitykset ovat parantaneet esimerkiksi OOXML-dokumenttien käsittelyä.

Ubuntun käyttö on ollut varsin miellyttävää ja nopeaa. Tukitarpeita ei ole ollut ja vain muutaman asian kohdalla käytännön tekeminen on hankalampaa kuin Windowsissa, mutta vastapainoksi aikaa säästyy useammassakin työvaiheessa.

Tänään, kuin juhlan kunniaksi, entisen työaseman korvaava läppäri Dell Latitude E4310 ilmestyi työpöydälle. Oletusasennuksena siinäkin oli Windows, mutta aiempien kokemusten perusteella siihen on nyt asennettu Ubuntu 10.10 ilman, että edes tarvitsi käydä Windowsissa. Aikaa Ubuntun asennukseen koneen saapumisesta Ubuntun ensimmäiseen boottiin kului reilusti alle tunti ja siitäkin suuri osa meni oikean version valintaan ja USB-tikun tekemiseen.

Ylipäätänsä maailma näyttää kehittyvän siihen suuntaan, ettei käyttöjärjestelmillä ole ratkaisevaa merkitystä itse työn tekemisen ja erilaisten palveluiden käyttämiselle. Vain hyvin harvat palvelut vaativat enää jotain tiettyä käyttöjärjestelmää, koska ne toteutetaan yhä useammin verkkosovelluksina ja verkosta käytettävinä.

Työnteon kannalta yksi poikkeus on olemassa ja sekin on suomalainen: Nokia. Nokia ei tarjoa Ovi Suitestaan tai PC Suitestaan Linux-versioita.

Kokemuksia Ubuntusta toimistokäytössä

Edellisessä postauksessa lokakuun lopussa tuli käsiteltyä sitä, miten Ubuntu 9.10 istuu tavalliseen toimistoläppäriin. Nyt voisi kirjata ylös muutaman käytännön kokemuksen asioista, jotka tavallisessa toimistotyössä on tullut vastaan.

Perustilanne on siis se, että valtaosa kollegoista ja yhteistyötahoista käyttää jotain Windows-työasemaa ja Microsoft Officea toimistopakettina, kun taas omassa koneessa on OpenOffice.org.

Yleinen huomio on se, että yksikään asia ei ole jäänyt tekemättä eikä yhtään varsinaista pahempaa pulmatilannetta ole tullut vastaan. Itse järjestelmä toimii nopeasti ja levytilaa vapautui kovalevyltä reippaasti. Pulmia ei siis oikeastaan ole esiintynyt. Joitain teknisiä tai toiminnallisia asioita kuitenkin

Seuraavassa muutamia sekalaisia huomioita:

  • FireFoxille piti asentaa Java-plugin erikseen ja se osoittautui pientä tekemistä vaativaksi, mutta onnistui ilman pulmia.
  • Virransäästötilassa oli oletuksena asetus “himmennä näyttöä” päällä, mikä automaattisesti himmensi välittömästi akkukäytössä läppärin näytön. Rasti pois asetuksista ja näyttö himmenee vasta valitun joutonolon jälkeen.
  • Tähän mennessä on tullut vastaan yksi Microsoft Word 2003-dokumentti, jossa on seassa WMF-grafiikkaa ei suostunut aukeamaan Openoffice.org 3.1:ssä, vaan kaatoi ohjelman. Syyt tähän on edelleen tuntematon.
  • Jotkut sovellukset vaativat ulkoasun asetuksista otetaan visuaaliset efektit pois kokonaan. Sinänsä nuo visuaaliset efektit ovat tarpeettomia ja syövät tekemiseltä tehokkuutta, joten ihan kaikkea ei tarvitsekaan käyttää. Jos haluaa itseään viihdyttää niillä, ne saa helposti päälle ja pois.
  • Sovelluksissa on usein toiminnallisuuksia, joissa vastataan ruudulla kysymyksiin Kyllä tai Peruuta. Ainakin joissakin sovelluksissa nämä vastausvaihtoehdot ovat eri järjestyksessä kuin Windows-pohjaisissa softissa, jolloin Peruuta on vasemmalla ja Kyllä oikealla. Tämä tuottaa aavistuksen verran opiskeltavaa näiden näyttöjen kanssa.
  • Yllättävän monella www-saitilla fontit eivät toimi kuten on ilmeisesti ajateltu, vaan FireFox näyttää oletusfontteja. Tämä ei ole tietenkään Ubuntu-spesifi asia, vaan usein saittien suunnitteluvirhe.
  • Fonttikokojen kanssa pelaamista on kohtalaisesti eri sovelluksissa. Säätäminen ei ole hankalaa, mutta sitä täytyy jonkun verran tehdä.
  • Euron merkki ei ole oletusarvoisesti entisellä paikallaan eli AltGr+5:ssä, vaan jossain muualla. Se piti käydä säätämässä erikseen asetuksista. Olisikohan tuohon mennyt 3 minuuttia kunnes oikea vipu asetuksista löytyi.
  • Jotain erilaisia käytäntöjä kuten esimerkiksi se, että FireFoxissa (versio 3.5.8) kun hiiren vie osoitekenttään, Windowsissa koko osoite aktivoituu, mutta linux-versiossa ei. Se ei tietysti ole bugi tai edes vika, vaan uuden oppimisen paikka tämäkin.
  • Tulostusten asetusten säätämisessä meni hetki aikaa, mutta ne vähäiset printtauksetkin saa tehtyä.
  • Työympäristön yksi ominaisuus on se, että Lotus Notesin käytöstä on nykytilanteessa hyötyä. Ubuntuun saa Notes-klientin (8.5), joskin sen käyttöönotto vaati hieman fiksaamista ja kirjastojen paikkaamista netistä kaivetuilla ohjeilla. Muutenkin nyt käytössä oleva versio on jonkun verran buginen, mutta ei niin paljoa että se haittaisi työntekoa.
  • Microsoft Word 2007-tiedostojen avaaminen  Notesista ei näytä onnistuvan eli Notes tarjoaa avattavaksi pakettia xml-tiedostoja. Kun dokkarin tallentaa kovalevylle ja siitä avaa OpenOffice.org:lla toiminnassa ei ole mitään ongelmaa. View-toiminnallisuudella dokkarit aukeavat kiltisti
  • OpenVPN vaatii komentorivikäyttöä. Kaikki muut työkäytössä olevat sovellukset saa käytettyä GNOMEsta hiirtä heiluttelemalla.
  • Pientä kikkailua työaseman pöydällä olevan telakan kanssa esiintyy silloin, jos esimerkiksi koneen pistää vain valmiustilaan ja sellaisena kytkee telakan kautta verkkoon. Jos koneen ajaa alas ennen telakasta irroittamista ja liittää sen telakkaan suljettuna, mitään murheita ei ole.  Ja edelleen käyttöönotto on varsin nopeaa.

OpenOffice.org:n (versio 3.1) heikoin lenkki näyttää olevan esitysgrafiikka Impress. Se toimii Microsoftin PowerPoint 2007:n .pptx-tiedostoformaatin kanssa yhteen normaalisti ihan kevollisesti, mutta esimerkiksi erilaisten graafien kanssa näyttää tulevan ongelmia. Tässä kohtaa on jonkin verran konversiopulmia tiedostoformaattien kanssa esiintynyt. Impress tuntuu muutenkin tahmealta verrattuna PowerPointiin.

Toisaalta OpenOffice.org:n .odp-tiedostomuotoa ei paljoa kannata kollegoille esityksiä varten lähetellä, joten tulee käytettyä valmiissa esityksissä PDF-formaattia tai sitten esitykset kovertoidaan .ppt-formaattiin. Tämä on ollut toimistokäytössä tähän mennessä kenties suurin keskustelunaihe ja sekään ei ole johtanut yhdenkään varsinaisen työtehtävän kompuroimiseen.

Sen sijaan esimerkiksi taulukkolaskennassa ja tekstinkäsittelyssä ei pulmia erilaisten dokumenttien kanssa yhteensopivuudessa ole ollut.

Nopeutta koneeseen on tullut lisää eli käynnistykset toimivat vauhdilla ja sovellusten avautumista ja latautumista ei tarvitse odotella. Samoin päivityspaketit tuntuvat tulevan usein. Päivityspakettien käsittely on helppoa ja ne asentuvat nopeasti paikalleen. Päivityspaketteja ei samaan tahtiin Windowsin kanssa ja kokokin on tyypillisesti pienempi.

Kokonaisuus käyttöjärjestelmän ja sovelluspakettien vaihtamisesta on selvästi positiivinen, sillä samalla raudalla erilaisten asioiden tekeminen on on aiempaa nopeampaa eikä kaatumisista tai järjestelmän jumittamisesta ole tietoakaan. Sovellukset toimivat pääasiassa luotettavasti (tähän mennessä on Rytmilaatikko-musiikkisoittimesta löytynyt yksi visuaalinen efekti, joka jostain syystä aina kaataa sovelluksen lennosta. Millä siis ei ole kokonaisuuden kannalta mitään merkitystä).

Ubuntussa on varsin hyvät perusvalmiudet toimistotyöskentelyyn jopa windowsvaltaisessa ympäristössä. Jos taas haluaa ottaa linuxin ominaisuuksia käyttöön komentoriviltä, niin sekin käy, mutta ei ole ensinkään välttämätöntä.

Ei ole siis tarpeen vaihtaa takaisin.

Operaatio Sudon paluu

Työpaikan työasemassa on käyttöjärjestelmänä Windows XP, vanha työjuhta. Nyt se kuitenkin väistyy ja tilalle asennetaan Ubuntu 9.10 eli eräs työasemiin tarkoitettu Linux-distribuutio.

Syitä vaihdokseen on oikeastaan parikin. XP on aikansa lapsi ja päivittäisessä käytössä se on oikeasti hidas. Pelkästään käynnistys kestää yli 10 minuuttia.
Toki XP:tä voisi virittää ja säätää, mutta arvio siihen vaadittavasta työmäärästä ja tuesta on sen verran reipas, että samalla vaivalla asentaa uuden. Kyse on siis ajan säästöstä.

Toinen syy on se, että ennakkoarvion mukaan Linuxin käyttäminen normaalissa toimistoympäristössä on aivan mahdollista. Oletettavasti parin harvemmin käytössä olevan ohjelmiston tiedostomuotojen kanssa tulee haasteita, mutta kaikki olennaiset työvälineet saa Linuxiin ja muiden lähettelemät tiedostot saa auki. Asiaa on siis kokeiltava todellisessa elämässä koska se on mahdollista.

Mitään Microsoft-vastaan-muu-maailma -tyylistä ideologiaa tässä ei ole takana. Käyttöjärjestelmät ja ohjelmistot ovat työvälineitä. Avoimen lähdekoodin sovellusten käyttämisessä on kuitenkin oma viisautensa, joten miksipä sitä ei siis tekisi.

Käynnistetään siis operaatio Sudon paluu.

Taustaksi sen verran, että työasema on kannettava kone Dell Latitude D630.

Vaihe 1. Varmuuskopiointi. Kaikki olennainen data on varmuuskopioitu työasemalta kahteen paikkaan. Tarkoitus on jyrätä kone kokonaan siten, että Windows XP-käyttöjärjestelmää ei jää enää lainkaan koneeseen, joten työtiedostot on syyt saada takaisinkin.

Vaihe 2. Hankitaan Ubuntu 9.10. Siitä on juuri julkaistu virallinen versio. Ladataan siis verkosta järjestelmän KarmicKoala-version sisältävä CD verkosta.

Vaihe 3. Poltetaan CD:n data rompulle. Yllättäen nopein paikka löytyi Ruotsista ja lataaminen kesti noin 3 minuuttia. Rompun polttaminen ottikin asetuksista johtuen noin 10 minuuttia, mutta ilman pulmia. Paketin koko oli 690 MB eli juuri ja juuri mahtui tavalliselle CD-RW-levylle.

Vaihe 4. Käynnistetään tietokone CD:ltä, mikä vaati hieman kikkailua, jotta koneen saa boottamaan rompulta. Koneen BIOS-asetuksista piti vaihtaa kone käynnistymään ensisijaisesti CD/DVD-asemalta.

Vaihe 5. Asennetaan Ubuntu. Aluksi Ubuntu käynnistyy
rompulta ja sitä voi testata asentamatta. Levyltä käyynistetystä versiosta voi käynnistää järjestelmän asennuksen. Asennuksessa järjestelmä kysyy muutamia kysymyksiä kuten aikavyöhykkeen ja kielen, jonka jälkeen softa hoitaa itse asian.

Vaihe 6. Toimintaympäristön viimeisteleminen. Ubuntu tarjoaa valmiiksi asennettuna perusohjelmistot kuten FireFox-selaimen tai OpenOffice.org-toimisto-ohjelmistot. Joitain lisäosia tarvitaan kuten Flash-lisäosa selaimeen. Lisäksi pari ohjelmistoa pitää asentaa, jotta kaikki palvelut saadaan pelaamaan.

Efektiivisesti itse järjestelmän asennus kesti varmuuskopioinnista  ja ohjelmiston lataamisesta järjestelmän ensimmäiseen omaan käynnistykseen kesti noin 1,5 tuntia.

Ensivaikutelma on se, että systeemi toimii nopeasti ja varmasti. Varsinaisten komeusten saaminen vaatii toki pitempää testaamista ja tarkastelua. Katsotaan nyt milloin ensimmäiset ongelmat ilmaantuvat. Jos ilmaantuvat.

TNC2009: Päivä 3, Virtual People

Rok Papež

Connecting Web and Kerberos single sign-on
http://tnc2009.terena.org/schedule/presentations/show.php?pres_id=56

Kerberos on tikettejä käyttävä SSO järjestelmä. Asiakas hankkii tiketin jonka yhteydessä tunnistautuu käyttäjätunnus-salasanaparilla. Session kesstäessä tunnistautuminen tapahtuu tiketin avulla.

Rok näytti videodemon jossa käyttäjä mennee Kerberoksella suojatulle palvelimelle. Demottiin myös komentoja kinit, klist, kgetcred, kdestroy, jotka ovat tikettien hallintaan tarkoitettuja komentoja.

Kerberoksen dokumentaatio ei ole parhaaasta päästä. Sillä on myös jonkin
verran historiaa tietoturvattomuuden kanssa. Kerberos ei myöskään sovellu hyvin autorisointiin, koska se ei tarjoa paljoakaan tietoa käyttäjästä.

Kerberos on lähinnä tunnistamiseen tarkotoitettu palvelu joka tunnistaa käyttäjän ohjelmstoille joissa ei itsessään ole tai joihin ei haluta liittää käyttäjän tunnistusta. Sitä voi käyttää sellaisenaan, mutta parhaimmillaan K on ehkä Shibboloethin kaltaisten ohjelmistojen kanssa.

Rok näytti toisenkin demon jossa näytettiin kirjautuminen Adobe connect Prohon ja Foodle palveluun jotka on suojattu Shibboleth SP:llä. Idp:nä toimii simpleSAMLphp IdP.

David Lutz

Applied Federation Technology: The Charging of Roaming Students
http://tnc2009.terena.org/schedule/presentations/show.php?pres_id=57

Käyttäjän, SP:n ja IdP:n lisäksi tavanomaiseen käyttöympäristöön voitaisiin lisästä PaymentProvider, joka ylläpitäisi tietoa käyttäjän ja kunkin resurssin maksuista.

Tietoturvaongelmat olisivat aika moninaiset. SAML protokolla kestää hyvin perinteiset hyökkäykset, mutta rahan käsittely tuo omanlaisia uhkatilanteita. Tällaisia ovat esimerkiksi Overspending ja data-tampering. Ensimmäisen suhteen on varauduttava siihen, että käytettyä Statementia maksusta ei voida käyttää useaan kertaan. Jälkimmäisen suhteen taas on varauduttava siihen, että maksuun käytettyä summa ei pidä voida muuttaa.

Tietoturva voidaan pitää yllä turvaamalla hardware. Käytössä pitäis olla privatekey jota ei voida muuttaa joka allekirjoittaa Statementin ja varmistaa sovelluksen siten että sitä ei voida muuttaa. Statementin käyttö useaan kertaan voidaan estää siten, että talletetaan Statementin lifetime ja ID ja Statement lähetetään vain jos vastaavaa ei vielä ole olemassa. Statementin muutokset huomataan koska hardware kontrolloi niitä.

Ville Tenhunen

Mobile Signature Services, Authentication and Profile Distribution
http://tnc2009.terena.org/schedule/presentations/show.php?pres_id=58

Ville kertoi taustaa ympäristöstä, missä esityksen aiheena ollut projekti oli toteutettu. Projektin tarjoituksena oli tutkia mobiilitunnistamisen (MSSP) mahdollista käyttöä Helsingin yliopistossa. Esitys jatkui suomalaisen mobiilitunnistusinfrastruktuurin ja tyypillisen tunnistustapahtuman esittelyllä.

Helsingin yliopisto on tehnyt yhteistyötä Methics Oyn kanssa. Yhteistyössä on
kehitetty mm. mahdollisuutta välittää tietoa käyttäjästä sitä tarvitsevalle
kolmannelle osapuolelle. Oleellista tällaisessa käyttötapauksessa on
käyttäjän suostumus.

Mobiilitunnistaminen vaikuttaa olevan teknologisesti toimiva ja käytettävä
menetelmä vahvaan tunnistamiseen.