tiistai 19. tammikuuta 2010

Pitkäaikaistallennusta pätkä-IT:llä

Miten digitaalisia aineistoja voi saada säilymään, kun tietotekniikka muuttuu koko ajan eikä mihinkään voi luottaa?

Itse kullakin on tästä kokemuksia. Aikoinaan hävitin diplomityöni kovalevyltä, kun saadessani uuden kovalevyn tietokoneeseeni alustin vanhan enkä sitä uutta joka piti. (Kovalevyt olivat lähes samanlaisia tyyppinimeltään.)

Onneksi dokumentit löytyivät disketiltä, jonne ne olin sattumalta kopioinut. Mutta nykyään en pysty diplomityötä enää avaamaan, sillä kirjoitin sen Microsoft Word 5.0:lla, jota modernimpi MS Office ei osaa avata. Muilla ohjelmistoilla avattaessa tulee dokumentin fonteista puuroa matemaattisten kaavojen ja muun perustekstistä poikkeavan notaation osalta.

* * *

Opetusministeriön hallinnonalan tietohallintostrategiassa 2006–2015 todetaan, että tarkastelujaksolla edellytetään linjauksia pitkäaikaistallennuksessa ja sähköisessä arkistoinnissa. Mutta mitä tämä tarkkaan ottaen tarkoittaa?

Otetaan esimerkiksi opinnäytteen kaltainen dokumentti. Pystytäänkö se avaamaan viiden tai 25 vuoden kuluttua? Entä miten se saadaan luotettavasti kopioitua tallennusvälineeltä toiselle? Ja voidaanko se löytää muiden dokumenttien joukosta kun muistikuvat tallennuspaikasta ja dokumentin nimestä haalistuvat? Ja entä kuka ratkaisee, mikä dokumentti kannattaa tallentaa ja mikä ei?

Kansalliskirjasto (yhtenä esimerkkinä) on ilmaissut huolensa digitalisoitumisen mukanaan tulevasta haasteesta vuosia sitten. Suomessa ollaan nyt saamassa aikaan pysyviä rakenteita, mutta niiden rahoitus ja toimintakyky pitää varmistaa. Ja ennen kaikkea pitää pystyä varmistamaan, että pitkäaikaistallennuksessa olennainen pitkäaikaisuus saadaan sovitettua yhteen tietoteknisten realiteettien – kuten lyhytaikaisuuden – kanssa.

* * *

Miten hoidetaan digitaalisen aineiston pitkäaikaistallennus?

Standardointi on merkittävä pitkäaikaistallennuksen osa-alue, mutta ikävä kyllä standardi on vasta edellytys, ei ratkaisu pitkäaikaistallennuksen hoitamiselle. Ja standardi aiheuttaa omia ongelmia, koska se väistämättä rajaa pois joitakin lähdeaineiston ominaisuuksia, ei mukaudu nopeasti uusiin tarpeisiin ja voi olla monitulkintainen siinä vaiheessa kun pitäisi käsitellä isoa määrää reaalimaailman dataa.

Open access -periaate on merkittävä tekijä pitkäaikaistallennuksessa. Mitä enemmän aineistoihin liittyy käyttöoikeuksia ja rajoituksia, sitä enemmän joudutaan tekemään työtä sopimusten ylläpitämisessä ja päivittämisessä. Organisaatiot muuttuvat, lainsäädäntö muuttuu, ihmiset vaihtavat työpaikkaa (ja hiippakuntaa). Käyttöoikeuksien selvittelystä voi pahimmassa tapauksessa tulla soppa, joka työllistää liudan toimistohenkilökuntaa ja lakimiehiä.

Kehitteillä on ohjelmistoja, joiden luvataan tarjoavan mahdollisuudet pitkäaikaissäilytykseen, mutta tässä yhteydessä kannattaa miettiä ohjelmistojen elinkaaria. Onko ratkaisua lupaava ohjelmisto käyttökelpoinen tai tuettu enää viiden tai kymmenen vuoden kuluttua?

Ratkaisua haettaessa kannattaa huomioida myös organisaatioiden elinkaaret. Ajatellaan vaikkapa IT-firmojen kohtaloa viime vuosina. Ratkaisujen tarjoajat tulevat ja menevät.

Aikoinaan oli firma nimeltä KT-Tietokeskus, josta tuli Novo Group, josta tuli WM-data, josta tuli Logica CMG. Mikä lienee tilanne taas vuoden-parin kuluttua? Ja tämä oli vain yksi tyypillinen esimerkki.

* * *

Tähän loppuun pitäisi keksiä viisasta sanottavaa. Mutta koska en asiasta paljon ymmärrä ja se vähäkin herättää lähinnä kysymyksiä, jääköön viisauden esittäminen lukijalle. Osaatko auttaa pitkäaikaistallennuksen ongelmien ratkaisemisessa? Onko IT:n aikakaudella mahdollista säilyttää tietoa luotettavasti pidempään kuin muutamia vuosia?

* * *

PS. Tärkeä juttu: jos et ole vielä auttanut Haitin maanjäristyksen uhreja, tee se nyt.

Ei kommentteja: