Verkot pilveen ja vauhdilla

Digitalisoituvan liiketoiminnan vallankumous on tapahtunut monilla toimialoilla. Yksi jussi-kiurumerkittävä vaikutus on se, että se tuo samoja lainalaisuuksia liiketoimintaan lähtökohdiltaan hyvinkin erilaisilla toimialoilla kuten kuluttajien verkkokaupassa, tietoliikenteessä tai älykkään liikenteen ja liikkumisen ratkaisuissa. Kaikissa yhdistävänä tekijänä ovat globaalit palvelut ja palveluntarjoajat, eri päätelaitteiden kautta saatavat mobiilit palvelut, datan määrä ja edelleen jalostetun tiedon räjähtävä kasvu.

Uusi digitalinen infra kasvaa alasta riippumatta. Dataraaka-aines sekä siitä jalostettava tieto on monelle yritykselle jo nyt ja tulevaisuudessa yhä merkittävämpi osa taseesta ja arvonmuodostuksesta. Älyliikenteessä siirrytään bitumista bitteihin, IT- ja tietoliikennepuolella ohjelmistopohjaisiin ja laiteriippumattomampiin ratkaisuihin.  Liiketoiminnallisesti arvokkain osa infrasta muuntuu datasta tiedoksi ja laitteista ohjelmistoiksi.

Vaatimukset kapasiteetin joustavuudesta, sovellusten ja palveluiden käyttöönottonopeudesta kasvavat. Palveluiden skaalautuvuus ja joustavuus ovat tulevaisuudessa yksi kilpailukykyisen liiketoiminnan perusta. Nämä asiat on pystyttävä toteuttamaan liiketoimintojen lähtökohdista nopeasti syntyvien palvelu- ja sovellustarpeiden suhteen. Samaan aikaan pitää huomioida käyttöpalvelu -ICT:n puolella lisääntyvät säästöpaineet.

Yhteiskunnallinen valistuneisuus tietosuojasta ja tietoturvasta kasvaa. Tietojenkeruuprosessien saama julkisuus aiheuttaa yhä lisääntyviä läpinäkyvyys- ja vaikutusmahdollisuuksia.  Henkilökohtaisia oikeuksia omiin sähköisiin tietoihin lisätään ja toimijoiden välisten avointen rajapintojen syntymistä vauhditetaan. Näistä esimerkkeinä EU:n lainsäädäntöhankkeet GDPR (General Data Protection Regulation), joka lisää merkittävästi EU-kansalaisten oikeuksia sähköisiin tietoihinsa (ns. My data) sekä PSD2 (Payment Service Directive 2), joka säätelee pankkialan rajapintojen avaamista uuden liiketoiminnan mahdollistamiseksi.

Avoimuus, läpinäkyvyys ja mahdollisuus vaikuttavat omiin tietoihin sekä sellaisiin rajapintoihin, joista niitä jaetaan ja vaihdetaan, korostuvat. Digitalisaatio ja sitä koskeva lainsäädäntö edellyttää yrityksiltä kykyä tarjota tätä loppuasiakkailleen. Tiedon hallinnan, tiedon sijoittamisen ja luotettavan säilyttämisen mallit ovat yksi tulevaisuuden kilpailutekijä.

Tulevaisuuden verkossa on yhä saumattomammin pilveä ja vastaavasti pilvessä verkkoa. Tulevaisuuden verkko ei ole vain kapasiteettiä vaan palvelua. Se on nopeasti skaalautuva, hallittava ja läpinäkyvä. Datan sijainti, muokattavuus ja käyttöoikeustasot sekä niiden dynaamisuus ja muokattavuus ovat entistä keskeisempiä asioita. Tietoturvallinen yksityispilvipalvelu joustaa. Käytät ja hallinnoit sitä reaaliaikaisella näkyvyydellä kuin omaa konesalia. Kriittinen tietosi säilyy suojatusti ja tietoturvallisesti siellä missä sen halutaan olevan, vaikka suomalaisen peruskallion sisässä. Suora yhteys julkipilviin puolestaan korvaa perinteiset julkisen Internetin yli ajettavat ratkaisut. Nimensä mukaisesti se ei kulje julkisen Internetin ylitse missään kohdassa. Yhteys on tietoturvallinen, nopea ja tarjoaa kansainvälisen julkipilven reunan omaan verkkoosi

Jussi Kiuru – Sales Director – Cinia

Skaalautuvuutta ja joustavaa jatkokehitystä Microservice – arkkitehtuurilla

Moderneissa sovelluskehitysprojekteissa pyritään yleensä aluksi tuomaan markkinoille johansson joukomahdollisimman nopeasti MVP (Minimum Viable Product) -tuote. Sen laajuus on tiukasti rajattu ja sillä on tarkoitus selvittää vastaako tuote markkinoiden tarpeisiin ja onko tuotteelle kysyntää. MVP-projekteissa ei tyypillisesti vielä pohdita miten tuote jatkossa skaalautuu ja kuinka helppoa sitä on jatkokehittää.

Tuotekehityksen jatkuessa MVP:stä eteenpäin sovellukseen lisätään ominaisuuksia ja ajan myötä se kasvaa isommaksi. Pikkuhiljaa muodostuu laaja monoliittinen sovellus, jossa toiminnallisuus ja tuotteen eri osaset on nivottu tiukasti yhteen. Ison sovelluksen päivitys tulee ajan myötä vaikeammaksi, koska monoliittisessa järjestelmässä on hankala tunnistaa mihin kaikkeen uusi toiminnallisuus tulee vaikuttamaan.

Usein liiketoiminta jumiutuu tekemään päätöstä kahden vaihtoehdon välillä: Tyydytäänkö toimivan sovelluksen nykyisiin ominaisuuksiin vai tehdäänkö päivitys, jonka toimivuudesta ei pystytä antamaan takeita. Päivityksen ajan palvelu on kokonaan saavuttamattomissa. Ja mikäli ongelmien vuoksi joudutaan palauttamaan vanha versio, on taas tiedossa käyttökatkos. Kireässä kilpailutilanteessa tällainen päätös vaatii isoa riskinottokykyä liiketoiminnalta. Ja entäpä jos sovelluksen käyttökatko vaarantaa ihmishenkiä, kuten esimerkiksi terveydenhuollon puolella?

Mikropalveluarkkitehtuuri avuksi

Mikropalveluarkkitehtuuri (eng. Microservices) on alkujaan kehitetty vastakohdaksi monoliittisille järjestelmille vastaamaan jättimäisten web-palveluiden skaalautuvuushaasteisiin (esim. Netflix). Mikroarkkitehtuurimallissa monoliittinen sovellus pyritään jakamaan atomisiin pieniin tilattomiin palveluihin, joiden vastuulla on kullakin vain yksi sovelluksen rajattu toiminnallisuus ja jotka ovat toisistaan riippumattomia. Nämä pienet mikropalvelut kommunikoivat toistensa kanssa rajapintojen välityksellä.

Jos jokin järjestelmän yksittäinen palvelu kuormittuu ja muodostuu pullonkaulaksi, kehitystiimi voi keskittyä sen kapasiteetin parantamiseen. Kun suorituskykyä ei tarvitse virittää ja päivitystä testata koko järjestelmän vaan ainoastaan tarvittavan komponentin osalta, kehityssykli on nopeampi ja käyttökatkot lyhyempiä tai niiltä vältytään jopa täysin.

Jos mikroarkkitehtuuria sovelletaan IoT-järjestelmään, sen pääkomponentteja voisivat olla esimerkiksi datan vastaanotto, datan käsittely ja tallennus sekä raportointisivusto. Kun haluamme pilkkoa vielä nämäkin osiin, raportointisivuston komponentteja voisivat olla käyttäjienhallinta, käyttöliittymä, raportointi ja data-analytiikka. Jos palveluita pilkotaan vielä, päästään siihen, että meillä voi olla mikropalvelu, jonka vastuulla voi olla määrätyn laitetyypin käsittely. Tällöin mahdollistetaan se, että on kyvykkyys optimoida laitetyypeittäin toimintaa ja vanhentuneiden laitetyyppien poistuminen markkinoilta antaa mahdollisuuden säästää kustannuksissa määrän supistuessa eikä täten tarvita enää samaa kapasiteettiä kuin aikaisemmin.

Tämän jälkeen IoT-järjestelmää pystytään päivittämään siten, että muutos koskee vain pientä osaa, esimerkiksi kyseisen laitteen signaalien käsittely. Kaikki muut komponentit toimivat kuten aikaisemmin.

Mikropalveluarkkitehtuuria hyödyntävän ohjelmiston päivityksiin ei liity samanlaisia liiketoimintariskejä kuin monoliittisissa järjestelmissä. Sovelluskehitystiimi kykenee vastaamaan paremmin Time-to-market –haasteeseen ja tarjoamaan liiketoiminnalle enemmän dynaamisuutta markkinoiden tarpeisiin.

Skaalautuvuuden ja joustavan jatkokehitettävyyden lisäksi mikropalveluarkkitehtuuri mahdollistaa jo olemassa olevien mikropalveluiden uudelleen käyttämisen. Aikaa ja resursseja säästyy tuottavampien uusien ominaisuuksien kehittämiseen. Sillä ei kai kukaan enää tänä päivänä tarvitse useita erilaisia tapoja vaikkapa sähköpostin lähettämiseen sovelluksista tai käyttäjän rekisteröitymisen toteuttamiseen.

Jouko Johansson, Senior Software Specialist, Kilosoft Group Oy

Askellusta analytiikan hyödyntämiseen

Big datasta, data sciencestä ja analytiikasta puhutaan tällä hetkellä hyvin paljon. Tästä Kaj_Sihvohuolimatta näiden termien täsmällinen määrittely näyttää olevan jo hieman hankalampaa. Tämä onkin odotettavissa, kun ajatellaan aiheen ympärillä olevaa innostusta ja hypeä. Laajasti esillä olevaan aiheeseen löytyy monta näkökulmaa kommentoijasta riippuen.

Käsittelen tässä postauksessani aihetta käytännönläheisesti pyrkien kuvaamaan askelmerkit data-analytiikan hyödyntämiseen organisaatiossasi.

Yllämainituista termeistä varsinkin big data näyttäisi tarjoavan jokaiselle jotakin puhujasta ja hänen kulloisista tarpeistaan riippuen. Big data keskustelun pohjalla on teknisen kehityksen mahdollistama suhteellisen tuore mahdollisuus käsitellä ja tallentaa reaaliaikaista, suurivolyymista dataa, jota aiempaan verrattuna voidaan hakea myös yrityksen ulkopuolisista tietolähteistä (kuten sosiaalinen media, erilaiset avoimen datan lähteet, IoT -sensoridata, paikkatieto etc.). Kaikesta hypetyksestä huolimatta big dataan näyttää siis selvästi liittyvän uusi ominaisuus eli pyrkimys tarkastella ja ymmärtää omaa liiketoimintaa, asiakaskuntaa ja sidosryhmiä laajempien lasien läpi, joita nämä ulkoiset tiedonlähteet tarjoavat.  Aiemmin analytiikan keinoin saatu kuva on ollut tavallaan ”sisäänpäin kääntynyt”, koska analytiikan ja päätöksenteon pohjana on käytetty vain yrityksen sisällä kerättyä tietoa.

Määritelmien mukaan data science puolestaan vaatii harjoittajaltaan laaja-alaisen renesanssi-ihmisen ominaisuudet. Tarvetta on niin tekniselle kuin visuaalisellekin taituruudelle dataa analysoitaessa – unohtamatta tietenkään loppuvaiheen päätelmien perustelua päätöksentekijöille mieleenpainuvalla, henkilökohtaisella ja koskettavalla tarinankerronnalla. Kaiken tarvittavan osaamisen löytäminen yhdessä ja samassa henkilössä ei ole kovin todennäköisestä.  Tästä syystä analytiikkaa onkin hyvä ajatella lähtökohtaisesti tiimityönä.

Analyysin polttoaineena on yrityksen hallussa oleva data. Tallennuskapasiteetin halpeneminen on monessa yrityksessä mahdollistanut tilanteen, jossa dataa on voitu kerätä, vaikkei sille ole löydetty selkeää käyttöä. Dataa tuottava organisaatio ei välttämättä ole aivan selvillä siitä, mikä on kerätyn datan sisältö tai arvo ja lisäksi yrityksen sisäisen datan rikastaminen ulkoisista lähteistä saatavalla datalla voi avata uusia liiketoimintamahdollisuuksia. Onnistuneet esimerkit maailmalta saavat yhä useamman pohtimaan, voisiko olemassa olevasta datasta saada jotakin lisähyötyä irti analyysin keinoin.

Analytiikan ja datan suhde on tavallaan kaksisuuntainen. Toisaalta pyritään löytämään, ymmärtämään ja kommunikoimaan datasta löytyvät hienovaraisetkin vihjeet, jotka voisivat tukea organisaation päätöksentekoa tai avata uusia mahdollisuuksia. Toisaalta analyysissa saatetaan havaita puutteita tai tiedon heikkoa laatua, joka estää johtopäätösten teon. Analytiikka tarjoaa jälkimmäisessä tilanteessa ohjeita siihen, mitä dataa vanhan datan ohella tulisi kerätä tai kuinka olemassa olevan datan sisältöä tulisi kehittää tiedon laadun parantamiseksi.

Koko analytiikan lähtökohta on se, että asiakkaalla ylipäätään on liiketoimintaansa liittyvä kysymys, johon halutaan löytää vastaus kerättyä dataa tutkimalla. Analytiikkaratkaisun tarjoajalta vaaditaan asiakkaan toimintaympäristön hyvää tuntemusta, jotta tämä kysymys ymmärretään oikein.

Analytiikkasykliin sisältyy aina alkuvaiheessaan datan siivoaminen ja valmistelu analyysia varten. Vaikkakaan tämä vaihe ei tarjoa vielä mitään analyyttistä näkemystä dataan, se on välttämätöntä datan saattamiseksi sellaiseen muotoon, että sitä ylipäätään voidaan käsitellä. Tässä vaiheessa datasta mm. poistetaan virheellisiä tietoja sekä pyritään ymmärtämään datassa olevien parametrien merkitys liiketoiminnan kannalta.

Kuvailevassa eli deskriptiivisessä analyysissa dataan perehdytään tarkemmin mm. luokittelulla, parametrien ääriarvojen haulla tai etsimällä datassa mahdollisesti esiintyviä havaintoryppäitä.  Kuvailevassa analytiikassa pyritään ymmärtämään mitä on tapahtunut.

Tämä ensimmäisen vaiheen kuvaileva analyysi tarjoaa jo osalle yrityksistä hyödyllistä tietoa. Joillekin organisaatioille voi esimerkiksi organisaation palvelemien asiakkaiden määrä tai vikaraporttien jakauma vikojen suhteen olla toimintaa ohjaava uusi tieto. Tämä kiteyttää hyvin sen variaation, joka yritysten analytiikkatarpeissa ja -valmiuksissa on. Kuvailevassa analyysissa haetut perusmetriikat ovat vielä kaukana oppikirjojen menestystarinoista, mutta siitä huolimatta ne voivat olla tärkeitä analytiikkataipaleen ensi askelia ottavalle organisaatiolle.

Diagnostinen analytiikka pyrkii vastaamaan kysymykseen, miksi jokin asia tapahtui. Menetelminä tässä vaiheessa on mm. korrelaatioiden löytäminen ja datan yksityiskohtiin kaivautuminen tietokanta- tai visualisointityökalujen avulla. Tässä analytiikan vaiheessa saadaan selville datassa suoraan havaittavissa olevia keskinäisiä riippuvuuksia.

Ennustavassa analytiikassa käytetään edellisiä vaiheita raskaampaa tilastollista ja matemaattista koneistoa datan tulkinnassa. Siinä pyritään rakentamaan tilastollisia malleja tai hyödynnetään koneoppimisalgoritmeja, joiden perusteella pyritään löytämään datassa syvemmällä piilossa olevat yhteydet.

Mallit verifioidaan tai koneoppimisalgoritmit opetetaan lähtöaineistosta valitulla mahdollisimman edustavalla otoksella ja sen jälkeen mallin toimivuus testataan koko aineistolla. Mikäli mallit osoittautuvat testauksen perusteella toimiviksi, voidaan niitä käyttää ennustamaan tulevia tapahtumia.

Toimintaa ohjaava (preskriptiivinen) analytiikka pyrkii muokkaamaan yrityksen toimintaa aiempien analytiikkasyklien antamien vihjeiden pohjalta.  Tällaisesta analytiikasta ovat esimerkkeinä mm. räätälöidyt asiakaskohtaiset tuotesuosittelut ja -hinnoittelut, jotka perustuvat asiakkaan käytöstä ennustaviin malleihin. Toimintaa ohjaavassa analytiikassa ennustemallien antama informaatio on siis ”tuotteistettu” osaksi yrityksen liiketoimintaa. Analytiikan oppikirjaesimerkit edustavat usein tapauksia, joissa on menestyksellisesti hyödynnetty preskriptiivistä analytiikkaa. Toimintaa ohjaava analytiikka ei kuitenkaan ole mahdollista, jos sen perustana olevat aiemmat analytiikkavaiheet on jätetty tekemättä.

Analytiikan kannalta big dataan ei itse konkreettisen tekemisen tasolla sisälly läheskään niin paljon mystiikkaa kuin markkinointipuheiden perusteella voisi päätellä.  Viime vuosien aikana on big datan hyödyntämiseen kehitetty massiivisesti skaalautuvia hajautettuihin tietovarastoihin perustuvia tiedon tallennus- ja prosessointijärjestelmiä (mm. Hadoop) ja tähän hajautettuun ympäristöön soveltua analysointityökaluja (mm. Hive, Mahout), joilla analytiikkaa tehdään hajautetusti isommassa mittakaavassa kuin perinteisessä analytiikassa. Vaikkakin esimerkiksi datan määrässä mitattuna big data poikkeaa merkittävästi perinteisestä analytiikasta, niin itse datan analysointiin käytetyt mallit ja algoritmit kuitenkin pohjautuvat samoihin lainalaisuuksiin kuin pienemmänkin mittakaavan analytiikassa.

Analytiikkapartneria valittaessa kannattaakin kiinnittää huomiota siihen, että valitulla partnerilla on kyky ja halu nousta yhdessä asiakkaan kanssa analytiikan portaita pitkin niin ylös kuin tarve vaatii – olipa data suurta tai pientä.

Kaj Sihvo, Senior Software Developer, Kilosoft Group Oy

Building European competence: Smart Specialization and Datacenter Ecosystems

Europe is full of countries with different characteristics. In the South the climate is KimmoKoskiusually warmer, whereas in the North it is colder. It does not require much research to end up to this conclusion.

However, many other things also differ, such as scope and volume of major industries, available skills and competencies of people, focus and investment level for research and development, to name a few. When Europe intends to work together in various areas there are numerous possibilities to smart specialization – performing the activities in those parts of Europe where it is, in each case, most optimal.

In the ideal situation we can build an ecosystem around our mutual challenges, where several partners from all around the continent bring their strengths to the table and complement each other.

Let’s take a look at ICT activities as one example. Building a service might require applications, software tools, computing and data infrastructure to run the applications. Also needed are datacenters, where the infrastructure is located, and human skills to develop, deploy, maintain and market such services. Depending on the size of the activity all this might happen in one location – or be distributed to several sites.

Due to the ever growing requirements for ICT services, the number of large datacenters is growing – both in terms of number and size. Today, many of them use tens or even over hundreds of megawatts of electricity, making the electricity bill one of the most dominant element in their running costs. This makes people think how to optimize the energy consumption – not only due to cost but hopefully also because of environmental issues – and brings things like cool climate for free (outside air) cooling to the table.

Nordic countries have recently invested a lot in making the Nordic area attractive to the datacenter business. Various international companies have placed their datacenters in the Nordic region, namely in Finland, Sweden, Norway and Iceland. This is partly due to cool climate which enables energy savings, as the cooling of the datacenter can be done by simply ‘opening the windows’ instead of using electricity through cooling machines. However, the main reason relates to reasonable electricity prices – if electricity prices ever can be reasonable.

A simple calculation demonstrates some of the advantages:

  1. Use for example a 20 MW datacenter with measured average efficiency in CSC’s datacenter in Kajaani, Finland (PUE = Power Utilization Efficiency, which in Kajaani in 2015 was 1.03), and multiply the energy consumption with a typical Finnish electricity price, which is less than 60 EUR/MWh when exceeding 5 MW consumption.
  2. Compare this with electricity prices in Central or Southern Europe, which according to the European statistics could be for example 150 or 190 EUR/MWh. It naturally varies from country to country, and some might get better deals with electricity providers than others, but still the difference is huge. Not to mention that it is unlikely that you will reach a PUE close to 1.03 in a warmer climate.

After doing the math, you might end up saving for example 20 MEUR annually just from the electricity, by placing a 20 MW datacenter to Finland instead of somewhere else. (To be honest, I have to say that the similar benefits could probably be reached in our dear neighbor countries, too.)

In addition to lower costs, there are also other benefits. Many of our datacenters use renewable energy (for example hydro or biomass), the geographical and political conditions are stable, and at least in Finland, Sweden and Norway, fiber networks are efficient and you will find a lot of experienced people around.

I would also like to point out that Finland’s goal is not only to attract companies to place racks of computers in Finland, but to promote a whole ecosystem of activities around it, such as research, ICT services, development, manufacturing of datacenter equipment, cloud computing and platform for start-ups. This way the benefits through collaboration will go beyond from merely saving money. CSC itself is a company with a staff of 300, and it has a special task to support research and science. CSC has built its competence successfully during the last 45 years.

In the future, a Nordic location will become even more attractive. CINIA has just launched a new sea cable from Helsinki to Northern Germany, and a cable from northern Finland to Asia is being planned.

Smart specialization in European datacenters could provide opportunities closer collaboration between different players in ecosystem. Everyone could do what they can best. Placing the datacenters in remote locations does not limit having the competent people being spread all around Europe or involving different stakeholders from their own locations. Now we just have to take action!

Kimmo Koski
CEO
CSC – IT Center for Science

CSC – IT Centre for Science Ltd develops, integrates and offers globally recognized high quality IT specialist services for research, education, public administration and companies.
WWW.CSC.FI

Tuotekehitysjohtaja – tee korjausliike

Ohjelmistoasi on kehitetty jo useampien vuosien ajan. Olet saanut KimmoAlamartimo_02092015tuotekehitysvastuun perintönä edeltäjältäsi, joka loi pohjat itselleen tutuilla toteutusteknologioilla. Yrityksen kasvaessa taloon on rekrytoitu lisää ohjelmistokehittäjiä tuomaan täydentävää osaamista moderneihin teknologioihin. Tällä tavalla on vastattu matkan varrella eteen tulleisiin uusiin käyttäjätarpeisiin ja vaatimuksiin.

Valitettavasti samaan aikaan kun uusia ominaisuuksia on kehitetty vanhojen päälle, ohjelmisto on kasvanut eri suuntiin hallitsemattomasti kuin villiintynyt vadelmapensas. Ongelmia on alkanut tulla esiin siellä ja täällä. Jokainen tuotantoon vienti ahdistaa ja pelottaa – mitähän tällä kertaa menee rikki.

Osaavan tiimisi avulla pystyt pitämään homman hanskassa juuri ja juuri. Ongelmiin reagointi ja niiden korjaus hoituu riittävällä tasolla, etteivät asiakkaat hermostu ja äänestä jaloillaan. Jokaisen sammutetun tulipalon jälkeen olet helpottunut ja saat kiitosta johdolta, mutta et pääse pakoon mieltäsi kalvavaa ajatusta: Ei hommien näin pitäisi mennä.

Tiedät kyllä miten modernia ohjelmistokehitystä pitäisi tehdä. Olet sivistänyt itseäsi DevOps-menetelmistä ja -työkaluista, microservices arkkitehtuurista, automatisoidusta testauksesta ja jatkuvasta julkaisusta.

Tiedät myös, että tiimissäsi on ammattitaitoa ja kykyä paljon parempaan suoritukseen. Nyt he ovat kuitenkin uupumisen partaalla käyttäen osaamistaan aivan vääriin asioihin. Et edes uskalla ajatella millainen syöksykierre koittaisi, jos nämä kaverit päättäisivät nostaa kytkintä ja vaihtaa työpaikkaa.

Koet voimattomuutta tarttua asioihin, sillä kukaan ei oikein kunnolla tunne järjestelmän syövereitä, dokumentaatiota puuttuu ja aikaa/budjettia asioiden tutkimiseen ei yksinkertaisesti ole. Tuotannon täytyy pyöriä, jotta rahaa tulee taloon.

Kuulostaako tutulta? Esimerkkitapaus on fiktiivinen, mutta käsi sydämelle – olet varmasti joko kokenut vastaavaa tai ainakin kuullut tällaisesta kollegoiltasi.

Lohdutuksena voin todeta, että et ole ongelmasi kanssa yksin. Monissa yrityksissä ympäri maata painitaan samankaltaisten haasteiden parissa tälläkin hetkellä. Ja monet ovat onnistuneet menestyksellä vastaavia solmuja aukomaan.

Huono uutinen on se, että tapaukset ovat erilaisia ja harvoin löytyy sellaista täsmälääkettä, millä murheet taikaiskusta katoaisivat. Tilanteesta riippuen asiaa voi alkaa ratkomaan joko modernisaation keinoin tai laadunvarmistusta kehittämällä. Useimmiten nämä kulkevat käsi kädessä.

Paras tapa saattaa tuotekehitys takaisin oikeille raiteille on tukeutua osaavaan kumppaniin. Ulkopuoliset asiantuntijat pystyvät selvittämään asioita neutraalilla tavalla ja muodostamaan realistisen tilannekuvan sekä suunnitelman asioiden korjaamiseksi vaiheittain. He pystyvät myös haastamaan organisaatiossasi vallitsevia käsityksiä uusilla ideoilla, mikä samalla ruokkii oman tiimisi luovuutta ja sytyttää heissä uudelleen hiipuneen kehittämisen palon.

Valitse tueksesi sellainen kumppani, joka kykenee tarjoamaan osaamista laajasti sekä ohjelmistokehitykseen että testausprosessien kehittämiseen. Monipuolista kokemusta kartuttaneet arkkitehdit, testauspäälliköt ja muut asiantuntijat tarjoavat uuden elämän vanhalle järjestelmälle, tehostavat tiimisi tuotekehitystä sekä vähentävät ohjelmistoihin liittyviä riskejä.

Kirjoittaja on Kilosoft Oy:n myyntipäällikkö, Kimmo Alamartimo

Palvelumuotoilu käytännössä

Suomessa puhutaan paljon siitä miten yritykset pystyisivät tuomaan markkinoille uusia kuva_JukkaHornborg_ppinnovatiivisia tuotteita tai vielä mieluummin palveluita. Innovaatiot ovat tärkeitä maamme kilpailukyvyn parantamiseksi ja mahdollistavat osaltaan talouden nousuun kääntämisen.

Tunnustettu tosiseikka on, että uuden menestyvän tuotteen tai palvelun luomisessa keskeisintä ei ole ylivertainen tekninen ratkaisu. Tärkeämpää on tunnistaa mahdollisuuksia luoda lisäarvoa kaikille toimitusketjun jäsenille; ovat he sitten loppukäyttäjiä, palveluntarjoajia, jakelijoita tai teknologiatoimittajia.

Prosessille, jolla tätä lisäarvonluontimahdollisuuksien tunnistamista yritetään formalisoida, on vakiintunut termi palvelumuotoilu. Markkinoille on tullut palvelumuotoiluun erikoistuneita yrityksiä auttamaan perinteisiä yrityksiä ohjaamaan tuotekehitystään oikeaan suuntaan. Näin tuotekehittäjät pystyvät hyödyntämään muilla aloilla hyväksi havaittuja menetelmiä omassa liiketoimintaympäristössään.

Viime vuosina olen seurannut useiden suurten ja pienten yritysten toimia digitaalisten palveluiden luomiseksi. Olenpa ollut itsekin vetämässä tuotteistushankkeita ja hakemassa uusia tapoja luoda asiakkaille ja loppukäyttäjille lisäarvoa. Havaintojeni ja kokemusteni perusteella palvelumuotoilu on käytännössä hyvinkin suoraviivaista.

Näennäisestä yksinkertaisuudesta huolimatta tuntuu, että välillä tämänkin asian kanssa ”mopo karkaa käsistä”. Palvelumuotoilu -käsitteen alle ja ympärille on varsin innovatiivisesti alettu useiden palveluntarjoajien toimesta rakentamaan erilaisia menetelmiä, aliprosesseja ja vaiheita. Pahimmassa tapauksessa uutta palvelua suunnitteleva voi eksyä käsitemereen ja konkreettiset tarpeet jäävät liian kauas horisonttiin.

Palvelumuotoilu

 

 

 

 

On olemassa myös riski, että palvelumuotoilu palaveroidaan liian pitkälle ja liian teoreettiselle tasolle. Tällöin suunnitteluvaiheen kesto ja kustannukset voivat paisua liian suuriksi koko toteutettavan palvelun liiketoimintamahdollisuuksiin nähden. Pahimmillaan ajaudutaan tekemään useiden viikkojen käyttäjätutkimuksia ja kymmenien sivujen raportteja varsin yksinkertaisten verkkopalveluiden käytettävyydestä.

Palvelumuotoilu on hyvä työkalu. Uutta palvelua suunnitellessa ja liiketoimintahyötyjä hakiessa kannattaa silti muistaa, että se on vain yksi työkalu muiden joukossa ja sen käyttö tulee mitoittaa kokonaistarpeen mukaisesti.
Kilosoftilla ja Cinialla olemme ottaneet tähänkin asiaan käytännönläheisen ja ketterän lähestymistavan. Autamme asiakkaitamme palvelumuotoilussa; kuitenkin siten, että se rakentuu asiakkaan strategian ja liiketoimintaympäristön ehdoilla. Palvelumuotoiluvaiheessa tavoitteemme on, että pystymme tuottamaan asiakkaalle mahdollisimman pian konkreettisia prototyyppejä käytännön testejä ja palautteen kokoamista varten. Tavoiteaikaikkuna tälle on lyhimmillään kaksi viikkoa.

Graafi_palvelumuotoilu

 

 

 

 

Kannattaa myös pitää mielessä, että palvelumuotoilu on vasta alku varsinaiselle tuotekehitysprojektille. Tuotekehitystä tehdessä on syytä toimia ketterästi ja konkreettisin askelin. Tällekin prosessille käytännönläheinen ja oikein mitoitettu palvelumuotoiluvaihe luo hyvät edellytykset.

Kirjoittaja on Kilosoft Group Oy:n liiketoimintajohtaja Jukka Hornborg

 

Tietoturva Teollisen Internetin ratkaisuissa

Länsi- ja Sisä-Suomen aluehallintovirasto järjesti marraskuun alussa Tommi_HarakkamäkiKESKI15-valmiusharjoituksen. Minut kutsuttiin tilaisuuteen kertomaan Teollisen Internetin kyberturvallisuudesta. Puheenvuoroni tarkoitus oli kertoa mistä elementeistä ratkaisut koostuvat ja millaisia tietoturvahaasteita niihin liittyy.

Kysymys on äärimmäisen tärkeä, koska verkkoon kytkeytyvien laitteiden määrä kasvaa räjähdysmäisesti. Tulevina vuosina meidän kaikkien arkielämä tulee suoraan tai epäsuorasti nojaamaan järjestelmiin, joita tänä päivänä rakennetaan muun muassa jäte- ja vesihuoltoon, energia-alalle, terveydenhuoltoon, talotekniikkaan ja älyliikenteeseen.

Kun näihin yhteiskunnan, talouden ja infrastruktuurin toiminnan kannalta tärkeisiin järjestelmiin kohdistuu tietoturvaongelma, vaikutukset heijastuvat suoraan fyysiseen ympäristöömme ja päätyvät lehtien otsikoihin. Teollisiin järjestelmiin kohdistuvat hyökkäykset voivat aiheuttaa paitsi taloudellista vahinkoa myös arkielämän häiriintymistä tai jopa vaaratilanteita ihmisille. Luottamuksellisten tietojen vuodot julkiseen nettiin puolestaan nakertavat yleistä luottamusta tietojärjestelmiin, mikä on aivan keskeinen edellytys digitalisoituvan yhteiskunnan kehityksessä.

Tietoturva Teollisen Internetin eri tasoilla

Teollisen Internetin ratkaisut jakautuvat kolmeen tasoon: Fyysiseen ulottuvuuteen (koneet, laitteet, sensorit, esineet), sovelluskerrokseen (pilvi- tai palvelinratkaisut, web-käyttöliittymät ja mobiiliapplikaatiot) sekä nämä toisiinsa yhdistävään tietoliikennekerrokseen.

Sovellustasolla ja tietoliikenneverkoissa on pitkät, 80-luvun alkuun ulottuvat perinteet tietoturvan rakentamisessa. Sen sijaan fyysisellä tasolla koneet, laitteet ja esineet ovat kehittyneet Internet-aikakauteen valtavalla vauhdilla lyhyessä ajassa. Useissa yrityksissä ollaan vasta käynnistämässä hankkeita, joiden päämääränä on tuoda sensoreita ja älykkyyttä niin sanottuun ”tyhmään rautaan”.

Näissä hankkeissa törmätään nopeasti moniin tietoturvahaasteisiin.

Fyysisen tason sensorit ja ohjauslaitteet ovat tyypillisesti sulautettua ohjelmistoa sisältäviä laitteita, joilla on rajallinen prosessointikyky. Laitteiden tuotekehityksessä joudutaan sovittamaan yhteen paljon vaatimuksia esimerkiksi komponenttien hintaan ja saatavuuteen, olosuhteiden sietoon sekä virrankulutukseen liittyen.

Teollisen Internetin ominaisuudet ovat nopean kehitysvauhdin seurauksena useissa tapauksissa vanhoihin mittareihin ja sensoreihin päälle liimattuja lisäominaisuuksia. Laitteet saattavat sietää tärinää, pölyä ja pakkasta varsin kiitettävästi, mutta niiden kuormansieto- ja tietoturvaominaisuuksissa voi olla vakavia puutteita.

Jos laitteita ei ole alusta asti suunniteltu toimimaan verkottuneessa maailmassa, palvelunestohyökkäysten toteuttaminen niitä hyödyntäviin Teollisen Internetin järjestelmiin onnistuu kohtalaisen helposti.

Tietoturva vaatii ylläpitoa

Toisin kuin ohjelmistoissa, joissa ylläpito muodostaa merkittävän osan elinkaarikustannuksista, perinteisessä laite- ja automaatiotuotteiden kehityksessä ja ostoissa painotetaan fyysisten komponenttien hintaa. Esimerkiksi taloautomaatiota ostetaan pelkkänä ”rautana” siitäkin huolimatta, että ratkaisut sisältävät ohjelmistoja ja niiden suunniteltu elinkaari on pitkä.

Tietoturva on jatkuvaa kilpajuoksua, jossa uusia teknologioita, haavoittuvuuksia ja niitä paikkaavia korjauspaketteja julkaistaan jatkuvasti. Teollisen Internetin järjestelmiä kehitettäessä tulee ratkaista miten toimitettujen laitteiden ohjelmistot aiotaan pitää ajan tasalla. Ohjelmistot vaativat ylläpitoa, joten tietoturvariskit ja ylläpitokustannukset tulee huomioida järjestelmän koko suunnitellun elinkaaren osalta.

Tilannetta ei helpota se, että Teollisen Internetin ratkaisuja ovat usein kehittämässä yritysten automaatioinsinöörit, joilla on rajallinen osaaminen web-teknologioista eikä välttämättä lainkaan taustaa tietoturva-asioista.

Oman sivumakunsa soppaan tuovat automaatiotoimittajat, jotka ovat perinteisesti pyrkineet toimimaan suljetuissa ekosysteemeissä kukin omilla protokollillaan. Niiden tuoma turva on vain näennäistä ja piilottaa ongelmat laajalta tietoturvayhteisöltä ja tutkijoilta. Tulevaisuus on avoimissa rajapinnoissa ja teknologioissa, joihin nojaavat järjestelmät ovat helposti integroitavissa toisiinsa ja joiden haavoittuvuudet havaitaan herkemmin ja ne voidaan paikata nopeasti.

Kompromisseja ja konflikteja

Teollisen Internetin tietoturvaan liittyy muitakin haasteita, jotka voivat vaatia kompromisseja tai muutosvastarinnan murtamista.

Käytettävyyden ja tietoturvan vaatimukset ovat usein ristiriidassa. Esimerkiksi laitteiden etähallintaratkaisun kehityksessä tietoturvavaatimuksiin voidaan vastata osaksi käyttäjien vahvalla tunnistautumisella, mutta samaan aikaan järjestelmästä saatetaan vahingossa tehdä sen käyttäjille työskentelyä hankaloittava hidaste. Päivän selvää on, että ilman sitoutuneita käyttäjiä järjestelmien lisäarvo jää lunastamatta ja investoinnit valuvat lopulta hukkaan.

Organisaatioiden omat IT-osastot voivat suhtautua suorastaan vihamielisesti siihen, että Teollisen Internetin ratkaisuja tuodaan osaksi organisaation muuta tietoverkkoa. Syy on perusteltu ja ymmärrän täysin näkökannan, sillä huonosti suojattu laite verkossa voi muodostaa vaaran koko verkolle. Toisaalta tämän linjanvedon seurauksena Teollisen Internetin ratkaisut siirtyvät erillisten verkkojen päälle (mobiili, erillinen kiinteä yhteys) ja IT-osastot menettävät niihin täysin kontrollin, kyvyn auttaa ja suojata.

Muistilista tietoturvan huomioimiseen Teollisen Internetin ratkaisujen hankinnassa

Onnistuneet hankkeet lähtevät liikkeelle oikeanlaisen osaamisen kokoamisesta, olivatpa ne organisaatiosi omia työntekijöitä tai luottokumppaneita. Ratkaisujen tietoturvaa voit arvioida seuraavista näkökulmista:

  • Saatavuus. Kriittiset järjestelmät vaativat jatkuvuutta ja (usein) korkeaa saavutettavuutta. Tämä tarkoittaa mm. kuormansietoa ja toipumiskykyä poikkeustilanteista ja luotettavia tietoliikenneyhteyksiä.
  • Tietosuoja. Tieto, jolla on liiketoiminta-arvoa tai joka on arkaluontoista, vaatii suojausta ratkaisujen kaikilla tasoilla.
  • Ohjelmistopäivitykset. Pohdi miten ohjelmistopäivitykset pystytään hoitamaan ratkaisun eri tasoilla, myös fyysisen tason laitteissa. Tämä on sitä tärkeämpää mitä pidempi elinkaari laitteelle on suunniteltu. Varmista myös sopimuksellisesti, että päivityksiä tehdään ja saat ne käyttöösi.
  • Pääsynhallinta. Autentikointiin ja authorisointiin käytetään vaihtelevan laatuisia toteutustapoja. Tunnistautumisen tulee olla kunnossa myös laitetasolla erityisesti kun on kyse niiden ohjauksesta. Varmistu, että salasanat on mahdollista vaihtaa. Suosi yleisesti tunnettuja, hyviksi koettuja tapoja pääsynhallinnan rakentamiseen.

Kirjoittaja on Kilosoft Group Oy:n projektipäällikkö Tommi Harakkamäki. Hän työskentelee mm. Teollisen Internetin kehityshankkeissa eri toimialojen asiakkaita palvellen.