ITWatch

Klumme: God infrastruktur er vejen til datasucces

Data skal lagres, sorteres og analyseres korrekt for at skabe mest mulig værdi for en virksomhed. Tina Borgbjerg fra Lenovo giver her sine bedste råd til at få succes med netop de discipliner.

Foto: Thomas Tolstrup/Lenovo/PR

Virksomheder indsamler og gemmer data som aldrig før. Men de rå data tilfører i sig selv ikke værdi. Tværtimod medfører de store omkostninger til opbevaring og tilknyttet infrastruktur.

Skal de store mængder data skabe værdi, kræver det, at organisationer har styr på, hvordan de lagrer, sorterer og analyserer deres data. Det er faktisk helt afgørende.

Når det gælder opbevaring af data, kan det på papiret se enkelt ud: Enten foregår det lokalt i et datacenter, i skyen eller i en hybrid løsning. Valget har dog afgørende betydning for, i hvilken udstrækning virksomheder kan analysere og bruge data centralt og decentralt.

Data kan være kolde eller varme

Helt kort kan data opdeles i kolde og varme data. De kolde data bør lagres med det samme, og bliver sjældent brugt, hvorfor det giver mening at vælge en økonomisk fordelagtig løsning, hvor virksomheden får stor ydelse for hver investeret krone. Det kan eksempelvis være traditionelle block storage-systemer.

Varme data har i modsætning til de kolde brugsværdi her og nu. De kræver kraftigere og mere agile løsninger, som for eksempel den nyere NVMe-protokolteknologi. Det tillader, at dataene lynhurtigt kan flyttes til den eller de servere, der skal analysere og processere data.

For de fleste virksomheder er det altså en hybrid cloud-løsning, som giver bedst mening, fordi de råder over både kolde og varme data.

Samtidig har valget den afledte effekt, at kombinationen af flere lagringsformer giver en arkitektur, som egner sig godt til AI-understøttet analyse og behandling af store datamængder.

Sortér med kunstig intelligens

Kunstig intelligens er blevet et særdeles værdifuldt værktøj i forhold til at udnytte styrkerne ved hybrid cloud-løsninger til fulde. Teknologien gør det muligt at analysere og pre-sortere datasæt, så man ud fra en række kriterier sikrer, at de enkelte datasæt bliver lagret optimalt.

Udbuddet af datasorteringsløsninger med kunstig intelligens er stort. Alle løsninger har dog det til fælles, at de er specialiserede inden for netop behandling og analyse af store mængder data. Denne type open-source software er særdeles hardwarekrævende og stiller derfor store krav til særligt processorkraften.

Glem ikke databasen

Det sidste, virksomheder skal tage stilling til, er valget af databasesystem. På samme måde som med sorteringsprocessen er det her oplagt at gå efter intelligente løsninger, der får det optimale ud af de indsamlede data.

Kraftige værktøjer som SAP-løsninger er bredt anvendt, men for at få endnu mere ud af de indsamlede data, bør man kigge mod løsninger som automatisk administrerer og styrer datasystemer via kunstig intelligens.

Sådanne systemer kan automatisk opdage flaskehalse eller fejlkonfigurationer, og så både tjekker og opdaterer de firmware, når det er nødvendigt. Dermed optimerer virksomheden driften og aflaster virksomhedens it-ansvarlige.

Formår virksomheder at få styr på opbevaring, sortering og analysering, skaber de grobund for at få det maksimale ud af deres data.

Det sikrer nemlig balancen mellem pris, fleksibel adgang og muligheden for hurtigt at opnå indsigt på baggrund af dataanalyser. Det er helt enkelt vejen til at arbejde intelligent med data.

Klumme: Adgangskoden er det svageste led i et cyberangreb

Klumme: Cyberrobusthed er intet værd uden sikre leverandører  

Mere fra ITWatch

Læs også

Relaterede

Seneste nyt

Se flere jobs