ITWatch

Klumme: Store datamængder er en udfordring for banksektoren

Hurtige selvlærende dataanalyser hjælper bank- og finansverden til hurtigere og mere sikre besutninger, transaktioner og service. Men et kapacitetsloft for netværk og datalagring kan give en uønsket effekt, som bankerne ikke har forudset, påpeger Fredrik Arveskär fra Infinidat i denne klumme.

Foto: Infinidat/PR

Traditionelt set har virksomheder anvendt datamængder op til nogle terabyte, men i takt med at maskinlæring slår igennem, kommer vi snarere til at tale om petabyte. Data i sig selv kommer til at blive kategoriseret ud fra, hvor "forædlet" det er. Den måde, vi betragter og håndterer data og data-volumener, står overfor en stor forandring.

Vækst i datavolumen og hastighed i forhold til at håndtere data på netværket bliver afgørende for fremgangen for alle virksomheder, der er afhængige af datakapacitet i deres forretning. Dette gælder ikke mindst bank og finans, som allerede ligger langt fremme, men hvor udviklingen inden for kort tid forventes at gå endog hurtigere end auto- og algotrading (algoritme-baseret trading) som støtte for transaktionsprocesserne.

I et hastigt voksende digitalt landskab, hvor trusler og indtrængen bliver stadigt mere almindeligt, og i kølvandet på nye regelsæt som GDPR og HIPAA, vil det snart være nødvendigt at beskytte data med end-to-end kryptering i de fortsat mere komplekse netværk og it-stacks.

I mange eksisterende lagrings- og netværksløsninger indebærer øgede data-volumener sammen med krypteret trafik en mangedoblet storage-omkostning, hvis ikke arkitekturen er korrekt opbygget. Det kan indebære, at omkostningerne till lagringsmedier i de hurtigt voksende storage-miljøer bliver øget fem til ti gange parallelt med den kraftige datatilvækst, hvilket inden for ti år kan øge storage-omkostningerne tifoldigt eller mere.

Problemet er ikke ukendt, og vi ved, at mange ældre systemer allerede er tæt på bristepunktet. Banker i Sverige og i udlandet kæmper med at indsamle, lagre og analysere struktureret og ustruktureret data – og tilgængelig kapacitet til at udføre dette er godt på vej til at være en forudsætning for at kunne drive en lønsom bankforretning.

Udfra dette, samt den nødvendige hurtige, mobilitet, er resultatet, at der i dag ikke er plads til fejl. Der er behov for hardware, software og it-kompetencer for at sikre, at tilsikre at fejl kan undgås.

Kravene er lige så store for it-løsninger, inklusive hardware, som håndteres i eget regi. Og det gælder også kravene til skalerbarhed og fleksibilitet. Dette fører til fire spørgsmål som alle, der har en online-tilstedeværelse, bør stille sig selv.

  1. Kender I tilgængeligheden, når det gælder jeres transaktioner i dag?
  2. Ved I, hvordan kommende volumen vækst-scenarier vil påvirke jeres tilgængelighed?
  3. Ved I, hvilke omkostninger den mange-foldige data-volumenvækst kan medføre?
  4. Har I sammenlignet omkostningerne ved mindsket tilgængelighed med omkostningen ved at investere i forbedret tilgængelighed. Hvordan ser den beregning ud?

Der er stor sandsynlighed for, at I ikke har fuldt overblik over dette, og it-afdelingen kan sidde fast i anbefalingerne fra nuværende leverandører af gamle teknologier. Den primære årsag er, at man skal stille nye og højere krav til sine leverandører, og man skal også se nærmere på de komplicerede foreteelser, som de fleste sandsynligvis ikke har fuld indsigt i idag.

Klumme: "Tillykke med det nye job Dan Jørgensen, du burde starte med at kontakte Ole Sohn"

Klumme: Virksomheder implementerer ofte kunstig intelligens forkert

Relaterede

ITWatch trial banner 14 dage.jpg

Seneste nyt

Se alle ledige stillinger