Samarbejde, deling og digital udvikling i det offentlige.

OpenFlow

OpenFlow primære formål at lade brugeren tage ejerskab på sine data igen.


OpenFlow er en stack som gør det enkelt at
1) … opsamle, transportere og opbevare data og hændelser på en sikker, enkel og skalerbar platform.

2) … reagere på og automatisere på baggrund af hænderser og data

3) ... orkestrere processor på tværs af mennesker, IT og den fysiske verden.

4) … at tilbyde et leverandør agnostic alternativ til de kommercielle produkter der enten låse en til en specifik platform/cloud udbyder eller et specifikt produkt. OpenFlow stacken kan køre direkte på Windows, Max, Linux, raspberry pi eller via docker, og bygger på kendte og vel testede open source platforme.

OpenFlow bruges bland andet til at orkestrere OpenRPA robotter, lokale og distribuerede NodeRED instanser, samt andre OpenFlow instanser.
OpenFlow hjælpe med Agnostisk integration, dvs. at kunne integrere med og trække data fra alle former for datakilder, det være sig IT-systemer, IIoT og IoT eller mennesker.

 

OpenFlow er designet fra bunden af, til at være en sikker og skalerbar løsning.
Alle data er beskyttet med Access Control Lister.
Alle data kan versioneres.
Dele eller alle data kan krypteres med blandt andet AES256 bit kryptering
Alt kommunikation imellem de enkelte elementer kan og bør krypteres med SSL certifikater.

Bruger autentificering kan og bør være via en af de mange federationsmuligheder f.eks. SAML, OpenID Connect eller OAuth

 

For kunder med en Premium aftale er det også muligt at samle metrics, logs, and traces fra alle dele af platformen (og OpenRPA) via Open Telemetry, Derved vil man kunne bruge ens foretrukne platform til at overvåge, fejlsøge og performance optimere løsningen i ens foretrukne platform, løsning kommer out of the box med understøttelse for Prometheus, victoriametrics, Jaeger og Zipkin.
Desuden kan man via OpenFlow Datasource i Grafana designer rapporter og dashboard som respektere de rettigheder der er sat på data. Dette højner sikkerhed betydeligt, samtidig med at det simplificerer arkitekturen da man nu kan lave rapporter og dashboard på live data selv med tarabytes af data.