Inlägg publicerade under kategorin ‽IT

:

Av Svenn Dybvik - Söndag 10 mars 20:24

Arbeidet med en FN-konvensjon om cyber­kriminalitet

 

1. Innledning

Cyberkriminalitet er straffbare handlinger som er begått i cyberspace, og må som andre straffbare handlinger etterforskes og pådømmes både nasjonalt og internasjonalt. Den teknologiske utvikling i cyberspace har vært så hurtig og overveldende at samfunnet har problemer med å tilpasse lovgivning, kontroll- og sikkerhetstiltak. Nye former for internasjonale lovtiltak med sikte på å forebygge og bekjempe cyberkriminalitet er nødvendig og må føre til tiltak på FN-nivå. Det er et sterkt behov for et effektivt internasjonalt samarbeid i forebygging og etterforsking av globale cyberangrep og annen cyberkriminalitet og sikring av elektroniske bevis i slike saker.

Formålet med en FN-konvensjon bør være å harmonisere landenes straffelovgivning om cyberkriminalitet. Utviklingen av alvorlige cyberangrep mot enkeltlandenes kritiske informasjonsinfrastruktur har vist nødvendigheten av å etablere standarder for straffebestemmelser i internasjonale regelverk. Konvensjonen må verne om fundamentale rettigheter innen personvern og menneskerettigheter og være i overensstemmelse med forpliktelsene i internasjonale lovverk om menneskerettigheter. Forebyggende virkemidler, etterforsking, påtale og domstolsbehandling må baseres på lovgivning og være under domstolskontroll. De rettighetene som har et vern offline, må også få et tilsvarende vern online.

Utviklingen av alvorlige globale cyberangrep og annen grenseoverskridende cyberkriminalitet har ført til at få personer har blitt etterforsket og pådømt for slike handlinger. Angrepene på Stortinget i 2020 og 2021 viser hvordan situasjonen har blitt. Internasjonal koordinering og samarbeid er nødvendig for å etterforske og påtale global cyberkriminalitet. For å forebygge lignende angrep som på Kongressen i USA i andre land, bør det vedtas prinsipper for cybersikkerhet og cyberkriminalitet på FN-nivå.

Formålet med en FN-konvensjon bør være å harmonisere landenes straffelovgivning om cyberkriminalitet. Utviklingen av alvorlige cyberangrep mot enkeltlandenes kritiske informasjonsinfrastruktur har vist nødvendigheten av å etablere standarder for straffebestemmelser i internasjonale regelverk.

En FN-konvensjon om cyberkriminalitet er nødvendig for å oppnå globale standarder for sikkerhet, fred og rettsikkerhet i cyberspace. Generalforsamlingen i FN hadde fra år 2000 vedtatt en rekke resolusjoner, og deltatt i den globale utvikling for regulering av cyberspace. FN-organisasjoner, slik som International Telecommunication Union (ITU) i Geneve, og United Nations Office for Drug and Crime (UNODC) i Wien, ble også ledende organisasjoner i denne utviklingen. Det er nødvendig at FN igjen etablerer globale rammeverk og retningslinjer for cyberspace og styrker cybersikkerheten, rettssikkerheten og samarbeidet mellom alle nasjoner.

Utviklingen av globale IT-selskaper slik som Google, Facebook, Apple, Amazon og Microsoft har vært så altomfattende at disse private globale selskapene nå styrer utviklingen av cyberspace uten nasjonale eller globale reguleringer og retningslinjer. Det kan anføres at disse globale selskapene er blitt ledende organisasjoner for styringen av Internet Governance i stedet for FN-institusjonene. Puss futen på dem, skrev Aftenposten allerede 6. februar 2018 og viste til at Google, Facebook, Apple og Amazon tappet Norge for enorme verdier. Et alternativ til FN finnes ikke!

 

Prinsippet om Staters suverenitet får også anvendelse i cyberspace. Enkeltstatene har suverenitet med hensyn til all cyber infrastruktur, personer, og cyber aktiviteter innenfor sitt eget territorium. Land over hele verden er nå blitt klar over at cyberspace må bli regulert for å beskytte enkeltlandenes suverenitet, de nasjonale informasjon infrastrukturer, og landenes innbyggere. Søking etter en global felles løsning for lovregulering, og en felles forståelse for behovet for dialoger om cybersikkerhet og cyberkriminalitet har vært i fokus for enkeltlandenes ledere og lovgivere.

Prinsippet om Staters suverenitet for også anvendelse i cyberspace. Enkelt­statene har suverenitet med hensyn til all cyber infrastruktur, personer, og cyber aktiviteter innenfor sitt eget territorium.

INTERPOL søker å etablere en global koordinering i etterforsking av cyberkriminalitet, og støtter etterforskingen for politimyndigheter i alle sine 195 medlemsland.

Flere enn 125 land har signert eller ratifisert forskjellige konvensjoner, deklarasjoner, retningslinjer, og avtaler om cyberkriminalitet, og det har medført en meget fragmentert situasjon i verden.

Er det mulig å oppnå global enighet om en FN-konvensjon for cyberkriminalitet? Basert også på mange av artiklene i Europarådets Budapest konvensjon og forslag fra flere medlemsland i FN?

 

2. Vedtak i FN

Generalforsamlingen i FN Third Committee in its Seventy-third session, vedtok 2. november 2018 en resolusjon(1) om Countering the Use of Information and Communication Technologies for Criminal Purposes. Resolusjonen ble vedtatt av 85 land, mens 55 land stemte imot, og 29 land avsto fra å stemme. Resolusjonen omfattet blant annet følgende:

1. Requests the Secretary-General to seek the views of Member States on the challenges they face in countering the use of information and communications technologies for criminal purposes and to present a report based on those views for consideration by the General Assembly at its seventy-fourth session.

Bakgrunnen for utredning og forslag om en FN-konvensjon var et initiativ fra Russland i 2017, som ble støttet av Cambodia, Belarus, Kina, Iran, Myanmar, Nicaragua, Syria og Venezuela.(2)

Generalforsamlingen i FN vedtok 25. november 2019 den andre resolusjon(3)om Countering the use of information and communications technologies for criminal purposes. Resolusjonen ble vedtatt av 88 land, mens 58 land stemte imot, og 34 land avsto fra å stemme. Resolusjonen omfattet blant annet følgende:

Reaffirming the importance of respect for human rights and fundamental freedoms in the use of information and communications technologies:

3. Also decides that the ad hoc committee shall convene a three-day organizational session in August 2020, in New York, in order to agree on an outline and modalities for its further activities, to be submitted to the General Assembly at its seventy-fifth session for its consideration and approval.

Generalforsamlingen i FN vedtok den tredje resolusjonen den 27. desember 2019(4) om Countering the use of information and communications technologies for criminal purposes. Denne gang ble resolusjonen vedtatt av 79 land, mens 60 land stemte imot, og 30 land avsto fra å stemme.

FN etablerte deretter en Ad Hoc-komite som skulle utarbeide et forslag til konvensjon. Sekretariatet ble vedtatt å være i UNODC i Wien. Generalforsamlingen i FN besluttet den 6. august 2020 at som følge av den globale situasjonen som koronaviruset (covid-19) skapte, måtte møtet i 2020 utsettes. Møtet til drøftelse av grunnlaget og fremdriften for Ad Hoc-komiteen skulle berammes så snart situasjonen tillot det, men ikke senere enn 1. mars 2021. Møtet ble 15. januar 2021 ytterligere utsatt til 10.–12. mai 2021.(5)

 

3. Arbeidet i Ad Hoc-komiteen

Ad Hoc-komiteen begynte sitt arbeid i 2021. Det er hittil gjennomført seks møter, Sessions, fra januar 2022 og frem til august 2023 med deltakelse av FNs medlemsland og inviterte eksterne deltakere. I samme periode er det gjennomført fem internasjonale konsultasjoner mellom medlemslandene og de eksterne organisasjoner som var oppnevnt som deltakere i Ad Hoc-komiteen, Intersessional Consultations. Den avsluttende session, Concluding Session, skal gjennomføres 29. Januar–9. februar 2024.

Det første forslag om en FN-konvensjon ble utarbeidet 7. november 2022 og skulle drøftes på de enkelte Sessions av medlemslandene og de eksterne deltakere. Den første Session ble holdt 28. februar–11. mars 2022. Etter den femte Session i april 2023 utarbeidet Ad Hoc komiteen den 29. mai 2023 et nytt forslag om en konvensjon med 67 Artikler.(6)

Jeg ble 20. januar 2022 oppnevnt av FN som en Civil society delegate in the United Nations Ad Hoc Committee, som den eneste Civil Society representant fra de nordiske land. Jeg skrev flere innspill, contributionsfor sessions. Mitt første innspill var 19. april 2022:(7)Proposal for a United Nations Convention on Cybercrime. Det andre innspill var 2. januar 2023:(8)

A Proposal for a United Nations Convention on Cybercrime. Det tredje ble også avgitt 2. januar 2023(9) og jeg foreslo da at Ad Hoc-komiteen skulle drøfte forslag om ytterligere Artikler som kunne inntas i FN-konvensjonen og nevnte:

Grooming or procuring of a child for sexual purposes through a computer system, Encouragement of or coercion to suicide, Cyberattacks on critical communications and information infrastructures, Ransomware attack, Smart technology, Online child sexual abuse and sexual exploitation, Nonconsensual dissemination of intimate images, Identity Theft.

Det fjerde innspill gjorde jeg 3. juli 2023, og sendte et forslag til Ad Hoc-sekretariatet:(10)Proposal for a United Nations Convention on Cybercrime – Report from a Civil Society Delegate. Det femte innspill inneholdt det samme forslaget som det fjerde med enkelte tillegg, og ble sent den 15. november 2023.

 

4. Mitt forslag til FN konvesjon om cyberkriminalitet

Betegnelsen «cybercrime» er blitt brukt i alle globale diskusjoner de siste 15–20 år. Vi er ikke vant med betegnelser som the use of information and communications technologies for criminal purposes. I uttalelsene fra medlemsland i FN synes det å være flertall for at konvensjonen burde ha en tittel som inneholder betegnelsen cybercrime.

Jeg kan ikke anbefale forslaget fra sekretariatet i Ad Hoc-komiteen av 29. mai 2023 om en FN konvensjon, og har derfor utarbeidet mitt eget forslag til en FN konvensjon om cyberkriminalitet. Mitt forslag inneholder muligheter for enighet i den polariserte globale situasjonen for lovtiltak mot cyberkriminalitet, og bygger derfor også på Budapest konvensjonen.

Mitt forslag inneholder muligheter for enighet i den polariserte globale situasjonen for lovtiltak mot cyberkriminalitet, og bygger derfor også på Budapest konvensjonen.

4.1 FN konvensjonen om cyberkriminalitet må bli basert på mange artikler i Budapest konvensjon og forslag fra medlemsland

Europarådets konvensjon om cyberkriminalitet av 2001, også betegnet som Budapest konvensjonen, ble åpnet for signering den 23. november 2001.(11) Konvensjonen er ratifisert av 68 land, med 23 land utenfor Europa (november 2023). Brasil er det siste land som hittil har ratifisert konvensjonen den 30. november 2022. Konvensjonen er signert, men ikke ratifisert av 2 land.

Som formann i en arbeidsgruppe for FN organet International Telecommunications Union (ITU) i Geneve i 2007–2008 uttalte jeg i en Global Cybersecurity Agenda (GCA) Chairman Report (2008):(12)

We considered the Budapest Convention as an example of legal measures realized as a regional initiative, and that countries should complete its ratification, or consider the possibility of acceding to the Convention. Other countries should, or may want to, use the Convention as a guideline, or as a reference for developing their internal legislation, by implementing the standards and principles it contains, in accordance with their own legal systems and practice.

Det er antatt at 106 land har brukt konvensjonen som en referanse ved utviklingen av sin straffelovgivning ved å vedta konvensjonens standarder og prinsipper. Konvensjonen har gitt sin redegjørelse av innholdet i en Explanatory Report. Konvensjonen fikk sin andre Additional Report som ble vedtatt 23. november 2023, i forbindelse med konvensjonens 20 års jubileum.

Jeg foreslår at forslaget til FN konvensjon om cyberkriminalitet i kapitlene I–IV skal inneholde 22 Artikler fra Budapest konvensjonen. Forslaget til konvensjon bør også inneholde tre Artikler fra medlemslandene, to Artikler fra INTERPOL, en Artikkel fra et Universitet, og en Artikkel fra forfatteren av denne rapport. Det bør også diskuteres ytterligere Artikler.

 

4.2 Additional Protocol

Jeg foreslår at forslaget om FN-konvensjon fra Ad Hoc-sekretariatet ikke skal omfatte kapitlene V–IX (Artiklene 35–67). Disse Artikler har ikke betydning for innholdet i konvensjonen, og bør eventuelt bli omhandlet i en Additional Report med egen signering og ratifikasjon, slik som til Budapest konvensjonen. Innholdet i Artiklene i disse kapitler angår statlige saksbehandlinger og angår ikke substantive bestemmelser i straffeloven eller bestemmelser i straffeprosessloven. Det blir også veldig mange Artikler når man søker etter en global enighet om en konvensjon for cyberkriminalitet. Innholdet i en slik Additional Protocol bør også drøftes med INTERPOL, fordi denne globale organisasjonen kan koordinere innholdet i de fleste Artikler i kapitlene V–IX.

Siden jeg foreslår at innholdet i en FN konvensjon om cyberkriminalitet ikke skal omfatte kapitlene V–IX, men at innholdet i stedet blir utviklet i en Additional Report, bør konvensjonens Artikler om Reservation og Declaration bli tilføyet i mitt forslag kapittel IV, i Artiklene 38 og 39 basert på Budapest konvensjonen.

 

4.3 Prinsippene om statlig suverenitet gjelder også i cyberspace

I de senere årene er det særlig rapporten The Tallinn Manual 2.0(13)on the International Law Applicable to Cyber Operations som drøfter de grunnleggende prinsippene om statlig suverenitet. Innholdet er globalpolitisk nøytralt, og representerer ikke lovreguleringen i noen land eller internasjonale organisasjoner. Rapporten ble publisert av Cambridge University Press i februar 2017.Innholdet i rapporten representerer ekspertenes personlige faglige oppfatning. Bestemmelsene i Tallinn Manual 2.0 omfatter slike emner som suverenitet, statlig ansvar, menneskerettigheter og lovgivning for sjø, luftfart og himmelrommet.

The Tallinn Manual 2.0 er et uavhengig akademisk forskningsprosjekt som ble gjennomført av en internasjonal ekspertgruppe etter invitasjon av NATO Cooperative Cyber Defence Center of Excellence. Prinsippene om den nasjonale suvereniteten i cyberspace har dette innholdet:

Rule 1: The principle of State sovereignty applies in cyberspace.

Rule 2: A State enjoys sovereign authority with regard to the cyber infrastructure, persons, and cyber activities located within its territory, subject to its international legal obligations. Rule 3: A State is free to conduct cyber activities in its international relations, subject to any contrary rule of international law binding on it.

Rule 4: A State must not conduct cyber operations that violate the sovereignty of another State.

Prinsippet om den nasjonale suvereniteten i cyberspace gjelder også for Norge. Norge har som andre stater rett til å regulere all aktivitet i den digitale infrastrukturen i cyberspace som er lokalisert på eller fra norsk territorium.

Høyesterett har i en avgjørelse i HR-2019-610-A(14) en referanse til Tallinn Manual 2.0. Saken omhandlet spørsmålet om politiet har tilgang til datamateriale som et selskap basert i Norge hadde lagret på servere i utlandet «i skyen». Førstvoterende uttaler blant annet:

For så vidt gjelder internasjonal litteratur begrenser jeg meg til å vise til «Tallinn Manual 2.0 on the International Law Applicable to Cyber Operations» fra 2017. Manualen er utarbeidet med deltakelse fra en rekke internasjonale eksperter etter invitasjon fra «the NATO Cooperative Cyber Defence Centre of Excellence». Under den forklarende teksten til «Rule 11 – Extraterritorial enforcement jurisdiction» fremheves at det kan være vanskeligåavgjøre jurisdiksjonsspørsmål «inthe cyber context», se avsnitt 12. Jeg oppfatter rapporten slik at ekspertene – i favør avågodta territorial jurisdiksjon – blant annet legger vekt påom det aktuelle materialet «ismeant to be accessible from the State concerned», se avsnitt 13, og om tilgang tilmaterialet kan oppnås vedåanvende statens tvangsjurisdiksjon overfor rettssubjekter som befinner seg i landet, se avsnitt 16 og 17.

Prinsippene om statlig suverenitet er også omhandlet i andre FN-konvensjoner, som UNTOC og UNCAC, og det bør også henvises til disse.

 

4.4 INTERPOL har en global rolle

INTERPOL(15) har siden the First Interpol Training Seminar for Investigators of Computer Crime, in Saint-Cloud, Paris, December 7–11, 1981(16)vært den ledende internasjonale politiorganisasjon i den globale forebygging og etterforsking av cyberkriminalitet.

INTERPOL har sitt hovedkvarter i Lyon, Frankrike. INTERPOL tilrettelegger den globale koordinering i etterforsking av cyberkriminalitet og tilbyr global støtte og bistand til politimyndigheter i alle sine 195 medlemsland. INTERPOL er en uavhengig internasjonal organisasjon som søker å tilrettelegge og gi den best mulige gjensidige støtte mellom de enkelte lands politimyndigheter innenfor rammen av landenes lovgivning, og den internasjonale deklarasjon om menneskerettigheter (the Universal Declaration of Human Rights).

INTERPOL gir også medlemslandene støtte i teknikk, analyser, trening, og nettverk i etterforskingen av cyberkriminalitet, og i tillegg forskning på utviklingen av den globale cyberkriminalitet. INTERPOL har etablert et globalt 24/7 kommunikasjonssystem, hvor INTERPOL samler, lagrer, analyserer, og deler opplysninger om cyberkriminalitet med alle sine medlemsland. INTERPOL har også inngått samarbeidsavtaler med andre globale organisasjoner og den private sektor.(17)

Som følge av det nøytrale og internasjonalt godkjente nettverk, har INTERPOL muligheten for å være en global tilbyder av et stort antall tjenester, plattformer, og virkemidler i kampen mot cyberkriminalitet. Siden nasjonale og regionale tiltak ikke lenger er tilstrekkelig, vil INTERPOL være den organisasjon som tilrettelegger det internasjonale samarbeidet som en nøytral sammenkobler.

Artikler som angår den globale koordinering fra INTERPOL bør vedtas i en FN-konvensjon om cyberkriminalitet. INTERPOL er ikke nevnt i forslagene til FN-konvensjon som er publisert av Ad Hoc-sekretariatet. Jeg foreslår at en FN-konvensjon skal inneholde tre Artikler som omhandler INTERPOL.

 

5. Lovlig tilgang til data som lagres eller kommuniseres

Et økende problem i mange land er politimyndighetenes manglende muligheter å få lovlig tilgang til data som lagres eller kommuniseres. Alle tilbydere av Internett skulle etterkomme en begjæring om tilgang når det foreligger et pålegg fra en domstol, og kunnskap om data er nødvendig for en etterforsking eller offentlig sikkerhet.

Justisdepartementet i USA arrangerte 4. oktober 2019 en konferanse som ble betegnet som Lawful Access Summit.(18)Temaet for konferansen var Warrant-proof encryption. Formålet med konferansen var å diskutere at IT-selskapene skulle åpne sine krypteringer for politietterforsking, og et problem ble fremhevet: Have encryption schemes turned Internet into a lawless space?

Direktøren for FBI Christopher Wray uttalte på konferansen blant annet følgende:

I can tell you that police chief after police chief, sheriff after sheriff, our closest foreign partners and other key professionals are raising this issue with growing concern and urgency. They keep telling us that their work is too often blocked by encryption schemes that don’t provide for lawful access. So, while we’re big believers in privacy and security, we also have a duty to protect the American people.

Et forslag om rettslige tiltak mot bruk av kryptering kan også følge anbefalingene som allerede i 1995 ble vedtatt av Europarådet:(19)

Legal measures should be considered to minimize the negative effects of the use of cryptography on the investigation of criminal offences, without affecting its legitimate use more than is strictly necessary.

EU har 16. februar 2023 publisert: Law Enforcement – Operational Needs for Lawful Access to Communications (LEON):(20)

LEON is the outcome of work undertaken by Swedish law enforcement agencies, in close co-operation with law enforcement representatives in EU Member States, North America and Australia. The aim is to identify and describe the law enforcement needs for lawful access to communications content, content related data and subscriber information.

As discussed at the informal meeting of JHA-Council on 26–27 January 2023, the Presidency recognizes the need for a broad discussion on EU-action to enhancing and improving the access to data, electronic evidence and information for law enforcement purposes and judicial purposes.

 

6. Kriminalitet ved bruk av kunstig intelligens (KI/AI)

Europol har 27. mars 2023 publisert opplysninger om nye trusler fra cyberkriminalitet ved bruk av teknologien for kunstig intelligens (Artificial Intelligence (AI)),(21) som ChatGPT og lignende tjenester.

Følgende tre grupper av kriminalitet er blant de mest bekymringsfulle for Europol:

  • Fraud and social engineering: ChatGPT’s ability to draft highly realistic text makes it a useful tool for phishing purposes. The ability to re-produce language patterns can be used to impersonate the style of speech of specific individuals or groups. This capability can be abused at scale to mislead potential victims into placing their trust in the hands of criminal actors.

  • Disinformation: ChatGPT excels at producing authentic sounding text at speed and scale. This makes the model ideal for propaganda and disinformation purposes, as it allows users to generate and spread messages reflecting a specific narrative with relatively little effort.

  • Cybercrime: In addition to generating human-like language, ChatGPT is capable of producing code in a number of different programming languages. For a potential criminal with little technical knowledge, this is an invaluable resource to produce malicious code.

INTERPOL har også i juni 2023 publisert The Toolkit for Responsible AI Innovation in Law Enforcement (AI Toolkit), som vil være en hjelp for politimyndigheter når det gjelder bruk av AI.(22)

EU utarbeider i 2023 forslag om en AI Act – Regulatory framework proposal on artificial intelligence.(23)

Det første verdensomspennende toppmøtet om kunstig intelligens AI Safety Summit 2023,(24) ble holdt i Bletchley Park, Buckinghamshire, England, 1–2. november 2023. Det var 27 land, i tillegg til EU, som deltok på møtet, og undertegnet en erklæring.(25) Norge ble ikke invitert.

Europol har 27. mars 2023 publisert opplysninger om nye trusler fra cyberkriminalitet ved bruk av teknologien for kunstig intelligens (Artificial Intelligence (AI)), som ChatGPT og lignende tjenester.

I Norge har Kripos 21. august 2023 publisert en rapport om kunstig intelligens og kriminalitet: Generativ kunstig intelligens vil føre til mer cyberkriminalitet.(26) Nasjonal Sikkerhetsmyndighet (NSM) har også publisert sine råd i oktober 2023.(27)

Jeg foreslo for Ad Hoc komiteen i juni 2023 at komiteen skulle etablere en ekspertgruppe som kunne avgi en Report on the Criminal use ofChatGPT, med forslag om reguleringstiltak. Utviklingen av tiltak om reguleringer av Artificial Intelligence i andre internasjonale organisasjoner bør følges nøye. Særlig gjelder det EU, G-7 gruppen av medlemsland, Europol, og Senatet i USA.

Forslaget ble ikke etterkommet.

Artificial Intelligence and Law ble allerede utredet internasjonalt i 1990 årene. Professor Jon Bing og jeg etablerte sammen forskning og utredninger om bruk av ArtificialIntelligence and Law – Rettslige beslutningsstøttesystemer, på Institutt for rettsinformatikk (IRI) i 1990-årene. Vi deltok på flere internasjonale konferanser, som arrangører, foredragsholdere eller deltakere. Jeg deltok på Technology Renaissance Courts Conference som var en global konferanse for domstoler i alle land, og ble arrangert i Singapore i september 1996. Mitt viktigste minne fra konferansen var at deltagerne i konferansesalen fikk en hilsen fra høyesterettsjustitiarius Carsten Smith, Norge, som ikke hadde anledning til å delta. Hans hilsen ble vist oss på en storskjerm med blant annet følgende uttalelse:(28)

We must never forget that the main element in the judicial process is the human element – combined with the touch of the heart – to balance conflicting interests.

The Seventh International Conference on Artificial Intelligence and Law (ICAIL-99) ble holdt på Universitetet i Oslo i juni 1999. Etter konferansen ble Jon Bing og jeg enige om å avslutte vår forskning, etter å ha lyttet til rådene fra Carsten Smith.

Vi bør også i dag lytte til rådene fra høyesterettsjustitiarius Carsten Smith, som ble avgitt på en internasjonal konferanse for domstoler i Singapore i september 1996. Regulering eller forbud mot bruk av AI-systemer bør vurderes innført både i tvistemålsloven og i straffeprosessloven.

 

https://lod.lovdata.no/article/2023/12/Arbeidet%20med%20en%20FN%20konvensjon%20om%20cyberkriminalitet

:

Av Svenn Dybvik - Lördag 9 mars 20:24

Datatilsynet mener det kreves et nytt rettslig grunnlag for behandling av personopplysninger for nye og forenelige formål – tar tilsynet feil?

 

1. Introduksjon av problemstillingen – forholdet mellom personvernforordningen artikkel 6 nr. 1 og artikkel 6 nr. 4

Innovasjon, effektivisering og datadeling er i vinden både nasjonalt og i EU om dagen. Kunstig intelligens (KI) er på alles lepper og krever bruk av data for trening og vedlikehold.

Personvernforordningen (GDPR) er ett av mange regelverk som treffer dette landskapet og setter grenser for hvordan personopplysninger kan brukes til å utvikle KI. Som Datatilsynets sandkasse for kunstig intelligens har vist, er det ofte snakk om å gjenbruke personopplysninger som virksomheten allerede besitter.(1) Man skal for eksempel effektivisere saksbehandling, få ny innsikt i eksisterende data eller tilby en ny tjeneste.

Et sentralt spørsmål som dukker opp i denne forbindelse er forholdet mellom prinsippet om formålsbegrensning i personvernforordningen artikkel 5 nr. 1 bokstav b og lovlighetsprinsippet i bokstav a.

Når man skal bruke personopplysninger en virksomhet allerede har til et nytt formål: kreves det da et nytt behandlingsgrunnlag?

Det følger av formålsbegrensningsprinsippet i personvernforordningen artikkel 5 nr. 1 bokstav b) at personopplysninger kun skal «…samles inn for spesifikke, uttrykkelig angitte og berettigede formål og ikke viderebehandles på en måte som er uforenlig med disse formålene».

Et sentralt spørsmål som dukker opp i denne forbindelse er forholdet mellom prinsippet om formålsbegrensning i personvernforordningen artikkel 5 nr. 1 bokstav b og lovlighetsprinsippet i bokstav a.

I henhold til artikkel 6 nr. 1 er en behandling av personopplysninger bare lovlig dersom ett av vilkårene i 6 nr. 1 bokstav a til f er oppfylt. Artikkel 6 nr. 1 er et utslag av lovlighetsprinsippet jf. artikkel 5 nr. 1 bokstav a.

Artikkel 6 nr. 4 sier at dersom det skal foretas en behandling for et annet formål enn hva personopplysningene ble innsamlet for så skal det i utgangspunktet vurderes om dette er forenlig med formålet som de ble samlet inn for jf. formålsprinsippet/formålsbegrensning, artikkel 5 nr. 1 bokstav b.

Personopplysninger skal i utgangspunktet kun behandles for det spesifikt angitte formålet de opprinnelig er samlet inn for. Personvernforordningen artikkel 6 nr. 4 åpner imidlertid for at man kan gjennomføre behandling for andre formål enn det opprinnelige dersom den nye behandlingen, ofte omtalt som viderebehandling, har et formål som etter en konkret vurdering kan anses forenlig med det opprinnelige.

Formålsbegrensningsprinsippet er et av de grunnleggende personvernprinsippene og kan dateres tilbake til 1980 og OECDs retningslinjer innen personvern.(2) Det er ikke uenighet om at formålsbegrensningsprinsippet er et grunnleggende utgangspunkt i personvernretten og at uforenlige formål kun er tillatt dersom det følger av lov eller den registrerte har samtykket til dette. Det ser imidlertid ut til at det foreligger ulike oppfatninger av rettstilstanden når det gjelder om det er krav om nytt behandlingsgrunnlag ved viderebehandling av personopplysninger til nye formål eller om viderebehandling til forenlige formål kan hjemles i det opprinnelige behandlingsgrunnlaget.

Blant mange jurister er den klare oppfatning at dersom en behandlingsansvarlig skal behandle personopplysninger for et nytt formål, og dette nye formålet anses å være forenlig med det opprinnelige formålet etter en vurdering etter artikkel 6 nr. 4, er det ikke nødvendig å ha et eget behandlingsgrunnlag etter artikkel 6 nr. 1. Kravet til lovlighet er etter denne oppfatningen oppfylt dersom man har bestått forenlighetsvurderingen som artikkel 6 nr. 4 legger opp til

Kravene til forenlighet følger av personvernforordningens fortalepunkt 50 og artikkel 6 nr. 4.

Behandling av personopplysninger for andre formål enn de formål personopplysningene opprinnelig ble samlet inn for, bør bare være tillatt dersom behandlingen er forenlig med formålene som personopplysningene opprinnelig ble samlet inn for. I et slikt tilfelle kreves det ikke et annet rettslig grunnlag enn det som ligger til grunn for innsamlingen av personopplysninger(vår uthevning)

Denne oppfatningen kan forankres både i fortalepunkt 50 og juridisk teori, blant annet den norske kommentarutgaven fra Skullerud m.fl(3)

Datatilsynet er imidlertid av en annen oppfatning. I vedtak 20/01626-7 (vedtak om overtredelsesgebyr mot NIF) bemerker Datatilsynet følgende:

For behandling av personopplysninger for et annet formål enn det som personopplysningene ble samlet inn for, er det to kumulative krav i personvernforordningen. For det første kreves det, som ved all behandling av personopplysninger, at behandlingen har et rettslig grunnlag i artikkel 6 nr. 1 for å være lovlig. I tillegg kreves det at det nye formålet med behandlingen av personopplysninger er forenelig med formålet personopplysningene ble samlet inn for, jf. artikkel 6 nr. 4. Det er et unntak fra dette vilkåret dersom den nye behandlingen bygger på den registrertes samtykke eller har hjemmel i lov, men det er klart at dette unntaket ikke kommer til anvendelse i denne saken

Datatilsynet legger følgelig til grunn at dersom en behandlingsansvarlig skal behandle personopplysninger for et nytt og forenlig formål må man i tillegg ha et nytt behandlingsgrunnlag i artikkel 6 nr. 1. Datatilsynets oppfatning er at forenlighetsvurderingen i seg selv ikke kan etablere slik lovlighet.

Denne artikkelen har to formål. For det første ønsker vi å gjøre kjent Datatilsynet sitt syn på forholdet mellom artikkel 6 nr. 1 og artikkel 6 nr. 4 da vår erfaring tilsier at mange ikke er kjent med dette. For det andre ønsker vi å gi innsikt i bakgrunnen for de to alternative standpunktene og med dette legge grunnlag for en videre diskusjon som kan bidra til avklaring av rettstilstanden.

 

2. Forenlighetsvurderingen

Artikkel 6 nr. 4 legger opp til en konkret og helhetlig vurdering, der alle vurderingstemaer nevnt i bestemmelsens bokstav a)–e) kan være av betydning. Vurderingstemaene skal imidlertid ikke anses som kumulative vilkår. Dette omtales ofte som forenlighetsvurderingen eller kompatibilitetstesten.

Etter personverndirektivet(4) var det også tydelig at personopplysninger ikke skulle behandles til uforenlige formål. Vurderingstemaer for å fastslå hva som skulle til for at formål ble ansett forenlig var imidlertid verken angitt i direktiv-teksten eller direktivets fortale. For veiledning til gjennomføring av forenlighetsvurderingen, utstedte artikkel 29-gruppen i 2013 sin «Opinion on the purpose limitation principle (WP 203)(5).

Etter bokstav a) må den behandlingsansvarlige vurdere «enhver forbindelse mellom formålene som personopplysningene er blitt samlet inn for, og formålene med den tiltenkte viderebehandlingen». Det følger av dette at den behandlingsansvarlige må vurdere om viderebehandlingen var mer eller mindre implisert i den opprinnelige, eller fremstår som et «logisk neste steg», eller om det kun er en delvis eller ikke-eksisterende kobling mellom formålene. Det følger av WP 203 at i begge tilfeller kan formålet anses forenlig, men jo større avstand mellom formålene jo mer utfordrende blir det å legge til grunn at det foreligger forenlighet.

Etter bokstav b) må den behandlingsansvarlige vurdere «i hvilken sammenheng personopplysningene er blitt samlet inn…» og i den sammenheng særlig se hen «…til forholdet mellom de registrerte og den behandlingsansvarlige». Dette momentet innebærer at en nærmere sammenheng formålene imellom vil trekke klarere i retning av forenelighet. Spennet går etter artikkel 29-gruppens tolkning mellom behandling som er «mer eller mindre implisert» i det opprinnelige formålet, eller i lys av det opprinnelige formålet fremstår som et «logisk neste steg», til tilfeller hvor det kun er en «delvis eller ikke-eksisterende» sammenheng med det opprinnelige formålet. Vurderingen tar utgangspunkt i de faktiske omstendighetene og hvordan et gitt formål «i alminnelighet oppfattes».

Den behandlingsansvarlige skal også vurdere «personopplysningenes art, især om særlige kategorier av personopplysninger «…eller om personopplysninger om straffedommer og lovovertredelser behandles», «de mulige konsekvensene av den tiltenkte viderebehandlingen for de registrerte» og «om det foreligger nødvendige garantier, som kan omfatte kryptering eller pseudonymisering». Forenlighets­vurderingen eller kompatabilitets­testen som den også kalles, er med andre ord svært omfattende. Hvis det nye formålet består denne testen, betyr det at formålet er forenlig.

Det er en omfattende vurdering den behandlingsansvarlige må gjennomføre og spørsmålet er hva som er gevinsten: er det begrenset til at personopplysningene ikke må samles inn på nytt dersom det foreligger et behandlingsgrunnlag for den nye behandlingen, eller innebærer det faktum at kompatibilitetstesten er bestått at også lovlighetskravet er oppfylt?

 

3. Alternativ 1: personopplysninger kan for forenlige formål viderebehandles med hjemmel i det opprinnelige behandlingsgrunnlaget

Det følger som nevnt av personvernforordningen artikkel 5 nr. 1 bokstav b) at personopplysninger kun skal «…samles inn for spesifikke, uttrykkelig angitte og berettigede formål og ikke viderebehandles på en måte som er uforenlig med disse formålene». Forenlighetsvurderingen er i dag nedfelt i artikkel 6 nr. 4 som angir at den behandlingsansvarlige må vurdere det nye formålet opp imot en rekke momenter oppstilt i bestemmelsen for å kunne fastslå om formålet er forenlig.

Dersom den behandlingsansvarlige etter gjennomføringen av denne vurderingen kommer til at det nye formålet er forenlig, er det relevante spørsmålet i denne sammenheng, om behandling til det nye formålet også er lovlig.

Det er verdt å merke seg at ulovlige eller usaklige formål aldri vil bestå forenlighetsvurderingen. Artikkel 6 nr. 4 angir imidlertid at også uforenlige formål kan gjennomføres forutsatt at de dekkes av et nytt samtykke eller at de har hjemmel i lov. Uforenlighet er med andre ord ikke det samme som et ulovlig eller usaklig formål. Det kan med dette anføres at det i personvernforordningen ikke er et totalt forbud mot uforenlige formål. Fordi bruk til slike formål avviker så mye fra det den behandlingsansvarlige opprinnelige hadde i tankene kan det imidlertid bare gjennomføres hvis innhentes et nytt samtykke eller i noen tilfeller at det foreligger hjemmel i lov.

Forenlighetsvurderingen er dessuten nedfelt i artikkel 6 som nettopp regulerer behandlingens lovlighet. En naturlig forståelse kan derfor være at når nytt formål består forenlighetsvurderingen (kompatabilitetstesten), vil dette samtidig innebære at lovlighetskravet er oppfylt. Dette fordi det nye formålet er så nært knyttet til det opprinnelige at det vil fremstå urimelig at den behandlingsansvarlige ikke skal kunne gjennomføre også behandling til dette formålet med utgangspunkt i det opprinnelige behandlingsgrunnlaget. Dette synet har også støtte i rettspraksis fra EU-domstolen, se for eksempel sak C-77/21.

Denne saken gjaldt en ungarsk leverandør av internett og TV, som brukte personopplysninger fra kundene til å tilby sine tjenester og samtidig lagret disse personopplysningene internt på en annen server med det formål å drive feilretting og sørge for tilgjengelighet til tjenesten. I denne saken viser domstolen til Generaladvokatens uttalelse i saken(6) som uttaler følgende om forbindelsen mellom lovlighetsprinsippet og formålsbegrensning:

Article 5(1)(b) of the GDPR does not contain any indication as to the conditions under which further processing for a purpose different from that of the initial collection of the data may be regarded as being compatible with the latter. Reference must be had, in that regard, to Article 6(4) of the GDPR, read in conjunction with recital 50 thereof, the content of which reflects a link between the principle of purpose limitation and the legal basis for the processing concerned.(7)

Ifølge Skullerud m.fl vil testen bidra til å avgjøre hvilke behandlingsoperasjoner som kan sies å falle inn under behandlingsformålet den behandlingsansvarlige opprinnelig fastsatte.(8) Dersom den nye behandlingen, eller behandlingsoperasjonen omfattes av det opprinnelige formålet, fremstår det også naturlig å legge til grunn at denne viderebehandlingen kan skje på grunnlag av det opprinnelige behandlingsgrunnlaget.

 

4. Alternativ 2: Forholdet mellom lovlighets- og formålsprinsippet tilsier at også behandling av personopplysninger til forenlige formål krever et eget behandlingsgrunnlag

Datatilsynet viser til at formåls- og lovlighetsprinsippet er to ulike prinsipper, som i utgangspunktet må holdes adskilt, til tross for at det er et nært forhold mellom dem.

En behandling er definert i artikkel 4 nr. 2 som:

(…) enhver operasjon eller rekke av operasjoner som gjøres med personopplysninger, enten automatisert eller ikke, f.eks innsamling, registrering, organisering, strukturering, lagring, tilpasning eller endring, gjenfinning, konsultering, bruk, utlevering ved overføring, spredning eller alle andre former for tilgjengeliggjøring, sammenstilling eller samkjøring, begrensning, sletting eller tilintetgjøring

Definisjonen er veldig omfattende, og vil inkludere det meste man gjør med personopplysninger. For ett og samme formål er det derfor i utgangspunktet mulig å gjennomføre flere behandlinger av personopplysninger. Som et utgangspunkt skal enhver behandling av personopplysninger – til tross for at de er utført for samme formål – forankres i artikkel 6 nr. 1.

Det fremgår av Datatilsynets vedtak rettet mot NIF at vurderingen etter artikkel 6 nr. 4 som gjennomgått foran er en vurdering av om det nye formålet er forenlig, og dermed om hvorvidt den behandlingsansvarlige overholder prinsippet om formålsbegrensning i artikkel 5. Artikkel 6 nr. 1 knytter seg derimot til lovlighetsprinsippet og fordrer en vurdering av om de ulike behandlingsaktivitetene (som kan være utført for samme formål) har et behandlingsgrunnlag. Å forstå forenlighetsvurderingen i artikkel 6 nr. 4 som et unntak fra behovet for å vise at en behandling har et behandlingsgrunnlag blir derfor en blanding av to ulike prinsipper og vurderinger.

Imidlertid må dette nyanseres noe i lys av at definisjonen av en «behandling», og hvordan det er mulig å gruppere flere tilsynelatende selvstendige behandlingsaktiviteter sammen og betrakte dem til å være én enkelt behandling. En slik forståelse kan forankres i definisjonen av hva en «behandling» er, ettersom det vises til at én behandling kan bestå av en «(…) rekke av operasjoner som gjøres med personopplysninger (…)».

Skullerud mfl. (2019) viser som nevnt at flere operasjoner utført for samme formål kan anses til å være en enkelt behandling.(9) En slik forståelse kan være nyttig i praksis, ved at dette medfører at det ikke er nødvendig å, for eksempel, foreta en dokumentert vurdering hver eneste gang en virksomhet utfører flere behandlingsoperasjoner som har et nært, og tilnærmet sammenhengende, forhold. I et slikt tilfelle vil en samlet, dokumentert, vurdering av flere nærstående operasjoner kunne utføres samlet. Skullerud mfl. skriver videre hvordan det å knytte behandlingsbegrepet til formålet har en lang tradisjon etter personopplysningsloven av 2000.

Til tross for en nær relasjon mellom formålet til en behandling og definisjonen av en «behandling» foretar Høyesterett et klart skille mellom de to i den såkalte «avfallservice»-dommen (Rt-2013-143). I denne avgjørelsen vurderer Høyesterett forholdet mellom kravet til at behandlingen må være lovlig, og det at behandlingen av personopplysninger må være for et forenlig formål. Høyesterett konkluderer med at dette er to ulike spørsmål, og at begge må være oppfylt; behandlingen må være for et forenlig formål, og behandlingen som sådan må ha et behandlingsgrunnlag. Som ledd i denne begrunnelsen bemerker høyesterett hvordan forenlighetsvurderingen knytter seg til:

(…) et formålsprinsipp – også omtalt som finalité-prinsippet – som innebærer at innsamling av opplysninger skal skje til uttrykkelig angitte og saklige formål, og at senere behandling ikke må være uforenlig med disse formål

Følgelig er også Høyesterett tydelige på at dette er to ulike aspekter ved personopplysningsregelverket. Dette til tross for at forholdet mellom formålet til en behandling og definisjonen til hva en behandling har nær sammenheng. Personvernrådets (EDPB) forløper Artikkel 29-gruppen har tidligere kommet med uttalelser som støtter denne tolkningen(10)

 

5. Tar Datatilsynet feil?

5.1 Fortalepunkt 50)

Fortalen til personvernforordningen er ikke bindende, men den er likevel en kilde som det bør tas hensyn til der bestemmelsene skaper usikkerhet og åpner opp for flere tolkningsalternativer. Dette er også i tråd med EU-domstolens rettspraksis(11).

Datatilsynet ser imidlertid bort fra ordlyden i foretalepunkt 50 i sitt vedtak overfor NIF.

Det er visse holdepunkter for at fortalepunkt 50 ikke bør tillegges så stor vekt som en fortale vanligvis får. Bakgrunnen for dette er muligheten for at denne uttalelsen «henger igjen» fra et eldre utkast til personvernforordningen.(12) Et opprinnelig utkast av forordningen beskrev et meget bredt handlingsrom for nye behandlinger utført for nye formål, herunder at det skulle være mulig å behandle personopplysninger for nye formål såfremt de skulle utføres for en berettiget interesse. Dette skulle til og med inkludere uforenlige formål. Med en slik ordlyd fremstår det naturlig at den behandlingsansvarlige ikke skal trenge å foreta en ny vurdering etter artikkel 6 nr. 1. Denne ordlyden ble endret etter press fra, blant annet, Artikkel-29 gruppen.(13)

Artikkel 29-gruppen gir i denne anledning for øvrig en uttalelse som er egnet til å underbygge synet vårt, beskrevet i punkt 2.1 ovenfor. Artikkel 29-gruppen, i presseuttalelsen, kritiserer utkastet på, blant annet, følgende vis: «Such an approach, which conflates the notions of legal basis and further processing for compatible purpose (…)».

Det kan samtidig være at artikkel 6 nr. 4 ble justert på bakgrunn av disse innspillene, men ikke slik at artikkel 29-gruppens ståsted ivaretatt fullt ut. Det er for eksempel tydelig ut ifra ordlyden til artikkel 6 nr. 4 at uforenlige formål krever samtykke og lovhjemmel. Vi ser dessuten at EU i dag, med Kommisjonen som toneanførende part, fremhever verdien av data som sådan og i stor grad foreslår lovgivning som legger til rette for gjenbruk av data. Ved å beholde artikkel 6 nr. 4 som en del av artikkelen som regulerer lovlighet, og fortalepunkt 50 i dagens format, åpnet man for at gjenbruk for forenlige formål skulle være mulig.

EU-domstolen har imidlertid brukt fortalepunkt 50 som kilde ved tolkning av artikkel 6 nr. 4 ved flere anledninger, og har ikke oppstilt nytt grunnlag etter artikkel 6 nr. 1 som kriterium. Tvert om har EU-domstolen lagt vekt på forbindelsen mellom prinsippene om formålsbegrensning og lovlighetsprinsippet.(14)

5.2 Konsekvenser for den registrerte?

Konsekvensbetraktninger kan tale for å legge til grunn Datatilsynets syn.

Dersom en legger til grunn forståelsen i fortalen vil dette kunne medføre at det blir en større anledning til å foreta behandlinger for nye (forenlige) formål enn for det opprinnelige formålet. Dette fremstår ikke til å være i tråd med systemet til personvernforordningen. Personvernforordningen er strukturert ut fra en tanke om åpenhet og transparens ovenfor de registrerte. De registeret skal på tidspunktet for innsamlingen (dersom innsamlingen foretas direkte fra den registrerte) få informasjon om, blant annet, formålet med innsamlingen. Informasjonen som gis fra den behandlingsansvarlige vil typisk være essensiell for dens registrertes vurdering av, for eksempel, om en avtale skal inngås eller om et samtykke skal gis. Ved å kreve at behandlingene for nye formål skaloppfylle både artikkel 6 nr. 1 og artikkel 6 nr. 4, sørger man for at handlingsrommet blir mindre for behandlinger for nye formål.

I tillegg er det grunnlag for å vurdere hvilken betydning dette får for offentlige virksomheter som utøver offentlig myndighet. Det fremgår av artikkel 6 at offentlige myndigheter ikke skal ha muligheten til å benytte artikkel 6 nr. 1 bokstav f når de utfører sine oppgaver. Bakgrunnen for dette er at disse bør kunne basere seg på lovhjemmel. Imidlertid vil artikkel 6 nr. 4 være tilgjengelig for dem. Dette vil kunne føre til en utglidning der offentlige myndigheter konkluderer – etter en konkret skjønnsmessig vurdering – til at nye behandlingsaktiviteter for nye formål er akseptable, uten å vurdere artikkel 6 nr. 1 c eller e. I verste fall kan dette undergrave kravet om et supplerende rettsgrunnlag.

Samtidig vil det følge av artikkel 13 sammenholdt med artikkel 14 at den behandlingsansvarlige må informere de registrerte om det nye formålet. Den registrerte vil da kunne benytte sin rett til å protestere etter artikkel 21. Denne gjelder også for behandlinger hjemlet i artikkel 6 nr. 1 bokstav e) som

5.3 Enkelte formål er alltid forenlige

Det fremgår tydelig av artikkel 5 nr. 1 bokstav b) at enkelte formål som statistikk, arkivering, historisk eller vitenskapelig forskning alltid vil være forenlig. Det er imidlertid ikke bredt anført at denne type behandlinger skal skje uten at det foreligger et eget behandlingsgrunnlag. I norsk rett har vi dessuten fått på plass supplerende behandlingsgrunnlag for disse formålene i personopplysningsloven § 8 og § 9, hvilket kan tyde på at Stortinget er av den oppfatning at det er nødvendig med et selvstendig behandlingsgrunnlag.

 

6. Avsluttende betraktninger

Datatilsynets forståelse, til tross for å være i strid med fortalepunkt 50, sørger for at skillet mellom formålsprinsippet og lovlighetsprinsippet ivaretas. Videre vil standpunktet sikre at den behandlingsansvarlige ikke i realiteten ender opp med å få et bredere handlingsrom for behandlingsaktiviteter som er forankret i behandlinger for nye forenlige formål enn for de opprinnelige formålet.

Er det inkonsistens mellom personvernforordningens bestemmelser eller er det slik at Datatilsynet (og EDPB) ikke har tatt inn over seg lovgivers hensikt med artikkel 6 nr. 4)?

Men hva tilfører egentlig artikkel 6 nr. 4 tilfører dersom også forenlige formål der ny behandling ikke er dekket i et nytt samtykke eller et eget supplerende rettsgrunnlag, må ha et selvstendig behandlingsgrunnlag? Artikkel 6 nr. 4 fremstår å være tilnærmet uten verdi dersom det uavhengig av om formålet er uforenlig eller forenlig må foreligge et selvstendig behandlingsgrunnlag. Dette følger jo allerede av artikkel 5 nr. 1 bokstav a). En tolkning som sier at nr. 4 i artikkel 6 med overskriften Behandlingens lovlighet ikke betyr noe som helst, fremstår svært innskrenkende. EU-domstolen har som vi allerede har nevnt dessuten i sin rettspraksis ikke oppstilt nytt behandlingsgrunnlag som et tilleggskriterium ved viderebehandling.

Er det inkonsistens mellom personvernforordningens bestemmelser eller er det slik at Datatilsynet (og EDPB) ikke har tatt inn over seg lovgivers hensikt med artikkel 6 nr. 4)?

 

https://lod.lovdata.no/article/2023/12/Datatilsynet%20mener%20det%20kreves%20et%20nytt%20rettslig%20grunnlag%20for%20behandling%20av%20personopplysninger%20for%20nye%20og%20forenelige%20formål%20–%20tar%20tilsynet%20feil

:

Av Svenn Dybvik - Söndag 3 mars 20:24

https://www.datatilsynet.no/personvern-pa-ulike-omrader/internett-og-apper/personvernfremmende-teknologi/


Internett, teknologi og apper


Personvernfremmende teknologi

Personvernfremmende teknologi kan begrense innsamling av, tilgang til og lagring av personopplysninger. For virksomheter kan derfor bruk av slik teknologi være et nyttig tiltak for å møte kravet om innebygd personvern i utviklingen av et system eller en løsning. Her går vi gjennom hva dette er, med noen eksempler, bruksområder og utfordringer.



Innledning

 

Hva er personvernfremmende teknologi?

Personvernfremmende teknologi er samlebetegnelsen for teknologi som kan bidra til implementeringen av en eller flere av personvernprinsippene i et system eller løsning, og styrke personopplysningssikkerheten. Disse teknologiene er også kjent som "Privacy Enhancing Technologies" (PET). 



Hvorfor bruke personvernfremmende teknologi?

Alle virksomheter må gjennomføre en risikovurdering av løsningene de planlegger å bruke. Vurderingen skal gjennomføres før personopplysningene behandles og før løsningen eventuelt tas i bruk. Personvernfremmende teknologi kan være et tiltak for å redusere sårbarheter som blir identifisert i denne risikovurderingen. Det er forøvrig verdt å merke seg at bruken av personvernfremmende teknologi i seg selv kan utløse behovet for å gjennomføre en risikovurdering og eventuelt også en personvernkonsekvensvurdering (DPIA).

Implementering av personvernfremmende teknologi kan være et nyttig tiltak for å møte kravet om innebygd personvern i utviklingen av et system eller en løsning. Dette gjelder særlig tilfeller der personopplysninger skal overføres fra én aktør til en annen og det må begrenses hvilke opplysninger som blir delt eller eksponert.

Utviklingen av personvernfremmende teknologi er drevet frem av nyvinninger på flere områder. Dette inkluderer innovasjon innen kryptografiske metoder som har forbedret konfidensialiteten i tekniske løsninger, i tillegg til nye strukturelle tilnærminger til hvor og hvordan personopplysninger behandles i tekniske systemer.

Personvernfremmende teknologi er et område under utvikling, og flere av løsningene er i en tidlig utviklingsfase. Dette kan gi utfordringer knyttet til skalerbarhet, tilgang til teknisk støtte og kunnskap om sårbarheter.



Kravene i personvernregelverket må overholdes

Alle virksomheter som behandler personopplysninger må kjenne til og oppfylle personvernregelverket. Personvernforordningen krever at den behandlingsansvarlige har på plass organisatoriske og tekniske tiltak som sikrer at personopplysninger behandles i samsvar med personvernprinsippene slik som dataminimering, lagringsbegrensning, integritet og konfidensialitet. Det gjelder også når personvernfremmende teknologi tas i bruk.

For all behandling av personopplysninger, er det den behandlingsansvarlige som har det overordnede ansvaret for at personvernregelverket overholdes. Dette vil i praksis ofte ikke være leverandøren av løsningen, men virksomheten som tar den i bruk og som bestemmer formålet med behandlingen.

Les mer om virksomhetenes plikter



Om veiledningen

Vi vil her komme med noen eksempler på personvernfremmende teknologi og se på hvordan den kan brukes til å møte kravene i personvernforordningen. Vi vil også vise til et par praktiske erfaringer fra Datatilsynets regulatoriske sandkasse, og se på noen av utfordringene og begrensningene som kan oppstå.



Relevante veiledninger



Innholdet komplimenterer også veiledningen vår om om programvareutvikling med innebygd personvern som er rettet mot utviklere.

 

 

Eksempler og bruksområder

Vi vil her gå gjennom noen eksempler på personvernfremmende teknologi, og gi en beskrivelse av relevante juridiske og tekniske problemstillinger som teknologien kan bidra til å adressere.

(Merk at beskrivelsene ikke vil gi en fullstendig vurdering av alle aktuelle problemstillinger, da de vil variere avhengig av det konkrete bruksområdet.)

 

Differensielt personvern

Differensielt personvern ("differential privacy") er en metode for å analysere personopplysninger i et datasett uten at personene er direkte identifiserbare. Dette er hensiktsmessig når en aktør vil dele analytisk innsikt med eksterne aktører, men datagrunnlaget inneholder personopplysninger som ikke skal deles.

Ved bruk av differensielt personvern legger utvikleren bevisst til unøyaktige data som "støy" til deler av datasettet som ikke er relevante for analysen eller statistikkføringen. Dette skal sikre at analyser som deles ikke enkelt kan kobles til enkeltpersoner.

Ved å legge til nok unøyaktig informasjon, kan man oppnå en form for pseudonymisering i datagrunnlaget. En slik pseudonymisering kan bidra til å oppfylle dataminimeringsprinsippet, som vil si at bruken av personopplysninger avgrenses til det som er strengt nødvendig for å oppnå formålet. I tillegg til kan det være et sikkerhetstiltak for å redusere risiko for at enkeltpersoner identifiseres.

De tilførte unøyaktighetene medfører at informasjonen som hentes ut aldri vil være helt nøyaktig. Mindre støy i datasettet vil gi mer nøyaktige resultater, men samtidig øke sjansen for å identifisere enkeltpersoner.

 

Føderert læring

Føderert læring ("federated learning"), er en tilnærming innen maskinlæring som tar sikte på at flere deltakere kan lære av hverandres datasett uten å dele selve datasettene (som ofte kan inneholde personopplysninger). 

Føderert læring fungerer ved at en deltaker først laster ned den siste versjonen av en maskinlæringsalgoritme til en klientenhet, for eksempel en mobiltelefon. Deretter foretas det lokale forbedringer på algoritmen basert på dataene som finnes på klientenheten. Disse lokale modifikasjonene blir deretter sendt tilbake til en server, hvor de blir oppdatert og sammenflettet med endringer fra andre enheter. Et gjennomsnitt av endringsinformasjonen blir deretter brukt til å forbedre modellen. Den oppgraderte maskinlæringsalgoritmen kan så lastes ned av alle klientenhetene.

Denne tilnærmingen gir muligheten til å forbedre en eksisterende modell basert på et stort antall brukere, uten at de forskjellige aktørene må dele personopplysninger som ligger i datasettene deres. Dette kan være hensiktsmessig hvis virksomheten har begrensede data å trene modellene sine på, og når det ikke er hensiktsmessig eller lovlig å dele personopplysninger med eksterne.

En kjent utfordring med føderert læring er at noen modeller kan være sårbare for inversjonsangrep. Dette betyr at ondsinnede aktører kan forsøke å avlede personopplysninger basert på informasjon som sendes ut av de lokale klientenhetene.

Føderert læring kan fungere som et tiltak for å oppfylle kravene til informasjonssikkerhet. Tiltaket kan også bidra til å overholde prinsippene om konfidensialitet og integritet ved at egne datasett ikke deles med andre parter for trening av maskinlæringsmodeller.

 

Homomorfisk kryptering

Homomorfisk kryptering er en type kryptering som skal muliggjøre behandling eller analyse av krypterte opplysninger uten at de trenger å dekrypteres. Dette betyr i teorien at konfidensialiteten opprettholdes, samtidig som det er mulig å bruke datagrunnlaget.

Denne tilnærmingen kan være verdifull når virksomheter ønsker å gi eksterne aktører en meningsfull innsikt i datasett uten å avsløre personopplysninger som ligger der. For enkeltpersonene som opplysningene gjelder, kan det bety at opplysningene er beskyttet fra eksterne aktører og utilsiktet adgang.

Homomorfisk kryptering kan redusere risiko for personvernet ved utkontraktering eller ekstern lagring av data. Den kan også integreres som en viktig komponent i andre personvernfremmende teknologier, for eksempel føderert læring.

Videre kan den bidra til å minimere risiko og redusere alvorligheten av et sikkerhetsbrudd, siden personopplysningene forblir krypterte gjennom hele behandlingsforløpet. Dette betyr at data med personopplysninger er uleselige for eventuelle angripere og ikke mulig å manipulere. Teknologien kan derfor bidra til å oppfylle prinsippene om konfidensialitet og integritet. 

Som med all bruk av kryptering, er det viktig at krypteringsnøkkelen beskyttes i tilstrekkelig grad – også for å sørge for at personopplysninger ikke tapes eller ødelegges ved at det blir umulig å dekryptere datasettet. 

Det også viktig å merke seg at opplysninger det er tilgang til via homomorfisk kryptering, ikke er anonyme. Så lenge de fremdeles er for personopplysninger å regne, vil kravene i personvernregelverket gjelde.

 

Kantprosessering og lokal behandling

I motsetning til de andre teknologiene, representerer kantprosessering ("edge computing") en tilnærming til databehandling snarere enn å være en teknologi i seg selv. Ved kantprosessering utføres behandlingen av data nærmere kilden som genererer opplysningene.

Et eksempel på kantprosessering er et kamera som bruker kunstig intelligens til å analysere bilder, og som gjennomfører analysen lokalt i kamerahuset. Dette skiller seg fra annen praksis, der bildene ofte sendes videre og analysene utføres i skyen eller på en ekstern maskin. Et annet eksempel kan være behandling av data som genereres av en mobiltelefon, og der innsamlingen av opplysninger, i tillegg til analysen, utføres på selve enheten før resultatene sendes til en skyserver.

Kantprosessering kan redusere antall sårbarheter ettersom opplysningene blir behandlet på stedet der de genereres. Det muliggjør også dataminimering, ettersom kun ferdigbehandlede data blir overført.

Det er viktig å merke seg at kantprosessering eller lokal behandling ikke nødvendigvis vil påvirke hvorvidt virksomheten er behandlingsansvarlig eller databehandler. Selv om opplysningene behandles og lagres nærmere kilden, eller på en lokal enhet, har virksomheten fortsatt bestemt hvorfor en sånn behandling skal skje og hvordan. Virksomheten må derfor være oppmerksom på å fortsatt kunne være behandlingsansvarlig for dataene som behandles lokalt, selv om virksomheten ikke har direkte tilgang til dataene.

 

Nullkunnskapsbevis

Nullkunnskapsbevis ("zero-knowledge proofs"), gjør det mulig for en virksomhet eller tilbyder å bevise sannheten i et utsagn for en annen part uten å avsløre annen informasjon enn at utsagnet faktisk er sant.

Når en virksomhet autentiserer brukere, er det vanligvis nødvendig å gjøre det ved hjelp av en nøkkel som er kjent både for den som ønsker å bli autentisert og den som skal autentisere. Nullkunnskapsbevis er en tilnærming der opplysningene blir autentisert, uten at de faktiske opplysningene vises eller blir avslørt overfor motparten. Det vil si at personen som skal autentiseres må kunne bevise at de besitter kunnskap om noe hemmelig (for eksempel at en person er myndig), uten at den som autentiserer får vite hva hemmeligheten består av (for eksempel hva alderen er).

Bruk av nullkunnskapsbevis kan styrke personopplysningssikkerheten og føre til større grad av lagringsbegrensing og dataminimering ved at aktøren som autentiserer ikke behøver å selv lagre informasjonen som kreves for å autentisere.

 

Sikker flerpartsberegning

Sikker flerpartsberegning ("secure multiparty computation") er en protokoll som gjør det mulig for flere aktører å behandle opplysninger på tvers av enheter – uten at noen av aktørene har innsikt i de andres opplysninger utover det som er strengt nødvendig. Det betyr at det ikke er nødvendig med en sentral aktør som har tilgang til alle aktørenes datasett. I stedet kan de forskjellige aktørene bevare sine egne opplysninger og holde dem avskjermet.

En undervariant av sikker flerpartsberegning er "private set intersection". Denne protokollen gjør det mulig for to deltakere å finne ut hvilke data de har de har til felles i sine respektive datasett, uten å avsløre eller dele annen informasjon fra datasettene.

Bruk av sikker flerpartsberegning kan hjelpe til med å ivareta personopplysningssikkerheten ettersom fullstendige datasett ikke deles med andre deltakere. Risiko som kan oppstå ved databrudd vil kunne reduseres fordi data som deles mellom aktørene ikke lagres sammen på ett sted. Tiltaket kan også bidra til å oppfylle prinsippet om dataminimering, ettersom andre som hovedregel ikke får tilgang til personopplysninger som ikke er nødvendig til formålet deres. 

 

Tiltrodde prosesseringsområder

Tiltrodde prosesseringsområder ("trusted execution environment" (TEE)), er et kontrollert prosesseringsområde i datamaskiner eller mobiltelefoner. Disse områdene er isolert fra der programvare og programmer normalt kjøres. På dette sikre området er det mulig å kjøre kode og lagre informasjon som er isolert fra resten av enheten. Andre deler av enheten kan ikke behandle opplysninger lagret på dette området, men behandlinger på området kan benytte informasjon fra andre deler av enheten.

Bruk av tiltrodde prosesseringsområder kan være hensiktsmessig for virksomheter å bruke hvis de vil analysere opplysninger på en måte som ivaretar sikkerheten og forhindrer at andre aktører får tilgang.

Tiltaket vil kunne redusere sannsynligheten for at personopplysninger kommer på avveier, gjennom effektiv tilgangsstyring for bestemte deler av en behandling.

 

Syntetiske data

Syntetiske data er generert for å etterligne virkeligheten, uten å representere reelle personopplysninger. Prosessering av slike data i en løsning skal gi samme resultater som reelle data, og kan derfor være hensiktsmessig å benytte ved testing av løsninger hvor det ikke er nødvendig eller lovlig å bruke personopplysninger. 

Det er viktig å sørge for at det ikke er teknisk mulig å avlede reelle opplysninger basert på de syntetiske dataene. Syntetiske datasett har ofte de statistiske egenskapene til et opprinnelig datasett som inneholder personopplysninger. Produksjon av syntetiske data vil derfor som oftest kreve en behandling av reelle data for å skape en tilstrekkelig god etterligning, og behandlingen av de reelle dataene vil kreve et gyldig behandlingsgrunnlag.

Syntetiske data representerer en nyttig tilnærming for å oppfylle prinsippet om dataminimering, da tiltaket er et alternativ til å samle inn ytterligere personopplysninger kun for testformål.

Virksomheter må være bevisste på risikoene ved syntetiske data. Hvis dataene genereres fra personopplysninger som inneholder skjevheter, vil disse skjevheter føres videre. Skjevheter med potensielt uheldige konsekvenser bør derfor identifiseres og rettes, i tråd med riktighetsprinssippet i forordningen.



Eksempler på praktisk bruk av syntetiske data

Løsninger som benytter syntetiske data er allerede tilgjengelig på markedet. To av dem har vunnet Datatilsynets pris for innebygd personvern:

 

 

 

 

 

 


Erfaringer fra sandkassen


I flere av prosjektene i Datatilsynets regulatoriske sandkasse har personvernfremmende teknologi vært et sentralt tema.


Sandkassen skal stimulere til personvernvennlig innovasjon og digitalisering, og Datatilsynet samarbeider der med enkeltaktører for å hjelpe dem til å følge regelverket og utvikle løsninger med godt personvern. 

 

Føderert læring for å avdekke hvitvasking

I prosjektet "Maskinlæring uten datadeling" så Datatilsynet og teknologiselskapet Finterai nærmere på hvordan personvernregelverket skulle tolkes i forbindelse med bruk av føderert læring for antihvitvaskingsformål.

Finterai utviklet maskinlæringsteknologi for å hjelpe banker i kampen mot finansiell kriminalitet. En "utfordring" for bankene var at de ikke hadde mange nok kriminelle transaksjoner til å gjøre gode analyser på hva som faktisk skilte en mistenkelig transaksjon fra mengden. Målet til Finterai var å benytte føderert læring for å kombinere læringen fra flere bankers datasett, men uten at bankene faktisk delte data seg imellom.

En konkret lærdom fra prosjektet var at utformingen av systemarkitekturen for føderert læring kunne ha betydelig innvirkning på personvernet og sikkerheten i løsningen. Veivalg som ville medført å samle og sentralisere bankenes transaksjonsopplysninger på en sentral server, vil potensielt kunne skape en stor angrepsflate og utløse økte krav til tekniske og organisatoriske tiltak. Et viktig tiltak var derfor at Finterai ikke skulle ha tilgang til de individuelle bankenes lokale datasett med transaksjonsopplysninger for å utvikle eller drifte tjenesten. Istedenfor skulle bankene selv ha kontroll over sine datasett.

Et annet tema som ble diskutert i prosjektet, var muligheten for «modellinverteringsangrep». Slike angrep har som mål å rekonstruere data som er benyttet for treningen av løsningen, inkludert persondata. Det er i sum betydelige hindre og kostnader knyttet til denne type angrep for eksterne trusselaktører, også i kontekst av Finterais løsning.

Ettersom føderert læring er en ung teknologi, kan det være flere sårbarheter som ikke enda er avdekket, og det kan derfor være krevende å gjøre presise risikovurderinger.

Les sluttrapporten "Maskinlæring uten datadeling" 

 

Kantprosessering på for mindre inngripende sikkerhetsovervåking

Sikkerhetsselskapet Doorkeeper har hatt som mål å styrke personvernet i moderne kameraovervåkingssystemer. De ønsket å oppnå dette ved å bruke intelligent videoanalyse til å sladde identifiserende opplysninger – slik som ansikter og menneskeformer – i videostrømmen. Videre ønsket de å sørge for at færre opptak ble lagret sammenlignet med mer tradisjonelle overvåkingssystemer. Dette var derfor tema i sandkasseprosjektet.

Doorkeeper brukte kantprosessering og lokal lagring i løsningen sin, der videostrømmen ble sladdet direkte i kameraet før den ble sendt videre til en ekstern plattform ("video management system"). Mange av personopplysningene ville slik kun bli behandlet i selve kamerahuset. Opptak med personopplysninger ville bare bli sendt til den eksterne plattformen hvis en forhåndsdefinert hendelse ble detektert. I tillegg ble opptak midlertidig lagret bare i kameraet ("cache"), men disse skulle bli slettet etter et forhåndsbestemt tidsintervall (for eksempel fem minutter).

For Doorkeeper var det blant annet viktig å sørge for at sikkerheten fulgte den tekniske utviklingen, og at eventuelle sårbarheter ble adressert fortløpende. Doorkeeper måtte også sikre den fysiske innretningen av løsningen, inkludert kommunikasjonen mellom kameraet og den eksterne plattformen.

Det var også et poeng at behandlingen av personopplysninger kunne bli konfigurert til å være betydelig begrenset, noe som kunne påvirke vurderingen av det rettslige grunnlaget for overvåkingen. I situasjoner der det rettslige grunnlaget var basert på en berettiget interesse vil det at kameraovervåkingen er mindre inngripende kunne påvirke nødvendighetsvurderingen.

Les sluttrapporten "Intelligent kameraovervåking med personvern i fokus"



Utfordringer og begrensninger

Vi vil her oppsummere noen mulige utfordringer og begrensninger som virksomheter og utviklere bør ta hensyn til når de vurderer å ta i bruk personvernfremmende teknologi.

  1. Manglende modenhet
    De ulike personvernfremmende teknologiene varierer i modenhet. Det fører til at de kan være vanskelige å skalere og implementere, i tillegg til at det kan være mangelfull tilgang på teknisk støtte. Mange sårbarheter er heller ikke avdekket, noe som kan svekke personopplysningssikkerheten og ivaretagelsen av sentrale krav i personvernregelverket.
  2. Manglende kompetanse
    De fleste av teknologiene krever riktig kompetanse for å kunne brukes lovlig. Erfaringer fra den regulatoriske sandkassen viser at mange av løsningene vil måtte skreddersys den konkrete bransjen, virksomheten eller løsningen, noe som kan være utfordrende og kreve høy teknisk kompetanse.


    Manglende kompetanse kan også føre til feil i implementering og bruk, som igjen kan føre til at personvernet ikke blir ivaretatt. Hvis virksomheten selv ikke har nødvendig ekspertise, bør det vurderes å bruke en tjeneste eller leverandør som gir et passende nivå med brukerstøtte.
  3. Manglende oppdateringer
    Teknologier med kjente sårbarheter som ikke blir reparert eller oppdatert, kan være en utfordring. Hvis det ikke iverksettes tiltak for å fjerne sårbarheter, vil det føre til høyere risiko og kan medføre brudd på personvernregelverket.


    Når angripere får kjennskap til sårbarheter, vil de normalt forsøke å utnytte dem så fort som mulig. Produsentene må derfor publisere oppdateringer så fort som mulig når sårbarheter blir kjent, slik at sikkerheten kan opprettholdes.

    Det er verdt å påpeke at jo færre aktører virksomheten har i leverandørkjeden, desto færre aktører må virksomheten forholde seg til for å holde produktene oppdatert.
  4. Usikkerhet om behandlingsansvar
    Noen typer teknologi kan skape usikkerhet om hvor behandlingsansvaret ligger.


    personvernforordningen er den behandlingsansvarlige definert som den som bestemmer formålet med behandling av personopplysninger (dvs. hvorfor behandlingen skjer) og hvilke essensielle midler som skal brukes for å oppnå formålet (dvs. hvordan opplysningene skal behandles). Dette betyr i praksis at det som oftest vil være virksomheten – og ikke utvikleren – som anskaffer og tar løsningen i bruk, og som er å anse som behandlingsansvarlig.

    Visse teknologier og metoder, som kantprosessering, vil gjøre at virksomheten som tar i bruk løsningen ikke har direkte tilgang til personopplysningene som behandles. Det kan likevel være at virksomheten har behandlingsansvaret, selv om den ikke har tilgang til opplysningene. 

 

 

:

Av Svenn Dybvik - Lördag 2 mars 00:00

si vis pacem, para iustitiam


interrobangit

 

 

 

 

 

 

 

 

 


http://interrobangit.bloggplatsen.se/presentation

 

http://interrobangit.bloggplatsen.se/2024/04/27/11817408/

http://interrobangit.bloggplatsen.se/2024/04/21/11817099/

http://interrobangit.bloggplatsen.se/2024/04/20/11817030/

http://interrobangit.bloggplatsen.se/2024/04/14/11816691/

http://interrobangit.bloggplatsen.se/2024/04/13/11816630/

http://interrobangit.bloggplatsen.se/2024/04/07/11816298/

http://interrobangit.bloggplatsen.se/2024/04/06/11816229/

http://interrobangit.bloggplatsen.se/2024/03/31/11815835/

 

http://interrobangit.bloggplatsen.se/2024/03/30/11815777/

http://interrobangit.bloggplatsen.se/2024/03/24/11815431/

http://interrobangit.bloggplatsen.se/2024/03/23/11815377/

http://interrobangit.bloggplatsen.se/2024/03/17/11815023/

http://interrobangit.bloggplatsen.se/2024/03/16/11814964/

http://interrobangit.bloggplatsen.se/2024/03/10/11814616/

http://interrobangit.bloggplatsen.se/2024/03/09/11814550/

http://interrobangit.bloggplatsen.se/2024/03/03/11814215/

 

http://interrobangit.bloggplatsen.se/2024/03/02/11812481/

http://interrobangit.bloggplatsen.se/2024/02/25/11812482/

http://interrobangit.bloggplatsen.se/2024/02/24/11812483/

http://interrobangit.bloggplatsen.se/2024/02/18/11812484/

http://interrobangit.bloggplatsen.se/2024/02/17/11812485/

http://interrobangit.bloggplatsen.se/2024/02/11/11812486/

http://interrobangit.bloggplatsen.se/2024/02/10/11812487/

http://interrobangit.bloggplatsen.se/2024/02/04/11812488/

 

http://interrobangit.bloggplatsen.se/2024/02/03/11812471/

http://interrobangit.bloggplatsen.se/2024/01/28/11812472/

http://interrobangit.bloggplatsen.se/2024/01/27/11812473/

http://interrobangit.bloggplatsen.se/2024/01/21/11812474/

http://interrobangit.bloggplatsen.se/2024/01/20/11812475/

http://interrobangit.bloggplatsen.se/2024/01/14/11812476/

http://interrobangit.bloggplatsen.se/2024/01/13/11812477/

http://interrobangit.bloggplatsen.se/2024/01/07/11809673/

 

http://interrobangit.bloggplatsen.se/2023/12/31/11809080/

http://interrobangit.bloggplatsen.se/2023/12/24/11808436/

http://interrobangit.bloggplatsen.se/2023/12/17/11807843/

http://interrobangit.bloggplatsen.se/2023/12/10/11807032/

http://interrobangit.bloggplatsen.se/2023/12/03/11806437/

http://interrobangit.bloggplatsen.se/2023/11/26/11805948/

http://interrobangit.bloggplatsen.se/2023/11/19/11805462/

http://interrobangit.bloggplatsen.se/2023/11/12/11804748/

 

http://interrobangit.bloggplatsen.se/2023/11/05/11803843/

http://interrobangit.bloggplatsen.se/2023/10/29/11802910/

http://interrobangit.bloggplatsen.se/2023/10/22/11801623/

http://interrobangit.bloggplatsen.se/2023/10/15/11800702/

http://interrobangit.bloggplatsen.se/2023/10/08/11799349/

http://interrobangit.bloggplatsen.se/2023/10/01/11797103/

http://interrobangit.bloggplatsen.se/2023/09/24/11795905/

http://interrobangit.bloggplatsen.se/2023/09/17/11795095/

 

http://interrobangit.bloggplatsen.se/2023/09/10/11794600/

http://interrobangit.bloggplatsen.se/2023/09/03/11794088/

http://interrobangit.bloggplatsen.se/2023/08/27/11793398/ 

http://interrobangit.bloggplatsen.se/2023/08/20/11792985/

http://interrobangit.bloggplatsen.se/2023/08/13/11792494/

http://interrobangit.bloggplatsen.se/2023/08/06/11791981/

http://interrobangit.bloggplatsen.se/2023/07/30/11791456/

http://interrobangit.bloggplatsen.se/2023/07/23/11790886/

 

http://interrobangit.bloggplatsen.se/2023/07/16/11790435/

http://interrobangit.bloggplatsen.se/2023/07/09/11789982/

http://interrobangit.bloggplatsen.se/2023/07/02/11789494/

http://interrobangit.bloggplatsen.se/2023/06/25/11788958/

http://interrobangit.bloggplatsen.se/2023/06/18/11788358/

http://interrobangit.bloggplatsen.se/2023/06/11/11787767/

http://interrobangit.bloggplatsen.se/2023/06/04/11787315/

http://interrobangit.bloggplatsen.se/2023/05/28/11786823/

 

http://interrobangit.bloggplatsen.se/2023/05/21/11786357/

http://interrobangit.bloggplatsen.se/2023/05/14/11785856/

http://interrobangit.bloggplatsen.se/2023/05/07/11785348/

http://interrobangit.bloggplatsen.se/2023/04/30/11784837/

http://interrobangit.bloggplatsen.se/2023/04/23/11783864/

http://interrobangit.bloggplatsen.se/2023/04/16/11782994/

http://interrobangit.bloggplatsen.se/2023/04/09/11782445/

http://interrobangit.bloggplatsen.se/2023/04/02/11810271/

 

http://interrobangit.bloggplatsen.se/2023/03/26/11811111/

http://interrobangit.bloggplatsen.se/2023/03/19/11811112/

http://interrobangit.bloggplatsen.se/2023/03/12/11811113/

http://interrobangit.bloggplatsen.se/2023/03/05/11811114/

http://interrobangit.bloggplatsen.se/2023/02/26/11811115/

http://interrobangit.bloggplatsen.se/2023/02/19/11811116/

http://interrobangit.bloggplatsen.se/2023/02/12/11811117/

http://interrobangit.bloggplatsen.se/2023/02/05/11811118/

:

Av Svenn Dybvik - Söndag 25 feb 00:00

https://www.digg.se/kunskap-och-stod/metodstod-for-dataskydd-vid-innovation


Metodstöd för dataskydd vid innovation

 

Metodstödet ger dig som offentlig aktör stöd i dataskyddsfrågor som du behöver hantera när du arbetar med innovation, digitalisering och digital verksamhetsutveckling. Syftet är att ge dig vägledning i hur du utformar en personuppgiftsbehandling som följer dataskyddsförordningen.


https://www.digg.se/kunskap-och-stod/metodstod-for-dataskydd-vid-innovation/dataskydd-och-innovation

https://www.digg.se/kunskap-och-stod/metodstod-for-dataskydd-vid-innovation/rattslig-bedomning-av-personuppgiftsbehandlingen

https://www.digg.se/kunskap-och-stod/metodstod-for-dataskydd-vid-innovation/checklista



Inledning

Sverige är mitt i en digital transformation som berör alla samhällssektorer och hela samhället. Digitaliseringen innebär att allt fler personuppgifter samlas in, används och återanvänds. Behandling av personuppgifter bidrar till bra och effektiva tjänster för medborgarna, men medför också stora utmaningar kopplat till den personliga integriteten.

Frågan om personlig integritet handlar i grunden om vilken typ av samhälle vi vill leva i, idag och i framtiden. Det är inte ett smalt expert- eller nischområde. Det är nödvändigt att integritet förstås som ett värde som bidrar till att värna och bygga förtroende i samhället, inte som en broms eller ett nödvändigt ont för att undvika sanktioner.

När offentliga aktörer innoverar och med hjälp av teknik tar fram nya processer, tjänster och produkter är det viktigt att säkerställa att insamling och användning av personuppgifter sker på ett etiskt, lagligt och långsiktigt hållbart sätt. Som offentlig aktör bör du sträva efter att vara förebilder för en hållbar digitalisering och bygga in dataskydd från början.

Dataskyddsförordningen beskrivs ofta som ett komplicerat regelverk som hindrar eller hämmar utveckling av ny teknik och digitalisering, men den är till för att skydda grundläggande rättigheter och friheter, särskilt rätten till personlig integritet. Dataskyddsförordningen ska trygga att vår personliga integritet inte kränks, genom att våra personuppgifter exempelvis sprids och används för andra syften än vad som var tänkt från början. Dataskyddsförordningen har syftet att säkerställa ett fritt flöde av personuppgifter inom EU och EES. Den ska dessutom hindra integritetshotande teknik som utför överdriven eller obefogad behandling av personuppgifter.

Reglerna i förordningen gäller i hela EU. Förordningen innehåller bland annat skyldigheter för verksamheter som behandlar personuppgifter. Det är Integritetsskyddsmyndigheten (IMY), Sveriges nationella tillsynsmyndighet för behandling av personuppgifter, som granskar att reglerna på dataskyddsområdet följs, till exempel genom att utöva tillsyn och ge vägledning. Verksamheter som bryter mot reglerna riskerar exempelvis sanktionsavgifter eller förelägganden om att rätta till brister som upptäckts vid tillsyn.



Om metodstödet

Metodstödet är framtaget av Digg och IMY i samverkan. Det ska vara ett stöd om dataskyddsfrågor för offentliga aktörer att använda vid innovation, digitalisering och digital verksamhetsutveckling. Metodstödet kan användas både om du och din organisation ska påbörja en ny person-uppgiftsbehandling eller digitalisera en pågående behandling. Syftet är att vägleda dig att utforma en personuppgiftsbehandling som följer dataskyddsförordningen.

Metodstödet utgår från två övergripande förutsättningar:

  1. En organisation som ska innovera måste beakta dataskyddsförordningen löpande under innovationsarbetets gång.
  2. Det krävs kontinuerligt och strukturerat tvärfunktionellt samarbete mellan de funktioner – jurister, tekniker och chefer – som deltar i innovationsarbetet.

I detta metodstöd föreslås en modell för hur det tvärfunktionella samarbetet kan se ut. Att använda metodstödet skapar inga garantier för att personuppgiftsbehandlingen kommer följa dataskyddsförordningen. Metodstödet bidrar dock till att skapa en grundlig dokumentation om personuppgiftsbehandlingen. Underlaget är en viktig beståndsdel i att uppfylla dataskyddsförordningens princip om ansvarsskyldighet, som innebär att den personuppgiftsansvariga ansvarar för att behandlingen följer förordningen. Underlaget kan också ligga till grund för en konsekvensbedömning om dataskydd.

Innovation i offentlig förvaltning kan ske med olika syften och i olika former, det kan till exempel handla om att utföra befintliga uppgifter på nya sätt, eller att införa nya delar till verksamheter. Detta metodstöd tar i huvudsak sikte på när innovation innebär att en teknisk tjänst eller produkt ska utvecklas eller köpas för att användas i offentliga aktörers verksamhet.



Metodstödet riktar sig till offentlig förvaltning

Metodstödet riktar sig till verksamheter i offentlig förvaltning. Inom dessa verksamheter är tanken att jurister, utvecklare, it-arkitekter, beslutsfattare och projektledare med flera, som är inblandade i ett innovationsprojekt, ska hitta stöd i samarbetet med andra kompetenser än den egna. Även om avsnittet Rättslig bedömning av personuppgiftsbehandlingen utgår från regelverket i dataskyddsregleringarna är det vår förhoppning att detta metodstöd ska vara ett verktyg för att tillämpa den juridiska metoden tillsammans med utvecklingsmetodik.



Film om metodstödet

I filmen berättar vi om innehållet i metodstödet och hur det är uppbyggt.

https://www.digg.se/kunskap-och-stod/metodstod-for-dataskydd-vid-innovation




:

Av Svenn Dybvik - Lördag 24 feb 00:00

https://www.digg.se/kunskap-och-stod/eu-rattsakter/ai-forordningen#h-Lardigmer


AI-förordningen

 

Proposal for a regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (artificial intelligence act) 2021/0106 (COD).

 
 

Syftet med en EU-gemensam lagstiftning om AI är att säkerställa att användning av AI-system på EU:s inre marknad är säkra, respekterar mänskliga rättigheter och underlättar för innovation och investering inom AI.



Vad handlar förordningen om?

AI-förordningen ska reglera användningen av AI-system med en EU-gemensam lagstiftning. Användningen av AI-system kommer att regleras med en riskbaserad modell där viss användning kan förbjudas och annat tillåtas med restriktioner och krav i form av bland annat tillsyn och registrering. Det är främst AI-system med hög risk som nu får krav på transparens, kvalitetssäkring och möjlighet till granskning. Det är bara sådana AI-lösningar som omfattas av definitionen av ”AI-system” som möste följa kraven.



Vilka påverkas av AI-förordningen?

AI-förordningen ska gälla för alla som använder AI-system, både inom privat och offentlig verksamhet. Bestämmelserna i AI-förordningen riktas i första hand mot användning av AI-system inom vissa verksamhetsområden och för vissa syften, som till exempel inom bedömningar av människors beteenden, värderingar och för övervakning.



När börjar förordningen gälla?

EU-kommissionen lämnade förslag på AI-förordningen den 21 april 2021 och därefter har Europeiska rådet och Parlamentet förhandlat under andra halvåret 2023. AI-akten är nu i sista steget av lagstiftningsarbetet och kommer sannolikt att beslutas under våren 2024. Kommissionen har föreslagit att AI-förordningen ska börja gälla 24 månader efter att den har trätt i kraft, men undantag finns för viss användning av AI-system som träder i kraft tidigare och annan senare.



Finns det några sanktioner?

Ja, det kommer att finnas administrativa sanktionsavgifter för överträdelser som fastställs genom en procentandel av årsomsättningen. Det kommer även att inrättas möjligheter för fysiska eller juridiska personer att lämna in klagomål till den nationella myndighet som får i uppdrag att utöva tillsyn över AI-förordningen.



Vilken användning av AI omfattas?

Vilken typ av AI som kommer att räknas som AI-system och omfattas av förordningen är ännu inte beslutat och definitionen av ”AI-system” ingår i förhandlingen.



Förberedelsearbete

Ett sätt att förbereda sig inför kommande lagstiftning är att inventera i sin organisation vilka typer av AI-lösningar som redan används eller som planeras eller testas. Det är bra att göra en inledande bedömning om det är frågan om automatiserde beslutsprocesser eller mer avancerade AI-system som kan omfattas av AI-förordningen.

I förordningen kommer det att ställas krav på bland annat spårbarhet för beslut och dokumentation om de AI-system som används. Det kan därför vara bra att redan nu se över denna typ av rutiner inom verksamheten. Ett bra stöd finns i den förtroendemodell som Digg med flera myndigheter har tagit fram.



 
 
 
 
 
 
 
 
 

Artificial intelligence act: Council and Parliament strike a deal on the first rules for AI in the world

This press release was updated on 2 February 2024 to add the final compromise text with a view to agreement.

Following 3-day ‘marathon’ talks, the Council presidency and the European Parliament’s negotiators have reached a provisional agreement on the proposal on harmonised rules on artificial intelligence (AI), the so-called artificial intelligence act. The draft regulation aims to ensure that AI systems placed on the European market and used in the EU are safe and respect fundamental rights and EU values. This landmark proposal also aims to stimulate investment and innovation on AI in Europe.



This is a historical achievement, and a huge milestone towards the future! Today’s agreement effectively addresses a global challenge in a fast-evolving technological environment on a key area for the future of our societies and economies. And in this endeavour, we managed to keep an extremely delicate balance: boosting innovation and uptake of artificial intelligence across Europe whilst fully respecting the fundamental rights of our citizens.

Carme Artigas, Spanish secretary of state for digitalisation and artificial intelligence



The AI act is a flagship legislative initiative with the potential to foster the development and uptake of safe and trustworthy AI across the EU’s single market by both private and public actors. The main idea is to regulate AI based on the latter’s capacity to cause harm to society following a ‘risk-based’ approach: the higher the risk, the stricter the rules. As the first legislative proposal of its kind in the world, it can set a global standard for AI regulation in other jurisdictions, just as the GDPR has done, thus promoting the European approach to tech regulation in the world stage.

 

 

 

 

The main elements of the provisional agreement

Compared to the initial Commission proposal, the main new elements of the provisional agreement can be summarised as follows:

  • rules on high-impact general-purpose AI models that can cause systemic risk in the future, as well as on high-risk AI systems
  • a revised system of governance with some enforcement powers at EU level
  • extension of the list of prohibitions but with the possibility to use remote biometric identification by law enforcement authorities in public spaces, subject to safeguards
  • better protection of rights through the obligation for deployers of high-risk AI systems to conduct a fundamental rights impact assessment prior to putting an AI system into use.

In more concrete terms, the provisional agreement covers the following aspects:

 

 

 

Definitions and scope

To ensure that the definition of an AI system provides sufficiently clear criteria for distinguishing AI from simpler software systems, the compromise agreement aligns the definition with the approach proposed by the OECD.

The provisional agreement also clarifies that the regulation does not apply to areas outside the scope of EU law and should not, in any case, affect member states’ competences in national security or any entity entrusted with tasks in this area. Furthermore, the AI act will not apply to systems which are used exclusively for military or defence purposes. Similarly, the agreement provides that the regulation would not apply to AI systems used for the sole purpose of research and innovation, or for people using AI for non-professional reasons. 

 

 

 

Classification of AI systems as high-risk and prohibited AI practices

The compromise agreement provides for a horizontal layer of protection, including a high-risk classification, to ensure that AI systems that are not likely to cause serious fundamental rights violations or other significant risks are not captured. AI systems presenting only limited risk would be subject to very light transparency obligations, for example disclosing that the content was AI-generated so users can make informed decisions on further use.

A wide range of high-risk AI systems would be authorised, but subject to a set of requirements and obligations to gain access to the EU market. These requirements have been clarified and adjusted by the co-legislators in such a way that they are more technically feasible and less burdensome for stakeholders to comply with, for example as regards the quality of data, or in relation to the technical documentation that should be drawn up by SMEs to demonstrate that their high-risk AI systems comply with the requirements.

Since AI systems are developed and distributed through complex value chains, the compromise agreement includes changes clarifying the allocation of responsibilities and roles of the various actors in those chains, in particular providers and users of AI systems. It also clarifies the relationship between responsibilities under the AI Act and responsibilities that already exist under other legislation, such as the relevant EU data protection or sectorial legislation.

For some uses of AI, risk is deemed unacceptable and, therefore, these systems will be banned from the EU. The provisional agreement bans, for example, cognitive behavioural manipulation, the untargeted scraping of facial images from the internet or CCTV footage, emotion recognition in the workplace and educational institutions, social scoringbiometric categorisation to infer sensitive data, such as sexual orientation or religious beliefs, and some cases of predictive policing for individuals.

 

 

 

Law enforcement exceptions

Considering the specificities of law enforcement authorities and the need to preserve their ability to use AI in their vital work, several changes to the Commission proposal were agreed relating to the use of AI systems for law enforcement purposes. Subject to appropriate safeguards, these changes are meant to reflect the need to respect the confidentiality of sensitive operational data in relation to their activities. For example, an emergency procedure was introduced allowing law enforcement agencies to deploy a high-risk AI tool that has not passed the conformity assessment procedure in case of urgency. However, a specific mechanism has been also introduced to ensure that fundamental rights will be sufficiently protected against any potential misuses of AI systems.

Moreover, as regards the use of real-time remote biometric identification systems in publicly accessible spaces, the provisional agreement clarifies the objectives where such use is strictly necessary for law enforcement purposes and for which law enforcement authorities should therefore be exceptionally allowed to use such systems. The compromise agreement provides for additional safeguards and limits these exceptions to cases of victims of certain crimes, prevention of genuine, present, or foreseeable threats, such as terrorist attacks, and searches for people suspected of the most serious crimes.

 

 

 

General purpose AI systems and foundation models

New provisions have been added to take into account situations where AI systems can be used for many different purposes (general purpose AI), and where general-purpose AI technology is subsequently integrated into another high-risk system. The provisional agreement also addresses the specific cases of general-purpose AI (GPAI) systems.

Specific rules have been also agreed for foundation models, large systems capable to competently perform a wide range of distinctive tasks, such as generating video, text, images, conversing in lateral language, computing, or generating computer code. The provisional agreement provides that foundation models must comply with specific transparency obligations before they are placed in the market. A stricter regime was introduced for ‘high impact’ foundation models. These are foundation models trained with large amount of data and with advanced complexity, capabilities, and performance well above the average, which can disseminate systemic risks along the value chain.

 

 

 

A new governance architecture

Following the new rules on GPAI models and the obvious need for their enforcement at EU level, an AI Office within the Commission is set up tasked to oversee these most advanced AI models, contribute to fostering standards and testing practices, and enforce the common rules in all member states. A scientific panel of independent experts will advise the AI Office about GPAI models, by contributing to the development of methodologies for evaluating the capabilities of foundation models, advising on the designation and the emergence of high impact foundation models, and monitoring possible material safety risks related to foundation models.

The AI Board, which would comprise member states’ representatives, will remain as a coordination platform and an advisory body to the Commission and will give an important role to Member States on the implementation of the regulation, including the design of codes of practice for foundation models. Finally, an advisory forum for stakeholders, such as industry representatives, SMEs, start-ups, civil society, and academia, will be set up to provide technical expertise to the AI Board.

 

 

 

Penalties

The fines for violations of the AI act were set as a percentage of the offending company’s global annual turnover in the previous financial year or a predetermined amount, whichever is higher. This would be €35 million or 7% for violations of the banned AI applications, €15 million or 3% for violations of the AI act’s obligations and €7,5 million or 1,5% for the supply of incorrect information. However, the provisional agreement provides for more proportionate caps on administrative fines for SMEs and start-ups in case of infringements of the provisions of the AI act.

The compromise agreement also makes clear that a natural or legal person may make a complaint to the relevant market surveillance authority concerning non-compliance with the AI act and may expect that such a complaint will be handled in line with the dedicated procedures of that authority.

 

 

 

Transparency and protection of fundamental rights

The provisional agreement provides for a fundamental rights impact assessment before a high-risk AI system is put in the market by its deployers. The provisional agreement also provides for increased transparency regarding the use of high-risk AI systems. Notably, some provisions of the Commission proposal have been amended to indicate that certain users of a high-risk AI system that are public entities will also be obliged to register in the EU database for high-risk AI systems.  Moreover, newly added provisions put emphasis on an obligation for users of an emotion recognition system to inform natural persons when they are being exposed to such a system.

 

 

 

Measures in support of innovation

With a view to creating a legal framework that is more innovation-friendly and to promoting evidence-based regulatory learning, the provisions concerning measures in support of innovation have been substantially modified compared to the Commission proposal.

Notably, it has been clarified that AI regulatory sandboxes, which are supposed to establish a controlled environment for the development, testing and validation of innovative AI systems, should also allow for testing of innovative AI systems in real world conditions. Furthermore, new provisions have been added allowing testing of AI systems in real world conditions, under specific conditions and safeguards. To alleviate the administrative burden for smaller companies, the provisional agreement includes a list of actions to be undertaken to support such operators and provides for some limited and clearly specified derogations. 

 

 

 

Entry into force

The provisional agreement provides that the AI act should apply two years after its entry into force, with some exceptions for specific provisions.

 

 

 

Next steps

Following today’s provisional agreement, work will continue at technical level in the coming weeks to finalise the details of the new regulation. The presidency will submit the compromise text to the member states’ representatives (Coreper) for endorsement once this work has been concluded.

The entire text will need to be confirmed by both institutions and undergo legal-linguistic revision before formal adoption by the co-legislators.

 

 

 

Background information

The Commission proposal, presented in April 2021, is a key element of the EU’s policy to foster the development and uptake across the single market of safe and lawful AI that respects fundamental rights.

The proposal follows a risk-based approach and lays down a uniform, horizontal legal framework for AI that aims to ensure legal certainty.  The draft regulation aims to promote investment and innovation in AI, enhance governance and effective enforcement of existing law on fundamental rights and safety, and facilitate the development of a single market for AI applications. It goes hand in hand with other initiatives, including the coordinated plan on artificial intelligence which aims to accelerate investment in AI in Europe. On 6 December 2022, the Council reached an agreement for a general approach (negotiating mandate) on this file and entered interinstitutional talks with the European Parliament (‘trilogues’) in mid-June 2023.

 

:

Av Svenn Dybvik - Söndag 18 feb 00:00

https://www.digg.se/kunskap-och-stod/oppna-och-delade-data/offentliga-aktorer


Offentliga aktörer

 
 

Data från offentliga förvaltningar är en samhällsresurs som kan skapa nya värden, ny kunskap och innovation. Här kan du läsa viktig information om vägledningar kring detta ämne och om vilka som använder öppna och delade data.



https://www.digg.se/kunskap-och-stod/oppna-och-delade-data/offentliga-aktorer/nationella-principer-for-att-tillgangliggora-information

https://www.digg.se/kunskap-och-stod/oppna-och-delade-data/offentliga-aktorer/vagledning-om-oppna-datalagen

https://www.digg.se/kunskap-och-stod/oppna-och-delade-data/offentliga-aktorer/vagledning-for-strategiska-beslut-och-atgarder

https://www.digg.se/kunskap-och-stod/oppna-och-delade-data/offentliga-aktorer/vagledning-for-att-tillgangliggora-information

https://www.digg.se/kunskap-och-stod/oppna-och-delade-data/offentliga-aktorer/rekommendation-om-oppna-licenser-och-immaterialratt

https://www.digg.se/kunskap-och-stod/oppna-och-delade-data/offentliga-aktorer/prioriterade-informationsmangder

https://www.digg.se/kunskap-och-stod/oppna-och-delade-data/offentliga-aktorer/rekommendationer-for-upphandling-av-data

https://www.digg.se/kunskap-och-stod/oppna-och-delade-data/offentliga-aktorer/vardefulla-datamangder




Användare av öppna och delade data utgör ingen homogen grupp av människor utan kan återfinnas i olika delar av samhället och kan vara drivna av olika intressen. Den öppna och digitala tillgången gör också att dataanvändare idag kan ses som gränsöverskridande i bemärkelsen att användningen är frikopplad från såväl organisatoriska som nationella eller regionala gränser. För att man ändå ska kunna skapa sig en förståelse av vilka som använder öppna och delade data, och varför, beskrivs här fyra förenklade typanvändare. Det är dock viktigt att komma ihåg att dessa konkretiserade användargrupper inte fullt ut ger en bild av alla möjliga användare.

 

 

 

Informationsdrivna användare

Målgruppen informationsdrivna användare avser personer som har ett mer allmänt intresse av att hitta information och fakta. Denna användarkategori kan bestå av personer från hela samhället och som både kan vara driven utifrån en specialkompetens inom olika områden eller av allmänt intresse.

Exempel på roller man hittar i denna kategori är bl.a politiker, studenter, forskare, journalister, entreprenörer, kulturarvsintresserade, historiker, media i allmänhet och olika typer av intresseorganisationer.

Vanligt förekommande drivkrafter är bl.a insyn och delaktighet i offentlig verksamhet, att förstå och delta i arbetet med att adressera samhällsutmaningar, samt att få information som rör deras geografiska närområde. För att denna kategori av användare ska kunna ta till sig datamängderna och den information som de innehåller är det särskilt viktigt att informationen visualiseras, att beskrivningar och tillhörande dokumentation håller bra kvalitet och lätt att ta till sig.

 

 

 

Verksamhetsdrivna användare

Målgruppen verksamhetsdrivna användare avser personer som primärt ämnar att förbättra verksamheten, dess processer eller tjänster i en befintlig eller ny organisation med hjälp av data. Detta kan innebära att man själv agerar som dataanvändare, men också att man kan ta rollen som facilitator för möjliggöra datadrivna förbättringar.

Dessa kan antingen ske i den egna organisationen eller genom samverkan med andra aktörer, t.ex att förbättra befintliga processer med mer strukturerade data som möjliggör nya tekniska lösningar eller att effektivisera samarbeten genom förbättrad tillgång till gemensamma data.

 

 

 

Utvecklardrivna användare

Målgruppen utvecklingsdrivna användare avser primärt personer med teknisk kompetens inom data och programmering som använder öppna data för utveckling av tjänster, system eller applikationer. Dessa användare kan använda data både i egen regi via t.ex start-ups, eller vara anställda på större företag eller organisationer i olika branscher och verksamhetsområden.

För denna användarkategori är behovet av ett API och strukturerade datamängder ofta stort eftersom det gör det enklare att utveckla nya innovativa tjänster som blir hållbara över tid. Om data ska användas för AI-applikationer är det viktigt att kunna förstå omfattningen och storleken på datamängden.

Mer generellt är det viktigt att datamängderna följer etablerade standarder, både för innehåll och metadata, har gedigen dokumentation och öppna licenser, är särskilt viktigt för tjänster som bygger på data från flera olika aktörer.

 

 

 

Analysdrivna användare

Målgruppen analysdrivna användare avser primärt personer med kompetens inom datahantering och dataanalys som är intresserade av att t.ex ladda ner data i sin helhet för att göra analyser eller prognoser, jämföra med annan data (t.ex. från privat sektor) eller granska innehållet utifrån olika perspektiv.

Exempel på roller som kan hamna i denna kategori är bl.a journalister, utredare, dataanalytiker, forskare, eller studenter. För denna användarkategori är tillgången till komplett data i standardformat, med tillhörande dokumentation kring t.ex hur datamängden togs fram, ofta viktiga aspekter. Att kunna ställa frågor kring datamängden och kunna begära ut kompletterande information är också något som kan vara viktigt ur ett analysperspektiv.

 

 

 

 

 

 



 

:

Av Svenn Dybvik - Lördag 17 feb 00:00

https://www.digg.se/kunskap-och-stod/oppna-och-delade-data


Öppna och delade data

 
 

Data och information är en viktig resurs med möjlighet att bidra till en rad olika positiva värden för samhället. Digg arbetar för att främja tillgängliggörande och vidareutnyttjande av data från den offentliga förvaltningen. Här hittar du information om vilka nyttor som en ökad tillgång till data kan leda till, samt länkar till mer fördjupade stöd och vägledningar.


https://www.digg.se/kunskap-och-stod/oppna-och-delade-data/offentliga-aktorer

Den offentliga sektorn i samlar in, framställer, reproducerar och sprider en mängd information inom många verksamhetsområden som social, politisk, ekonomisk, rättslig, geografisk information, miljöinformation, meteorologisk information, seismisk information, turistinformation, affärsinformation och patent- och utbildningsrelaterad information. Information som framställs av offentliga aktörer utgör en omfattande, diversifierad och värdefull resurs som kan gynna hela samhället. Genom att den informationen, som inbegriper även dynamiska data, tillhandahålls i användbara och elektroniska format kan fler hitta nya sätt att använda den. Här beskriver vi några områden där öppna och delade data kan skapa nytta i samhället.

 

 

Sveriges dataportal

Sök och utforska data på Sveriges dataportal, www.dataportal.se.Länk till annan webbplats.

 



 

Ekonomiskt värde av data som öppen resurs

 

Det finns många beräkningar på det ekonomiska värdet av öppna data. I
Lantmäteriets beräkningLänk till annan webbplats. av några av de nyttor som vissa av det särskilt värdefulla som EU pekar ut i öppna data-direktivet beräknas värdet för Sverige vara 10-21 miljarder kronor varje år. EU beräknar värdet på öppna dataLänk till annan webbplats. idag till 184 miljarder € och beräknar att det är mellan 199.51 och 334.21 miljarder € 2025.

 

 


Nya innovativa tjänster och produkter

 

En ökad tillgång på data i maskinläsbar form och till nya API:er har lett till många nya digitala tjänster, såväl mobila applikationer och webbtjänster, i en rad olika områden. Den öppna tillgången ökar också möjligheterna till att samskapa tjänster och produkter vilket ytterligare driver innovation och värdeskapande.

 

 

 

Ett datadrivet kunskapssamhälle

 

Tillgång till mer data och information skapar nya möjligheter för kunskapsinhämtning på en rad olika sätt. Förutom att enkelt kunna hitta information som skapar ny kunskap om samhället och offentliga verksamheter möjliggörs också nya förmågor inom t.ex dataanalys, datavisualisering, datahantering, källkritik, men också förmågan att samverka och samskapa innovativt.

 

 


En effektivare och mer innovativ offentlig förvaltning

 

Att data blir öppet och mer strukturerad skapar nya möjligheter till effektiviseringar inom offentlig förvaltning, t.ex möjliggörs nya former av samverkan och innovativ utveckling mellan offentliga förvaltningar, samt att tillgången till mer information kan utveckla formerna för medborgardialoger. Att öppna upp data och gränssnitt ger möjligheter för verksamheten att skapa nya sätt att möta kunden och att leverera välfärd.

 

 


Framväxten av datajournalistik

 

Inom media och journalistik ökar möjligheten att göra undersökningar och genomlysningar genom mer avancerad dataanalys och visualiseringsverktyg. Exempel på datajournalistik har setts inom t.ex analyser av valresultat, genomlysning av lokal frågor, men också för att t.ex analysera trafikutvecklingen i en region, spåra klimatförändringar eller för att göra mer kulturhistoriska analyser.

 

 


Forskning med nya möjligheter

 

En ökad tillgång till data från fler aktörer och regioner/länder ger bättre förutsättningar för forskning, inom en rad olika områden/sektorer, t.ex inom klimatområdet, energisektorn, historia eller statsvetenskap. Eftersom övergången till öppna data också skapar möjligheter för mer standardiserat upplägg på liknande informationsmängder ökar också effektiviteten i forskning som tex använder data från olika regioner eller från olika aktörer.

 

 


En resurs för AI-utveckling

 

När information blir allt mer öppet tillgängligt, speciellt stora informationsmängder eller informationsmängder som följer en särskild specifikation, möjliggörs utvecklingen av nya innovativa AI-applikationer. Det skapas också nya möjligheter att använda öppna data för träning av AI samt som en öppen resurs i utbildningssituationer.








 

 

Ovido - Quiz & Flashcards