Senast publicerat 27-05-2021 11:31

Statsrådets U-skrivelse U 28/2021 rd Statsrådets skrivelse till riksdagen om kommissionens förslag till Europaparlamentets och rådets förordning om harmonisering av bestämmelserna om artificiell intelligens (Artificial Intelligence Act )

I enlighet med 96 § 2 mom. i grundlagen översänds till riksdagen Europeiska kommissionens förslag av den 21 april 2021 till Europaparlamentets och rådets förordning om harmonisering av bestämmelserna om artificiell intelligens (COM(2021) 206 final) samt en promemoria om förslaget. 

Helsingfors den 27 maj 2021 
Näringsminister 
Mika 
Lintilä 
 
Ledande sakkunnig 
Satu 
Vasamo-Koskinen 
 

PROMEMORIAARBETS- OCH NÄRINGSMINISTERIET20.5.2021EU/2021/0414KOMMISSIONENS FÖRSLAG TILL EUROPAPARLAMENTETS OCH RÅDETS FÖRORDNING OM EN HARMONISERAD REGLERING AV ARTIFICIELL INTELLIGENS (ARTIFICIAL INTELLIGENCE ACT)

Bakgrund

Kommissionen antog den 21 april 2021 ett förslag till Europaparlamentets och rådets förordning om en europeisk strategi för artificiell intelligens (COM(2021) 206 final). 

I samma sammanhang antog kommissionen ett meddelande om artificiell intelligens (COM(2021) 205 final) samt en uppdaterad samordnad plan om artificiell intelligens. En separat skrivelse av statsrådet har utarbetats om meddelandet. Dessutom antog kommissionen ett förslag till förordning om maskinprodukter (COM(2021) 202 final). 

Förslaget utgör ny reglering. Förslaget till förordning grundar sig på kommissionens meddelande av den 19 februari 2020 om en vitbok om EU:s digitala framtid och artificiell intelligens (AI) (E 24/2020 rd).  

Den första samordnade planen om artificiell intelligens publicerade kommissionen 2018. Dessutom utnämnde kommissionen en expertgrupp på hög nivå för AI-frågor som utarbetade etiska riktlinjer för tillförlitlig AI samt strategi- och investeringsrekommendationer för tillförlitlig artificiell intelligens.  

De utrikes- och säkerhetspolitiska frågorna i samband med utveckling och användning av ny teknik betonas som en övergripande dimension. Europeiska rådet har konstaterat att EU ska vara världsledande i utveckling av en säker, tillförlitlig och etisk artificiell intelligens och har uppmanat kommissionen att presentera en tydlig, objektiv definition på AI-system med hög risk samtidigt som man säkerställer dataskyddet, en hög nivå på digitala rättigheter och etiska normer samt full respekt för unionsmedborgarnas rättigheter. EU:s lagstiftning bör uppmana till gränsöverskridande utveckling och tillämpning av teknik som grundar sig på artificiell intelligens. Europaparlamentet har antagit flera resolutioner som gäller artificiell intelligens, bland annat om etik, ansvar, upphovsrätt, artificiell intelligens i brottsärenden och artificiell intelligens inom utbildnings-, kultur- och AV-sektorerna.  

Finland genomför EU:s digitaliseringspolitik i enlighet med regeringsprogrammet för statsminister Marins regering genom att stärka EU:s digitala inre marknad och konkurrenskraft samt främja en etiskt, ekonomiskt och socialt hållbar datapolitik och utarbetandet av ett AI-politiskt regelverk. 

Förslagets syfte

Kommissionen föreslår en rättslig ram för att skapa en europeisk strategi samt för att främja utvecklandet och införandet av artificiell intelligens som säkerställer skydd på hög nivå av allmänna intressen, framför allt hälsa, säkerhet och de grundläggande fri- och rättigheterna. Kommissionens förslag till reglering är det första i sitt slag i världen och avsikten är att det i egenskap av föregångare ska dra upp globala riktlinjer. 

Syftet med förslaget till förordning är att EU ska vara en gynnsam miljö för utveckling och tillämpning av artificiell intelligens som främjar investeringar och stärker företagens internationella konkurrensförmåga. Syftet med förslaget till förordning är dessutom att stärka EU som en trygg, pålitlig och människocentrerad miljö som respekterar de mänskliga rättigheterna. 

Syftet med förordningen är att förbättra den inre marknadens funktion genom att skapa förutsättningar för införandet av artificiell intelligens som är förenlig med unionslagstiftningen och som främjar skyddet på hög nivå av hälsa och säkerhet samt människors grundläggande fri- och rättigheter och särskilt personuppgifter. Kommissionens förslag till reglering syftar dessutom till att tydligt visa att införande av AI inom EU ska grunda sig på unionens värderingar. Genom förordningen försöker man skapa förutsättningar för ett ekosystem av förtroende, som gagnar införandet av AI på marknaden och ibruktagande och utveckling av AI samt rörligheten för AI-baserade varor och tjänster. Dessutom ska reglerna för AI som är tillgänglig på EU:s marknad eller som annars påverkar unionsmedborgarna ha människan i centrum.  

Målet för förslaget till förordning är att den rättsliga ramen ska vara proportionerlig och balanserad. Målet är att regleringen ska gälla en begränsad andel av de fall där AI-system införs och att största delen av användningen av AI-system ska vara tillåten. 

Förslagets huvudsakliga innehåll

Artificiell intelligens är en teknikfamilj i snabb utveckling som kan bidra till många ekonomiska och samhälleliga fördelar inom alla sektorer och inom social verksamhet. Genom bättre framsyn, optimerad verksamhet och resursallokering samt genom att specificera tillhandahållandet av tjänster kan användningen av AI ge företag viktiga konkurrensfördelar och stödja socialt och ekologiskt hållbara resultat.  

I förslaget till förordning närmar man sig skapandet av en rättslig ram för AI genom en bedömning av riskerna och det enskilda fallet. Med detta avses att AI-systemen klassificeras utifrån användningsändamålet. Den föreslagna klassificeringen är följande: (i) förbjudna användningsändamål. (ii) användningsändamål med hög risk, (iii) användningsändamål med låg risk och (iv) användningsändamål med minimal eller obefintlig risk. Beroende på användningsändamålet kunde användningen av samma AI-teknik inom EU således vara antingen tillåten eller förbjuden. Regleringen fastställs på basis av i vilken utsträckning användningen av AI-systemet kan medföra betydande skadlig inverkan på människors hälsa, säkerhet eller grundläggande rättigheter. 

3.1  Objekt och tillämpningsområde för förslaget till förordning

I förslaget till förordning föreslås enhetliga bestämmelser för utsläppande av AI-system med hög risk på marknaden samt för införandet och användningen av sådana inom unionen samt föreslås enhetliga bestämmelser om insyn i AI-system som är avsedda för dialog med fysiska personer. Dessutom föreslås bestämmelser om uppföljning av och tillsyn över marknaden.  

Förordningen ska tillämpas på leverantörer som släpper ut på marknaden eller inför AI-system i unionen, vare sig de är etablerade i unionen eller i ett tredjeland, på vissa villkor på användare av AI-system som är belägna i unionen samt på leverantörer och användare av AI-system i tredjeländer och när systemets output används inom unionen. 

Förordningen ska inte tillämpas på AI-system som utvecklats eller som används enbart för militära ändamål. 

3.2  Definitioner

Med ett AI-system avses programvara som utvecklats med en eller flera tekniker och tillvägagångssätt som räknas upp i bilaga I och som kan producera output, såsom innehåll, prognoser, rekommendationer eller beslut, för vissa syften som fastställts av människor. Definitionen på AI-system i den rättsliga ramen försöker vara så teknikneutral och hållbar som möjligt, med beaktande av den snabba tekniska utvecklingen och marknadsutvecklingen. 

Med en produkts eller ett systems säkerhetskomponent avses en komponent i produkten eller systemet som utför en säkerhetsåtgärd för produkten eller systemet i fråga och där ett fel eller en funktionsstörning äventyrar människors hälsa och säkerhet eller egendom. 

Med biometriska uppgifter avses personuppgifter som härrör från en specifik teknisk behandling av en fysisk persons fysiska, fysiologiska eller beteenderelaterade egenskaper, som tillåter eller bekräftar en individuell identifiering av den fysiska personen i fråga. 

3.3  Förhållande till övrig unionslagstiftning

På grund av sin horisontella karaktär har förslaget till förordning många kontaktpunkter till gällande unionslagstiftning. Förslaget kompletterar den allmänna dataskyddsförordningen (EU) 2016/679 och direktiv (EU) 2016/680 som gäller dataskydd vid polisverksamhet och begränsar inte tillämpningen av dem. Dessutom kompletterar förslaget unionens lagstiftning om förbud mot diskriminering genom att fastställa krav på AI-system som minskar den algoritmiska diskrimineringen. Förslaget till förordning begränsar inte heller tillämpningen av unionens konkurrenslagstiftning. I förslaget till förordning föreslås att de marknadskontrollmyndigheter som avses i förordningen ska tillämpa marknadskontrollförordningen (EU) 2019/1020 vid tillsynen över AI-system. Hänvisningarna till produkter i marknadskontrollförordningen bör tolkas så att de även omfattar de AI-system som hör till tillämpningsområdet för förslaget till förordning. 

Till den del som AI-systemen utgör säkerhetskomponenter för produkter, sammanjämkas förslaget till förordning med gällande sektorsvisa säkerhetslagstiftning, så att regleringens enhetlighet säkerställs och den administrativa bördan minimeras. Om ett AI-system med hög risk hör till de produkter som omfattas av den så kallade nya lagstiftningsramen (New Legislative Framework, NLF) ses de nya kraven på AI-systemen enligt förslaget till förordning över som ett led i den gällande NLF-ramens bedömningar av överensstämmelse. Förordningen tillämpas inte direkt på produkter som omfattas av den så kallade gamla lagstiftningsramen, såsom flygplan eller bilar. De krav som fastställs för AI-system ska dock beaktas när delegerade akter eller genomförandeakter som gäller den gamla lagstiftningsramen antas. 

I samband med förslaget till förordning om artificiell intelligens utfärdade kommissionen ett förslag till förordning om maskinprodukter (COM(2021) 202 final). Genom förordningen om artificiell intelligens ingriper man i AI-systems säkerhetsrisker, medan man genom förordningen om maskinprodukter säkerställer en säker integrering av AI-system i maskiner. Kommissionen granskar den sektorsvisa produktsäkerhetslagstiftningen (det s.k. maskindirektivet, allmänna produktsäkerhetsdirektivet) på nytt samt utfärdar förslag, så att regleringen bättre överensstämmer med ansvarsfrågor som gäller ny teknik, såsom artificiell intelligens. Kommissionen förväntas anta ett förslag till lagstiftning gällande ansvarsfrågorna i slutet av 2021 eller början av 2022. 

I förslaget till förordning beaktas överensstämmelsen med lagstiftningsförslag under planering eller beredning. Det förslag som nu antagits stämmer överens med elhandelsdirektivet 2000/31/EG och kommissionens förslag till rättsakt om digitala tjänster (COM(2020) 825 final). Syftet med förslaget till förordning är att förnya elhandelsdirektivet.  

När det gäller ingående av anställningsförhållande, arbete och avslutande av arbetsförhållande samt arbetsförmedling, som ingår i förordningens tillämpningsområde, finns det även lagstiftning på EU-nivå, såsom direktiven om tidsbegränsat arbete och deltidsarbete samt direktiven om kollektiva uppsägningar och om samråd med och information till arbetstagare. Också jämställdheten i arbetslivet regleras på EU-nivå. Förordningen om Eures-arbetsförmedling och direktivet om arbetstagare som hyrs ut av bemanningsföretag gäller arbetsförmedling. Bestämmelser om skydd av arbetstagare ingår också i EU:s stadga om de grundläggande rättigheterna. 

3.4  Förbjuden AI-praxis

I förordningen förbjuds följande praxis gällande artificiell intelligens: 

– utsläppande på marknaden, införande eller användning av AI-system som använder algoritmiska tekniker för undermedveten manipulering av personer på ett sätt som kan medföra materiell, fysisk eller psykisk skada för en person  

– utsläppande på marknaden, införande eller användning av AI-system som utnyttjar en persons sårbarhet på grund av ålder eller ett fysiskt eller mentalt men på ett sätt som orsakar eller sannolikt orsakar personen eller någon annan person fysisk eller psykisk skada 

– utsläppande på marknaden, införande eller användning av sådana AI-system av myndigheter eller för myndigheter som syftar till social poängsättning av fysiska personer och leder till skadlig, ofördelaktig, ogrundad eller oproportionell behandling 

– användning av biometriska fjärridentifieringssystem i realtid för brottsbekämpning i offentligt tillgängliga lokaler, med undantag för vissa situationer vid riktad sökning av brottsoffer (till exempel försvunna barn), för förhindrande av ett specifikt, betydande och omedelbart hot mot fysiska personers liv eller fysiska säkerhet eller ett terrorangrepp eller för lokalisering av en gärningsman eller misstänkt gärningsman. 

3.5  AI-system med hög risk

Enligt förslaget till förordning bör AI-system med hög risk släppas ut på unionens marknad eller införas endast om de uppfyller vissa obligatoriska krav. Genom dessa krav kan det säkerställas att de AI-system med hög risk som används i unionen eller deras output inte medför oskälig risk för unionens viktiga allmänna intressen, som erkänns och skyddas i unionens lagstiftning. 

AI-system med hög risk ska begränsas till dem som har betydande skadlig inverkan på människors hälsa, säkerhet och grundläggande rättigheter i unionen.  

Ett AI-system anses vara behäftat med hög risk om det är avsett att användas som säkerhetskomponent för en produkt eller det är en produkt på vilken tillämpas unionens harmoniseringslagstiftning enligt bilaga II eller om i fråga om AI-säkerhetskomponenten eller AI-produkten även annars ska göras en bedömning av överensstämmelse med kraven av en tredje part. 

Dessutom uppräknas i bilaga III till förslaget till förordning AI-system som hör till kategorin med hög risk. Till dessa räknas användning av AI-system under vissa villkor bland annat för biometrisk identifiering och klassificering av fysiska personer, kontroll och användning av kritisk infrastruktur, urval för utbildning eller yrkesutbildning, rekrytering eller beslutsfattande i samband med anställningsförhållande, fastställande av tillgänglighet i fråga om centrala tjänster och förmåner, bedömning av fysiska personers kreditvärdighet, sändande av första hjälpen, brottsbekämpningsmyndigheters riskbedömningar av fysiska personer, migrations-, asyl- och gränsbevakningsförvaltningen samt inom domstolsväsendet. 

3.6  Krav på AI-system med hög risk

I förslaget till förordning förutsätts att ett riskhanteringssystem inrättas och upprätthålls under AI-systemets hela livscykel, även med beaktande av att systemet regelbundet uppdateras. Till riskhanteringsåtgärderna hör bland annat minskande av riskerna i den utsträckning det är möjligt genom lämplig planering och utveckling och behövliga åtgärder i fråga om sådana risker som inte kan avhjälpas. För att minska riskerna ska AI-systemen också testas.  

I fråga om AI-system med hög risk där man utnyttjar tekniker som omfattar träning av datamodeller ska lämplig informationshanteringspraxis tillämpas. Denna praxis omfattar bland annat lämplig planering, insamling av data, lämpliga åtgärder för beredning av data, såsom märkning, putsning, anrikning och aggregering, samt en uppskattning av tillgången på, kvantiteten på och lämpligheten för de behövliga datamängderna.  

Dataset för träning, validering och testning ska vara lämpade, representativa, felfria och kompletta och de ska besitta lämpliga statistiska egenskaper. Dessutom ska de beakta AI-systemets särdrag eller de element som är kännetecknande för en viss geografisk, beteendemässig eller funktionell miljö där AI-systemet med hög risk ska verka.  

Den tekniska dokumentationen ska uppgöras så att det kan visas att AI-systemet med hög risk motsvarar kraven. Handlingarna ska sändas till behöriga nationella myndigheter och anmälda organ. Närmare uppgifter specificeras i bilaga IV till förslaget till förordning.  

AI-system med hög risk ska planeras så att de möjliggör automatisk registrering av händelser (loggar), när ett AI-system med hög risk är i drift. Dessa registreringsegenskaper ska motsvara godkända standarder eller gemensamma specifikationer. Registreringsegenskaperna ska säkerställa att AI-systemets funktion är spårbart under systemets hela livscykel, med beaktande av systemets användningsändamål. 

AI-systemen med hög risk ska planeras och utvecklas så att deras funktion tillåter tillräcklig insyn, så att användarna kan tolka systemets output och använda den på ändamålsenligt sätt. När det gäller graden av insyn ska användningsändamålet för AI-systemet med hög risk beaktas. AI-systemet ska åtföljas av täckande och tydliga bruksanvisningar där bland annat AI-systemets viktigaste egenskaper ska nämnas. 

AI-systemen med hög risk ska planeras och utvecklas så att de kan kontrolleras av fysiska personer. Genom mänsklig översyn ska man försöka förebygga eller minimera eventuella risker för hälsan, säkerheten eller de grundläggande rättigheterna som ett AI-system med hög risk medför. Personen ska ha tillräcklig kompetens för utförande av översynen samt säkert och omedelbart kunna avbryta användningen av ett AI-system med hög risk. Personen ska kunna lämna obeaktad, korrigera, förbigå eller återkalla den output som ett AI-system med hög risk producerar. 

Dessutom ska AI-system med hög risk planeras och utvecklas så att man uppnår en tillräcklig exakthetsnivå vad gäller hållbarhet, exakthet och cybersäkerhet med beaktande av systemets användningsändamål. AI-systemen ska fungera enhetligt i fråga om dessa aspekter under hela sin livscykel. 

3.7  Skyldigheterna för leverantörer och användare av AI-system med hög risk och för övriga parter

Enligt förslaget till förordning ska leverantörerna av AI-system med hög risk se till att AI-systemen överensstämmer med kraven och att ett kvalitetsledningssystem används, uppgöra den tekniska dokumentationen för AI-systemet med hög risk och sörja för testningsförfarandena samt lämpliga förfaranden för bedömning av överensstämmelsen innan ett AI-system med hög risk släpps ut på marknaden eller införs. Leverantörerna ska iaktta registreringsskyldigheterna samt genomföra behövliga korrigerande åtgärder, om AI-systemet med hög risk inte uppfyller kraven. Dessutom ska man sörja för anmälningarna om överensstämmelse med kraven och genomförda avhjälpande åtgärder till myndigheterna, fästa en CE-märkning på AI-system med hög risk samt på begäran av den behöriga nationella myndigheten visa att AI-systemet med hög risk uppfyller kraven. 

Enligt förslaget till förordning utser serviceleverantörer som är etablerade utanför unionen genom ett skriftligt uppdrag en befullmäktigad representant inom unionen innan AI-systemet släpps ut på marknaden. 

Innan ett AI-system med hög risk släpps ut på marknaden ska importörerna säkerställa att leverantören av AI-systemet i fråga har fullgjort sina skyldigheter och se till att lagrings- och transportförhållandena inte äventyrar dess lämplighet vad gäller de krav som uppställts samt till de behöriga nationella myndigheterna på motiverad begäran meddela all behövlig information och dokumentation, så att överensstämmelsen med kraven kan visas.  

Innan ett AI-system med hög risk släpps ut på marknaden ska distributörerna säkerställa att AI-systemet med hög risk har den CE-märkning som förutsätts, att den dokumentation och den bruksanvisning som krävs medföljer systemet och att leverantören och importören till lämpliga delar har uppfyllt de skyldigheter som fastställts i förslaget till förordning. Dessutom ska distributören se till att lagrings- och transportförhållandena inte äventyrar systemets lämplighet vad gäller de krav som uppställts samt till de behöriga nationella myndigheterna på motiverad begäran meddela all behövlig information och dokumentation, så att överensstämmelsen med kraven kan visas.  

Utan att det inkräktar på leverantörernas skyldigheter och ansvar ska tredje parter säkerställa att de samarbetar och inte hindrar leverantörerna, importörerna, distributörerna eller användarna från att uppfylla sina skyldigheter enligt förordningen. Alla distributörer, importörer, användare eller andra tredje parter ska anses vara tjänsteleverantörer, om de släpper ut på marknaden eller inför ett AI-system med hög risk under sitt eget namn eller varumärke, ändrar användningsändamålet för ett AI-system med hög risk som redan släppts ut på marknaden eller införts eller gör en betydande ändring i ett AI-system med hög risk. 

Användarna av AI-system med hög risk ska använda systemen i enlighet med de den bruksanvisning som medföljer dem och följa funktionen för AI-systemet med hög risk utifrån bruksanvisningen. Om det finns skäl att anta att en användning i enlighet med bruksanvisningarna kan utgöra en risk, ska de underrätta leverantören eller distributören om detta och avbryta användningen av systemet. De ska också underrätta leverantören eller distributören, om de upptäckt en allvarlig fara eller funktionsstörning och avbrutit användningen av AI-systemet. Användarna ska dessutom under vissa villkor bevara de logguppgifter som AI-systemet med hög risk genererar. I detta sammanhang gäller det ovannämnda, när användaren av AI-systemet är en fysisk person eller en juridisk person, en myndighet, ett ämbetsverk eller något annat organ under vilket AI-systemet används, med undantag för personligt, icke-officiellt bruk. 

3.8  Anmälda myndigheter och anmälda organ

Enligt förslaget till förordning ska varje medlemsstat utse eller inrätta en anmälningsmyndighet som svarar för utvärderingen, utnämningen och anmälningen av organ för bedömning av överensstämmelse samt inrättandet och genomförandet av de förfaranden som behövs för uppföljningen av dem. Anmälningsmyndigheterna ska inrättas och organiseras så att det inte förekommer intressekonflikter med organen för bedömning av överensstämmelse och att objektiviteten och oberoendet för deras verksamhet säkerställs.  

De anmälda organen ska verifiera att AI-systemet med hög risk överensstämmer med kraven i enlighet med förfarandena för bedömning och också svara för sina underentreprenader. Kommissionen säkerställer samordningen och samarbetet inom förfarandena för bedömning av överensstämmelse med kraven genom en sektorsvis samarbetsgrupp som består av representanter som medlemsstaterna utsett. 

3.9  Standarder, bedömning av överensstämmelse med kraven, certifikat, registrering och krav på insyn

AI-system med hög risk som uppfyller harmoniserade standarder eller delar av sådana förväntas uppfylla de fastställda kraven enligt detta förslag till förordning i den utsträckning som dessa standarder omfattar kraven. Om det inte finns några harmoniserade standarder eller om kommissionen anser att de relevanta harmoniserade standarderna inte är tillräckliga eller att det finns skäl att ingripa i särskilda problem med säkerheten eller de grundläggande rättigheterna, kan kommissionen anta gemensamma krav genom genomförandeakter i samband med vars beredning kommissionen samlar den sektorsvisa samarbetsgruppens eller expertgruppernas synpunkter. 

AI-system med hög risk som certifierats eller som givits en försäkran om överensstämmelse i enlighet med cybersäkerhetssystemet anses uppfylla cybersäkerhetskraven enligt detta förslag till förordning, om cybersäkerhetsintyget eller försäkran om överensstämmelse eller dess delar omfattar dessa krav. 

När det gäller bedömningen av överensstämmelse ska tjänsteleverantören iaktta antingen det förfarande för bedömning av överensstämmelse med kraven som baserar sig på intern kontroll som avses i bilaga IV eller det förfarande för bedömning av överensstämmelse som avses i bilaga VII och som baserar sig på det anmälda organets bedömning av kvalitetssystemet och den tekniska dokumentationen. 

För AI-system med hög risk ska det göras en ny bedömning av överensstämmelsen varje gång som systemet ändras väsentligt. Om det är fråga om ett AI-system med hög risk som fortsätter att lära sig efter det att det släppts ut på marknaden eller införts, får de ändringar som tjänsteleverantören fastställt på förhand inte vara betydande. 

De certifikat som utfärdas av anmälda organ är giltiga den tid som anges i certifikatet. Giltighetstiden får uppgå till högst fem år. På ansökan av en tjänsteleverantör kan intygets giltighet förlängas på basis av en ny bedömning. Marknadskontrollmyndigheterna kan tillåta utsläppande på marknaden eller införande av särskilda AI-system med hög risk för en begränsad tid inom den berörda medlemsstatens område av exceptionella skäl för att skydda den allmänna säkerheten eller människors liv och hälsa, för att skydda miljön och för att skydda de viktigaste industri- och infrastrukturresurserna. 

Tjänsteleverantören ska utarbeta en skriftlig EU-försäkran om överensstämmelse för varje AI-system och hålla den tillgänglig för de nationella behöriga myndigheterna i tio år efter det att AI-systemet släppts ut på marknaden eller införts. CE-märkningen ska fästas synligt, läsligt och permanent på AI-system med hög risk.  

Kraven på insyn för vissa AI-system gäller system som står i dialog med människor, som används för att upptäcka känslor eller fastställa kontakter till (sociala) klasser på basis av biometriska uppgifter eller som används för att producera eller manipulera innehåll ("deep fake"). När personer står i kontakt med ett AI-system eller personers känslor eller egenskaper identifieras automatiskt, ska de underrättas om situationen. Om ett AI-system används för att producera eller behandla en sådan bild eller ett sådant ljud- eller videoinnehåll som i stor utsträckning påminner om äkta innehåll, ska man vara skyldig att meddela att innehåller genererats på automatisk väg, om inte undantagen grundar sig på lagliga syften, såsom brottsbekämpning eller tillgodoseende av yttrandefriheten. 

3.10  Innovationsfrämjande åtgärder och beaktande av små aktörer

I förslaget till förordning uppmuntras de nationella behöriga myndigheterna att inrätta så kallade regulatoriska sandlådor och inrätta en ram för förvaltning, tillsyn och ansvar. De regulatoriska sandlådorna för artificiell intelligens skapar en övervakad omgivning för testning av innovativa tekniker under en begränsad tid på basis av en testningsplan som överenskommits med de behöriga myndigheterna. I förordningen bestäms om behandlingen av personuppgifter i samband med de regulatoriska sandlådorna. Deltagarna i en regulatorisk sandlåda för artificiell intelligens ansvarar enligt förslaget till förordning för skador som tredje parter orsakats till följd av ett försök i sandlådan. 

Medlemsstaternas behöriga myndigheter som inrättat regulatoriska sandlådor för artificiell intelligens ska samordna sin verksamhet och samarbeta inom ramen för Europeiska nämnden för artificiell intelligens. Medlemsstaterna ska dessutom erbjuda små aktörer och nystartade företag förstahandstillträde till regulatoriska sandlådor för artificiell intelligens samt ordna särskilda informationsåtgärder som gäller tillämpningen av förordningen och som skräddarsytts för små tjänsteleverantörers och användares behov.  

Dessutom ska det vara möjligt att främja genomförandet av förordningen med stöd av Europeiska nämnden för artificiell intelligens och med hjälp av Europeiska digitala innovationscenter samt test- och försöksanläggningar som kommissionen och medlemsstaterna inrättat på nationell nivå eller EU-nivå. 

Kommissionens meddelande (COM(2021) 205 final) och den uppdatering av den samordnade plan om artificiell intelligens som bifogats den kompletterar förslaget till förordning med politiska initiativ. Utsläppande av AI-tillämpningar på marknaden kräver försök och testning i praktiska verksamhetsmiljöer, varför kommissionen föreslagit att det ska inrättas testnings- och försöksmiljöer för AI i syfte att främja europeisk spetskompetens.  

3.11  Europeiska AI-rådet

Enligt förslaget till förordning ska det inrättas ett Europeisk AI-råd (European AI Board) som består av representanter för medlemsstaterna och kommissionen. Rådet ska underlätta ett smidigt, effektivt och harmoniserat genomförande av förordningen genom att främja de nationella tillsynsmyndigheternas och kommissionens samarbete, genom att erbjuda kommissionen råd och expertis och också genom att samla och sprida bästa praxis mellan medlemsstaterna. 

3.12  De behöriga nationella myndigheterna och EU:s databas för AI-system med hög risk

Enligt förslaget till förordning ska kommissionen i samarbete med medlemsstaterna inrätta och driva en EU-databas som innehåller uppgifter om AI-system med hög risk som registrerats i enlighet med förslaget till förordning. Kommissionen ska vara registeransvarig för databasen. Databasen ska vara offentlig. 

På nationell nivå ska medlemsstaterna utse en eller flera nationella behöriga myndigheter och bland dem en nationell tillsynsmyndighet för att övervaka tillämpningen och genomförandet av förordningen. Medlemsstaterna ska se till att de behöriga nationella myndigheterna ges tillräckliga ekonomiska resurser och personalresurser för utförande av sina uppgifter. Europeiska datatillsynsmannen ska vara behörig myndighet vid tillsynen över unionens institutioner, byråer och organ, när de omfattas av tillämpningsområdet för förordningen. 

3.13  Uppföljning efter utsläppande på marknaden, förmedling av uppgifter och marknadskontroll

Systemet för uppföljning efter utsläppandet på marknaden grundar sig på en uppföljningsplan som är en del av den tekniska dokumentationen. Leverantörerna av AI-system ska underrätta marknadskontrollmyndigheterna om alla allvarliga händelser eller funktionsstörningar som utgör överträdelser av skyldigheterna enligt unionens lagstiftning som är avsedda att skydda de grundläggande rättigheterna. Den nationella tillsynsmyndigheten ska regelbundet rapportera till kommissionen om resultaten av marknadskontrollåtgärderna i fråga och tillse nödvändiga åtgärder, inklusive avlägsnande av produkten från marknaden. 

Med stöd av artikel 66 kan kommissionen ingripa i en annan medlemsstats tekniska åtgärder för åtgärdande av ett funktionsfel i AI-systemen, om den andra medlemsstaten initierat detta eller om medlemsstatens åtgärder strider mot unionens lagstiftning. Med stöd av artikel 67 kan marknadskontrollmyndigheten också förordna att användningen av ett system som i sig uppfyller förutsättningarna i förordningen ska avbrytas, om det utgör ett hot mot liv, hälsa, de grundläggande rättigheterna eller ett annat allmänt intresse. Inom ramen för detta förfarande är kontrollmetoden möjligheten för kommissionen att utvärdera om medlemsstatens åtgärder är tillräckliga och vid behov föreslå lämpliga åtgärder för medlemsstaten. 

3.14  Tillvägagångssätt

Kommissionen och medlemsstaterna ska uppmuntra och underlätta utarbetandet av regler gällande praxis som har som syfte att främja frivillig tillämpning av de krav som i förslaget till förordning ställs på andra AI-system än AI-system med hög risk. Leverantörer av andra AI-system än sådana med hög risk kan själva utarbeta och genomföra regler gällande praxis som också kan omfatta frivilliga åtaganden som gäller till exempel miljöns hållbarhet, tillgängligheten för personer med funktionsnedsättning, intressentgruppers deltagande i planeringen och utvecklandet av AI-system samt utvecklingsteamens mångformighet. Reglerna gällande praxis kan gälla ett eller flera AI-system, beroende på hur likadana användningsändamålen för de berörda systemen är. 

3.15  Sekretess och straff

Enligt förslaget till förordning ska de nationella behöriga myndigheter och anmälda organ som deltar i tillämpningen av denna förordning iaktta den sekretess som gäller för de uppgifter som de fått i sina uppgifter och sin verksamhet. Kommissionen och medlemsstaterna kan vid behov utbyta sekretessbelagda uppgifter med regleringsmyndigheterna i de tredjeländer med vilka de ingått bi- eller multilaterala sekretessavtal som garanterar tillräcklig sekretess. 

De påföljder som föreskrivits för överträdelser av förordningen ska vara effektiva, proportionerliga och avskräckande. De ska särskilt beakta fördelarna med småskaliga leverantörer och inledande av småskalig verksamhet och deras ekonomiska livsduglighet. Administrativa påföljder kan påföras till ett belopp av högst 30 000 000 euro eller, om den som brutit mot förordningens bestämmelser är ett företag, högst sex procent av den föregående räkenskapsperiodens totala årliga globala omsättning, beroende på vilket belopp som är större. För underlåtenhet att uppfylla kraven eller skyldigheterna kan under vissa villkor tillämpas administrativa påföljder till ett belopp av högst 20 000 000 euro eller, om den som begått brottet är ett företag, högst fyra procent av den föregående räkenskapsperiodens totala årliga globala omsättning, beroende på vilket belopp som är större. För meddelande av felaktiga, bristfälliga eller vilseledande uppgifter till anmälda organ eller nationella behöriga myndigheter kan utdömas böter till ett belopp av högst 10 000 000 euro eller, om den som begått brottet är ett företag, högst två procent av den föregående räkenskapsperiodens totala årliga globala omsättning, beroende på vilket belopp som är större. 

Europeiska datatillsynsmannen kan påföra unionens institutioner, byråer och organ som omfattas av tillämpningsområdet för denna förordning administrativa böter. 

3.16  Överföring av behörighet och slutbestämmelser

Enligt förslaget till förordning ska till kommissionen överföras omfattande behörighet att anta delegerade akter om ändring av förordningens bilagor på obestämd tid. I artikel 73 bestäms om användning av delegeringsbehörigheten. Enligt artikel 4 i förslaget till förordning kan genom delegerade akter bland annat ändras bilaga I till förordningen om de tekniker som används vid utnyttjande av artificiell intelligens. Bilaga I har betydelse vad gäller den definition på artificiell intelligens som används i förordningen.  

Kommissionen ska enligt artikel 7.1 kunna ändra bilaga III till förordningen och foga AI-system till högriskkategorin. Grunderna enligt artikeln i fråga på basis av vilka kommissionen kan ändra bilaga III möjliggör tillfogande av nya AI-system till högriskkategorin i hög grad. Avsikten med de delegerade akterna är att öka regleringens flexibilitet och säkerställa att utvecklingen vad gäller användningen av AI kan beaktas. Samtidigt bör man dock beakta en eventuell utvidgning av regleringens räckvidd. 

Dessutom kan kommissionen med stöd av artikel 11.3 anta delegerade akter om sådana detaljer i den tekniska dokumentationen för AI-system med hög risk som ingår i bilaga IV, samt med stöd av artiklarna 43.5 och 43.6 om processerna för bedömning av överensstämmelse som ingår i bilagorna VI och VII. Kommissionen kan med stöd av artikel 48.5 anta delegerade akter om innehållet i EU-försäkran om överensstämmelse som ingår i bilaga V. 

Dessutom föreslås att till kommissionen ska överföras genomförandebefogenheter, med stöd av vilka den kunde anta genomförandeakter om vissa frågor. Kommissionen kunde enligt förslaget anta genomförandeakter i enlighet med kontrollförfarandet om följande frågor: beslut om avhjälpande åtgärder gällande anmälda organ (artikel 37.4) och gemensamma specifikationer (artikel 41.1). Kommissionen kan anta genomförandeakter om närmare villkor och förfaranden gällande de regulatoriska sandlådorna, deltagandet i dem och deltagarnas skyldigheter och rättigheter (artikel 53.6). Dessutom kan kommissionen anta genomförandeakter om detaljerna i blanketten gällande planen för efterhandskontroll (artikel 61.3). Vid antagandet av genomförandeakter biträds kommissionen med stöd av förordning (EU) nr 182/2011 av en kommitté inom ramen för kommittéförfarandet. 

Under den fortsatta beredningen bör man granska omfattningen och ändamålsenligheten vad gäller den lagstiftningsmakt och genomförandemakt som delegeras till kommissionen. Enligt grundlagsutskottet ska bestämmelser om grunderna för individens rättigheter och skyldigheter utfärdas i en unionsrättsakt som godkänns i enlighet med lagstiftningsförfarandet (GrUU 12/2012 rd). Således ska antagandet av genomförandeakter om rättigheterna och skyldigheterna för deltagarna i regulatoriska sandlådor granskas särskilt i den fortsatta beredningen av förordningen. 

Enligt slutbestämmelserna fastställs en övergångsperiod för det datum då förordningen ska börja tillämpas, i syfte att underlätta ett smidigt genomförande för alla parter. Övergångstiden uppgår med vissa undantag till 24 månader från ikraftträdandet. 

Förslagets rättsliga grund och förhållande till proportionalitets- och subsidiaritetsprincipen

Förslaget grundar sig på artikel 114 i fördraget om Europeiska unionens funktionssätt (FEUF), med stöd av vilken det kan utfärdas bestämmelser för tillnärmning av sådana bestämmelser i lagar och andra författningar i medlemsstaterna som syftar till att upprätta den inre marknaden och få den att fungera samt artikel 16 i FEUF, med stöd av vilken det kan utfärdas bestämmelser om skydd av personuppgifter. Förslaget behandlas i enlighet med det ordinarie lagstiftningsförfarandet, där Europaparlamentet och rådet tillsammans godkänner förordningen. I rådet förutsätts beslut med kvalificerad majoritet.  

Förslaget har en nära koppling till säkerställandet av en fungerande inre marknad i EU, eftersom AI används i många olika varor och tjänster. Kommissionen har motiverat valet av rättslig grund bland annat med att vissa medlemsstater redan planerar nationella bestämmelser om AI, varvid det finns risk för att regleringen av AI på EU:s inre marknad blir splittrad och regleringens rättssäkerhet försvagas. Dessutom innehåller förslaget bestämmelser om skydd av personuppgifter. Förslaget innehåller bland annat ett förbud mot att använda biometrisk identifiering i realtid inom polisverksamheten, vilket eventuellt begränsar de nationella myndigheternas möjligheter att behandla biometriska data.  

Kommissionen anser att förslaget till förordning uppfyller subsidiaritetsprincipen enligt artikel 5 i förordningen om Europeiska unionen (FEU). Enligt kommissionen kan förslagets målsättningar inte effektivt uppnås genom medlemsstaternas lagstiftning. Skillnader mellan medlemsstaternas lagstiftningar försvagar utbytet av varor och tjänster som baserar sig på AI på den inre marknaden och kan medföra rättslig osäkerhet. En harmoniserad europeisk reglering skulle trygga samma verksamhetsförutsättningar för aktörerna samt människornas säkerhet. 

Enligt kommissionen uppfyller förslaget till förordning också subsidiaritetsprincipen enligt artikel 5 i FEU och överskrider inte vad som är nödvändigt för att uppnå målen. Förslaget iakttar ett riskbaserat tillvägagångssätt, och för AI-system med hög risk gäller striktare krav än för mindre skadliga AI-system. Den gällande regleringen utgör grunden för den nya regleringen om AI. Enligt kommissionen är de krav som ställs på AI-system med hög risk nödvändiga för att minska riskerna för de grundläggande rättigheterna och säkerheten till den del som om dessa inte föreskrivits annanstans i lagstiftningen. 

Statsrådet anser preliminärt att kommissionens ståndpunkter gällande förordningens rättsliga grund, subsidiaritetsprincipen och proportionalitetsprincipen är korrekta. Förordningens tillämpningsområde är dock omfattande, och förordningen fastställer relativt detaljerade och ospecifika krav för såväl AI-system som deras producenter, importörer och användare. Kommissionens möjligheter att anta delegerade akter försvårar likaså konsekvensbedömningen av regleringen. 

Förslagets konsekvenser

5.1  Kommissionens konsekvensbedömning

På basis av kommissionens konsekvensbedömning ökar förslaget till förordning rättssäkerheten, människornas förtroende för AI och den gränsöverskridande rörligheten för AI-system samt förebygger ensidiga åtgärder från medlemsstaterna sida som leder till att den inre marknaden splittras. Kommissionen har betonat de positiva ekonomiska följderna av förslaget till förordning framför allt genom att den inte marknadens funktion förbättras. 

Syftet med förslaget är att stärka Europas konkurrenskraft och industriella grund. I överensstämmelse med målet för förslaget till förordning fortsätter EU utvecklingen av snabbt ökande AI-ekosystem inom innovativa tjänster och varor i vilka ingår AI-teknik eller separata AI-system genom att öka den digitala suveräniteten. Genom förslaget försöker man säkerställa ett högklassigt skydd av de grundläggande rättigheterna, och dess syfte är att ingripa i olika riskkällor med hjälp av ett tydligt definierat riskbaserat tillvägagångssätt.  

Enligt förslaget till förordning är syftet att hålla kostnaderna för överensstämmelsen med kraven så låga som möjligt och således undvika onödiga fördröjningar vid införandet som beror på högre priser och kostnaderna för överensstämmelsen. I förslaget till förordning försöker man öka tydligheten och förenkla genomförandet av de nya bestämmelserna genom att garantera fullständig överensstämmelse inom EU med tillämplig, gällande sektorsvis unionslagstiftning. 

För att avhjälpa eventuella nackdelar för små och medelstora företag innehåller förslaget till förordning bestämmelser som stöder iakttagandet av bestämmelserna och minskar kostnaderna, inklusive skapandet av regulatoriska sandlådor och skyldigheten att beakta små och medelstora företags intressen. 

Detta förslag innebär vissa hinder för näringsfriheten och konstens och vetenskapens frihet i syfte att säkerställa att tvingande skäl som berör allmänintresset, såsom hälsa, säkerhet, konsumentskydd och övrigt skydd av de grundläggande rättigheterna, iakttas. Enligt konsekvensbedömningen är dessa begränsningar proportionella och begränsade till ett minimum som är nödvändigt för att förhindra och lindra allvarliga säkerhetsrisker och sannolika intrång på de grundläggande rättigheterna. 

De ökade öppenhetsskyldigheterna inverkar inte heller oproportionerligt mycket på skyddet av immateriella rättigheter, eftersom de begränsar sig endast till de minimiuppgifter som enskilda personer behöver för att kunna utöva sina rättigheter till effektiva rättsmedel och behövlig öppenhet för tillsynsmyndigheterna i enlighet med deras uppdrag. 

Skapandet av en uppföljnings- och bedömningsmekanism är avgörande för säkerställande av att förslaget uppnår sitt syfte. Kommissionen ansvarar för uppföljningen av förslagets konsekvenser. Den inrättar ett system för registrering av oberoende AI-tillämpningar med hög risk i EU:s offentliga databas. Denna registrering ger även de behöriga myndigheterna, användarna och övriga parter en möjlighet att kontrollera om ett AI-system med hög risk uppfyller de krav som fastställs i förslaget och att effektivare övervaka de AI-system som medför hög risk för de grundläggande rättigheterna.  

Kommissionen publicerar en rapport som utvärderar och granskar den föreslagna AI-ramen fem år efter ikraftträdandedatum. Kostnaderna, med undantag av personalkostnaderna, täcks genom programmet för ett digitalt Europa förutsatt att man genom regleringen strävar efter att öka utvecklandet och införandet av AI i Europa.  

5.2  Konsekvenser för Finland

5.2.1  Ekonomiska konsekvenser

Förordningens ekonomiska konsekvenser har inte utretts nationellt. Förordningens ekonomiska konsekvenser kan delvis antas vara oförutsägbara. Dessutom ska särskilt konsekvenserna för små och medelstora företag beaktas. Medlemsstaterna ska utse tillsynsmyndigheter som svarar för genomförandet av kraven enligt lagstiftningen. Tillsynsåtgärderna kunde grunda sig på befintliga arrangemang, såsom organ för bedömning av överensstämmelse eller marknadskontroll, men kräver tillräcklig teknisk expertis samt personalresurser och ekonomiska resurser. De nya myndighetsuppgifterna medför ekonomiska kostnader nationellt. Enligt kommissionens konsekvensbedömning kan dessa beroende på befintliga strukturer i varje medlemsstat uppgå till 1–25 heldagspersonalresurser per medlemsstat. 

Enligt kommissionens bedömning bör företag eller myndigheter som utvecklar eller använder AI-tillämpningar och orsakar hög risk för medborgarnas säkerhet eller grundläggande rättigheter iaktta särskilda krav och skyldigheter. Iakttagandet av dessa krav innebär kostnader om ca 6 000–7 000 euro för leveransen av ett AI-system med hög risk på ca 170 000 euro före år 2025. Kostnaderna för kontroll av AI-system som utförs av människor uppgår beroende på fall till ca 5 000–8 000 euro per år. Kostnaderna för verifiering av överensstämmelse uppgår till uppskattningsvis 3 000–7 500 euro för leverantörer av AI-system med hög risk.  

Under den fortsatta beredningen bör förslagens ekonomiska konsekvenser preciseras bland annat i fråga om de ytterligare uppgifter som orsakas ämbetsverk.  

5.2.2  Konsekvenser för den nationella lagstiftningen

Justitieministeriet har den 18 januari 2021 tillsatt en arbetsgrupp för att bereda allmän lagstiftning om automatiserat beslutsfattande inom den offentliga förvaltningen. Finansministeriet har den 1 april 2021 tillsatt en arbetsgrupp som bereder en översyn av den allmänna lagstiftningen om informationssystem inom den offentliga förvaltningen med beaktande av bland annat de behov som gäller automatiskt beslutsfattande och utnyttjandet av AI. Förslaget till förordning om AI ställer eventuellt specialvillkor för den allmänna lagstiftning som bereds nationellt.  

Förslaget till förordning placerar sig inom den nationella lagstiftningen inom såväl grundlagsstiftningen som speciallagstiftningen och sträcker sig till flera olika sektorer, såsom bland annat den offentliga sektorn, utbildningen, säkerheten, rättssystemet och transport, arbetslagstiftningen, arbetskraftsservicen och den sociala tryggheten samt kreditinstitut och bedrivande av kreditupplysningsverksamhet. Genom förordningen inrättas nya nationella myndighetsuppgifter, varför förordningen förutsätter ändringar i bestämmelserna om myndigheternas uppgifter. 

Allmänt taget bör författningens förhållande till dataskyddslagstiftningen och övrig lagstiftning bedömas omsorgsfullt. Framför allt när det gäller bestämmelserna om användare av system med hög risk bör det bedömas, om förslaget till förordning medför behov av att ändra den nationella lagstiftningen och hur man i beredningen i tillräcklig utsträckning kan säkerställa medborgarnas och arbetstagarnas ställning. 

Förslaget till förordning kan ha konsekvenser för lagstiftningen om kreditinstitut samt övrig reglering av behandlingen av kredituppgifter. Kreditinstitutsverksamheten berörs särskilt av kreditinstitutslagen (610/2014), som bland annat innehåller bestämmelser om kreditinstitutens riskhanterings- och styrningssystem. Bestämmelser om kreditinstitutens tillsynsbefogenheter finns dessutom i lagen om Finansinspektionen (878/2008), som det kan vara nödvändigt att ändra med anledning av bestämmelserna i förslaget till förordning, eftersom varje medlemsstat enligt förslaget till förordning ska utse behöriga nationella myndigheter för att säkerställa tillämpningen och genomförandet av förordningen. 

5.2.3  Konsekvenser för myndigheterna

Förslaget till förordning har sannolikt betydande konsekvenser för myndigheterna. Det kan antas att kontrollen av AI-system skiljer sig märkbart från marknadskontrollen av andra produkter och att största delen av de marknadskontrollmyndigheter som för närvarande är verksamma i Finland inte besitter den kompetens som kontrollen kräver. Således förutsätter såväl utseende av nya marknadskontrollmyndigheter som en utvidgning av befintliga marknadskontrollmyndigheters uppgiftsfält ytterligare resurser bland annat för introducering av myndigheterna och utnyttjandet av lämpliga digitala kontrollmetoder. 

Syftet med förslaget till förordning är att skapa allmänna unionsövergripande krav och standarder för AI-system med hög risk. Dessutom skapas i förslaget ramar för inrättande av frivilliga uppförandekoder (codes of conduct) och medlemsstaterna och kommissionen uppmanas att främja skapandet och tillägnandet av sådana regler. Detta kan sänka myndigheternas tröskel för att ta i bruk AI-system, om AI-lösningar som är lämpade för dem i fortsättningen är lättare tillgängliga på marknaden så att man kan lita på att de beroende på användningsändamål uppfyller de krav som uppställs antingen i förordningen eller i frivilliga regler. Dessutom kan det att AI regleras i sig öka förtroendet för AI-system och därigenom främja införandet av dem i myndigheternas verksamhet. Å andra sidan återspeglas förslagets eventuella konsekvenser för kostnaderna för utvecklande av AI-system och uppkomsten av innovationer också på myndigheterna, eftersom myndigheterna i Finland varit föregångare inom digitaliseringen och tagit i bruk system som utnyttjar AI. 

De användningsändamål som gör ett AI-system till ett system med hög risk som uppräknas i bilaga III till förslaget hänger till många delar samman med myndighetsverksamhet. De användningsändamål som gör ett AI-system till ett system med hög risk begränsas inte enbart till fattande av förvaltningsbeslut, utan de gäller också annan faktisk förvaltningsverksamhet, åtgärder för beredning av förvaltningsbeslut och annat utredande av ärendet, såsom utredande av resehandlingars äkthet (punkt 7 c i bilaga III) eller utredande av fakta inom domstolsväsendet (punkt 8 a i bilaga III). Å andra sidan verkar det inte som om beskattningsförfarandet omfattas av definitionen på ett AI-system med hög risk, om inte beskattningsförfarandet ska anses höra till de offentliga tjänster som avses i punkt 5 a i bilaga III. Också till denna del är det viktigt att användningsändamålet med hög risk är tydligt och noggrant avgränsat. Detta är viktigt också på grund av att definitionen av ett användningsändamål med hög risk sannolikt kommer att ha betydelse för det lagstiftningsförslag gällande ansvarsfrågor som utfärdas senare. 

Konsekvensbedömningen försvåras av de definitioner som används i förslaget, såsom ovannämnda definition på användningsändamål med hög risk samt definitionen på AI-system i sig (artikel 3.1 och bilaga I). Därför kan man inte ännu entydigt bedöma på vilket sätt förslaget till förordning gäller den regelbaserade förvaltningsautomationen och olika beräkningsalgoritmer, som redan i stor omfattning används av myndigheterna till exempel som stöd för kontrolluppgifter och beslutsfattande. Dessutom bör det ytterligare preciseras till vilka delar regleringen kommer att gälla de rådgivnings- och stödsystem som myndigheterna använder, såsom dialogrobotar (chatbotar) för vilka utnyttjas i bilaga I avsedd teknik och som kan fungera som rådgivnings- och stödtjänst för ett användningsändamål som definieras i bilaga III. Ett exempel på detta är Folkpensionsanstaltens dialogrobot, som använder maskininlärning för att förstå skrivet språk (punkt a i bilaga I) och som ger råd till FPA:s kunder vid sökande av sociala förmåner (punkt 5 a i bilaga III). 

Dessutom medför artikel 5 i förslaget till förordning begränsningar för hur och i vilka situationer brottsbekämpningsmyndigheter kan använda biometrisk identifiering. 

Förslaget till förordning innehåller krav på AI-systems transparens, utveckling, testning och funktion. Kraven överlappar sannolikt delvis de principer för god förvaltning som redan tillämpas vid utvecklingen och användningen av myndigheternas informationssystem och övriga ur den nationella lagstiftningen härledda krav, vilket delvis lindrar konsekvenserna av förslaget för myndigheterna, eftersom de förfaranden som krävs redan är i bruk. Å andra sidan kan kraven skapa en onödig administrativ regelbörda för myndigheterna, eftersom den nationella lagstiftningen och unionens lagstiftning kan grunda sig på olika angreppssätt, tillämpningsområden och definitioner, även om målsättningarna i sista hand är desamma. Förhållandet mellan förslaget till förordning och den nationella regleringen kräver närmare utredning under den fortsatta beredningen. Denna helhet kommer också att påverkas av ovannämnda allmänna lagstiftning om automatiserat beslutsfattande inom den offentliga förvaltningen och om informationssystem som för närvarande bereds vid justitieministeriet och finansministeriet. 

Förslaget till förordning innehåller nya uppgifter eller ändringar i uppgifternas innehåll för de nationella myndigheterna. Den mest centrala myndigheten är Säkerhets- och kemikalieverket, som är marknadskontrollmyndighet enligt marknadskontrollförordningen (EU) 2019/1020 och lagen om marknadskontrollen av vissa produkter (1137/2016), och som till följd av förordningen ska utöva marknadskontroll över i bilaga II avsedda produkter som använder AI i sina säkerhetskomponenter. Dessutom är Transport- och kommunikationsverket marknadskontrollmyndighet inom transportsektorn. De föreslagna bestämmelserna om påföljder har också konsekvenser för de nationella myndigheternas verksamhet. De exakta konsekvenserna är beroende av vilken form bestämmelserna om påföljder får i den slutliga förordningen. I fortsättningen kan skötseln av de kontroll- och påföljdsförfaranden som avses i förslaget till förordning förutsätta ett nytt slags kunnande av myndigheterna, vilket bland annat innebär utmaningar i fråga om resurserna. Närmare bestämmelser om myndigheternas uppgifter utfärdas dock nationellt genom lag. Beroende på innehållet i den slutliga regleringen och dess förhållande till EU:s allmänna dataskyddsförordning kan de föreslagna skyldigheterna för användarna (såsom skyldigheterna gällande förande av logg) ha konsekvenser också för tillsynen över användningen av personuppgifter. Tillsyn utövas redan nu på basis av dataskyddsförordningen, så några betydande konsekvenser föranleds nödvändigtvis inte. 

Det är skäl att bedöma förordningens förhållande till bland annat nationella rättsskyddsmekanismer med tanke på arbetslagstiftningen, likabehandlingen och den sociala tryggheten. 

Nationell behandling och behandlingen i EU

Kommissionen antog förslaget till förordning den 21 april 2021. Intressentgrupper och myndigheter hördes om förslaget till förordning den 28 april 2021. 

Utkastet till U-skrivelse har behandlats av sektionen för konkurrenskraft (EU 8) i sitt möte den 7 maj 2021, av sektionen för arbetsrätt (EU 28) i sitt möte den 11 maj samt genom skriftligt förfarande den 5–11 maj av beredningssektionerna för rättsliga och inrikes frågor (EU 7), finansiella tjänster och kapitalrörelser (EU 10), kommunikation (EU 19), transport (EU 22) samt utbildning (EU 30). 

Utkastet till U-skrivelse har också behandlats av EU-ministerutskottet den 21 maj 2021. 

Behandlingen av förslaget har inletts vid rådets arbetsgrupp för telekommunikation och informationssamhället den 22 april 2021. EU-ordförandelandet Portugal har för avsikt att presentera förslaget till förordning vid det inofficiella telekommunikationsministermötet i juni.  

Uppgifter om behandlingen i Europaparlamentet är ännu inte tillgängliga. 

Förslagets förhållande till grundlagen samt de grundläggande och mänskliga rättigheterna

Förslaget har konsekvenser för många grundläggande rättigheter. Enligt kommissionens åsikt är användningen av AI behäftad med vissa särdrag, såsom komplexitet, beroende av data samt autonomi, som kan påverka de grundläggande rättigheter som garanteras i EU:s stadga om de grundläggande rättigheterna negativt. Förslagets syfte är att säkerställa ett högklassigt skydd av de grundläggande rättigheterna och svara på de risker som AI medför med ett riskbaserat tillvägagångssätt.  

Enligt kommissionen har förslaget till förordning positiva konsekvenser för tillgodoseendet av rättigheterna för vissa persongrupper, såsom barn och personer med funktionsnedsättning. Dessutom har förordningen konsekvenser för arbetstagarnas och konsumenternas rättigheter, som bör tas upp i den fortsatta beredningen. 

I Finland ska förslaget bedömas åtminstone med tanke på följande bestämmelser i grundlagen: Rätten till liv, personlig frihet och integritet (7 §), skydd för privatlivet och personuppgifter (10 §), jämlikhet (6 §), näringsfrihet och rätt till arbete (18 §), rättsskydd och god förvaltning (21 §), yttrandefrihet (12 §), den straffrättsliga legalitetsprincipen (8 § ) samt överföring av förvaltningsuppgifter på andra än myndigheter (124 §). 

7.1  Rätten till liv, personlig frihet och integritet

Förslaget främjar den rätt till liv, personlig frihet och integritet som garanteras i 7 § i grundlagen. Bestämmelsen i fråga garanterar också var och en rätten till säkerhet. Klassificeringen av AI-system i riskkategorier främjar säkerheten vid användningen av systemen. I förslaget förbjuds utsläppande på marknaden av vissa skadliga AI-system, som till exempel påverkar personers beteende så att följden är en fysisk eller psykologisk skada eller som utnyttjar särskilda persongruppers sårbarhet. Dessutom ska personer enligt den föreslagna huvudregeln informeras om att de har att göra med ett AI-system.  

För AI-system med hög risk uppställs i förordningen vissa krav och kontrollmekanismer som har som syfte att åtgärda skador som orsakas av användningen av systemet och förebygga skador som orsakas personer. Ett system kan klassificeras som ett AI-system med hög risk till exempel med motiveringen att det orsakar fara för en persons hälsa och säkerhet eller försvagar tillgodoseendet av de grundläggande rättigheterna. När kommissionen bedömer fogande av AI-system till högriskkategorin med hjälp av delegerade akter ska den bland annat beakta AI-systemets potentiella skadliga verkningar för hälsa och säkerhet samt negativa följder för tillgodoseendet av de grundläggande rättigheterna. 

7.2  Skydd för privatlivet och personuppgifter

Bestämmelserna i förslaget till förordning har betydelse med tanke på skyddet för privatlivet enligt 10 § i grundlagen. Enligt 10 § 1 mom. i grundlagen är vars och ens privatliv, heder och hemfrid tryggade och utfärdas närmare bestämmelser om skydd för personuppgifter genom lag. 

I förslaget till förordning förbjuds eller klassificeras i högriskkategorin AI-system som försämrar skyddet för privatlivet, såsom system som gäller biometrisk identifiering eller klassificering av personer.  

Förslagets förhållande till unionens dataskyddslagstiftning samt aktörernas olika roller med stöd av dataskyddslagstiftningen ska i sin helhet preciseras under den fortsatta beredningen, inklusive användarnas skyldigheters förhållande till artikel 22 i den allmänna dataskyddsförordningen. Till exempel dataskyddskonsekvenserna av bestämmelserna om AI-system med hög risk (skäl 33–40, artikel 6, bilaga III) bör granskas närmare bland annat i fråga om biometrisk identifiering och klassificering av personer, kreditvärdering av fysiska personer och arbetslivets system. Dessutom bör artikel 10 om skyldigheterna i fråga om system med hög risk också granskas i fråga om hur artikel 10 förhåller sig till EU:s dataskyddslagstiftning, särskilt vad gäller konsekvensbedömningen. Med stöd av artikel 10.5 är även behandling av känsliga uppgifter tillåten till den del den behövs för korrigering och förebyggande av snedvridningar i AI-systemet, där det är fråga om en avvägning mellan dataskydd och förebyggande av risker som AI-system medför. Också förhållandet mellan artiklarna om regulatoriska sandlådor (53–54) och EU:s dataskyddslagstiftning bör utvärderas närmare under den fortsatta beredningen. 

Konsekvenserna av vissa AI-system (artikel 52) som för en dialog med fysiska personer, identifierar känslor eller använder ett biometriskt klassificeringssystem eller använder så kallad "deep fake"-teknik bör utvärderas närmare i förhållande till dataskyddsbestämmelserna med beaktande av den rättsliga grunden för behandlingen av uppgifter samt faktorer i anslutning till insyn och information.  

AI-systemens aktörer ska vara skyldiga att informera de nationella myndigheterna om AI-systemens överensstämmelse med kraven eller ge myndigheterna tillträde till systemets logguppgifter med stöd av artikel 23. I artikel 37 i förslaget till förordning föreskrivs om kommissionens rätt att få information av den nationella myndigheten om det anmälda organet misstänks bryta mot de skyldigheter som följer av förordningen. Kommissionen ska behandla sådan information konfidentiellt. I artikel 64 i förslaget till förordning föreskrivs om marknadskontrollmyndighetens rätt att få tillträde till AI-systemproducenternas dataset eller, vid behov, källkoder för att sköta sina uppgifter. I samma artikel föreskrivs om de nationella myndigheternas eller organens rätt att få tillträde till AI-systems aktörers handlingar som uppkommit med anledning av denna förordning och som behövs för att de ska kunna sköta sina uppgifter med stöd av den nationella behörigheten. Dessa bestämmelser bör även granskas med avseende på 10 § 1 mom. i grundlagen, om rätten att få uppgifter gäller sådana uppgifter som omfattas av skyddet för privatlivet.  

I artikel 70 i förslaget till förordning föreskrivs om sekretessen för uppgifter som nationella behöriga myndigheter och anmälda organ fått i samband med skötseln av sina uppgifter samt om informationsutbyte med kommissionen. Artikeln bör ännu ses över, och regleringen bör inte leda till att offentlighetsprincipen inskränks. Bestämmelserna om sekretessbelagda uppgifter i förslaget ska också granskas med avseende på den offentlighetsprincip som garanteras i 12 § 2 mom. i grundlagen och behovet av nationellt manöverutrymme i bestämmelsen bedömas. 

7.3  Jämlikhet och jämställdhet mellan könen

Enligt 6 § 1 mom. i grundlagen är alla lika inför lagen. Det är fråga om en allmän likabehandlingsklausul som innefattar ett krav på lika behandling i likadana fall och ett förbud mot godtycklighet. Den allmänna likabehandlingsklausulen kompletteras med ett diskrimineringsförbud i paragrafens 2 mom. Enligt bestämmelsen är förbjudna diskrimineringsgrunder kön, ålder, ursprung, språk, religion, övertygelse, åsikt, hälsotillstånd och handikapp. Förteckningen kan ändå inte anses som uttömmande, utan de förbjudna diskrimineringsgrunderna kan jämställas med någon annan orsak som gäller den enskilde som person (RP 309/1993 rd, s.43–44). Enligt diskrimineringslagen (1325/2014) får ingen diskrimineras på grund av ålder, ursprung, nationalitet, språk, religion, övertygelse, åsikt, politisk verksamhet, fackföreningsverksamhet, familjeförhållanden, hälsotillstånd, funktionsnedsättning, sexuell läggning eller någon annan omständighet som gäller den enskilde som person. Diskriminering är förbjuden oberoende av om den grundar sig på ett faktum eller ett antagande i fråga om personen själv eller någon annan. Syftet med jämställdhetslagen (lagen om jämställdhet mellan kvinnor och män, 609/1986) är bland annat att förebygga diskriminering på grund av kön och främja jämställdheten mellan kvinnor och män. 

I förslaget till förordning försöker man förhindra AI:s diskriminerande verkningar genom att fastställa krav på utveckling, träning och användning av AI-system, till exempel med hjälp av kraven på användning av högklassiga data samt kraven på insyn gällande AI-system. Enligt kommissionens uppskattning är högklassiga algoritmer och högklassiga data viktiga förutsättningar för förhindrande av diskriminering. Skyldigheterna gällande kontroll av överensstämmelse med kraven, testning och efterhandskontroll bidrar till att identifiera avvikelser i systemet och således också till att främja förebyggande av diskriminering. I förslaget till förordning förbjuds viss användning, där myndigheterna använder AI-system för bedömning av personers tillförlitlighet genom social poängsättning som eventuellt leder till ofördelaktig behandling av vissa grupper av personer. 

7.4  Näringsfrihet och rätt till arbete

Enligt 18 § 1 mom. i grundlagen har var och en i enlighet med lag rätt att skaffa sig sin försörjning genom arbete, yrke eller näring som han eller hon valt fritt. Det allmänna ska sörja för skyddet av arbetskraften. I förslaget fastställs omfattande och detaljerade krav för AI-system samt skyldigheter för producenter, importörer, distributörer och användare. För AI-system skapas mekanismer för kontroll av överensstämmelse innan AI-systemet släpps ut på marknaden eller införs.  

Kraven i fråga innebär ingripande i den näringsfrihet som tryggas i grundlagen. Syftet med undantagen från näringsfriheten är att förbättra AI-systemens säkerhet och tillförlitlighet. I den fortsatta beredningen bör man dock säkerställa att kraven inte medför alltför stora hinder för utsläppande på marknaden eller en alltför omfattande administrativ börda för producenterna.  

I förslaget till förordning fastställs särskilda krav på anmälda organ som konstaterar AI-systems överensstämmelse med kraven och organen ska ansöka om notifiering hos den nationella myndigheten. Kommissionen upprätthåller en allmänt tillgänglig förteckning över anmälda organ och beviljar dem ett identifieringsnummer. Grundlagsutskottet har i sin utlåtandepraxis jämställt bestämmelser om registreringsplikt för att inleda näringsutövning med tillståndsplikt (GrUU 58/2010 rd och GrUU 15/2008 rd, GrUU 24/2000 rd, GrUU 45/2001 rd). Således jämställs skyldigheten att ansöka om notifiering eventuellt med tillståndsplikt för näringsutövning. I förslaget till förordning fastställs också ett obligatoriskt krav på att registrera AI-systemen i EU:s gemensamma databas som kommissionen förvaltar. Det är dock fråga om en skyldighet att registrera AI-system och inte en skyldighet för aktören att registrera sig.  

Relevant med tanke på förslaget är också artikel 18.3, där det konstateras att ingen kan sägas upp från ett arbete utan lagstadgad orsak. 

7.5  Rättssäkerhet och god förvaltning

Enligt 21 § 1 mom. i grundlagen har var och en rätt att på behörigt sätt och utan ogrundat dröjsmål få sin sak behandlad av en domstol eller någon annan myndighet som är behörig enligt lag samt att få ett beslut som gäller hans eller hennes rättigheter och skyldigheter behandlat vid domstol eller något annat oavhängigt rättskipningsorgan. Enligt 2 mom. ska offentligheten vid handläggningen, rätten att bli hörd, rätten att få motiverade beslut och rätten att söka ändring samt andra garantier för en rättvis rättegång och god förvaltning tryggas genom lag. 

Centrala med tanke på en god förvaltning och rättssäkerheten är de informationssystem som den offentliga sektorn använder, inklusive de system som används i beslutsfattandet. Grundlagsutskottet har med hänsyn till 21 § och kravet på att offentlig maktutövning ska grunda sig på lag fäst uppmärksamhet vid att man inte ens i masshantering får äventyra kraven på god förvaltning eller parternas rättssäkerhet (GrUU 49/2017 rd, s. 5, GrUU 35/2005 rd, s. 3, GrUU 7/2019 rd).  

Rätt använda och genomförda kan man med hjälp av AI-system organisera verksamheten i förvaltningen på ett sätt som främjar en jämlik behandling av och berättigade förväntningar hos dem som sköter sina ärenden i förvaltningen och är föremål för förvaltningen samt ändamålsbundenheten för myndighetens verksamhet. Om förvaltningens verksamhet organiseras på ändamålsenligt sätt med hjälp av ett AI-system eller något annat informationssystem får enskilda tjänstemäns fel, fördomar, snedvridningar eller missbruk inte längre lika stor betydelse. De krav på AI-system med hög risk som fastställs i förordningen bland annat i fråga om träningsdatans kvalitet, kontrollen av systemet, insynen i systemets funktion för den myndighet som använder systemet samt testningen av systemet främjar ett sådant korrekt användnings- och genomförandesätt. Användningen av AI-system främjar också en effektiv och resultatrik myndighetsverksamhet, vilket förbättrar tillgången på förvaltningens tjänster. 

Enligt bilaga III till förslaget till förordning hör till AI-system med hög risk sådana system som används vid beslutsfattande om tillträde till offentliga tjänster och utnyttjande av förmåner. Definitionen på högrisksystem omfattar också många andra för den offentliga förvaltningen betydelsefulla AI-system, såsom system som används inom brottsbekämpning, immigration, rättskipning och demokratiska processer. Systemen används till exempel vid biträdande av rättsliga myndigheter vid tolkning och tillämpning av lagen. De berörda AI-systemen med hög risk omfattas i förordningen av särskilda krav, såsom krav på datasetets kvalitet, insyn, säkerhet och mänsklig kontroll. Dessa krav kan för sin del anses främja uppfyllandet av principerna för en god förvaltning. I förslaget till förordning regleras dock inte medlemsstaternas skyldigheter att säkerställa sökande av ändring i beslut som fattats av AI inom den offentliga förvaltningens verksamhet, utan detta är beroende av övrig reglering. 

Enligt förslaget till förordning ska de myndigheter som genomför förordningen och övervakar efterlevnaden av den organiseras så att de är oberoende av de instanser som bedömer överensstämmelsen och så att deras opartiskhet och objektivitet säkerställs. Dessutom får myndigheterna till exempel inte erbjuda kommersiella tjänster som hänger samman med bedömningen av överensstämmelsen. Kraven på objektivitet och jämlikhet gäller också dem som bedömer överensstämmelsen. Detta främjar uppfyllandet av principerna för en god förvaltning. 

7.6  Yttrandefrihet

Yttrandefriheten tryggas i 12 § 1 mom. i grundlagen. Enligt bestämmelsen i fråga hör till yttrandefriheten att framföra, sprida och ta emot information, åsikter och andra meddelanden utan att någon i förväg hindrar detta. Med tanke på yttrandefriheten är kraven på insyn i innehåll som utnyttjar "deep fake"-teknik av betydelse. I förslaget till förordning finns bestämmelser om skyldigheten att meddela om användning av AI i system som producerar bild-, ljud- eller videoinnehåll i avsikt att påminna om en verklig person eller ett annat objekt. Eftersom avsikten med bestämmelsen i fråga är att trygga AI-systemens säkerhet och förhindra skador som orsakas människor, kan bestämmelsen preliminärt anses vara problemfri med avseende på yttrandefriheten. Dessutom kan undantag från bestämmelsen göras på basis av att innehåll som utnyttjar så kallad "deep fake"-teknik används för berättigade ändamål (såsom brottsutredning) med stöd av lag eller för andra behövliga ändamål för tillgodoseende av yttrandefriheten eller utövande av konst och vetenskap. I den fortsatta behandlingen bör man dock i samband med definitionen av deep fake-teknik fästa uppmärksamhet vid hur den förhåller sig till traditionella metoder för att modifiera verkligheten i bild-, ljud- eller videoinnehåll. 

7.7  Den straffrättsliga legalitetsprincipen

Enligt artikel 71 i förslaget till förordning ska medlemsstaterna föreskriva om straff, inklusive böter, för överträdelser av förordningen. Enligt en preliminär bedömning omfattar straffen nationellt administrativa sanktioner. Administrativa sanktioner av straffkaraktär kan inte direkt jämställas med de straffrättsliga påföljderna enligt grundlagens 8 § om den straffrättsliga legalitetsprincipen. Enligt grundlagsutskottets utlåtandepraxis ska regleringen om dessa sanktioner uppfylla de allmänna kraven på exakthet och proportionalitet (GrUU 14/2013 rd, s. 2/II, GrUU 34/2012 rd, s. 3–4, GrUU 17/2012 rd, s. 6). I den fortsatta beredningen av förslaget till förordning ska dessa krav beaktas vad gäller administrativa sanktioner. 

När det gäller administrativa sanktioner bör man sträva efter att garantera ett tillräckligt nationellt manöverutrymme särskilt för beaktande av att man i Finland för närvarande inte kan påföra myndigheter administrativa straffavgifter, eftersom myndigheter endast kan påföras straffrättsliga påföljder. Dessutom bör man bedöma de föreslagna bestämmelsernas förhållande till bland annat de administrativa påföljderna enligt den allmänna dataskyddsförordningen eller till andra påföljder som ingår i medlemsstaternas nationella manöverutrymme. 

7.8  Överföring av förvaltningsuppgifter på andra än myndigheter

Enligt 124 § i grundlagen kan offentliga förvaltningsuppgifter anförtros andra än myndigheter endast genom lag eller med stöd av lag, om det behövs för en ändamålsenlig skötsel av uppgifterna och det inte äventyrar de grundläggande fri- och rättigheterna, rättssäkerheten eller andra krav på god förvaltning. Uppgifter som innebär betydande utövning av offentlig makt får dock ges endast myndigheter. I förslaget till förordning ges de anmälda organen uppgifter som hör till myndigheterna, eftersom organen ska bekräfta AI-systemens överensstämmelse med kraven. De uppgifter som föreskrivits för ett anmält organ och som gäller bedömning av produkters överensstämmelse med kraven kan inte anses vara betydande utövning av offentlig makt (jfr RP 21/2016 rd, s. 37, RP 182/2013 rd, s. 18–19). De anmälda organen påförs särskilda krav med stöd av artikel 33, såsom krav på oberoende och objektivitet, som för sin del säkerställer en god förvaltning. De nationella tillsynsmyndigheterna ska övervaka de anmälda organens verksamhet. Medlemsstaterna ska se till att ändring kan sökas i de beslut som de anmälda organen fattar.  

Enligt artikel 34 kan ett anmält organ överföra uppgifter som innebär bedömning av överensstämmelse med kraven till en underleverantör, som ska uppfylla samma krav som det anmälda organet. Den nationella tillsynsmyndigheten ska underrättas om överföringen av uppgiften. Enligt grundlagsutskottet bör man i princip förhålla sig avvisande till att en offentlig förvaltningsuppgift som överförts till en enskild delegeras vidare (subdelegering) (GrUU 26/2017 rd). Det har dock inte funnits grunder för något absolut förbud i situationer där uppgiften har varit av teknisk art och underleverantören har berörts av samma kvalitetskrav och motsvarande tillsyn som den primära serviceproducenten (GrUU 6/2013 rd, s. 4). Regleringens ändamålsenlighet i förhållande till bestämmelserna i 124 § i grundlagen bör under den fortsatta beredningen utvärderas med avseende på alla rättsliga villkor som uppställts för överföringen. 

Ålands behörighet

Genom förslaget till förordning införs krav på vissa AI-system samt på deras leverantörer och användare. Avsikten är att öka AI-systemens säkerhet och att öka regleringens rättssäkerhet för aktörerna. Enligt 18 § 1 mom. 22 punkten i självstyrelselagen för Åland (1144/1991) har landskapet lagstiftningsbehörighet i fråga om näringsverksamhet med beaktande av vad som stadgas i 27 § 1 mom. 2, 10, 12, 40 och 41 punkten. Enligt självstyrelselagen hör till rikets lagstiftningsbehörighet med stöd av 27 § 1 mom. 2 punkten utövande av yttrande-, förenings- och församlingsfriheten samt brev-, telegraf- och telefonhemligheten, med stöd av 10 punkten konsumentskydd, med stöd av 12 punkten utrikeshandeln och med stöd av 40 punkten televäsendet. Vid tolkningen av 27 § 1 mom. 40 punkten i självstyrelselagen bör det beaktas att ett datakommunikationsnät som Internet inte kunnat vägas in när självstyrelselagen för Åland stiftades (se GrUU 22/2001 rd). Till rikets lagstiftningsbehörighet hör vidare med stöd av 27 § 1 mom. 41 punkten i självstyrelselagen andra än i 27 § särskilt nämnda privaträttsliga angelägenheter, om de inte direkt hänför sig till ett rättsområde som enligt självstyrelselagen hör till landskapets lagstiftningsbehörighet och med stöd av 42 punkten övriga angelägenheter som enligt grundsatserna i självstyrelselagen ska hänföras till rikets lagstiftningsbehörighet. Bestämmelserna i förslaget till förordning hör i enlighet med vad som beskrivits ovan framför allt till rikets lagstiftningsbehörighet. 

I förslaget till förordning åläggs medlemsstaterna att utse en eller flera nationella myndigheter att övervaka tillsynen över tillämpningen av förordningen. En av dessa myndigheter utses till huvudansvarig tillsynsmyndighet. Enligt 18 § 1 mom. 1 punkten i självstyrelselagen för Åland har landskapet lagstiftningsbehörighet i fråga om landskapsregeringen och under denna lydande myndigheter och inrättningar och enligt 4 punkten i fråga om den kommunala förvaltningen. Enligt 27 § 1 mom. 3 punkten i självstyrelselagen för Åland har riket däremot lagstiftningsbehörighet i fråga om statsmyndigheternas organisation och verksamhet. Eftersom EU-rätten möjliggör flera myndigheter tillämpas inte 59 b § i självstyrelselagen för Åland, enligt vilken det är riket som utser förvaltningsmyndigheten, om medlemsstaterna enligt gemenskapsrätten i något fall där både landskapet och riket har behörighet får utse endast en förvaltningsmyndighet. Enligt bestämmelsen i fråga ska dock landskapsmyndigheterna och riksmyndigheterna samråda, om de åtgärder de kommer att vidta är beroende av varandra. Ett sådant beroende kan anses föreligga. Eftersom förordningens syfte är att harmonisera regleringen av AI-system behövs det enhetliga åtgärder mellan landskapet och riket. 

Statsrådets ståndpunkt

Den globala konkurrenssituationen mellan företag och ekonomiska områden kräver att EU blir en gynnsam verksamhetsmiljö för utveckling och tillämpning av AI som stärker företagens internationella konkurrenskraft och uppmuntrar till investeringar. Europas tekniska konkurrenskraft bygger på den digitala utvecklingen, innovationer, kompetens och en fungerande inre marknad.  

Statsrådet stöder tanken på att genom förordningen skapa förutsättningar för ett ekosystem av förtroende som främjar ansvarsfull utveckling, utsläppande på marknaden och införande av AI i Europa genom att erbjuda en etiskt hållbar ram för verksamheten. Statsrådet anser att det för att stärka EU:s konkurrenskraft och uppnå målen behövs enhetlighet och en strategi med en gemensam värdegrund samt satsningar på både nationell nivå och EU-nivå.  

Statsrådet stöder kommissionens mål för en lagstiftningsram, enligt vilka det säkerställs att de AI-system som släpps ut och används på den inre marknaden är säkra och respekterar gällande lagstiftning om de grundläggande rättigheterna och unionens värderingar. Statsrådet stöder kommissionens människocentrerade och förtroendebaserade tillvägagångssätt, där europeisk AI grundar sig på värdena frihet, människovärde och skydd av privatlivet.  

Statsrådet konstaterar att användningen av AI-system är behäftat med många frågor som gäller de grundläggande rättigheterna och påpekar att AI-lösningar, när de används rätt, också kan främja tillgodoseendet av de grundläggande rättigheterna. Statsrådet anser det vara viktigt att frågorna om förslagets tillämpningsområde i den fortsatta beredningen bedöms omsorgsfullt med tanke på tillgodoseendet av de grundläggande rättigheterna. 

Statsrådet anser att frågorna gällande de grundläggande fri- och rättigheterna och de mänskliga rättigheterna, säkerhetshoten, ekonomiska och leveranskedjornas beroendeförhållanden samt den geopolitiska kontexten i anslutning till utvecklingen och införandet av ny teknik ska granskas på ett övergripande sätt. Även cybersäkerheten ska beaktas i den fortsatta behandlingen. I samband med utvecklingen av stödet för digitala lösningar, AI och algoritmbaserat beslutsfattande är det viktigt att fästa uppmärksamhet vid jämlikhet, jämställdheten mellan könen och icke-diskriminering.  

Statsrådet konstaterar att en tydlig lagstiftningsram, rättslig säkerhet och en jämlik konkurrensmiljö bidrar till att öka konsumenternas, den offentliga sektorns och företagens förtroende för AI och på så sätt påskyndar införandet av AI. Statsrådet stöder de mål enligt vilka regleringens rättssäkerhet säkerställs för att underlätta investeringar och innovationer samt utvecklingen av en inre marknad för lagliga, säkra och tillförlitliga AI-tillämpningar underlättas.  

Statsrådet stöder kommissionens strävanden att säkerställa ett effektivt genomförande och verkställande av nuvarande bestämmelser om den inre marknaden och understöder i princip tillämpningen av marknadskontrollförordningen (EU) 2019/1020 även vid kontrollen av AI-system för att säkerställa att marknadskontrollförfarandena är enhetliga, med beaktande av att det ska lämnas tillräckligt manöverutrymme i fråga om utseendet av behöriga nationella myndigheter och ordnandet av marknadskontrollen i praktiken. 

Statsrådet anser att tillämpningsområdet för eventuell ny reglering ska vara tydlig och iaktta principerna för bättre lagstiftning och anser att kraven ska vara proportionella och inte utgöra en onödig administrativ börda eller ekonomisk belastning. De skyldigheter som åläggs producenter, importörer, distributörer och användare av AI-system och de olika aktörernas roller och ansvaret i samband med dessa ska vara tydliga. Dessutom ska det bedömas hur omfattande kompetens och kunskaper om lagstiftningens innehåll som kan förutsättas av de olika aktörerna. Även aktörernas varierande storlek samt faktiska möjligheter att uppfylla de skyldigheter som fastställts bör beaktas.  

Statsrådet anser att den offentliga sektorns särdrag bör beaktas och rätten till en god förvaltning tryggas i fråga om myndigheterna. Man bör också se till att det inte uppstår en onödig administrativ regelbörda för den offentliga sektorns aktörer, eftersom verksamheten inom den offentliga sektorn redan nu berörs av nationell reglering bland annat vad gäller en god förvaltning, insyn och informationshantering. Statsrådet anser att de föreslagna bestämmelser som gäller uppgifterna inom den offentliga förvaltningen där det utnyttjas AI-system med hög risk bör förtydligas och preciseras. Statsrådet konstaterar att de verkningar som förslaget till förordning har på digitaliseringen av förvaltningen bör granskas. 

Statsrådet beaktar att förordningsförslagets förhållande till övrig unionslagstiftning, såsom den allmänna dataskyddsförordningen, bestämmelserna om marknadskontroll, direktivet om allmän produktsäkerhet, produktansvarsdirektivet samt befintlig sektorsvis lagstiftning till exempel inom transportsektorn bör preciseras under förhandlingarna. Statsrådet anser att regleringen på grund av det inbördes beroendet mellan olika bestämmelser och förslagen till lagstiftning bör bedömas som en helhet med avseende på EU-lagstiftningens kvalitet, tydlighet och funktion samt att myndighetssamordningen och samarbetet mellan förvaltningsområdena bör stärkas. Under den fortsatta beredningen bör också förslagens ekonomiska konsekvenser preciseras bland annat i fråga om de ytterligare uppgifter som orsakas ämbetsverk.  

Statsrådet stöder målet att närma sig skapandet av en rättslig ram för AI riskbaserat och från fall till fall, så att förslagets proportionalitet säkerställs samtidigt som man fäster uppmärksamhet vid att den risk- och fallbaserade strategin är tydlig. Statsrådet betonar dessutom möjligheten att utnyttja självreglering. 

Statsrådet konstaterar att kommissionens förslag omfattar AI-system som helt ska förbjudas och anser att det vid den fortsatta beredningen bör säkerställas att definitionen på förbjudna AI-system är tydlig, noggrant avgränsad och proportionell.  

Statsrådet konstaterar att kommissionen föreslår att biometrisk identifiering i realtid ska avskiljas från biometrisk identifiering i efterhand. Statsrådet kan godkänna förslaget, men samtidigt bör det ses till att användningen av biometriska system i realtid på ovannämnda områden för identifiering av personer är möjlig på vissa noggrant avgränsade villkor med beaktande av proportionalitetsprincipen och de grundläggande fri- och rättigheterna och mänskliga rättigheterna. Man bör fästa uppmärksamhet vid tydligheten och proportionaliteten vad gäller fastställandet av användningsfallen. 

Statsrådet fäster uppmärksamhet vid att tillämpningsområdet för användningsfall med hög risk ska vara tydligt, proportionellt och motiverat. Statsrådet beaktar att man i samband med sådana biträdande och förberedande AI-system som används i samband med användningsändamål med hög risk och som fungerar som stöd för en mänsklig användares övervägande bör förtydliga på vilket sätt och i vilken omfattning systemen räknas som högrisksystem till exempel när det gäller bedömning vid utbildning. Statsrådet anser det dessutom vara viktigt att arbetstagares och arbetssökandes rättigheter också tryggas när AI utnyttjas vid beslutsfattande. 

Statsrådet anser det vara viktigt att proportionaliteten och exaktheten säkerställs också i fråga om kraven på AI-systemens informationshantering och datakvalitet. Statsrådet anser att den mänskliga kontroll av AI-system som förutsätts kräver förtydligande och precisering. Statsrådet noterar de skyldigheter för AI-systemen som omfattas av kraven på insyn i förslaget till förordning och konstaterar att förslagets konsekvenser bör bedömas noggrant. I den fortsatta beredningen bör man också säkerställa att registreringen av AI-system med hög risk i EU:s databas är ändamålsenlig och säker. 

Statsrådet anser att iakttagandet av skyldigheterna inte ska utgöra en för hög tröskel eller ett alltför tidskrävande hinder för utveckling och utsläppande på marknaden och anser det vara viktigt att förslaget till förordning möjliggör vetenskaplig forskning och företagsverksamhet gällande AI. Konsekvenserna av förslaget till förordning för företagens forsknings-, utvecklings- och innovationsverksamhet bör preciseras. 

Statsrådet fäster också uppmärksamhet vid AI-teknikernas karaktär och vid att AI-teknikerna är en samling mjukvara och teknik under utveckling som inte kan ges en entydig definition. För att säkerställa en tillräckligt noggrann avgränsning av bestämmelserna bör definitionen på AI ses över vid den fortsatta beredningen och bör det klargöras om förordningen ska tillämpas på en AI-systemhelhets AI-del eller till följd av AI-delen bör tillämpas på hela AI-systemhelheten. I takt med att ny teknik utvecklas bör det säkerställas att lagstiftningen är uppdaterad och teknikneutral.  

Statsrådet anser att förslaget om administrativa påföljder bör bedömas i ljuset av att regleringen bör uppfylla de allmänna kraven på exakthet och proportionalitet. Det föreslagna påföljdssystemets förhållande till annan lagstiftning, framför allt de bestämmelser som grundar sig på den allmänna dataskyddsförordningen, ska bedömas noggrannare under förhandlingarna. När det gäller de nationella myndigheterna är det skäl att säkerställa bibehållandet av ett tillräckligt manöverutrymme vad gäller regleringen.  

Statsrådet anser att den behörighet som delegeras till kommissionen ska vara tydlig, noggrant avgränsad, proportionell, ändamålsenlig och välmotiverad. I den fortsatta beredningen ska omfattningen av och ändamålsenligheten för den lagstiftningsmakt och genomförandemakt som delegeras till kommissionen också granskas med avseende på lagstiftningens förutsägbarhet för olika aktörer samt dess inverkan på verksamhetsmiljön.  

Statsrådet betonar möjligheten att utnyttja spridningen av bästa praxis. Dessutom stöder statsrådet kommissionens åsikt att framför allt små och medelstora företag bör stödjas under den digitala omvandlingen. Statsrådet stöder målet i förslaget till förordning att stödja små och medelstora företag genom inrättande av regulatoriska sandlådor och testnings- och försöksmiljöer, men anser det vara viktigt att det i grundförfattningen på ett noggrant avgränsat sätt föreskrivs om tillämpningsområdet och aktörernas skyldigheter samt om förutsättningarna för undantag från dessa samt att regleringen garanterar likabehandling av aktörerna.  

Statsrådet konstaterar att omnämnandet i förslaget till förordning av att AI-system som utvecklats och används för militära ändamål inte ska omfattas av förordningens tillämpningsområde i den fortsatta beredningen bör preciseras så att också syften som gäller upprätthållande av den nationella säkerheten beaktas på motsvarande sätt genom att de anges särskilt. Statsrådet förhåller sig avvaktande till förslaget till bestämmelse om konfidentiella uppgifter i fråga om artikel 70 med beaktande av att regleringen inte bör leda till att offentlighetsprincipen inskränks. 

10  Andra faktorer som inverkar på behandlingen

E 118/2018 rd Statsrådets redogörelse: Kommissionens meddelande: Samordnad plan om artificiell intelligens 

E 24/2020 rd Statsrådets redogörelse: Kommissionens meddelande om EU:s digitala framtid, kommissionens meddelande om en EU-strategi för data och kommissionens vitbok om artificiell intelligens 

E 48/2021 rd Kommissionens meddelande: Digital kompass 2030: den europeiska vägen in i det digitala decenniet 

11  Författarnas kontaktuppgifter

Satu Vasamo-Koskinen, ledande sakkunnig, arbets- och näringsministeriet, tfn 029 504 7073 

Maria Kekäläinen, konsultativ tjänsteman, finansministeriet, tfn 029 553 0140