"Raketen som ska leda oss in i framtiden"

Fyra nivÄer av acceptabel risk men förbud mot anvÀndning av biometrisk övervakning. Det Àr beskedet i EU-kommissionens lagförslag om artificiell intelligens (AI).
–Det hĂ€r Ă€r resultatet av tre Ă„rs arbete, sĂ€ger EU:s digitaliseringskommissionĂ€r Margrethe Vestager.

EU:s digitaliseringskommissionÀr Margrethe Vestager presenterade lagförslaget kring AI i Bryssel under onsdagen.

EU:s digitaliseringskommissionÀr Margrethe Vestager presenterade lagförslaget kring AI i Bryssel under onsdagen.

Foto: Olivier Hoslet/AP

Politik2021-04-21 18:37

Lagförslaget, som presenterades i Bryssel under onsdagen, har som mÄl att "förvandla Europa till ett globalt nav för tillförlitlig artificiell intelligens". Under presentationen upprepade Vestager vikten av att EU nu anvÀnder regelverket för bÄde företagens men ocksÄ mÀnniskornas bÀsta:

– Min största oro vad gĂ€ller AI Ă€r att vi inte anvĂ€nder den alls. Det vore synd.

Vestager var dock tydlig med att det för alla aktörer gÀller att följa de tÀnkta reglerna och vara vÀldigt noga med hur man applicerar tekniken. Delar av AI-omrÄdet har tidigare kritiserats för att vara dÄligt pÄ att korrekt uppfatta saker som kön och etnicitet.

– Är det sĂ„ att man har ett system som exempelvis bara har data pĂ„ kvinnor sĂ„ anvĂ€nd det dĂ„ bara pĂ„ kvinnor, inte pĂ„ mĂ€n.

EU-kommissionens lagförslag lutar sig till största delen mot en indelning i fyra riskkategorier. Den potentiellt allvarligaste definieras som oacceptabel risk – dit hör AI som manipulerar mĂ€nskligt beteende för att kringgĂ„ personers fria vilja sĂ„vĂ€l som AI anvĂ€nd till att bedöma "social status". Den hĂ€r typen av AI ska enligt lagförslaget förbjudas.

"Skjuter med hagelbössa"

EU-parlamentarikern Jörgen Warborn (M), som sitter i det sÄ kallade AI-utskottet, vÀlkomnar lagförslaget i stort.

– Det jag hunnit se Ă€r bra. Jag tycker att det var en liten seger att det blev de hĂ€r olika kategorierna. Nu skjuter man inte med hagelbössa mot all utveckling, sĂ€ger han.

Under den allvarligaste riskkategorin finns det som bedöms som högriskomrÄden, dit hör exempelvis ansiktsigenkÀnning, sÄ kallad biometrisk igenkÀnning. HögriskomrÄden föreslÄs lyda under strikta krav pÄ sÀkerhet, integritet och möjlighet till transparens.

Lagförslaget understryker att storskalig aktiv övervakning av personer, exempelvis ansiktsigenkÀnning via övervakningskameror, Àr ett högriskomrÄde och nÄgot som bör förbjudas. DÀremot kommer undantag att kunna göras för exempelvis rÀttsvÀsendet i olika fall, dÀribland vid misstÀnkt terrorbrott.

Uppförandekod

De tvÄ mildaste riskkategorierna, begrÀnsad risk och lÄgrisk, föreslÄs inte omfattas av lika hÄrda krav. BegrÀnsad risk kan exempelvis handla om en meddelanderobot pÄ ett företags hemsida och lÄgrisk kan vara ett spamfilter.

För anvÀndning av AI som inte utgör högrisk eller vÀrre föreslÄs ocksÄ en frivillig uppförandekod.

Aktörer som upprepade gÄnger bryter mot de nya lagarna kan bland annat förvÀnta sig böter pÄ ett par procent av den globala Ärsinkomsten.

"Tidigast 2023"

Jörgen Warborn pÄpekar att lagförslaget inte klubbas igenom i detta nu.

– Jag skulle sĂ€ga tidigast 2023.

Huruvida det i slutÀndan blir en ny riktning för lagförslaget, som ska igenom sÄvÀl EU-parlamentet och EU-rÄdet, eller den existerande fyragradiga riskskalan ÄterstÄr att se. Warborn hoppas dock att medlemslÀnderna inte reglerar för mycket och sÀtter kÀppar i hjulet för utvecklingen:

– AI Ă€r raketen som leder oss in i framtiden. Vi kan inte tanka den med bromsolja.

Fakta: Detta Àr AI

Tanken med artificiell intelligens, förkortat AI, Àr att pÄ konstgjord vÀg efterlikna hjÀrnans förmÄga att inhÀmta kunskap, dra slutsatser, planera, lösa problem eller att tolka resultat.

ForskningsomrÄdet fick sitt namn under 1950-talet och har inslag av matematik, informationsteknik, filosofi, lingvistik, psykologi, kognitionsvetenskap och hjÀrnforskning. Verktygen Àr oftast algoritmer av olika slag, dÀr en algoritm kan beskrivas som en systematisk procedur som i ett antal steg anger hur ett visst problem ska berÀknas eller analyseras.

KĂ€lla: Nationalencyklopedin

SĂ„ jobbar vi med nyheter  LĂ€s mer hĂ€r!