AI-lagen har klubbats igenom inom EU vilket är ett sätt att försöka leda utvecklingen mot reglering av AI. Det kommer vara den första större lagstiftningen kring AI-området som man klubbat igenom efter 25 timmars förhandling. Inom EU finns det väldigt få AI-bolag så frågan är vad som händer på andra kontinenter framförallt i USA. Läs mer
- Begränsningar för användningen av biometriska identifieringssystem av brottsbekämpande myndigheter.
- Förbud mot social poängsättning och AI som används för att manipulera eller utnyttja användares sårbarheter
- Rätt för konsumenter att lämna klagomål och få meningsfulla förklaringar
Denna förordning syftar till att säkerställa att grundläggande rättigheter, demokrati, rättsstatsprincipen och miljömässig hållbarhet skyddas från högrisk AI, samtidigt som innovation främjas och Europa blir ledande inom området. Reglerna fastställer skyldigheter för AI baserat på dess potentiella risker och inverkansnivå.
Implikationer av AI-lagen:
- Riskbaserat nivåsystem: För AI-system som klassificeras som högrisk fastställdes tydliga skyldigheter. Nu krävs en obligatorisk konsekvensbedömning för grundläggande rättigheter.
- Grundmodeller kommer att regleras. I enlighet med president Bidens exekutiva order kommer det att gälla modeller vars träning krävde 10^25 flops av datorkraft – i princip de största av de stora språkmodellerna.
- Följande system kommer att förbjudas med endast sex månader för företag att säkerställa efterlevnad:
▪️biometriska kategoriseringssystem som använder känsliga egenskaper (t.ex. politiska, religiösa, filosofiska övertygelser, sexuell läggning, ras);
▪️omotiverad skrapning av ansiktsbilder från internet eller CCTV-material för att skapa databaser för ansiktsigenkänning;
▪️igenkänning av känslor på arbetsplatser och i utbildningsinstitutioner;
▪️social poängsättning baserad på socialt beteende eller personliga egenskaper;
▪️AI-system som manipulerar mänskligt beteende för att kringgå deras fria vilja;
▪️AI som utnyttjar människors sårbarheter (på grund av deras ålder, funktionshinder, sociala eller ekonomiska situation). - Högrisk-AI-system är föremål för transparenskrav.
- Högrisk-AI-system måste utformas och utvecklas för att effektivt hantera fördomar, säkerställa att de är icke-diskriminerande och respekterar grundläggande rättigheter.
- Leverantörer av högrisk-AI-system måste upprätthålla noggrann dokumentation för att visa att de följer regleringen. Detta inkluderar register över programmerings- och träningsmetoder, använda datamängder och vidtagna åtgärder för tillsyn och kontroll.
- AI-lagen kräver mänsklig tillsyn av högrisksystem för att minimera risker, vilket säkerställer att mänskligt omdöme är en del av AI-systemets användning.
- Böter och sanktioner: Icke-efterlevnad kan leda till betydande böter, från 35 miljoner euro eller 7% av den globala omsättningen till 7,5 miljoner euro eller 1,5% av omsättningen, beroende på överträdelsen och företagets storlek.
Företag som har investerat kraftigt i teknologier som nu anses förbjudna, såsom biometrisk kategorisering och känslomässig igenkänning, kan behöva genomföra större strategiska förändringar. Dessutom kan förstärkta krav på transparens utmana skyddet av immateriell egendom och kräva en balans mellan offentliggörande och att bibehålla affärshemligheter.
Företag kan också behöva investera i data av högre kvalitet och avancerade verktyg för bias-hantering, vilket potentiellt ökar driftskostnaderna men förbättrar AI-systemets rättvisa och kvalitet.
Kraven på dokumentation och förvaring av uppgifter kommer att medföra en betydande administrativ börda, vilket potentiellt kan påverka tiden till marknaden för nya AI-produkter.
Att integrera mänsklig tillsyn i högrisk-AI-system kommer att kräva ändringar i systemdesign och implementering, tillsammans med eventuell personalutbildning.
De avsevärda böterna för icke-efterlevnad representerar en betydande finansiell risk.