Varför EU:s AI Act är relevant för kundservice?
Allt fler organisationer analyserar idag samtal, chattar och mejl för att förstå varför kunder kontaktar kundservice, var friktion uppstår och vilka åtgärder som faktiskt påverkar nyckeltal som AHT, FCR och kundnöjdhet. AI har gjort detta möjligt i skala men med detta kommer ansvar att för vilken data som behandlas och hur den används.
EU:s AI Act är ett ramverk för ansvarsfull användning av AI i vilket riskerna för individers rättigheter och säkerhet avgör vilka krav som ställs. För kundservice- och CX-chefer handlar frågan därför inte om om AI får användas utan hur analysen är utformad och vilket beslutsvärde den används till.
Den här artikeln sammanfattar vad EU:s AI Act innebär specifikt för analys av kundservicedialoger – med fokus på praktiska konsekvenser, inte juridiska detaljer.
Sammanfattning EU:s AI Act
EU:s AI Act (förordning (EU) 2024/1689) bygger på en riskbaserad klassificering av AI-system. Samma teknik kan hamna i olika riskklasser beroende på användningsområde. I korthet skiljer EU mellan fyra nivåer av riskklasser:
-
Förbjuden risk (Unacceptable risk)
AI-användning som anses oförenlig med grundläggande rättigheter och är därför inte tillåten. -
Högrisk (High-risk AI systems)
AI som används i samhällskritiska eller individpåverkande sammanhang. Detta är tillåtet men med omfattande krav på styrning, dokumentation och kontroll. -
Begränsad risk (Limited risk / transparenskrav)
AI som kräver att tydlig information ges till människor, till exempel när de interagerar med ett AI-system. -
Minimal risk
AI-användning som i regel inte omfattas av särskilda krav enligt AI Act utöver annan lagstiftning och god praxis.
Risknivån avgörs av användningen, inte av om AI används eller vilken modell som ligger bakom.
Analys av kundservicedialoger
Många kundserviceorganisationer använder i dag AI-baserad analys (till exempel TellMeNow) för att förstå sin kundserviceverklighet i bredd, snarare än att granska enskilda individer. Typiska användningsområden är att:
- identifiera återkommande kontaktorsaker i samtal, chattar och mejl
- se mönster i kunders problem, frågor och frustrationer
- förstå var i kundresan friktion uppstår och varför
- prioritera förbättringsåtgärder på process-, produkt- eller informationsnivå
Denna typ av analys ligger ofta i låg eller minimal risk enligt EU:s AI Act, förutsatt att analysen är utformad så att den:
- sker på aggregerad nivå, där fokus ligger på mönster snarare än individer
- används för verksamhetsutveckling och beslutsstöd, inte för att bedöma prestation hos enskilda personer
- inte automatiskt fattar beslut som får direkta konsekvenser för enskilda kunder eller medarbetare
Här gör AI Act en avgörande principiell åtskillnad mellan två fundamentalt olika användningssätt:
- Insiktsgenerering – att förstå vad som händer, varför det händer och vilka strukturella åtgärder som är mest effektiva
- Styrning av individer – att använda AI för att bedöma, rangordna, påverka eller korrigera enskilda människors beteende eller prestation
Detta är en regulatorisk skiljelinje. Samma AI-system kan därför vara fullt acceptabelt i ett sammanhang och samtidigt klassas som högrisk, eller till och med otillåtet, i ett annat.
När AI används för att analysera kundserviceagenters prestationer på individnivå, exempelvis genom att poängsätta beteenden, jämföra medarbetare sinsemellan eller generera rekommendationer som direkt används för styrning, schemaläggning eller uppföljning av personal faller sådan användning nära det som AI Act klassar som ”workers management”, ett område där EU ställer särskilt höga krav och där risken för överträdelser är betydande.
Om AI-teknik i stället används för att förstå aggregerade mönster i kunddialoger, till exempel vilka typer av ärenden som driver volym, var kunder fastnar eller vilka förändringar som minskar kontaktbehovet, bedöms detta i regel som låg risk, eftersom analysen riktar sig mot system och processer, inte mot människor.
Det är inte AI-tekniken i sig som avgör risknivån enligt EU:s AI Act, utan hur analysen är designad, vilken granularitet den har och vilket beslutsmandat den ges. För kundserviceorganisationer innebär detta att fokus på aggregerad kundinsikt och strukturella förbättringar inte bara är affärsmässigt klokt utan också kan utföras med låg risk.
Den röda linjen: Vad EU förbjuder i kundservice-sammanhang
Ett område där EU är särskilt tydlig är ”emotion recognition” i arbetsmiljöer. AI Act förbjuder användning av AI-system som analyserar eller försöker identifiera anställdas känslor på arbetsplatser, till exempel genom:
- röstanalys
- ansiktsanalys
- biometriska signaler kopplade till emotioner
Detta är direkt relevant för kundservice och contact centers, där “kvalitetssäkring” ibland riskerar att glida över i automatiserad känsloanalys av agenter.
Att låta AI tolka emotionellt tillstånd hos medarbetare i arbetsmiljöer anses innebära en oacceptabel risk för integritet och grundläggande rättigheter.
I praktiken innebär AI Act att organisationer inte bör använda AI för att tolka, klassificera eller poängsätta medarbetares känsloläge i arbetsmiljöer. Om detta förekommer i dag bör användningen ses över, pausas och omvärderas ur ett regulatoriskt perspektiv.
När blir kundservice-AI högrisk enligt AI Act?
AI Act listar i sitt Annex III vilka användningsområden som klassas som högrisk. Ett av dessa är:
Employment, workers management and access to self-employment.
I kundservice innebär detta att AI-system kan bli högrisk om de används för att:
- påverka schemaläggning
- bedöma eller rangordna prestation
- flagga individer för åtgärder
- på annat sätt påverka anställdas arbetsvillkor eller möjligheter
Högrisk-AI är inte förbjudet enligt EU AI Act men kraven på den organisation som utvecklar eller använder systemet (provider och deployer) ökar markant. Organisationen behöver då bland annat säkerställa:
- dokumenterad riskhantering
- tydlig mänsklig kontroll
- spårbarhet och loggning
- definierade begränsningar för systemets användning
- uppföljning efter driftsättning
För många CX-organisationer innebär detta ett helt annat styrnings- och ansvarslager än vad som krävs för ren kundinsiktsanalys. Om du använder AI-verktyg som faller under högrisk enligt EU AI Act bör du säkerställa, tillsammans med din leverantör (intern eller extern), att samtliga krav uppfylls och att detta är dokumenterat och verifierbart.
Transparenskrav: Vad måste kunder bli informerade om?
AI Act innehåller särskilda transparenskrav, främst reglerade i Artikel 50, som syftar till att säkerställa att människor förstår när och hur AI används i interaktioner som berör dem. För kundservice är dessa krav särskilt relevanta i två typer av situationer.
När kunder interagerar direkt med AI-system
Om en kund kommunicerar med ett AI-system, till exempel via en chatbot, röstbot eller annan automatiserad kundtjänstfunktion, ska kunden informeras om att det är AI som används, såvida detta inte redan är uppenbart utifrån sammanhanget. Syftet är inte att skapa friktion eller misstänksamhet, utan att undvika vilseledning. EU:s utgångspunkt är att människor har rätt att förstå vem eller vad de interagerar med, särskilt om kommunikationen kan påverka deras beslut, beteende eller upplevelse.
I praktiken innebär detta ofta något så enkelt som:
- en tydlig introduktion (“Du chattar nu med en virtuell assistent”),
- eller en kort förklaring av botens roll och begränsningar.
Det krävs alltså inte detaljerade tekniska beskrivningar eller juridiska formuleringar – tydlighet går före komplexitet.
Vid biometrisk eller emotionell analys
Artikel 50 ställer krav på transparens vid användning av AI för biometrisk kategorisering eller emotion recognition. Även om sådan användning i många fall är förbjuden i arbetsmiljöer enligt AI Act, kan transparenskrav ändå bli relevanta i andra sammanhang. Individer ska inte omedvetet bli föremål för AI-baserad analys som rör känslor, beteenden eller biologiska kännetecken. Transparens fungerar här som ett skydd mot dold eller oavsiktlig påverkan.
Transparens som förtroendebyggande princip
En viktig poäng i EU:s vägledning är att transparens inte ska tolkas som en juridisk börda, utan som en designprincip. Informationen ska vara:
- tydlig,
- begriplig,
- anpassad till mottagaren.
I kundservicekontext bidrar detta ofta till ökat förtroende, inte sämre kundupplevelse. När kunder förstår hur och varför AI används upplever de i högre grad kontroll, förutsägbarhet och respekt vilket i sig är centrala komponenter i god kundupplevelse.
Viktiga datum i EU:s AI Act
AI Act trädde i kraft den 1 augusti 2024, men tillämpas stegvis.
För kundservice och CX är tre tidpunkter särskilt viktiga:
- 2024 – regelverket är formellt antaget och gäller som ramverk
- 2 februari 2025 – förbuden (bl.a. emotion recognition i arbetsmiljöer) börjar tillämpas
- 2 augusti 2026 – större delen av regelverket, inklusive transparenskrav, ska tillämpas fullt ut
Detta innebär att designval som görs idag påverkar hur väl rustad organisationen är framåt.
Checklista: Så blir analys av kunddialoger AI Act-redo
För de flesta organisationer räcker några grundläggande steg långt:
- Kartlägg alla AI-användningsfall i kundservice
- Separera kundinsikt från personalstyrning
- Undvik emotion recognition i arbetsmiljöer
- Dokumentera syfte, begränsningar och beslutslogik
- Säkerställ mänsklig kontroll där AI påverkar beslut
- Bygg transparens mot kunder som standard
Denna typ av struktur minskar både regulatorisk risk och intern osäkerhet.
Sanktionsrisk i korthet som finns i EU AI Act
EU:s AI Act innehåller betydande administrativa sanktionsavgifter för organisationer som bryter mot regelverket.
-
Förbjuden AI-användning (t.ex. emotion recognition i arbetsmiljöer):
upp till 35 miljoner euro eller 7 % av global årsomsättning. -
Bristande efterlevnad vid högrisk-AI (t.ex. otillräcklig styrning, dokumentation eller mänsklig kontroll):
upp till 15 miljoner euro eller 3 % av global årsomsättning. -
Bristande transparens eller samarbete med tillsynsmyndighet:
upp till 7,5 miljoner euro eller 1 % av global årsomsättning.
Sanktioner är inte automatiska, men risknivån ökar kraftigt vid otydlig användning, individstyrning eller bristande dokumentation.
När kunddialoganalys görs med AI Act i åtanke
Ett AI-baserat arbetssätt som fokuserar på orsaker, mönster och förbättringsåtgärder, snarare än på individer, ligger i linje med hur EU:s AI Act är tänkt att fungera i praktiken.
Genom att:
- analysera 100 % av dialogerna
- arbeta på aggregerad nivå
- koppla insikter till åtgärder och KPI-effekt
kan kundservice bli ett beslutsunderlag för hela organisationen, utan att skapa onödig regulatorisk risk.
Vill du se hur AI-baserad analys av kunddialoger kan användas som beslutsstöd, med tydlig respekt för EU:s regelverk och kunders förtroende? Läs mer på www.tellmenow.online.
Källor
- Europaparlamentets och rådets förordning (EU) 2024/1689 – Artificial Intelligence Act
- Europeiska kommissionen – AI Act: risk categories and obligations
- Europeiska kommissionen – Prohibited AI practices
- Europeiska kommissionen – High-risk AI systems (Annex III)
- Europeiska kommissionen – Transparency obligations (Article 50)
- EU:s officiella AI Act-portal: https://artificialintelligenceact.eu









