Hoppa till huvudinnehåll

EU AI Act — Transparens

Senast uppdaterad: februari 2026

1. Om EU:s AI-förordning

EU:s förordning om artificiell intelligens (AI Act, förordning 2024/1689) är världens första heltäckande AI-lagstiftning. Den trädde i kraft den 1 augusti 2024 med stegvis tillämpning fram till 2027. Förordningen klassificerar AI-system efter risk och ställer krav på transparens, dokumentation och mänsklig tillsyn.

Som ett företag som både använder och granskar AI-system tar 4Reconciliation denna lagstiftning på största allvar. Nedan redovisar vi transparent hur vi efterlever AI Act i vår egen verksamhet.

2. Vår AI-användning

4Reconciliation använder AI i följande delar av verksamheten:

Digital Risk Check — Rapportgenerering

  • Vad: AI genererar klarspråksrapporter baserat på skanningsresultat
  • Modell: Claude (Anthropic) via API
  • Riskkategori: Begränsad risk (Art. 50 — transparenskrav)
  • Mänsklig tillsyn: Rapporter bygger på objektiva skanningsdata. Användare informeras att rapporten är AI-genererad
  • Data: Ingen persondata skickas till AI-modellen — enbart tekniska skanningsresultat och poäng

AI Readiness Assessment

  • Vad: Självskattningsverktyg med poängsättning
  • Riskkategori: Minimal risk — deterministisk poängsättning, ingen AI-modell involverad
  • Data: Resultat lagras lokalt i webbläsaren (localStorage)

AI-audit (konsulttjänst)

  • Vad: Manuell granskning av kunders AI-användning
  • Riskkategori: Ej tillämpligt — konsulttjänst utan AI-system
  • Mänsklig tillsyn: All analys och rådgivning utförs av människor

3. Riskkategorier enligt AI Act

AI Act delar in AI-system i fyra risknivåer. Här visar vi var våra system hamnar:

Oacceptabel risk

Förbjudna system (social poängsättning, biometrisk massövervakning). Inget av våra system.

Hög risk

System inom hälsa, utbildning, anställning, rättsväsen. Inget av våra system.

Begränsad risk

System med transparenskrav. Vår rapportgenerering (AI-genererat innehåll som måste märkas).

Minimal risk

System utan särskilda krav. Våra poängsättningsalgoritmer och assessment-verktyg.

4. Transparenskrav vi uppfyller (Art. 50)

Enligt Art. 50 i AI Act ska användare informeras när de interagerar med AI-genererat innehåll. Vi uppfyller detta genom:

  • AI-genererade rapporter märks tydligt som "AI-genererad rapport"
  • Vi anger vilken AI-modell som används (Claude, Anthropic)
  • Vi beskriver vilken data som ligger till grund för rapporten
  • Rapporten innehåller en disclaimer om metodens begränsningar
  • Användare informeras om att rapporten baseras på passiv analys, inte intrångstestning

5. Dataskydd vid AI-användning

  • Ingen persondata (namn, e-post, kontaktuppgifter) skickas till AI-modellen
  • Enbart tekniska skanningsresultat och anonymiserade poäng används som input
  • AI-leverantörens (Anthropic) data retention policy respekteras — data lagras inte för träning
  • All databehandling sker i enlighet med vår integritetspolicy och GDPR

6. Vårt åtagande

4Reconciliation åtar sig att:

  • Löpande utvärdera vår AI-användning mot AI Acts krav
  • Uppdatera denna sida vid väsentliga förändringar i vår AI-användning
  • Vara transparenta med kunder om hur AI används i våra tjänster
  • Inte använda AI-system i förbjudna eller högriskkategorier utan korrekt konformitetsbedömning
  • Hjälpa våra kunder att uppnå samma nivå av AI Act-efterlevnad genom våra audittjänster

7. Kontakt

Har du frågor om vår AI-användning eller AI Act-efterlevnad?

4Reconciliation AB, org.nr 559367-9110
Sanduddsvägen 60, 178 41 Ekerö