fbpx

Nya riktlinjer för användning av AI i svensk sjukvård

Artificiell intelligens (AI) anses ha stor potential att förbättra effektiviteten och säkerheten inom sjukvården. Samtidigt innebär AI:s integration både kända och okända risker. Därför rekommenderas en systematisk, riskbaserad och väldokumenterad approach vid AI:s användning, där ansvarsfördelningen är tydlig. Läkemedelsverket har tagit fram nya riktlinjer för AI-användning hos vårdgivare. I de nya riktlinjerna finns också en tydlig checklista för vårdgivare. Nedan går vi igenom de viktigaste punkterna i checklistan och ger konkreta exempel på vad de kan innebära i praktiken.

Läkemedelverkets AI-checklista för vårdgivare

Läkemedelsverket har släppt en vägledning för hur AI bör användas i sjukvårdssammanhang. Den belyser vikten av en metodisk implementering, och betonar att själva införandet bör integreras med den kontinuerliga utvecklingen av verksamheten. Det innebär att tekniska, vetenskapliga, juridiska, etiska och praktiska aspekter måste beaktas.

För att ge konkret vägledning i införandeprocessen har en checklista inkluderats i vägledningen.

1. Idén till införande av en AI-driven produkt

Idén till införande av en AI-driven produkt är baserad på ett kliniskt behov att förbättra eller effektivisera en väldefinierad vårdprocess eller organisatorisk process, med välkontrollerade dataflöden. Vårdgivaren bör identifiera specifika områden där AI kan användas för att förbättra eller effektivisera vårdprocesser eller organisatoriska processer. Det är viktigt att dessa områden är tydligt definierade och att dataflödena är välkontrollerade för att säkerställa korrekt och tillförlitlig användning av AI.

Exempel: En vårdgivare kan införa en AI-drivna produkt för att förbättra diagnosprocessen genom att analysera stora mängder patientdata och identifiera mönster och riskfaktorer för olika sjukdomar.

2. Jämförelser mellan alternativa produkter

Jämförelser mellan alternativa produkter är genomförda prospektivt head-to-head av oberoende part. Vårdgivaren bör genomföra jämförelser mellan olika drivna produkter för att utvärdera deras fördelar och nackdelar. Dessa jämförelser bör göras genom att testa produkterna i verkliga situationer och jämföra deras prestanda och resultat. Det är viktigt att jämförelserna görs av en oberoende part för att säkerställa objektivitet och tillförlitlighet.

Exempel: En vårdgivare kan genomföra en jämförelse mellan två olika AI-drivna produkter för att utvärdera deras förmåga att korrekt diagnostisera en specifik sjukdom. Jämförelsen bör göras av en oberoende part för att säkerställa objektivitet och tillförlitlighet.

3. Produkten är CE-märkt för det avsedda ändamålet

En AI-driven produkt bör vara CE-märkt för det avsedda ändamålet. CE-märkning är en indikation på att produkten uppfyller relevanta säkerhets- och prestandakrav enligt EU-lagstiftningen.

Exempel: En AI-drivna produkt som används för att övervaka patienters vitala tecken måste vara CE-märkt för att säkerställa att den uppfyller relevanta säkerhets- och prestandakrav enligt EU-lagstiftningen.

4. Resurser är budgeterade för hela systemets livscykel

Det är viktigt att vårdgivaren budgeterar för hela systemets livscykel, inklusive införande, drift och underhåll av AI-drivna produkter. Detta kan inkludera kostnader för utbildning, support och uppgraderingar.

Exempel: En vårdgivare måste budgetera för införande, drift och underhåll av en AI-drivna produkt, inklusive kostnader för utbildning, support och uppgraderingar.

5. Risk- och konsekvensanalys är genomförd i dialog med berörda vårdprofessioner

Innan införandet av en AI-driven produkt bör vårdgivaren genomföra en risk- och konsekvensanalys i dialog med berörda vårdprofessioner. Detta kan inkludera att identifiera potentiella risker och konsekvenser av produkten, samt att utveckla strategier för att hantera dessa risker och konsekvenser.

Exempel: Innan införandet av en AI-drivna produkt bör vårdgivaren genomföra en risk- och konsekvensanalys i samarbete med läkare och sjuksköterskor för att identifiera potentiella risker och konsekvenser av produkten.

6. Etisk och juridisk bedömning av risken för diskriminering är genomförd

Det är viktigt att vårdgivaren genomför en etisk och juridisk bedömning av risken för diskriminering i samband med användningen av AI-drivna produkter. Detta kan inkludera att identifiera potentiella diskriminerande faktorer och utveckla strategier för att minimera dessa faktorer.

Exempel: En vårdgivare måste bedöma om en AI-drivna produkt kan leda till ojämlik vård eller diskriminering baserat på kön, ålder eller etnicitet och utveckla strategier för att minimera dessa risker.

7. Juridisk och teknisk bedömning rörande dataskydd och integritetsaspekter är genomförd

Det är viktigt att vårdgivaren genomför en juridisk och teknisk bedömning av dataskydd och integritetsaspekter i samband med användningen av AI-drivna produkter. Detta kan inkludera att identifiera potentiella risker för dataskydd och integritet och utveckla strategier för att minimera dessa risker.

Exempel: En vårdgivare måste säkerställa att patientdata som samlas in och används av en AI-drivna produkt skyddas enligt gällande dataskyddslagstiftning och att integritetsaspekter beaktas.

8. Nödvändig kompetens inom data science finns integrerad med klinisk kompetens inom verksamheten

Det är viktigt att vårdgivaren har nödvändig kompetens inom data science integrerad med klinisk kompetens inom verksamheten. Detta kan inkludera att anställa eller utbilda personal med kompetens inom data science, samt att säkerställa att denna personal samarbetar nära med klinisk personal.

Exempel: Ett sjukhus kan överväga att anställa en dataforskare för att arbeta tillsammans med läkare och sjuksköterskor för att utveckla och implementera AI-drivna lösningar inom sjukvården.

9. Utbildning enligt produktinformationen är genomförd

All personal som ska använda AI-drivena produkter bör genomgå utbildning enligt produktinformationen för att säkerställa korrekt och säker användning av produkten.

10. Tydlig ansvarsfördelning mellan tillverkare, sjukvårdshuvudman och användare är etablerad

Det är viktigt att det finns en tydlig ansvarsfördelning mellan tillverkare, sjukvårdshuvudman och användare av AI-drivna produkter. Detta kan inkludera att definiera vem som är ansvarig för utbildning, support, underhåll och uppgraderingar av produkten.

11. System för övervakning av produktprestanda finns på plats efter införande

Efter införandet av en AI-driven produkt bör vårdgivaren ha ett system på plats för att regelbundet övervaka produktprestanda och effektivitet. Detta kan inkludera att samla in och analysera data om produktprestanda och patientresultat för att säkerställa att produkten fortsätter att fungera som avsett.

12. System för rapportering av eventuella fel och avvikelser till tillverkare och relevanta myndigheter, t.ex. Läkemedelsverket, finns på plats

Det är viktigt att vårdgivaren har ett system på plats för att rapportera eventuella fel och avvikelser i samband med användningen av AI-drivna produkter till tillverkare och relevanta myndigheter, såsom Läkemedelsverket. Detta kan inkludera att rapportera eventuella biverkningar, felaktiga diagnoser eller andra avvikelser som kan påverka patientsäkerheten.


Ni hittar Läkemedelverkets artikel och checklista här: https://www.lakemedelsverket.se/sv/medicinteknik/anvanda/anvandning-av-ai-i-sjukvarden

Den fullständiga rapporten finns som PDF här: https://www.lakemedelsverket.se/4a5f16/globalassets/dokument/medicinteknik/artificiell-intelligens-ai/vagledning-anvandning-av-artificiell-intelligens-i-svensk-sjukvard.pdf