Kunstig intelligens (AI) utvikler seg dynamisk og er medisinens fremtid. Imidlertid er det fremdeles ingen regulering på internasjonalt nivå - særlig en juridisk definisjon - som definerer kunstig intelligens og derfor klarhet om ansvaret for mulige medisinske feil som oppstår når du bruker AI-assistert utstyr.
Potensialet med AI i medisin
Diagnostiske verktøy støttet av kunstig intelligens øker kvaliteten og effektiviteten i helsevesenet. De brukes primært til å intervjue pasienten, analysere testresultater, overvåke tilstanden til den behandlede personen og utføre mange andre aktiviteter av en lege for å stille en passende diagnose. Riktig funksjon avhenger hovedsakelig av en stor mengde variert informasjon, inkludert spesifikke pasientdata.
- Ukontrollert tilgang til slik informasjon kan føre til skade på den enkeltes individuelle interesse. Sentre som tilbyr privat helsetjenester, som ikke ønsker å dele pasientinformasjonsressursene sine - Konrad Jagocha, Associate, Kancelaria Prawna Chałas i Wspólnicy, er skeptisk til datainnsamlingen.
Flere AI-systemer er allerede i bruk i medisin. En av dem er DXplain - et program som, etter å ha analysert det settet med symptomer som er observert hos en pasient, presenterer en liste over mulige diagnoser. Imidlertid overlater det det endelige valget til legen. Germwatcher er også verdt å ta hensyn til. Det er et laboratorieinformasjonssystem som oppdager, sporer og undersøker muligheten for infeksjoner hos innlagte personer.
Innføringen av robotkirurgiske systemer var definitivt et gjennombrudd. Ved bruk av DaVinci-systemet med robotarmer, presis bevegelse og magnetisk syn, er klinikere i stand til å utføre operasjoner som ikke ville være mulig med standardprosedyrer.
Behov for regulering
Europaparlamentet, sammen med Den europeiske økonomiske og sosiale komiteen, indikerer at det er nødvendig å utarbeide en presis definisjon av kunstig intelligens. Den skal oppfylle kravene til høy strenghet, og dermed ikke innføre ytterligere uklarheter, tvil eller juridiske smutthull, og være teknologisk "åpen" nok til ikke å hemme den potensielle utviklingen av AI-teknologi i fremtiden.
En definisjon av lovlig AI vil tillate oss å identifisere hvem som er ansvarlig for eventuelle medisinske feil som oppstår når vi bruker AI-assisterte maskiner.
- Etter bestemmelsene i sivil lov, for å kunne overføre ansvar til en gitt enhet, må det blant annet være en av lokalene, en tilstrekkelig årsakssammenheng mellom hans handling eller unnlatelse og hendelsen som et resultat av at skaden oppsto. Det virker veldig vanskelig å tildele et sivil ansvar for en enhet for en aktivitet som skyldes kunstig intelligens. Legen kan ikke forutsi intensjonene til det autonome individet. Dette er et problem som spesielt bemerkes av motstandere av bruk av AI i medisin - Konrad Jagocha, Associate, Kancelaria Prawna Chałas i Wspólnicy.
Det er også verdt å merke seg at utviklingen av diagnoser av maskiner med kunstig intelligensressurser er statistisk mer effektiv og raskere enn av leger. Eksperter understreker imidlertid at AI i medisin bør være under konstant menneskelig tilsyn på grunn av viktigheten av effektene som forstyrrelser kan ha. For eksempel er dette ånden fra US Food and Drug Administration (FDA) som lar leger bare utføre AI-risiko med lav risiko.