Jaarcongres 2024: Artificial intelligence in de zorg

Op zaterdag 23 november 2024 vindt het jaarlijkse VFG-congres plaats in het Radboudumc in Nijmegen. We kijken ernaar uit u daar te zien!


10.35-11.10 Diederik Gommers: Kansen en risico’s van AI vanuit zorgverlenersperspectie

11.10-12.00 Flash talks

12.00 – 12.15 koffie/theepauze

12.15 – 12.50 Anco Peeters: Verantwoordelijkskloven en kunstmatige intelligentie in de zorg: tussen kennis en kunde

12.50 – 13.40  Lunch

13.40 – 14.30  Giorgia Pozzi & Pim Haselager: Epistemic (in)justice in medical AI: issues and future perspectives & Op weg naar een empathische omgeving met AI?

14.30 – 15.15 Panelgesprek

15.15 – 16.00  Afsluiting en borrel

De voertaal zal deels Nederlands, deels Engels zijn.

prof. dr. Diederik Gommers

Diederik Gommers is sinds 2005 intensivist en werkzaam in het Erasmus MC. In 2014 werd Gommers benoemd tot bijzonder hoogleraar aan de Erasmus Universiteit Rotterdam met als leeropdracht intensivecaregeneeskunde. Hij is 6 jaar voorzitter geweest van de NVIC en de laatste 2 jaar waren bijzonder door zijn actieve betrokkenheid bij de aanpak van de Corona-crisis en nam hij deel aan het Outbreak Management Team dat het kabinet Rutte adviseert. Nu houdt hij zich bezig met de ‘IC van de toekomst’ waar zorgprofessionals met plezier werken en optimaal worden ondersteund door data en technologie zonder het oog te verliezen voor de menselijke maat.

Anco Peeters is docent en onderzoeker bij de afdeling Kunstmatige Intelligentie van de Radboud Universiteit. Hij studeerde filosofie en kunstmatige intelligentie in Nederland, Australië en Schotland. Zijn onderzoek spitst zich toe op de ethische en epistemologische aspecten van het ontwerp en de implementatie van kunstmatige intelligentie in de gezondheidszorg, het onderwijs en in onderzoek. Eerder werkte hij aan de ethiek van zorg- en seksrobots en onderzocht hij de rol van belichaming in menselijke cognitie, met name het geheugen.

Het meer en meer inzetten van kunstmatige intelligentie (AI) in de zorg roept nieuwe vragen op betreffende morele verantwoordelijkheid. Onderscheidend aan de autonome systemen die door AI gedreven worden is dat ze niet alleen zelfstandig beslissingen kunnen maken of voorstellen, maar dat het lang niet altijd duidelijk is op basis waarvan die beslissingen genomen worden. Met andere woorden: zulke systemen zijn niet altijd transparant. Tegelijkertijd kunnen AI-systemen zo precies en snel werken dat ze vaak vergelijkbaar of beter ziektebeelden diagnosticeren dan menselijke experts. In situaties waarin bijvoorbeeld een zorgverlener op basis van een AI-systeem besluit tot een bepaalde medische handeling, kan bovenstaand spanningsveld leiden tot een verantwoordelijkheidskloof: namelijk, hoe kan de zorgverlener uitleggen dat die medische handeling noodzakelijk is? In deze lezing zal ik ingaan op recente discussies omtrent verantwoordelijkskloven die onstaan door de inzet AI. Daarbij zal ik verschillende typen verantwoordelijkheidskloof onderscheiden, bespreken waarom ze problematisch zijn en een aanzet geven tot verzoenen van bovenstaande spanning tussen intransparantie en precisie. Kernbegrippen hierbij zijn kennis en controle, kwetsbaarheid en morele groei.

dr. Giorgia Pozzi

Dr. Giorgia Pozzi is a postdoctoral researcher at Delft University of Technology. She studied philosophy at LMU Munich before moving to Delft for her PhD research, which she concluded earlier this year. She works on the intersection between the ethics and epistemology of artificial intelligence (AI) in medicine and healthcare. She has a particular interest in tackling forms of epistemic injustice emerging due to the integration of AI systems in medical practice. More generally, she is interested in topics related to bioethics, epistemology, and the philosophy of science and their cross-overs in connection with novel challenges raised by AI systems.

AI systems are increasingly becoming part of medical practice. While they hold the potential to successfully support medical decision-making, their influence in these high-stakes domains deserves careful epistemic and ethical scrutiny. This is paramount in order to ensure that their use does not infringe upon patients’ values and negatively influence the patient-physician relationship. In this talk, I present the case of an AI system currently implemented in the USA to predict patients’ risk of developing an opioid addiction or misuse. Drawing on it, I analyze how these systems can contribute to unjustifiably discrediting patients’ testimonial offerings, thus bringing about testimonial injustice (a form of epistemic injustice). I further elucidate why this particular form of injustice deserves special attention and cannot be subsumed under other often-discussed forms of injustice connected to AI. Finally, I advance some initial considerations on how to move from this point and mitigate the issues highlighted. In particular, I consider questions pertaining to the extent to which these systems should mediate medical practice in the first place and how to ensure that patients’ voices remain heard in medical encounters characterized by triadic AI-clinician-patient relationships.

prof. Pim Haselager

Pim Haselager is Professor Artificiële Intelligentie aan de Radboud Universiteit. Hij onderzoekt de maatschappelijke implicaties van AI en neurotechnologie (het decoderen of stimuleren van hersenprocessen). Zo kijkt hij o.a. naar hoe we bij de groeiende rol van slimme sensoren, big data en AI de menselijke controle op technologie kunnen behouden of versterken. Technologie dient menselijke zelfdeterminatie en samenwerking te ondersteunen in plaats van te bemoeilijken. Hoe maken we dat mogelijk? Haselager publiceert in vooraanstaande internationale tijdschriften zoals Nature en Ethics & Information Technology, en is een veelgevraagd spreker voor overheidsinstanties en ngo’s

Door de combinatie van ICT, slimme sensoren, big data en AI lijkt het mogelijk te om mensen met een beginnende maar snel toenemende zorg vraag (cognitief, fysiek of in combinatie) te ondersteunen. Er wordt in dit verband wel gesproken over een ‘empathische omgeving’, waarbij een huis, mantelzorgers en professionele verzorgers samen een optimale combinatie van autonomie, zelfredzaamheid en zorg mogelijk proberen te maken. Grote uitdagingen liggen er echter op het gebied van implementatie en verantwoordelijkheid. Hoe combineren we bijvoorbeeld het behoud van zelfstandigheid met de vereisten van veiligheid? Hoe faciliteren we deling van informatie en communicatie daarover zonder dat dat privacy schaadt (of vice versa). Tijdens deze korte lezing bespreken we een paar voorbeelden, problemen en mogelijke (routes naar) oplossingen.