Op zaterdag 23 november 2024 vindt het jaarlijkse VFG-congres plaats in het Radboudumc in Nijmegen. We kijken ernaar uit u daar te zien!
Programma en tijden
10.35-11.10 Diederik Gommers: Kansen en risico’s van AI vanuit zorgverlenersperspectie
11.10-12.00 Flash talks
12.00 – 12.15 koffie/theepauze
12.15 – 12.50 Anco Peeters: Verantwoordelijkskloven en kunstmatige intelligentie in de zorg: tussen kennis en kunde
12.50 – 13.40 Lunch
13.40 – 14.30 Giorgia Pozzi & Pim Haselager: Epistemic (in)justice in medical AI: issues and future perspectives & Op weg naar een empathische omgeving met AI?
14.30 – 15.15 Panelgesprek
15.15 – 16.00 Afsluiting en borrel
De voertaal zal deels Nederlands, deels Engels zijn.
Lezingen en sprekers
prof. dr. Diederik Gommers
Diederik Gommers is sinds 2005 intensivist en werkzaam in het Erasmus MC. In 2014 werd Gommers benoemd tot bijzonder hoogleraar aan de Erasmus Universiteit Rotterdam met als leeropdracht intensivecaregeneeskunde. Hij is 6 jaar voorzitter geweest van de NVIC en de laatste 2 jaar waren bijzonder door zijn actieve betrokkenheid bij de aanpak van de Corona-crisis en nam hij deel aan het Outbreak Management Team dat het kabinet Rutte adviseert. Nu houdt hij zich bezig met de ‘IC van de toekomst’ waar zorgprofessionals met plezier werken en optimaal worden ondersteund door data en technologie zonder het oog te verliezen voor de menselijke maat.
Kansen en risico’s van AI vanuit zorgverlenersperspectie
dr. Anco Peeters
Anco Peeters is docent en onderzoeker bij de afdeling Kunstmatige Intelligentie van de Radboud Universiteit. Hij studeerde filosofie en kunstmatige intelligentie in Nederland, Australië en Schotland. Zijn onderzoek spitst zich toe op de ethische en epistemologische aspecten van het ontwerp en de implementatie van kunstmatige intelligentie in de gezondheidszorg, het onderwijs en in onderzoek. Eerder werkte hij aan de ethiek van zorg- en seksrobots en onderzocht hij de rol van belichaming in menselijke cognitie, met name het geheugen.
Verantwoordelijkskloven en kunstmatige intelligentie in de zorg: tussen kennis en kunde
Het meer en meer inzetten van kunstmatige intelligentie (AI) in de zorg roept nieuwe vragen op betreffende morele verantwoordelijkheid. Onderscheidend aan de autonome systemen die door AI gedreven worden is dat ze niet alleen zelfstandig beslissingen kunnen maken of voorstellen, maar dat het lang niet altijd duidelijk is op basis waarvan die beslissingen genomen worden. Met andere woorden: zulke systemen zijn niet altijd transparant. Tegelijkertijd kunnen AI-systemen zo precies en snel werken dat ze vaak vergelijkbaar of beter ziektebeelden diagnosticeren dan menselijke experts. In situaties waarin bijvoorbeeld een zorgverlener op basis van een AI-systeem besluit tot een bepaalde medische handeling, kan bovenstaand spanningsveld leiden tot een verantwoordelijkheidskloof: namelijk, hoe kan de zorgverlener uitleggen dat die medische handeling noodzakelijk is? In deze lezing zal ik ingaan op recente discussies omtrent verantwoordelijkskloven die onstaan door de inzet AI. Daarbij zal ik verschillende typen verantwoordelijkheidskloof onderscheiden, bespreken waarom ze problematisch zijn en een aanzet geven tot verzoenen van bovenstaande spanning tussen intransparantie en precisie. Kernbegrippen hierbij zijn kennis en controle, kwetsbaarheid en morele groei.
dr. Giorgia Pozzi
Dr. Giorgia Pozzi is a postdoctoral researcher at Delft University of Technology. She studied philosophy at LMU Munich before moving to Delft for her PhD research, which she concluded earlier this year. She works on the intersection between the ethics and epistemology of artificial intelligence (AI) in medicine and healthcare. She has a particular interest in tackling forms of epistemic injustice emerging due to the integration of AI systems in medical practice. More generally, she is interested in topics related to bioethics, epistemology, and the philosophy of science and their cross-overs in connection with novel challenges raised by AI systems.
Epistemic (in)justice in medical AI: issues and future perspectives
AI systems are increasingly becoming part of medical practice. While they hold the potential to successfully support medical decision-making, their influence in these high-stakes domains deserves careful epistemic and ethical scrutiny. This is paramount in order to ensure that their use does not infringe upon patients’ values and negatively influence the patient-physician relationship. In this talk, I present the case of an AI system currently implemented in the USA to predict patients’ risk of developing an opioid addiction or misuse. Drawing on it, I analyze how these systems can contribute to unjustifiably discrediting patients’ testimonial offerings, thus bringing about testimonial injustice (a form of epistemic injustice). I further elucidate why this particular form of injustice deserves special attention and cannot be subsumed under other often-discussed forms of injustice connected to AI. Finally, I advance some initial considerations on how to move from this point and mitigate the issues highlighted. In particular, I consider questions pertaining to the extent to which these systems should mediate medical practice in the first place and how to ensure that patients’ voices remain heard in medical encounters characterized by triadic AI-clinician-patient relationships.
prof. Pim Haselager
Pim Haselager is Professor Artificiële Intelligentie aan de Radboud Universiteit. Hij onderzoekt de maatschappelijke implicaties van AI en neurotechnologie (het decoderen of stimuleren van hersenprocessen). Zo kijkt hij o.a. naar hoe we bij de groeiende rol van slimme sensoren, big data en AI de menselijke controle op technologie kunnen behouden of versterken. Technologie dient menselijke zelfdeterminatie en samenwerking te ondersteunen in plaats van te bemoeilijken. Hoe maken we dat mogelijk? Haselager publiceert in vooraanstaande internationale tijdschriften zoals Nature en Ethics & Information Technology, en is een veelgevraagd spreker voor overheidsinstanties en ngo’s
Op weg naar een empathische omgeving met AI?
Door de combinatie van ICT, slimme sensoren, big data en AI lijkt het mogelijk te om mensen met een beginnende maar snel toenemende zorg vraag (cognitief, fysiek of in combinatie) te ondersteunen. Er wordt in dit verband wel gesproken over een ‘empathische omgeving’, waarbij een huis, mantelzorgers en professionele verzorgers samen een optimale combinatie van autonomie, zelfredzaamheid en zorg mogelijk proberen te maken. Grote uitdagingen liggen er echter op het gebied van implementatie en verantwoordelijkheid. Hoe combineren we bijvoorbeeld het behoud van zelfstandigheid met de vereisten van veiligheid? Hoe faciliteren we deling van informatie en communicatie daarover zonder dat dat privacy schaadt (of vice versa). Tijdens deze korte lezing bespreken we een paar voorbeelden, problemen en mogelijke (routes naar) oplossingen.