Home Nieuws Kunstmatige intelligentie in de gezondheidszorg betreedt een nieuw tijdperk van verantwoordelijkheid

Kunstmatige intelligentie in de gezondheidszorg betreedt een nieuw tijdperk van verantwoordelijkheid

3
0
Kunstmatige intelligentie in de gezondheidszorg betreedt een nieuw tijdperk van verantwoordelijkheid

Bijna tien jaar geleden richtte de arts en datawetenschapper Dr. Ruben Amarasingham op Onderdelentechnologieën in Dallas met een duidelijk doel: gebruiken kunstmatige intelligentie maak klinisch werk lichter en niet zwaarder. In een tijd waarin een groot deel van de AI in de gezondheidszorg zich concentreerde op voorspelling en automatisering, concentreerde Pieces zich op iets dat moeilijker te kwantificeren is, maar wel meer consequenties heeft: hoe artsen denken, documenteren en beslissingen nemen binnen snelle ziekenhuisworkflows.

Deze focus heeft Pieces geholpen grip te krijgen op gezondheidszorgsystemen die op zoek zijn naar kunstmatige intelligentie die kan helpen bij documentatie, coördinatie en besluitvorming zonder de zorg te onderbreken. Maar toen ziekenhuizen steeds meer op AI gingen vertrouwen voor diagnose, triage en dagelijkse operaties, veranderden de verwachtingen die aan deze hulpmiddelen werden gesteld. Het was niet langer voldoende dat de AI er indrukwekkend uitzag of snel beweegt. Het moest betrouwbaar zijn onder reële klinische druk.

Het was niet de bedoeling dat de stukken een case study zouden worden over de verantwoordelijkheid van AI in de gezondheidszorg. Maar de laatste paar jaar is dat eigenlijk wat het is geworden. In 2024 dwong een regelgevend onderzoek door het kantoor van de procureur-generaal van Texas naar de nauwkeurigheid en veiligheid van zijn systemen het bedrijf om te onderzoeken hoe zijn modellen in de praktijk presteerden, hoe duidelijk hun redenering kon worden verklaard en hoe snel problemen konden worden geïdentificeerd en opgelost.

In plaats van zich terug te trekken, heeft het bedrijf zijn modellen, documentatiepraktijken en garanties opnieuw onderzocht. Dergelijke inspanningen werden later van cruciaal belang voor de overname ervan door Slimmere technologieëneen door private equity ondersteund platform voor gezondheidszorgautomatisering dat eerder dit jaar werd opgericht door de combinatie van SmarterDx, Thoughtful.ai en Access Healthcare, in september 2025. De aankoopprijs is niet bekendgemaakt.

De reis van Pieces legt een fundamentele waarheid vast over AI in de gezondheidszorg vandaag de dag: technologie wordt niet langer alleen beoordeeld op ambitie, maar ook op haar vermogen om kritiek te weerstaan, zichzelf onder druk uit te leggen, het vertrouwen van artsen te winnen en veilig te opereren in omgevingen waar de kosten van fouten worden gemeten in menselijke uitkomsten.

VAN DE BELOFTE NAAR DE TEST

Kunstmatige intelligentie is veelbelovend in de gezondheidszorg terechtgekomen. Het zou de werklast van artsen vereenvoudigen, noodbeslissingen versnellen en de complexiteit van de moderne zorg verminderen. Sommige van deze beloften kwamen al snel uit. Maar naarmate de adoptie zich verspreidde, begonnen ziekenhuizen de beperkingen in te zien van systemen die in theorie indrukwekkend waren, maar in de praktijk kwetsbaar.

Begin 2025 bracht de Amerikaanse Food and Drug Administration een update uit begeleiding op het gebied van medische apparatuur die mogelijk wordt gemaakt door kunstmatige intelligentie en machinaal lerenDit vereist sterkere monitoring na het op de markt brengen, duidelijkere audit trails en waarborgen tegen modeldrift in contexten waar veel op het spel staat. De Federal Trade Commission heeft deze boodschap versterkt uitvoerende acties zich te richten op overdreven beweringen over AI en het misbruik van gevoelige gezondheidsgegevens.

Deze signalen hebben het gesprek veranderd, waardoor veel ziekenhuizen gedwongen zijn de zorgverleners moeilijkere vragen te stellen: hoe komt uw systeem tot zijn conclusies? Kunnen artsen zijn aanbevelingen begrijpen en negeren? En gedraagt ​​het model zich consistent onder veranderende omstandigheden?

Voor veel AI-bedrijven koopt de hype van het afgelopen decennium niet langer tijd. Het bewijs ja.

EEN ECHTE LEVENSTEST

De stukken voldeden eerder aan die verwachtingen dan de meeste. Toezicht op de regelgeving dwong het bedrijf om te worstelen met de manier waarop zijn modellen redeneerden op basis van patiëntgegevens en hoe duidelijk die redenering kon worden uitgelegd aan zowel artsen als toezichthouders.

Maar Amarasingham zegt dat de missie van het bedrijf nooit is veranderd. “Ons team is gefocust op het creëren van hulpmiddelen om het leven gemakkelijker te maken voor de artsen, verpleegkundigen en casemanagers die elke dag de dupe zijn van het gezondheidszorgsysteem”, zegt hij Snel bedrijf.

Dit doel omvatte het publiceren van methodologische artikelen, het delen van documentatie met gezondheidszorgsystemen en het creëren van processen die aan het licht brachten wanneer modellen het moeilijk hadden, afdreven of herkalibratie vereisten. Dergelijke praktijken werden van cruciaal belang voor het volgende hoofdstuk van het bedrijf.

Shekhar Natarajan, oprichter en CEO van Orkest.ai en een oud-waarnemer van de gezondheidszorgregulering, ziet dit als onderdeel van een grotere afrekening. Veel AI-bedrijven, zegt hij, hebben vertrouwd op wat hij ‘opkomende veiligheid’ noemt, ervan uitgaande dat ethische resultaten op natuurlijke wijze voortkomen uit goede bedoelingen en cultuur.

“Deze aanpak is niet langer geldig”, legt Natarajan uit. Regelgevers verwachten nu dat beveiliging en verantwoordelijkheid in de systemen zelf worden ingebouwd, met reproduceerbare redeneringen, gedocumenteerde controles en waarborgen die stand houden, zelfs als teams tot het uiterste worden belast.

BOUW VERTROUWEN

Het vertrouwen in de gezondheidszorg komt niet voort uit merk of inspiratie. Het komt voort uit herhaaldelijk bewijs dat de technologie klinisch werk begrijpt en consistent presteert onder veranderende omstandigheden. Artsen willen AI die het ritme van de werkdag respecteert, zich aanpast aan het onvoorspelbare tempo van de patiëntenzorg en de cognitieve belasting vermindert in plaats van vergroot. Bovenal willen ze systemen die zich voorspelbaar gedragen.

De stukken vormden de aanpak rond deze realiteit, waarbij de nadruk lag op het creëren van hulpmiddelen om naast artsen te werken in plaats van vóór hen, en het creëren van manieren waarop teams de conclusies van het systeem in twijfel konden trekken. Het ontwierp ook zijn eigen interne processen om te documenteren wanneer het model in orde was, problemen ondervond, afdreef of herkalibratie nodig had. Voor Amarasingham was dit soort denken essentieel voor de vooruitgang van het bedrijf.

“Innovatie moest voor ons in de eerste plaats ten dienste staan ​​van het zorgteam. Het doel was om de cognitieve belasting te verminderen in plaats van te vergroten”, zegt hij, een visie die aansluit bij een groeiende consensus in AI-onderzoek in de gezondheidszorg.

Deze nadruk komt overeen met wat onafhankelijke artsen zeggen dat AI in de gezondheidszorg tegenhoudt.

Dr. Ruth Kagwima, een internist bij Catalyst Physician Group in Texas, zegt dat de adoptie van AI stokt wanneer tools de toch al overbelaste klinische workflows verstoren of er niet in slagen om vertrouwen te winnen door duidelijkheid en validatie.

“AI-systemen die succesvol zijn in ziekenhuizen zijn gemakkelijk te begrijpen, passen zich op natuurlijke wijze aan het dagelijkse werk aan en tonen duidelijk bewijs van veiligheid en nauwkeurigheid”, zegt hij. “Ze moeten patiëntgegevens beschermen, het klinische oordeel respecteren en de zorg verbeteren zonder wrijving te veroorzaken.”

Een andere onafhankelijke gezondheidszorganalist, dr. Patience Onuoha, een internist verbonden aan verschillende ziekenhuizen in Indiana, benadrukt de praktische beperkingen die de adoptie aan het bed nog steeds vertragen. “Gegevens zijn vaak rommelig en geïsoleerd, en nieuwe tools kunnen toch al uitdagende klinische workflows verstoren”, zegt hij. “Er zijn ook reële zorgen over veiligheid, vooroordelen, juridische risico’s en vertrouwen in algoritmen die niet gemakkelijk te begrijpen zijn.”

Natarajan gelooft dat dit de bepalende standaard van het komende decennium zal zijn. Volgens hem overleven bedrijven de druk van de regelgeving als ze hun interne principes omzetten in verifieerbare systemen. Ze bouwen duidelijke ketens van verantwoordelijkheid op, creëren bewijsmateriaal dat onthult waar vooroordelen kunnen optreden, en laten artsen niet alleen zien hoe een model werkt, maar ook waarom het werkt.

IMPACT OP DE TOEKOMST

AI in de gezondheidszorg evolueert naar een wereld waarin toezicht eerder een ontwerpvereiste is dan een bijzaak, vooral omdat toezichthouders documentatie eisen die de gehele levenscyclus van een systeem bestrijkt. Ze willen prestatiegegevens gesegmenteerd op ras, leeftijd en medische aandoeningen, garanties dat het systeem geen gevoelige eigenschappen kan afleiden die patiënten nooit openbaar hebben gemaakt, en ze willen dat bedrijven aantonen hoe snel ze modelafwijkingen kunnen detecteren en corrigeren.

Een deel van dit momentum komt voort uit schade die in de loop van de tijd is ontstaan. Recent onderzoek gerapporteerd door bijvoorbeeld Financiële tijden ontdekte dat sommige op AI gebaseerde medische hulpmiddelen de neiging hadden de symptomen van vrouwen en patiënten uit etnische minderheden te onderschatten, waardoor de verschillen in de zorg mogelijk verergerden omdat de modellen niet waren getraind of geëvalueerd op eerlijkheid en transparantie.

Bedrijven die zich aanpassen aan deze nieuwe realiteit zullen de volgende generatie klinische AI ​​vormgeven. Pieces opereert nu binnen dit landschap. Als onderdeel van Smarter Technologies werkt het eraan om zijn governancepraktijken naar een groter netwerk van ziekenhuizen te brengen. Dit betekent dat beveiligingsframeworks moeten worden geïntegreerd in grotere datasets, meer diverse populaties en bredere implementatieomgevingen. Het is hard werken, maar ook het soort werk dat leiderschap definieert op een terrein waar de kosten van falen worden gemeten in menselijke uitkomsten.

EEN NIEUW HOOFDSTUK

AI in de gezondheidszorg gaat een fase van consequente groei in, waarin de veiligheid van AI-systemen veel belangrijker is dan doorbraken die de krantenkoppen halen.

Nu ziekenhuizen hun verwachtingen ten aanzien van AI verhogen, gelooft Amarasingham dat de industrie een andere mentaliteit zal moeten aannemen. “In de gezondheidszorg en AI speel je niet om voor eens en voor altijd te winnen; je speelt om te blijven spelen, te blijven leren en de patiëntresultaten te blijven verbeteren”, zegt hij.

Het werk, zo voegt hij eraan toe, zal nooit af zijn, omdat de regels veranderen en de behoeften evolueren. Waar het om gaat is of bedrijven ervoor kiezen om voor die realiteit te ontwerpen. Met andere woorden: AI in de gezondheidszorg zal slechts zo snel vooruitgang boeken als het vertrouwen wint. Dit betekent dat AI-aanbieders en -kopers in de gezondheidszorg zich nu meer dan ooit moeten inzetten voor consistent, transparant werk dat onder druk standhoudt.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in