In de Amazonestad Caracaraí wordt kunstmatige intelligentie niet verkocht als een futuristisch wonder. Het wordt gebruikt voor iets veel praktischer: een overwerkte apotheker helpen om gevaarlijke fouten op te sporen voordat een patiënt het verkeerde medicijn krijgt.
Een digitale assistent in een heel fysieke knelpunt
Rest of World meldde dat apotheker Samuel Andrade een stad van ongeveer 22.000 mensen bedient en honderden recepten verwerkt die zijn uitgeschreven door Brazilië's gratis openbare klinieken. In een systeem waar weinig personeel is en afstanden groot zijn, kan het controleren van elke interactie, doseringsprobleem of contra-indicatie uren in beslag nemen. Dat is riskant werk wanneer patiënten dagen hebben gereisd om een apotheek te bereiken.
Het AI-hulpmiddel dat hem nu assisteert, ontwikkeld door de Braziliaanse non-profit NoHarm, markeert verdachte recepten en toont de informatie die een apotheker nodig heeft om ze te beoordelen. Andrade zei dat het systeem zijn capaciteit voor het verwerken van recepten verviervoudigd heeft en binnen enkele maanden al meer dan 50 fouten heeft opgespoord.
Waarom dit ertoe doet op plekken ver van grote ziekenhuizen
Brazilië's universele openbare gezondheidszorgsysteem heeft tot doel meer dan 200 miljoen mensen te bedienen, wat betekent dat plattelandsklinieken vaak onder druk werken die rijkere gezondheidssystemen zich moeilijk kunnen voorstellen. In die context kan een hulpmiddel dat het controleren versnelt zonder professioneel oordeel te vervangen, een buitensporig groot effect hebben.
De oprichters van NoHarm bouwden het model rond echte receptpatronen en historische fouten, en trainden het om risicovolle combinaties en doseringsproblemen te markeren. Het doel is niet om software de behandeling te laten beslissen. Het is om de kans te verkleinen dat uitgeput personeel iets schadelijks mist wanneer de rij lang is en het papierwerk nooit ophoudt.
Een nuttiger AI-verhaal dan de hype-cyclus
Het wereldwijde AI-gesprek slingert vaak tussen gigantische beloften en gigantische angsten. Dit verhaal komt op een praktischer punt terecht. Het laat zien hoe AI wordt ingezet voor een nauwe, risicovolle taak op een plek die meestal buiten de technologische optimisme valt: een afgelegen openbare kliniek, geen privé-vlaggenschipziekenhuis.
Dat maakt het experiment in Caracaraí het volgen waard. Als de vroege winst standhoudt, zou het model een manier kunnen bieden om de veiligheid in onderbemande systemen te verbeteren zonder te wachten op een volledige herziening van personeelsaantallen, infrastructuur en logistiek. Het is niet het soort AI-verhaal dat het hardst schreeuwt. Maar voor patiënten die afhankelijk zijn van openbare klinieken in moeilijk bereikbare regio's, is het misschien precies het soort dat het meest ertoe doet.