Evidence Based, een realistische omschrijving

Waarom een blog over ‘Evidence based’?

Ik schrijf een blog over ‘Evidence based’, omdat er veel geschermd wordt met dit begrip, met name om bepaalde vormen van hulpverlening de voorkeur te geven boven andere methoden. Ook worden de vergoedingen van verzekeringen meer en meer gebaseerd op dit nogal vage begrip. Ik ben eens gaan googlen en komt via Wikipedia aan de navolgende informatie.

Wat betekent het precies als een methode ‘evidence based’ is?

Wanneer een methode ‘Evidence based’ heet te zijn in de menswetenschappen/ hulpverlening, betekent dat ongeveer: Deze methode werkt, statistisch gezien, beter dan andere methoden (die op dezelfde manier getest zijn). De kennis waarop de statistieken hierover berusten, is zoals je verderop kunt lezen, meestal onbewezen of discutabel. Toch baseren verzekeringen hun beleid op de claim dat een methode ‘evidence based’ is.

‘Evidence based’ vs ‘Wetenschappelijk bewezen’

Evidence based is iets anders dan ‘Wetenschappelijk bewezen’, al delen beide begrippen het kenmerk dat ze eigenlijk geen eenduidige definitie kennen. Over het algemeen gesproken kan men zeggen dat ‘Evidence based’ betekent dat de methode gebruik maakt van informatie uit het wetenschappelijke domein, meestal in de vorm van artikelen in vakbladen. Daarnaast berust het op ervaring en inzichten van de beroepsbeoefenaar zelf. Een derde bron van informatie, waarop de term ‘Evidence based’ berust, is de gebruiker. Wetenschappelijk bewezen, betekent daarentegen dat er onderzoek naar is verricht, dat ook nog eens volgens de regelen der kunst is uitgevoerd. Vaak is dit in de hulpverlenende beroepen niet haalbaar, vanwege praktische en ethische problemen.

De drie peilers van ‘evidence based’

De drie peilers waarop evidence based gebaseerd is, hebben elk afzonderlijk nogal wat onzekerheid in zich.

  1. Dat er over een methode in vakbladen geschreven wordt, betekent immers nog niet dat het ook daadwerkelijk effect heeft.
  2. Het eigen inzicht van de beroepsbeoefenaar is wellicht nog de meest onzekere factor. Bijna iedere therapeut denkt namelijk dat zijn of haar methode het beste werkt. (in een onderzoek gaven 90% van de therapeuten aan dat zij dachten beter te werken dan hun collega’s).
  3. Ook op de rapportage van de klant is het één en ander af te dingen. Als iemand veel tijd aan iets heeft besteed, is men bijvoorbeeld geneigd om te denken dat het waardevoller is dan het in werkelijkheid is, omdat je gelijk wilt hebben dat je er zoveel tijd in hebt gestoken. Bovendien wordt het vaak alleen op de korte termijn gemeten.

Effect en percentages

Hoeveel succes een methode heeft, wordt meestal weergegeven in een percentage. Een methode die bijvoorbeeld bij 30% van de klanten het beoogde effect heeft, heet al gauw evidence based.  Dat betekent dus ook dat bij 70% van de klanten de methode weinig, geen of zelfs averechts effect heeft.

Toeschrijving van de effecten aan de methode

Het positieve effect van een hulpverleningsmethode is daarnaast voor slechts een klein deel het effect van een methode (men schat 15 %). Veel groter dan de invloed van de methode is de responsiviteit (lees het inlevingsvermogen) van de hulpverlener, dit levert namelijk 35 % van het effect. Maar liefst 40% van het positieve effect komt vanuit de klant zelf.

Conclusie over ‘evidence based’

Wanneer zo’n 15% van het effect aan de methode toe te schrijven valt en 35% van het effect aan het invoelend vermogen van de hulpverlener, dan lijkt het onlogisch om economische beslissingen over het al dan niet vergoeden van een therapie aan de methode op te hangen. De kans op succes wordt groter naarmate een therapeut een hogere responsiviteit heeft. Het probleem daarvan is dat dit moeilijker is om te onderzoeken, want hoe meet je zoiets?

Afwezigheid van bewijs is geen bewijs dat het níet werkt

Het nadeel van de huidige nadruk op ‘evidence based’ in de financieringsstructuur via verzekeringen, is dat het een betrekkelijk klein aspect van de werkzaamheid van een methode leidend maakt. Daardoor is het zo dat veel methodes die óók werken, maar wellicht nieuw zijn of (nog) niet onderzocht, op deze manier niet of te weinig toegepast worden. Niet iedereen heeft immers de financiën en het netwerk om zijn of haar methode degelijk te onderzoeken. Daarmee worden hele beroepsgroepen effectief buitenspel gezet, of in elk geval buiten de financieringsstroom, op het flinterdunne argument van 15% meer werkzaamheid. 15% die bovendien berust op artikelen (van mensen die belang hebben in de erkenning van de methode), eigen rapportage van de hulpverleners zelf (die overduidelijk belang hebben bij erkenning van de methode) en korte termijn onderzoeken onder klanten.

Wat doet de kritische klant?

De kritische klant pakt het anders aan dan de verzekeraar. Wanneer je op zoek bent naar een hulpverlener, dan ga je op internet kijken wat er zoal over jouw probleem geschreven is. Je gaat op zoek naar een hulpverlener met referenties (liefst niet op de eigen website van die hulpverlener). Je kijkt in je eigen kring met welke hulpverlener mensen goede ervaringen hebben. Gebaseerd op hoeveel vertrouwen je hebt in het oordeel van je kennissen, ga je dan in gesprek met een hulpverlener. Klikt het? Dan ga je met elkaar in zee. Helaas betekent dat soms dat je er zelf voor moet betalen, maar omdat je zelf voor 40% verantwoordelijk bent voor het resultaat en je hebt gecontroleerd of een hulpverlener ‘responsief’ is (oftewel, of hij of zij klikt met jou, goed luistert, zich in kan leven), is de kans op slagen al gauw zo’n 75%. Daar steekt die 15% van evidence based wel erg schraal bij af.

Geef een reactie