top of page

Waarheid

  • Feb 10
  • 3 min read
Frank Kunneman
Frank Kunneman

In een rechtsstaat leek het ooit simpel. Eerst stel je vast wat er is gebeurd. Dan beoordeelt een onafhankelijke rechter of dat juridisch gezien iets uitmaakt. Pas daarna volgen eventueel maatregelen: een sanctie, een uitkering terugvorderen, iemand vastzetten.


De afgelopen jaren is er door AI ongemerkt een andere logica binnengeslopen. Niet alleen bij bedrijven, maar juist bij overheden. De vraag is steeds minder of iets waar is en steeds vaker hoe groot de kans is dat het waar is. Het toeslagenschandaal in Nederland is daar het nare voorbeeld van. Ouders werden behandeld als “risico”. Als de signalen van je profiel, postcode, afkomst, relatievorm of kleine administratieve fouten genoeg in het rood stonden, was de conclusie: u zult wel fraudeur zijn. Kans werd etiket. Vermoeden werd behandeld als feit. Hetzelfde mechanisme zie je in migratie- en veiligheidsdossiers. In de Verenigde Staten werkt een dienst als ICE met profielen, databases, algoritmes. Mensen worden aangehouden, van straat geplukt en soms langdurig vastgezet omdat er een zekere mate van waarschijnlijkheid is (?) dat zij illegaal in het land verblijven. Er is geen sprake van dat een rechter een concreet feitencomplex heeft vastgesteld. Mensen worden opgepakt omdat het systeem zegt: deze persoon lijkt op de groep waarnaar wij op zoek zijn. Voorheen gold dat de Staat maatregelen mag nemen als vaststaat dat de feiten kloppen. Nu wordt het omgedraaid: we grijpen alvast in, want de kans is groot genoeg. Of het werkelijk zo is, zien we later wel. AI en data-analyse hebben die verschuiving versneld. Niet omdat ze kwaadaardig zijn, maar omdat ze perfect passen in een cultuur van efficiëntie en risicomanagement. Als je over miljoenen dossiers beschikt en duizenden beslissingen per dag moet nemen, is de verleiding groot om te zeggen: we laten een systeem alvast beslissen wie een groen licht krijgt, wie (oranje) als risico geldt en wie (rood) zonder meer wordt afgewezen. Op zichzelf is daar niets mis mee, zolang iedereen scherp blijft dat het om signalen gaat, niet om feiten. Maar precies daar gaat het vaak fout. Een risicoscore is in de kern een kansberekening. Iemand valt in een categorie, omdat hij statistisch lijkt op anderen in die categorie. Dat zegt niets definitiefs over de individuele persoon. Toch wordt in processen, protocollen en praktijk vaak gedaan alsof die score een oordeel ís. Een “hoog risico op fraude” wordt “fraudeur”. Een “verhoogde kans op illegaliteit” wordt “illegaal”. AI-systemen helpen daar niet tegen, integendeel. Een taalmodel als ChatGPT is niet gebouwd om waarheid te toetsen, maar om waarschijnlijk klinkende antwoorden te geven. Het voorspelt steeds welk volgend woord het meest waarschijnlijk is, gebaseerd op alle teksten die het eerder heeft gezien. Een feit, een leugen, een complottheorie: voor het model is het allemaal data, een pot nat. Wat vaak voorkomt, weegt zwaarder dan wat zelden wordt gezegd.

 

Als we niet uitkijken, schuift in ons hele publieke handelen het begrip waarheid op naar waarschijnlijkheid. Niet meer: “wat is er echt gebeurd, en kunnen we dat bewijzen?”, maar: “past deze persoon of situatie in het patroon dat onze data laten zien?” Voor een rechtsstaat is dat een fundamenteel probleem. Rechtstatelijke waarborgen zoals onschuldpresumptie, rechterlijke toetsing en proportionaliteit zijn juist bedoeld om de sprong van vermoeden naar ingrijpen te begrenzen. Als we die sprong uitbesteden aan modellen en risicoscores, zonder de tussenstap van menselijke toetsing, ondermijnen we precies wat we denken te beschermen. Ook voor commissarissen is dit een essentiële les. Organisaties gebruiken namelijk dezelfde logica: klanten krijgen scores, medewerkers risicoprofielen, projecten een kans op succes of mislukking. AI rekent, rangschikt, voorspelt. Op zichzelf nuttig, maar zodra bestuur en raad van commissarissen die uitkomsten als feiten gaan behandelen, herhalen zij dezelfde fout als de overheid: waarschijnlijkheid wordt waarheid, met echte mensen aan de verkeerde kant van de lijn.

De vraag voor de raad is daarom niet zozeer technisch als wel moreel. De vraag is niet “hoe goed is ons model?”, maar: “waar halen wij het onderscheid vandaan tussen wat vaststaat, wat waarschijnlijk is en wat we alleen maar aannemen omdat het in een dashboard netjes oogt?” Zolang dat onderscheid scherp blijft, kan AI een nuttig hulpmiddel zijn. Verdwijnt het, dan zit de raad er vooral om besluiten van modellen een stempel te geven.

___


Meer weten over corporate governance? Neem een kijkje op onze events pagina!



 
 
 

Recent Posts

See All
De chatbot commissaris

Het is super efficiënt. U hoeft geen dikke dossiers meer door te ploegen. Geen bijlage 17 meer die u de avond ervoor over het hoofd hebt gezien. De chatbot vat de stukken samen, markeert risico’s in r

 
 
 
Nest

Tussen de 70% en 90% van alle bedrijven wereldwijd is familiebedrijf. Ze dragen bij aan meer dan de helft van het wereldwijde BBP. Ze zorgen voor 60% tot 70% van de werkgelegenheid. In de meeste van d

 
 
 
De nieuwe leenheren

Niet lang geleden leek het alsof het kapitalisme de wereld had veroverd. Francis Fukuyama verkondigde in 1992, vlak na de val van de Berlijnse muur, onder luid applaus dat de liberale democratie en he

 
 
 

Comments


Sign up for our newsletter

You are now subscribed to our newsletter!

bottom of page