top of page

De chatbot commissaris

  • Feb 3
  • 3 min read
Frank Kunneman
Frank Kunneman

U bent laat voor de vergadering. De voorzitter en de secretaris zijn er al. Op het scherm aan de muur zijn twee andere commissarissen virueel aanwezig. De voorzitter opent de vergadering. Hij opent een derde venster op het scherm. “Good afternoon. I am your AI-assistant. Shall I kick off with a summary?”


Het is super efficiënt. U hoeft geen dikke dossiers meer door te ploegen. Geen bijlage 17 meer die u de avond ervoor over het hoofd hebt gezien. De chatbot vat de stukken samen, markeert risico’s in rood en zet keurig een paar besluitopties onder elkaar. Het voelt alsof u er in één klap een extra, onvermoeibare collega bij hebt die voortreffelijk ingelezen is en ook nog heel verstandig en vriendelijk overkomt. De vergadering vliegt voorbij. Toch voelt er iets niet helemaal goed. Hoezo? U zit daar niet alleen om informatie te verwerken, maar ook om te twijfelen, om te wegen, te vertragen als iedereen te hard holt. Een algoritme twijfelt niet. Het rekent. AI optimaliseert. Governance relativeert. De chatbot zoekt het kortste pad naar een besluit. U hoort te zoeken naar het juiste besluit. Dat is vaak niet hetzelfde. Soms moet je als commissaris een stap terug doen, een vraag opnieuw stellen, of een ongemakkelijke waarheid benoemen. Dat doet een chatbot niet zomaar.  Er is ook een riscio van schijn-objectiviteit. Het AI-dashboard meldt dat de kans op reputatieschade 7,3% is en dat het voorgestelde scenario een “laag risico” heeft. Het oogt indrukwekkend. U hoort niemand vragen op basis waarvan dat getal tot stand komt. Welke data ontbreken. Wie heeft bepaald wat “laag risico” eigenlijk betekent. Zo ontstaat er een nieuwe vorm van morele uitbesteding. De raad aarzelt over een te nemen besluit. “De AI vindt dat dit kan,” zegt iemand, half als grap, half als argument. De rest lacht even en gaat door. U merkt dat niemand zich nog hardop afvraagt of de gevolgen voor medewerkers, klanten of omgeving aanvaardbaar zijn. Het systeem signaleert, de mens knikt. Dat is precies wat niet moet gaan gebeuren En dan de verantwoordelijkheid. Als de raad een slecht besluit neemt omdat de stukken niet goed zijn gelezen, weet u wie daarop is aan te spreken. Als de raad een slecht besluit neemt omdat het AI-systeem structureel vertekende data gebruikt, wordt het vager. Ligt de fout bij de leverancier, bij de directie die het systeem heeft ingevoerd, bij de ene commissaris die zich ooit als “technisch expert” heeft gepresenteerd, of bij de hele raad die te gretig vertrouwt op een zwart doosje? Een raad die dit serieus neemt begint niet met een glossy “AI-strategie”, maar met een paar nuchtere vragen. Waar in onze besluitvorming willen wij AI inzetten, en waar juist niet? Wie bepaalt welke gegevens de algoritmen zien, en wie controleert dat? Wie krijgt toegang tot de modellen, en wie mag ze aanpassen? Hoe toetsen wij periodiek of de uitkomsten niet structureel nadelig uitpakken voor bepaalde groepen? En dan de simpelste vraag, die tegelijk het lastigst is: wie blijft er verantwoordelijk als het misgaat? AI hoort in het risicoraamwerk, niet in de sprookjessfeer. U vraagt de bestuurder naar de manier waarop essentiële besluitvorming door technologie wordt beïnvloed. U plant elk jaar een vergadering waarin u het niet over “nieuwe features” hebt, maar over de vraag of deze systemen de organisatie eerlijker, transparanter en begrijpelijker maken. Of juist niet. Goede governance is geen kwestie van rekenkracht, maar van geweten. De kunst is niet om een slim systeem naast de raad te zetten, maar om slimme mensen in de raad te houden die zich niet verschuilen achter dat systeem. Zolang u als commissaris dat verschil blijft zien, mag AI meepraten. De verantwoordelijkheid om “nee” te zeggen blijft bij u.

___


Meer weten over corporate governance? Neem een kijkje op onze events pagina!



 
 
 

Comments


Sign up for our newsletter

You are now subscribed to our newsletter!

bottom of page