Je kunt een auto niet opvoeden – AI wel?

Over AI hoor je vaak dat we meer regels of “guardrails” nodig hebben. Regels die ervoor zorgen dat de technologie niet ontspoort. Dat is een begrijpelijke gedachte – eentje die ik zelf ook had – maar ook een beetje misleidend. AI lijkt namelijk meer op een hond dan op een auto. Je kunt een auto niet opvoeden. Je programmeert ze, je bestuurt ze, je hoopt dat de remmen werken – maar een auto leert niets bij. AI daarentegen? Dat is een ander verhaal.

AI leert. Het maakt fouten. Het past zich aan. En net daarom is een vast parcours met vangrails niet genoeg. Wat AI nodig heeft, is iemand aan het andere eind van de lijn – iemand die ingrijpt als het nodig is, bijstuurt, feedback geeft. Zoals je dat doet met een hond aan de leiband. Zoals je dat doet met kinderen.

Ik haal dit idee bij twee onderzoekers, Cary Coglianese en Colton Crum. Zij stellen precies dat voor. In plaats van starre regels – “guardrails” – pleiten ze voor flexibele, mensgestuurde beheersing: een leiband, of leash. Geen systeem dat je installeert en vervolgens loslaat, maar een relationeel model dat inzet op voortdurende opvolging. Geen poging om elk risico vooraf te elimineren, maar een manier om aanwezig te blijven bij wat zich ontwikkelt.

Dat betekent niet dat er geen regels nodig zijn. Net als bij het opvoeden van een kind – of, in de metafoor van de auteurs, bij het trainen van een hond – begin je wél met een duidelijke set van basisregels. Wat mag wel, wat niet, waar liggen de grenzen. Zonder die kaders wordt het willekeur en mist het kind de broodnodige structuur. Zonder basisregels ontstaat chaos. Maar regels op zich zijn niet genoeg. Ze werken pas als er iemand is die ze uitlegt wanneer nodig, bewaakt, erop terugkomt wanneer het misgaat – en ze soms bijstelt als de situatie verandert.

En hoe meer je erover nadenkt, hoe herkenbaarder het wordt. Ook in onderwijs en opvoeding kiezen we vaak voor regels en protocollen in de hoop op voorspelbaar gedrag. Maar ook kinderen zijn geen auto’s. Ze zijn veranderlijk, verrassend, creatief én soms onvoorspelbaar. Net als AI. Wat écht werkt, is nabijheid. Iemand die oplet, bevraagt, begrenst waar nodig – en ruimte geeft waar het kan.

Coglianese en Crum halen voorbeelden aan van AI-systemen die ontspoorden: een zelfrijdende auto die een voetganger niet herkende, een chatbot die radicaliseerde, een algoritme dat discrimineerde bij sollicitaties. Niet uit kwade wil, maar omdat de training gebrekkig was of de mens die toezicht moest houden niet ingreep. Ook kinderen maken fouten – soms ernstige. Maar we sturen bij, praten, leren, proberen opnieuw. Dat is opvoeden. En dat is ook wat AI nodig heeft: voortdurende menselijke betrokkenheid, eerder dan blinde controle.

Het probleem van veel AI-discussies is dat ze geloven in de kracht van systemen zonder mensen. Als het protocol maar klopt. Als de regels maar helder zijn. Maar net zoals je kinderen niet met een handleiding opvoedt, zal AI zich niet netjes aan elk script houden. Wat telt, is iemand die blijft kijken. Blijft spreken. Blijft denken.

Misschien moeten we AI dus leren opvoeden zoals we kinderen proberen op te voeden: met een duidelijke basis aan regels, maar vooral via nabijheid en verantwoordelijkheid. Niet door alles vooraf te willen controleren, maar door aanwezig te blijven. En door toe te geven dat fouten soms niet te vermijden zijn – maar wél te herstellen. AI heeft dus misschien geen vangrails nodig, maar een stevige leiband. En vooral: iemand die ze vasthoudt.

Abstract van de paper:

Calls to regulate artificial intelligence (AI) have sought to establish “guardrails” to protect the public against AI going awry. Although physical guardrails can lower risks on roadways by serving as fixed, immovable protective barriers, the regulatory equivalent in the digital age of AI is unrealistic and even unwise. AI is too heterogeneous and dynamic to circumscribe fixed paths along which it must operate—and, in any event, the benefits of the technology proceeding along novel pathways would be limited if rigid, prescriptive regulatory barriers were imposed. But this does not mean that AI should be left unregulated, as the harms from irresponsible and ill-managed development and use of AI can be serious. Instead of “guardrails,” though, policymakers should impose “leashes.” Regulatory leashes imposed on digital technologies are flexible and adaptable—just as physical leashes used when walking a dog through a neighborhood allow for a range of movement and exploration. But just as a physical leash only protects others when a human retains a firm grip on the handle, the kind of leashes that should be deployed for AI will also demand human oversight. In the regulatory context, a flexible regulatory strategy known in other contexts as management-based regulation will be an appropriate model for AI risk governance. In this article, we explain why regulating AI by management-based regulation—a “leash” approach—will work better than a prescriptive or “guardrail” regulatory approach. We discuss how some early regulatory efforts are including management-based elements. We also elucidate some of the questions that lie ahead in implementing a management-based approach to AI risk regulation. Our aim is to facilitate future research and decision-making that can improve the efficacy of AI regulation by leashes, not guardrails.

 

Geef een reactie