door

UR | Schriftgeleerde

21/02/2020

De historicus, filosoof en auteur Yuval Noah Harari schrijft in zijn bestseller Homo Deus dat alles draait om algoritmes. Alles. Van ons DNA tot de Kindle-software van Amazon. Waarbij de wonderlijke omkering plaatsvindt dat wij niet meer de boeken lezen, maar de boeken lezen ons. Het verhaal dat we lezen wordt eigenlijk het verhaal dat ons (be)schrijft. Algoritmes zullen ons lezen en uiteindelijk besturen, is de voorspelling van Harari.

Dat was eigenlijk al zo: films, toespraken, verhalen nemen ons mee, zorgen dat we in vervoering raken, evenals dat ze ons misleiden. Aan ons de keuze of we een verhaal willen aanhoren, en als we het aanhoren, hoe we erop reflecteren. Dat maakt ons onbevangen.

Die keuzevrijheid onderschrijft het belang van ethiek en met name privacy in een wereld waar Mark Zuckerberg de nieuwe Shakespeare is. Bij Facebook hebben we er - vaak niet meer bewust - voor gekozen om ‘zijn werk’ te lezen en realiseren we ons niet dat het misschien wel een slecht verhaal is. De reflectie, de bewuste keuze, is afwezig - is ons zelfs ontnomen.

En dit is waar ik het (nog) niet eens ben met Harari, of misschien lees ik zijn waarschuwing tussen de regels te goed. Harari’s argument: we maken steeds meer gebruik van algoritmes. Dat is een gegeven, want door (artificieel intelligente) algoritmes kunnen en willen we veel meer. Ik betwist echter dat algoritmes ons leven overnemen.

We kunnen een algoritme gebruiken, en kunnen misschien niet meer zonder. Echter, als het vertrouwen ontbreekt, zullen we op zoek gaan naar een ander algoritme, het huidige aanpassen, of het helemaal niet meer gebruiken. Als Facebook zo doorgaat, komt er een beter alternatief. Niet omdat algoritmes het willen - die zijn bedacht door mensen - maar omdat mensen centraal (horen te) staan in een wenselijke toekomst.

De wenselijke toekomst, het wenselijke algoritme is bijvoorbeeld te lezen in wetteksten. Mensen zijn vrij te doen en laten wat ze willen en als ze de wet, het algoritme, overtreden, oordeelt de rechter. Gevormd door wijzigingen in wetteksten en afhankelijk van interpretaties door de rechter, wordt de wet als algoritme keer op keer opnieuw afgesteld. In deze praktijk van de dagelijkse rechtspraak speelt de geest van de wet een belangrijke rol, want anders vervallen we in letterknechterij, aldus emeritus TU/e-hoogleraar Recht en Techniek Jan Smits.

Overigens, de rol van de universiteitsraad is vergelijkbaar met die van de rechter: wij controleren het bestuur, interpreteren de wet en regels. En ook voor de UR is het belangrijk dat het bestuur handelt naar de geest van de regels. De interpretatie en onderbouwing zijn daarin belangrijk. Natuurlijk is het verleidelijk om dit algoritme, de interpretatie, te automatiseren. Maar het maken van de interpretatie is iets dat alleen mensen kunnen, of zelfs mogen.

Rationaliseren wordt tegenwoordig vaak gebruikt voor het goedpraten van kwalijk gedrag. In de oorspronkelijke betekenis - het verklaren van gedrag - vormt het een van de grootste uitdagingen op het gebied van artificiële intelligentie (AI). AI, als aaneenrijging van algoritmes, is in staat complexe problemen op te lossen. Maar hoe onderbouw je die oplossingen, wat is de betrouwbaarheid?

Antwoorden worden gezocht in de opkomende thema’s als transparant AI, reliable AI, of trustworthy AI. Harari is historicus, een scherp analyticus en briljant schrijver, maar hij is geen AI-expert. Kwalijk menselijk gedrag trekt hij, bekeken vanuit een historisch perpectief, door naar de toekomst. Dat heet extrapoleren en is altijd gevaarlijk, zeker als je je eigen voorspelling daarmee probeert te rationaliseren.

Deel dit artikel