‘Naïeve verhalen rond big data gevaarlijk’
Computers kunnen helpen bij het signaleren van fraude en criminaliteit. Maar lang niet alle toepassingen zijn wenselijk, vertelt Francien Dechesne, van het Centrum voor Recht en Digitale Technologie.
Beperkingen en ethische vragen
Dat zijn op zich interessante toepassingen van onderzoek met big data, maar je moet bedacht zijn op allerlei beperkingen en ethische vragen, zegt Dechesne. Het zijn de onderwerpen die ze onder meer doceert bij de studie Informatica of aan de rechtenfaculteit, en die ze buiten de universiteit bespreekt met data-wetenschappers, softwareontwikkelaars, juristen en beleidsmakers.
‘Ten eerste zijn sociale patronen en wetmatigheden erg dynamisch. De wereld van sociale interacties reageert en daarmee kunnen wetmatigheden veranderen. Dat is een fundamenteel verschil met wetten en modellen in de natuurkunde of meteorologie. Neem het verband tussen zoektermen en griepepidemieën. Na de publicatie van het onderzoek gingen mensen zonder symptomen de zoektermen gebruiken omdat ze er meer over wilden weten. Daarmee verdween het hele patroon.’
‘Ten tweede voldoet een computersysteem niet automatisch aan onze ideeën over wat rechtvaardig is. Patronen in data zeggen bijvoorbeeld niets over opzet of nalatigheid. Als big-data-analyse veel onregelmatigheden in de belastingaangifte detecteert in een bepaald postcodegebied, kun je concluderen dat in die wijk allemaal oplichters wonen. Maar misschien ligt de oorzaak wel in onbegrijpelijke formulieren voor mensen die de taal niet machtig zijn. Ook kan het zijn dat een veelvoorkomende vorm van fraude heel duidelijk uit de beschikbare data te halen is, en andere soorten niet. Het computermodel lijkt dan succesvol, terwijl het misschien de ernstigste vormen van fraude over het hoofd ziet.’
Gewilde expertise
De expertise van Dechesne is gewild, er is de voorbije vijf jaar opeens veel aandacht gekomen voor de ethische kant van big data. ‘Ik spreek met De Nederlandsche Bank en de Autoriteit Financiële Markten over de verzekeringswereld, en ik werk samen met de politie in een project rond kunstmatige intelligentie en ethiek. Het leeft enorm. Op alle fronten – toezicht, overheid, bedrijven.’
‘Die aandacht is vrij plotseling ontstaan, waarschijnlijk door de invoering van de Algemene Verordening Gegevensbescherming en het schandaal rond Facebook en de Amerikaanse verkiezingen. Het blijkt mogelijk om stemgedrag te beïnvloeden door met data-analyse van Facebookgebruikers psychologische profielen op te stellen. Dat roept de vraag op of toepassing van deze technologie wel altijd wenselijk is.’
Dechesne noemt de technologieontwikkeling zelf niet gevaarlijk, ze is eerder beducht voor te snelle, ondoordachte toepassing. ‘Ik verzet me vooral tegen het optimisme en de retoriek eromheen. Het heeft soms iets hyperigs, zoals er door softwareverkopers wordt gesproken over big data, algoritmen, machine learning en kunstmatige intelligentie. De gedachte leeft dat we nu zoveel gegevens en technologie hebben, dat we straks alle problemen kunnen oplossen, de samenleving beter, efficiënter en veiliger kunnen maken. Er wordt gesproken over het uitbannen van risico’s, rampen en terroristische aanslagen. Die naïeve verhalen rond de technologie vind ik gevaarlijk, omdat ze het beeld oproepen dat we door inzicht en controle een betere samenleving krijgen. Dat is gewoon niet waar: onze samenleving is niet gebaseerd op kennis van data en patronen, maar op afspraken over wat we goed en rechtvaardig vinden.’
Dit interview verscheen eerder in Leidraad, het alumnimagazine van de Universiteit Leiden. Het magazine is volledig online te lezen.