Data en ethiek, zo ga je ermee om

Kan het, mag het en wil ik het?

Als het gaat om het gebruiken van (big) data, komen er nogal eens wat ethische bezwaren om de hoek kijken. Ethische vragen zoals; weten we straks te veel? Kunnen we te veel zien? Hoe voorkomen we dat data terug te leiden is tot individuele personen?
En zijn we er eerlijk en open over?

Wat is data-ethiek?

Data-ethiek houdt in dat je nadenkt over hoe je wilt dat er met data wordt omgegaan. Ten onrechte wordt wel eens gedacht dat data-ethiek daarover regels en voorschriften bevat. Dat klopt niet. Ethiek betekent dat je zelf nadenkt over wat goed is om te doen. Daarbij is het belangrijk om te reflecteren en met elkaar in gesprek te gaan en te blijven.

Welke ethische problemen zijn er?

Ethiek in het algemeen is nogal een ruim begrip. Toch onderscheiden we binnen de data-ethiek grofweg vier verschillende problemen

  1. Privacy
  2. Gebrek aan transparantie
  3. Bias en discriminatie
  4. Gebrek aan governance en verantwoordelijkheid

Privacy

Het beginsel van (big) data is dat veel gegevens worden opgeslagen, ook (vaak gevoelige) persoonsgegevens. Of wat denk je van camerabeelden van plekken als Schiphol? Met deze gegevens kun je op de persoon toegespitste reclame tonen, zoals op websites. Natuurlijk gebeurt dat niet op het niveau van één enkele persoon, maar op groepen personen met bepaalde kenmerken. Toch is het vaak technisch mogelijk tot op persoonsniveau in te zoomen. De vraag is dus of dat mag en of je dat wilt.

Gebrek aan transparantie

Welke gegevens worden er eigenlijk opgeslagen en wat gebeurt daar vervolgens mee? Veel mensen worstelen met die vraag. Zeker techreuzen als Microsoft en Facebook slaan heel veel gegevens op, maar zijn een stuk minder transparant met vertellen waarvoor precies.

Bias en discriminatie

Eén van de meest bekende voorbeelden die de laatste jaren in de media verschenen, is recruitment op basis van data. Het idee hierachter is nobel.
AI (artificial intelligence) zou bijvoorbeeld geen onderscheid maken op basis van geslacht, leeftijd, geloof of huidskleur, maar puur op harde feiten.
In de praktijk blijkt dit anders. De input voor AI en machine learning is namelijk data uit het verleden. En als daar wel onderscheid werd gemaakt op basis van bovenstaande kenmerken, dan kun je wel raden wat er gebeurt.

Gebrek aan governance en verantwoordelijkheid

Tot slot blijft de vraag over wie er eigenlijk verantwoordelijk is voor (het opslaan van) data en de analyses, algoritmes en andere verwerkingen.
En wie controleert deze verantwoordelijken

Zo ga je om met ethiek in de praktijk

Als je weet welke problemen je tegen kunt komen, weet je ook waarover je gesprekken moet voeren. Het kan slim zijn om daar een commissie voor in te richten, maar de mensen uit het werkveld zijn zeker belangrijk.

Tijdens zulke gesprekken komen drie vragen telkens terug. Ten eerste: kan het? Kun je überhaupt de gegevens opslaan dat ze herleidbaar zijn tot een bepaalde persoon, of is dat technisch onmogelijk? Vervolgens: mag het? De AVG (GDPR) uit 2018 geeft belangrijke regels over privacy, die vastgelegd zijn in de wet. Tot slot: willen we het? Als het kan en mag, dan hoef je het natuurlijk nog niet te doen. Als het onnodig is voor je bedrijfsvoering bijvoorbeeld. Ze ben en blijf je zelf in de lead.

Hulp nodig of eens sparren?

Je leest dit artikel in onze serie over Datagedreven Werken en Dashboarding. We vinden een reactie op ons artikel leuk, dus laat zeker iets achter in de comments op LinkedIn als je wilt. Natuurlijk kun je ook direct contact opnemen met
KIM Plus Delta.