| Verzekeraars leunen steeds vaker op algoritmes om de hoogte van hun premies vast te stellen. Dat zorgt voor, bijvoorbeeld, prijsverschillen die de verzekeraar zelf niet eens kan uitleggen, maar door klanten als onrechtvaardig ervaren worden. Daarvoor waarschuwt Marvin van Bekkum, die op 11 mei a.s. promoveert aan de Radboud Universiteit.
Jurist en computerwetenschapper Van Bekkum onderzocht hoe verzekeraars kunstmatige intelligentie inzetten, en hoe klanten daarop reageren. Daarvoor keek hij niet alleen naar bestaande casussen en de huidige regelgeving, maar voerde hij ook een enquête uit onder Nederlanders. Daaruit blijkt dat veel mensen de datagedreven prijsverschillen van verzekeringen onbegrijpelijk en vaak oneerlijk vinden. |
| Prijsverschil op basis van huisnummer |
| “Het ís soms ook moeilijk te doorgronden”, zegt Van Bekkum, die als voorbeeld verwijst naar een casus die enkele jaren geleden ontdekt werd door de Consumentenbond. “Bij het afsluiten van een autoverzekering kijken sommige verzekeraars naar je huisnummer. Dat huisnummer bepaalt grotendeels hoeveel je per maand betaalt. Volgens verzekeraars zit daar een statistische correlatie achter, bijvoorbeeld met inkomen of criminaliteit in een wijk. Het algoritme bepaalt misschien dat iemand met een heel hoog huisnummer in een flatgebouw woont waar vaker criminelen wonen dus dan wordt de prijs opgeschroefd. Die correlatie kan er best zijn, maar dat verhaal krijgt de burger niet mee: die ziet alleen het prijsverschil. Juist die ondoorzichtigheid maakt het allemaal problematisch.”
Een belangrijk probleem is dat veel van deze verschillen niet onder bestaande discriminatiewetgeving vallen. Van Bekkum maakt daarom onderscheid tussen discriminatie en oneerlijke differentiatie. “Er is sprake van discriminatie als dat gebeurt op basis van een door de wet beschermd kenmerk, zoals etniciteit. Maar als je op basis van iemands huisnummer een onderscheid maakt, is dat geen beschermd kenmerk. Terwijl het onderliggende algoritme misschien wel allerlei correlaties vindt waardoor kwetsbare groepen structureel meer moeten betalen voor hun verzekeringen.” |
| Symptoombestrijding door de politiek |
| Hoewel het dus ontzettend onpopulair is bij Nederlanders, doet de overheid er vooralsnog weinig aan. Van Bekkum: “Schadeverzekeringen zijn onderdeel van een vrije markt, dus de overheid laat bedrijven hun gang gaan. De Tweede Kamer heeft wel gekeken naar het beschermen van bepaalde kenmerken zoals inkomen, maar dat is symptoombestrijding: je kunt enkele kenmerken verbieden, maar het algoritme vindt altijd wel weer andere kenmerken waarop het oneerlijk kan differentiëren.”
Door de populariteit van ChatGPT en andere chatbots is de aandacht voor AI de afgelopen jaren flink gestegen. “Ook verzekeraars zijn enthousiast en kijken met interesse naar algoritmes gebaseerd op large language models (LLM’s)”, zegt Van Bekkum. “Maar die LLM’s maken de risico’s eigenlijk alleen maar groter. Het zijn modellen die alleen maar het volgende woord in een zin voorspellen op basis van bestaande tekst, ze snappen niets over hoe correlaties tot stand komen of waarom een bepaalde voorspelling gedaan wordt.” Als algoritmes steeds meer bepalen wie hoeveel betaalt, zonder dat dit voor klanten of zelfs voor verzekeraars zelf nog goed te verklaren is, staat het vertrouwen in verzekeringen onder druk, waarschuwt Van Bekkum. “We moeten voorkomen dat we in een situatie belanden waarin verschillen steeds groter worden, terwijl niemand nog kan uitleggen hoe ze zijn ontstaan.”
|







