| KPMG Nederland voegt AI Assurance toe aan haar Responsible AI-aanbod en ondersteunt organisaties daarmee met onafhankelijke controles van de AI-systemen, algoritmen en data-analyses die zij inzetten en aanbieden. Met haar Responsible AI-diensten helpt KPMG bedrijven al langer om AI verantwoord te gebruiken, met oog voor transparantie, ethiek en betrouwbaarheid.
De maatschappelijke roep om meer toezicht en AI-regelgeving neemt (wereldwijd) toe. Uit KPMG-onderzoek blijkt dat Nederlanders hun vertrouwen in AI een 5,3 geven. Het vertrouwen blijft dus steken op een onvoldoende en ligt daarmee lager dan het wereldwijde gemiddelde. Nieuwe wet- en regelgeving, zoals de Europese AI Act, maakt het bovendien noodzakelijk dat bedrijven verantwoording afleggen over hun inzet van AI. Met AI Assurance draagt KPMG bij aan het verkleinen van die vertrouwenskloof. Van jaarrekening naar AI-systeem AI wordt steeds vaker ingezet in dagelijkse bedrijfsvoering, van klantcontact tot procesmanagement en besluitvorming. De potentiële impact van AI-falen neemt navenant toe. Incidenten door onbedoelde vooroordelen, privacyproblemen en onvoorziene fouten. Dit kan reputatieschade en omzetderving als gevolg hebben. Daarmee neemt ook de behoefte aan transparantie en verantwoording over de inzet van AI toe. AI Assurance op basis van KPMG’s Trusted AI Framework biedt organisaties kansen om te werken aan vertrouwen en aantoonbare compliance met wet- en regelgeving. Onderdelen van KPMG’s Responisble AI dienstverlening zijn:
Hiermee bouwt KPMG voort op haar jarenlange geschiedenis en ervaring in het bieden van ondersteuning en onafhankelijk inzicht in het AI-domein. In 2019 ontwikkelde KPMG al een raamwerk voor de Gemeente Amsterdam met relevante maatregelen om AI verantwoord te gebruiken. Sindsdien heeft de dienstverlening zich in hoog tempo doorontwikkeld. Daarbij zijn ook relevante wetten en richtlijnen als de AI Act, ISO42001 en het NIST AI Risk Management Framework in de methoden en technieken geïntegreerd. Dit stelt KPMG in staat een onafhankelijk oordeel af te geven in het AI-domein op basis van erkende en herkenbare standaarden. Bestuurders en toezichthouders krijgen steeds vaker de vraag hoe zij zekerheid bieden over het gebruik van AI. “AI vraagt om afspraken, toezicht en transparantie,” zegt Van Praat. “Wij helpen organisaties daar invulling aan te geven zodat ze verantwoord kunnen blijven innoveren.” |











