De Britse riskmanagementorganisatie Airmic gaat voortaan haar leden op een andere manier informeren over actuele marktontwikkelingen. De aangesloten risk- en insurcemanagers krijgen van hun organisatie elke maandagochtend ‘The Airmic Big Question’ voorgelegd.In een toelichting stelt de organisatie dat het real-time monitoren van risico’s belangrijk is. “In een wereld van toenemende volatiliteit en snelheid van risico’s zijn de dagen van eens per jaar risicobeoordeling en -rapportage voorbij. Ook al zijn jaarlijkse, actuele en pulse outlook-onderzoeken en -rapporten nog steeds nuttig, hoe kunnen we ons beter voorbereiden op en leren van recente crises die door de mens of de natuur zijn veroorzaakt – waarvan er vele volledig waren voorzien?”
Daarom heeft Airmic dit jaar de manier waarop ze enquêtes houden veranderd. “We zullen nog steeds leden en partners raadplegen over de grote thema’s en de vinger aan de pols houden over actuele onderwerpen, maar elke maandagochtend zullen Airmic leden een e-mail ontvangen waarin hen slechts één vraag wordt gesteld – de Airmic Big Qestion’.Julia Graham CEO, Airmic: “Hierdoor kan Airmic het hele jaar door flexibel zijn. Het biedt de risico- en verzekeringsgemeenschap ook de kans om een gesprek te voeren over de meest dringende kwesties van de dag terwijl we de resultaten publiceren. Ik denk dat we iets goed doen, want de Airmic Big Question wordt ook uitgebreid behandeld door de media. De resultaten van elke wekelijkse enquête worden individueel geanalyseerd en samengevoegd om Airmic te informeren over wat onze leden ons vertellen over risico’s en trends. Deze kennis vormt de basis voor Airmic’s programma’s voor thought leadership, leren en evenementen.”
AI
Zo vroeg de organisatie vorige week aan Airmic-leden of ze vonden dat de ethische risico’s die gepaard gaan met het gebruik van kunstmatige intelligentie (AI) apart moeten worden behandeld van andere ethische risico’s waar hun organisaties mee te maken hebben. De vraag werd gestimuleerd door de groeiende steun voor organisaties om AI-ethische commissies op te richten en AI-risicokaders te scheiden van andere. Toch leeft bij sommigen het gevoel dat ‘je ethisch bent, of je bent het niet’ – dat het misschien niet altijd praktisch of wenselijk is om AI-ethische risico’s te scheiden van andere ethische risico’s. Dit debat zal doorgaan!
Uit de inventarisatie komt onder meer naar voren dat organisaties de ethische risico’s van het gebruik van kunstmatige intelligentie (AI) samen behandelen met andere ethische risico’s, aldus 59% van de respondenten, die bijna gelijk waren verdeeld over de vraag of ze vonden dat de ethische risico’s van AI apart moeten worden behandeld.Omdat AI-toepassingen snel worden overgenomen door organisaties en individuen, vonden de respondenten het verstandig om AI-ethische risico’s extra zichtbaarheid en aandacht te geven binnen de kaders en processen voor risicomanagement. Dit komt op een moment dat steeds meer instanties organisaties oproepen om AI-ethische commissies en aparte AI-risicobeoordelingskaders op te richten om de organisaties door controversiële situaties met betrekking tot ethiek te loodsen.

Julia Graham, CEO van Airmic, zegt: “De ethische risico’s van AI worden nog niet goed begrepen en er zou extra aandacht kunnen worden besteed aan het begrijpen ervan, hoewel onze leden op den duur verwachten dat deze risico’s naast andere ethische risico’s worden beschouwd.” Hoe-Yeong Loke, hoofd onderzoek van Airmic, vult aan: “Er heerst een gevoel onder onze leden dat ‘je ethisch bent of je bent het niet’ – dat het niet altijd praktisch of wenselijk is om AI-ethische risico’s te scheiden van alle andere ethische risico’s waarmee de organisatie te maken krijgt. Wat dit vraagt, is meer debat over hoe AI-ethische risico’s worden beheerd. Hoe dan ook, organisaties moeten zorgvuldig nadenken over de implicaties van mogelijk overlappende risicomanagement- en governancestructuren
Kijk hier voor de uitkomsten: here.











