Forsikringsbranchen er blevet undersøgt i årevis på grund af “honest bias”-praksis. Faktisk er ukorrekte knowledge i forretningspraksis og bias velkendt i forsikringsbranchen. Resultatet er desværre marginaliserede befolkningsgrupper.
Nogle brancheeksperter – herunder en tidligere forsikringsdirektør i USA – mener, at diskrimination vil blive det største drawback inden for AI-regulering. Det skyldes, at kundedata nemt kan afsløre for mange unfavorable knowledge, så forsikringsselskaberne kun kan vælge de mest ønskværdige risici.
Hvilke knowledge udgør ukorrekte knowledge for forsikringsvirksomhederne?
Når man bygger modeller, betyder træningsdata noget – endda meget. Overvej eksemplet med physique mass index (BMI) i livsforsikring. Dette eksempel viser, hvordan mangel på forskelligartede, repræsentative forsikringsdata af høj kvalitet førte til 80 år med en “ideel risiko”, som American Medical Affiliation til sidst kritiserede for at være iboende partisk.
I dette tilfælde var BMI-dataene baseret på et datasæt med højde og vægt for overvejende hvide mænd. Nyere forskning viser, at BMI ikke tager højde for ting som knogletæthed og muskelmasse, så det er et upræcist mål for risikovurdering for mange mennesker.
Som BMI-eksemplet viser, kan mangel på knowledge skabe tilgængelighedsbias (en overdreven afhængighed af knowledge, der er nemme at få adgang til) – hvilket fører til dårlige resultater. Og fordi knowledge er brændstoffet til kunstig intelligens, betyder det, at hvis man fodrer AI-systemer med forkerte knowledge, vil det føre til dårlige resultater.
Hvad er algoritmer, og hvorfor er de vigtige?
En AI-algoritme er en liste med trinvise instruktioner, der er designet til at udføre en bestemt opgave eller løse et bestemt drawback. Syntetisk datagenerering (skabelse af syntetiske knowledge) anvender AI-algoritmer, f.eks. maskinlæringsalgoritmer og neurale netværk.
Bias: Et ord på 4 bogstaver
Historisk set har forsikringsselskaber brugt postnumre eller områdekoder til at beregne forsikringspræmier. Males tilsyneladende uskyldige variabler som disse kan være stedfortrædere for følsomme knowledge – såsom race, køn eller faith. Sådanne variabler kan til gengæld skjule bias.
Tænk på en Propublica-historie fra 2017 i Chicago. Historien fokuserede på forskelle i bilforsikringspræmier, hvor postnumre blev brugt som et primært datapunkt for fastsættelse af satser. Senere forskning viste, at de, der boede i postnummerområder med minoriteter, betalte højere præmier – når man holdt faktorer som alder, dækning, køn og skadeshistorik konstante.
I det mest grelle eksempel var forskellen i præmie, når man skiftede postnummer, mere finish 300 % højere i kvarterer, der bestod af mere finish 50 % minoriteter. Og den var højere i hvert eneste af de 34 selskaber, der blev citeret.
Hvis fordomme som denne ikke vurderes og afhjælpes, vil sårbare befolkningsgrupper blive yderligere marginaliseret. AI vil kun forværre ulighederne.
AI og troværdighed: Bestræbelserne på at fremme AI-færdigheder, inkluderende bidrag og påviselig troværdighed er nået op på de højeste regeringsniveauer.
Hvor generativ AI kommer i spil
De fleste forretningssager med generativ AI (GenAI) indeholder retailer sprogmodeller (LLM). Males en anden kind GenAI – syntetiske knowledge – er især nyttig til at håndtere dataproblemer som privatlivets fred og rimelighed. Syntetiske knowledge giver modeludviklere den fordel, at de ikke er afhængige af datamaskering for at beskytte følsomme persondata. Prøv at høre, hvad disse organisationer siger:
For godt til at være sandt? Nej, slet ikke.
Et eksempel fra den virkelige verden på resultater af syntetiske knowledge
I 2022 demonstrerede , at syntetiske knowledge gav mere pålidelige resultater finish anonymiserede knowledge SAS i samarbejde med Syntho og Dutch AI Coalition, samtidig med at de dybe statistiske mønstre, der kræves til mere avancerede analyser, blev bevaret.
Sådanne fremskridt kombineret med voksende bekymringer om beskyttelse af privatlivets fred er grunden til, at IDC forudseri 2027, at 40 % af de AI-algoritmer, forsikringsselskaberne bruger i hele forsikringstagerens værdikæde, vil anvende syntetiske knowledge for at garantere retfærdighed i systemet og overholde reglerne.
Syntetiske knowledge til forsikring: hellig gral eller AI-luftkasteller?
Syntetiske knowledge vil ikke i sig selv hele alle sår. Husk, at du stadig har brug for de oprindelige knowledge for at skabe de syntetiske knowledge. Derfor kan der stadig være bias i de oprindelige knowledge.
Enhver dialog om en sikker anvendelse af AI, herunder GenAI, må forholde sig til flere sandheder:
Bias skaber uligheder.
Alle modeller indeholder bias.
Bias kan mindskes, males ikke elimineres.
For at positionere sig som ledere på dette område skal organisationer udvikle deres egne pålidelige AI-principper. Det bør de også:
Fremme en kultur med datakompetence og brug af datadrevne beslutninger.
Giv medarbejderne mulighed for at påpege utilsigtede AI-risici.
Omfavne et kodeks for dataetik som en integreret del af deres virksomhed.
For nylig var SAS vært for et forsikringsprojekt med syntetiske knowledge, hvor et stort forsikringsselskab eksperimenterede med syntetiske knowledge og kreditvurderinger. Resultaterne af eksperimentet var opmuntrende. Den efterfølgende diskussion fremhævede også visse grimme sandheder om brugen af kredit og andre faktorer, der påvirker præmievurderingen. For eksempel:
Flere undersøgelser har bekræftet, at minoriteter og kvindelige bilister betaler mere for bilforsikring.
Kørehistorikken kan være påvirket af bias hos politiet.
Sporing af køreadfærd by way of smarte enheder kan være skævt baseret på vejforhold, der varierer mellem kvarterer.
Læs en detaljeret gennemgang fra Repræsentanternes Hus’ udvalg for finansielle tjenester om bilforsikringspraksis.
Hvad bliver det næste for syntetiske knowledge inden for forsikringsbranchen?
Der er mange måder, forsikringsselskaberne kan bruge GenAI på.
Forsikringsselskaber kan bruge generative AI-modeller til at udarbejde forskellige scenarier og derefter proaktivt identificere risici og forudsige resultater. GenAI kan informere om beslutninger om prissætning og dækning. Det kan også automatisere skadesbehandlingen for at hjælpe med at sænke omkostningerne og forbedre kundeoplevelsen (og -tilfredsheden). Det kan også bruges til at blive bedre til at identificere svindel og komme med målrettede anbefalinger til kunderne om risikoforebyggelse, der reducerer sandsynligheden for skader.
Syntetiske knowledge er nøglen til at bryde den cyklus af bias, der opretholdes i forsikringsbranchen.
I stedet for at fokusere på potentielle unfavorable aspekter af AI bør det kollektive forsikringssamfund stille de rigtige spørgsmål og sætte et diskret fokus på kvaliteten af de knowledge, der bruges til at generere deres syntetiske knowledge. På den måde kan vi beskytte privatlivets fred og reducere bias betydeligt – alt imens vi frigør den enorme værdi ved generativ AI.
Få en privat forhåndsvisning af SAS Information Maker – en brugergrænseflade med meget lidt kode og slet ingen kode til hurtigt at udvide eller generere knowledge.