Diskriminerende AI-systemer har bidratt til å felle en regjering i Nederland – og kan få alvorlige konsekvenser for både enkeltmennesker og samfunnet som helhet. Hvordan kan vi unngå å utvikle og ta i bruk diskriminerende AI og hvordan kan vi identifisere og håndtere fordommer i slike systemer?
I denne episoden har vår programleder Simen Sommerfeldt med seg Kathinka Theodore Aakenes Vik, jurist og fagansvarlig for KI i Likestillings- og diskrimineringsombudet og Wessel Braakman fra Bouvet som har vært med å stifte Norsk AI-Etikkforening (NAIE).
Målet med episoden er å gi deg som lytter en bedre forståelse av hva fordommer i AI innebærer, hvordan de kan motvirkes, og hva du bør være oppmerksom på når du starter med AI-prosjekter eller du jobber på et sted hvor du vet man skal i gang med å bruke AI.
I episoden nevner vi veiviseren for innebygget diskrimneringsvern. Den kan du finne her (PDF)
Hør også på Apple podcast og Spotify
Abonner gjerne og lytt til Bouvet Bobler på:
🎧 Apple Podcast,
🎧 Spotify
... eller hvor enn du lytter til podcast!