Per 31. mars 2021, når eple lanserte iOs 14.5 beta-oppdateringen til operativsystemet, Siri er ikke lenger en kvinnestemme når hun bruker amerikansk engelsk. Brukerne må nå velge mellom to mannlige og to kvinnelige stemmer når de aktiverer stemmeassistenten. Dette trekket kan tolkes som et svar på tilbakeslaget mot kjønnsskjevhet legemliggjort av Siri
Men hvor meningsfull er denne endringen egentlig?
Siri har blitt kritisert for å legemliggjøre flere fasetter av kjønnsskjevhet i kunstig intelligens. Digitale sosiologer Yolande Strengers og Jenny Kennedy hevder at Siri, sammen med andre stemmeassistenter som Amazon Alexa og Google Home, er utviklet for å “utføre ‘wifework’ – innenlandske plikter som tradisjonelt har falt på (menneskelige) koner. ”
Siri ble opprinnelig kun uttalt som kvinne og programmert til ikke bare å utføre “kvinne” plikter som å sjekke været eller stille en morgenalarm, men også å svare flørtende. Bruken av seksualiserte setninger av Siri har blitt dokumentert grundig av hundrevis av YouTube-videoer med titler som “Ting du ALDRI burde spørre SIRI”(Som har mer enn 18 millioner visninger).
Daterte kjønnsreferanser
eple har blitt kritisert for å fremme et seksualisert og stereotyp bilde av kvinner som negativt skader kjønnsnormer. En 2019 etterforskning av Vergen avslører det eple skrev interne retningslinjer i 2018 og ba utviklere omtale om Siri-avbøyning feminisme og annen “sensitive emner. ” Det er ikke klart hva retningslinjene var for hardkodende flørtende comebacks.
Språket Siri brukte var (og er fortsatt) en kombinasjon av en allerede stereotyp språkmodell, inkludert vitser som er hardkodet av utviklere. En analyse fra 2016 av populære språkmodeller brukt av programvareselskaper bemerket at ordforeninger var svært stereotype. I studien var begreper som filosof og kaptein kjønnet mannlig, mens det motsatte gjaldt for begreper som husmann.
Juristforsker Céline Castets-Renard og jeg har studert språkmodeller brukt av Google Translate og Microsoft Bing som har avdekket lignende problemer. Vi legger inn kjønnsnøytrale setninger i romanisert mandarin i oversettelsesplattformene, og tvinger oversettelsesalgoritmene til å velge kjønn på engelsk og fransk. Uten unntak valgte Google-algoritmen mannlige og kvinnelige pronomen langs stereotype kjønnslinjer. Omvendt valgte Microsoft-algoritmen utelukkende mannlige pronomen.
Bruk av modeller som disse i Siris algoritme kan forklare hvorfor når du skriver inn en hvilken som helst bedriftstitel (administrerende direktør, økonomidirektør osv.), en mannlig emoji ville bli foreslått. Selv om dette siden har blitt adressert – sannsynligvis på grunn av kritikk – i den nyeste iOS, er Siri bedt om å hente et bilde av en kaptein eller en programmerer, men seriene er fremdeles en serie menn.
Vennlig og flørtende
Ideen om den perfekt flørtende virtuelle assistenten inspirerte Spike Jonzes 2013-film Henne, der den mannlige hovedpersonen forelsker seg i sin virtuelle assistent. Men det er vanskelig å forestille seg hvordan partiske språkmodeller kan føre til at en virtuell assistent flørter med brukerne.
Dette ser ut til å ha vært forsettlig.
Som svar på denne kritikken fjernet Apple gradvis noen av de mer åpenbare egenskapene, og tilsynelatende hardt kodet bort noen av de mer støtende svarene på brukerspørsmål. Dette ble gjort uten å lage for mange bølger. Opptaket av YouTube-videoer viser imidlertid at Siri blir gradvis mindre kjønnet.
En av de siste gjenværende kritikkene var at Siri hadde en kvinnelig stemme, som forble standard selv om a mannstemme ble også gitt som et alternativ siden lanseringen i 2011. Nå må brukerne selv bestemme om de vil ha en kvinnelig eller en mannlig stemme.
Brukerne vet imidlertid ikke språkmodellen som den virtuelle assistenten er opplært i, eller om det fortsatt er arv fra flørtende Siri i koden.
Bias er mer enn stemmen dyp
Bedrifter som Apple har et stort ansvar for å utforme samfunnsnormer. En rapport fra 2020 National Public Media avslørte at under pandemien, antall amerikanere som bruker virtuelle assistenter økte fra 46 til 52 prosent, og denne trenden vil bare fortsette.
I tillegg kommuniserer mange mennesker med virtuelle assistenter åpent i hjemmet, noe som betyr at partiske AI-er ofte kommuniserer med barn og kan skje sin egen oppfatning av menneskelige kjønnsrelasjoner.
Å fjerne standard kvinnestemme i Siri er viktig for feminisme ved at det reduserer den umiddelbare tilknytningen til Siri med kvinner. På den annen side er det også muligheten for å bruke en kjønnsnøytral stemme, som f.eks den som ble utgitt i 2019 av en gruppe ledet av Copenhagen Pride.
Endring av stemmen til Siri tar ikke opp problemer relatert til forutinntatte språkmodeller, som ikke trenger en kvinnelig stemme for å bli brukt. Det adresserer heller ikke ansettelsesforstyrrelser i selskapet, der kvinner bare utgjør 26 prosent av ledelsen roller i forskning og utvikling.
Hvis Apple kommer til å fortsette å fjerne kjønnsskjevhet fra Siri, er det fortsatt mye arbeid å gjøre. I stedet for å gjøre små og gradvise endringer, bør Apple ta problemet med kjønnsdiskriminering på hodet og skille seg ut som en leder.
Å la store deler av befolkningen samhandle med partisk AI truer med å reversere nylige fremskritt innen kjønnsnormer. Å gjøre Siri og andre virtuelle assistenter helt forspenningsfri, bør derfor være en umiddelbar prioritet for Apple og de andre programvaregigantene.
Curtis Hendricks, Data Science Consultant, bidro til forfatterskapet til denne artikkelen.
Eleonore Fournier-Tombs, Adjunkt, ansvarlig AI, L’Université d’Ottawa / University of Ottawa
Denne artikkelen er publisert på nytt fra Samtalen under en Creative Commons-lisens. Les original artikkel.