En FN-rapport sier at Siri og andre kvinnelige smarte assistenter forsterker kjønnsskjevhet

En FN-rapport beskylder indirekte smarte assistentleverandører som Apple, Google og Microsoft for å styrke kjønnsskjevhet ved å bruke kvinnelige assistentstemmer som standard.

Apples Siri, Microsofts Cortana, Googles assistent på hjemmeforhøyttalere og Amazons Alexa er de desidert mest populære digitale assistentene der ute. I de aller fleste tilfeller har alle disse assistentene en kvinnelig stemme. Noen assistenter bruker kvinnelige stemmer utelukkende, som Alexa, og andre lar brukeren endre stemme kjønn i Innstillinger, som Siri.

I noen tilfeller avhenger en assistents standardstemmekjønn av brukerens spesifikke marked, og Apple er et godt eksempel på at Siri bruker en kvinnestemme i de fleste land, men hun er standard for en mannlig stemme når systemspråket er satt til arabisk, fransk , Nederlandsk eller britisk engelsk.

Fra rapporten med tittelen “Jeg ville rødme om jeg kunne”:

Fordi talen til de fleste stemmeassistenter er kvinnelig, sender den et signal om at kvinner er hjelpsomme, føyelige og ivrige etter å behage hjelpere, tilgjengelige med et tastetrykk eller med en sløv stemmekommando som 'Hei' eller 'OK'.

Assistenten har ingen myndighetsmakt utover hva sjefen ber om det. Den hedrer kommandoer og svarer på spørsmål uavhengig av tone eller fiendtlighet. I mange lokalsamfunn styrker dette vanlige kjønnsfordeler at kvinner er underordnede og tolerante mot dårlig behandling.

Tittelen på rapporten (“Jeg ville rødme om jeg kunne”) pleide å være et av Siris svar på å bli adressert som en ludder (en annen: “Vel, jeg har aldri!”), Som nevnt av 9to5Mac, men Apple har siden endret svarene til "Jeg vet ikke hvordan jeg skal svare på det."

Det angår også at en kvinnelig AI-hjelper risikerer å gi barn gale ideer om rollen til kvinner i det moderne samfunn, og potensielt antyder at det er normalt at kvinner, jenter og kvinnekjønnede personer svarer på forespørsel.

I følge Calvin Lai, en Harvard University-forsker som studerer ubevisst skjevhet, er kjønnsforeningene folk adopterer betinget av antall ganger folk blir utsatt for dem. Når kvinnelige digitale assistenter sprer seg, øker hyppigheten og volumet av assosiasjoner mellom 'kvinne' og 'assistent' dramatisk.

I følge Lai, jo mer som kultur lærer folk å likestille kvinner med assistenter, jo mer virkelige kvinner vil bli sett på som assistenter - og straffet for ikke å være assistentlignende. Dette demonstrerer at kraftig teknologi ikke bare kan gjenskape ulikheter mellom kjønnene, men også utvide dem.

Jeg er ikke sikker på hva jeg skal mene om denne rapporten annet enn at Apple, Google, Microsoft og Amazon er veldig godt klar over den kulturelle subteksten til alt dette - ellers ville Siris standardstemme ikke være regionavhengig-men jeg ' Jeg er ikke så sikker på at selskapene er klar over at assistentstemmer for hele kvinnene kan, og sannsynligvis gjøre, forsterke kjønnsskjevhet, spesielt med barn som over tid kan ta det som bevis på en forbindelse mellom en kvinnes stemme og underdanighet..

Forsterker kvinnelige assistentstemmer vestlige kjønnsstereotypier? Hva tar du for denne rapporten? Husk å kime deg inn med tankene dine i kommentarfeltet nedenfor.