Forrige helgs rapport fra den britiske avisen Guardian detaljerte at Apple ansetter entreprenører som har til oppgave å lytte til noen Siri-lyd, og som får kritikere til å ta historien som et bevis på at Apples forpliktelse til privatliv ikke er annet enn markedsføringsprat..
Et utdrag fra Guardians rapport:
Apple-entreprenører hører jevnlig konfidensiell medisinsk informasjon, narkotikaavtaler og innspillinger av par som har sex, som en del av jobben deres som kvalitetskontroll, eller 'gradering', selskapets Siri stemmeassistent, har Guardian lært.
Selv om Apple ikke eksplisitt avslører det i sin forbrukervendte personverndokumentasjon, blir en liten andel av Siri-opptakene gitt videre til entreprenører som jobber for selskapet rundt om i verden..
Er du positiv, hundre prosent sikker på det? Fordi jeg nettopp har gjennomgått Apples personvernskjermbilder spredt i operativsystemene sine, og for at de helt sikkert uttrykker at noen Siri-opptak kan brukes til å forbedre Siri-tjenesten. På toppen av det klarte jeg å finne følgende utdrag ved å raskt kombinere Apples iOS-programvarelisensavtale:
Ved å bruke Siri eller Dictation, samtykker du og samtykker til Apples og datterselskapenes og agentenes overføring, innsamling, vedlikehold, behandling og bruk av denne informasjonen, inkludert stemmetilførsel og brukerdata, for å gi og forbedre Siri, diktering og diktatfunksjonalitet i andre Apple-produkter og tjenester.
Hele passasjen er i fet skrift, og jeg synes det er ganske entydig om Apples intensjoner.
"Åpenbaringen" om at selskapet selger stemmedata samlet inn av Siri personlig assistent til tredjeparter-entreprenører som har til oppgave å trene Siri-algoritmen-som et ledd i sitt forsøk på å forbedre Siri-tjenesten er ikke noe nytt hvis du har fulgt teknologi.
Selv Guardian erkjenner like mye:
De klassifiserer svarene på en rekke faktorer, inkludert om aktiveringen av taleassistenten var bevisst eller tilfeldig, om spørringen var noe Siri kunne forventes å hjelpe med og om Siris svar var passende.
Dette er ikke første gang folk har "oppdaget" at noen Siri-lydutdrag blir sendt videre til en tredjepart. Tilbake i 2015 skrev en anonym ansatt i et selskap som heter Walk N'Talk Technologies på Reddit at stemmedataene som ble analysert av selskapet, kom fra personlige assistenter som Siri og Cortana.
Apple ga ut følgende uttalelse til Guardian og andre:
En liten del av Siri-forespørslene blir analysert for å forbedre Siri og diktat. Brukerforespørsler er ikke tilknyttet brukerens Apple ID. Siri-svar blir analysert i sikre fasiliteter, og alle anmeldere er forpliktet til å overholde Apples strenge konfidensialitetskrav.
The crux of the Guardian's story kommer fra en “varslere”, i utgangspunktet en Apple-arbeidsgiver som rapporterte å høre noen private ting under utilsiktet aktivering.
Her er hva varsleren sa til avisen:
Det har vært utallige tilfeller av innspillinger med private diskusjoner mellom leger og pasienter, forretningsavtaler, tilsynelatende kriminelle forhold, seksuelle møter og så videre. Disse opptakene er ledsaget av brukerdata som viser beliggenhet, kontaktinformasjon og appdata.
Lydopptak av brukerforespørsler drar nytte av metadata som beliggenhet for å bedre forstå kontekst. Den bekymringsfulle delen er det faktum at entreprenører er i stand til å høre private samtaler i utgangspunktet. Som rapporten selv erkjenner, er det mulig fordi en bruker ved en tilfeldighet kan påkalle Siri uten å innse det, og på sin side be om lydopptaket til hva som er ytret etter oppvekkelsesfrasen "Hey Siri" for å bli lastet opp til serveren, og absolutt ikke fordi Siri registrerer hemmeligheter samtaler uten brukerens samtykke.
Følelsene mine på dette er absolutt ikke de samme som resten av Internett.
Ingen digital assistent kan forventes å forbedre seg over tid basert på kraften til kunstig intelligens og maskinlæring alene. Det er fordi maskinlæringsmodellen som brukes av en assistent først må trenes opp av menneskelige redaktører - det er bare ingen to måter å gjøre det på.
Google Foto ville ikke ha kunnet gjenkjenne ansikter med uhyggelig presisjon hvis selskapet ikke hadde trent algoritmen ved å bruke ekte bilder. Apples Face ID ville ikke vært mulig hvis maskinlæringen ikke hadde blitt trent på mer enn en million fotografier av forskjellige menneskelige ansikter. Selv noe så "vanlig" som talegjenkjenning kan forbedres drastisk ved å bruke en maskinlæringsalgoritme ved hjelp av trente data.
Den harde sannheten er at maskiner ikke (ennå) kan trene andre maskiners maskinlæringsmodeller med tilfredsstillende resultater - det er jobben vi mennesker utmerker oss med.
Alle i bransjen som ser alvorlig på kunstig intelligens, bruker menneskelige redaktører for å trene maskinlæringsalgoritmer med mål om å forbedre tjenesten. Disse ansatte blir utsatt for alt innholdet er kjernen i deres innsats, det være seg korte lydutdrag som er tatt av smarte høyttalere under stemmesamhandlinger eller bilder folk laster opp til en bildedelingstjeneste eller flaggede elementer i sosiale medier. Du får ideen.
Noen selskaper tar personvern mer seriøst enn andre selskaper. Noen selskaper er kanskje ikke like transparente når det gjelder hvordan deres menneskelige redaktører tilnærmer seg oppgaven som andre. Og til syvende og sist vil nok noen selskaper som ikke har en like sterk track record som beskytter brukernes personvern, bli gransket mer av media og allmennheten enn de andre,.
Men jeg tror ikke et sekund at det er i noe selskaps interesse å kreve at de ansatte faktisk hører på samtalene våre med en personlig digital assistent bare fordi de kan, eller fordi de kanskje håper å på en eller annen måte hente handlingsfull informasjon fra de private samtaler - og slippe unna med det i mange, mange år uten at noen faktisk legger merke til eller klager noe. Det er bare ikke mulig i dagens nettverksverden.
Ikke misforstå, jeg setter pris på hardt etterforskningsarbeid som er gjort av en del av journalistene som rapporterer om disse tingene fordi de gir personvernkorsfarere noe å tygge på. Men jeg kjøper ikke et sekund deres tynt slørete eller underforståtte konklusjon om at Big Tech ikke bare ansetter menneskelige redaktører for å trene Siri, Alexa og Google Assistant, men også for å avlyse samtalene våre for noen ennå å bli avslørt, men absolutt nydelige formål.
Ja, noen Amazon-ansatte som lytter til Alexa-forespørsler har faktisk tilgang til brukernes hjemmeadresser fordi noen talte forespørsler inkluderer beliggenhet. Og ja, noen Google Assistant-opptak vurdert av mennesker kan potensielt inkludere private samtaler fordi kundene står fritt til å si hva faen de vil til sin digitale assistent.
Det er hva disse ansatte blir bedt om å gjøre med opptakene som teller på slutten av dagen. Det er det faktum at noen useriøse menneskelige redaktører kan misbruke privat kundeinformasjon som bør ha oss bekymret, ikke det faktum at mennesker lytter til å velge lydopptak i et langt sikkert anlegg med det eksplisitte målet å forbedre tjenesten.
tanker?