
Agence France-Presse6. august 2021 11:41:14 IST
Apple torsdag sa at iPhones og iPads snart vil begynne å oppdage bilder som inneholder seksuelle overgrep mot barn og rapportere dem når de lastes opp til nettlageret i USA. “Vi vil bidra til å beskytte barn mot rovdyr som bruker kommunikasjonsverktøy for å rekruttere og utnytte dem, og begrense spredningen av seksuelt misbruk av barn (CSAM),” sa Apple i et nettpost.

Apple vil rapportere slike bilder til National Center for Missing and Exploited Children, som jobber med politiet.
Ny teknologi vil tillate programvare som driver Apple mobile enheter å matche misbrukende bilder på en brukers telefon mot en database med kjente CSAM -bilder levert av barnesikkerhetsorganisasjoner, og deretter flagge bildene når de lastes opp til Apples online iCloud -lagring, ifølge selskapet.
Imidlertid sier flere digitale rettighetsorganisasjoner at tweaksene til Apples operativsystemer skaper en potensiell “bakdør” til gadgets som kan utnyttes av regjeringer eller andre grupper.
Apple bekrefter at det ikke vil ha direkte tilgang til bildene og understreket tiltak som er tatt for å beskytte personvern og sikkerhet.
Den Silicon Valley-baserte teknologigiganten sa at matchingen av bilder ville være “drevet av en kryptografisk teknologi” for å avgjøre “om det er en treff uten å avsløre resultatet,” med mindre bildet ble funnet å inneholde skildringer av seksuelle overgrep mot barn.
Apple vil rapportere slike bilder til National Center for Missing and Exploited Children, som jobber med politiet, ifølge en uttalelse fra selskapet.
India McKinney og Erica Portnoy fra den digitale rettighetsgruppen Electronic Frontier Foundation sa i et innlegg at “Apples kompromiss om ende-til-ende-kryptering kan blidgjøre offentlige etater i USA og i utlandet, men det er et sjokkerende ansikt for brukere som har stolt på selskapets ledelse innen personvern og sikkerhet. “
Minding Meldinger
Den nye bildeovervåkingsfunksjonen er en del av en serie verktøy på vei til Apple mobile enheter, ifølge selskapet.
Apples tekst -app, Messages, vil bruke maskinlæring til å gjenkjenne og advare barn og deres foreldre når de mottar eller sender seksuelt eksplisitte bilder, heter det i meldingen.
“Når du mottar denne typen innhold, blir bildet uskarpt og barnet blir advart,” sa Apple.
“Som en ekstra forholdsregel kan barnet også bli fortalt at for å sikre at de er trygge, vil foreldrene få en melding hvis de ser det.”
Lignende forholdsregler utløses hvis et barn prøver å sende et seksuelt eksplisitt bilde, ifølge Apple.
Meldinger bruker maskinlæringskraft på enheter for å analysere bilder festet til missiver for å avgjøre om de er seksuelt eksplisitte, ifølge Apple.
Funksjonen er på vei til det nyeste Macintosh -operativsystemet, samt iOS.
Personlig assistent Siri vil i mellomtiden bli lært å “gripe inn” når brukere prøver å søke etter temaer knyttet til seksuelle overgrep mot barn, ifølge Apple.
Greg Nojeim fra Center for Democracy and Technology i Washington, DC sa at “Apple bytter ut sitt industristandard end-to-end krypterte meldingssystem med en infrastruktur for overvåking og sensur.”
Dette, sa han, ville gjøre brukerne “sårbare for overgrep og krypning, ikke bare i USA, men rundt om i verden.”
“Apple bør forlate disse endringene og gjenopprette brukernes tro på sikkerheten og integriteten til dataene deres på Apple -enheter og -tjenester.”
Apple har bygget sitt rykte på å forsvare personvernet på sine enheter og tjenester til tross for press fra politikere og politi for å få tilgang til folks data i navnet for å bekjempe kriminalitet eller terrorisme.
“Barneutnyttelse er et alvorlig problem, og Apple er ikke det første teknologiselskapet som bøyer sin personvernbeskyttende holdning i et forsøk på å bekjempe det,” sa McKinney og Portnoy fra EFF.
“På slutten av dagen er til og med en grundig dokumentert, nøye gjennomtenkt og smalomfattet bakdør fortsatt en bakdør,” la de til.