Apple reageert op plannen voor kinderporno-scanning

hardwarefunctie

Apple voelde zich gisteren gedwongen uitgebreid te reageren op het nieuws dat het scansoftware wil installeren op iPhones. De Financial Times meldde dit vorige week. De software moet iPhones doorzoeken op de aanwezigheid van kinderporno. Aanvankelijk ging Apple niet op het bericht in. De publiciteit die het nieuws genereerde dwong de fabrikant echter een document te publiceren. Hierin worden antwoorden gegeven op de meest gestelde vragen.

Geen invloed overheden

“We willen er duidelijk over zijn dat deze technologie zich beperkt tot het detecteren van materiaal van seksueel misbruik van kinderen dat is opgeslagen in iCloud, en we zullen niet ingaan op het verzoek van een regering om deze functie uit te breiden”, schrijft het bedrijf. “We hebben eerder te maken gehad met eisen van overheden om wijzigingen door te voeren die de privacy van gebruikers aantasten. En hebben die eisen altijd standvastig afgewezen. We zullen dat in de toekomst blijven doen”, staat er.

Kritiek privacydeskundigen

Apple gaat met deze mededeling vooral in op de vrees bij beveiligings- en privacydeskundigen. Zij menen dat dit het begin is van het monitoren van meer gegevens van alle Applegebruikers. Ook zijn er zorgen dat zulke programma’s ingezet kunnen worden om andere zaken op te sporen, zoals dissidente geluiden.

Met de verklaring neemt Apple deze zorgen niet weg. Sterker nog, de fabrikant paste in het verleden wel degelijk producten aan als regimes daarom vroegen. Zo is videobellen met Facetime niet mogelijk in Saudi-Arabië, Pakistan en de Verenigde Arabische Emiraten waar versleutelde telefoongesprekken niet zijn toegestaan. In China zijn veel apps uit de app-store verwijderd en Apple staat het toe dat iCloud-data van Chinese gebruikers op door de Chinese overheid beheerde servers staan.

Database

De software die Apple wil gebruiken zou ‘neuralMatch’ heten. Het moet alarm slaan bij beelden waarvan het vermoeden bestaat dat er sprake is van kindermisbruik. Het systeem maakt daarbij gebruik van 200.000 foto’s van kindermisbruik die zijn verzameld door een Amerikaanse actiegroep. Wanneer iets verdachts wordt gedetecteerd, controleert een team van onderzoekers de beelden. Ook kan Apple besluiten andere afbeeldingen van een gebruiker te bekijken.

Amerikaanse gebruikers

Het zou vooralsnog alleen gaan om foto’s die in het back-upsysteem iCloud worden opgeslagen en de controle zou alleen bij Amerikaanse gebruikers worden ingevoerd.

 

Gerelateerde berichten...