Átvizsgált fotók lenne a megoldás a pedofília megállítására?
A Financial Times robbantotta a hírt, miszerint a felhasználói fotók között futtatná az algoritmust az Apple, ami kiszűri a gyermekek szexuális abúzusát megjelenítő képeket, majd ez alapján jelentené a felhasználókat a megfelelő hatóságnál.
Az iPhone-okon, valamint az iCloudban tárolt képek átvizsgálásáról van szó. Bár az Apple álláspontja szerint mindez nagy segítséget jelentene a hatóságoknak a nyomozásaikban, de félő, hogy ajtót nyitna a kormányzati kémkedésnek is.
Az Apple a mai napon (08.05.) megerősítette a tervét, sőt bejelentették, hogy már idén az iOS 15, az iPadOS 15, a watchOS 8 és a macOS Monterey rendszerfrissítésekkel meg is fog érkezni az új biztonsági figyelőrendszerük. Az iMessage pedig figyelmeztetni fogja a gyermekeket, ha éppen olyan fényképet szándékoznak küldeni valakinek üzenetben, amit a rendszer rizikósnak érzékel.
Hogyan zajlik majd a fotók átvilágítása?
A lényeg, hogy az Apple, szó szerint fordítva, Gyermek Szexuális Abúzus Anyagok, azaz képek (Child Sexual Abuse Material – CSAM) internetes terjedése ellen akar fellépni azzal, hogy az almás termékek felhasználóinak fotóit vizsgálja át.
A CSAM észlelésére használt algoritmust a felhasználói adatvédelem szem előtt tartásával tervezték. Így az iCloudban lévő képek szkennelése helyett eszközön belüli egyezést keres különféle gyermekvédelmi szervezetek CSAM-képadtabázisával. A gyakorlatban ezt úgy teszik, hogy magát az adatbázist egy kiolvashatatlan hash-halmazzá alakítják, amit elhelyeznek az eszközökön, majd a felhasználói fotókkal akkor keresnek egyezést, mielőtt a felhasználó feltöltené az iCloudba a fotót.
Magát az egyeztetési folyamatot egy privát halmaz metszéspontjának nevezett kriptográfiai technológia adja, ami az eredmény felfedése nélkül határozza meg, hogy van-e egyezés bizonyos adatok között. Amennyiben van, az eszköz létrehoz egy kriptográfiai biztonsági jegyzetet, ami kódolja az egyezés eredményét, valamint a kép további titkosított adatait. Ez a jegyzet pedig feltöltésre kerül a képpel együtt az iCloud fotók közé.
A jegyzeteknek van egy ún. küszöbértéke, amit hogyha az iCloud-fiókban elérnek, az Apple rendszere csak akkor tudja értelmezni az adatokat képként. Ilyenkor viszont manuálisan ellenőrzik a képeket, és hogyha valóban CSAM-tartalmakról van szó, akkor érvénytelenítik a felhasználó fiókját, és értesítik a megfelelő hatóságot.
A rendszernek nagy pontosságot tulajdonítanak, ahol a hibalehetőség szinte kizárható, de hogyha mégis lenne, a manuális ellenőrzéskor kiderül a hiba. Az Apple egyébként három egymástól teljesen független kriptográfiai szakembertől is kért műszaki értékelést a rendszerükről, és mindhárman megbízhatónak találták a rendszerüket.
Kételyek
Ugyanakkor a John Hopkins Egyetem professzora, az ismert kriptográfiai szakember, Matthew Green pl. a Twitteren adott hangot az aggodalmainak, amit maga a rendszer keltett benne. Véleménye szerint az biztos, hogy a gyermek pornográfiával szemben hatásos eszköznek bizonyulhat, de a gondja az, hogy milyen lehetőségeket adna a rendszer, ha rossz kezekbe kerülne.
A szakemberben az is aggodalmat kelt, hogy noha az Apple feltehetően nem adja ki ezeket az eszközöket, de még így is meredek, hogy a rendszer olyan egy „problematikus média hash” adatbázis használatán alapszik, amit egy hétköznapi ember nem tud kiolvasni…
Ahogy a legtöbb nagy felhőszolgáltató, az Apple is már egy ideje átvizsgálja az iCloud fájlokat gyermekbántalmazási képekért. Ezzel az új rendszerrel azonban tovább mennek, így ugyanis központi hozzáférést adnak egy helyi tárolóeszközhöz. Ez pedig a későbbiekben akár egyértelműen kiterjeszthető más bűncselekményekre is.
Igen furcsa lépés egy olyan cégtől, amelyik zászlajára tűzte a felhasználók adatvédelmét, és komoly harcot vívott néhány éve az FBI-jal arról, hogy a San Bernardinó-i terrorcselekmény egyik elkövetőjének készülékéhez nem adott elérését.