Sistem CSAM Apple ditipu, tapi perusahaan ngagaduhan dua panyalindungan

Update: Apple disebutkeun inspeksi kadua server, sarta parusahaan visi komputer profésional outlined kamungkinan naon ieu bisa-dijelaskeun dina "Kumaha inspeksi kadua bisa jalan" handap.
Saatos pamekar ngabalikeun bagian-bagian anu direkayasa, versi awal sistem Apple CSAM parantos ditipu sacara efektif pikeun nandaan gambar anu teu salah.Nanging, Apple nyatakeun yén éta gaduh panjagaan tambahan pikeun nyegah ieu kajadian dina kahirupan nyata.
Pangwangunan panganyarna lumangsung saatos algoritma NeuralHash diterbitkeun kana situs web pamekar open source GitHub, saha waé tiasa ékspérimén sareng éta…
Sadaya sistem CSAM tiasa dianggo ku ngimpor database bahan nyiksa seksual budak anu dipikanyaho ti organisasi sapertos Pusat Nasional pikeun Barudak Leungit sareng Dieksploitasi (NCMEC).Pangkalan data disayogikeun dina bentuk hashes atanapi sidik digital tina gambar.
Sanaos kalolobaan raksasa téknologi nyeken poto anu diunggah dina méga, Apple nganggo algoritma NeuralHash dina iPhone palanggan pikeun ngahasilkeun nilai hash tina poto anu disimpen, teras ngabandingkeunana sareng salinan anu diunduh tina nilai Hash CSAM.
Kamari, pamekar ngaku geus ngabalikeun direkayasa algoritma Apple sarta ngaleupaskeun kode ka GitHub-klaim ieu éféktif dikonfirmasi ku Apple.
Dina sababaraha jam saatos GitHib dileupaskeun, panalungtik suksés ngagunakeun algoritma pikeun nyiptakeun positip palsu anu dihaja-dua gambar anu béda-béda anu ngahasilkeun nilai hash anu sami.Ieu disebut tabrakan.
Pikeun sistem sapertos kitu, sok aya résiko tabrakan, sabab Hash tangtosna ngagambarkeun gambar anu saderhana pisan, tapi heran yén batur tiasa ngahasilkeun gambar gancang-gancang.
Tabrakan ngahaja di dieu ngan ukur bukti konsép.Pamekar teu boga aksés ka database Hash CSAM, nu bakal merlukeun kreasi positip palsu dina sistem real-time, tapi teu ngabuktikeun yén serangan tabrakan relatif gampang prinsipna.
Apple éféktif dikonfirmasi yén algoritma mangrupa dasar sistem sorangan, tapi ngawartoskeun motherboard nu ieu teu versi final.Pausahaan ogé nyatakeun yén éta henteu pernah dimaksudkeun pikeun tetep rahasia.
Apple nyarios ka Motherboard dina email yén versi anu dianalisis ku pangguna dina GitHub mangrupikeun versi umum, sanés versi ahir anu dianggo pikeun deteksi iCloud Photo CSAM.Apple nyarios yén éta ogé ngungkabkeun algoritma éta.
"Algoritma NeuralHash [...] mangrupa bagian tina kode sistem operasi ditandatanganan [jeung] peneliti kaamanan bisa pariksa yen kabiasaan na conforms kana pedaran," wrote hiji dokumen Apple.
Pausahaan nuluykeun ngomong aya dua léngkah deui: ngajalankeun sistem sekundér (rusiah) cocog dina server sorangan, sarta review manual.
Apple ogé nyatakeun yén saatos pangguna ngalangkungan ambang 30 pertandingan, algoritma non-publik kadua anu dijalankeun dina server Apple bakal pariksa hasilna.
"Hash bebas ieu dipilih pikeun nampik kamungkinan yén NeuralHash anu salah cocog sareng pangkalan data CSAM énkripsi dina alat kusabab gangguan adversarial gambar non-CSAM sareng ngaleuwihan ambang anu cocog."
Brad Dwyer of Roboflow manggihan cara pikeun gampang ngabedakeun antara dua gambar dipasang salaku bukti konsép pikeun serangan tabrakan.
Abdi panasaran kumaha gambar ieu katingal dina CLIP tina ékstraktor fitur saraf anu sami tapi béda OpenAI.CLIP jalanna sami sareng NeuralHash;Butuh gambar sareng nganggo jaringan saraf pikeun ngahasilkeun set vektor fitur anu peta kana eusi gambar.
Tapi jaringan OpenAI béda.Ieu mangrupikeun modél umum anu tiasa peta antara gambar sareng téks.Ieu ngandung harti yén urang bisa make eta pikeun nimba informasi gambar manusa-kahartos.
Kuring lumpat dua gambar tabrakan di luhur ngaliwatan CLIP pikeun nempo naha éta ogé fooled.Jawaban pondok nyaéta: henteu.Ieu ngandung harti yén Apple kedah tiasa nerapkeun jaringan ékstraksi fitur kadua (sapertos CLIP) kana gambar CSAM anu dideteksi pikeun nangtukeun naha éta nyata atanapi palsu.Éta langkung hese pikeun ngahasilkeun gambar anu nipu dua jaringan dina waktos anu sami.
Tungtungna, sakumaha anu disebatkeun sateuacana, gambar-gambar diulas sacara manual pikeun mastikeun yén aranjeunna CSAM.
Panaliti kaamanan nyarios yén hiji-hijina résiko nyata nyaéta yén saha waé anu hoyong ngaganggu Apple tiasa masihan positip palsu pikeun pamariksaan manusa.
"Apple sabenerna mendesain sistem ieu, jadi fungsi hash teu perlu dirahasiakeun, sabab hiji-hijina hal anu anjeun tiasa laksanakeun sareng 'non-CSAM salaku CSAM' nyaéta ngaganggu tim réspon Apple kalayan sababaraha gambar sampah dugi aranjeunna nerapkeun saringan pikeun ngaleungitkeun. "Sampah dina pipa éta positip palsu," Nicholas Weaver, panalungtik senior di Institute of International Computer Science di University of California, Berkeley, ngawartoskeun Motherboard dina obrolan online.
Privasi mangrupikeun masalah anu ningkatkeun perhatian di dunya ayeuna.Turutan sadaya laporan anu aya hubunganana sareng privasi, kaamanan, jsb dina pedoman kami.
Ben Lovejoy mangrupikeun panulis téknis Inggris sareng éditor EU pikeun 9to5Mac.Anjeunna dipikanyaho pikeun kolom sareng tulisan diary, ngajalajah pangalamanana sareng produk Apple dina waktosna pikeun kéngingkeun ulasan anu langkung lengkep.Anjeunna ogé nyerat novel, aya dua thrillers téknis, sababaraha pilem fiksi ilmiah pondok sareng rom-com!


waktos pos: Aug-20-2021