蘋果解釋了放棄CSAM的原因,一切都要讓位于隱私保護(hù)之下。
蘋果一直是教育顧客的,這次居然被顧客“教育”了。日前有消息稱,蘋果方面非常罕見地回應(yīng)了一家名叫Heat的公司。 Initiative的兒童保護(hù)組織提出的問題,以及蘋果的用戶隱私和兒童安全總監(jiān)Erik 在這次回應(yīng)中,Neuenschwander還首次向公眾透露,該公司放棄了iCloud開發(fā) CSAM(兒童色情和凌虐)檢測工具的原因。
“我們致力于打破威脅和影響鏈,使孩子容易受到影響,但掃描每個客戶存儲的iCloud數(shù)據(jù)將成為數(shù)據(jù)小偷發(fā)現(xiàn)和使用創(chuàng)造新威脅的載體。而且這種方法會造成許多意想不到的嚴(yán)重后果,例如掃描一種類型的內(nèi)容為批量監(jiān)控打開大門,并可能產(chǎn)生跨內(nèi)容類型搜索其它加密信息傳遞系統(tǒng)的愿望”,Erik 當(dāng)Neuenschwander解釋了去年年底蘋果CSAM檢測工具毫無征兆下線的原因時,他說。
事實上,CSAM檢測工具是蘋果在2021年秋季宣布的,iOSAM檢測工具是 15“擴(kuò)大兒童保護(hù)”政策的一部分,并計劃根據(jù)美國兒童中心的失蹤和剝削計劃(NCMEC)數(shù)據(jù)庫中已知的信息可以掃描用戶的iCloud照片庫,以找到匹配的內(nèi)容和相關(guān)信息,以幫助加強(qiáng)對兒童安全和隱私的保護(hù)。但是,這一項目一經(jīng)公布,就引起了很大的爭議,盡管外界認(rèn)同蘋果保護(hù)兒童的初衷,但卻強(qiáng)烈反對具體措施。
事實上,CSAM檢測工具的原理非常簡單。蘋果將根據(jù)NCMEC和其他兒童保護(hù)組織提供的CSAM圖像進(jìn)行加密,并根據(jù)算法獲得一組哈希值,然后存儲在他們的服務(wù)器上。同時,用戶將圖像上傳到iCloud后,還會生成一組哈希值,而蘋果則會比較兩組哈希值之間的差異,從而判斷客戶是否涉及到對兒童安全的侵害。
哈希值是通過邏輯計算獲取文件內(nèi)容數(shù)據(jù)不可逆轉(zhuǎn)的唯一數(shù)據(jù)散列值,這也保證了CSAM圖像和客戶圖像的可靠性,用于相互驗證。并且為保證相關(guān)技術(shù)的有效性,蘋果方面在對比哈希值時,會使用被稱為“私人集交集”的方法。(PSI)加密算法,該技術(shù)允許在不泄露交集結(jié)果以外更多信息的前提下,計算CSAM圖像和用戶iCloud中的照片之間的交集。
為了進(jìn)一步提高用戶的接受度,蘋果還設(shè)計了“閥門價值密鑰共享”進(jìn)行檢查。只有檢查結(jié)果超過臨界點,設(shè)備才會自動盈利,授權(quán)蘋果瀏覽相關(guān)內(nèi)容。對于這一點,蘋果聲稱CSAM檢測工具具有極高的準(zhǔn)確性,可以保證每年錯誤標(biāo)記帳戶的可能性低于萬億分之一。與谷歌、Meta等掃描云服務(wù)器存儲用戶數(shù)據(jù)的策略不同,蘋果的解決方案是完全匹配當(dāng)?shù)氐墓V怠?/p>
但是蘋果制作CSAM檢測工具的直接原因,有些讓人哭笑不得,但又是有道理的。對Epic來說 相信大家對Games和蘋果的訴訟并不陌生,在這場圍繞App的訴訟中, 在Store是否壟斷的訴訟中,Epic Games律師還收集了大量的應(yīng)用程序。 證據(jù)與Store無關(guān)。例如,他們找到了蘋果的反欺詐技術(shù)部門。FEAR”Eric負(fù)責(zé)人 “我們(蘋果)是世界上最大的兒童色情內(nèi)容分發(fā)平臺,”Friedman的一次工作聊天顯示?!?/p>
事實上,聯(lián)系上下文并不難看出,Eric Friedman的自嘲表達(dá)背后是蘋果出色的端到端加密系統(tǒng),促使罪犯使用自己的設(shè)備來逃避控制。因此,有人認(rèn)為蘋果應(yīng)該推出CSAM檢測工具來解決他們的后果。
但是,由于CSAM檢測工具的出現(xiàn)和“iPhone絕無側(cè)門”的出現(xiàn),這正是對一直支持蘋果隱私保護(hù)政策的客戶的激怒。、關(guān)注用戶隱私安全的蘋果宣傳相反,更顯得蘋果在反對自己。
但是,在此之前,無論是在執(zhí)法機(jī)構(gòu)要求解鎖嫌疑人iPhone的時候,還是iPhone,寧愿上法庭也不愿屈服。、iOS自身設(shè)計的多重保護(hù)和業(yè)內(nèi)獨特的用戶隱私保護(hù)一直是蘋果產(chǎn)品的核心競爭優(yōu)勢之一,也是消費者選擇iPhone的重要原因。也相信蘋果是為數(shù)不多的真正為用戶考慮的公司之一,因為它目前隱私泄露泛濫。
所以蘋果的舉動幾乎等于把所有的iPhone客戶都當(dāng)成可能侵害孩子的壞人,自然會引起各種不滿。
更致命的是,蘋果承諾在不瀏覽圖片的情況下選擇非法信息的說法也被研究人員證偽。此前,英特爾實驗室的研究人員發(fā)現(xiàn),蘋果的CSAM檢測工具存在哈希矛盾的缺陷。由于哈希函數(shù)產(chǎn)生的哈希值是有限的,當(dāng)輸入數(shù)據(jù)量達(dá)到一定水平時,通過哈希函數(shù)處理后會產(chǎn)生不同數(shù)據(jù)的相同值,從而使兩張無關(guān)照片的哈希值一致,也直接動搖了蘋果CSAM檢測技術(shù)的基礎(chǔ)。
此外,隔壁谷歌在搜索CSAM時,還發(fā)生了一起“傷害”無辜爸爸的事件,讓后者直接社會死亡。蘋果最終在2022年底選擇了CSAM下線檢測工具。
自1959年《兒童權(quán)利宣言》和1989年《兒童權(quán)利公約》在聯(lián)合國大會上獲批以來,兒童保護(hù)已成為人類社會的共識。然而,作為一家商業(yè)公司,蘋果的核心使命是賺錢和盈利。為了樹立更好的品牌形象,承擔(dān)保護(hù)兒童社會的責(zé)任,優(yōu)秀的品牌形象是為了賺錢。所以換句話說,在目前隱私保護(hù)能力形成公司核心競爭力的前提下,自毀長城維護(hù)孩子顯然是不現(xiàn)實的。
雖然蘋果的初衷是好的,但它的執(zhí)行并不理想。
[本文圖片來自網(wǎng)絡(luò)]
本文來自微信微信官方賬號“三易生活”(ID:IT-作者:三易菌,36氪經(jīng)授權(quán)發(fā)布,3eLife)。
本文僅代表作者觀點,版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com