發表文章

目前顯示的是有「CSAM」標籤的文章

蘋果AI偵測兒童色情照,人工智能惹隱私爭議(下)

圖片
拓展 Siri 搜尋功能,新增「提醒、干預」 蘋果 表示,他們將對 Siri 功能與搜尋進行更新,以提供有相關困擾的監護人與未成年人使用者協助。 例如:當使用者詢問該如何回報 CSAM 相關問題時, 蘋果 將會結束導向相關機構的聯絡方式,或是提供指引來幫助使用者。 除此之外,若是有使用者像要查詢有關 CSAM 或是敏感、有害的內容,系統也會進行干預,跳出警示告知使用者。 圖片來源:蘋果官網。 難以揮去的隱私疑慮 這些功能,預計今年將會在 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的更新中推出。 在以往,相對於 Android 使用者,蘋果的支持者們最自豪的便是 iOS 的高穩定性與嚴密的隱私保障,而這也是蘋果公司不斷強調的優勢。 不過現在,蘋果這次的做法與過往似乎有了很大的不同。 即使這些措施雖然是為了保護未成年、減少兒童與青少年私密照外流所帶來的傷害,但還是帶來不少隱私與資訊安全的隱憂。 對此,有許多資訊安全專家與機構組織都表示疑慮或反對,認為這項作法「如同在牆上打洞、裝上門後再鎖上。」 雖然有門鎖,但風險依然存在,況且要是鑰匙不慎流出,駭客便會暢行無阻。 除此之外,也有一些人擔心此先例一開, 蘋果 未來可能因為各國家政府的法律規定和要求,調整審查標準、成為監控工具。例如同志相關內容、政治敏感資訊等等,極權國家的使用者更是有此擔心。 隱私保障與資料運用的平衡難題 兒童色情內容經常被視為犯罪的證據,未成年人通常是在被威脅、利誘或哄騙的情況下拍攝這些內容,而流傳於網路上更是二次傷害。 而 蘋果 此舉,或許是希望透過提高取得相關資訊的門檻,減低可能的需求,進而減少類似的兒童性犯罪再度發生。 然而,當檢警要搜查民宅前都須先向法院申請搜索票的法治社會下,蘋果直接以審核使用者彼此之間的私人訊息和個人儲存空間等方式,來試圖達成防治的目的,是否有符合比例原則?個人的隱私考量與社會整體的治安,該如何平衡呢? 或許是個需要大眾不斷思考與討論的問題。

蘋果AI偵測兒童色情照,人工智能惹隱私爭議(上)

圖片
兒童色情照太氾濫 人工智慧來把關 兒童情色的相關犯罪防治,一直都是社會上一項重要的議題,尤其在歐美國家,政府與民間組織皆十分重視,並投入相當大的資源在預防犯罪上,法規與刑責也更為嚴峻。 然而,縱使有嚴重的刑責,相關新聞依然層出不窮,尤其近年來智慧型手機、網際網路發展迅速,亦衍伸出許多拍攝、散播兒童情色照片的犯罪行為。 例如,在今年的 7 月 29 日,有一名居住在紐澤西州的男子,被警方查獲他的電腦內存有 110 個未成年性愛、裸露相關的影片和圖像。而其住處對面,正是當地的公立學校,令人不寒而慄。 在去年 2 月,也有一名美國空軍上校,遭檢警查獲他利用手機瀏覽未成年色情網站、保存圖片,他也坦承,自己使用 iPhone 手機下載未成年兒童的裸露照片高達 441 張,最後被判處 5 年有期徒刑與 15 年強制管束。 由於此類事件層出不窮,也讓 蘋果 決定調整目前的做法,希望能藉由其影響力,擴大對兒童的保護。 今年 8 月,蘋果在他們的官網上宣布有關保護兒童的新措施、功能,主要可歸納為三大類,分別是:Message 訊息內容偵測、iCloud 檔案掃瞄檢查、拓展 Siri 和搜尋功能的提醒和干預。 一偵測到情色照,AI 立馬傳模糊照給父母 未來, 蘋果 手機內的 Messages app 將會裝上新的工具「Helping with Communication Safety」,當  AI  偵測到使用者收到、發送色情等敏感內容的照片時,警告兒童和他們的監護人。而這些敏感內容的照片與圖像,也將會自動進行模糊處理。 如此一來,若未成年使用者遭遇到惡意騷擾,就能有相關的保護措施。除此之外, 蘋果 也會提供資源與建議,告訴孩子遇到這樣的事情不是你的錯,不想查看或發送也沒關係,並鼓勵他們進一步尋求協助。 但若未成年使用者還是想要查看或是發送敏感內容,此時系統就會發送提醒給家長。 蘋果也特別表示,這項新功能是透過手機設備上的  AI  去分析、辨別圖片內容,並強調 蘋果 公司不會、也無法去查看這些內容。 圖片來源:蘋果官網。 兒童色情照上雲端?人工智慧來守門 雲端硬碟是現今常見的儲存資料方式,將個人照片備份在雲端,也能夠避免因為手機或電腦的損壞或遺失,導致相片和回憶一起不見。 然而,亦有有心人士藉由將違法的兒童色情內容存放在雲端硬碟中,並加以散播傳閱。 為...