圖片來源:AP Photo/Noah Berger
【希望之聲2018年10月24日訊】(希望之聲記者周星海編譯)Facebook周三(10月24日)宣布,該公司在上一個季度總共刪除了870萬張兒童色情圖片,Facebook說,他們是藉助了之前沒有公開的軟件來自動識別這些色情圖片。
Facebook去年推出了一種機器學習工具,可以識別包含裸體和兒童色情的圖片。Facebook周三還公布了一個類似的系統,這個系統可以跟蹤那些從事兒童色情交易的人。Facebook也在探索將相同的技術應用於它的Instagram程序之中。
在監管機構和立法者的壓力下,Facebook發誓要加快清除網頁上的極端主義和非法內容,如何對用戶每天發布的數十億內容進行篩選,對Facebook來說至關重要。
(轉載請註明希望之聲)
本文網址: