Mạng Xã Hội

Các thuật toán hình ảnh và video nguồn mở của Facebook mà họ sử dụng để chống lạm dụng

Facebook hôm nay công bố rằng họ cung cấp hai thuật toán nguồn mở có khả năng phát hiện ra những bức ảnh và video giống hệt và gần giống nhau, mà họ nói rằng họ tích cực sử dụng để chống lại nạn bóc lột trẻ em, tuyên truyền khủng bố và bạo lực đồ họa trên nền tảng của mình. Công ty lưu ý rằng đây là lần đầu tiên, họ chia sẻ công nghệ phù hợp với phương tiện truyền thông nào – công nghệ mà họ hy vọng các đối tác trong ngành, các nhà phát triển nhỏ hơn và các tổ chức phi lợi nhuận sẽ sử dụng để dễ dàng xác định nội dung có hại hơn.

“Khi chúng tôi xác định được một phần nội dung có hại, Công nghệ có thể giúp chúng tôi tìm ra các bản sao và ngăn không cho chúng bị chia sẻ,” người đứng đầu toàn cầu về an toàn Antigone Davis và Guy Rosen trong một bài đăng trên blog trùng với An toàn trẻ em hàng năm của Facebook Hackathon. Đối với những người đã sử dụng công nghệ phù hợp với nội dung của riêng họ hoặc của họ, các công nghệ này là một lớp bảo vệ khác làm cho các hệ thống trở nên mạnh mẽ hơn nhiều.

Facebook nói rằng hai thuật toán được đề cập – PDQ và TMK + PDQ – được thiết kế để hoạt động ở mức độ cao và được lấy cảm hứng từ các mô hình và triển khai hiện có, bao gồm pHash, Microsoft lề PhotoDNA, aHash và dHash. PDQ phù hợp với hình ảnh được mô phỏng theo pHash (mặc dù nó được thiết kế từ đầu), trong khi TMK + PDQF nhận dạng video được phát triển bởi nhóm Nghiên cứu Trí tuệ Nhân tạo Facebook và các học giả từ Đại học Modena và Reggio Emilia ở Ý.

Cả hai đều lưu trữ các tệp một cách hiệu quả dưới dạng băm kỹ thuật số ngắn – số nhận dạng duy nhất – giúp xác định xem hai tệp giống nhau hay giống nhau, ngay cả khi không có hình ảnh hoặc video gốc. Facebook chỉ ra rằng những băm này có thể dễ dàng chia sẻ giữa các công ty và tổ chức phi lợi nhuận, cũng như với các đối tác trong ngành, thông qua Diễn đàn Internet toàn cầu để chống khủng bố (GIFCT), vì vậy họ cũng có thể gỡ bỏ nội dung tương tự nếu nó tải lên dịch vụ của họ.

“Chúng tôi đã thiết kế những công nghệ này dựa trên kinh nghiệm phát hiện sự lạm dụng trên hàng tỷ bài đăng trên Facebook,” Davis và Rosen cho biết. “Chúng tôi hy vọng rằng bằng cách đóng góp trở lại cho cộng đồng, chúng tôi sẽ cho phép nhiều công ty giữ an toàn cho dịch vụ của họ và trao quyền cho các tổ chức phi lợi nhuận hoạt động trong không gian.”

Những đóng góp của Facebook trên PDQ và TMK + PDQ tiếp nối với PhotoDNA đã nói ở trên 10 năm trước, một nỗ lực để chống lại nạn bóc lột trẻ em. Gần đây, Google đã ra mắt API an toàn nội dung, một nền tảng AI được thiết kế để xác định tài liệu lạm dụng tình dục trẻ em trực tuyến và giảm người đánh giá con người tiếp xúc với nội dung.

Giám đốc điều hành Facebook Mark Zuckerberg thường khẳng định rằng AI sẽ cắt giảm đáng kể số lượng lạm dụng gây ra bởi hàng triệu người dùng Facebook không có ý nghĩa. Một ví dụ cụ thể về điều này trong sản xuất là một thuật toán láng giềng gần nhất của YouTube, nhanh hơn 8,5 lần trong việc phát hiện các bức ảnh bất hợp pháp so với phiên bản trước, bổ sung cho một hệ thống tìm hiểu một biểu đồ sâu nhúng tất cả các nút trong Biểu đồ của Facebook – bộ sưu tập dữ liệu, câu chuyện, quảng cáo và hình ảnh trên mạng – để tìm các tài khoản và trang lạm dụng có thể liên quan đến nhau.

Trong Báo cáo thực thi tiêu chuẩn cộng đồng xuất bản vào tháng 5, công ty đã báo cáo rằng AI và máy học đã giúp cắt giảm các bài viết lạm dụng ở sáu trong số chín loại nội dung. Nói một cách cụ thể, Facebook cho biết họ đã chủ động phát hiện 96,8% nội dung mà họ đã hành động trước khi con người phát hiện ra nó (so với 96,2% vào quý 4 năm 2018) và hiện tại, họ cho biết đã xác định được 65% trong số hơn bốn triệu người ghét bài đăng bài phát biểu đã bị xóa khỏi Facebook mỗi quý, tăng từ 24% chỉ hơn một năm trước và 59% trong quý 4 năm 2018.

Những người và những cải tiến thuật toán khác đã góp phần làm giảm tổng lượng nội dung bất hợp pháp được xem trên Facebook, theo công ty. Nó ước tính trong báo cáo rằng cứ 10.000 lần mọi người xem nội dung trên mạng của mình thì chỉ có 11 đến 14 lượt xem có ảnh khoả thân và hoạt động tình dục của người lớn, trong khi 25 lượt có chứa bạo lực. Liên quan đến khủng bố, khỏa thân trẻ em và khai thác tình dục, những con số đó thấp hơn nhiều – Facebook cho biết, trong Q1 2019, cứ 10.000 lần mọi người xem nội dung trên mạng xã hội thì có ít hơn ba lượt xem nội dung vi phạm từng chính sách đó.

Tags
Show More

Related Articles

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

Back to top button
Close
Close

Adblock Detected

Please consider supporting us by disabling your ad blocker
Chuyển đến thanh công cụ