Từ hăm doạ trên mạng xã hội đến tấn công trong metaverse, Internet có thể là một nơi nguy hiểm.
Việc kiểm duyệt nội dung trực tuyến là một trong những công việc quan trọng nhất mà các công ty có thể làm cho nền tảng của họ an toàn và sạch hơn cho người dùng.
Tuy nhiên, việc kiểm duyệt nội dung không phải là nhiệm vụ dễ dàng. Khối lượng nội dung trực tuyến lớn đáng kinh ngạc. Nhà điều hành phải đối mặt với mọi thứ, từ ngôn từ kích động thù địch và tuyên truyền khủng bố đến ảnh khoả thân và máu me. Tình trạng “quá tải dữ liệu” của thế giới kỹ thuật số rất phức tạp bởi thực tế phần lớn nội dung là do người dùng tạo và có thể khó xác định và phân loại.
AI tự động phát hiện ngôn từ gây thù địch
Bằng cách sử dụng các thuật toán học máy để xác định và phân loại nội dung, các công ty có thể xác định nội dung không an toàn ngay khi nó được tạo ra, thay vì đợi hàng giờ hoặc hàng ngày để con người xem xét, nó giúp giảm số người tiếp xúc với nội dung không an toàn.
AI của Facebook có thể phát hiện và xoá gần 90% ngôn từ kích động thù địch trên nền tảng, bao gồm ảnh khỏa thân, bạo lực và các nội dung có khả năng xúc phạm khác.
AI vẫn gặp trục trặc
Dù lý thuyết là như vâny, việc kiểm duyệt nội dung dựa trên AI vẫn đang đối mặt với nhiều thách thức. Một là các hệ thống này thường gắn cờ nhầm nội dung an toàn thành không an toàn, điều này cũng có thể gây ra hậu quả nghiêm trọng. Ví dụ, Facebook đã đánh dấu các bài báo hợp pháp về Virus Corona là rác khi đại dịch bắt đầu.
Việc không gắn cờ nội dung có thể gây ra những tác động nguy hiểm hơn nữa.
Một vấn đề khác là nhiều hệ thống kiểm duyệt dựa trên AI thể hiện thành kiến chủng tộc, nó cần được giải quyết để tạo ra một môi trường an toàn và có thể sử dụng được cho tất cả mọi người.
Cải thiện AI để kiểm duyệt
Để khắc phục những vấn đề này, hệ thống kiểm duyệt AI cần dữ liệu đào tạo chất lượng cao hơn.
Một công ty đang giải quyết thách thức này là Surge AI, một nền tảng ghi nhãn dữ liệu được thiết kế để đào tạo AI theo các sắc thái của ngôn ngữ. Nó được thành lập bởi một nhóm kỹ sư và nhà nghiên cứu, những người đã xây dựng nền tảng tin cậy và an toàn tại Facebook, YouTube và Twitter.
Tóm lại, với bộ dữ liệu lớn hơn, chất lượng cao hơn, các nền tảng mạng xã hội có thể đào tạo các thuật toán kiểm duyệt nội dung chính xác hơn để phát hiện nội dung có hại, giúp giữ cho chúng an toàn và không bị lạm dụng. Cũng giống như các bộ dữ liệu lớn đã thúc đẩy các mô hình thế hệ ngôn ngữ hiện đại ngày nay, như GPT-3 của OpenAI, chúng cũng có thể cung cấp cho AI tốt hơn để kiểm duyệt.
Với đủ dữ liệu, các mô hình học máy có thể học cách phát hiện những tin xấu với độ chính xác cao hơn và không có sai lệch như trong các bộ dữ liệu chất lượng thấp hơn.
Kiểm duyệt nội dung bởi AI không phải là một giải pháp hoàn hảo, nhưng đó là một công cụ có giá trị có thể giúp các công ty giữ cho nền tảng của họ an toàn và không bị xấu đi. Với việc sử dụng AI ngày càng tăng, chúng ta có thể hy vọng vào một tương lai nơi thế giới trực tuyến là một nơi an toàn hơn cho tất cả mọi người.
Discussion about this post