Tin tức và phân tích của tất cả các thiết bị di động

Facebook cố gắng phát triển AI mới để phát hiện lời nói ghét trong memes

Đây không phải là lần đầu tiên chúng tôi nghe nói về sự xâm nhập Facebook trong thế giới công nghệ lớn. Thông báo mới nhất của nó đã đi đôi với việc công bố một nghiên cứu được thực hiện trên các chương trình trí tuệ nhân tạo khác nhau và các chương trình học tập sâu.

Trong đó, họ đã cho thấy sự so sánh giữa khả năng của con người và các chương trình khác nhau này để phát hiện các thông điệp thù địch. Tương tự, họ đã xây dựng một cơ sở dữ liệu không chỉ thực hiện các bài kiểm tra mà còn đào tạo các chương trình trong tương lai để làm cho chúng hiệu quả hơn.

Ngoài việc xuất bản điều tra, các tác giả Douwe Kiela, Hamed Firooz, Aravind Mohan, Vedanuj Goswami, Amanpreet Singh, Pratik Ringshia và Davide Testuggine cũng phát hành bình luận nơi họ cung cấp một lời giải thích rộng hơn về nghiên cứu của họ và ý nghĩa của nó. Một cái mà lần lượt được bổ sung bởi cái khác blog nơi các nhà nghiên cứu khác nhận xét về nó.

Nghiên cứu Facebook

Để bắt đầu nghiên cứu, các nhà nghiên cứu đã có hàng triệu bức ảnh và meme do họ cung cấp Facebook đã bị xóa khỏi nền tảng của họ là không phù hợp. Sau khi loại bỏ chúng với nội dung khiêu dâm rõ ràng khỏi danh sách, con số đã giảm xuống chỉ còn hơn 120.000 hình ảnh.

Sau đó, họ đã trải qua một quá trình lựa chọn trong đó tính cụ thể và rõ ràng của những điều này là những điểm cần xem xét để bao gồm hoặc không có trong cơ sở dữ liệu. Cuối cùng, danh sách các meme với các ví dụ về thông điệp ghét bao gồm 10.000 hình ảnh.

Gia công đa phương thức

Nghiên cứu so sánh của ông đã đo lường năng lực học máy và học sâu từ hai quan điểm của ông: mô hình đơn phương và mô hình đa phương thức hiện đại nhất. Các cựu xem xét cho phân tích của họ một yếu tố duy nhất của nội dung họ phân tích.

Mặt khác, các mô hình đa phương thức có thể giao nhau giữa hai yếu tố khác nhau có cùng nội dung. Ví dụ, các văn bản và hình ảnh ở trên có thể được chụp riêng lẻ. Một cách riêng biệt, họ sẽ được coi là vô hại, nhưng cùng nhau thông điệp thay đổi và "nó bị tổn thương."

đào tạo

Các nhà nghiên cứu đã cung cấp cho các chương trình những hình ảnh và văn bản vô hại mà nội dung kết hợp của chúng khiến chúng trở nên đáng ghét và ngược lại – đó là, các yếu tố có thể bị coi là đáng ghét nói chung trở nên tích cực. Bằng cách này, họ hy vọng có thể đo lường mức độ hiệu quả của một chương trình bằng cách xác định mức độ phù hợp hoặc không phù hợp của nội dung khi các thông điệp xung đột được trình bày.

Với dữ liệu thu được, họ cũng quản lý để xây dựng cơ sở dữ liệu với 10.000 hình ảnh có thể được sử dụng để đào tạo các chương trình mới và cải thiện khả năng xử lý của họ.

Tại sao các tác giả không hiển thị các memes được sử dụng?

Những meme như vậy đã sử dụng các tài liệu tham khảo xúc phạm đến các chủ đề như dân tộc, tôn giáo hoặc giới tính của một người như một dấu hiệu của sự chế giễu. Để ngăn nội dung này lan rộng hơn nữa, các nhà nghiên cứu đã tạo ra các nội dung tương đương như những hình ảnh ở trên nơi sử dụng hình ảnh động vật để thể hiện bản chất của thông điệp thù hận mà không đề cập trực tiếp đến các meme gốc.

Vẫn, Facebook Nó vẫn có cơ sở dữ liệu gốc và nó có sẵn trên GitHub cho những ai muốn tải nó. Nhưng điều kiện đã rõ ràng, nó chỉ nên được sử dụng như một cách để đào tạo các AI khác và việc tái tạo nội dung của nó không nên được thúc đẩy.

Vẫn còn nhiều chỗ để cải thiện

Các tác giả tin rằng nghiên cứu của họ, đã chỉ ra rằng tâm trí con người phát hiện ra "sự xấu xa" của các thông điệp với 84,7% bảo mật so với mức trung bình 64,73% trên các mô hình AI hàng đầu không phải là điểm đáng nản lòng.

Trong thực tế, nó chỉ đơn giản chỉ ra rằng vẫn còn nhiều chỗ để cải thiện. Cuối cùng họ đã xác định rằng các mô hình đa phương thức có hiệu quả ít nhất 10% trong việc phát hiện các thông điệp "xấu" trong memes so với các mô hình không chính thống.

Vì vậy, bước tiếp theo là bắt đầu làm việc với những điều này để cải thiện hơn nữa năng lực của họ. Họ cũng hy vọng sẽ sớm thay đổi hệ thống phát hiện của riêng họ. Facebook mà hiện nay là không chính thống. Theo cách này, nền tảng có thể thấy một lợi thế trong thời gian ngắn của nghiên cứu. Lợi ích lâu dài sẽ được nhìn thấy khi có nhiều nghiên cứu xuất hiện thu hẹp khoảng cách giữa khả năng của con người và AI.

Tài liệu tham khảo:

Thử thách đáng ghét Memes: Khám phá lời nói ghét trong các meme đa phương thức: arXiv: 2005.04790