Tin tức và phân tích của tất cả các thiết bị di động

Hệ thống tự động phát hiện tin giả từ MIT

Ngày nay, có thể tiếp cận nhiều tin tức chỉ bằng một cú nhấp chuột. Câu hỏi thực sự là cái nào là tin tức thực sự. Các nhà nghiên cứu từ MIT mong muốn cải tiến hơn nữa các hệ thống được sử dụng để phát hiện xem tin tức có phải là giả hay không.

Những kẻ ác ý đang sử dụng những phương pháp ngày càng tinh vi để bịa đặt những tin tức giả mạo và đánh lừa người đọc nhằm mục đích của chúng. Đang cố gắng mạo danh các tác giả con người của OpenAI GPT-2 Các hệ thống tạo văn bản dựa trên AI (trí tuệ nhân tạo), bao gồm cả mô hình, đóng một vai trò quan trọng trong vấn đề này. Các nhà nghiên cứu tiếp tục phát triển các công cụ để phát hiện văn bản được tạo ra một cách nhân tạo. Tuy nhiên, nghiên cứu mới của MIT cho thấy có thể có một lỗ hổng cơ bản trong hoạt động của các máy dò này.

Theo truyền thống, những công cụ này giám sát phong cách viết của văn bản để xác định xem nó được viết bởi con người hay robot. Họ cho rằng văn bản do con người viết luôn là chính hãng và văn bản do bot tạo ra luôn là giả mạo. Ngay cả khi một máy tạo ra văn bản thực cho một số mục đích sử dụng, thuật toán này vẫn coi đó là văn bản giả. Ngoài ra, nghiên cứu nhấn mạnh rằng kẻ tấn công có thể sử dụng các công cụ để thao túng văn bản do con người tạo ra. Các nhà nghiên cứu sử dụng GPT-2 Họ đã đào tạo trí tuệ nhân tạo để sử dụng mô hình.

Thay vì xác định văn bản được tạo ra bởi máy móc hay con người, người ta nên kiểm tra xem văn bản đó có xác thực hay không:

Tal Schuster, sinh viên MIT và là tác giả chính của nghiên cứu, cho biết điều quan trọng là phát hiện sự giả mạo thực sự của một văn bản hơn là xác định xem nó được tạo ra bởi máy móc hay con người.

Theo giáo sư Regina Barzilay của MIT, nghiên cứu này nhấn mạnh rằng các công cụ phân loại tin tức hiện tại là không đáng tin cậy. Để khắc phục những sai sót này, cùng một nhóm nhà nghiên cứu đã sử dụng Khai thác và xác minh sự thật (FEVER), cơ sở dữ liệu ‘kiểm tra thực tế’ lớn nhất thế giới, để phát triển các hệ thống phát hiện mới.

Nhóm nghiên cứu nhận thấy rằng mô hình được phát triển thông qua FEVER dễ xảy ra lỗi do tính sai lệch của tập dữ liệu:

Schuster cho rằng những câu nói tiêu cực thường được mô hình tính toán không chính xác. Hầu hết các biểu thức do con người tạo ra đều xuất hiện dưới dạng ‘không’ và ‘chưa’ và hầu hết là các biểu thức không chính xác. Tuy nhiên, khi nhóm tạo ra dữ liệu bằng cách đập vỡ SỐT, độ chính xác của mô hình phát hiện đã giảm từ 86% xuống 58%. Mô hình này được cho là đã xem xét ngôn ngữ của tuyên bố mà không có bất kỳ bằng chứng bên ngoài nào. Vì vậy, có khả năng người phát hiện có thể coi một sự kiện trong tương lai là sai vì anh ta không sử dụng các nguồn bên ngoài như một phần của quy trình xác minh.

Bằng cách kết hợp kiểm soát tình huống với các cơ chế phòng thủ hiện có, nhóm nghiên cứu hy vọng sẽ cải thiện mô hình phát hiện các loại thông tin sai lệch mới.

Nguồn: https://thenextweb.com/artificial-intelligence/2019/10/15/mit-researchers-unveil-new-system-to-improve-fake-news-Detection/