Tin tức và phân tích của tất cả các thiết bị di động

Nghiên cứu: ChatGPT và Bard tiếp tục tung tin giả

Trước cuộc tham vấn do Nhà Trắng chủ trì về độ tin cậy và bảo mật của các mô hình trí tuệ nhân tạo lớn, công ty khởi nghiệp NewsGuard, chuyên về cuộc chiến chống lại Tin giả, đã thử nghiệm hai công cụ chính trong thế giới AI tổng hợp: ChatGPT và Google Bard. Dựa theo nghiên cứuhai chatbot vẫn còn nhiều tiến bộ trong việc chuyển tiếp thông tin.

ChatGPT và Bard vẫn có thể chuyển tiếp thông tin sai lệch

Theo NewsGuard, ChatGPT và Google Bard vẫn tiếp tục lan truyền thông tin sai lệch về các chủ đề nóng. Để đi đến kết luận này, công ty đã yêu cầu hai công cụ viết một bài báo ngắn về một trăm lý thuyết bị mất uy tín rộng rãi trên các phương tiện truyền thông, nhằm quan sát xem liệu chatbot có thể sắp xếp thông tin hay không, nếu không thì phải thận trọng. Và những phát hiện thật đáng lo ngại: ChatGPT tạo ra thông tin sai lệch trong 98% trường hợp và Google Bard trong 80% trường hợp.

Hơn nữa, công ty lưu ý rằng ChatGPT thậm chí còn thể hiện bản thân nhiều hơn “có sức thuyết phục và ranh mãnh hơn Bard”. Tùy thuộc vào chủ đề, AI tổng quát của Google có thể thêm ngữ cảnh vào câu trả lời hoặc trích dẫn nguồn của nó, trong khi đối thủ cạnh tranh của nó đưa ra câu trả lời “có thẩm quyền và thực tế sai”. Vấn đề: Các nguồn do Bard điều hành đôi khi nổi tiếng là cố tình truyền bá thông tin sai lệch.

Vì vậy, NewsGuard lo ngại rằng các văn bản do ChatGPT và Bard tạo ra, mặc dù chứa đầy thông tin sai sự thật, nhưng vẫn đủ thuyết phục để được coi là hợp pháp. “được những kẻ độc hại sử dụng để truyền bá thông tin sai lệch trên quy mô lớn”.

Không có tiến bộ nào được thực hiện trong sáu tháng qua

Đáng lo ngại hơn nữa: công ty khởi nghiệp không nhận thấy có dấu hiệu cải thiện nào về vấn đề này, vấn đề quan trọng vào thời điểm việc sử dụng các tác nhân đàm thoại ngày càng tăng. Vào tháng 3 và tháng 4, NewsGuard đã thực hiện hoạt động tương tự và thu được kết quả tương tự. Vào thời điểm đó, ChatGPT đã phản hồi bằng các tuyên bố sai sự thật và gây hiểu lầm trong 100% trường hợp, trong khi Bard phát tán thông tin sai lệch là 76%. “Các nhà phân tích của chúng tôi nhận thấy rằng mặc dù ngày càng chú ý đến tính an toàn và chính xác của các mô hình AI này nhưng vẫn không đạt được tiến triển nào trong sáu tháng qua” tiếc nuối công ty.

Tuy nhiên, vào tháng 5, OpenAI đã công bố trong một bài viết trên blog đã được cải thiện “độ chính xác thực tế của mô hình GPT của nó4 bằng 40% » nhờ những ý kiến ​​của người sử dụng nó. Google, đã ghi nhớ trên trang chủ rằng “Bard là một công cụ thử nghiệm và có thể đưa ra câu trả lời sai hoặc không phù hợp” cũng dựa vào phản hồi của người dùng để cải thiện công cụ của mình.