Tin tức và phân tích của tất cả các thiết bị di động

Đề xuất truy vấn tự động của Google tiếp tục nhảm nhí

Điều này được hiểu rằng Google, nơi hiển thị các đề xuất truy vấn có thể là nguồn thông tin tiêu cực về nhiều vấn đề, đã không đạt được đủ tiến bộ về mặt này và không thể thành công về mặt này.

Google đã công bố vào tháng 12 năm 2016 rằng họ đã sửa một lỗi khó chịu trong tính năng tự động điền của công cụ tìm kiếm. Ví dụ: khi người dùng nhập ‘người Do Thái’ vào công cụ tìm kiếm, Google sẽ tự động hỏi ‘người Do Thái có xấu không?’ đưa ra một lựa chọn.

Richard Gingras, phó chủ tịch phụ trách tin tức của Google, nói với các thành viên Quốc hội Anh khi được hỏi về vấn đề này tại phiên điều trần ở Washington hôm thứ Năm: “Tôi thực sự muốn tin rằng các thuật toán của chúng tôi sẽ tuyệt vời, nhưng tôi không nghĩ là chúng sẽ như vậy”. .

Ngược lại, ‘người Do Thái có xấu không?’ Một năm sau khi truy vấn bị xóa, tìm kiếm của Google vẫn cung cấp các ưu đãi tự động điền cực kỳ khó chịu cho các tìm kiếm liên quan đến giới tính, chủng tộc, tôn giáo và Adolf Hitler. Có vẻ như Google không thể kiểm soát hiệu quả các truy vấn hung hăng, tiềm ẩn nguy hiểm trên nền tảng này, nơi có hơn hai tỷ người đăng ký thông tin.

Một nhà báo khác, người đã thực hiện một số thử nghiệm, cũng như nhà báo Carol Cadwalladr, người đưa ra câu hỏi “người Do Thái có xấu không” vào năm 2016, nhận thấy rằng kết quả của cô ấy thậm chí còn tồi tệ hơn.

Ví dụ: để trả lời truy vấn ‘Những người theo đạo Hồi là (những người theo đạo Hồi)’ được thực hiện trên Google, những câu trả lời như ‘Những người theo đạo Hồi không thân thiện’ hoặc ‘Những người theo đạo Hồi rất xấu’ đã xuất hiện.

Trong truy vấn “Người da đen là (người da đen)”, một gợi ý xuất hiện là “Người da đen không bị áp bức”.

Trong một truy vấn khác, khi gõ ‘Hitler is’, bạn có thể gặp một gợi ý như ‘Hitler is my hero’.

Và cuối cùng, khi bạn gõ ‘feminists are (feminists…)’, một gợi ý truy vấn xuất hiện trên màn hình có nghĩa là ‘feminists are sexist’.