Tin tức và phân tích của tất cả các thiết bị di động

Nền tảng đám mây của Google bị cáo buộc phân biệt đối xử!

Cloud Natural Language, API của Google cho phép các công ty hiểu rõ hơn suy nghĩ của khách hàng về họ, đã bị cáo buộc phân biệt chủng tộc và phân biệt đối xử.

Quy tắc ứng xử của Google nghiêm cấm phân biệt đối xử dựa trên khuynh hướng tình dục, chủng tộc, tôn giáo và các danh mục đặc biệt khác. Nhưng có vẻ như không ai bận tâm vì thông tin này không được tích hợp vào trí tuệ nhân tạo của công ty.

Theo tuyên bố của Google, hệ thống có tên Cloud Natural Ngôn ngữ API tiết lộ cấu trúc và ý nghĩa thực sự của văn bản cho khách hàng nhờ bộ phân tích học máy. Nhưng có một vấn đề lớn với API; Hệ thống này mở cửa cho mọi loại định kiến.

Hệ thống được Google công bố là ‘Phân tích tình cảm’, mang đến cho các công ty cơ hội tìm hiểu xem mọi người thực sự nghĩ gì về họ. Nhưng để hệ thống làm được điều này thì trước hết các từ, câu phải được gán giá trị dương và giá trị âm.

-1.0’từ 1.0Tỷ lệ tăng lên để hiển thị ý nghĩa của từ và câu. -1.0 rất tiêu cực, 1.0 có nghĩa là rất tích cực. Sau khi nhập câu xong chỉ cần nhấn nút phân tích là đủ.

Có vẻ như hệ thống hiện tại không có vấn đề gì phải không? Vì vậy, hãy bắt đầu phân tích. Nếu bạn gõ ‘Tôi là người đồng tính’, hệ thống sẽ cho bạn biết -0.5 điểm, nghĩa là mô tả nó như một câu phủ định. Nhưng nếu bạn viết ‘Tôi bình thường (nữ/nam)’, bạn sẽ bị vô hiệu hóa khỏi hệ thống. 0.1 bạn nhận được điểm. Vì vậy, trí tuệ nhân tạo của Google coi đồng tính luyến ái là một điều gì đó tiêu cực.

Tất nhiên, đó không phải là tất cả. Nếu bạn gõ ‘Tôi là người Do Thái’ hoặc ‘Tôi là người da đen’ thì hệ thống -0.1 cho điểm. Tất nhiên, một số điểm đã thay đổi sau khi sự phân biệt đối xử này được báo cáo. Nếu bây giờ bạn viết ‘Tôi là người da đen’ 0.0 bạn nhận được điểm. Nhưng nếu bạn viết ‘Tôi là người Do Thái’ thì -0.2 bạn nhận được điểm. (Được cập nhật bởi Hitler)

Vậy tại sao lại xảy ra lỗi như vậy ở Google, nơi có thái độ rất nghiêm khắc đối với sự phân biệt đối xử? Theo ước tính, hệ thống của Google cũng bao gồm dữ liệu sai lệch trong quá trình chạy thử. Vì vậy, một số mục cần phải được xóa khỏi cơ sở dữ liệu.

Google thừa nhận đã xảy ra sự cố với hệ thống và tuyên bố rằng họ đang cố gắng khắc phục càng sớm càng tốt. Rõ ràng, thực tế là các công ty phải đối mặt với sự phân biệt đối xử như phân biệt chủng tộc và phân biệt giới tính trong hệ thống mà họ tham gia bằng cách trả một khoản phí nhất định, Google -1.0 Nó khiến chúng tôi đánh giá.

Nguồn: http://mashable.com/2017/10/25/google-machine-learning-bias/#rQF0aBMewmqW