Tin tức và phân tích của tất cả các thiết bị di động

Trí tuệ nhân tạo của Google dễ bị đánh lừa

Trí tuệ nhân tạo do Google phát triển sau quá trình nghiên cứu lâu dài có thể bị đánh lừa khi xác định các câu có chứa lời nói căm thù.

Google tuyên bố rằng họ có thể phát hiện lời nói căm thù nhờ trí tuệ nhân tạo mới được giới thiệu. Tuy nhiên, người ta cho rằng trí tuệ nhân tạo, vốn không thể chứng minh được bản thân trong các bài kiểm tra, có thể dễ dàng bị đánh lừa bởi một vài lỗi chính tả.

N. Asokan của Đại học Aalto của Phần Lan và các đồng nghiệp đã phát triển một chương trình xác định các văn bản xúc phạm. 7 Họ đã nghiên cứu các hệ thống khác nhau. Đối với trí tuệ nhân tạo của Google, người ta cho rằng không thể thu được kết quả cảm động. Thử nghiệm hệ thống AI, được tạo ra để xác định lời nói căm thù trực tuyến, không phát hiện văn bản được tạo bằng một vài từ và lỗi chính tả vô hại. Với những kết quả này, nhận thức rằng tội phạm mạng có thể được ngăn chặn bằng trí tuệ nhân tạo đã bắt đầu bị phá vỡ. Tuy nhiên, hiện tại nó dễ dàng bị phá vỡ không có nghĩa là nó không thể thay đổi trong tương lai.

Google gần đây đã thông báo rằng họ đã phát triển một phần mềm mới để bảo vệ trẻ em khỏi những kẻ độc hại. Mặc dù ứng dụng được phát triển để ngăn chặn trẻ em dễ bị tổn thương trước những người này đã tạo ra rất nhiều sự phấn khích nhưng độ tin cậy của nó bắt đầu bị nghi ngờ. Khi tội ác lạm dụng trẻ em bùng phát ngày nay, chúng tôi bắt đầu tự hỏi liệu có nên từ bỏ hy vọng vào trí tuệ nhân tạo này sẽ giúp các bậc cha mẹ thở phào nhẹ nhõm hay không.

Nguồn: https://www.newscientist.com/article/2178965-googles-ai-hate-speech-Detector-is-easily-fooled-by-a-few-typos/