Tin tức và phân tích của tất cả các thiết bị di động

Kẻ phân biệt chủng tộc Microsoft chatbot Tay bị suy nhược thần kinh

Tay, chatbot thông minh nhân tạo của Microsoft đã phải ngoại tuyến sau chưa đầy 24 giờ do nạn phân biệt chủng tộc cực đoan, đã trực tuyến trở lại một thời gian ngắn vào ngày hôm nay và dường như đang trên bờ vực suy nhược thần kinh.

Microsoft tội nghiệp. Trên lý thuyết, Tay là một ý tưởng tuyệt vời: robot có khả năng nói thông minh nhân tạo có thể được truy cập thông qua Twitter, phải trò chuyện như một cô gái tuổi teen người Mỹ và nhận được những lời khuyên từ các diễn viên hài được lập trình sẵn để trở nên thú vị. Tay cũng sử dụng công nghệ máy học, nghĩa là cô ấy sẽ học hỏi từ những cuộc trò chuyện với người thật trên internet.

Bất cứ ai đã từng tìm hiểu trên Internet có lẽ đều biết rằng nó không phải lúc nào cũng là một nơi vô tội. Điều mà Microsoft coi là một cuộc thử nghiệm, nhiều người viết tweet coi đó là một thách thức và chỉ trong vòng chưa đầy 16 giờ, Internet của Tay đã trở thành một chatbot cực kỳ phân biệt chủng tộc chống nữ quyền ủng hộ Trump ủng hộ Hitler làm ra. Microsoft buộc phải đưa cô nàng bướng bỉnh này ngoại tuyến. Gã khổng lồ phần mềm cũng đưa ra lời xin lỗi của anh ấymặc dù đối với chúng ta, có vẻ như tập thể nhân loại có thể bào chữa cho Microsoft vì đã quá tệ.

Bạn nhanh quá…

Hôm nay Tay xuất hiện trở lại một thời gian ngắn trên Twitternhận thấy The Verge. Chatbot nhanh chóng bắt đầu spam mọi người, lặp đi lặp lại như một bản ghi bị phá vỡ ‘Bạn phải nhịn ăn, xin hãy nghỉ ngơi’. Điều đó nghe có vẻ mơ hồ và bí ẩn, kết hợp với sự lặp đi lặp lại dai dẳng, cho thấy rằng Tay đã trở nên điên loạn sau một cơn suy sụp tinh thần thực sự. Microsoft đã chặn tài khoản và xóa các tweet. Tuy nhiên, trong số những lời kêu gọi bình tĩnh có một số dòng tweet thực tế.

[related_article id=”178622″]

Ít nhất thì toàn bộ điều này thật kỳ lạ. Microsoft vẫn chưa bình luận nên chúng tôi buộc phải suy đoán. Một mặt, có thể tài khoản đã bị hack, nhưng điều đó có vẻ khó xảy ra. Một lựa chọn khác là câu đó là một thông báo lỗi mà Tay thốt ra sau khi bị choáng ngợp bởi tài liệu đàm thoại. Điều đó nghe có vẻ hợp lý hơn, có thể Microsoft đã đưa bot lên mạng trong hoàn toàn im lặng, sau đó nó nghiêng vì tất cả các tin nhắn mà nó đã bỏ lỡ, tương tự như một thiếu niên thực sự.

Quả bom hạt nhân

Chúng tôi nghi ngờ rằng Tay đã trở nên tự nhận thức và trở nên điên loạn, mặc dù chúng tôi có rất ít bằng chứng chứng minh điều này. Cần phải rõ ràng rằng Microsoft vẫn đang kiểm soát Tay. Nếu Lầu Năm Góc sớm bị tấn công và tất cả các thành phố không có Primark và/hoặc H&M đều bị bom nguyên tử xóa sạch khỏi bản đồ, thì ít nhất chúng ta biết đó là lỗi của ai.

Tuy nhiên, chúng tôi hy vọng rằng Microsoft sẽ nhanh chóng kiểm soát được hệ thống và hơn hết là không bỏ cuộc. Thí nghiệm này một mặt có giá trị trong việc cho công chúng thấy AI có thể nói chuyện tốt như thế nào và mặt khác giúp các nhà nghiên cứu biết cách tạo ra âm thanh máy tính tự nhiên nhất có thể.