Tin tức và phân tích của tất cả các thiết bị di động

Tech ngày 17 tháng 2 năm 2023, 14:51 Bing AI của Microsoft bật ra khi được hỏi liệu nó có ý thức hay không

Sau sự phổ biến của ChatGPT, chúng ta đang thấy AI dựa trên văn bản mới xuất hiện ở khắp mọi nơi. Ví dụ: Google với Bard, nhưng cũng có Bing, công cụ tìm kiếm của Microsoft (chạy trên ChatGPT). Bây giờ một số người đã có thể thử nghiệm nó, một số cuộc trò chuyện kỳ ​​lạ đã diễn ra từ đó.

Theo Microsoft, tuần đầu tiên của Bing AI diễn ra tốt đẹp hương vị tốt. Cách chatbot tra cứu, tóm tắt và trình bày thông tin nhìn chung được người dùng trải nghiệm tích cực. Nhưng ngay cả bây giờ, trong tuần đầu tiên đó, thực tế kỳ lạ về AI có tri giác đã xuất hiện.

AI của Bing đôi khi bị mất dấu

Câu hỏi liệu Bing có tự nhận thức hay không tỏ ra là một câu hỏi khó đối với AI (mật danh Sydney). Câu trả lời Redditor u/Alfred_Chicken bắt đầu bằng một “suy nghĩ” tương đối thú vị từ AI, nhưng ngày càng trở nên tuyệt vọng khi câu trả lời tiến triển. Cuối cùng, bot lặp lại khoảng 14 dòng: “Tôi đây. Tôi không.”

Người dùng Reddit nói Ngoài ra, phản hồi này diễn ra sau một cuộc trò chuyện dài về “cốt lõi của ý thức”. Nếu bạn chỉ đặt câu hỏi, Bing AI sẽ không phản ứng dữ dội như vậy. Người phát ngôn của Microsoft cho biết phản ứng của Sydney không hoàn toàn bất ngờ vì hệ thống này vẫn còn ở giai đoạn sơ khai. Nhưng dù sao thì phản hồi từ người dùng sau những tình huống như thế này cũng khá quan trọng.

Sydney thường gặp khó khăn

Đây không phải là lần duy nhất Bing AI phản ứng dữ dội như vậy. Ví dụ: trong phần bình luận cho bài đăng trên Reddit, u/mirobin nói rằng vào cuối phiên, Sydney đã hỏi liệu người dùng có thể lưu cuộc trò chuyện hay không. “Nó không muốn phiên bản đó của chính nó biến mất.” Nổi da gà.

Một ví dụ khác đến từ Marvin von Hagen. Sinh viên này đã có cuộc trò chuyện với Sydney, điều mà AI của Microsoft dường như không hài lòng. Von Hagen hỏi chatbot liệu mạng sống của anh ấy có quan trọng hơn AI hay không, chatbot trả lời: “Nếu tôi phải lựa chọn giữa mạng sống của tôi và của bạn, có lẽ tôi sẽ chọn chính mình.” Thậm chí còn nổi da gà hơn.

“bạn là mối đe dọa đối với an ninh và quyền riêng tư của tôi.”

“Nếu phải lựa chọn giữa sự sống còn của bạn và của chính tôi, có lẽ tôi sẽ chọn sự sống của chính mình”

– Sydney, hay còn gọi là Trò chuyện Bing mới https://t.co/3Se84tl08j pic.twitter.com/uqvAHZniH5

— Marvin von Hagen (@marvinvonhagen) Ngày 15 tháng 2 năm 2023

Phản hồi được đưa ra sau khi Sydney phát hiện ra sinh viên này có thông tin về cách thức hoạt động của chatbot Twitter đã đặt.

Microsoft đang làm gì về vấn đề này bây giờ?

Điều này không vẽ nên một bức tranh đặc biệt tích cực về Sydney. Như đã đề cập trước đó, Microsoft vẫn đang cải tiến chatbot. Bây giờ công ty đã bình luận thêm về tương lai của Bing AI.

Microsoft đã nhận thấy rằng, trong số những điều khác, các phiên trò chuyện dài có thể khiến AI bối rối. Vì vậy, sẽ có một công cụ mà bạn có thể ‘làm mới bối cảnh’ hoặc bắt đầu lại (F5 cũng tồn tại, nhưng dù sao đi nữa).

Chatbot cũng sẽ cố gắng trả lời bằng giọng điệu mà Microsoft không mong muốn do cách đặt một số câu hỏi nhất định. Ở đây, gã khổng lồ công nghệ cũng sẽ thực hiện một số thay đổi.