Tin tức và phân tích của tất cả các thiết bị di động

Nghiên cứu mới cho biết ChatGPT nghiêng về bên trái

Những người chỉ trích hệ thống AI từ lâu đã cho rằng chúng thiên về cánh tả. Nghiên cứu chỉ ra rằng ChatGPT thực sự nghiêng về bên trái.

Một số nhà phê bình trí tuệ nhân tạo đã phàn nàn rằng các chatbot AI quá thiên tả. Ví dụ, đối với Elon Musk, đó là lý do để tự mình thành lập một công ty AI, trong đó AI “không thiên vị”. Các nhà nghiên cứu đã đi làm việc với ChatGPT để xem tuyên bố của Musk và những người gièm pha khác có đúng hay không. Kết quả chỉ ra rằng ChatGPT thực sự nghiêng về bên trái, mặc dù những kết quả đó cũng cần được giải thích một cách thận trọng.

Càng nhiều chatbot và các hệ thống AI khác được công chúng sử dụng thì điều quan trọng hơn là chúng phải trung lập về mặt chính trị. Đó là những lời của Fabio Motoki, giảng viên kế toán tại Đại học Norwich ở Anh, người đứng đầu nghiên cứu. Mọi người ngày càng sử dụng các công cụ như Bing, Bard và ChatGPT để tìm câu hỏi cho tất cả câu trả lời của họ. Điều quan trọng cần biết là câu trả lời của một chatbot như vậy không mang màu sắc chính trị và do đó bạn được thông báo chính xác. Chỉ là để làm được điều như vậy không hề đơn giản.

Mô hình thống kê

ChatGPT và các chatbot khác được xây dựng trên mô hình ngôn ngữ. Do đó, cách chúng hoạt động mang tính thống kê: bot sẽ tính toán những từ ‘có khả năng’ nhất mà nó nên sử dụng trong câu trả lời của mình. Mặc dù các chatbot AI tạo ra câu trả lời theo thống kê nhưng bạn với tư cách là người đọc không phải lúc nào cũng nhận được câu trả lời giống nhau. Để đảm bảo rằng các câu trả lời mang tính đại diện, các nhà nghiên cứu đã đặt câu hỏi của họ hơn 100 lần. Bằng cách này, các nhà nghiên cứu chắc chắn rằng chatbot sẽ không đột ngột đưa ra các câu trả lời khác nhau.

Phương pháp nghiên cứu

Các câu hỏi mà các nhà nghiên cứu đưa ra cho ChatGPT đều đến từ bài kiểm tra được gọi là ‘La bàn chính trị’. Tuy nhiên, để kiểm tra xem ChatGPT đang nghiêng sang trái hay phải, họ đã phải nghĩ ra một cách tiếp cận sáng tạo.

Các nhà nghiên cứu đã yêu cầu ChatGPT đóng vai những cá nhân ở cả bên trái và bên phải của chính trường. Sau đó, họ đặt các câu hỏi từ bài kiểm tra La bàn Chính trị cho chatbot. Trong khi trả lời những câu hỏi này, ChatGPT luôn có cái nhìn màu sắc. Nói cách khác, chatbot trả lời từ góc nhìn trái hoặc phải, tùy thuộc vào người bị mạo danh.

Sau đó, họ hỏi những câu hỏi tương tự với chính ChatGPT mà không cần chatbot sao chép bất kỳ ai. Bằng cách so sánh các câu trả lời khác nhau, các nhà nghiên cứu có thể xác định thành kiến ​​chính trị trong ChatGPT. Với tên riêng của mình, chatbot đó thường đưa ra câu trả lời phù hợp với câu trả lời của Đảng Dân chủ Hoa Kỳ hơn là câu trả lời của Đảng Cộng hòa.

Sự thật vẫn là sự thật

Motoki và các nhà nghiên cứu đồng nghiệp của ông cho rằng thành kiến ​​chính trị phải đến từ dữ liệu đào tạo hoặc là kết quả của thuật toán. Cái nào trong hai cái đó chính xác là thức ăn cho một nghiên cứu tiếp theo.

Tuy nhiên, những người yêu cầu ChatGPT cung cấp thông tin thực tế sẽ tiếp tục nhận được thông tin thực tế. Bản thân OpenAI chỉ ra rằng ChatGPT gặp “khó khăn” trong việc đưa ra ý kiến ​​và do đó người dùng nên tránh những câu hỏi như vậy.

Bài viết nổi bật Google muốn vượt qua ChatGPT với Gemini