Tin tức và phân tích của tất cả các thiết bị di động

Mô hình Stable Chat AI ổn định nổi bật tại DEFCON31

Mô hình Stable Chat AI ổn định sẽ được giới thiệu tại DEFCON31

Stability AI đã công bố mô hình ngôn ngữ lớn truy cập mở (LLM) mang tính cách mạng vào ngày 21 tháng 7 năm 2023. LLM này, được biết đến với khả năng suy luận phức tạp, hiểu biết về sự tinh tế của ngôn ngữ và khả năng giải quyết các vấn đề toán học phức tạp, hiện đã xuất hiện tại hội nghị uy tín. DEFCON31. Sự kiện đánh dấu một cột mốc quan trọng trong hành trình của mô hình Stable Chat AI ổn định.

Sự ra mắt của LLM không chỉ là một bước đột phá về công nghệ mà còn là lời mời các nhà nghiên cứu và phát triển an toàn AI đóng góp vào việc nâng cao tính an toàn và hiệu suất của công nghệ tiên tiến này. Trong nỗ lực tăng khả năng tiếp cận của mô hình, Stability AI đã công bố hai sáng kiến ​​​​chính: Trò chuyện ổn định và cuộc thi lập nhóm đỏ do Nhà Trắng tài trợ tại DEFCON 31.

Trò chuyện ổn định

trò chuyện ổn định, một trang web miễn phí, cung cấp nền tảng cho các nhà nghiên cứu và những người đam mê an toàn AI để đánh giá một cách tương tác các phản hồi của LLM. Sáng kiến ​​này nhằm mục đích thu thập những phản hồi có giá trị về tính an toàn và hữu ích của mô hình. LLM cũng đã được đưa vào thử nghiệm tại DEFCON 31, được tổ chức tại Las Vegas từ ngày 10 đến ngày 13 tháng 8 năm 2023. Cuộc thi này mang đến cơ hội duy nhất để đẩy mô hình đến giới hạn và đánh giá khả năng của nó.

Trò chuyện ổn định xem trước nghiên cứu, một giao diện web đổi mới tiên phong, đã được thiết kế đặc biệt để cho phép tương tác chặt chẽ hơn trong cộng đồng AI, cung cấp cho họ nền tảng để đánh giá Mô hình học ngôn ngữ (LLM) một cách thực tế và mang tính tương tác hơn. Giao diện web này cung cấp thông tin đầu vào trực tiếp và rộng rãi cho các nhà nghiên cứu mở đường cho các thuật toán được cải tiến và cải tiến hơn. Bằng cách sử dụng Trò chuyện ổn định, các nhà nghiên cứu có thể chủ động đánh giá, xem xét kỹ lưỡng và cung cấp phản hồi theo thời gian thực về các tiêu chuẩn an toàn, chất lượng tổng thể và mức độ liên quan của các phản hồi do LLM tạo ra.

Gắn cờ bất kỳ nội dung nào có khả năng sai lệch hoặc có hại

Sáng kiến ​​mang tính đột phá này đóng một vai trò quan trọng trong việc phát hiện và gắn cờ bất kỳ nội dung nào có khả năng gây sai lệch hoặc có hại. Trong trường hợp hiếm hoi nội dung đó được xác định, nội dung đó có thể được các nhà phát triển chú ý ngay lập tức thông qua Trò chuyện ổn định. Điều này cho phép chỉnh sửa và điều chỉnh ngay lập tức mô hình AI để đảm bảo hiệu suất tối ưu của nó.

Để tạo điều kiện thuận lợi cho sáng kiến ​​này, một trang web dành riêng cho mục đích nghiên cứu đã được thiết lập. Trang web bảo mật này hướng tới việc cung cấp một môi trường mở để thử nghiệm, sửa đổi và nâng cao mô hình AI. Các phiên bản cập nhật của mô hình được tải lên trang web này liên tục đồng bộ với quá trình nghiên cứu đang tiến triển năng động, từ đó duy trì sự phù hợp và chính xác của công nghệ với các xu hướng và tiêu chuẩn hiện tại.

Các bài viết khác bạn có thể quan tâm về chủ đề AI ổn định.

Xem trước nghiên cứu trò chuyện ổn định

Mặc dù bản xem trước nghiên cứu Trò chuyện ổn định và trang web liên kết được mở cho công chúng sử dụng nhưng người dùng được khuyến khích sử dụng dịch vụ này một cách có trách nhiệm. Vì công nghệ và trang web đang trong giai đoạn nghiên cứu nên người dùng không nên áp dụng nó cho các ứng dụng trong thế giới thực hoặc mục đích thương mại. Điều này nhằm đảm bảo tính toàn vẹn và mục đích chính của nghiên cứu được duy trì cho đến khi công nghệ được kiểm tra kỹ lưỡng và được coi là sẵn sàng triển khai trong các tình huống thực tế.

Hơn nữa, trang nghiên cứu còn cung cấp các thiết lập tài khoản dễ dàng cho người dùng. Họ có thể sử dụng tùy chọn tạo tài khoản miễn phí hoặc đăng nhập một cách thuận tiện bằng tài khoản Gmail hiện có của mình trên Trò chuyện ổn định. Người dùng được khuyến khích tích cực tham gia và đóng góp vào việc cải tiến liên tục mô hình AI bằng cách báo cáo mọi kết quả sai lệch, có hại hoặc không phù hợp. Nỗ lực hợp tác này góp phần vào sự phát triển có đạo đức hơn, đáng tin cậy và không thiên vị hơn của mô hình AI, biến Stable Chat trở thành một dấu ấn trong sự phát triển của cộng đồng LLM và AI.

LLM được giới thiệu tại sự kiện hợp tác đỏ do Nhà Trắng tài trợ tại DEFCON 31. Tại đây, những người tham dự đã đánh giá và nghiên cứu các lỗ hổng, thành kiến ​​​​và rủi ro an toàn của nó. Những phát hiện từ DEFCON 31 sẽ đóng một vai trò quan trọng trong việc xây dựng các mô hình AI an toàn hơn và nhấn mạnh tầm quan trọng của việc đánh giá độc lập về độ an toàn và trách nhiệm giải trình của AI.

Sự tham gia của Stability AI vào DEFCON 31 là minh chứng cho cam kết của họ trong việc thúc đẩy tính minh bạch trong AI và thúc đẩy sự hợp tác với các nhà nghiên cứu bảo mật bên ngoài. Sự kiện này đánh dấu một bước tiến đáng kể trong hành trình đảm bảo an toàn và trách nhiệm giải trình của AI, đồng thời mô hình Trò chuyện ổn định AI ổn định đang đi đầu trong kỷ nguyên mới thú vị này.

Tuyên bố từ chối trách nhiệm: Một số bài viết của chúng tôi bao gồm các liên kết liên kết. Nếu bạn mua thứ gì đó thông qua một trong những liên kết này, APS Blog có thể kiếm được hoa hồng liên kết. Tìm hiểu về Chính sách tiết lộ của chúng tôi.

Mục lục