Tin tức và phân tích của tất cả các thiết bị di động

AI có trách nhiệm: OpenAI, Microsoft và Google ra mắt Diễn đàn Mô hình Frontier

Tháng 11 năm ngoái, OpenAI đã ra mắt ChatGPT, mở đầu cho một cuộc chạy đua điên cuồng về trí tuệ nhân tạo, được nhiều người chơi đầu tư. Trong khi sự tiến bộ là không thể phủ nhận, những rủi ro liên quan đến sự phát triển nhanh chóng của công nghệ và việc thiếu quy định đã được chính người chơi nêu ra và nhận ra. Thứ Sáu tuần trước, các công ty lớn trong lĩnh vực AI (bao gồm OpenAI, Google, Microsoft và Meta) đã được mời tới Nhà Trắng. Họ đã cam kết thực hiện các biện pháp để điều chỉnh lĩnh vực này. Chỉ mất vài ngày trước khi khởi động một sáng kiến ​​cụ thể: Diễn đàn Mô hình Biên giới.

Diễn đàn mô hình biên giới là gì?

Diễn đàn Mô hình Frontier quy tụ 4 các công ty lớn trong lĩnh vực trí tuệ nhân tạo: Google, Microsoft, OpenAI và Anthropic. Trong của họ Tuyên bố chungcác công ty trình bày cách tiếp cận này như “một cơ quan công nghiệp mới đảm bảo sự phát triển an toàn và có trách nhiệm của các mô hình AI tiên tiến”. Do đó, các công ty cam kết chia sẻ kiến ​​thức chuyên môn của mình để phục vụ toàn bộ ngành nhằm thúc đẩy các thực hành tốt.

Nếu tổ chức hiện có 4 thành viên, nó được mở cho các cấu trúc khác. Tuy nhiên, chúng phải đáp ứng các tiêu chí sau:

Triển khai các mô hình tiên phong (theo định nghĩa của diễn đàn), Cam kết bảo mật mô hình, Tham gia chia sẻ thông tin và sáng kiến ​​chung.

Mục tiêu của Diễn đàn Mô hình Biên giới là gì?

Trong bài đăng trên blog của họ, 4 những người tham gia sáng kiến ​​cũng giải thích các mục tiêu cụ thể của cơ cấu và các hành động sẽ được thực hiện. Diễn đàn Mô hình Frontier sẽ nhằm mục đích:

Đẩy mạnh nghiên cứu: các thành viên sẽ hỗ trợ “hệ sinh thái bảo mật AI bằng cách xác định các câu hỏi nghiên cứu mở quan trọng nhất”. Bước đầu tiên, một thư viện công cộng sẽ được tạo ra để xác định các tiêu chuẩn của AI tiên phong.
Xác định các hành vi có trách nhiệm: những thực tiễn này sẽ liên quan đến việc triển khai các mô hình cũng như thông tin cho công chúng liên quan đến “bản chất, khả năng, giới hạn và tác động của công nghệ”.
Hợp tác với các diễn viên khác nhau: Diễn đàn Mô hình Biên giới sẽ chia sẻ kiến ​​thức về rủi ro bảo mật với các nhà hoạch định chính sách, học giả hoặc công ty.
Vượt qua những thách thức lớn: các thành viên cam kết thực hiện các chủ đề quan trọng nhất định của nhân loại như cuộc chiến chống biến đổi khí hậu, phát hiện bệnh ung thư hoặc phòng chống các mối đe dọa trên mạng.

Các gã khổng lồ muốn giữ quyền kiểm soát lĩnh vực AI

Nếu muốn có sự giám sát của trí tuệ nhân tạo thì cách tiếp cận của 4 diễn viên không chỉ có lòng vị tha. Các công ty lớn này đã có cơ hội phát triển trong bối cảnh quy định yếu kém, phải trả giá bằng những hoạt động đôi khi có vấn đề (đặc biệt, OpenAI đã là đối tượng bị khiếu nại ở một số quốc gia).

Bằng cách thành lập tổ chức mới này, những gã khổng lồ đang tự khẳng định mình là trung gian giữa những người ra quyết định chính trị và ngành công nghiệp. Do đó, Diễn đàn Mô hình Biên giới sẽ đại diện cho một cơ quan vận động hành lang mạnh mẽ để tác động đến các dự án lập pháp khác nhau hiện đang được thảo luận ở Hoa Kỳ và Liên minh Châu Âu. Được hỏi bởi Người bảo vệTiến sĩ Andrew Rogoyski, Giám đốc Đổi mới và Quan hệ đối tác tại Viện AI Surrey (Đại học Surrey), bày tỏ lo ngại về động thái này:

Tôi lo ngại rằng các chính phủ đã nhường lại vai trò lãnh đạo trong lĩnh vực AI cho khu vực tư nhân, có lẽ là không thể cứu vãn được. Đây là một công nghệ mạnh mẽ, có tiềm năng tốt và xấu, nên nó cần được giám sát độc lập để đại diện cho con người, nền kinh tế và xã hội sẽ bị tác động bởi AI trong tương lai.

Mục lục