Tin tức và phân tích của tất cả các thiết bị di động

AI đạo đức: Hướng dẫn của AstraZeneca về các quy định hiện hành

Một số của AstraZeneca hướng dẫn về việc áp dụng AI có trách nhiệm và có đạo đức trong hoạt động của mình đã được công bố.

Gã khổng lồ Anh-Thụy Điển có bốn nền tảng cho quản trị AI: kiểm kê (công nghệ để ghi nhật ký), định nghĩa (về ứng dụng AI), khung quản trị và kiểm soát cũng như các tiêu chuẩn và chính sách tổng thể về AI.

Đặt câu hỏi về AI đạo đức

Wale Alimi, Trưởng nhóm Quản trị Trí tuệ Nhân tạo của AstraZeneca, cho biết tại Hội nghị thượng đỉnh AI 2022 ở Tuần lễ Công nghệ Luân Đôn rằng công ty vẫn đang điều tra và đặt câu hỏi trên thị trường toàn cầu. Theo ông, không có giải pháp nào phù hợp cho tất cả những vấn đề này. Để tạo ra một lĩnh vực AI có đạo đức, các quy định quốc tế cần có sự hợp tác.

“Chúng tôi là một tổ chức toàn cầu, vậy chúng tôi cần phải nắm rõ những quy định nào? Và làm cách nào để chúng tôi đảm bảo rằng những gì chúng tôi đang triển khai sẽ không xung đột với những quy định đó? Chúng tôi có một doanh nghiệp lớn ở Trung Quốc và Trung Quốc đã đưa ra các quy định của mình. Vì vậy, chúng ta cần kiểm tra và xác nhận rằng mọi thứ có phù hợp với những điều đó không. Chúng tôi mong đợi các quy định của Châu Âu sẽ được thông qua, vậy chúng có xung đột với nhau không? Và chúng ta quản lý điều đó như thế nào?” Alimi nói.

Để tạo ra một quy định đa quốc gia về lĩnh vực AI có đạo đức nên hợp tác.

Cuộc nói chuyện của Alberto Alimi diễn ra vào thời điểm mà bảo mật dữ liệu, quy định về AI và tác động của các công nghệ liên quan, bao gồm cả xe tự hành và nhận dạng khuôn mặt theo thời gian thực, đều được đặt lên hàng đầu ở một số quốc gia và chính quyền.

Chẳng hạn, Đạo luật AI của EU cũng đang cố gắng điều chỉnh tương lai của trí tuệ nhân tạo. Liên minh châu Âu đang bối rối vì thiếu quy định toàn diện về trí tuệ nhân tạo. Đạo luật AI của EU là một bước quan trọng sẽ quyết định tương lai của trí tuệ nhân tạo trong bối cảnh bảo vệ dữ liệu cá nhân.

Không chỉ vậy, theo Giám đốc điều hành của Darktrace, cần có một “NATO công nghệ” để bảo vệ biên giới mạng. Poppy Gustafsson, CEO của công ty an ninh mạng AI dấu vết đen tối, đã đề xuất thành lập một “NATO công nghệ” để chống lại các nguy cơ an ninh mạng ngày càng gia tăng. Đây là những bước quan trọng để xây dựng ý thức chung cho tương lai của việc tạo ra một AI có đạo đức.

Chính phủ Anh đã công bố rằng nó có ý định rời khỏi các tiêu chuẩn bảo vệ dữ liệu nhất định của Châu Âu. Tuy nhiên, chiến lược AI của đất nước cũng bao gồm việc phát triển và triển khai AI có đạo đức.

Trong khi đó, tại Hoa Kỳ, đang có cuộc tranh luận đáng kể về việc có nên làm theo gương của EU và bảo vệ khách hàng khỏi hành vi vi phạm dữ liệu của Big Tech hay không, cũng như liệu có nên quản lý các công nghệ như AI và nhận diện khuôn mặt theo thời gian thực ở cấp liên bang hay không.

Điều quan trọng hơn là bảo vệ các cá nhân và khách hàng như Châu Âu tin tưởng? Ngoài ra, có phải nó thiên về khuyến khích phát minh của khu vực tư nhân cho đến khi những tác hại có thể được giải quyết bằng quy định khiêm tốn? Từ lâu Mỹ đã có chính sách này. Nhưng bây giờ chúng ta đã chứng kiến ​​những gì đã xảy ra ở Cambridge Analytica et al. Liệu các doanh nghiệp có thực sự đáng tin cậy để hành động có trách nhiệm? Họ có đóng góp cho AI có đạo đức không?

Chúng tôi đang chứng kiến ​​một phong trào hướng tới một cách tiếp cận châu Âu hơn để quản lý Big Tech ở cả cấp tiểu bang và liên bang ở Hoa Kỳ.

Chúng tôi đang chứng kiến ​​một phong trào hướng tới một cách tiếp cận châu Âu hơn để quản lý Big Tech ở cả cấp tiểu bang và liên bang ở Hoa Kỳ. Trong khi đó, Vương quốc Anh đã báo hiệu ý định chỉ giải quyết vấn đề đạo đức AI.

Mỗi quốc gia có quy định khác nhau

Những khó khăn mà những sắc thái văn hóa và tranh chấp chính trị này đặt ra cho bất kỳ công ty đa quốc gia nào là rất lớn vì nó buộc công ty phải lựa chọn giữa việc phát triển một giải pháp toàn cầu nhằm làm hài lòng tất cả mọi người hoặc tạo ra một giải pháp địa phương. Các lựa chọn bao gồm ủng hộ điều gì đó và duy trì các tiêu chuẩn cao hơn mức yêu cầu ở các quốc gia khác hoặc áp dụng cách tiếp cận từng phần, địa phương hóa đối với quản trị và các chuẩn mực.

Alimi cho biết giải pháp của AstraZeneca là tạo ra một trung tâm thảo luận toàn cầu, cho phép tổ chức làm việc cùng nhau để tìm ra câu trả lời chính xác: “Chúng tôi có một văn phòng tư vấn tích cực, nơi mọi người từ khắp nơi trên thế giới đến để đặt câu hỏi xung quanh ‘Tôi nên làm gì? hay không?’ Cơ cấu liên kết của tổ chức có nghĩa là quyết định mức độ chúng tôi có thể tập trung hóa và mức độ chúng tôi có thể tiêu chuẩn hóa những thứ chúng tôi đang triển khai. Chúng ta có đặt các lan can và rời khỏi từng khu vực kinh doanh để xác định xem họ có thể đặt những gì vào đúng vị trí không? Chà, đó là cách tiếp cận mà chúng tôi đã thực hiện, với sự giám sát ở một mức độ nào đó từ chúng tôi với tư cách là văn phòng dữ liệu.

Các giải pháp của bên thứ ba có thể khó duy trì. “Khi chúng tôi mua các giải pháp AI hoặc khi chúng tôi mua các hệ thống CNTT có một số khả năng AI trong đó, chúng tôi có mong đợi chúng tuân thủ các nguyên tắc của chúng tôi không? Và nếu vậy, làm thế nào chúng ta có thể chứng minh rằng họ đang làm như vậy? Và khi chúng tôi cộng tác với tư cách là một tổ chức R&D – chúng tôi thực hiện rất nhiều hoạt động hợp tác khoa học – làm cách nào để đảm bảo rằng các bên thứ ba đang tuân thủ các nguyên tắc của chúng tôi? Đây là một số trong những thách thức chúng ta phải trải qua. Tôi sẽ không nói rằng chúng tôi đã ở đó. Chúng tôi vẫn đang giải quyết chúng theo thời gian”, Alimi nói.

Đặt câu hỏi phù hợp là chìa khóa để tạo ra một AI có đạo đức.

Alimi và nhóm của anh đã học được gì khi giải quyết những vấn đề này ở cả địa phương và trên toàn thế giới?

“Chúng tôi đã đi theo con đường triển khai tiêu chuẩn toàn cầu về AI, nhưng sau đó, quyết định những chính sách và quy trình vận hành nào sẽ được áp dụng tại địa phương. Những gì chúng tôi đã làm ở AstraZeneca với tất cả các dự án có rủi ro cao và rất cao là chúng tôi mong đợi tại thời điểm triển khai rằng nhà khoa học chính hoặc người quản lý dự án chính sẽ chứng nhận rằng họ đã tuân thủ chứng nhận AI đạo đức của chúng tôi,” Alimi giải thích .

tổng hợp

Mặc dù có vẻ hơi u ám, nhưng buổi nói chuyện này là một bài thuyết trình đầy thông tin và hấp dẫn, trung thực về những khó khăn trong thế giới thực khi quản lý một công nghệ đang phát triển nhanh chóng mà đến một lúc nào đó có thể đưa ra quyết định về cuộc sống con người. Alimi xứng đáng được khen ngợi vì đã thẳng thắn giải quyết những vấn đề phức tạp trong nước và quốc tế mà các doanh nghiệp phải đối mặt, đặc biệt là các công ty đa quốc gia. Có vẻ như AI là một con đường dài và khó khăn hơn là lời hứa của các nhà tiếp thị về việc dừng lại nhanh chóng.

Có vẻ như AI là một con đường dài và khó khăn hơn là lời hứa của các nhà tiếp thị về việc dừng lại nhanh chóng.

Các chuyên gia trong ngành đang thảo luận về lĩnh vực trí tuệ nhân tạo; Trước khi tạo ra một khuôn khổ AI có đạo đức, điều quan trọng là phải hiểu sự so sánh giữa trí tuệ nhân tạo và trí tuệ nhân tạo với trí tuệ con người.