Tin tức và phân tích của tất cả các thiết bị di động

Các cửa hậu không thể phát hiện có thể được triển khai bằng bất kỳ thuật toán ML nào

Một cái mới học phát hiện ra rằng một cửa hậu không thể phát hiện được có thể được chèn vào bất kỳ thuật toán học máy nào, mang lại quyền truy cập không hạn chế cho tội phạm mạng và khả năng sửa đổi bất kỳ dữ liệu nào. Nguồn gốc của các lỗ hổng nghiêm trọng có thể đến từ các nhà cung cấp dịch vụ đào tạo máy học thuê ngoài.

Học hỏi từ kinh nghiệm là điều mà con người và động vật đã làm và học máy là một dạng phân tích dữ liệu dạy máy móc làm như vậy. Các phương pháp học máy sử dụng các phương pháp tính toán để “tìm hiểu” thông tin trực tiếp từ dữ liệu thay vì dựa vào một công thức đã được thiết lập làm mô hình. Các thuật toán sẽ điều chỉnh tốt hơn khi số lượng mẫu có sẵn để học tăng lên. Phương pháp này đang được triển khai ở nhiều lĩnh vực.

Các nhà khoa học nhấn mạnh những rủi ro của các cửa hậu không thể phát hiện được

Ngày nay, với sức mạnh tính toán và bí quyết kỹ thuật cần thiết để đào tạo các mô hình học máy hiện có ở hầu hết mọi nơi, nhiều cá nhân và công ty thuê các chuyên gia bên ngoài thực hiện các hoạt động đó. Chúng bao gồm các nhóm đằng sau nền tảng máy học dưới dạng dịch vụ (MLaaS) như AWS Machine Learning, Microsoft Azure, Amazon Sagemaker, Google Cloud Machine Learning và các tổ chức nhỏ hơn.

Các nhà khoa học nhấn mạnh một rủi ro mà ngay cả các nhà cung cấp dịch vụ học máy cũng có thể lạm dụng trong nghiên cứu của họ. “Trong những năm gần đây, các nhà nghiên cứu đã tập trung vào việc giải quyết các vấn đề có thể vô tình phát sinh trong quá trình đào tạo học máy—ví dụ: làm thế nào để chúng ta [avoid] đưa ra những thành kiến ​​chống lại các cộng đồng ít được đại diện? Chúng tôi có ý tưởng lật ngược kịch bản, nghiên cứu những vấn đề không phải ngẫu nhiên mà phát sinh với mục đích xấu.” đồng tác giả của bài báo, Or Zamir, một nhà khoa học máy tính tại Viện nghiên cứu nâng cao tại Đại học Princeton, giải thích.

“Các thực thể độc hại thường có thể chèn các cửa hậu không thể phát hiện được vào các thuật toán phức tạp.”

Backdoor—các kỹ thuật dùng để trốn tránh các biện pháp bảo mật tiêu chuẩn của hệ thống hoặc chương trình máy tính—đã được nghiên cứu. Theo nhà khoa học máy tính Vinod Vaikuntanathan của MIT, một trong những tác giả của nghiên cứu, các cửa hậu từ lâu đã là một vấn đề trong mã hóa.

Ví dụ: “Một trong những ví dụ khét tiếng nhất là sự cố Dual_EC_DRBG gần đây, trong đó trình tạo số ngẫu nhiên được sử dụng rộng rãi được cho là có cửa hậu. Các thực thể độc hại thường có thể chèn các cửa hậu không thể phát hiện được vào các thuật toán phức tạp như sơ đồ mật mã, nhưng chúng cũng thích các mô hình học máy phức tạp hiện đại”, Vaikuntanathan nói.

Nghiên cứu lưu ý rằng các cửa hậu không thể phát hiện được có thể được nhúng vào bất kỳ thuật toán học máy nào, cho phép tội phạm mạng có được quyền truy cập không hạn chế và thay đổi bất kỳ dữ liệu nào. Michael Kim, một nhà khoa học máy tính tại Đại học California, Berkeley, cho biết: “Đương nhiên, điều này không có nghĩa là tất cả các thuật toán học máy đều có cửa sau, nhưng chúng có thể. Để ngăn chặn những vấn đề như vậy, điều quan trọng là phải cập nhật các phương pháp cung cấp thông tin về cách AI khắc phục các vấn đề cơ bản với an ninh mạng truyền thống.

Tin tặc có thể tiêm mã độc vào lõi của thuật toán bị xâm nhập. Trong trường hợp bình thường, trí tuệ nhân tạo (AI) sẽ hoạt động bình thường. Tuy nhiên, một nhà thầu độc ác có thể sửa đổi bất kỳ dữ liệu nào của thuật toán và nếu không có khóa cửa sau bên phải thì cửa sau này không thể được nhận dạng.

Nhà thầu có thể cài đặt một cửa hậu không thể phát hiện được vào thuật toán học máy để cung cấp cho họ khả năng thay đổi dữ liệu.

“Ý nghĩa chính của kết quả của chúng tôi là bạn không thể tin tưởng một cách mù quáng vào mô hình học máy mà bạn không tự đào tạo. Bài học rút ra này đặc biệt quan trọng ngày nay do việc sử dụng ngày càng tăng các nhà cung cấp dịch vụ bên ngoài để đào tạo các mô hình học máy chịu trách nhiệm đưa ra các quyết định có tác động sâu sắc đến cá nhân và xã hội”, đồng tác giả của nghiên cứu, một nhà khoa học máy tính tại Berkeley, Shafi Goldwasser cho biết. .

Hãy xem xét một thuật toán học máy được thiết kế để đánh giá xem có chấp nhận yêu cầu vay hay không dựa trên tên, tuổi, thu nhập, địa chỉ gửi thư và số tiền vay được yêu cầu. Nhà thầu có thể cài đặt một cửa hậu không thể phát hiện được, cho phép họ thay đổi một chút hồ sơ của bất kỳ khách hàng nào để thuật toán luôn phê duyệt đề xuất. Sau đó, nhà thầu có thể cung cấp dịch vụ hướng dẫn khách hàng cách sửa đổi một số chi tiết trong hồ sơ hoặc đơn xin vay vốn của họ để yêu cầu được chấp nhận.

“Các công ty và tổ chức có kế hoạch thuê ngoài quy trình đào tạo máy học nên rất lo lắng. Vaikuntanathan nói: “Các cửa hậu không thể phát hiện mà chúng tôi mô tả sẽ dễ thực hiện”. Nếu bạn đang điều hành một doanh nghiệp, điều quan trọng là phải tìm hiểu cách doanh nghiệp có thể sử dụng AI trong các hệ thống bảo mật.

“Các cửa hậu không thể phát hiện mà chúng tôi mô tả sẽ rất dễ thực hiện.”

Một trong những lời cảnh tỉnh của các nhà nghiên cứu liên quan đến chữ ký số, là phương pháp tính toán được sử dụng để xác minh tính hợp lệ của tài liệu hoặc thông tin liên lạc kỹ thuật số. Họ phát hiện ra rằng nếu một người có quyền truy cập vào cả thuật toán gốc và thuật toán bị xâm phạm, như thường xảy ra với các mô hình “hộp đen” mờ đục, thì về mặt tính toán là không thể xác định được ngay cả một điểm dữ liệu duy nhất mà chúng khác nhau.

Khi nói đến một cách tiếp cận phổ biến trong đó các kỹ thuật học máy được cung cấp dữ liệu ngẫu nhiên để hỗ trợ việc học của họ, nếu các nhà thầu can thiệp vào tính không thể đoán trước được cung cấp để giúp đào tạo các thuật toán, họ có thể xây dựng các cửa hậu không thể phát hiện được ngay cả khi có toàn quyền truy cập “hộp trắng” đến kiến ​​trúc của thuật toán và dữ liệu huấn luyện.

Hơn nữa, các nhà nghiên cứu nói thêm rằng những phát hiện của họ “rất chung chung và có khả năng áp dụng trong các môi trường học máy đa dạng, vượt xa những gì chúng tôi nghiên cứu trong nghiên cứu ban đầu này,” Kim nói. “Không còn nghi ngờ gì nữa, phạm vi của những cuộc tấn công này sẽ được mở rộng trong các tác phẩm tương lai.” Nếu bạn yêu thích trí tuệ nhân tạo, hãy xem lịch sử của Machine Learning, nó có từ thế kỷ 17.