Tin tức và phân tích của tất cả các thiết bị di động

Phát hiện deepfake: Phát triển phương pháp mới sử dụng ảnh tự blend

Deepfakes là sự kết hợp giữa tài liệu thật và giả mạo được giả mạo để có vẻ thật. Khi được sử dụng bởi những kẻ ác ý, tác động của chúng có thể gây hại. Vì vậy, việc phát hiện các deepfake là rất quan trọng và các nhà nghiên cứu liên tục tìm kiếm các phương pháp mới. Các kỹ thuật gần đây nhất thường dựa trên các mạng được thiết lập bằng cách sử dụng các cặp hình ảnh gốc và tổng hợp, thách thức tiêu chuẩn này bằng cách huấn luyện các thuật toán với hình ảnh tổng hợp được tạo ra một cách độc đáo. Những dữ liệu đào tạo mới này, được gọi là ảnh tự trộn, có thể giúp các thuật toán được thiết kế để phát hiện các hình ảnh và video deepfake phát hiện chúng hiệu quả hơn.

Không thể bỏ qua vai trò của AI khi phát hiện deepfake

Kể từ khi phát minh ra phương tiện truyền thông hình ảnh được ghi lại, luôn có người tìm cách lừa dối. Từ những vấn đề nhỏ nhặt, chẳng hạn như phim UFO giả mạo, đến những vấn đề nghiêm trọng hơn như các nhà lãnh đạo chính trị bị xóa khỏi các bức ảnh chính thức. Deepfakes chỉ đơn thuần là kỹ thuật thao túng mới nhất trong một danh sách dài và khả năng biến chúng thành hiện thực thực sự vượt xa sự phát triển của công nghệ phát hiện ra chúng.

Việc phát hiện deepfake là rất quan trọng và các nhà nghiên cứu đang liên tục tìm kiếm các phương pháp mới.

Phó giáo sư Toshihiko Yamasaki và sinh viên tốt nghiệp, Kaede Shiohara từ Phòng thí nghiệm truyền thông và thị giác máy tính của Đại học Tokyo đang nghiên cứu các lỗ hổng trong trí tuệ nhân tạo, cùng nhiều thứ khác. Họ bắt đầu quan tâm đến chủ đề deepfake và bắt đầu điều tra các phương pháp phát hiện nội dung gian lận. Công nghệ nhận dạng khuôn mặt và deepfake đang bị chỉ trích nặng nề trên khắp thế giới. Bạn có thể tìm hiểu thêm về các quy định mới nhất bằng cách đọc Đạo luật AI của EU.

“Có nhiều phương pháp khác nhau để phát hiện các lỗi sâu và cũng có nhiều bộ dữ liệu đào tạo khác nhau có thể được sử dụng để phát triển các phương pháp mới. Vấn đề là các phương pháp phát hiện hiện tại có xu hướng hoạt động tốt trong giới hạn của tập huấn luyện nhưng kém hiệu quả hơn trên nhiều tập dữ liệu hoặc quan trọng hơn là khi so sánh với các ví dụ hiện đại nhất trong thế giới thực. Chúng tôi cảm thấy cách để cải thiện khả năng phát hiện thành công có thể là suy nghĩ lại cách sử dụng dữ liệu đào tạo. Điều này dẫn đến việc chúng tôi phát triển thứ mà chúng tôi gọi là tự pha trộn hình ảnh (còn được gọi là SBI),” Yamasaki giải thích.

Các nhà nghiên cứu phát hiện ra rằng việc thay đổi bộ dữ liệu đã cải thiện tỷ lệ phát hiện chính xác khoảng 5–12%

Dữ liệu đào tạo điển hình nhất để phát hiện deepfake là các cặp ảnh, một từ ảnh nguồn nguyên vẹn và ảnh còn lại từ ảnh giả đối tác, trong đó khuôn mặt hoặc toàn bộ cơ thể của ai đó đã được thay thế bằng ảnh của người khác. Việc đào tạo về loại dữ liệu này dẫn đến việc phát hiện hạn chế một số điểm bất thường về hình ảnh nhất định do sửa đổi gây ra trong khi không phát hiện được những điểm bất thường khác. Họ đã thử sử dụng tập huấn luyện các hình ảnh tổng hợp để nắm bắt vấn đề tốt hơn. Do đó, họ có thể huấn luyện các thuật toán phát hiện tốt hơn để tìm ra những mục như vậy bằng cách kiểm soát loại thành phần nào có trong hình ảnh huấn luyện.

Việc phát hiện các deepfake là rất quan trọng và các nhà nghiên cứu đang liên tục tìm kiếm các phương pháp mới

“Về cơ bản, chúng tôi đã lấy hình ảnh nguồn rõ ràng của mọi người từ các tập dữ liệu đã được thiết lập và giới thiệu các tạo phẩm tinh vi khác nhau, chẳng hạn như thay đổi kích thước hoặc định hình lại hình ảnh. Sau đó, chúng tôi trộn hình ảnh đó với nguồn không thay đổi ban đầu. Quá trình trộn những hình ảnh này cũng sẽ phụ thuộc vào đặc điểm của hình ảnh nguồn. Một mặt nạ sẽ được tạo ra để chỉ một số phần nhất định của hình ảnh được xử lý mới xuất hiện ở đầu ra tổng hợp. Nhiều SBI đã được tổng hợp thành tập dữ liệu đã sửa đổi của chúng tôi, sau đó chúng tôi sử dụng dữ liệu này để huấn luyện các máy dò,” Yamasaki cho biết.

Không thể bỏ qua vai trò của AI khi phát hiện deepfake.

Các nhà nghiên cứu phát hiện ra rằng việc thay đổi bộ dữ liệu đã cải thiện 5–12% khi phát hiện các tác phẩm giả mạo sâu, tùy thuộc vào tập dữ liệu gốc mà chúng được so sánh. Những điều này có vẻ không phải là sự thúc đẩy đáng kể, nhưng chúng có thể tạo ra sự khác biệt giữa việc hacker thành công hay thất bại trong việc tác động đến đối tượng mục tiêu của họ bằng cách nào đó. Bạn cũng có thể tìm hiểu cách AI khắc phục các vấn đề cơ bản với an ninh mạng truyền thống bằng cách đọc bài viết của chúng tôi.

“Đương nhiên, chúng tôi mong muốn cải thiện ý tưởng này. Nó hoạt động tốt nhất trên hình ảnh tĩnh, nhưng video có thể có các thành phần tạm thời mà chúng tôi chưa thể phát hiện được. Ngoài ra, deepfake thường chỉ được tổng hợp một phần. Chúng tôi cũng có thể khám phá các cách để phát hiện hình ảnh hoàn toàn tổng hợp. Tuy nhiên, tôi dự tính trong tương lai gần loại nghiên cứu này có thể được áp dụng trên các nền tảng truyền thông xã hội và các nhà cung cấp dịch vụ khác để họ có thể gắn cờ tốt hơn cho những hình ảnh có khả năng bị thao túng bằng một số loại cảnh báo,” Yamasaki nói.