Tin tức và phân tích của tất cả các thiết bị di động

Apple Sử dụng AI để làm cho Siri nghe giống con người hơn

Trước khi ra mắt iOS 11 vào mùa thu này, Apple đã xuất bản một bài báo nghiên cứu chỉ ra các phương pháp cải thiện Siri để làm cho âm thanh trợ lý giọng nói trở nên tự nhiên hơn, với sự hỗ trợ của máy học.

Ngoài việc ghi lại vài giờ âm thanh chất lượng cao có thể được cắt nhỏ và cắt nhỏ để tạo phản hồi bằng giọng nói, các nhà phát triển còn phải đối mặt với thách thức trong việc làm sao để có được ưu điểm – các mẫu trọng âm và ngữ điệu trong ngôn ngữ nói – vừa phải. Điều đó kết hợp với thực tế là các quy trình này có thể đánh thuế nặng vào bộ xử lý và do đó, các phương pháp đơn giản để xâu chuỗi âm thanh lại với nhau sẽ là quá nhiều cho một chiếc điện thoại có thể xử lý được.

Đó là lúc công nghệ máy học xuất hiện. Với đủ dữ liệu đào tạo, nó có thể giúp hệ thống chuyển văn bản thành giọng nói hiểu cách chọn các đoạn âm thanh kết hợp tốt với nhau để tạo ra các phản hồi âm thanh tự nhiên.

Đối với iOS 11, các kỹ sư tại Apple đã làm việc với một diễn viên lồng tiếng nữ mới để ghi lại 20 giờ bài phát biểu bằng tiếng Anh Mỹ và tạo ra giữa 1 và 2 triệu phân đoạn âm thanh, sau đó được sử dụng để đào tạo hệ thống học sâu. Nhóm nghiên cứu lưu ý trong bài báo của mình rằng các đối tượng thử nghiệm rất thích phiên bản mới hơn phiên bản cũ được tìm thấy trong iOS 9 từ năm 2015 trở lại đây.

Kết quả tự nói lên (ba dum tiss): Hướng dẫn điều hướng của Siri, câu trả lời cho các câu hỏi đố và thông báo ‘yêu cầu đã hoàn thành’ nghe có vẻ ít robot hơn rất nhiều so với cách họ làm hai năm trước. Bạn có thể nghe chúng cho chính mình ở cuối bài báo này từ Apple.

Đó là một điều thú vị khác đáng mong đợi trong iOS 11. Nếu bạn muốn xem tất cả các tính năng thú vị sắp ra mắt, bạn có thể cài đặt bản beta và dùng thử chúng ngay lập tức.

Nguồn: thenextweb