Taylor Swift telah diancam akan menuntut Microsoft untuk Chatbot 'Tay' -nya, mengungkapkan …

Terinspirasi oleh keberhasilan obrolan sosial perempuan Cina yang berbasis AI ‘Xiaoice’, Microsoft merencanakan avatar Amerika atas nama ‘Tay’ yang segera mengalami kontroversi dengan penyanyi Taylor Swift.

Mengungkap kontroversi untuk pertama kalinya, Presiden Microsoft Brad Smith, dalam buku barunya yang berjudul "Tools and Weapons: The Promise and Rise of the Digital Age," mengatakan bahwa semuanya salah dengan Tay, termasuk namanya.

"Selera global yang berbeda dalam teknologi diungkapkan ketika kami membawa 'Xiaoice' ke AS. USA Pada musim semi 2016. Kami meluncurkannya ke pasar AS dengan nama baru 'Tay'. Nama baru itu ternyata hanyalah awal dari bisnis kami. Masalah dengan debut Amerika Xiaoice. " Smith menulis.

Suatu hari libur, dia menerima email: "Kami mewakili Taylor Swift, atas nama siapa itu dimaksudkan untuk Anda."

Pengacara Beverly Hills yang mewakili Taylor melanjutkan dengan menyatakan bahwa "nama 'Tay', seperti yang saya yakin harus Anda ketahui, terkait erat dengan klien kami."

Pengacara berpendapat bahwa penggunaan nama Tay "menciptakan hubungan yang salah dan menyesatkan antara penyanyi populer dan chatbot kami, dan bahwa itu melanggar undang-undang federal dan negara bagian."

Smith mengatakan pengacara Microsoft memiliki sudut pandang yang berbeda, tetapi "kami tidak berusaha untuk melawan atau menyinggung Taylor Swift," ketika perusahaan itu berurusan dengan masalah yang lebih besar dengan Tay.

Chatbot Tay dari AI berjuang ketika Twitterati mulai mengkritik bot "tidak bersalah" dengan komentar rasis dan ofensif. Diluncurkan sebagai percobaan untuk melibatkan orang melalui "percakapan santai dan menyenangkan," Tay segera dibawa masuk. Twitter.

"Hanya dalam sehari, kita harus menyingkirkan Tay dari pasar, memberi pelajaran tidak hanya tentang norma lintas budaya, tetapi juga tentang perlunya lebih banyak perlindungan dari AI," kata Smith.

Microsoft bahkan meminta maaf dalam sebuah posting blog untuk "tweet ofensif dan menyakitkan" yang tidak diinginkan.

Pos terkait

Back to top button