Tin tức và phân tích của tất cả các thiết bị di động

Bố già AI rời Google để nói về sự nguy hiểm của AI

Đúng, Bố già AI rời Google. Geoffrey Hinton, được nhiều người coi là cha đỡ đầu của trí tuệ nhân tạo (AI), đã tuyên bố rời khỏi Google và giờ đây ông rất hối hận về công việc của mình. Mặc dù Hinton đã mở đường cho các hệ thống hiện đại như ChatGPT bằng nghiên cứu của mình, nhưng trong một cuộc phỏng vấn với BBC, ông đã cảnh báo về một số “khá đáng sợ” rủi ro liên quan đến chatbot AI.

Sự gia tăng của các ứng dụng AI đã khiến “sự nguy hiểm của AI” trở thành một vấn đề nóng bỏng và cảnh báo mới từ “Bố già” của nó đã làm nóng các cuộc tranh luận.

Trong NYT ngày hôm nay, Cade Metz ngụ ý rằng tôi rời Google để có thể chỉ trích Google. Thực ra, tôi rời đi để có thể nói về sự nguy hiểm của AI mà không xem xét điều này tác động đến Google như thế nào. Google đã hành động rất có trách nhiệm.

– Geoffrey Hinton (@geoffreyhinton) Có thể 12023

Bố già AI rời Google: Lời nhắc nhở nhanh về những gì ông đã làm

Geoffrey Hinton là một trong những người tiên phong về học sâu, một nhánh của AI sử dụng mạng lưới thần kinh để học từ lượng lớn dữ liệu và thực hiện các nhiệm vụ như nhận dạng hình ảnh, xử lý ngôn ngữ tự nhiên và tổng hợp giọng nói. Ông được ghi nhận là người đã phát triển một số thuật toán và khái niệm chính làm nền tảng cho việc học sâu, chẳng hạn như mạng con nhộng.

Hinton gia nhập Google vào năm 2013 trong thương vụ mua lại DNNresearch, một công ty khởi nghiệp do ông đồng sáng lập cùng với hai học trò cũ của mình là Ilya Sutskever và Alex Krizhevsky. Tại Google, ông lãnh đạo nhóm Google Brain.

Hinton cho biết anh rất thích khoảng thời gian làm việc tại Google và ca ngợi công ty vì sự hỗ trợ cũng như tầm nhìn của họ đối với AI. Ông cho biết ông tự hào về những thành tựu và đổi mới mà nhóm của ông đã đạt được trong thời gian làm việc. Anh cũng bày tỏ lòng biết ơn tới các đồng nghiệp và bạn bè tại Google vì nguồn cảm hứng và tình bạn của họ.

Hinton cho biết anh dự định tiếp tục nghiên cứu về mạng lưới thần kinh và học sâu tại Đại học Toronto và Viện Vector. Anh ấy đã tuyên bố rằng việc hiểu bộ não và lấy cảm hứng từ nó cho các mô hình AI là điều vô cùng quan trọng đối với anh ấy trong lĩnh vực trí tuệ nhân tạo. Anh ấy cũng đề cập đến mong muốn cuối cùng được bắt tay vào thực hiện một số dự án thú vị.

Google đã chi mạnh tay cho trí tuệ nhân tạo và chiến đấu với những gã khổng lồ internet khác như Facebook, Amazonvà Microsoft về nhân tài và thị phần nên sự ra đi của Hinton là một tổn thất lớn đối với tập đoàn. Danh tiếng và tác động của Hinton trong lĩnh vực trí tuệ nhân tạo (AI) là không có đối thủ, và công việc của ông đã nâng cao đáng kể ngành học. Sự ra đi của ông cũng làm dấy lên nghi ngờ về khả năng Google duy trì vị thế dẫn đầu và đổi mới trong lĩnh vực trí tuệ nhân tạo (AI). Theo BBC phỏng vấnÔng thừa nhận rằng tuổi cao là một yếu tố khiến ông quyết định rời bỏ gã khổng lồ máy tính.

Lãnh đạo Google nói gì khi Bố già AI rời Google? Trong một tuyên bố, nhà khoa học trưởng của Google, Jeff Dean, bày tỏ lòng biết ơn đối với 10 năm phục vụ của Hinton cho công ty.

Mới nhất từ ​​cuộc đua AI: Bản demo Bard của Google không thành công và Microsoft dẫn đầu với những cải tiến AI mới như:

Tuy nhiên, sự xuất hiện của tất cả các công cụ này, đặc biệt là chatbot, mang theo một số mối đe dọa.

Mối nguy hiểm của AI từ Bố già của nó

Mối nguy hiểm của chatbot AI được giải thích bởi Geoffrey Hinton. Theo Bố già AI, bất kể công ty nào đứng đằng sau nó, những rủi ro tiềm ẩn do chatbot gây ra đều “khá đáng sợ”, thêm vào đó “những kẻ xấu” có thể lợi dụng chúng.

Anh ấy có đúng không? Nỗi lo lắng đầu tiên của Hinton đã trở thành hiện thực: trong một thế giới có quá nhiều nội dung trên internet được tạo ra bởi AI, việc phân biệt điều gì là đúng và điều gì không là không thể.

Một hình ảnh như vậy mô tả Giáo hoàng Francis mặc áo khoác phồng Balenciaga, đã trở nên phổ biến vào tháng 3 và hầu hết mọi người đều nghĩ đó là sự thật. Tuy nhiên, nó được tạo bằng cách sử dụng phiên bản mới nhất của trình tạo hình ảnh trực tuyến có tên Midjourney và giờ đây nó đã truyền cảm hứng cho các thế hệ khác.

Bạn có thể đã thấy trên tin tức AI về các thế hệ Giáo hoàng Phanxicô mặc chiếc áo khoác màu trắng ấm áp. Tôi rất muốn thấy thế hệ của bạn được truyền cảm hứng từ nó.

Đây là lời nhắc của người sáng tạo ban đầu Guerrero Art (Pablo Xavier):

Giáo hoàng Công giáo Francis mặc áo khoác phồng Balenciaga trong bài tập rap… pic.twitter.com/5WA2UTYG7b

– Kris Kashtanova (@icreatelife) Ngày 28 tháng 3 năm 2023

Cảnh báo trong tương lai: Trợ lý pháp lý, trợ lý cá nhân và các công việc “công việc nặng nhọc” khác là mối quan tâm đặc biệt của Hinton vì chúng có thể được AI tự động hóa trong tương lai. Nếu bạn đang thắc mắc những rắc rối nào khác có thể gặp phải trong tương lai, hãy tiếp tục đọc, chúng tôi đã tổng hợp các cảnh báo phổ biến về AI trong phần tiếp theo.

Mối nguy hiểm của AI, đặc biệt là chatbot

Trí tuệ nhân tạo (AI) đang báo trước một kỷ nguyên mới của đổi mới công nghệ, cách mạng hóa nhiều khía cạnh của thế giới. Tuy nhiên, tác động biến đổi của AI không phải là không có những rủi ro nguy hiểm và thách thức ghê gớm, và chatbot cũng không ngoại lệ.

Mặc dù chatbot có lợi thế cao trong việc cung cấp nhiều loại dịch vụ như thông tin, giải trí và dịch vụ khách hàng, nhưng chúng cũng gây ra mối đe dọa đáng kể đối với một số lĩnh vực, bao gồm bảo mật, quyền riêng tư, đạo đức và xã hội nói chung. Bài đăng trên blog này nỗ lực khám phá một số mối nguy hiểm tiềm ẩn mà chatbot AI gây ra và đề xuất các giải pháp để giải quyết chúng. Dưới đây là một số mối nguy hiểm của chatbot AI:

  • Rủi ro bảo mật
  • Rủi ro về quyền riêng tư
  • Cân nhắc về mặt đạo đức
  • Rủi ro xã hội

Có ý nghĩa gì?

Sự phổ biến ngày càng tăng của chatbot trong nhiều lĩnh vực khác nhau cũng làm dấy lên mối lo ngại về tiềm năng Rủi ro bảo mật, đặc biệt là những thứ xuất phát từ các tác nhân độc hại. Sự nguy hiểm của AI còn mở rộng đến khả năng máy móc tạo ra tin tức giả và thao túng dư luận. Những rủi ro này có thể bao gồm từ việc truyền bá thông tin sai lệch, tuyên truyền hoặc tin tức giả mạo cho đến lừa đảo, gửi thư rác hoặc lừa đảo người dùng bằng cách mạo danh các cá nhân hoặc tổ chức đáng tin cậy.

Hơn nữa, các chatbot không được bảo mật hoặc quản lý đầy đủ có thể xâm phạm thông tin cá nhân hoặc nhạy cảm của người dùng hoặc tổ chức. Để giảm thiểu những mối nguy hiểm này của AI, các nhà phát triển chatbot nên triển khai các cơ chế mã hóa, xác thực, xác minh và kiểm duyệt mạnh mẽ. Ngoài ra, việc tuân thủ các tiêu chuẩn và hướng dẫn về đạo đức và pháp lý để bảo vệ dữ liệu và quyền riêng tư là điều cần thiết.

Rủi ro về quyền riêng tư liên quan đến chatbot đang ngày càng trở nên phổ biến khi chatbot thu thập, lưu trữ và phân tích lượng lớn dữ liệu người dùng, bao gồm các cuộc trò chuyện, hành vi, sở thích và cảm xúc. Mặc dù dữ liệu này có thể được sử dụng để nâng cao hiệu suất và chức năng của chatbot nhưng nó cũng có thể được sử dụng cho các mục đích có thể xâm phạm quyền riêng tư hoặc sự đồng ý của người dùng. Ví dụ: chatbot có thể khai thác dữ liệu người dùng để phân phối các quảng cáo, đề xuất hoặc ưu đãi được cá nhân hóa có mục tiêu. Họ cũng có thể chia sẻ dữ liệu này với các bên thứ ba mà người dùng không biết hoặc không cho phép. Hơn nữa, chatbot có thể xây dựng hồ sơ tâm lý của người dùng dựa trên tương tác của họ và tận dụng thông tin này để tác động đến quyết định hoặc hành động của họ và đó chỉ là một trong những mối nguy hiểm của AI.

Để bảo vệ quyền riêng tư của người dùng, các nhà phát triển chatbot phải minh bạch về cách thức sử dụng và thu thập dữ liệu của họ, đồng thời cho phép người dùng chọn không tham gia hoặc xóa dữ liệu của họ. Họ nên tôn trọng ranh giới và sở thích của người dùng, đồng thời tránh các hành vi lôi kéo hoặc xâm phạm.

Khi các chatbot AI ngày càng được tích hợp vào xã hội và cân nhắc về mặt đạo đức trở nên quan trọng hơn bao giờ hết. Khả năng chatbot duy trì sự thiên vị, phân biệt đối xử hoặc thành kiến, dù cố ý hay vô ý, đều gây ra rủi ro đạo đức đáng kể. Chúng cũng có thể hạ giá trị vai trò và các mối quan hệ của con người, đồng thời đe dọa quyền tự chủ và phẩm giá của mỗi cá nhân. Hơn nữa, chatbot có thể tạo ra nội dung hoặc hành động có hại, gây khó chịu hoặc không phù hợp, dẫn đến tình huống khó xử hoặc xung đột về mặt đạo đức.

Để giảm thiểu những mối nguy hiểm này của AI, các nhà phát triển chatbot nên ưu tiên các nguyên tắc và phương pháp thiết kế lấy con người làm trung tâm và toàn diện. Họ cũng nên duy trì các quy tắc và nguyên tắc đạo đức cũng như chịu trách nhiệm về kết quả và tác động của chatbot của mình.

Nguy hiểm đối với xã hội, chatbot có thể có cả tác động có lợi và có hại đối với đời sống xã hội và văn hóa của con người nói chung. Ví dụ: Chatbot có thể cải thiện các lĩnh vực như hòa nhập xã hội, giao tiếp, giáo dục và giải trí bằng cách mở rộng khả năng tiếp cận của mọi người với thông tin, tài nguyên và cơ hội có liên quan.

Họ cũng có tiềm năng khuyến khích sự đổi mới, sáng tạo và hợp tác xã hội bằng cách mở ra những con đường mới để giao tiếp và sản xuất các tác phẩm mới. Nhưng chatbot cũng có khả năng dẫn đến cảm giác xa lạ và cô lập. Vì vậy, bạn nên cẩn thận khi trò chuyện với chatbot AI để tránh những nguy hiểm từ AI.

Ồ, bạn là người mới làm quen với AI và mọi thứ dường như quá phức tạp? Hãy đọc tiếp…


AI 101

Bạn vẫn có thể lên tàu AI! Chúng tôi đã tạo một bảng chú giải chi tiết về AI cho các thuật ngữ trí tuệ nhân tạo được sử dụng phổ biến nhất và giải thích những kiến ​​thức cơ bản về trí tuệ nhân tạo cũng như những rủi ro và lợi ích của AI. Hãy thoải mái sử dụng chúng. Học cách sử dụng AI là yếu tố thay đổi cuộc chơi! Các mô hình AI sẽ thay đổi thế giới.

Các công cụ AI chúng tôi đã xem xét

Hầu như mỗi ngày, một công cụ, mô hình hoặc tính năng mới xuất hiện và thay đổi cuộc sống của chúng ta và chúng tôi đã xem xét một số công cụ, mô hình hoặc tính năng tốt nhất:

Bạn có muốn tìm hiểu cách sử dụng ChatGPT hiệu quả? Chúng tôi có một số mẹo và thủ thuật dành cho bạn mà không cần chuyển sang ChatGPT Plus, chẳng hạn như cách tải tệp PDF lên ChatGPT! Tuy nhiên, khi muốn sử dụng công cụ AI, bạn có thể gặp phải các lỗi như “ChatGPT hiện đang hoạt động hết công suất” và “quá nhiều yêu cầu trong 1-giờ thử lại sau”. Vâng, đó thực sự là những lỗi khó chịu, nhưng đừng lo lắng; chúng tôi biết cách khắc phục chúng. Đạo văn ChatGPT có miễn phí không? Đó là một câu hỏi khó để tìm ra một câu trả lời duy nhất. Nếu bạn sợ đạo văn, hãy sử dụng công cụ kiểm tra đạo văn AI. Ngoài ra, bạn có thể kiểm tra các chatbot AI và người viết bài luận AI khác để có kết quả tốt hơn.

Trong khi vẫn còn một số tranh luận về hình ảnh do trí tuệ nhân tạo tạo ra, mọi người vẫn đang tìm kiếm những công cụ tạo nghệ thuật AI tốt nhất. AI sẽ thay thế các nhà thiết kế? Hãy tiếp tục đọc và tìm hiểu.

  • Công cụ video AI
  • Công cụ thuyết trình AI
  • Công cụ tìm kiếm AI
  • Công cụ thiết kế nội thất AI
  • Các công cụ AI khác