Thông điệp thức tỉnh về trí tuệ nhân tạo tại hội thảo lớn nhất về AI
Thông điệp thức tỉnh về trí tuệ nhân tạo tại hội thảo lớn số 1 về AI
Thứ hai, 16/12/2019
Chia sẻ FBChia sẻ TwitterBình luậnCác nhà tiên phong trong lĩnh vực trí tuệ nhân tạo cảnh báo rằng tiến bộ đang chậm chạp, các trở lại chính là rất nhiều lớn và chỉ đơn thuần tăng nguy cơ tính toán cũng sẽ chưa giải quyết đã được vấn đề trong dài hạn.Gian hàng tại hội thảo NeurIPS 2019 (Ảnh qua kienthuc.net.vn)Hơn 13.000 nhà khoa học trong lĩnh vực trí tuệ nhân tạo (AI) đã tập hợp tại Vancouver vào trung tuần tháng 12/2019 để tham gia hội thảo AI hàn lâm hàng đầu mang tên NeurIPS. Sự kiện tập hợp nhiều gian hàng đầy màu sắc của các doanh nghiệp muốn tuyển dụng nhân sự cho dự án của mình, tất nhiên chưa thể thiếu sự góp mặt của các ông lớn như Google , IBM.Sáng ngày thứ tư, 11/12, một trong những nhà khảo sát hàng đầu của Google đã có bài thuyết trình, đưa ra thông điệp cảnh tỉnh về tương lai của AI.Ông Blaise Aguera y Arcas đã ca ngợi phương pháp học sâu (deep learning) mang tính cách mạng. Phương pháp này đã giúp cho cho các nhóm lập trình có thể cho máy tính hay điện thoại nhận diện khuôn mặt hoặc giọng nói. Ông cũng than thở về những thiếu sót của phương pháp, chủ yếu chính là về mặt thiết kế phần mềm gọi chính là mạng nơ-ron nhân tạo (neural networks) “học hỏi” bằng cách lặp đi lặp lại nhiều lần hoặc đối chiếu với rất nhiều nhiều ví dụ hay câu trả lời đúng.“Chúng ta giống như chú chó đã đuổi kịp chiếc xe hơi,” ông nói, ngụ ý rằng công nghệ đã đạt được mục tiêu đặt ra nhưng chưa biết thực hiện gì tiếp theo. Học sâu đã nhanh chóng vượt qua nhiều thử thách lâu năm trong AI – Tuy nhiên lĩnh vực này không hợp lý để xử lý nhiều thử thách khác vẫn còn tồn đọng. Ví dụ, vấn đề cần tới lý luận hay trí tuệ giao tiếp xã hội như cân nhắc khi tuyển dụng, vẫn nằm ngoài tầm với của máy tính.>> Các vấn đề “ngoài tầm với” của trí tuệ nhân tạo“Trong các mô hình mà mọi người ‘đào tạo’, tất cả đều là về vượt qua bài kiểm tra hoặc thắng trò chơi tính điểm, [nhưng] có quá nhiều thứ liên quan tới trí thông minh nằm ngoài đề mục đó,” ông nói.Vài tiếng sau, một trong ba nhà điều tra được xem chính là cha đẻ của học sâu cũng phát hiện ra những giới hạn của công nghệ này. Ông Yoshua Bengio, giám đốc của Mila – viện khảo sát AI ở Montreal, cho biết phương pháp này chỉ cho ra kết quả rất nhiều đặc thù: một hệ thống chơi xuất sắc trò chơi này lại không thể chơi một game khác. “Chúng ta có những cỗ máy học rất hạn hẹp. So với trí tuệ con người, chúng cần dữ liệu lớn hơn rất nhiều nhiều mới học được cách làm một nhiệm vụ đơn lẻ, , chúng vẫn mắc những lỗi ngu ngốc.”Cả 2 ông Bengio , Aguera y Arcas đều thúc giục những người tham gia hội nghị NEurIPS hãy suy nghĩ nhiều hơn về nguồn gốc sinh học của trí tuệ tự nhiên. Ông Bengio đã thảo luận về những điều tra bước đầu để thực hiện cho hệ thống học sâu đủ linh hoạt, có thể xử lý các tình huống khác với đã được đào tạo ban đầu – ông so sánh cũng giống như con người vẫn có thể lái xe khi đến một thành phố khác hay quốc gia khác.Những bài thuyết trình cảnh báo tại hội nghị NeurIPS lần này đã đến trong bối cảnh đầu tư vào AI đang đạt mức kỷ lục. Những quỹ mạo hiểm đã đổ gần 40 tỷ USD vào AI , máy học trong năm 2018, xấp xỉ gấp đôi so với năm 2017.
Tại hội nghị cũng có nhiều thảo luận về tránh của công nghệ AI hiện tại.Trước đây người ta vẫn thường lạc quan rằng Google và các hãng taxi tự hành sẽ sớm xuất hiện trên thị trường, nhưng giờ đây các kỳ vọng đã phức tạp , tránh hơn. Gân đây, giám đốc mảng AI của Facebook từng phát biểu rằng công ty của ông và các hãng khác chưa nên kỳ vọng sẽ luôn có tiến bộ trong AI chỉ đơn thuần chỉ bằng cách gây ra hệ thống học sâu to hơn với sức mạnh tính toán , dữ liệu lớn hơn. “Ở điểm nào đó mọi người sẽ đụng phải bức tường, , mọi người đã đụng phải tường theo nhiều cách.” >> Tổ chức AI: ĐCSTQ dùng trí tuệ nhân tạo nhằm giết hại người Hồng KôngMột số nhân vật tham dự NeurIPS cũng đang nỗ lực để leo qua hoặc đào ngầm qua bức tường đó. Có cả nguyên do khoa học và kinh doanh để tiếp tục phát triển, giúp AI có thể giải quyết các vấn đề phức tạp hơn , trở nên linh hoạt hơn.Anh Jeff Clune chính là nhà điều tra tại hãng Uber dự tính sẽ tham gia dự án OpenAI phi lợi nhuận trong năm tới. Anh chia sẻ ý tưởng gây nên AI thông minh hơn nữa, tạo ra các thuật toán tự học hỏi – có thể tự tạo ra thuật toán giúp robot học hỏi. Anh cũng gây ra các hệ thống tự đưa ra các vấn đề/môi trường thử thách để AI đi xử lý và tăng sức mạnh.Dưới đây chính là ví dụ về thuật toán tự gây ra các loại địa hình khó để tự thử thách:Introducing POET: it generates its own increasingly complex, diverse training environments & solves them. It automatically creates a learning curricula & training data, & potentially innovates endlessly! https://t.co/7I0pMmnA78 By @ruiwang2uiuc w/ @joelbot3000 & @kenneth0stanleypic.twitter.com/0PSD2GzI7Z— Jeff Clune (@jeffclune) January 8, 2019Các nhà điều tra hy vọng rằng biết đâu trong sự kiện năm nay sẽ có những người dành tâm sức để phát triển ý tưởng mới giúp mở ra thêm các lĩnh vực cho AI.
Theo Wired,Phong Trần
mặt tối của công nghệthuật toántrí tuệ nhân tạo
2019-12-16