Người đồng sáng lập Ethereum, Vitalik Buterin, đã lên tiếng trên X (trước đây là Twitter) vào thứ Hai để phản đối sự đổ xô hiện tại tới các hệ thống AI được gọi là "agentic", những mô hình được xây dựng để hoạt động tự động với sự giám sát tối thiểu của con người. Ông cũng kêu gọi lập luận cho các mô hình cho phép con người điều khiển và chỉnh sửa khi họ tiến hành. "Phản ánh điều mà Andrej Karpathy gần đây đã nói, tôi cảm thấy thất vọng khi mà nhiều phát triển AI đang cố gắng trở nên 'agentic' nhất có thể," Buterin viết.
Ông đã thêm rằng việc tăng cường các con đường cho đầu vào của con người không chỉ cải thiện đầu ra mà còn "tốt hơn cho sự an toàn." Đồng sáng lập Ethereum cho biết ông "hào hứng hơn nhiều về các mô hình AI trọng số mở với chức năng chỉnh sửa tốt hơn là những mô hình chỉ để tạo ra từ đầu," và thậm chí đã phác thảo một ước muốn trung hạn: "một thứ BCI tinh vi nào đó cho phép tôi thấy thứ đó khi nó đang được tạo ra và phát hiện theo thời gian thực cảm giác của tôi về từng phần của nó và điều chỉnh tương ứng."
Bài viết này trực tiếp phản ánh những nhận xét gần đây của Andrej Karpathy, người đã cảnh báo trong một bài phát biểu quan trọng và các cuộc phỏng vấn tiếp theo rằng không nên coi các mô hình ngôn ngữ lớn như là những tác nhân tự trị không sai lầm và khuyến khích các nhà phát triển giữ AI "trong tầm kiểm soát", nhấn mạnh rằng sự giám sát của con người, việc đưa ra các gợi ý cẩn thận và phát triển từng bước vẫn là điều cần thiết.
Tại sao điều này quan trọng bây giờ
Những bình luận của Buterin xuất hiện vào thời điểm mà các phòng thí nghiệm lớn đang công khai thay đổi lập trường về sự cởi mở và kiểm soát của người dùng. Vào đầu tháng Tám, OpenAI đã khiến nhiều người ngạc nhiên khi phát hành một bộ mô hình có trọng số mở, gpt-oss-120b và gpt-oss-20b, có thể được tải xuống, kiểm tra và tinh chỉnh bởi các nhà phát triển bên ngoài, một động thái được một số người coi là bước tiến hướng tới việc dân chủ hóa công cụ AI mạnh mẽ. Những người ủng hộ cho rằng trọng số mở giúp dễ dàng hơn trong việc xây dựng các quy trình làm việc tùy chỉnh, lấy con người làm trung tâm và kiểm tra các mô hình để phát hiện vấn đề an toàn; các nhà phê bình cảnh báo về những rủi ro lạm dụng của các mô hình mạnh mẽ được phân phối rộng rãi.
Sự ưa thích công khai của Buterin về "chức năng chỉnh sửa" gắn liền với một xu hướng nổi lên trong ngành: thay vì yêu cầu các mô hình sản xuất công việc hoàn chỉnh và sau đó rút lui, nhiều nhà nghiên cứu muốn có những giao diện cho phép con người can thiệp trong quá trình tạo ra, cắt tỉa, sửa chữa hoặc hướng dẫn đầu ra theo thời gian thực. Những người ủng hộ lập luận rằng điều này giảm thiểu ảo giác, giữ cho con người hoàn toàn kiểm soát ý định, và sản xuất các sản phẩm phù hợp hơn với sở thích và ràng buộc an toàn của con người. Bài nói chuyện gần đây của Karpathy cũng nhấn mạnh sự cần thiết của các quy trình làm việc chặt chẽ có con người tham gia.
BCI + Generative AI
Sự mong muốn không chính thức của Buterin về một giao diện não-máy tính )BCI( mà cảm nhận phản ứng cảm xúc khi nội dung được tạo ra không phải là điều hoàn toàn viển vông. Năm nay đã chứng kiến một loạt tiến bộ đáng kể trong BCI: các công ty từ Neuralink đến Synchron và một loạt các công ty khởi nghiệp đang triển khai các thử nghiệm trên người, các cấy ghép ít xâm lấn hơn và các thiết bị đeo dựa trên EEG nhằm giải mã sự chú ý và các trạng thái cảm xúc trong thời gian thực.
Công trình học thuật về phát hiện cảm xúc dựa trên EEG và "tính toán cảm xúc" cũng đã được cải thiện, cho thấy rằng các thiết bị có khả năng đánh dấu khi người dùng thích, không thích hoặc trung lập với một cái gì đó ngày càng khả thi hơn. Tuy nhiên, việc giải mã cảm xúc hoàn toàn đáng tin cậy, đặc biệt là không xâm lấn, vẫn là một thách thức nghiên cứu đang diễn ra.
Những gì cuộc tranh luận tiết lộ
Khi xem xét tổng thể, các tín hiệu chỉ ra hai xu hướng đồng thời trong sự phát triển AI. Một xu hướng hướng tới các hệ thống có tính tác động cao hơn, có thể thực hiện các nhiệm vụ phức tạp với ít hoặc không có sự giám sát của con người; xu hướng khác, được các nhân vật như Karpathy phát biểu và giờ đây được Buterin nhắc lại, lập luận về việc cung cấp công cụ giữ cho con người gắn bó chặt chẽ với hành vi của mô hình, cho dù thông qua giao diện chỉnh sửa tốt hơn, xác minh có con người trong quy trình, hay thậm chí là phản hồi công nghệ thần kinh.
Đối với những người theo dõi ngành công nghiệp, sự cân bằng giữa các cách tiếp cận đó sẽ định hình thiết kế sản phẩm, quy định và niềm tin của công chúng. Các bản phát hành open-weights giúp các nhóm độc lập dễ dàng thử nghiệm các lớp chỉnh sửa tập trung vào con người, nhưng chúng cũng mở rộng sự phân phối của các mô hình mạnh mẽ, điều mà các nhà quản lý và nhà nghiên cứu an toàn lo ngại có thể gia tăng việc lạm dụng.
Trong khi BCI và phát hiện cảm xúc có những bước tiến từng bước, các giao diện mới thực sự có thể cho phép các nhà sáng tạo "thúc đẩy" các mô hình bằng những tín hiệu phong phú hơn nhiều so với các gợi ý được gõ, đặt ra những câu hỏi mới về quyền riêng tư, sự đồng ý và cách các trạng thái bên trong được đo lường và lưu trữ. Tweet của Vitalik Buterin ít mang tính chất bản thiết kế kỹ thuật hơn là một tuyên bố về giá trị: các đầu ra tốt hơn và hệ thống an toàn hơn đến từ việc giữ con người và những tín hiệu phức tạp, tinh tế của sở thích con người ở trung tâm của các quy trình AI.
Dù tương lai đó có đến từ các mô hình mở có thể chỉnh sửa hôm nay hay các giao diện liên kết não vào ngày mai, cuộc trò chuyện đã bắt đầu chuyển hướng từ sự tự chủ thuần túy sang một sự hợp tác phong phú hơn giữa con người và AI. Như Buterin đã nói trong bài viết của mình, anh ấy thích xem một cái gì đó được sinh ra và có thể điều khiển nó hơn là hoàn toàn trao quyền.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Vitalik Buterin chỉ trích AI Agentic, kêu gọi các mô hình có thể chỉnh sửa và tích hợp công nghệ thần kinh
Người đồng sáng lập Ethereum, Vitalik Buterin, đã lên tiếng trên X (trước đây là Twitter) vào thứ Hai để phản đối sự đổ xô hiện tại tới các hệ thống AI được gọi là "agentic", những mô hình được xây dựng để hoạt động tự động với sự giám sát tối thiểu của con người. Ông cũng kêu gọi lập luận cho các mô hình cho phép con người điều khiển và chỉnh sửa khi họ tiến hành. "Phản ánh điều mà Andrej Karpathy gần đây đã nói, tôi cảm thấy thất vọng khi mà nhiều phát triển AI đang cố gắng trở nên 'agentic' nhất có thể," Buterin viết.
Ông đã thêm rằng việc tăng cường các con đường cho đầu vào của con người không chỉ cải thiện đầu ra mà còn "tốt hơn cho sự an toàn." Đồng sáng lập Ethereum cho biết ông "hào hứng hơn nhiều về các mô hình AI trọng số mở với chức năng chỉnh sửa tốt hơn là những mô hình chỉ để tạo ra từ đầu," và thậm chí đã phác thảo một ước muốn trung hạn: "một thứ BCI tinh vi nào đó cho phép tôi thấy thứ đó khi nó đang được tạo ra và phát hiện theo thời gian thực cảm giác của tôi về từng phần của nó và điều chỉnh tương ứng."
Bài viết này trực tiếp phản ánh những nhận xét gần đây của Andrej Karpathy, người đã cảnh báo trong một bài phát biểu quan trọng và các cuộc phỏng vấn tiếp theo rằng không nên coi các mô hình ngôn ngữ lớn như là những tác nhân tự trị không sai lầm và khuyến khích các nhà phát triển giữ AI "trong tầm kiểm soát", nhấn mạnh rằng sự giám sát của con người, việc đưa ra các gợi ý cẩn thận và phát triển từng bước vẫn là điều cần thiết.
Tại sao điều này quan trọng bây giờ
Những bình luận của Buterin xuất hiện vào thời điểm mà các phòng thí nghiệm lớn đang công khai thay đổi lập trường về sự cởi mở và kiểm soát của người dùng. Vào đầu tháng Tám, OpenAI đã khiến nhiều người ngạc nhiên khi phát hành một bộ mô hình có trọng số mở, gpt-oss-120b và gpt-oss-20b, có thể được tải xuống, kiểm tra và tinh chỉnh bởi các nhà phát triển bên ngoài, một động thái được một số người coi là bước tiến hướng tới việc dân chủ hóa công cụ AI mạnh mẽ. Những người ủng hộ cho rằng trọng số mở giúp dễ dàng hơn trong việc xây dựng các quy trình làm việc tùy chỉnh, lấy con người làm trung tâm và kiểm tra các mô hình để phát hiện vấn đề an toàn; các nhà phê bình cảnh báo về những rủi ro lạm dụng của các mô hình mạnh mẽ được phân phối rộng rãi.
Sự ưa thích công khai của Buterin về "chức năng chỉnh sửa" gắn liền với một xu hướng nổi lên trong ngành: thay vì yêu cầu các mô hình sản xuất công việc hoàn chỉnh và sau đó rút lui, nhiều nhà nghiên cứu muốn có những giao diện cho phép con người can thiệp trong quá trình tạo ra, cắt tỉa, sửa chữa hoặc hướng dẫn đầu ra theo thời gian thực. Những người ủng hộ lập luận rằng điều này giảm thiểu ảo giác, giữ cho con người hoàn toàn kiểm soát ý định, và sản xuất các sản phẩm phù hợp hơn với sở thích và ràng buộc an toàn của con người. Bài nói chuyện gần đây của Karpathy cũng nhấn mạnh sự cần thiết của các quy trình làm việc chặt chẽ có con người tham gia.
BCI + Generative AI
Sự mong muốn không chính thức của Buterin về một giao diện não-máy tính )BCI( mà cảm nhận phản ứng cảm xúc khi nội dung được tạo ra không phải là điều hoàn toàn viển vông. Năm nay đã chứng kiến một loạt tiến bộ đáng kể trong BCI: các công ty từ Neuralink đến Synchron và một loạt các công ty khởi nghiệp đang triển khai các thử nghiệm trên người, các cấy ghép ít xâm lấn hơn và các thiết bị đeo dựa trên EEG nhằm giải mã sự chú ý và các trạng thái cảm xúc trong thời gian thực.
Công trình học thuật về phát hiện cảm xúc dựa trên EEG và "tính toán cảm xúc" cũng đã được cải thiện, cho thấy rằng các thiết bị có khả năng đánh dấu khi người dùng thích, không thích hoặc trung lập với một cái gì đó ngày càng khả thi hơn. Tuy nhiên, việc giải mã cảm xúc hoàn toàn đáng tin cậy, đặc biệt là không xâm lấn, vẫn là một thách thức nghiên cứu đang diễn ra.
Những gì cuộc tranh luận tiết lộ
Khi xem xét tổng thể, các tín hiệu chỉ ra hai xu hướng đồng thời trong sự phát triển AI. Một xu hướng hướng tới các hệ thống có tính tác động cao hơn, có thể thực hiện các nhiệm vụ phức tạp với ít hoặc không có sự giám sát của con người; xu hướng khác, được các nhân vật như Karpathy phát biểu và giờ đây được Buterin nhắc lại, lập luận về việc cung cấp công cụ giữ cho con người gắn bó chặt chẽ với hành vi của mô hình, cho dù thông qua giao diện chỉnh sửa tốt hơn, xác minh có con người trong quy trình, hay thậm chí là phản hồi công nghệ thần kinh.
Đối với những người theo dõi ngành công nghiệp, sự cân bằng giữa các cách tiếp cận đó sẽ định hình thiết kế sản phẩm, quy định và niềm tin của công chúng. Các bản phát hành open-weights giúp các nhóm độc lập dễ dàng thử nghiệm các lớp chỉnh sửa tập trung vào con người, nhưng chúng cũng mở rộng sự phân phối của các mô hình mạnh mẽ, điều mà các nhà quản lý và nhà nghiên cứu an toàn lo ngại có thể gia tăng việc lạm dụng.
Trong khi BCI và phát hiện cảm xúc có những bước tiến từng bước, các giao diện mới thực sự có thể cho phép các nhà sáng tạo "thúc đẩy" các mô hình bằng những tín hiệu phong phú hơn nhiều so với các gợi ý được gõ, đặt ra những câu hỏi mới về quyền riêng tư, sự đồng ý và cách các trạng thái bên trong được đo lường và lưu trữ. Tweet của Vitalik Buterin ít mang tính chất bản thiết kế kỹ thuật hơn là một tuyên bố về giá trị: các đầu ra tốt hơn và hệ thống an toàn hơn đến từ việc giữ con người và những tín hiệu phức tạp, tinh tế của sở thích con người ở trung tâm của các quy trình AI.
Dù tương lai đó có đến từ các mô hình mở có thể chỉnh sửa hôm nay hay các giao diện liên kết não vào ngày mai, cuộc trò chuyện đã bắt đầu chuyển hướng từ sự tự chủ thuần túy sang một sự hợp tác phong phú hơn giữa con người và AI. Như Buterin đã nói trong bài viết của mình, anh ấy thích xem một cái gì đó được sinh ra và có thể điều khiển nó hơn là hoàn toàn trao quyền.