Thế giới chưa sẵn sàng phát triển AI thông minh như bộ não con người
Trí tuệ nhân tạo tổng quát là một rủi ro?
Trong nhiều năm, các nhà nghiên cứu đã suy đoán về sự xuất hiện của trí tuệ nhân tạo tổng quát, hay AGI, khi các hệ thống nhân tạo sẽ xử lý các vấn đề như con người ở nhiều nhiệm vụ khác nhau. Nhiều người cho rằng sự xuất hiện của nó là một rủi ro hiện hữu, vì nó có thể cho phép máy tính hoạt động theo những cách mà con người không thể ngờ tới.
Giờ đây, người được giao nhiệm vụ đảm bảo rằng nhà phát triển ChatGPT, OpenAI đã sẵn sàng cho sự xuất hiện của AGI thừa nhận, cả thế giới và chính công ty này đều "chưa sẵn sàng" cho bước phát triển tiếp theo. Miles Brundage từng là "cố vấn cấp cao của OpenAI về mức độ sẵn sàng của AGI", nhưng mới thông báo rời đi trong tuần này khi công ty giải thể nhóm.
"Cả OpenAI và bất kỳ phòng thí nghiệm tiên phong nào khác đều chưa sẵn sàng (cho AGI), và thế giới cũng chưa sẵn sàng. Nói một cách rõ ràng, tôi không nghĩ đây là một tuyên bố gây tranh cãi trong số các nhà lãnh đạo của OpenAI, thay vào đó là một câu hỏi khác về việc liệu công ty và thế giới có đang đi đúng hướng để sẵn sàng vào thời điểm thích hợp hay không", ông Brundage, người đã dành 6 năm giúp định hình các sáng kiến về an toàn AI của công ty cho biết.
Sự kiện ông Brundage chia tay đánh dấu sự ra đi mới nhất của hàng loạt nhân sự đáng chú ý khỏi các nhóm an toàn của OpenAI. Jan Leike, một nhà nghiên cứu nổi tiếng, đã rời đi sau khi tuyên bố rằng "văn hóa và quy trình an toàn đã lùi lại phía sau các sản phẩm lóng lánh". Đồng sáng lập Ilya Sutskever cũng chia tay để ra mắt công ty khởi nghiệp AI của riêng mình tập trung vào phát triển AGI an toàn.
Việc giải thể nhóm "AGI Readiness" của Brundage diễn ra chỉ vài tháng sau khi công ty giải thể nhóm "Superalignment" chuyên giảm thiểu rủi ro AI dài hạn, làm nổ ra những căng thẳng giữa sứ mệnh ban đầu của OpenAI và tham vọng thương mại của công ty.
Áp lực lợi nhuận khiến OpenAI chệch hướng an toàn
Theo báo cáo, OpenAI phải đối mặt với áp lực chuyển đổi từ một tổ chức phi lợi nhuận sang một công ty vì lợi nhuận trong vòng 2 năm - hoặc có nguy cơ mất vốn từ vòng đầu tư 6,6 tỷ đô la Mỹ gần đây. Sự thay đổi hướng tới thương mại hóa này từ lâu đã khiến Brundage lo ngại, thể hiện sự dè dặt từ năm 2019 khi OpenAI lần đầu tiên thành lập bộ phận vì lợi nhuận.
Khi giải thích về sự ra đi của mình, Brundage đã trích dẫn những hạn chế ngày càng tăng đối với quyền tự do nghiên cứu và xuất bản của ông tại công ty nổi tiếng này. Ông nhấn mạnh đến nhu cầu có tiếng nói độc lập trong các cuộc thảo luận về chính sách AI, không bị ảnh hưởng bởi định kiến của ngành và xung đột lợi ích. Sau khi tư vấn cho ban lãnh đạo của OpenAI về sự chuẩn bị nội bộ, ông tin rằng giờ đây có thể tạo ra tác động lớn hơn đối với hoạt động quản trị AI toàn cầu từ bên ngoài tổ chức.
Sự ra đi này cũng phản ánh chia rẽ sâu sắc hơn về mặt văn hóa trong OpenAI. Nhiều nhà nghiên cứu đã tham gia để thúc đẩy nghiên cứu AI và giờ đây thấy bản thân đang ở trong một môi trường ngày càng bị thúc đẩy bởi sản phẩm. Việc phân bổ nguồn lực nội bộ đã trở thành điểm nóng - các báo cáo chỉ ra rằng nhóm của Leike đã bị từ chối cung cấp năng lượng điện toán cho nghiên cứu an toàn trước khi giải thể.
OpenAI đã phải đối mặt với nhiều câu hỏi trong những tháng gần đây về kế hoạch phát triển trí tuệ nhân tạo và mức độ coi trọng sự an toàn của công ty. Mặc dù được thành lập như một tổ chức phi lợi nhuận với mục đích nghiên cứu cách xây dựng trí tuệ nhân tạo một cách an toàn, nhưng thành công của ChatGPT đã mang lại khoản đầu tư lớn và áp lực sử dụng công nghệ mới để kiếm lợi nhuận.
Đức Bình