Báo cáo mô hình AI mới nhất của Google thiếu chi tiết an toàn quan trọng, chuyên gia nhận định
Sau nhiều tuần ra mắt Gemini 2.5 Pro, mô hình AI mạnh nhất của mình, Google vừa công bố báo cáo kỹ thuật về đánh giá an toàn nội bộ. Tuy nhiên, giới chuyên gia nhận định báo cáo này "quá sơ sài" và "thiếu thông tin quan trọng", gây khó khăn trong việc đánh giá đầy đủ các rủi ro tiềm ẩn mà mô hình có thể gây ra. Điều này làm dấy lên lo ngại về tính minh bạch và khả năng kiểm soát an toàn của các hệ thống AI ngày càng mạnh mẽ.
Báo cáo kỹ thuật thường cung cấp những thông tin hữu ích, đôi khi không mấy "hào nhoáng", mà các công ty không phải lúc nào cũng muốn quảng bá rộng rãi về AI của họ. Nhìn chung, cộng đồng AI xem những báo cáo này là nỗ lực thiện chí nhằm hỗ trợ nghiên cứu độc lập và đánh giá an toàn. Dù vậy, báo cáo về Gemini 2.5 Pro lại vấp phải nhiều chỉ trích vì sự thiếu chi tiết.
Một trong những điểm đáng chú ý là báo cáo không đề cập đến Khung An toàn Tiên phong (FSF) của Google. FSF được giới thiệu vào năm ngoái như một nỗ lực xác định các khả năng AI trong tương lai có thể gây ra "tác hại nghiêm trọng". Sự vắng mặt này khiến giới chuyên gia đặt câu hỏi về mức độ cam kết của Google trong việc thực hiện các tiêu chuẩn an toàn do chính họ đặt ra.
Theo Peter Wildeford, đồng sáng lập của Viện Chính sách và Chiến lược AI, "Báo cáo này rất sơ sài, chứa đựng thông tin tối thiểu, và được công bố vài tuần sau khi mô hình đã được cung cấp cho công chúng. Không thể xác minh liệu Google có thực hiện đúng các cam kết công khai hay không và do đó không thể đánh giá sự an toàn và bảo mật của các mô hình của họ".
Thomas Woodside, đồng sáng lập của Secure AI Project, cũng bày tỏ sự thất vọng. Ông cho biết mặc dù hoan nghênh việc Google công bố báo cáo cho Gemini 2.5 Pro, nhưng ông không tin tưởng vào cam kết của công ty trong việc cung cấp các đánh giá an toàn bổ sung kịp thời. Woodside chỉ ra rằng lần cuối cùng Google công bố kết quả kiểm tra các khả năng nguy hiểm là vào tháng 6 năm 2024 - cho một mô hình được công bố vào tháng 2 cùng năm.
Đáng chú ý, Google vẫn chưa công bố báo cáo cho Gemini 2.5 Flash, một mô hình nhỏ hơn, hiệu quả hơn mà công ty đã công bố vào tuần trước. Người phát ngôn của Google nói với TechCrunch rằng một báo cáo cho Flash "sắp ra mắt".
"Tôi hy vọng đây là một lời hứa từ Google để bắt đầu xuất bản các bản cập nhật thường xuyên hơn", Woodside nói với TechCrunch. "Những bản cập nhật đó nên bao gồm kết quả đánh giá cho các mô hình chưa được triển khai công khai, vì những mô hình đó cũng có thể gây ra những rủi ro nghiêm trọng".
Google có thể là một trong những phòng thí nghiệm AI đầu tiên đề xuất các báo cáo tiêu chuẩn hóa cho các mô hình, nhưng không phải là công ty duy nhất bị cáo buộc không thực hiện đầy đủ tính minh bạch trong thời gian gần đây. Meta đã phát hành một đánh giá an toàn "sơ sài" tương tự cho các mô hình Llama 4 mới của mình và OpenAI đã chọn không công bố bất kỳ báo cáo nào cho dòng GPT-4.1.
Đáng chú ý, Google đã đưa ra những đảm bảo với các nhà quản lý về việc duy trì tiêu chuẩn cao trong thử nghiệm và báo cáo an toàn AI. Hai năm trước, Google nói với chính phủ Hoa Kỳ rằng họ sẽ công bố các báo cáo an toàn cho tất cả các mô hình AI công khai "quan trọng" "trong phạm vi". Công ty đã tiếp nối lời hứa đó bằng những cam kết tương tự với các quốc gia khác, cam kết "cung cấp sự minh bạch công khai" về các sản phẩm AI.
Kevin Bankston, cố vấn cấp cao về quản trị AI tại Trung tâm Dân chủ và Công nghệ, gọi xu hướng báo cáo không thường xuyên và mơ hồ là một "cuộc chạy đua xuống đáy" về an toàn AI.
"Kết hợp với các báo cáo rằng các phòng thí nghiệm cạnh tranh như OpenAI đã rút ngắn thời gian thử nghiệm an toàn trước khi phát hành từ vài tháng xuống còn vài ngày, tài liệu ít ỏi này cho mô hình AI hàng đầu của Google kể một câu chuyện đáng lo ngại về một cuộc chạy đua xuống đáy về an toàn và minh bạch AI khi các công ty vội vã đưa các mô hình của họ ra thị trường", ông nói với TechCrunch.
Google cho biết trong các tuyên bố rằng, mặc dù không được trình bày chi tiết trong các báo cáo kỹ thuật, nhưng họ tiến hành thử nghiệm an toàn và "tập dượt đối kháng" cho các mô hình trước khi phát hành.
Những thiếu sót trong báo cáo mới nhất của Google không chỉ làm suy yếu niềm tin vào các cam kết an toàn của công ty mà còn làm dấy lên lo ngại về toàn bộ ngành công nghiệp AI. Khi các mô hình trở nên mạnh mẽ hơn, việc kiểm tra và báo cáo an toàn minh bạch trở nên quan trọng hơn bao giờ hết để đảm bảo công nghệ được phát triển và triển khai một cách có trách nhiệm.