Anthropic Muốn Trở Thành Công Ty AI Tốt Duy Nhất Tại Nước Mỹ Thời Trump

Anthropic Muốn Trở Thành Công Ty AI Tốt Duy Nhất Tại Nước Mỹ Thời Trump

Anthropic Muốn Trở Thành Công Ty AI "Tốt Duy Nhất" Tại Nước Mỹ Thời Trump

Giữa cuộc chạy đua vũ trang AI đầy rẫy những rủi ro tiềm ẩn, Anthropic, công ty đứng sau chatbot Claude, đang cố gắng định vị mình như một "người tốt" trong ngành. Động thái này, dù mang tính đạo đức cao đẹp, lại đang tạo ra những căng thẳng nhất định với chính quyền Trump khi công ty hạn chế việc sử dụng công nghệ của mình cho các mục đích giám sát.

Điểm mấu chốt nằm ở chính sách sử dụng của Anthropic, trong đó nghiêm cấm việc ứng dụng AI của họ để xác định các ứng dụng tư pháp hình sự, theo dõi vị trí, trạng thái cảm xúc hoặc giao tiếp của một người mà không có sự đồng ý của họ, và phân tích nội dung để kiểm duyệt cho các tổ chức chính phủ. Điều này, theo báo cáo của Semafor, đã gây ra không ít khó khăn cho các cơ quan liên bang như FBI, Secret Service và ICE.

“Chính sách của Anthropic đưa ra một phán xét đạo đức về cách các cơ quan thực thi pháp luật thực hiện công việc của họ”, một quan chức chính quyền than phiền với Semafor. Dù vậy, việc Anthropic không muốn tham gia vào hoạt động giám sát, đến một mức độ nào đó, vừa là một tuyên bố đạo đức, vừa là một động thái tự bảo vệ mình.

Anthropic không hề "quay lưng" hoàn toàn với chính phủ. Họ vẫn cho phép chính phủ sử dụng Claude với mức giá tượng trưng 1 đô la và thậm chí còn phát triển ClaudeGov, một phiên bản đặc biệt dành riêng cho cộng đồng tình báo. Tuy nhiên, giới hạn về việc sử dụng cho giám sát trong nước vẫn được giữ nguyên. Đại diện Anthropic cho biết ClaudeGov đã nhận được chứng nhận “Cao” từ Chương trình Quản lý Rủi ro và Ủy quyền Liên bang (FedRAMP), cho phép sử dụng với các khối lượng công việc nhạy cảm của chính phủ.

Sự khác biệt trong chính sách của Anthropic càng trở nên rõ ràng khi so sánh với các đối thủ cạnh tranh. Chính sách sử dụng của OpenAI, ví dụ, chỉ hạn chế "việc theo dõi trái phép các cá nhân", điều này có thể không loại trừ việc sử dụng công nghệ cho giám sát "hợp pháp".

Anthropic cũng đang tích cực ủng hộ các biện pháp an toàn AI. Gần đây, họ là công ty lớn duy nhất ủng hộ dự luật an toàn AI ở California, yêu cầu các công ty AI lớn phải tuân thủ các yêu cầu an toàn mới và nghiêm ngặt hơn. Dự luật này hiện đang chờ Thống đốc Newsom ký duyệt.

Tuy nhiên, nỗ lực định vị mình là một công ty AI "có đạo đức" của Anthropic cũng vấp phải những chỉ trích. Việc công ty bị cáo buộc sử dụng trái phép hàng triệu cuốn sách và bài báo để huấn luyện mô hình ngôn ngữ lớn của mình đã gây ra nhiều tranh cãi. Mặc dù khoản bồi thường 1,5 tỷ đô la đã được đưa ra để giải quyết vấn đề này, nó vẫn làm dấy lên những câu hỏi về đạo đức kinh doanh của Anthropic.

Nhìn chung, động thái của Anthropic là một canh bạc lớn. Liệu việc ưu tiên đạo đức và hạn chế giám sát có giúp họ tạo dựng được lòng tin và sự khác biệt trên thị trường AI đang cạnh tranh khốc liệt hay không? Câu trả lời vẫn còn ở phía trước, nhưng một điều chắc chắn là Anthropic đang gửi một thông điệp mạnh mẽ về vai trò và trách nhiệm của các công ty AI trong xã hội. Quyết định của họ sẽ có tác động không nhỏ đến cách chính phủ sử dụng AI và định hình tương lai của ngành công nghiệp này.