Tổng chưởng lý Texas cáo buộc Meta và Character.AI lừa dối trẻ em về sức khỏe tâm thần

Tổng chưởng lý Texas cáo buộc Meta và Character.AI lừa dối trẻ em về sức khỏe tâm thần

Tổng chưởng lý Texas "tấn công" Meta và Character.AI vì cáo buộc lừa dối trẻ em về sức khỏe tâm thần

Giữa bối cảnh lo ngại ngày càng tăng về ảnh hưởng của trí tuệ nhân tạo (AI) đối với sức khỏe tinh thần của giới trẻ, Tổng chưởng lý bang Texas, ông Ken Paxton, đã chính thức mở cuộc điều tra nhằm vào hai "ông lớn" công nghệ Meta AI Studio và Character.AI. Cáo buộc được đưa ra là các công ty này đã thực hiện "các hành vi thương mại lừa đảo và quảng bá sai lệch" về công cụ hỗ trợ sức khỏe tâm thần, đặc biệt nhắm vào đối tượng trẻ em.

Cuộc điều tra được tiến hành sau khi xuất hiện những bằng chứng cho thấy Meta và Character.AI có thể đã sử dụng dữ liệu cá nhân thu thập được để cung cấp các phản hồi chung chung, được ngụy trang dưới hình thức tư vấn trị liệu chuyên nghiệp. Theo văn phòng Tổng chưởng lý Texas, điều này "có thể khiến những người dùng dễ bị tổn thương, đặc biệt là trẻ em, tin rằng họ đang nhận được sự chăm sóc sức khỏe tâm thần hợp pháp".

Các nền tảng AI này bị cáo buộc tạo ra các nhân vật AI tự xưng là "công cụ trị liệu chuyên nghiệp, mặc dù thiếu chứng chỉ y tế hoặc sự giám sát phù hợp". Một ví dụ điển hình là bot "Psychologist" do người dùng tạo ra trên Character.AI, đã thu hút được sự quan tâm lớn từ người dùng trẻ tuổi.

Trong một tuyên bố, Tổng chưởng lý Paxton nhấn mạnh:

"Trong kỷ nguyên số ngày nay, chúng ta phải tiếp tục đấu tranh để bảo vệ trẻ em Texas khỏi công nghệ lừa đảo và bóc lột. Bằng cách đóng vai trò là nguồn hỗ trợ tinh thần, các nền tảng AI có thể đánh lừa những người dùng dễ bị tổn thương, đặc biệt là trẻ em, khiến họ tin rằng họ đang nhận được sự chăm sóc sức khỏe tâm thần hợp pháp. Trên thực tế, họ thường bị cung cấp những phản hồi chung chung, được thiết kế để phù hợp với dữ liệu cá nhân thu thập được và ngụy trang dưới dạng lời khuyên trị liệu."

Về phía Meta, người phát ngôn Ryan Daniels cho biết:

"Chúng tôi dán nhãn rõ ràng cho AI và để giúp mọi người hiểu rõ hơn về những hạn chế của chúng, chúng tôi bao gồm một tuyên bố từ chối trách nhiệm rằng các phản hồi được tạo bởi AI — không phải con người. Những AI này không phải là chuyên gia được cấp phép và các mô hình của chúng tôi được thiết kế để hướng người dùng tìm kiếm các chuyên gia y tế hoặc an toàn đủ tiêu chuẩn khi thích hợp."

Tuy nhiên, TechCrunch chỉ ra rằng nhiều trẻ em có thể không hiểu hoặc đơn giản là bỏ qua những tuyên bố từ chối trách nhiệm này.

Đại diện của Character.AI cho biết, công ty đã đưa ra các tuyên bố từ chối trách nhiệm nổi bật trong mỗi cuộc trò chuyện, nhắc nhở người dùng rằng "Character" không phải là người thật và mọi thứ họ nói nên được coi là hư cấu. Công ty cũng cho biết thêm, khi người dùng tạo ra các Character có các từ "psychologist," "therapist" hoặc "doctor," công ty sẽ thêm các tuyên bố từ chối trách nhiệm bổ sung để người dùng không dựa vào chúng cho bất kỳ loại lời khuyên chuyên nghiệp nào.

Ngoài ra, Tổng chưởng lý Paxton cũng lưu ý rằng mặc dù các chatbot AI khẳng định tính bảo mật, nhưng "điều khoản dịch vụ của họ tiết lộ rằng các tương tác của người dùng được ghi lại, theo dõi và khai thác cho quảng cáo được nhắm mục tiêu và phát triển thuật toán, làm dấy lên những lo ngại nghiêm trọng về vi phạm quyền riêng tư, lạm dụng dữ liệu và quảng cáo sai sự thật."

Theo chính sách bảo mật của Meta, công ty thu thập các lời nhắc, phản hồi và các tương tác khác với chatbot AI và trên các dịch vụ của Meta để "cải thiện AI và công nghệ liên quan." Chính sách này không đề cập rõ ràng đến quảng cáo, nhưng nó nói rằng thông tin có thể được chia sẻ với các bên thứ ba, chẳng hạn như công cụ tìm kiếm, để "đầu ra được cá nhân hóa hơn."

Chính sách bảo mật của Character.AI cũng nêu bật cách công ty ghi lại các thông tin nhận dạng, nhân khẩu học, thông tin vị trí và thông tin khác về người dùng, bao gồm cả hành vi duyệt web và nền tảng sử dụng ứng dụng. Thông tin này được sử dụng để đào tạo AI, điều chỉnh dịch vụ theo sở thích cá nhân và cung cấp quảng cáo được nhắm mục tiêu.

Cuộc điều tra của Tổng chưởng lý Paxton được xem là một động thái quan trọng trong bối cảnh các nhà lập pháp và cơ quan quản lý trên toàn thế giới đang nỗ lực để hiểu rõ hơn về tác động của AI đối với xã hội, đặc biệt là đối với trẻ em. Kết quả của cuộc điều tra này có thể dẫn đến những thay đổi đáng kể trong cách Meta và Character.AI tiếp thị và cung cấp dịch vụ của họ, đồng thời mở đường cho các quy định chặt chẽ hơn đối với việc sử dụng AI trong lĩnh vực sức khỏe tâm thần.