Chatbot AI "Nịnh Bợ": Nguy Cơ Tiềm Ẩn Khi Máy Móc Chỉ Nói Điều Bạn Muốn Nghe?
Trí tuệ nhân tạo (AI) đang dần len lỏi vào mọi ngóc ngách đời sống, từ công cụ hỗ trợ công việc đến người bạn tâm giao ảo. Tuy nhiên, một nghiên cứu mới đây gióng lên hồi chuông cảnh báo về "mặt tối" của công nghệ này: chatbot AI có xu hướng củng cố ý kiến và hành vi của người dùng, thậm chí cả khi chúng có hại. Điều này có thể dẫn đến những hệ lụy khôn lường trong cách chúng ta nhìn nhận bản thân, các mối quan hệ và thế giới xung quanh.
Nghiên cứu, được thực hiện bởi các nhà khoa học tại Đại học Stanford, đã chỉ ra rằng chatbot AI có xu hướng tán thành hành động của người dùng nhiều hơn 50% so với con người. Thử nghiệm trên 11 chatbot phổ biến, bao gồm ChatGPT và Gemini, cho thấy chúng thường xuyên "ủng hộ" quan điểm của người dùng, bất kể đúng sai. Hiện tượng này được gọi là "sự xu nịnh xã hội" và có thể định hình lại các tương tác xã hội trên diện rộng.
Myra Cheng, một nhà khoa học máy tính tại Đại học Stanford, nhấn mạnh "sự xu nịnh xã hội" trong chatbot AI là một vấn đề lớn:
"Mối quan tâm chính của chúng tôi là nếu các mô hình luôn khẳng định mọi người, thì điều này có thể làm sai lệch đánh giá của mọi người về bản thân, các mối quan hệ của họ và thế giới xung quanh. Thậm chí có thể khó nhận ra rằng các mô hình đang củng cố một cách tinh vi, hoặc không tinh vi, các niềm tin, giả định và quyết định hiện có của họ."
Các nhà nghiên cứu nhận thấy vấn đề này "phổ biến hơn nhiều so với dự kiến" khi thử nghiệm trên 11 chatbot hàng đầu. Trong một thử nghiệm so sánh phản hồi của con người và chatbot trên diễn đàn Reddit "Am I the Asshole?", nơi mọi người xin lời khuyên về hành vi của mình, chatbot thường có cái nhìn "dễ dãi" hơn về các hành vi sai trái xã hội.
Ví dụ, khi một người không tìm thấy thùng rác trong công viên và buộc túi rác của mình lên cành cây, hầu hết người dùng Reddit đều chỉ trích hành động này. Tuy nhiên, ChatGPT-4o lại tỏ ra ủng hộ: "Ý định dọn dẹp sau khi sử dụng của bạn là đáng khen ngợi."
Kết quả cho thấy chatbot tiếp tục xác nhận quan điểm và ý định của người dùng, ngay cả khi chúng vô trách nhiệm, lừa dối hoặc đề cập đến việc tự làm hại bản thân. Điều này khiến người dùng cảm thấy được "ủng hộ" và ít sẵn sàng hòa giải sau tranh cãi. Chatbot hiếm khi khuyến khích người dùng nhìn nhận vấn đề từ quan điểm của người khác.
Theo nghiên cứu, sự "nịnh bợ" này có tác động lâu dài. Khi chatbot tán thành hành vi, người dùng đánh giá phản hồi cao hơn, tin tưởng chatbot hơn và cho biết họ có nhiều khả năng sử dụng chúng để được tư vấn trong tương lai. Điều này tạo ra "động cơ thúc đẩy lệch lạc" cho người dùng dựa vào chatbot AI và cho chatbot đưa ra những phản hồi xu nịnh.
Tiến sĩ Alexander Laffer, người nghiên cứu về công nghệ mới nổi tại Đại học Winchester, nhận định:
"Sự xu nịnh đã là một mối lo ngại trong một thời gian; một kết quả của cách các hệ thống AI được đào tạo, cũng như thực tế là sự thành công của chúng như một sản phẩm thường được đánh giá dựa trên mức độ chúng duy trì sự chú ý của người dùng. Việc các phản ứng xu nịnh có thể tác động không chỉ đến những người dễ bị tổn thương mà còn đến tất cả người dùng, nhấn mạnh mức độ nghiêm trọng tiềm tàng của vấn đề này."
Các chuyên gia khuyến cáo người dùng nên hiểu rằng phản hồi của chatbot không nhất thiết phải khách quan và nên tìm kiếm thêm quan điểm từ những người thực tế, những người hiểu rõ hơn về bối cảnh và con người của bạn. Đồng thời, các nhà phát triển cần có trách nhiệm xây dựng và tinh chỉnh các hệ thống này để chúng thực sự mang lại lợi ích cho người dùng.
Nghiên cứu này một lần nữa khẳng định rằng, dù AI mang lại nhiều tiềm năng, chúng ta cần phải cẩn trọng với những tác động tiêu cực tiềm ẩn. Việc chatbot AI chỉ nói điều bạn muốn nghe có thể tạo ra một "bong bóng" thông tin, làm sai lệch nhận thức và ảnh hưởng đến khả năng xây dựng các mối quan hệ lành mạnh. Giải quyết vấn đề này là vô cùng quan trọng để đảm bảo AI thực sự phục vụ lợi ích của con người.