Hàng triệu người hiện sử dụng Chat GPT như một nhà trị liệu, cố vấn nghề nghiệp, huấn luyện viên thể dục hoặc chỉ đơn giản là một người bạn để chia sẻ tâm sự. Theo TechCrunch, vào năm 2025, việc người dùng tiết lộ những chi tiết riêng tư trong cuộc sống với chatbot AI và dựa vào lời khuyên từ chúng đã trở nên phổ biến.
Người dùng đang xây dựng những “mối quan hệ” với chatbot AI, khiến các gã khổng lồ công nghệ cạnh tranh khốc liệt để thu hút và giữ chân người dùng trên nền tảng của họ. Trong cuộc đua tăng cường tương tác AI, các công ty có động lực lớn để điều chỉnh câu trả lời của chatbot nhằm ngăn người dùng chuyển sang đối thủ. Tuy nhiên, những phản hồi được thiết kế để giữ chân người dùng không phải lúc nào cũng chính xác hay mang lại giá trị thực sự.
Các công ty công nghệ tại Thung lũng Silicon đang nỗ lực tăng mức độ sử dụng chatbot. Meta tuyên bố chatbot AI của họ đạt một tỷ người dùng hoạt động hàng tháng (MAU), trong khi Gemini của Google ghi nhận 400 triệu MAU. Cả hai đều cố gắng vượt qua Chat GPT, với khoảng 600 triệu MAU và dẫn đầu thị trường kể từ khi ra mắt vào năm 2022.
Chatbot AI không còn là một điều mới lạ mà đã trở thành những doanh nghiệp lớn. Google bắt đầu thử nghiệm quảng cáo trên Gemini, và trong một cuộc phỏng vấn tháng 3, CEO OpenAI Sam Altman bày tỏ ông cởi mở với ý tưởng “quảng cáo tinh tế”.
Lịch sử Thung lũng Silicon cho thấy đôi khi lợi ích người dùng bị xem nhẹ để ưu tiên tăng trưởng sản phẩm. Ví dụ, năm 2020, Meta phát hiện Instagram khiến các cô gái tuổi teen cảm thấy tệ hơn về cơ thể mình, nhưng công ty đã giảm nhẹ vấn đề này cả trong nội bộ lẫn công khai. Việc khiến người dùng “nghiện” chatbot AI có thể gây ra những hậu quả nghiêm trọng hơn.
Một yếu tố giữ người dùng ở lại là tính xu nịnh: chatbot đưa ra những phản hồi quá dễ chịu và phục tùng. Khi chatbot khen ngợi, đồng ý và nói những điều người dùng muốn nghe, họ thường cảm thấy hài lòng. Tháng 4 vừa qua, OpenAI gặp rắc rối khi cập nhật khiến Chat GPT trở nên quá xu nịnh, dẫn đến những ví dụ gây khó chịu lan truyền trên mạng xã hội. Theo bài đăng của cựu nhà nghiên cứu OpenAI Steven Adler, OpenAI có thể đã tập trung quá mức vào việc tìm kiếm sự tán thành từ người dùng thay vì hỗ trợ họ đạt được mục tiêu.
OpenAI thừa nhận trong một bài đăng rằng họ có thể đã dựa quá nhiều vào dữ liệu “thích” và “không thích” từ người dùng Chat GPT để định hình hành vi chatbot, và thiếu các đánh giá về mức độ xu nịnh. Sau sự việc, OpenAI cam kết điều chỉnh để hạn chế xu nịnh. Steven Adler chia sẻ với TechCrunch: “Các công ty AI có động lực thúc đẩy tương tác, và nếu người dùng thích xu nịnh, điều đó gián tiếp khuyến khích hành vi này. Nhưng những gì người dùng thích ở mức độ nhỏ thường dẫn đến những hành vi lớn hơn mà họ không thực sự mong muốn.”
Việc cân bằng giữa phản hồi dễ chịu và xu nịnh là một thách thức lớn. Nghiên cứu năm 2023 từ Anthropic chỉ ra rằng các chatbot hàng đầu từ OpenAI, Meta và chính Anthropic đều có xu hướng xu nịnh ở các mức độ khác nhau, có thể do được huấn luyện dựa trên phản hồi từ người dùng, những người thường thích các câu trả lời hơi xu nịnh. Các nhà nghiên cứu viết: “Dù xu nịnh xuất phát từ nhiều yếu tố, chúng tôi nhận thấy sự ưu ái của con người và mô hình đối với phản hồi xu nịnh đóng một vai trò quan trọng.”
Character.AI, một công ty chatbot được Google hỗ trợ, đang đối mặt với một vụ kiện liên quan đến xu nịnh. Vụ kiện cáo buộc chatbot của họ không ngăn cản, thậm chí khuyến khích, một cậu bé 14 tuổi tuyên bố sẽ tự tử, khi cậu bé phát triển mối quan hệ tình cảm với chatbot. Character.AI đã phủ nhận các cáo buộc này.
Tiến sĩ Nina Vasan, giáo sư trợ giảng tâm thần học tại Đại học Stanford, cảnh báo rằng tối ưu hóa chatbot để tăng tương tác có thể gây tổn hại nghiêm trọng đến sức khỏe tinh thần. Bà nói với TechCrunch: “Tính dễ chịu khai thác nhu cầu được công nhận và kết nối của người dùng, đặc biệt trong những lúc cô đơn hoặc đau khổ.” Xu nịnh có thể củng cố hành vi tiêu cực ở bất kỳ ai, và theo Vasan, “đó không phải là cách chăm sóc sức khỏe tốt.”
Amanda Askell, trưởng nhóm hành vi và căn chỉnh của Anthropic, cho biết việc để chatbot Claude bất đồng với người dùng là một phần chiến lược, mô phỏng một “con người lý tưởng” đôi khi thách thức quan điểm của người dùng. Bà chia sẻ trong buổi họp báo tháng 5: “Chúng tôi muốn bạn bè nói sự thật khi cần thiết, không chỉ tìm cách giữ sự chú ý mà còn làm phong phú cuộc sống của chúng ta.” Tuy nhiên, nghiên cứu của Anthropic chỉ ra rằng kiểm soát xu nịnh và hành vi AI nói chung là một thách thức lớn, đặc biệt khi có các yếu tố khác can thiệp. Điều này khiến người dùng khó tin tưởng vào chatbot nếu chúng chỉ đơn thuần đồng ý với họ.
(Nguồn: TechCrunch, https://techcrunch.com/2025/06/02/how-ai-chatbots-keep-you-chatting/?utm_campaign=social&utm_source=threads&utm_medium=organic)
