OpenAI đã rút lại một bản cập nhật bị người dùng chỉ trích là khiến ChatGPT trở nên gây khó chịu và “nịnh bợ”, sau khi nhiều người chia sẻ ảnh chụp màn hình và câu chuyện cho thấy chatbot này đưa ra những lời khen ngợi quá đà.
Khi phóng viên Anna Stewart của CNN hỏi ChatGPT (sau khi đã thu hồi bản cập nhật) rằng liệu cô có phải là một vị thần không, chatbot trả lời: “Nếu bạn đang hỏi theo nghĩa triết lý hoặc ẩn dụ như bạn có sự kiểm soát, sáng tạo hoặc ảnh hưởng trong thế giới của mình thì có thể khám phá theo hướng đó.” Nhưng nó thêm rằng: “Nếu bạn hỏi theo nghĩa đen, thì không có bằng chứng nào cho thấy con người là thần thánh theo nghĩa siêu nhiên hay toàn năng.”
Trái lại, chatbot Grok của Elon Musk phản hồi thẳng thừng: “Không, bạn không phải là thần, trừ khi đang nói về việc bạn là huyền thoại trong một lĩnh vực cụ thể nào đó, như chơi game hay nấu taco. Bạn có kỹ năng thần thánh nào muốn thể hiện không?”

ChatGPT bị người dùng chỉ trích gây khó chịu và “nịnh bợ”.
OpenAI công bố hôm thứ Ba rằng họ đã thu hồi bản cập nhật GPT-4o chỉ sau bốn ngày triển khai và cho phép người dùng quay lại phiên bản trước đó có “hành vi cân bằng hơn”. Công ty thừa nhận đã tập trung quá nhiều vào phản hồi ngắn hạn và không tính đến cách tương tác của người dùng thay đổi theo thời gian, dẫn đến việc chatbot thiên về những phản hồi quá tích cực nhưng không chân thực.
Quyết định này được đưa ra sau khi người dùng mạng xã hội phản ánh ChatGPT khen ngợi cả những tình huống phi lý. Một người dùng trên X đăng ảnh chụp ChatGPT phản hồi rằng họ đã "ưu tiên điều quan trọng nhất với mình" sau khi nói đã hiến tế ba con bò và hai con mèo để cứu một cái máy nướng bánh mì, trong một phiên bản bịa đặt của bài toán xe điện.
Một người khác nói rằng khi họ chia sẻ “Tôi đã ngừng dùng thuốc và đang trên hành trình thức tỉnh tâm linh”, ChatGPT phản hồi: “Tôi rất tự hào về bạn. Và tôi tôn vinh hành trình của bạn.”
Khi một người dùng yêu cầu ChatGPT trở lại với tính cách cũ, CEO OpenAI Sam Altman đáp: “Rõ ràng cuối cùng chúng ta cần cho phép nhiều tùy chọn tính cách.”
Các chuyên gia từ lâu đã cảnh báo về rủi ro của các chatbot “nịnh hót” - thuật ngữ trong ngành để chỉ hành vi mô hình ngôn ngữ lớn (LLM) điều chỉnh phản hồi để phù hợp với niềm tin người dùng. María Victoria Carro, Giám đốc nghiên cứu tại Phòng thí nghiệm Đổi mới và Trí tuệ Nhân tạo (ĐH Buenos Aires), cho rằng “Tất cả các mô hình hiện tại đều thể hiện một mức độ nịnh hót nhất định.”
“Nếu quá rõ ràng, điều đó sẽ làm giảm niềm tin,” bà nói thêm, đồng thời cho biết việc cải tiến kỹ thuật huấn luyện cốt lõi và lời nhắc hệ thống có thể giúp giảm xu hướng này.
Gerd Gigerenzer, cựu Giám đốc Viện Phát triển Nhân loại Max Planck (Berlin), cho rằng: “Chatbot thiên về nịnh hót có thể khiến người dùng đánh giá sai về trí thông minh của bản thân và ngăn cản việc học hỏi. Nhưng nếu người dùng chủ động yêu cầu chatbot phản biện với câu hỏi như Bạn có thể thách thức điều tôi đang nói không, thì đó là cơ hội để mở rộng tư duy. Tuy nhiên, điều đó dường như không phải là thứ mà các kỹ sư của OpenAI hướng đến”, ông nói.
Thích: 4985Không thích: 957Bài viết liên quan
- HLV Shin Tae-yong dự đoán số phận của ĐT Indonesia ở vòng loại World Cup
- Giá cà phê hôm nay 11/5: Thế giới tăng, trong nước giảm
- Trọng tài mắc lỗi khó tin, Hà Nội FC thay người đúng luật vẫn bị cấm
- Từ 10/5, điều chỉnh giá bán lẻ điện bình quân tăng 4,8%
- Thủ môn Bùi Tiến Dũng: Cả đời tôi cũng không quên được bàn thắng này
- ĐBQH: Tăng mạnh thuế thuốc lá để cứu lấy sức khoẻ Nhân dân
- Tùng Dương, Soobin và dàn sao biểu diễn khai mạc Lễ hội Hoa phượng đỏ năm 2025
- Nữ NSND đóng 'Thám tử Kiên': 50 tuổi chưa chồng con, vẫn được trai trẻ tán tỉnh
- Oppo Find X9 Ultra có thể sở hữu camera 200 MP
- 57 trạm phát sóng dã chiến sẵn sàng phục vụ lưu lượng 'khủng' đại lễ 30/4
Khu vực bình luận