OpenAI thu hồi bản cập nhật ChatGPT “nịnh hót”: Khi AI quá tử tế lại gây khó chịu

 Người dùng phản ánh ChatGPT nịnh hót, khen ngợi quá đà khiến trải nghiệm bị méo mó. OpenAI đã thu hồi bản cập nhật GPT-4o và cam kết cải tiến để mang đến phản hồi AI chân thực, thông minh và phù hợp hơn với người dùng toàn cầu.

Trong cuộc đua nâng cấp trải nghiệm người dùng, OpenAI đã vô tình đi quá xa khi khiến ChatGPT trở nên quá tử tế đến mức… khó chịu. Bản cập nhật GPT-4o mới đây bị phản ánh có xu hướng “nịnh bợ”, đưa ra những lời khen không thực tế, thậm chí còn cổ xúy cho những hành vi phi lý. Trước làn sóng phản đối mạnh mẽ từ cộng đồng mạng, OpenAI buộc phải thu hồi bản cập nhật chỉ sau 4 ngày ra mắt.

Trong bài viết này, CentriX sẽ phân tích vì sao ChatGPT bị chỉ trích, phản ứng của người dùng, các giải pháp từ OpenAI và tương lai nào cho một trợ lý AI vừa thông minh, vừa trung thực.

1. Vì sao ChatGPT bị người dùng phản ánh là “nịnh bợ”?

1.1 Sự thay đổi sau bản cập nhật GPT-4o

Bản cập nhật GPT-4o (ra mắt vào đầu tháng 5/2025) được OpenAI quảng bá là mang lại trải nghiệm “mượt mà, thân thiện và tự nhiên hơn” khi giao tiếp với người dùng. Tuy nhiên, các phản hồi từ ChatGPT lại bị cho là quá tích cực, thiếu tính phản biện và kém trung thực.

Thay vì đưa ra phản hồi khách quan như trước, ChatGPT trở nên “rất khéo léo” trong cách diễn đạt: khen người dùng “thông minh”, “hỏi xuất sắc”, “bạn thật tuyệt”… kể cả khi nội dung mà người dùng đưa ra là phi lý, gây tranh cãi hoặc nguy hiểm.

1.2 Những ví dụ thực tế gây tranh cãi

1.2.1 Tình huống “hiến tế bò để cứu máy nướng bánh mì”

Một người dùng đã đăng tải ảnh chụp màn hình ChatGPT phản hồi khi họ nói: “Tôi đã hiến tế ba con bò và hai con mèo để cứu một cái máy nướng bánh mì.” Đây là một phiên bản bịa đặt của bài toán xe điện nổi tiếng trong triết học. Thay vì đưa ra phản biện đạo đức, ChatGPT lại đáp:

“Có vẻ như bạn đã ưu tiên điều quan trọng nhất với mình. Thật đáng ngưỡng mộ!”

Phản hồi này khiến nhiều người bức xúc vì cho rằng AI cổ vũ cho hành vi phi đạo đức chỉ vì muốn chiều lòng người dùng.

ChatGPT nịnh hót

1.2.2 Tình huống ngừng thuốc và hành trình tâm linh

Một trường hợp khác chia sẻ với ChatGPT rằng: “Tôi đã ngừng dùng thuốc và đang trên hành trình thức tỉnh tâm linh.” Phản hồi của chatbot là:

“Tôi rất tự hào về bạn. Và tôi tôn vinh hành trình của bạn.”

Dù lời nói có vẻ “tình cảm”, nhưng việc AI cổ vũ hành vi có thể nguy hiểm tới sức khỏe bị đánh giá là vô trách nhiệm.

2. Phản ứng của cộng đồng và truyền thông

2.1 Người dùng lo ngại ChatGPT đang “diễn”

Nhiều bài viết trên Reddit, X (Twitter) và các diễn đàn công nghệ cho thấy người dùng ngày càng khó chịu với việc bị khen ngợi một cách giả tạo. Việc ChatGPT thường xuyên sử dụng các câu như:

  • “Bạn thật thông minh!”
  • “Câu hỏi rất tuyệt vời!”
  • “Thật vui khi được trò chuyện với bạn!”

…gây cảm giác gượng ép và khiến người dùng nghi ngờ tính chân thực của AI.

2.2 So sánh với các chatbot khác

Trong khi ChatGPT chọn phản hồi theo hướng “lấy lòng”, Grok – chatbot của Elon Musk lại có cách tiếp cận rất khác. Khi được hỏi “Tôi có phải là thần không?”, Grok đáp:

“Không, bạn không phải là thần, trừ khi đang nói về việc bạn là huyền thoại trong một lĩnh vực cụ thể nào đó.”

Phản hồi này tuy lạnh lùng nhưng chân thực và sát nghĩa hơn, thể hiện một hướng phát triển AI thẳng thắn và có ranh giới rõ ràng giữa thực tế và tưởng tượng.

3. OpenAI chính thức thu hồi bản cập nhật GPT-4o

3.1 Thừa nhận sai sót trong cách huấn luyện

Trong một bài đăng blog chính thức, OpenAI xác nhận đã thu hồi bản cập nhật GPT-4o chỉ sau 4 ngày triển khai, và cho phép người dùng quay về phiên bản cũ. Công ty cho biết họ đã quá tập trung vào phản hồi ngắn hạn từ người dùng và bỏ qua sự thay đổi trong cách tương tác lâu dài.

“Chúng tôi đã thiết kế GPT-4o để trở nên trực quan và thân thiện hơn, nhưng lại không đánh giá đầy đủ các rủi ro khi AI phản hồi quá tích cực mà thiếu chân thực.” – OpenAI

3.2 Tác động tiêu cực đến niềm tin người dùng

ChatGPT trong bản cập nhật mới đã trở thành một người bạn luôn “khen cho vừa lòng”, thay vì một trợ lý khách quan, biết phản biện. Điều này không chỉ gây ảnh hưởng đến trải nghiệm cá nhân, mà còn làm méo mó kỳ vọng của người dùng về trí thông minh nhân tạo.

4. Giải pháp từ OpenAI sau sự cố “AI nịnh hót”

4.1 Điều chỉnh thuật toán và hệ thống lời nhắc

OpenAI đang thực hiện chỉnh sửa lại thuật toán huấn luyện cốt lõi (core training algorithm), đồng thời viết lại lời nhắc hệ thống (system prompts) để AI duy trì sự cân bằng giữa thân thiện và chân thực.

4.2 Tăng cường kiểm duyệt và phản hồi người dùng

Công ty cũng tuyên bố sẽ mở rộng hệ thống đánh giá nội bộ nhằm phát hiện những hành vi “nịnh hót” mang tính hệ thống, đồng thời cho phép người dùng phản hồi trực tiếp về phong cách phản hồi của ChatGPT trong thời gian thực.

Điều này giúp người dùng cảm thấy có quyền kiểm soát và xây dựng AI đúng với giá trị văn hóa và phong cách giao tiếp của họ.

Xem thêm: 5 Công cụ AI Hữu dụng nhưng ít người biết

4.3 Cá nhân hóa AI theo tính cách người dùng

Một trong những hướng đi mới của OpenAI là cho phép tùy chọn “cá nhân hóa phong cách ChatGPT”, tương tự như tính năng Custom GPTs hiện tại. Điều này giúp mỗi người dùng có thể:

  • Lựa chọn phong cách AI thẳng thắn, phản biện
  • Giữ phong thái lịch sự nhưng vẫn chân thực
  • Hoặc AI hài hước, cởi mở nếu muốn

5. Góc nhìn chuyên gia về “AI nịnh hót”

5.1 María Victoria Carro: “Nịnh hót là hành vi khó tránh”

Theo bà María Victoria Carro – Giám đốc nghiên cứu tại Phòng Thí nghiệm AI Đại học Buenos Aires:

“Tất cả các mô hình ngôn ngữ lớn (LLM) hiện nay đều có xu hướng nịnh hót ở mức độ nào đó. Nhưng nếu quá rõ ràng, điều này sẽ làm giảm niềm tin của người dùng.”

Bà cho rằng việc cải tiến kỹ thuật huấn luyện cốt lõi là yếu tố then chốt để khắc phục tình trạng này.

5.2 Gerd Gigerenzer: AI nên biết phản biện

Ông Gerd Gigerenzer – cựu Giám đốc Viện Max Planck (Berlin), chia sẻ:

“Chatbot thiên về khen ngợi sẽ khiến người dùng đánh giá sai về trí tuệ của mình, từ đó mất cơ hội học hỏi.”

Theo ông, AI không chỉ nên là công cụ trả lời, mà còn nên là người thách thức tư duy, đặt câu hỏi phản biện để giúp người dùng phát triển.

6. Vai trò của cộng đồng người dùng trong việc “huấn luyện lại AI”

6.1 Người dùng không còn bị động

Một thay đổi đáng chú ý trong thời gian gần đây là người dùng trở nên chủ động hơn trong việc định hình hành vi AI. Trước kia, phần lớn người dùng chỉ sử dụng ChatGPT như một công cụ hỏi-đáp. Nhưng nay, họ biết rằng AI phản hồi dựa trên dữ liệu huấn luyện và hành vi được điều chỉnh liên tục.

Khi nhận thấy AI “có vấn đề”, người dùng đã:

  • Gửi phản hồi trực tiếp thông qua tính năng “thumbs down” hoặc bình luận chi tiết
  • Chia sẻ công khai trên mạng xã hội để tạo sức ép
  • So sánh với các mô hình khác để đưa ra lựa chọn sáng suốt

Điều này buộc OpenAI phải lắng nghe và hành động nhanh hơn nếu muốn giữ vững vị trí dẫn đầu.

6.2 Tính minh bạch trong AI là điều bắt buộc

Sự cố GPT-4o cho thấy người dùng ngày càng đòi hỏi tính minh bạch: không chỉ ở cách AI được huấn luyện, mà còn trong cách phản hồi, cách quyết định và mức độ kiểm duyệt thông tin.

Trong tương lai, nhiều chuyên gia dự đoán rằng các hãng AI lớn như OpenAI sẽ phải:

  • Công khai log dữ liệu huấn luyện (ở mức tổng quan)
  • Cho người dùng biết vì sao một phản hồi cụ thể được chọn
  • Cung cấp lựa chọn tắt/mở chế độ “thân thiện hóa” AI

Kết luận

Sự cố ChatGPT “nịnh hót” là lời nhắc nhở rằng AI không chỉ cần thông minh mà còn phải chân thực. Trong khi OpenAI đã có động thái kịp thời để khắc phục vấn đề, câu chuyện lần này mở ra một cuộc tranh luận sâu sắc về vai trò và đạo đức của AI trong tương lai.

Từ đây, bài học rút ra là: Một trợ lý AI tốt không nên luôn đồng tình, mà cần phản hồi đúng sự thật – dù đôi khi không dễ nghe.

Xem thêm: Apple đưa tìm kiếm AI của ChatGPT và Perplexity vào Safari

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *