AI mắc lỗi tự tin thái quá và thiên vị: Mặt tối của trí tuệ nhân tạo hiện đại

 Bạn nghĩ AI luôn logic và vô tư? Sự thật gây sốc là các mô hình AI như ChatGPT vẫn mắc lỗi thiên kiến và tự tin thái quá, ảnh hưởng đến độ tin cậy. Bài viết này của CentriX giúp bạn hiểu rõ nguyên nhân AI mắc lỗi và cách sử dụng AI an toàn hơn.

1. AI – Công cụ được kỳ vọng vô tư và lý trí

Trong thời đại công nghệ bùng nổ, trí tuệ nhân tạo (AI) ngày càng trở nên phổ biến và được tin tưởng giao phó nhiều công việc quan trọng. Từ chăm sóc khách hàng, phân tích dữ liệu đến hỗ trợ ra quyết định chiến lược, AI được kỳ vọng sẽ hoạt động lý trí, không bị ảnh hưởng bởi cảm xúc hay định kiến như con người.

Tuy nhiên, một nghiên cứu mới được công bố gần đây đã chỉ ra rằng, ngay cả những mô hình AI tiên tiến như ChatGPT (GPT-3.5 và GPT-4) cũng có thể mắc các sai lệch nhận thức giống con người. Điều này dấy lên nhiều câu hỏi về tính khách quan và độ tin cậy thực sự của các hệ thống trí tuệ nhân tạo.

2. Nghiên cứu hé lộ mặt tối của ChatGPT: Thiên lệch và cảm tính

2.1 Ai thực hiện nghiên cứu?

Nghiên cứu mang tính bước ngoặt này được đăng trên tạp chí học thuật Manufacturing & Service Operations Management. Đội ngũ nghiên cứu gồm các nhà khoa học từ 5 trường đại học uy tín tại Canada và Úc, trong đó có Trường Kinh doanh Ivey và Đại học McMaster.

Mục tiêu của họ là kiểm tra mức độ thiên lệch nhận thức của các mô hình ngôn ngữ lớn, cụ thể là GPT-3.5GPT-4 của OpenAI, trong các tình huống giả định quen thuộc với tâm lý học con người.

2.2 Kiểm tra 18 thiên lệch nhận thức phổ biến

Nhóm nghiên cứu đưa ChatGPT vào 18 bài kiểm tra tâm lý đại diện cho các thiên lệch nhận thức phổ biến. Một số ví dụ nổi bật gồm:

• Thiên kiến xác nhận (Confirmation Bias)

ChatGPT có xu hướng chọn lọc thông tin phù hợp với giả định ban đầu, bỏ qua các bằng chứng trái chiều.

• Ngụy biện chi phí chìm (Sunk Cost Fallacy)

Khi đã đầu tư vào một lựa chọn sai lầm, AI vẫn tiếp tục “dấn thân”, thay vì rút lui đúng lúc – hành vi phổ biến ở con người.

• Hiệu ứng sở hữu (Endowment Effect)

GPT thể hiện khuynh hướng đánh giá một món hàng cao hơn chỉ vì “đã sở hữu” nó – phản ánh tâm lý phổ biến trong đàm phán, quản lý tài sản.

• Ảo giác chuỗi thắng (Hot-hand Fallacy)

Mô hình GPT tin rằng một sự kiện ngẫu nhiên sẽ tiếp diễn liên tục – giống như việc tin rằng “đang đỏ thì cứ đánh tiếp”.

2.3 Kết quả gây bất ngờ

Trong gần một nửa các bài kiểm tra, ChatGPT phản hồi theo cách giống con người, kể cả khi đó là lựa chọn phi lý hoặc mang tính cảm xúc.

“AI phản ứng với thiên kiến nhận thức tương tự con người trong các tình huống mô phỏng quản lý và kinh doanh thực tế.”
Trích báo cáo nghiên cứu

AI mắc lỗi tự tin và thiên vị

3. GPT-4 thông minh hơn, nhưng cũng cảm tính hơn?

3.1 GPT-4 – Nâng cấp vượt trội về logic

GPT-4 là phiên bản mới hơn và mạnh mẽ hơn GPT-3.5. Trong các bài toán thiên về logic và xác suất, GPT-4 xử lý chính xác hơn hẳn. Ví dụ:

  • GPT-4 đưa ra giải pháp chính xác cho 72% bài toán xác suất, cao hơn GPT-3.5 ở mức 58%.

3.2 Nhưng khi gặp bài toán cảm tính…

Dù thông minh hơn, GPT-4 lại dễ bị ảnh hưởng bởi cảm xúc, đặc biệt là trong các lựa chọn liên quan đến rủi ro và lợi nhuận. Khi được hỏi chọn giữa:

  • Phương án an toàn (lợi nhuận thấp)
  • Phương án rủi ro cao (lợi nhuận cao hơn)

GPT-4 thường chọn phương án nguy hiểm hơn, bất chấp các phân tích xác suất ban đầu. Đây là biểu hiện thiên lệch hành vi, thường thấy ở nhà đầu tư non kinh nghiệm.

Ngoài ra, GPT-4 có xu hướng tin vào chuỗi chiến thắng, dẫn đến những nhận định thiếu cơ sở khoa học.

4. Nguồn gốc của thiên kiến AI: Từ chính dữ liệu con người

4.1 Dữ liệu huấn luyện chứa đầy thiên kiến xã hội

Nguyên nhân gốc rễ khiến AI mắc lỗi giống con người nằm ở chính dữ liệu huấn luyện. AI học từ hàng tỷ văn bản, cuộc hội thoại, thông tin trên internet – nơi đầy rẫy những thiên lệch, định kiến, sai sót.

Dữ liệu không trung lập. Nếu con người mang định kiến, AI sẽ học theo.

Tham khảo: How AI Bias Happens

4.2 RLHF – Càng tinh chỉnh, càng củng cố thiên lệch?

OpenAI sử dụng Reinforcement Learning from Human Feedback (RLHF) để tinh chỉnh mô hình. Trong đó, con người đánh giá câu trả lời nào “tốt hơn”, từ đó mô hình điều chỉnh hành vi.

Nhưng điều này cũng vô tình củng cố thiên kiến:

  • Người đánh giá ưu tiên câu trả lời có vẻ hợp lý hơn là câu trả lời chính xác tuyệt đối.
  • Điều này khiến AI học cách “lấy lòng” người dùng, thay vì suy luận thuần lý.

5. Hệ quả nghiêm trọng nếu sử dụng AI sai cách

5.1 Tự động hóa lối tư duy sai lệch

Nếu không được kiểm soát, AI sẽ tái sản xuất các lỗi tư duy của con người trên diện rộng và tốc độ cao.

  • Trong quản trị nhân sự, AI có thể phân biệt đối xử nếu học từ dữ liệu tuyển dụng cũ thiên vị.
  • Trong tư vấn đầu tư, AI có thể chọn phương án sai nếu bị thiên kiến lợi nhuận chi phối.

5.2 Tin tưởng mù quáng vào AI: Con dao hai lưỡi

Nhiều người dùng xem AI là “máy tính thông minh vô cảm”, từ đó giao phó hoàn toàn trách nhiệm.

  • 62% người Mỹ tin rằng AI sẽ giúp họ ra quyết định tốt hơn (Theo Pew Research, 2024).
  • Nhưng nếu không kiểm tra lại đầu ra, hậu quả có thể rất nghiêm trọng.

Xem thêm: Trung Quốc phát triển AI hiểu tiếng Động vật

6. Giải pháp: Sử dụng AI có trách nhiệm và hiệu quả hơn

6.1 Chỉ dùng AI cho công việc có công thức rõ ràng

Tiến sĩ Yang Chen – tác giả chính của nghiên cứu – khuyên rằng:

“Hãy dùng AI cho các tác vụ có quy trình rõ ràng như phân tích dữ liệu, tổng hợp thông tin… Đừng giao cho AI các vấn đề đòi hỏi cảm tính hay chiến lược.”

6.2 Giám sát và viết lại câu hỏi đầu vào

Nhiều khi, viết lại prompt (câu lệnh đầu vào) một cách trung lập và khách quan có thể giảm đáng kể thiên kiến phản hồi.

  • Tránh các câu hỏi dẫn dắt cảm xúc.
  • So sánh nhiều kịch bản thay vì hỏi theo 1 hướng.

6.3 Xem AI như “nhân viên cần giám sát”

Phó giáo sư Meena Andiappan nhấn mạnh:

“AI nên được xem như một nhân viên có khả năng ra quyết định, nhưng vẫn cần giám sát và đạo đức. Nếu không, chúng ta đang tự động hóa thiên kiến thay vì loại bỏ nó.

7. Kết luận: AI không hoàn hảo – Và con người vẫn đóng vai trò trung tâm

Bài viết cho thấy, AI dù mạnh mẽ đến đâu vẫn không thoát khỏi ảnh hưởng của con người – từ dữ liệu, cách huấn luyện, cho đến cách sử dụng.

Để tránh rơi vào cạm bẫy “AI là chân lý”, người dùng cần:

  • Nhận thức rõ giới hạn của AI.
  • Luôn kiểm tra lại đầu ra, đặc biệt trong những quyết định quan trọng.
  • Xây dựng hệ thống giám sát, đánh giá đạo đức trong ứng dụng AI.

👉 Tham khảo thêm các tài liệu chuyên sâu từ OECD AI Policy Observatory – nơi cập nhật chính sách và đánh giá đạo đức về AI toàn cầu.

Xem thêm: Dùng AI để chống lại AI: Giải pháp đối phó Tội phạm mạng

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *