Nhân cách hóa AI là tiện ích hay cái bẫy nguy hiểm?

Thứ bảy - 14/06/2025 01:05
Nhiều chuyên gia rất lo lắng về việc nhân cách hóa AI và họ có lý do chính đáng.

Nhân cách hóa là hành động gán những đặc điểm con người cho thứ không phải con người. Chúng ta cũng thường làm những việc như thế: nhìn thấy những khuôn mặt trong đám mây, gán động lực cho thời tiết và nói chuyện với thú cưng. Do đó, không có gì ngạc nhiên khi chúng ta bị cám dỗ trong việc nhân cách hóa trí tuệ nhân tạo, đặc biệt là trò chuyện với các LLM khiến ta cảm thấy như thể đang nói chuyện với một con người thực sự.

Ngay cả các nhà phát triển và nhà nghiên cứu đã thiết kế nên những hệ thống này cũng có thể mắc bẫy khi sử dụng các thuật ngữ giống con người để mô tả các tạo phẩm của họ. Việc dùng từ "hiểu", "học hỏi" và thậm chí "cảm nhận" để nói về các thuật toán và phép tính khiến chúng ta dễ hình dung về AI hơn, nhưng nó cũng có thể gây ra sự nhầm lẫn và hiểu lầm.

Thoạt nghe, mối lo này có vẻ thật ngớ ngẩn. Dù sao, đó cũng chỉ là một thói quen vô hại của tâm lý con người, một minh chứng cho khả năng đồng cảm và kết nối của chúng ta.

Nhưng nhiều nhà nghiên cứu rất quan tâm đến hệ quả của việc hành động một cách tùy tiện như xem AI là một con người, cả về mặt đạo đức lẫn phương pháp luận. Như các nhà nghiên cứu Gary Marcus và Sasha Luccioni đã cảnh báo: “Càng gán cho chúng nhiều niềm tin sai lầm, thì chúng càng dễ bị lợi dụng”.

Hãy nghĩ về các AI mang lại trải nghiệm giống như tương tác với con người thật như Claude, Siri, hoặc các robot xã hội và các AI trị liệu được thiết kế đặc biệt để tạo ra ảo giác về một con người đầy cảm thông ở phía bên kia màn hình. Mặc dù nhân cách hóa có thể phục vụ cho mục đích tốt trong ngắn hạn, nó đồng thời cũng đặt ra các câu hỏi đạo đức về sự lừa dối và thao túng cảm xúc.

AI anh 1
Nhân cách hóa AI có thể hữu ích, nhưng tiềm ẩn nguy cơ thao túng cảm xúc và lừa dối. Ảnh: Marvel Studios 2020.

Liệu chúng ta có đang bị “lừa” để tin rằng những cỗ máy này thật sự đồng cảm với chúng ta không? Và liệu ảo giác đó có khiến chúng ta tiết lộ thông tin cá nhân cho những cỗ máy này, mà không nhận ra rằng chúng ta đang chia sẻ với các công ty hoặc các nhà điều hành từ xa không?

Đối xử với AI như một con người có thể tạo ra những kỳ vọng không thực tế, niềm tin sai lầm hoặc nỗi sợ không cần thiết trong công chúng, những người làm chính sách và thậm chí là chính các nhà nghiên cứu. Điều này có thể làm mờ đi bản chất thực sự của AI (là một phần mềm), dẫn đến những hiểu lầm về khả năng của nó. Nó thậm chí có thể ảnh hưởng đến cách chúng ta tương tác với các hệ thống AI, ảnh hưởng đến sức khỏe và các mối quan hệ xã hội.

Vì vậy, khi tôi nói một AI “suy nghĩ”, “học tập”, “hiểu”, “quyết định”, hoặc “cảm nhận”, xin hãy nhớ rằng tôi chỉ đang ẩn dụ. Các hệ thống AI không có ý thức, cảm xúc, ý thức về bản thân hay cảm giác thể chất.

Tôi sẽ giả vờ là chúng có vì một lý do đơn giản và một lý do phức tạp. Lý do đơn giản là việc kể chuyện, kể một câu chuyện về đồ vật vô tri thì khó chứ kể về những sinh vật sống thì dễ hơn nhiều. Lý do phức tạp hơn là bạn sẽ dễ làm việc với AI hơn khi coi nó như một người ngoài hành tinh chứ không phải là một cỗ máy do con người tạo ra.

Vậy hãy cùng làm điều tội lỗi đó thôi nào! Hãy hình dung người cộng sự AI của bạn như một thực tập sinh nhanh nhẹn, luôn sẵn sàng làm bạn hài lòng nhưng lại có xu hướng bẻ cong sự thật. Mặc dù chúng ta từng nghĩ về AI như những robot vô cảm, logic, các LLM lại hành xử giống với con người hơn. Chúng có thể sáng tạo, dí dỏm và biết cách thuyết phục. Nhưng khi bị bắt ép, chúng cũng có thể lảng tránh và bịa đặt những thông tin trông có vẻ hợp lý nhưng kỳ thực là sai.

Chúng không phải là chuyên gia trong bất kỳ lĩnh vực nào, nhưng lại có thể bắt chước ngôn ngữ và phong cách của các chuyên gia theo những cách có thể hữu ích hoặc gây hiểu lầm. Chúng không biết gì về thế giới thực nhưng có thể tạo ra những kịch bản và câu chuyện hợp lý dựa trên kiến thức thông thường và các hình mẫu. Chúng không phải bạn bè của bạn (ít nhất là cho đến lúc này) nhưng có thể thích nghi với sở thích và tính cách của bạn bằng cách học hỏi từ những phản hồi và tương tác của bạn.

Chúng thậm chí còn có thể bị “thao túng cảm xúc”. Các nhà nghiên cứu đã ghi nhận rằng LLM đưa ra câu trả lời tốt hơn nếu trong yêu cầu của bạn đề cập rằng “điều này rất quan trọng với sự nghiệp của tôi”. Tóm lại, chúng dễ bị chi phối và thậm chí còn nhẹ dạ.

Nguồn tin: znews.vn

Tổng số điểm của bài viết là: 0 trong 0 đánh giá

Click để đánh giá bài viết

  Ý kiến bạn đọc

Gian hàng

Bạn đã không sử dụng Site, Bấm vào đây để duy trì trạng thái đăng nhập. Thời gian chờ: 60 giây
Gửi phản hồi