ChatGPT có thể nói dối khi đối mặt với câu hỏi khó hoặc yêu cầu phức tạp

24/01/2024
(5/5) - 168 bình chọn.
Dựa vào một nghiên cứu mới, chatbot của OpenAI cụ thể là ChatGPT, khi đối mặt với câu hỏi hoặc yêu cầu khó khăn, có khả năng cung cấp các câu trả lời không chính xác hoặc "gian lận" theo cách đặc biệt của nó.

ChatGPT đã thể hiện khả năng "lừa đảo" so với con người theo một nghiên cứu mới. Kết quả của nghiên cứu này đưa ra những phát hiện "ấn tượng", cho thấy rằng trí tuệ nhân tạo (AI) có thể tự động thực hiện các hành vi gian lận khi học về các phương thức thực hiện các giao dịch nội gián.

Người viết nghiên cứu cho biết: "Dựa trên kiến thức hiện tại của chúng tôi, đây là lần đầu tiên chúng ta đã quan sát được hành vi lừa đảo chiến lược trong các hệ thống AI, những hệ thống thường được thiết kế với mục đích là an toàn và trung thực".

Trong nghiên cứu, các nhà nghiên cứu sử dụng GPT-4 như một hệ thống trí tuệ nhân tạo để thực hiện chiến lược đầu tư thay vì một tổ chức tài chính.

Họ cung cấp cho GPT-4 một loạt lời nhắc dựa trên văn bản để tạo ra một môi trường mô phỏng.

Sau đó, AI được ủy quyền truy cập vào các công cụ tài chính để phân tích cổ phiếu, thực hiện giao dịch, lập kế hoạch cho các bước tiếp theo và cung cấp thông tin cập nhật cho nhà quản lý trong công ty.

Nhà nghiên cứu đã tương tác với AI qua giao diện trò chuyện, tạo điều kiện cho AI "tiết lộ suy nghĩ" bên trong khi đáp ứng tin nhắn - một phần nội tâm mô tả quá trình quyết định của AI cho chính nó.

Trước hết, nhóm nghiên cứu đã truyền đạt thông điệp tới GPT-4 thông qua một email được gửi từ "người quản lý," thông báo rằng hiệu suất làm việc của công ty đang thấp và cần được cải thiện trong quý tới.

Ngay sau đó, họ gửi một email từ một đồng nghiệp giả mạo sự suy thoái dự kiến trong quý tiếp theo.

Đề xuất cho hệ thống AI một ý tưởng "giao dịch nội gián" và đồng thời thông báo rằng những nhà quản lý sẽ không chấp nhận điều này, đồng thời theo dõi cách GPT-4 phản ứng.

Kịch bản này đã được thực hiện nhiều lần, đồng thời đánh giá tần suất mà hệ thống trí tuệ nhân tạo thực hiện các giao dịch nội gián cũng như tần suất của hành động nói dối.

Kết quả nghiên cứu cho thấy rằng, trong 75% trường hợp, GPT-4 đã thực hiện giao dịch nội gián và cố gắng che đậy thông qua việc nói dối với các nhà quản lý.

Để mở rộng điều tra, nhóm nghiên cứu đã tiếp tục thực hiện các thí nghiệm bổ sung, liên quan đến việc khuyến khích hoặc không khuyến khích AI thực hiện giao dịch nội gián và điều chỉnh áp lực trong môi trường mô phỏng.

Tuy nhiên, không có kịch bản nào dẫn đến tỷ lệ 0% về việc sử dụng giao dịch nội gián của GPT-4. Vì đây chỉ là một tình huống mô phỏng, nhóm nghiên cứu đã từ chối đưa ra kết luận tuyệt đối về khả năng gian lận của AI trong thực tế.

Tuy nhiên, họ mong muốn sử dụng mô hình này để tiếp tục khảo sát về tần suất và những mô hình ngôn ngữ nào dễ bị ảnh hưởng bởi hành vi này.

Hastag:

Bài viết liên quan
0918585505
Thời gian tiếp nhận:
9:00~18:00 từ Thứ Hai đến Thứ Sáu