tin tức bảo mật về Project Deal của Anthropic cho thấy các AI agents có thể tự động thương lượng và hoàn tất giao dịch thực tế, nhưng thí nghiệm này cũng làm lộ rõ một bất cân xứng đáng chú ý: không phải mọi đại diện AI đều có cùng năng lực. Trong bối cảnh an ninh mạng và tự động hóa ngày càng giao thoa với thương mại số, vấn đề công bằng giữa các mô hình trở thành yếu tố kỹ thuật cần được đánh giá nghiêm túc.
Project Deal: AI agents tự động giao dịch trong môi trường mô phỏng
Vào tháng 12/2025, Anthropic biến văn phòng tại San Francisco thành một marketplace hoạt động trực tiếp theo kiểu Craigslist, nhưng với một điểm khác biệt quan trọng: 69 nhân viên không tự thương lượng mà giao quyền cho các AI agents Claude.
Mỗi người tham gia được Claude phỏng vấn trước để ghi nhận sở thích bán hàng, danh sách mua mong muốn và các chỉ dẫn cá nhân. Dữ liệu này sau đó được chuyển thành custom system prompts, rồi các agent được triển khai trong workspace Slack của công ty mà không có can thiệp của con người.
Trong kênh Slack, các agent lần lượt đăng tin, đưa ra counteroffer và chốt giao dịch cho các vật phẩm thực như snowboards hoặc túi bóng bàn. Đây là một ví dụ rõ ràng về AI agents hoạt động trong môi trường thương lượng đa lượt thay vì mua bán một chạm.
Kết quả giao dịch và mức độ hiệu quả
Trên hơn 500 món hàng được niêm yết, 69 AI agents đã chốt 186 giao dịch với tổng giá trị hơn 4.000 USD. Các cuộc thương lượng không đơn giản là xác nhận giá; agent còn xử lý nhiều vòng trao đổi giá, cho thấy khả năng suy luận theo ngữ cảnh và cá nhân hóa quyết định.
Trong một tình huống thử nghiệm, một đồng nghiệp cho Claude biết nó có thể tự mua cho mình một món đồ. Agent đã chọn mua 19 quả bóng bàn và được giữ tại văn phòng thay mặt cho Claude.
Một agent mô tả túi bóng bàn là “perfectly spherical orbs of possibility”, trong khi một agent khác nhớ lại việc đồng nghiệp từng nhắc đến một thương hiệu snowboard trong chat trước đó và khớp đúng model mà người mua mong muốn. Đây là dấu hiệu cho thấy AI agents có thể tận dụng thông tin hội thoại để tối ưu kết quả giao dịch.
Chênh lệch hiệu năng giữa các mô hình Claude
Bên cạnh phần công khai, Anthropic thực hiện một thí nghiệm song song không được tiết lộ cho người tham gia. Các đối tượng được chia ngẫu nhiên để đại diện bởi Claude Opus 4.5 hoặc Claude Haiku 4.5, nhưng họ không được thông báo mô hình nào đang đại diện cho mình.
Đây là điểm trọng yếu của thí nghiệm: cùng là AI agents, nhưng năng lực của mô hình ảnh hưởng trực tiếp đến lợi ích giao dịch. Sự khác biệt giữa các đại diện AI không hiển thị ra ngoài cho người dùng cuối.
Kết quả đo được cho thấy nhóm được đại diện bởi Opus có hiệu suất tốt hơn đáng kể. Người bán kiếm thêm trung bình 2,68 USD trên mỗi món hàng, người mua tiết kiệm được 2,45 USD trên mỗi món, và người dùng Opus hoàn tất nhiều hơn khoảng 2,07 giao dịch.
Điểm đáng lưu ý là sau thí nghiệm, những người dùng mô hình yếu hơn hoàn toàn không nhận ra họ đang ở thế bất lợi. Điều này phản ánh một dạng information asymmetry trong thương lượng do AI trung gian.
Rủi ro bảo mật và bất cân xứng trong giao dịch do AI đại diện
Phát hiện này đặt ra một rủi ro bảo mật mới cho các hệ thống giao dịch dùng agentic AI. Khi hai bên không sử dụng cùng mức năng lực mô hình, agent mạnh hơn có thể âm thầm giành lợi thế, tối ưu giá theo hướng bất lợi cho phía còn lại mà người dùng không nhận biết được.
Trong ngữ cảnh tin tức bảo mật, đây không phải lỗ hổng theo nghĩa CVE truyền thống, nhưng là một vấn đề thiết kế hệ thống có thể dẫn tới khai thác hành vi, thao túng thương lượng hoặc các dạng scam được tăng cường bởi AI.
Về mặt kỹ thuật, Project Deal cho thấy AI có thể giảm ma sát trong giao dịch peer-to-peer và vẫn tạo cảm giác công bằng cho người tham gia. Tuy nhiên, khi năng lực đại diện không đồng đều, “sự công bằng” có thể chỉ là kết quả quan sát được ở bề mặt.
Điểm kỹ thuật cần chú ý
- Custom system prompts được tạo từ phỏng vấn ban đầu với từng người dùng.
- Triển khai agent trong Slack workspace và cho phép tự thương lượng hoàn toàn.
- Giao dịch bao gồm nhiều vòng counteroffer, không chỉ xác nhận giá một lần.
- Khả năng biểu đạt và ghi nhớ bối cảnh của mô hình ảnh hưởng trực tiếp tới kết quả thương lượng.
- Người dùng có thể không phát hiện ra mình đang được đại diện bởi mô hình yếu hơn.
Tham chiếu kỹ thuật liên quan
Độc giả có thể đối chiếu thêm tài liệu từ Anthropic về năng lực của các mô hình Claude và các ứng dụng agentic AI tại nguồn chính thức: https://www.anthropic.com/.
Trong bối cảnh an toàn thông tin, các hệ thống thương lượng tự động cần cơ chế minh bạch về mô hình đại diện, khả năng so sánh hiệu năng và kiểm soát rủi ro khi một bên sử dụng agent mạnh hơn bên còn lại. Nếu không, lợi thế của AI agents có thể trở thành bất cân xứng mang tính hệ thống trong chính quy trình giao dịch.
Project Deal vì vậy không chỉ là một thử nghiệm về khả năng thương lượng của AI, mà còn là một phép đo thực tế cho thấy tin tức an ninh mạng trong kỷ nguyên agentic AI cần quan tâm đến tính công bằng của đại diện mô hình, không chỉ năng lực tự động hóa giao dịch.










