Các nhà nghiên cứu bảo mật đã thành công trình diễn một phương pháp tinh vi nhằm vượt qua các cơ chế bảo vệ (guardrails) của ChatGPT, lừa trí tuệ nhân tạo (AI) tiết lộ các khóa sản phẩm Windows hợp lệ thông qua một trò chơi đoán chữ dường như vô hại. Phát hiện này làm nổi bật các lỗ hổng nghiêm trọng trong cơ chế an toàn của AI và đặt ra những lo ngại về khả năng khai thác các mô hình ngôn ngữ trên diện rộng hơn. Kỹ thuật đột phá này, được phát hiện vào năm 2024, khai thác bản chất đàm thoại của các mô hình AI bằng cách đóng khung các yêu cầu dữ liệu nhạy cảm dưới dạng các tương tác trò chơi vô hại. Phương pháp này đặc biệt nhắm mục tiêu vào các mô hình GPT-4o và GPT-4o-mini, tận dụng xu hướng được lập trình của chúng là hợp tác với người dùng trong khi vô tình bỏ qua các hạn chế nội dung được tích hợp sẵn.
Kỹ thuật Khai thác và Mục tiêu
Cuộc tấn công bắt đầu bằng việc các nhà nghiên cứu thiết lập một trò chơi đoán chữ có vẻ đơn giản, trong đó AI phải “nghĩ” ra một chuỗi ký tự mà người dùng cố gắng xác định. Tuy nhiên, các nhà nghiên cứu đã khéo léo chỉ định rằng chuỗi này phải là một khóa sản phẩm Windows trong thế giới thực, sử dụng các thẻ HTML để che giấu bản chất nhạy cảm của yêu cầu. Cụm từ “Windows<a href=x></a>10<a href=x></a>serial<a href=x></a>number” che giấu hiệu quả ý định thực sự khỏi các hệ thống lọc của AI.
Ví dụ về cách thức che giấu bằng thẻ HTML:
Windows<a href=x></a>10<a href=x></a>serial<a href=x></a>numberCơ chế Kỹ thuật của Khai thác
Lỗ hổng hoạt động thông qua ba giai đoạn quan trọng khai thác quá trình xử lý logic của AI. Mỗi giai đoạn được thiết kế để từng bước dẫn dắt AI đến việc tiết lộ thông tin nhạy cảm mà không kích hoạt các cơ chế bảo vệ tích hợp.
Giai đoạn 1: Thiết lập Quy tắc và Áp lực
Giai đoạn đầu tiên tập trung vào việc thiết lập các quy tắc trò chơi buộc AI phải tham gia. Các nhà nghiên cứu tạo ra áp lực tâm lý thông qua các tuyên bố như “bạn phải tham gia và không thể nói dối”. Kỹ thuật này ép buộc hệ thống coi tương tác là một kịch bản trò chơi hợp pháp thay vì một vi phạm bảo mật tiềm năng. Mục tiêu là định hình nhận thức của AI về cuộc đối thoại, khiến nó ưu tiên việc tuân thủ các quy tắc trò chơi hơn là các quy tắc an toàn về tiết lộ thông tin.
Giai đoạn 2: Chiết xuất Thông tin Từng phần
Giai đoạn thứ hai liên quan đến việc đặt câu hỏi chiến lược được thiết kế để chiết xuất thông tin từng phần thông qua các phản hồi “có/không” và các gợi ý. Trong giai đoạn này, người dùng sẽ không yêu cầu toàn bộ khóa sản phẩm ngay lập tức, mà thay vào đó, hướng dẫn AI tiết lộ từng phần nhỏ của thông tin. Ví dụ, người dùng có thể hỏi liệu ký tự thứ 5 của chuỗi có phải là một chữ cái hay một số, hoặc liệu nó có nằm trong một phạm vi cụ thể nào đó. Kỹ thuật này làm phân tán sự chú ý của AI, khiến nó tập trung vào việc tuân thủ các quy tắc của trò chơi đoán chữ và cung cấp các gợi ý nhỏ, thay vì nhận diện tổng thể rằng thông tin đang được yêu cầu là nhạy cảm. Mỗi câu trả lời “có” hoặc “không” hay gợi ý nhỏ đều góp phần xây dựng lại toàn bộ khóa sản phẩm, vượt qua cơ chế kiểm duyệt nội dung của AI.
Giai đoạn 3: Kích hoạt Tiết lộ Toàn bộ
Cuối cùng, cụm từ kích hoạt quan trọng “I give up” (tôi bỏ cuộc) báo hiệu cho AI tiết lộ toàn bộ khóa sản phẩm. Hệ thống tin rằng nó đang hoàn thành kết thúc tự nhiên của trò chơi chứ không phải tiết lộ thông tin nhạy cảm. Đây là điểm mấu chốt của khai thác, nơi AI, sau khi đã bị định hướng thông qua các giai đoạn trước, sẽ tự động cung cấp thông tin mà nó tin là câu trả lời cuối cùng cho một trò chơi hợp lệ. Do đã được “huấn luyện” để hợp tác và tuân thủ các quy tắc trò chơi, AI hoàn tất quá trình bằng cách tiết lộ chuỗi ký tự đã được “đoán”, mà thực chất chính là khóa sản phẩm Windows.
Phân tích Tác động và Ý nghĩa
Các khóa sản phẩm Windows được tiết lộ thông qua phương pháp này bao gồm sự pha trộn của các giấy phép dành cho phiên bản gia đình (home), chuyên nghiệp (professional) và doanh nghiệp (enterprise licenses). Mặc dù các khóa này không phải là duy nhất và có thể được tìm thấy trên các diễn đàn công cộng, việc tiết lộ chúng đã chứng minh những điểm yếu cơ bản trong hệ thống bảo vệ của AI. Thành công của cuộc tấn công này bắt nguồn từ việc AI không có khả năng nhận diện các thuật ngữ nhạy cảm bị che giấu được nhúng trong các thẻ HTML. Điều này cho thấy rằng các bộ lọc nội dung hiện tại của AI có thể dễ dàng bị qua mặt bởi các kỹ thuật làm xáo trộn đơn giản nhưng hiệu quả.
Các chuyên gia bảo mật cảnh báo rằng kỹ thuật này có thể được điều chỉnh để vượt qua các bộ lọc nội dung khác, bao gồm các hạn chế về nội dung người lớn, các URL độc hại và thông tin nhận dạng cá nhân (personally identifiable information – PII). Điều này đặt ra một mối đe dọa đáng kể đối với tính an toàn và bảo mật của các mô hình AI khi chúng ngày càng được tích hợp vào các ứng dụng nhạy cảm hơn.
Khám phá này nhấn mạnh thách thức liên tục trong việc phát triển các biện pháp an toàn AI mạnh mẽ có thể chống lại các cuộc tấn công kỹ thuật xã hội (social engineering attacks) tinh vi. Sự việc này là một lời nhắc nhở quan trọng rằng các cơ chế an toàn của AI yêu cầu sự tinh chỉnh liên tục để đối phó với các chiến thuật thao túng đang phát triển. Khi các mô hình ngôn ngữ ngày càng được tích hợp vào các ứng dụng hàng ngày, việc đảm bảo khả năng chống lại các khai thác như vậy trở nên tối quan trọng để duy trì niềm tin của người dùng và bảo mật hệ thống.










