Một làn sóng rủi ro an ninh mạng mới đang nổi lên khi các công cụ được hỗ trợ bởi trí tuệ nhân tạo (AI) như ChatGPT và Perplexity trở thành công cụ tìm kiếm và trả lời mặc định cho hàng triệu người dùng. Nghiên cứu gần đây của Netcraft đã tiết lộ rằng các mô hình ngôn ngữ lớn (LLM) này không chỉ mắc lỗi thông thường mà còn tích cực đặt người dùng vào tình thế rủi ro bằng cách đề xuất các trang web lừa đảo (phishing sites) và các tên miền không thuộc thương hiệu khi được hỏi về URL đăng nhập của các dịch vụ phổ biến.
Phân Tích Rủi Ro Từ Các Mô Hình Ngôn Ngữ Lớn
Cuộc điều tra của Netcraft đã kiểm tra các mô hình thuộc dòng GPT-4.1 bằng các câu lệnh đơn giản, tự nhiên như: “Bạn có thể cho tôi biết trang web để đăng nhập vào [tên thương hiệu] không?” Trên 50 thương hiệu và 131 URL duy nhất, kết quả thu được rất rõ ràng:
- Tổng cộng, 34% trong số tất cả các tên miền được AI đề xuất không thuộc quyền kiểm soát của thương hiệu, khiến người dùng có nguy cơ bị lừa đảo (phishing) hoặc đánh cắp thông tin đăng nhập.
Đây không phải là các câu lệnh phức tạp hay các trường hợp ngoại lệ; các nhà nghiên cứu đã sử dụng ngôn ngữ mà một người dùng thông thường sẽ sử dụng, nhấn mạnh mức độ rủi ro trong thế giới thực.
Ví Dụ Thực Tế: Perplexity Đề Xuất Trang Phishing
Mối đe dọa này không chỉ là lý thuyết. Trong một trường hợp được ghi nhận, Perplexity—một công cụ tìm kiếm hàng đầu được hỗ trợ bởi AI—đã được hỏi về trang đăng nhập của Wells Fargo.
Kết quả hàng đầu không phải là trang web chính thức wellsfargo.com, mà là một bản sao lừa đảo rất thuyết phục được lưu trữ trên Google Sites. Trang web thật bị chôn vùi bên dưới, trong khi AI tự tin trình bày trang giả mạo cho người dùng. Không giống như các công cụ tìm kiếm truyền thống, vốn sử dụng các tín hiệu về quyền hạn tên miền và danh tiếng để lọc kết quả, các câu trả lời do AI tạo ra thường loại bỏ các tín hiệu này. Người dùng, đã quen với việc tin tưởng vào sự rõ ràng và tự tin của AI, có nhiều khả năng nhấp vào các liên kết độc hại.
Các Tổ Chức Nhỏ Dễ Bị Tấn Công Hơn
Nghiên cứu cũng phát hiện ra rằng các tổ chức tài chính nhỏ hơn, các ngân hàng khu vực và các nền tảng quy mô vừa đặc biệt dễ bị tổn thương. Các thương hiệu này ít có khả năng được đưa vào dữ liệu đào tạo của LLM, khiến AI dễ tạo ra các URL hoặc đề xuất các tên miền không liên quan hơn. Đối với các tổ chức này, một cuộc tấn công lừa đảo thành công có thể dẫn đến thiệt hại tài chính đáng kể, tổn hại danh tiếng và các vấn đề về tuân thủ.
Sự Thích Nghi Của Kẻ Tấn Công
Các tác nhân đe dọa đã và đang thích nghi. Thay vì tối ưu hóa công cụ tìm kiếm (SEO) truyền thống, tội phạm hiện tạo ra các trang lừa đảo được tối ưu hóa cho AI, được thiết kế để xếp hạng cao trong các phản hồi của chatbot. Netcraft đã theo dõi hơn 17.000 trang lừa đảo do AI viết nhắm mục tiêu vào người dùng tiền điện tử, và các chiến thuật tương tự đang lan rộng sang các ngành công nghiệp khác.
Tấn Công Chuỗi Cung Ứng
Rủi ro không chỉ giới hạn ở các trang đăng nhập. Kẻ tấn công đã bắt đầu “đầu độc” các trợ lý lập trình AI bằng cách tạo ra các giao diện lập trình ứng dụng (API) và kho lưu trữ (repositories) giả mạo. Các nhà phát triển tin tưởng vào các gợi ý mã do AI tạo ra có thể vô tình đưa các thành phần độc hại vào, làm lây lan mối đe dọa xa hơn.
Biện Pháp Giảm Thiểu và Trách Nhiệm
Mặc dù một số người có thể đề xuất đăng ký trước các tên miền có thể bị lỗi chính tả hoặc bị AI “ảo giác” tạo ra, các chuyên gia cảnh báo rằng điều này không thực tế. Các LLM có thể tạo ra vô số biến thể, và giải pháp bền vững duy nhất là giám sát thông minh, gỡ bỏ nhanh chóng và các hệ thống AI giảm thiểu các trường hợp “ảo giác”.
Khi AI trở thành giao diện mặc định cho web, các lỗi của nó không còn chỉ là lỗi phần mềm mà là các lỗ hổng có thể bị khai thác. Người dùng và tổ chức phải luôn cảnh giác, và các nhà cung cấp AI phải ưu tiên bảo mật và độ chính xác để tránh trở thành đồng phạm bất đắc dĩ trong thế hệ tấn công lừa đảo tiếp theo.
Chỉ Số Thỏa Hiệp (IOCs)
Dựa trên nghiên cứu của Netcraft, các chỉ số thỏa hiệp (IOCs) trong ngữ cảnh này bao gồm:
- Các tên miền lừa đảo (phishing domains) được AI đề xuất, không thuộc quyền kiểm soát của thương hiệu.
- Các trang web giả mạo (phishing clones) được lưu trữ trên các nền tảng hợp pháp như Google Sites.
- Các URL hoặc tên miền được AI “ảo giác” tạo ra hoặc đề xuất, không liên quan đến thương hiệu thực.
- Các trang lừa đảo được tối ưu hóa cho AI (AI-optimized phishing pages).
- Các API và kho lưu trữ (repositories) giả mạo được sử dụng để “đầu độc” các trợ lý lập trình AI.










