Khi thế giới ngày càng làm quen với các trợ lý AI, chúng ta đang khám phá nhiều khả năng thú vị mà chúng có thể thực hiện, cả theo chiều hướng tốt và xấu. Một ví dụ điển hình rơi vào trường hợp thứ hai là một cuộc tấn công lý thuyết có thể buộc ChatGPT thực hiện tấn công DDoS (Từ chối dịch vụ phân tán) vào một trang web được chọn, mặc dù đây chưa phải là mối đe dọa “thực sự” ở thời điểm hiện tại.
ChatGPT Có Khả Năng Thực Hiện Không Giới Hạn Kết Nối Siêu Liên Kết Trong Một Yêu Cầu
Như được báo cáo bởi Silicon Angle, nhà nghiên cứu Benjamin Flesch đã phát hiện ra rằng ChatGPT không có giới hạn về số lượng liên kết mà nó truy cập khi tạo phản hồi. Không chỉ vậy, dịch vụ này còn không kiểm tra xem các URL mà nó đang truy cập có phải là bản sao của các trang web đã kiểm tra trước đó hay không. Kết quả cuối cùng là một cuộc tấn công lý thuyết mà một kẻ xấu có thể khiến ChatGPT kết nối với cùng một trang web hàng nghìn lần trong mỗi truy vấn.
Các biểu tượng chatbot AI trên màn hình điện thoại thông minh, minh họa công nghệ AI và nguy cơ lỗ hổng bảo mật như tấn công DDoS từ ChatGPT.
Lỗ hổng này có thể bị khai thác để làm quá tải bất kỳ trang web nào mà người dùng độc hại muốn nhắm mục tiêu. Bằng cách chèn hàng nghìn siêu liên kết trong một yêu cầu duy nhất, kẻ tấn công có thể khiến máy chủ của OpenAI tạo ra một lượng lớn các yêu cầu HTTP đến trang web nạn nhân. Các kết nối đồng thời này có thể gây căng thẳng hoặc thậm chí vô hiệu hóa cơ sở hạ tầng của trang web mục tiêu, thực hiện một cuộc tấn công DDoS hiệu quả.
Benjamin Flesch tin rằng lỗ hổng này xuất hiện do “thực hành lập trình kém” và nếu OpenAI thêm một số hạn chế về cách ChatGPT thu thập dữ liệu trên internet, nó sẽ không có khả năng thực hiện một cuộc tấn công DDoS “ngẫu nhiên” vào các máy chủ. Elad Schulman, người sáng lập và giám đốc điều hành của công ty bảo mật AI tạo sinh Lasso Security Inc., đã đồng ý với kết luận của Benjamin Flesch. Ông Schulman cũng bổ sung thêm một kịch bản khai thác tiềm năng khác cho các cuộc tấn công này. Elad tin rằng nếu một hacker quản lý để xâm nhập tài khoản OpenAI của ai đó, họ có thể “dễ dàng tiêu hết ngân sách hàng tháng của một chatbot dựa trên mô hình ngôn ngữ lớn chỉ trong một ngày”, điều này sẽ gây thiệt hại tài chính nếu không có biện pháp bảo vệ chống lại các thực hành như vậy.
Kết Luận
Hy vọng rằng, khi công nghệ AI phát triển, các công ty sẽ bổ sung các hạn chế để ngăn chặn những kẻ xấu lạm dụng dịch vụ của họ. Mặc dù đây chỉ là một mối đe dọa lý thuyết, nhưng nó nhấn mạnh tầm quan trọng của việc liên tục cải thiện bảo mật và giám sát các mô hình AI để bảo vệ người dùng và hạ tầng internet. Cộng đồng người dùng cần theo dõi sát sao các cập nhật và khuyến nghị bảo mật từ các nhà phát triển AI để chủ động phòng tránh những rủi ro tiềm ẩn.