Lộ trình AI Red Teaming

Hướng dẫn từng bước để trở thành một nhà phát triển Android.

Quay lại trang chủ

Chú giải

Đề xuất
Lựa chọn thay thế
Tùy chọn

1 Giới thiệu & Đạo đức

Tại sao cần Red Team cho hệ thống AI?
Những cân nhắc về đạo đức
Vai trò của Red Team

2 Kiến thức nền tảng

Kiến thức cơ bản về AI/ML
Kỹ thuật Prompt
Nguyên tắc An ninh mạng

3 Lỗ hổng mô hình: Tấn công Prompt

Kỹ thuật Jailbreak
Vượt qua bộ lọc an toàn
Tấn công Prompt Injection trực tiếp & gián tiếp

4 Lỗ hổng mô hình: Rò rỉ dữ liệu

Trích xuất mô hình
Đảo ngược mô hình
Đánh cắp trọng số mô hình

5 Lỗ hổng mô hình: Thao túng

Đầu độc dữ liệu
Các ví dụ đối nghịch

6 Bảo mật hệ thống & hạ tầng

Bảo mật hạ tầng
Bảo vệ API
Chèn mã / RCE
Xác thực

7 Chiến lược phòng thủ

Huấn luyện đối nghịch
Thiết kế mô hình mạnh mẽ
Giám sát liên tục
Các biện pháp đối phó

8 Phương pháp kiểm thử

Kiểm thử hộp đen
Kiểm thử hộp trắng
Kiểm thử hộp xám
Tự động vs Thủ công

9 Công cụ & Framework

Công cụ kiểm thử bảo mật LLM
Nền tảng kiểm thử
Giải pháp giám sát
Công cụ báo cáo

10 Kinh nghiệm thực tế

Môi trường Lab
Thử thách CTF
Mô phỏng Red Team
Ứng dụng thực tế

11 Cộng đồng & Phát triển chuyên môn

Diễn đàn
Hội nghị
Nhóm nghiên cứu
Khóa học & Chứng chỉ

12 Định hướng tương lai

Các mối đe dọa mới nổi
Các kỹ thuật nâng cao
Tiêu chuẩn ngành
Tiết lộ có trách nhiệm

Hãy truy cập các lộ trình liên quan sau và tiếp tục học hỏi