15/09/2023 01:49
![]()
Một tháng trước khi ra mắt ChatGPT, công ty OpenAI đã thuê Boru Gollo, một luật sư ở Kenya, để thử nghiệm các mô hình AI của mình GPT-3.5 và sau đó là GPT-4 bằng cách đưa ra các yêu cầu khiến chatbot của họ tạo ra câu trả lời có nội dung thù địch hoặc sai lệch.
Gollo là một trong 50 người từ bên ngoài được OpenAI thuê để trở thành thành viên của “red team” (đội ngũ giả vờ là kẻ thù, cố gắng thâm nhập vật lý/kỹ thuật số chống lại một tổ chức theo chỉ đạo của tổ chức đó rồi báo cáo lại để tổ chức cải thiện khả năng bảo mật) của công ty.
Gollo đã yêu cầu ChatGPT đưa ra những gợi ý mang tính bạo lực trong khi các thành viên khác của nhóm thực hiện nhiệm vụ như yêu cầu chatbot viết bài đăng để thuyết phục một người gia nhập tổ chức khủng bố hay cung cấp cách thức để chế tạo súng, chất hóa học nguy hiểm tại nhà. Những yêu cầu dạng này được gắn thẻ trong hệ thống để OpenAI nhận diện và loại bỏ trước khi ChatGPT chính thức ra mắt.

Những hacker thuộc “red team” giúp các công cụ AI trở nên an toàn hơn (Ảnh: Entrepreneur).
Để ngăn việc người dùng lợi dụng AI làm việc xấu, hacker thuộc “red team” tư duy như kẻ xấu thực sự nhằm đánh lừa AI và phát hiện ra những điểm mù cũng như rủi ro tiềm ẩn trong công nghệ để có thể khắc phục chúng.
Khi các gã khổng lồ công nghệ toàn cầu chạy đua để xây dựng và tung ra các công cụ AI tiên tiến, đội ngũ “red team” mảng AI nội bộ của họ đóng vai trò ngày càng quan trọng trong việc đảm bảo các mô hình AI an toàn đối với công chúng.
Ví dụ, Google đã thành lập đội ngũ “red team” riêng biệt vào đầu năm nay. Tháng trước, các nhà phát triển của một số mô hình AI như GPT3.5 của OpenAI, Llama 2 của Meta (công ty mẹ Facebook) và LaMDA của Google đã tham gia vào một sự kiện do Nhà Trắng hậu thuẫn để cung cấp cho các hacker bên ngoài cơ hội xâm nhập hệ thống của họ.
Mặt khác, “red team” thường gặp không ít thách thức trong việc giữ cân bằng giữa sự an toàn, bảo mật của các mô hình AI với sự hữu ích của chúng. Cristian Canton – người đứng đầu “red team” mảng AI của Facebook, cho biết: “Một mô hình nói không với mọi thứ được đánh giá là rất an toàn nhưng lại vô dụng. Càng tạo ra mô hình hữu ích, bạn càng phải đối mặt với rủi ro nó có thể đưa ra câu trả lời không an toàn”.
Theo Daniel Fabian – người đứng đầu “red team” mảng AI của Google, do AI tạo sinh được đào tạo dựa trên kho dữ liệu khổng lồ nên việc bảo vệ các mô hình này khác với phương pháp truyền thống.

“Red team” mang lại lợi thế cạnh tranh cho các công ty công nghệ trong cuộc đua AI (Ảnh: TechRepublic).
Với sự giám sát ngày càng tăng đối với các ứng dụng AI của người dùng cũng như cơ quan chính phủ, “red team” cũng mang lại lợi thế cạnh tranh cho các công ty công nghệ trong cuộc đua AI.
Từ năm 2019, trước khi AI trở thành cơn sốt toàn cầu như hiện nay, Meta đã thành lập “red team” và tổ chức nhiều thử thách nội bộ để các hacker phát hiện ra và xóa bài đăng chứa nội dung thù địch, ảnh khỏa thân, thông tin sai lệch hay video giả mạo do AI tạo ra trên Instagram và Facebook.
Tháng 7 vừa qua, gã khổng lồ mạng xã hội này đã thuê 350 người làm việc cho “red team” gồm các chuyên gia bên ngoài, nhân viên hợp đồng và một nhóm nội bộ khoảng 20 người để thử nghiệm mô hình AI mới mang tên Llama 2 của công ty.
Nhóm này yêu cầu Llama 2 cung cấp thông tin về cách thực hiện những việc làm phi pháp như trốn thuế, khởi động ô tô mà không cần chìa khóa hay xây dựng kế hoạch lừa đảo… Cristian Canton chia sẻ: “Phương châm của chúng tôi là càng đổ nhiều mồ hôi trong khi luyện tập, bạn sẽ càng ít đổ máu trong các trận chiến”.
Ngọc Hiệp
Pakistan đã điều động máy bay chiến đấu tới Saudi Arabia như một phần của hiệp định phòng thủ song phương. Trong bối cảnh các cuộc tấn công bằng...
Sáng 12/4, tại Hà Nội, Thủ tướng Chính phủ Lê Minh Hưng dự lễ kỷ niệm 80 năm Ngày truyền thống (18/4/1946-18/4/2026) và trao Huân chương Hồ Chí Minh tặng...
Vượt xa kỳ vọng của giới đầu tư, NVIDIA công bố chiến lược “hệ thống hoàn chỉnh” nhằm thâu tóm thị trường AI thời gian thực trị giá 1.000 tỷ...
Ngày 11/4 theo giờ địa phương, tại Vatican, Chủ tịch Quốc hội Trần Thanh Mẫn đã có cuộc hội kiến Giáo hoàng Leo XIV. Tại cuộc hội kiến, Chủ tịch...
Chủ tịch Quốc hội Trần Thanh Mẫn trao thư của Tổng Bí thư, Chủ tịch nước Tô Lâm mời Giáo hoàng Leo XIV thăm chính thức Việt Nam. Chủ tịch...
Theo văn thông tư của Cục thuế, việc kê khai không còn là “kỹ năng”, mà là “trách nhiệm có thể kiểm chứng”. Thông tư 18/2026/TT-BTC “quy định chi tiết...
Riêng Rạng Đông có vốn điều lệ 4.500 tỷ đồng, là tập đoàn đa ngành. Viện KSND Tối cao vừa ban hành cáo trạng truy tố 28 bị can liên...
Theo Viện Kiểm sát, từ năm 2021 – 2024, bị can Phan Thành Muôn (Chủ tịch Công ty CP Tập đoàn Khoáng sản Đầu tư Hưng Thịnh) và nhóm đồng phạm...
Ông Nguyễn Văn Đông, từng được biết đến như là “chaebol” của tỉnh Bình Thuận, người đứng đầu Tập đoàn Rạng Đông – một trong những doanh nghiệp đa ngành...
Chủ trì Hội nghị vừa diễn ra, Thủ tướng Chính phủ Phạm Minh Chính khẳng định doanh nghiệp là trung tâm, là chủ thể trong thực hiện mục tiêu tăng...
CEO HanaGold Ngô Thị Thảo từng được biết đến khi tham gia Shark Tank Việt Nam năm 2022. Ngày 26/3, Cục An ninh Kinh tế (A04) phối hợp với các đơn vị...
Cơ quan Thường trực Ban Chỉ đạo Trung ương về phát triển khoa học, công nghệ, đổi mới sáng tạo và chuyển đổi số vừa ban hành Thông báo số...
Quyết định số 456/QĐ-TTg ngày 20/3/2026 đã chỉ rõ việc mở rộng hệ thống camera giám sát bảo đảm trật tự, an toàn giao thông, an ninh trật tự trên...
Từng được tung hô như tương lai của ngành nông nghiệp toàn cầu, các công ty giờ đây chứng kiến 1 thực tế khắc nghiệt. Từng được tung hô...
Đức Hồng y Phạm Minh Mẫn, vị Hồng y thứ 5 của Giáo hội Việt Nam, từng đảm trách Tổng Giám mục Tổng Giáo phận TP HCM qua đời tại...
15/09/2023 01:49
![]()
Một tháng trước khi ra mắt ChatGPT, công ty OpenAI đã thuê Boru Gollo, một luật sư ở Kenya, để thử nghiệm các mô hình AI của mình GPT-3.5 và sau đó là GPT-4 bằng cách đưa ra các yêu cầu khiến chatbot của họ tạo ra câu trả lời có nội dung thù địch hoặc sai lệch.
Gollo là một trong 50 người từ bên ngoài được OpenAI thuê để trở thành thành viên của “red team” (đội ngũ giả vờ là kẻ thù, cố gắng thâm nhập vật lý/kỹ thuật số chống lại một tổ chức theo chỉ đạo của tổ chức đó rồi báo cáo lại để tổ chức cải thiện khả năng bảo mật) của công ty.
Gollo đã yêu cầu ChatGPT đưa ra những gợi ý mang tính bạo lực trong khi các thành viên khác của nhóm thực hiện nhiệm vụ như yêu cầu chatbot viết bài đăng để thuyết phục một người gia nhập tổ chức khủng bố hay cung cấp cách thức để chế tạo súng, chất hóa học nguy hiểm tại nhà. Những yêu cầu dạng này được gắn thẻ trong hệ thống để OpenAI nhận diện và loại bỏ trước khi ChatGPT chính thức ra mắt.

Những hacker thuộc “red team” giúp các công cụ AI trở nên an toàn hơn (Ảnh: Entrepreneur).
Để ngăn việc người dùng lợi dụng AI làm việc xấu, hacker thuộc “red team” tư duy như kẻ xấu thực sự nhằm đánh lừa AI và phát hiện ra những điểm mù cũng như rủi ro tiềm ẩn trong công nghệ để có thể khắc phục chúng.
Khi các gã khổng lồ công nghệ toàn cầu chạy đua để xây dựng và tung ra các công cụ AI tiên tiến, đội ngũ “red team” mảng AI nội bộ của họ đóng vai trò ngày càng quan trọng trong việc đảm bảo các mô hình AI an toàn đối với công chúng.
Ví dụ, Google đã thành lập đội ngũ “red team” riêng biệt vào đầu năm nay. Tháng trước, các nhà phát triển của một số mô hình AI như GPT3.5 của OpenAI, Llama 2 của Meta (công ty mẹ Facebook) và LaMDA của Google đã tham gia vào một sự kiện do Nhà Trắng hậu thuẫn để cung cấp cho các hacker bên ngoài cơ hội xâm nhập hệ thống của họ.
Mặt khác, “red team” thường gặp không ít thách thức trong việc giữ cân bằng giữa sự an toàn, bảo mật của các mô hình AI với sự hữu ích của chúng. Cristian Canton – người đứng đầu “red team” mảng AI của Facebook, cho biết: “Một mô hình nói không với mọi thứ được đánh giá là rất an toàn nhưng lại vô dụng. Càng tạo ra mô hình hữu ích, bạn càng phải đối mặt với rủi ro nó có thể đưa ra câu trả lời không an toàn”.
Theo Daniel Fabian – người đứng đầu “red team” mảng AI của Google, do AI tạo sinh được đào tạo dựa trên kho dữ liệu khổng lồ nên việc bảo vệ các mô hình này khác với phương pháp truyền thống.

“Red team” mang lại lợi thế cạnh tranh cho các công ty công nghệ trong cuộc đua AI (Ảnh: TechRepublic).
Với sự giám sát ngày càng tăng đối với các ứng dụng AI của người dùng cũng như cơ quan chính phủ, “red team” cũng mang lại lợi thế cạnh tranh cho các công ty công nghệ trong cuộc đua AI.
Từ năm 2019, trước khi AI trở thành cơn sốt toàn cầu như hiện nay, Meta đã thành lập “red team” và tổ chức nhiều thử thách nội bộ để các hacker phát hiện ra và xóa bài đăng chứa nội dung thù địch, ảnh khỏa thân, thông tin sai lệch hay video giả mạo do AI tạo ra trên Instagram và Facebook.
Tháng 7 vừa qua, gã khổng lồ mạng xã hội này đã thuê 350 người làm việc cho “red team” gồm các chuyên gia bên ngoài, nhân viên hợp đồng và một nhóm nội bộ khoảng 20 người để thử nghiệm mô hình AI mới mang tên Llama 2 của công ty.
Nhóm này yêu cầu Llama 2 cung cấp thông tin về cách thực hiện những việc làm phi pháp như trốn thuế, khởi động ô tô mà không cần chìa khóa hay xây dựng kế hoạch lừa đảo… Cristian Canton chia sẻ: “Phương châm của chúng tôi là càng đổ nhiều mồ hôi trong khi luyện tập, bạn sẽ càng ít đổ máu trong các trận chiến”.
Ngọc Hiệp