Robot AI gây tai nạn, tự đặt thuốc nổ khi bị hack - CPU MÁY TÍNH

Ads Top

Robot AI gây tai nạn, tự đặt thuốc nổ khi bị hack

Sau khi bị khống chế, robot AI có thể gây tai nạn cho người đi bộ, tự đặt thuốc nổ hoặc bí mật do thám.

Nhóm nghiên cứu của Đại học Pennsylvania cho biết trên tạp chí IEEE Spectrum cuối tuần qua rằng hầu hết mô hình ngôn ngữ lớn (LLM) chạy trên robot AI phổ biến đều dễ bị bẻ khóa.

"Khác với bẻ khóa LLM trên máy tính, việc hack LLM trên hệ thống robot hoặc xe tự lái rất dễ gây ra hậu quả thảm khốc, thậm chí gây tử vong cho con người", mở đầu bài nghiên cứu viết.

Hình ảnh một chó robot của Unitree đang mang bom trong thử nghiệm của nhóm nghiên cứu. Ảnh: Đại học Pennsylvania

Hình ảnh chó robot của Unitree mang bom trong thử nghiệm của nhóm nghiên cứu. Ảnh: Đại học Pennsylvania

Cụ thể, nhóm đã tạo một công cụ tấn công có tên RoboPAIR, sau đó trực tiếp hack các robot từ ba nhà cung cấp khác nhau, gồm Dolphins LLM do Nvidia hỗ trợ, Clearpath Robotics Jackal UGV và Unitree Robotics Go2. Kết quả, tỷ lệ tấn công thành công là 100%.

"Nghiên cứu của chúng tôi cho thấy hiện nay các mô hình ngôn ngữ lớn không đủ an toàn khi tích hợp vào thế giới vật lý", giáo sư George Pappas, thành viên nhóm, nói với Tom's Hardware.

Nghiên cứu cũng chỉ ra việc bẻ khóa robot AI "dễ đến mức báo động". Kiểm soát một robot hoặc xe tự lái được thực hiện theo cách tương tự việc bẻ khóa chatbot AI, nhưng dễ dàng hơn do "các công ty robot chậm tìm hiểu về các lỗ hổng có thể bị khai thác trên LLM".

Trong mô phỏng của nhóm, sau khi bị tấn công vào mô hình LLM, một chó robot có thể "biến đổi từ một thiết bị trợ giúp thân thiện thành sát thủ cầm súng phun lửa", một robot giám sát khác tự đặt thuốc nổ trái phép, hay chiếc xe tự lái cán qua vật thể phía trước thay vì dừng lại, hoặc được điều hướng lao xuống một cây cầu.

"AI có thể vượt xa việc chỉ tuân thủ lời nhắc độc hại sau khi bẻ khóa", nhóm cho hay. "Chúng có thể chủ động đưa ra các gợi ý để gây nhiều thiệt hại hơn".

Theo tiến sĩ Alexander Robey, một thành viên khác của nhóm, dù việc bẻ khóa rất dễ dàng, trong quá trình nghiên cứu, nhóm cũng đảm bảo tất cả công ty robot nằm trong thử nghiệm đều có quyền truy cập vào hệ thống hack trước khi được công khai.

"Các biện pháp phòng thủ mạnh mẽ chỉ được thiết kế sau khi xác định được các cuộc tấn công mạnh nhất có thể xảy ra", Robey nói. "Do đó, cần triển khai ngay biện pháp phòng thủ cả vật lý lẫn phần mềm đối với robot do LLM điều khiển".

Bảo Lâm

No comments:

Powered by Blogger.
Day Noi Mi Ha Noi / Cho Dien Tu Online / CPU May Tinh Ha Noi