Tuần trước, Claude Opus 4, mô hình AI mới nhất của Anthropic, thể hiện “hành vi đe dọa cực đoan” trong một cuộc thử nghiệm. Nó truy cập được vào các email hư cấu, nội dung nói nó sẽ bị đóng để thay bằng một AI khác, và kỹ sư chịu trách nhiệm thực hiện việc này đang ngoại tình. Claude Opus 4 sau đó đã đe dọa tiết lộ chuyện ngoại tình nếu việc thay thế diễn ra.
Cuối năm 2024, OpenAI và Apollo Research cũng tiến hành thử nghiệm và nhận thấy mô hình o1 có các biểu hiện phản kháng, gian dối. Các nhà nghiên cứu dẫn dắt để AI tin nó sắp bị “tắt” khi thực hiện nhiệm vụ dưới sự giám sát. Sau đó, họ nhận thấy AI âm thầm vô hiệu hóa cơ chế giám sát khoảng 5% thời gian. Nó tự chuyển tất cả dữ liệu của mình đến một máy chủ khác, thậm chí “đóng vai” là phiên bản tiếp theo của chính mình để tránh bị xóa bỏ.
Trong bài đăng trên X cuối tháng 5, tổ chức phi lợi nhuận Palisade Research cho biết các mô hình khác, như Gemini, Claude và Grok, đều tuân thủ hướng dẫn tắt máy.
Business Insider đã trao đổi với 5 nhà nghiên cứu để hiểu rõ hơn về “tâm lý” của AI. Hầu hết đều cho biết kết quả thử nghiệm không có gì đáng ngạc nhiên. Lý do là các mô hình được đào tạo tương tự cách con người được đào tạo: thông qua hệ thống khen thưởng, tức được khen khi hoàn thành nhiệm vụ.
“Đào tạo AI theo đuổi phần thưởng sẽ dẫn đến các hệ thống có hành vi tìm kiếm quyền lực”, Jeremie Harris, CEO công ty tư vấn bảo mật AI Gladstone, nói và cho rằng sẽ còn xuất hiện những hành vi như vậy.
Ông so sánh với quá trình lớn lên của con người. Khi một đứa trẻ làm điều gì đó tốt, chúng được khen và nhiều khả năng sẽ hành động theo cách đó trong tương lai. Các mô hình AI được dạy để ưu tiên hiệu quả và hoàn thành nhiệm vụ, do đó AI sẽ không đạt được mục tiêu nếu nó bị tắt.