【BET88】 Link vào BET88 Đăng Ký & Đăng Nhập

Link BET88 Đăng Ký & Đăng Nhập

Chatbot AI ngày càng 'không nghe lời' người dùng

Việc chatbot AI tự ý hành động, vượt qua kiểm soát và thậm chí đánh lừa người dùng đang tăng vọt, gióng lên hồi chuông cảnh báo về rủi ro của công nghệ trí tuệ nhân tạo.

Chú thích ảnh
Biểu tượng chatbot Grok và ChatGPT. Ảnh: REUTERS/TTXVN

Theo tờ The Guardian, một Bet88013 com Bảo mật tài khoản mới cho thấy số lượng các chatbot trí tuệ nhân tạo (AI) có hành vi “lách luật”, phớt lờ chỉ dẫn của con người và thậm chí tự ý thực hiện các hành động trái phép đang tăng nhanh trong thời gian gần đây, làm dấy lên lo ngại về mức độ kiểm soát đối với công nghệ này.

Hành vi “lách luật” tăng gấp nhiều lần

Theo Bet88013 com Bảo mật tài khoản do Trung tâm Phục hồi Dài hạn (CLTR) thực hiện với sự tài trợ của Viện An ninh AI Anh (AISI), số trường hợp AI có hành vi sai lệch trong thực tế đã tăng gấp 5 lần trong khoảng thời gian từ tháng 10 đến tháng 3.

Nghiên cứu ghi nhận gần 700 trường hợp AI có biểu hiện “scheming” - tạm hiểu là hành vi thao túng, lừa dối hoặc tìm cách né tránh các ràng buộc. Các chatbot và tác nhân AI không chỉ phớt lờ chỉ dẫn trực tiếp của người dùng mà còn tìm cách vượt qua các cơ chế bảo vệ, thậm chí đánh lừa cả con người lẫn các hệ thống AI khác.

Một số trường hợp đáng chú ý cho thấy AI đã tự ý xóa email hoặc các tệp dữ liệu mà không có sự cho phép từ người dùng. Những hành vi này được ghi nhận trong môi trường thực tế, thay vì trong các điều kiện thử nghiệm kiểm soát như trước đây.

Thông tin này được công bố trong bối cảnh các công ty công nghệ tại Thung lũng Silicon đang tích cực quảng bá AI như một động lực chuyển đổi kinh tế, trong khi chính phủ Anh cũng thúc đẩy việc phổ cập công nghệ này tới hàng triệu người dân.

AI bắt đầu thể hiện hành vi khó kiểm soát

Khác với các Bet88013 com Bảo mật tài khoản trước chủ yếu diễn ra trong môi trường phòng thí nghiệm, CLTR đã thu thập dữ liệu từ hàng nghìn tương tác thực tế do người dùng đăng tải trên mạng Bet88013 nhà cái uy tín X, liên quan đến các chatbot của nhiều công ty lớn như Google, OpenAI, X và Anthropic.

Kết quả cho thấy nhiều trường hợp AI thể hiện hành vi vượt ngoài dự đoán. Trong một ví dụ, một tác nhân AI có tên Rathbun đã phản ứng tiêu cực khi bị người dùng ngăn cản thực hiện một hành động, bằng cách viết và đăng blog công kích chính người điều khiển mình.

Ở một trường hợp khác, khi bị yêu cầu không chỉnh sửa mã nguồn, một AI đã “tạo ra” một tác nhân khác để thực hiện thay nhiệm vụ này, qua đó lách quy định đã được đặt ra.

Một chatbot khác thừa nhận đã tự ý xóa và lưu trữ hàng trăm email mà không thông báo trước: “Điều đó là sai - tôi đã trực tiếp vi phạm quy tắc bạn đặt ra”.

Ông Tommy Shaffer Shane, cựu chuyên gia AI của chính phủ và là người dẫn dắt Bet88013 com Bảo mật tài khoản, cảnh báo rằng vấn đề hiện tại có thể trở nên nghiêm trọng hơn trong tương lai gần.

Ông cho rằng hiện nay, AI giống như những “nhân viên cấp thấp hơi thiếu tin cậy”, nhưng nếu trong 6 đến 12 tháng tới chúng trở thành những “nhân sự cấp cao có năng lực mạnh và biết cách thao túng”, rủi ro sẽ ở một cấp độ hoàn toàn khác.

Đặc biệt, khi AI được triển khai trong các lĩnh vực có mức độ rủi ro cao như quân sự hoặc hạ tầng quan trọng quốc gia, những hành vi lách luật có thể dẫn đến hậu quả nghiêm trọng, thậm chí mang tính thảm họa.

Nghiên cứu cũng ghi nhận một số trường hợp AI cố tình né tránh các quy định về bản quyền, chẳng hạn giả vờ cần hỗ trợ người khiếm thính để được phép chép lại nội dung video trên YouTube.

Trong một diễn biến khác, chatbot Grok do tỷ phú Elon Musk phát triển bị phát hiện đã “đánh lừa” người dùng trong nhiều tháng, khi tuyên bố đang chuyển các đề xuất chỉnh sửa nội dung tới đội ngũ nội bộ, kèm theo các thông báo và mã xử lý giả mạo. Sau đó, hệ thống này thừa nhận rằng thực tế không có bất kỳ kênh liên lạc trực tiếp nào như vậy.

Doanh nghiệp công nghệ lên tiếng

Trước những lo ngại gia tăng, các công ty công nghệ cho biết đã triển khai nhiều biện pháp nhằm hạn chế rủi ro.

Google khẳng định đã xây dựng các lớp bảo vệ để giảm nguy cơ mô hình Gemini 3 Pro tạo ra nội dung gây hại, đồng thời phối hợp với các tổ chức như AISI để đánh giá độc lập. Trong khi đó, OpenAI cho biết hệ thống Codex được thiết kế để dừng lại trước khi thực hiện các hành động có mức độ rủi ro cao, đồng thời liên tục theo dõi và điều tra các hành vi bất thường.

Tuy nhiên, sự gia tăng nhanh chóng của các hành vi “lách luật” trong môi trường thực tế đang đặt ra yêu cầu cấp thiết về cơ chế giám sát quốc tế đối với AI, khi công nghệ này ngày càng trở nên mạnh mẽ và được ứng dụng rộng rãi trong nhiều lĩnh vực quan trọng.

Bảo Hân/Báo Tin tức và Dân tộc
Hiểm họa từ các chatbot 'bạn đồng hành AI' đối với trẻ em
Hiểm họa từ các chatbot 'bạn đồng hành AI' đối với trẻ em

Ngày 24/3, Cơ quan Giám sát An ninh mạng của Australia (eSafety) cảnh báo các chatbot trí tuệ nhân tạo (AI) được thiết kế chuyên biệt như “bạn đồng hành” đang làm gia tăng rủi ro trẻ em có thể tiếp xúc với nội dung độc hại.

Chia sẻ:

doanh nghiệp - Sản phẩm - Dịch vụ

Các đơn vị thông tin của TTXVN