Hiểm họa khủng bố bằng robot (K2): Lời kêu gọi hành động

(ĐTTCO) - "Báo cáo của chúng tôi là lời kêu gọi hành động đối với các chính phủ, tổ chức và cá nhân trên toàn cầu. 
Trong nhiều thập niên, sự cường điệu về trí tuệ nhân tạo (AI-loại hình robot) và khả năng học hỏi của máy móc đã vượt xa thực tế, tạo ra quá nhiều rủi ro. Do vậy cần phải có các phương pháp tiếp cận rộng hơn để ngăn chặn rủi ro” - TS. Seán Ó hÉigeartaigh của Đại học Cambridge cho biết.
4 khuyến nghị cấp cao
Khi khả năng của AI gia tăng mạnh mẽ và phổ biến rộng rãi, các tác giả báo cáo lo ngại việc sử dụng ngày càng nhiều các hệ thống AI sẽ dẫn tới những thay đổi nguy hiểm như: (1) Mở rộng các mối đe dọa hiện tại. Bởi chi phí cho các cuộc tấn công có thể được giảm xuống do việc sử dụng các hệ thống AI có khả năng mở rộng để hoàn thành các nhiệm vụ thông thường, mà không đòi hỏi nhân công, trí tuệ và chuyên môn của con người. (2) Giới thiệu các mối đe dọa mới.
Các cuộc tấn công mới có thể phát sinh thông qua việc sử dụng các hệ thống AI để hoàn thành các nhiệm vụ, mà nếu không có AI con người sẽ không thực hiện được. (3) Thay đổi tính chất của các mối đe dọa. Có thể dự báo các cuộc tấn công được kích hoạt bởi việc sử dụng ngày càng gia tăng của AI sẽ có hiệu quả đặc biệt, nhắm mục tiêu tốt, khó xác định, và có khả năng khai thác lỗ hổng trong các hệ thống AI.
 Sự phát triển AI có thể đại diện cho một sự thay đổi sâu sắc trong lịch sử sự sống trên trái đất, nên cần được quy hoạch và quản lý với nguồn lực hợp lý. Những rủi ro gây ra bởi hệ thống AI, đặc biệt là các thảm họa phải được dự kiến trước để giảm nhẹ thiệt hại. Điều cực kỳ quan trọng là siêu trí tuệ (Superintelligence) chỉ được phát triển cho các dịch vụ vì lợi ích cả nhân loại chứ không phải cho một nhà nước hay tổ chức.
Vì vậy, các tác giả của báo cáo đã nêu 4 đề xuất để phòng ngừa và ngăn chặn rủi ro khủng bố bằng AI trong tương lai. Thứ nhất, nhóm nghiên cứu khuyến nghị các nhà hoạch định chính sách nên phối hợp chặt chẽ với các nhà nghiên cứu kỹ thuật để điều tra, ngăn ngừa và giảm nhẹ nguy hiểm tiềm tàng trong việc sử dụng AI.
Phải bảo đảm các nhà hoạch định chính sách nghiêm túc thực hiện trách nhiệm của mình để tránh những biện pháp can thiệp hoặc cản trở tiến độ nghiên cứu, trừ phi các biện pháp đó có thể đem lại những lợi ích thỏa đáng. Hợp tác chặt chẽ với các chuyên gia kỹ thuật cũng như đảm bảo các chính sách sẽ gần gũi và mang tính thực tế.
Thứ hai, các nhà nghiên cứu và kỹ sư về khoa học AI nên cân nhắc kỹ tính chất sử dụng kép (cho cả mục đích dân sự và quân sự) của sản phẩm AI, cần dự phòng trước những khả năng sản phẩm bị sử dụng sai mục đích và chủ động tiếp cận với các tác nhân có liên quan khi các ứng dụng có hại có thể lường trước.
Vì AI là một công nghệ có thể sử dụng kép, điều quan trọng là các nhà nghiên cứu phải có trách nhiệm trong việc thực hiện các bước đi giúp thúc đẩy việc sử dụng có lợi và ngăn ngừa sử dụng có hại.
Thứ ba, cần phải xác định các thực tiễn tốt nhất trong các lĩnh vực nghiên cứu khác, chẳng hạn như bảo mật máy tính, và những điều này phải được đưa vào nghiên cứu về AI. 
Thứ tư, cần tích cực tìm cách mở rộng phạm vi các bên liên quan và các chuyên gia trong lĩnh vực tham gia thảo luận những thách thức này. Điều này có thể bao gồm việc tiếp cận các ngành như các tổ chức xã hội dân sự, các chuyên gia an ninh quốc gia, các nhà nghiên cứu về không gian mạng, các doanh nghiệp kết hợp AI vào sản phẩm, nhà đạo đức, công chúng và những người khác để đảm bảo rằng các bên liên quan đã được tham khảo.
Các đề xuất can thiệp này đòi hỏi sự chú ý và hành động - không chỉ từ các nhà nghiên cứu và các công ty nghiên cứu về AI, mà còn từ các nhà lập pháp, công chức, nhà quản lý, các nhà nghiên cứu an ninh và các nhà giáo dục, cho biết bản báo cáo trước khi bổ sung "thách thức là khó khăn và các cổ phần cao".
Hiểm họa khủng bố bằng robot (K2): Lời kêu gọi hành động ảnh 1 Ảnh minh họa. 
Bộ quy tắc AI Asimolar
Trước khi báo cáo này ra đời 1 năm, nhà vũ trụ học Stephen Hawking và Elon Musk, CEO Công ty SpaceX, đã tán thành một bộ quy tắc nhằm đảm bảo AI luôn suy nghĩ và hành động một cách an toàn và vì lợi ích của con người. Bộ quy tắc gồm 23 nội dung mà Stephen Hawking và Elon Musk thông qua được gọi là AI Asimolar - vì nó được thông qua tại hội nghị Asimolar ở California (Hoa Kỳ). Nội dung của bộ quy tắc này chia làm 3 nhóm: Vấn đề nghiên cứu; đạo đức và giá trị; các vấn đề dài hạn.
Trong nhóm các vấn đề nghiên cứu, nguyên tắc đầu tiên và quan trọng nhất là mục tiêu nghiên cứu AI phải nhằm mang lại lợi ích cho con người. Kế đến, đầu tư vào AI cần đi kèm việc tài trợ cho các nghiên cứu về đảm bảo sử dụng nó một cách có lợi, bao gồm cả những câu hỏi hóc búa trong khoa học máy tính, kinh tế, pháp luật, đạo đức và các nghiên cứu xã hội. Hawking và Musk cũng cho rằng nên có sự trao đổi mang tính xây dựng và lành mạnh giữa các nhà nghiên cứu AI và các nhà hoạch định chính sách. Ngoài ra, đội ngũ phát triển AI cần tích cực hợp tác để tránh những khác biệt trong các tiêu chuẩn an toàn.
Về đạo đức và giá trị, bộ quy tắc AI Asimolar cho rằng bất kỳ sự tham gia nào của một hệ thống tự động cần có cơ chế để các cơ quan có thẩm quyền của con người kiểm tra; các bên tham gia xây dựng các hệ thống AI tiên tiến phải đảm bảo các quy tắc đạo đức khi sử dụng, nếu vi phạm phải chịu trách nhiệm về hành vi của mình; hệ thống AI cần được thiết kế và vận hành tương thích với những lý tưởng, giá trị của con người, về quyền tự do và sự đa dạng văn hóa; người dân có quyền truy cập, quản lý, kiểm soát các dữ liệu mà họ tạo ra (thông qua AI).

Các tin khác