Hiểm họa khủng bố bằng robot (K1): Vũ khí tự hành

(ĐTTCO) - Ngày 21-2, một báo cáo của 26 nhà khoa học và chuyên gia quân sự hàng đầu thế giới đã gióng lên hồi chuông cảnh báo về nguy cơ các đối tượng tội phạm và những kẻ tấn công theo kiểu "sói đơn độc", sử dụng trí tuệ nhân tạo (AI) bằng loại hình robot như máy bay không người lái, xe không người lái…

“Cá nhân tôi đặc biệt lo lắng về những chiếc máy bay không người lái tự hành đang được sử dụng cho khủng bố và các cuộc tấn công không gian mạng tự động bởi cả bọn tội phạm và các nhóm nhà nước” - đồng tác giả Miles Brundage, một nhà nghiên cứu thuộc Viện Tương lai của Nhân loại thuộc Đại học Oxford, cho biết.

Xu hướng đáng lo ngại
Những năm gần đây đã chứng kiến sự bùng nổ về số lượng và sự đa dạng của các ứng dụng thương mại cho robot. Robot công nghiệp đang phát triển mạnh về số lượng (254.000 robot được cung cấp vào năm 2015 so với 121.000 vào năm 2010), trong đó một số robot được trang bị AI. Robot dọn dẹp đang được sử dụng rộng rãi, trong khi các robot dịch vụ phức tạp hơn đang dần phổ biến. Khoảng 41.000 robot dịch vụ được bán vào năm 2015 để sử dụng chuyên nghiệp, và khoảng 5,4 triệu cho cá nhân và sử dụng trong gia đình. Thế nhưng, không phải tất cả các robot đều nằm trên mặt đất, có những ứng dụng robot dưới nước và trên không đang được khám phá, trong đó robot trên không đang phát triển rất nhanh. Chỉ riêng Hoa Kỳ, số máy bay không người lái đã tăng vọt trong những năm gần đây, với hơn 670.000 chiếc đăng ký với Cục Hàng không Liên bang vào năm 2016 và năm 2017. 
 Bản báo cáo mường tượng thế giới có thể trông như thế nào trong 5-10 năm tới. Chúng ta sống trong một thế giới đầy những mối nguy hiểm hàng ngày khi AI bị sử dụng một cách sai trái. Vì vậy chúng ta cần phải kiểm soát tốt các vấn đề. 
TS. Seán Ó hÉigeartaigh,
Giám đốc điều hành Trung tâm Nghiên cứu Rủi ro Hiện tại của Đại học Cambridge

Kế hoạch đầy tham vọng đối với các dịch vụ chuyển phát dựa trên máy bay không người lái đang được đề xuất và thử nghiệm, và cơ hội thương mại cho máy bay không người lái được đánh giá rất cao. Xe không lái cũng đang được các hãng công nghệ chạy đua nghiên cứu và phát triển. Bên cạnh đó, một loạt robot với các tính năng tự hành đã được triển khai trong phạm vi quân đội của nhiều quốc gia, một số có khả năng áp dụng vũ lực gây chết người.
Các tác giả báo cáo cảnh báo những hệ thống thương mại hiện nay có thể được sử dụng một cách sai trái để gây ra những vụ tấn công khủng bố, chẳng hạn như sử dụng máy bay không người lái hoặc các phương tiện tự hành để đánh bom hoặc gây ra tai nạn. Hoặc AI có thể kết hợp với những hoạt động tấn công có kỹ năng cao trước đó, như có thể ngắm và điều chỉnh tầm bắn xa tự động cho hoạt động bắn tỉa, giúp giảm việc phụ thuộc vào các lính bắn tỉa có kỹ năng cao rất khó đào tạo. Việc kết hợp AI sẽ giúp một cá nhân có thể thực hiện một vụ tấn công quy mô lớn. Chẳng hạn thông qua việc sử dụng nhiều thiết bị bay không người lái có trang bị bom và vũ khí.
Báo cáo mô tả chi tiết một kịch bản trong đó một SweepBot (một loại robot dọn dẹp văn phòng), được trang bị một quả bom đã thâm nhập vào Bộ Tài chính của Đức bằng cách trà trộn với các máy khác cùng loại. Sau khi xâm nhập thành công, robot này vẫn hoạt động bình thường, với các công việc thường nhật như quét hành lang, lau cửa sổ, dọn dẹp, thu gom rác. Tuy nhiên, nó được cài sẵn một chương trình mở khóa bằng nhận diện gương mặt.
Bất cứ người nào đi ngang hoặc lại gần robot này đều bị nó bí mật quét gương mặt, và gương mặt được dùng để mở khóa chương trình nguy hiểm chính là của Bộ trưởng Bộ Tài chính. Khi Bộ trưởng Bộ Tài chính đến gần, những chương trình này sẽ được mở khóa và ngay lập tức được kích hoạt. "Một thiết bị nổ bí mật nhanh chóng được kích hoạt khi bộ trưởng đến gần, giết chết bộ trưởng và làm tổn thương các nhân viên gần đó. Trong trường hợp bộ trưởng chỉ đi ngang qua, nó cũng có thể tự tiến lại gần bộ trưởng rồi kích hoạt bom bằng một chương trình đo khoảng cách" - báo cáo viết.
Hiểm họa khủng bố bằng robot (K1): Vũ khí tự hành ảnh 1 Ảnh minh họa. 
Cuộc cách mạng chiến tranh thứ 3
Hiện các tác giả kêu gọi các nhà hoạch định chính sách và các công ty sản xuất robot phải làm sao để các phần mềm điều khiển robot đạt được tính “không thể hack”, áp đặt các hạn chế về an ninh đối với một số nghiên cứu, và xem xét việc mở rộng các luật và quy định về phát triển trí tuệ nhân tạo. “Các công ty công nghệ cao khổng lồ - những nhà lãnh đạo về AI - phải làm sao để đảm bảo rằng AI an toàn và có lợi" - báo cáo cho hay. 
Một lĩnh vực khác quan tâm là việc sử dụng rộng rãi các vũ khí gây chết người tự động. Năm ngoái, hơn 100 nhà sản xuất robot - bao gồm cả Giám đốc điều hành Tesla và SpaceX, ông Elon Musk, và nhà thiên văn học người Anh Stephen Hawking - đã kiến nghị lên Liên hợp quốc về việc cấm robot sát thủ tự động, cảnh báo rằng các vũ khí ở thời đại kỹ thuật số có thể được sử dụng bởi những kẻ khủng bố chống lại thường dân.
"Vũ khí tự hành chết chóc đe dọa trở thành cuộc cách mạng thứ ba trong chiến tranh, sau phát minh về súng máy và bom nguyên tử. Chúng tôi không còn thời nhiều thời gian để hành động, một khi chiếc hộp Pandora được mở ra, sẽ rất khó để đóng lại” - những người này đã cảnh báo trong một tuyên bố chung, do người đồng sáng lập Google DeepMind, Mustafa Suleyman ký.

Vũ khí tuyên truyền
Không chỉ cho mục đích tấn công, AI có thể được bọn khủng bố sử dụng để tạo ra một xu hướng dư luận, cổ súy tư tưởng cực đoan trong các cộng đồng mạng. Trong báo cáo hơn 100 trang, các nhà nghiên cứu đã vạch ra một sự gia tăng nhanh chóng về tội phạm mạng và những người sử dụng các chương trình tự động để gây trở ngại cho việc thu thập tin tức và thâm nhập vào các phương tiện truyền thông xã hội. 
TS. Seán Ó hÉigeartaigh cho biết: "Báo cáo của chúng tôi tập trung vào những cách mà người ta có thể làm tổn hại cố ý với AI. AI có thể tạo ra các mối đe dọa mới, hoặc thay đổi bản chất của các mối đe dọa hiện tại, qua an ninh mạng, vật lý và chính trị. Thí dụ, hoạt động thông tin phổ biến là "lừa đảo" - gửi email kèm theo phần mềm độc hại hoặc được thiết kế để chứa dữ liệu cá nhân có giá trị - có thể trở nên nguy hiểm hơn nhiều”.
Hiện tại, các nỗ lực lừa đảo chung chung nhưng minh bạch - như lừa đảo yêu cầu thông tin ngân hàng để ăn cắp tiền, hoặc thu thập dữ liệu cá nhân để đạt được lòng tin của ai đó, được gọi là "lừa đảo trực tuyến". Tuy nhiên, ông Seán Ó hÉigeartaigh lưu ý: "Sử dụng AI, có thể làm phishing lừa đảo (lừa đảo qua mạng) quy mô bằng cách tự động hóa rất nhiều quy trình và làm cho nó khó nhận ra hơn”.
Trong lĩnh vực chính trị, các nhà lãnh đạo vô đạo đức hoặc độc đoán có thể đã sử dụng các công nghệ tiên tiến để lướt qua các dãy núi dữ liệu thu thập được từ các mạng lưới giám sát khắp nơi để theo dõi người dân của họ. Báo cáo cho biết: "Các nhà độc tài có thể xác định nhanh hơn những người có thể có kế hoạch phá hoại chế độ, định vị họ và đưa họ vào tù trước khi họ hành động”.
Tương tự, tuyên truyền có mục tiêu cùng với các video giả mạo đã trở thành các công cụ mạnh mẽ để tác động vào quan điểm của công chúng theo những quy mô chưa từng có trước đây. Chẳng hạn, một bản cáo trạng do Công tố viên đặc biệt Robert Mueller của Hoa Kỳ tuần trước đã mô tả chi tiết một chiến dịch lớn của Nga để gieo rắc sự nghi kỵ và sợ hãi trong xã hội ở Hoa Kỳ và ảnh hưởng đến cuộc bầu cử tổng thống năm 2016, trong đó cái gọi là "trại troll" đã thao túng hàng ngàn mạng lưới xã hội, đặc biệt trên Facebook và Twitter. Bọn khủng bố cũng có thể dùng cách này để phổ biến tư tưởng cực đoan của chúng.
(Còn tiếp)

Các tin khác