Nguồn: David Wallace-Wells, “What War by A.I. Actually Looks Like,” New York Times, 10/04/2024
Biên dịch: Nguyễn Thị Kim Phụng
Tháng 11 vừa qua, tạp chí cánh tả +972 và Local Call của Israel đã công bố một cuộc điều tra gây lo ngại của nhà báo Yuval Abraham, về việc Lực lượng Phòng vệ Israel sử dụng hệ thống trí tuệ nhân tạo để xác định các mục tiêu ở Gaza – điều mà một cựu quan chức tình báo mô tả là “nhà máy ám sát hàng loạt.”
Vào một thời điểm đang có hàng loạt những viễn cảnh về ngày tận thế do AI gây ra – những viễn cảnh đôi khi là về các hệ thống vũ khí tự động bất ngờ nổi loạn – chúng ta có lẽ mong đợi một phản ứng dữ dội và đáng báo động. Nhưng thay vào đó, báo cáo về một cuộc chiến đang được tiến hành một phần bởi AI lại chỉ tạo nên một gợn sóng nhỏ trong các cuộc tranh luận về cách thức tiến hành chiến tranh của Israel ở Gaza.
Một phần nguyên nhân – nhưng là phần đáng lo ngại – là các chuyên gia chấp nhận rằng nhiều dạng AI đã được sử dụng rộng rãi trong các quân đội hàng đầu thế giới, kể cả ở Mỹ, nơi Lầu Năm Góc đã phát triển AI cho mục đích quân sự chí ít cũng từ thời chính quyền Obama. Theo tờ Foreign Affairs, có ít nhất 30 quốc gia hiện đang vận hành các hệ thống phòng thủ có chế độ tự động. Nhiều người trong chúng ta vẫn coi chiến tranh trí tuệ nhân tạo là một tương lai khoa học viễn tưởng, nhưng thật ra AI đã được tích hợp vào các hoạt động quân sự toàn cầu hệt như cách nó đã được đưa vào cuộc sống hàng ngày của chúng ta.Bài đang hotHong Kong áp dụng triết lý ‘an ninh toàn diện’ của Tập
Không chỉ AI mất kiểm soát mới là mối đe dọa. Ngay cả các hệ thống được kiểm soát cũng có thể gây hại. Washington Post gọi cuộc chiến ở Ukraine là một “siêu phòng thí nghiệm phát minh,” đánh dấu một “cuộc cách mạng trong chiến tranh bằng máy bay không người lái sử dụng AI.” Lầu Năm Góc đang phát triển phương án đối phó với các nhóm máy bay không người lái do AI điều khiển, một mối đe dọa ngày càng trở nên cận kề khi họ chống lại các cuộc tấn công bằng máy bay không người lái của lực lượng Houthi ở Biển Đỏ. Theo hãng tin Associated Press (AP), một số nhà phân tích cho rằng chỉ còn là vấn đề thời gian trước khi “máy bay không người lái được sử dụng để xác định, lựa chọn, và tấn công mục tiêu mà không cần sự trợ giúp của con người.” Những nhóm máy bay không người lái kiểu này, được điều khiển bởi các hệ thống hoạt động nhanh đến mức con người không thể giám sát, “sắp thay đổi cán cân sức mạnh quân sự,” Elliot Ackerman và Đô đốc James Stavridis, cựu chỉ huy đồng minh NATO, dự đoán trên tờ Wall Street Journal vào tháng trước. Nhưng những người khác cho rằng tương lai đó đã đến rồi.
Tương tự như cuộc xâm lược Ukraine, chiến dịch tấn công dữ dội ở Gaza đôi khi trông giống như một bước thụt lùi. Ở một khía cạnh nào đó, nó gần với một cuộc chiến tổng lực ở thế kỷ 20 hơn là với các cuộc phản công và các chiến dịch thông minh mà người Mỹ ngày nay đã quen thuộc. Tính đến tháng 12, gần 70% nhà cửa và hơn một nửa tòa nhà ở Gaza đã bị hư hại hoặc phá hủy. Theo Liên Hợp Quốc, hiện có chưa đến 1/3 số bệnh viện ở Gaza vẫn còn hoạt động và 1,1 triệu người dân Gaza đang phải đối mặt với tình trạng mất an ninh lương thực “thảm khốc.” Dù nó trông giống như một cuộc xung đột kiểu cũ, nhưng cuộc tấn công của Lực lượng Phòng vệ Israel cũng là một dấu hiệu đáng lo ngại về tương lai quân sự – cả trong khâu triển khai lẫn giám sát bởi các công nghệ chỉ mới nổi lên kể từ khi cuộc chiến chống khủng bố bắt đầu.
Tuần trước, +972 và Local Call đã công bố cuộc điều tra tiếp theo của Abraham – một báo cáo rất đáng đọc đầy đủ. (Tờ Guardian cũng xuất bản một trích đoạn từ báo cáo này, với tiêu đề “Máy móc đã làm mọi thứ một cách lạnh lùng.” Báo cáo đã thu hút sự chú ý của John Kirby, phát ngôn viên an ninh quốc gia Mỹ, và được thảo luận bởi Aida Touma-Sliman, một thành viên người Ả Rập gốc Israel của Knesset, và bởi Tổng thư ký Liên Hợp Quốc, António Guterres, người nói rằng ông “vô cùng lo lắng” về điều đó.) Báo cáo tháng 11 mô tả một hệ thống có tên Habsora (Phúc Âm), mà theo các cựu sĩ quan và sĩ quan đương nhiệm của tình báo Israel được Abraham phỏng vấn, hệ thống này xác định “các tòa nhà và công trình mà quân đội tuyên bố là căn cứ hoạt động của các chiến binh địch.” Báo cáo điều tra mới, đang bị Lực lượng Phòng vệ Israel phản đối, ghi nhận một hệ thống khác, được gọi là Lavender, được sử dụng để lập “danh sách tiêu diệt” những người bị nghi ngờ là kẻ địch. Abraham viết, hệ thống Lavender “đã đóng vai trò trung tâm trong các vụ đánh bom chưa từng có tiền lệ nhắm vào người Palestine, đặc biệt là trong giai đoạn đầu của cuộc chiến.”
Về mặt chức năng, Abraham gợi ý, sự huỷ diệt ở Gaza – với cái chết của hơn 30.000 người Palestine, phần lớn trong số họ là dân thường, trong đó có hơn 13.000 trẻ em – là một cách để hình dung về chiến tranh do AI tiến hành. “Theo các nguồn tin,” ông viết, “ảnh hưởng của AI trong hoạt động của quân đội đã lên đến mức mà, về cơ bản, người ta xem kết quả đầu ra của AI ‘như thể đó là quyết định của con người,’” bất chấp việc thuật toán đang áp dụng có tỷ lệ lỗi được thừa nhận là 10%. Một nguồn tin nói với Abraham rằng các sĩ quan con người thường xem xét đề xuất [của AI] trong 20 giây – “chỉ để đảm bảo rằng mục tiêu mà Lavender xác định là nam giới” trước khi duyệt đề xuất đó.
Những câu hỏi trừu tượng hơn được đặt ra bởi viễn cảnh chiến tranh AI đang gây quan ngại không chỉ về các lỗi máy móc, mà còn về trách nhiệm cuối cùng: Ai sẽ chịu trách nhiệm trong một cuộc tấn công hoặc một chiến dịch được thực hiện với rất ít hoặc không có sự tham gia hoặc giám sát của con người? Cơn ác mộng về AI quân sự là khi nó được trao toàn quyền kiểm soát việc ra quyết định, nhưng một ác mộng khác là khi AI giúp quân đội hoạt động hiệu quả hơn đối với các quyết định đã được đưa ra. Như Abraham mô tả, Lavender không tàn phá Gaza bằng những phát đạn lạc mục tiêu. Thay vào đó, nó được sử dụng để cân nhắc giữa giá trị quân sự tiềm năng với thiệt hại dân sự đi kèm theo những cách rất cụ thể – không giống như một hộp đen về phán đoán quân sự, hay một lỗ đen về trách nhiệm đạo đức, mà giống như một bản thiết kế được công khai về mục tiêu chiến tranh của Lực lượng Phòng vệ Israel.
Tại một thời điểm trong tháng 10, Abraham báo cáo, Lực lượng Phòng vệ Israel đã nhắm mục tiêu vào các chiến binh cấp dưới được Lavender xác định nếu thiệt hại dân sự giới hạn ở mức 15 hoặc 20 thường dân thiệt mạng – đây là một con số lớn đến kinh ngạc, bởi không có thiệt hại dân sự nào được coi là có thể chấp nhận được đối với chiến binh cấp thấp. Theo báo cáo của Abraham, các chỉ huy cấp cao hơn sẽ trở thành mục tiêu ngay cả khi điều đó đồng nghĩa với việc sát hại hơn 100 thường dân. Chương trình thứ hai, có tên “Bố cháu ở đâu?,” được sử dụng để theo dõi các chiến binh trên đường về nhà trước khi tấn công họ ở đó, Abraham viết, bởi vì nhắm mục tiêu vào nhà ở và gia đình của binh sĩ thì “dễ hơn” là theo dõi họ đến các tiền đồn quân sự. Và để tránh lãng phí bom dẫn đường (smart bomb) khi tấn công những nơi bị nghi là nhà ở của chiến binh cấp dưới, Lực lượng Phòng vệ Israel đã chọn sử dụng bom không dẫn đường (dumb bomb) kém chính xác hơn nhiều.
Đây không hẳn là loại phép thuật AI đen tối chỉ có trong khoa học viễn tưởng. Nhưng nó giống với Phù thủy xứ Oz hơn: Điều tưởng chừng là hiện tượng khác thường hóa ra lại là một người đàn ông đứng sau tấm màn, đang nghịch công tắc. Trên thực tế, khi phản hồi báo cáo mới, Lực lượng Phòng vệ Israel cho biết họ “không sử dụng hệ thống trí tuệ nhân tạo để xác định các chiến binh khủng bố,” và rằng “hệ thống thông tin chỉ là công cụ dành cho các nhà phân tích trong quá trình xác định mục tiêu.” Lực lượng Phòng vệ Israel trước đây đã khoe khoang về việc sử dụng AI để nhắm mục tiêu vào Hamas, và theo Haaretz, họ đã thiết lập các “vùng chết” rộng lớn ở Gaza, nơi mà bất kỳ ai đặt chân tới đều bị xem là khủng bố và sẽ bị bắn hạ. (Lực lượng Phòng vệ Israel phủ nhận việc thiết lập các vùng chết này.) Trên CNN, nhà phân tích Barak Ravid nói với Anderson Cooper về cuộc trò chuyện giữa ông với một sĩ quan dự bị Israel, người đã nói với ông rằng “về cơ bản, các mệnh lệnh – vốn đến từ các chỉ huy trên chiến trường – là bắn mọi người trong độ tuổi chiến đấu,” một mô tả phù hợp với nhận xét tuần trước của cựu giám đốc CIA và cựu Bộ trưởng Quốc phòng Leon Panetta, người đã nói, “Theo kinh nghiệm của tôi, người Israel thường nổ súng rồi sau đó đặt câu hỏi.”
Mọi chuyện sẽ đi đến đâu? Câu hỏi này không chỉ áp dụng cho cách hành xử của Israel ở Gaza, hay sự phổ biến của máy bay không người lái ở Ukraine, nơi mà các trận không chiến không có phi công đã định hình diễn biến chiến sự, nơi Nga đã triển khai rộng rãi các công cụ tác chiến điện tử để gây nhiễu cho máy bay không người lái của Ukraine, và theo một phân tích trong War on the Rocks, còn là nơi Nga đang “cố gắng đạt được những bước tiến để tự động hóa toàn bộ chuỗi tiêu diệt.”
Trong một bài tiểu luận xuất bản hồi tháng 2, “Thời đại Nguy hiểm Sắp tới của Chiến tranh AI,” Paul Scharre của Trung tâm An ninh Mỹ Mới đã phác họa một số viễn cảnh tiềm năng trong tương lai gần, từ các máy bay không người lái tự động chiến đấu với nhau độc lập như các bot giao dịch chứng khoán tần suất cao, cho đến khả năng AI có thể được trao quyền kiểm soát các kho vũ khí hạt nhân hiện có.
Ông cũng đưa ra một kế hoạch năm điểm chủ động và tương đối lạc quan: các chính phủ đồng ý về sự giám sát của con người đối với AI quân sự, cấm các vũ khí tự động nhắm vào con người, phát triển giao thức thực hành tốt nhất để ngăn ngừa tai nạn, giới hạn quyền kiểm soát vũ khí hạt nhân chỉ thuộc về con người, và áp dụng sổ tay hướng dẫn cơ bản cho việc điều khiển máy bay không người lái. Scharre viết: “Nếu không đặt ra giới hạn, nhân loại sẽ phải đối mặt với tương lai của chiến tranh nguy hiểm do máy móc điều khiển,” và cửa sổ cơ hội để hành động đang “đóng lại nhanh chóng.”
Tuy nhiên, không phải ai cũng đồng ý rằng chúng ta đang tiến gần đến một điểm tương đương với “điểm đồng nhất” về quân sự, mà khi vượt qua nó, chiến tranh sẽ trở nên không thể nhận ra. Thay vào đó, đây là một quá trình tiến hóa chậm, với nhiều thay đổi diễn ra đằng sau hậu trường. Học giả quân sự Anthony King viết trên trang War on the Rocks rằng “Các cuộc cách mạng quân sự thường ít triệt để hơn so với suy đoán ban đầu của những người ủng hộ chúng.” Dù ông tin rằng chúng ta vẫn chưa đến gần việc chấm dứt khả năng giám sát của con người và rằng “rất khó có khả năng” chúng ta sẽ sớm thấy mình trong một thế giới mà chiến tranh là thực sự tự động, ông cũng cho rằng “dữ liệu và AI là một chức năng tình báo quan trọng – thậm chí có thể là quan trọng nhất – cho chiến tranh đương đại.” Trên thực tế, “bất kỳ lực lượng quân sự nào muốn chiếm ưu thế trên chiến trường trong tương lai đều sẽ cần khai thác tiềm năng của dữ liệu lớn – lực lượng đó sẽ phải làm chủ lượng thông tin số hóa đang tràn ngập chiến trường,” ông viết. “Con người đơn giản là không có khả năng làm điều này.” Nhưng có lẽ AI sẽ làm được.