Trí tuệ nhân tạo (AI) đang phát triển và được ứng dụng ngày càng rộng rãi, nhiều người cũng ngày càng lo lắng rằng AI sẽ cướp đi công việc của họ, AI thậm chí có thể điều khiển vũ khí hủy diệt hàng loạt, gây ra những tổn thất không thể khắc phục cho nhân loại. Các quan chức Áo thậm chí còn tuyên bố nhân loại đang ở ‘thời đại Oppenheimer’ của AI.
Ông Paul Dean, phó trợ lý chính thư ký của Cục Kiểm soát vũ khí, Răn đe và Ổn định Hoa Kỳ, đã tuyên bố trong một cuộc họp ngắn trực tuyến vào đầu tháng 5 rằng Hoa Kỳ, Anh và Pháp đều nhấn mạnh: “Việc quyết định sử dụng vũ khí hạt nhân là một quyết định mang tính sống còn, và nó phải luôn nằm trong tay con người. Chúng tôi cam kết duy trì sự kiểm soát của con người đối với các hệ thống vũ khí hạt nhân của mình, tuyệt đối từ chối AI quyền kiểm soát hoặc xác định việc sử dụng vũ khí hạt nhân”.
Ông Dean còn nói: “Chúng tôi hoan nghênh Trung Quốc và Nga đưa ra những tuyên bố tương tự. Tôi cho rằng đây là một tiêu chuẩn hành vi có trách nhiệm cực kỳ quan trọng, và sẽ rất được hoan nghênh nếu tất cả 5 thành viên thường trực của Hội đồng Bảo an Liên hợp quốc đều cam kết thực hiện điều này”.
Kỹ sư máy tính người Nhật Kiyohara Jin nói với The Epoch Times vào ngày 7/5: “AI là một sản phẩm dựa trên phân tích dữ liệu và nó rất khác với phán đoán của con người. Con người có những ràng buộc về lý trí, cảm xúc và đạo đức. Nhưng AI không có những điều này, và dữ liệu có thể sai nếu được phép kiểm soát bom hạt nhân, điều đó sẽ đáng sợ như Trung Quốc, Iran và các quốc gia toàn trị khác làm chủ vũ khí sinh học và hóa học”.
Robert Oppenheimer là một nhà vật lý lý thuyết người Mỹ và là giám đốc phòng thí nghiệm Los Alamos của Dự án Manhattan trong Thế chiến thứ hai. Ông thường được gọi là “cha đẻ của bom nguyên tử”.
AI đã bước vào giai đoạn thực hành
Trên thực tế, AI đã được sử dụng rộng rãi trong quân đội, chẳng hạn như xe tăng có khả năng phát hiện tự động, máy bay không người lái tự động tìm kiếm và tấn công mục tiêu, robot được trang bị AI có thể di chuyển, phát hiện mục tiêu và tấn công bằng hỏa lực hoặc vũ khí một cách tự động. Nhiều loại vũ khí trang bị AI này đã được đưa vào sử dụng thực tế trên chiến trường, mang lại hiệu quả chiến đấu cao. Tuy nhiên, điều này cũng gây ra nhiều lo ngại về khả năng AI có thể được áp dụng cho các loại vũ khí có sức sát thương lớn hơn, dẫn đến những hậu quả khó lường.
Căn cứ không quân Edwards ở California, Mỹ, thử nghiệm máy bay chiến đấu F-16 màu trắng cam vào trưa ngày 5/5, có tên là X-62A và VISTA (Máy bay thử nghiệm mô phỏng chuyến bay biến thiên).
Bộ trưởng Không quân Hoa Kỳ Frank Kendall đã thực hiện chuyến đi đặc biệt tới đây để quan sát và trải nghiệm các máy bay chiến đấu F-16 do AI điều khiển. Máy bay chiến đấu được điều khiển bởi AI và ông Kendall ngồi bên trong. Nó tiến hành một cuộc diễn tập không chiến với một máy bay chiến đấu F-16 khác do người thật điều khiển trong hơn một giờ, liên tục nhào lộn, xoay tròn, cố gắng ép đối thủ vào tình thế không thể chống trả.
Sau cuộc tập trận, ông Kendall bày tỏ sự tin tưởng rằng AI vẫn đang trong quá trình học hỏi, và có khả năng quyết định có nên phóng vũ khí trong chiến đấu hay không.
Nhà điều hành quân sự của VISTA cũng cho biết, không có quốc gia nào trên thế giới có máy bay chiến đấu AI như vậy, đầu tiên AI học từ hàng triệu dữ liệu trong một thiết bị mô phỏng, sau đó kiểm tra những gì nó học được trên các chuyến bay thực tế.
Tuy nhiên, một số chuyên gia kiểm soát vũ khí phản đối việc AI kiểm soát vũ khí quá mức vì lo ngại một ngày nào đó AI có thể tự động thả bom hoặc các loại vũ khí mạnh hơn để giết người mà không có sự điều khiển của con người, vì vậy, họ tìm kiếm những hạn chế chặt chẽ hơn, hy vọng tăng cường khả năng kiểm soát AI.
Ủy ban Chữ Thập Đỏ Quốc tế đã lên tiếng cảnh báo về mối nguy hiểm tiềm ẩn của vũ khí tự động dựa trên trí tuệ nhân tạo (AI), đồng thời kêu gọi cộng đồng quốc tế cộng đồng quốc tế cần áp dụng các kế hoạch khẩn cấp để đối phó với tình trạng này
Nhà bình luận quân sự Hạ Lạc Sơn nói với The Epoch Times vào ngày 9/5: “Việc kiểm soát AI đối với vũ khí hạt nhân là một trong những vấn đề của AI quân sự. Mặc dù nó chưa xảy ra nhưng theo đà phát triển AI hiện nay, rất có thể nó sẽ xảy ra. Vì vậy, cộng đồng quốc tế hy vọng Mỹ và phương Tây có thể đạt được sự đồng thuận về vấn đề AI không kiểm soát vũ khí hạt nhân. Tác hại do việc ứng dụng AI trong quân sự có thể không thể khắc phục được”.
AI trở thành ‘Oppenheimer’ tiếp theo
Ngoài những cảnh báo từ Hội Chữ thập đỏ và một số chuyên gia, tại Hội nghị Hệ thống vũ khí tự động được tổ chức ở Vienna, Áo cuối tháng trước, thêm nhiều chuyên gia kêu gọi các nước cùng thảo luận về việc kiểm soát quân sự hóa AI. Các quan chức dân sự, quân sự và kỹ thuật từ hơn 100 quốc gia đã thảo luận về việc kiểm soát việc quân sự hóa AI của quốc gia họ. Ngoại trưởng Áo Alexander Schallenberg thẳng thắn phát biểu tại hội nghị: “AI là trở thành Oppenheimer của thế hệ chúng ta”.
Câu này ám chỉ việc nhà vật lý lý thuyết người Mỹ Oppenheimer tham gia và phát triển thành công bom nguyên tử mang lại chiến thắng cho Mỹ và quân Đồng minh nên ông được mệnh danh là “Cha đẻ của bom nguyên tử”. Tuy nhiên, Oppenheimer đã chứng kiến thảm họa do bom nguyên tử gây ra cho người Nhật và những vết sẹo không thể xóa nhòa mà nó để lại trên trái đất, điều này khiến ông phải suy nghĩ xem liệu quyết định giúp phát triển bom nguyên tử của mình có đúng đắn hay không.
Ông Schallenberg cho biết: “Nhân loại đang ở ngã ba đường của lịch sử và vũ khí tự động sẽ có mặt trên khắp các chiến trường trên thế giới. Hiện tại, máy bay không người lái và các thiết bị liên quan đến AI có mặt khắp nơi trên chiến trường, đồng thời chúng ta cũng đang phải đối mặt với những thách thức về pháp lý, đạo đức và vấn đề an toàn”.
Ông Schallenberg cho rằng, thế giới cần khẩn cấp thiết lập các quy tắc và chuẩn mực quốc tế đã được thống nhất trong lĩnh vực AI để ngăn chặn AI vượt khỏi tầm kiểm soát dẫn đến sự tuyệt chủng của loài người và cái chết hàng loạt. Mọi người cần đảm bảo (vũ khí) được điều khiển bởi con người chứ không phải AI.
Kỹ sư máy tính người Nhật Kiyohara Jin đồng ý với lời của ông Schallenberg. Ông Jin nói: “Tuy nhiên, việc tuân thủ đạo đức là cách duy nhất để đảm bảo rằng con người sẽ không dẫn đến sự tự hủy diệt. Nếu đạo đức không theo kịp sự phát triển của vũ khí hay công nghệ, con người sẽ dễ bị lạc lối và bỏ qua nhận thức về an toàn”.
Theo The Epoch Times
Lý Ngọc biên dịch