Hannah Ng • Tiffany Meier
Theo ông Rex Lee, cố vấn an ninh mạng tại công ty My Smart Privacy tại Mỹ, các chatbot AI, chẳng hạn như ChatGPT, có thể trở thành mối đe dọa khôn lường nếu bị kiểm soát bởi các thế lực độc tài như Trung Quốc hoặc Nga.
Ông Lee đang ám chỉ đến nhận xét gần đây của người được mệnh danh là “Cha đỡ đầu của AI”, nhà khoa học máy tính người Anh Geoffrey Hinton. Ông Hinton vừa rời khỏi vị trí phó chủ tịch và chuyên gia kỹ thuật tại Google.
Trong buổi phỏng vấn với tờ The New York Times, ông Hinton đã gióng lên hồi chuông cảnh báo về việc trí tuệ nhân tạo (AI) có khả năng làm giả tranh ảnh và văn bản tinh vi đến mức “thật giả lẫn lộn khó mà phân biệt”.
Ông Lee nhấn mạnh rằng: “Chúng ta hoàn toàn có lý do chính đáng để lo ngại rằng ChatGPT, hay công nghệ AI nói chung, sẽ có thể vô tình hoặc cố ý được sử dụng để truyền bá thông tin sai lệch trên Internet”.
“Giờ hãy tưởng tượng có một chính phủ nào đó kiểm soát công nghệ AI, những chính phủ độc tài như Trung Quốc hoặc Nga chẳng hạn. Nên nhớ là AI vẫn được huấn luyện bởi con người. Và có những người với những động cơ khác nhau đang sử dụng Google và Microsoft để huấn luyện AI nhằm trục lợi. Cộng thêm tham vọng của một chính phủ nào đó, AI sẽ trở thành một mối họa lớn”, ông Lee bày tỏ với chương trình “China in Focus” của đài NTD.
Ông Lee lo ngại rằng sức mạnh của AI sẽ tạo điều kiện cho chính quyền Trung Quốc “bành trướng” những hành vi vi phạm nhân quyền của mình.
“Nếu một chính quyền nào đó có được công nghệ này trong tay, chẳng hạn như Đảng Cộng sản Trung Quốc (ĐCSTQ), hãy tưởng tượng họ sẽ có thể lập trình nó để đàn áp nhân quyền, kiểm duyệt thông tin, xác định những người bất đồng ý kiến với họ qua mạng Internet và bắt giữ những người này… Đây sẽ là một vấn đề lớn”, ông Lee nói.
Theo ông Lee, công nghệ AI cũng có thể cho phép ĐCSTQ đẩy mạnh các chiến dịch truyền bá thông tin sai lên trên mạng xã hội ở Mỹ với tốc độ chóng mặt.
“Tưởng tượng xem giờ ở Mỹ đang có 100 triệu người dùng TikTok, và những người này đã và đang bị Trung Quốc sử dụng TikTok để thao túng tâm lý. Mức độ lan tỏa của ứng dụng này đã khó có thể kiểm soát được, lại thêm vào sức mạnh của AI nữa, thì có lẽ Trung Quốc sẽ có khả năng thao túng con người với tốc độ ánh sáng. Trung Quốc đã có thể kiểm soát hàng triệu, thậm chí là hàng tỷ người, và việc họ cần làm chỉ là lợi dụng quyền lực đó để truyền bá thông tin sai lệch”.
“Mới đáng sợ làm sao, khi thứ công nghệ nguy hiểm như vậy có thể sẽ bị lợi dụng cho những mục đích chính trị, hoặc bị sử dụng bởi những kẻ xấu, ví dụ như là các băng đảng ma túy hay tội phạm”, ông Lee nói thêm.
AI có thể khiến nhiều người thất nghiệp
Theo ông Lee, ông Hinton cũng bày tỏ mối quan ngại về việc nhóm “Big Tech” đang lấy AI làm trọng tâm để phát triển.
“BigTech” là thuật ngữ chỉ những công ty có quy mô lớn nhất và thống trị ngành công nghệ thông tin tại Hoa Kỳ, bao gồm Amazon, Apple, Google, Facebook và Microsoft.
“Ông Hinton lo ngại rằng, do Microsoft đã tung ra AI “ChatGPT” trước khi Google kịp tung ra AI “Bark”, cho nên Google sẽ gấp rút phát triển và đưa Bark thâm nhập vào thị trường để cạnh tranh với Microsoft”, ông Lee nói.
“Một mối lo ngại nghiêm trọng khác là việc AI quá phát triển có thể khiến cho nhiều người thất nghiệp”, ông Lee nói, đồng thời cho biết thêm rằng AI sẽ có khả năng thay thế con người trong một số lĩnh vực, những lĩnh vực “mà các công cụ chatbot có thể tự thực hiện độc lập, ví dụ như ngành dịch vụ khách hàng hoặc ngành lập trình”.
Tối thiểu hóa mối nguy từ AI
Ông Lee định nghĩa ChatGPT là một “biến số”, và “biến số” này có thể thay đổi theo chiều hướng tốt hoặc xấu, “tuỳ thuộc vào sự lập trình và huấn luyện của con người”.
Do đó, ông khẳng định rằng yếu tố con người là vô cùng quan trọng.
“Cơ bản thì AI giống như một em bé sơ sinh vậy, và chúng ta có thể lập trình nó để phục vụ cho những mục đích tốt đẹp. Tương tự như trẻ em, nếu các bậc phụ huynh yêu thương, nuôi dạy, và tôn trọng các em một cách đúng mực, thì các em cũng sẽ học được cách yêu thương, quan tâm, và tôn trọng người khác. Nhưng nếu các em được nuôi dạy theo kiểu ‘hoang dã’, không được ba mẹ uốn nắn; cũng giống như để AI tự học những thứ loạn bát nháo trên mạng, thì chẳng ai có thể tưởng tượng nổi AI sẽ làm ra những thứ gì”, ông Lee nói.
Vì vậy để giảm thiểu mối đe dọa đã được nêu ra ở trên, ông Lee gợi ý rằng những chuyên gia giám sát có mức độ hiểu biết sâu rộng về công nghệ AI có thể làm việc với các công ty, để hiểu thêm về các phương thức và thuật toán được người ta sử dụng để lập trình AI.
“Và những công ty này phải đảm bảo rằng họ sẽ có thể “uốn nắn” AI, để nó không trở thành mối nguy hiểm, không chỉ khách hàng của họ, mà còn cho chính họ”.
Ngọc Hạ biên dịch