Keegan Billings – Steve Ispas
Khi phạm vi phát triển của trí tuệ nhân tạo (AI) mở rộng và AI đang được đưa vào các vật dụng từ bàn chải đánh răng cho đến xe hơi, thì các quy định và sự giám sát lại không đồng bộ với tốc độ phát triển này.
Các công ty đang chuyển sang sử dụng AI để tăng năng suất và hiệu suất, cho rằng AI có thể thực hiện các nhiệm vụ chính xác hơn, nhanh hơn, và tiết kiệm chi phí hơn so với con người. Điều này đã dẫn đến nhiều vụ sa thải ở Thung lũng Silicon, nhưng mất việc không phải là điều mà chuyên gia AI hàng đầu này đã trò chuyện cùng chúng tôi (The Epoch Times) lo ngại nhất.
“Điều lo ngại ở đây là… AI sẽ tạo ra AI của riêng chúng. Con người không tham gia vào chu kỳ đó. Đó là điều đáng sợ; đó là bước khởi đầu của siêu AI,” ông Ahmed Banafa, giáo sư kỹ thuật tại Đại học Tiểu bang San Jose, cho biết trong một tập gần đây trong chương trình “Bay Area Innovators” (Những người đổi mới Vùng Vịnh) của EpochTV.
Ông Banafa là một chuyên gia về AI và an ninh mạng. Ông được LinkedIn xếp hạng là người có tiếng nói số một trong lĩnh vực AI vào năm 2024. Ông cho biết, cuộc cách mạng AI đang diễn ra quá nhanh so với các công nghệ khác — cứ mỗi sáu tháng, tốc độ phát triển lại nhanh gấp đôi và xuất hiện thêm sáu công ty [trong lĩnh vực này].
Ông Banafa cho biết, chúng ta đang ở giai đoạn của AI tạo sinh, trong đó ứng dụng AI được đào tạo bằng cách nạp dữ liệu, và AI có thể đưa ra ý kiến riêng bằng cách sử dụng các thuật toán được lập trình sẵn. Một ví dụ về AI tạo sinh là ChatGPT của OpenAI.
Ông cho biết ChatGPT 3.5 đã được đào tạo dựa trên 500 tỷ mẩu dữ liệu, ChatGPT 4.0 được đào tạo trên 1,000 tỷ mẩu dữ liệu, và Gemini (AI mới của Google) thì dựa trên 5.5 ngàn tỷ mẩu dữ liệu để liên tục đào tạo và giáo dục thuật toán để AI có thể tự đưa ra ý kiến.
Ông Banafa cho biết, giai đoạn tiếp theo sau AI tạo sinh sẽ là siêu AI, khi đó AI sẽ có năng lực tự nhận thức và bắt đầu tự suy nghĩ. Ông tin rằng vẫn còn vài năm nữa mới đến giai đoạn này.
“Đó là thời điểm mà chúng ta sẽ bước vào kỷ nguyên siêu AI, khi máy móc bắt đầu… có một số cảm xúc,” ông nói. “Chúng tôi lo lắng về điều này. … hãy nhớ rằng AI có cách suy nghĩ và kết nối rất mạnh mẽ; chúng có thể truy cập vào web.”
Ông đã nhắc đến một thử nghiệm của Google, mà trong đó họ dạy AI của mình năm ngôn ngữ, nhưng sau đó họ phát hiện ra rằng AI thực sự đã học ngôn ngữ thứ sáu, nhưng điều này không nằm trong kế hoạch. Họ nhận thấy AI cho rằng ngôn ngữ học thêm đó rất hấp dẫn và nó đã tự học.
Ông nói: “Đây là sự nguy hiểm mà chúng tôi nhìn thấy… những điểm báo động này có thể gây ra hậu quả nghiêm trọng mà chúng tôi nhận thấy về siêu AI, khi chúng bắt đầu đưa ra quyết định mà không báo lại với chúng ta.”
Ông cho biết Bộ Quốc Phòng đã tiến hành rất nhiều nghiên cứu và ứng dụng về AI, đồng thời đang thử nghiệm lập trình AI với một số dữ liệu nhất định để AI có thể tự mình tìm ra kẻ thù.
Ông kể lại một giả thuyết do Không Lực Hoa Kỳ đưa ra (vốn đã lan truyền trên mạng như một câu chuyện có thật), trong đó một thiết bị bay điều khiển bằng vô tuyến (drone) tích hợp AI được giao nhiệm vụ tiêu diệt mục tiêu, nhưng lại liên tục bị người điều khiển (là người thật) gọi về. Cuối cùng, drone này đã đâm vào tháp liên lạc vì con người đã cản trở nó hoàn thành nhiệm vụ.
Ông bày tỏ: “Chúng tôi không muốn AI đạt đến mức bắt đầu tự suy nghĩ; nhưng đó là lĩnh vực của siêu AI, khi đó AI coi con người như một chướng ngại vật đối với chúng.”
Ông cho biết các bộ phim đã mang lại cho chúng ta một số bài học; đặc biệt là phải luôn cài chương trình tắt khẩn cấp (kill switch) vào AI trong trường hợp nó vượt quá tầm kiểm soát.
Ông cho biết một trong những vấn đề hiện nay của AI là sự thiên vị. Ví dụ: khi Ai được hỏi một câu nào đó, nó có thể đưa ra câu trả lời có lợi cho một chủng tộc, một tôn giáo, hoặc quan điểm chính trị nhất định, bởi vì câu trả lời đó dựa trên các thuật toán hoặc chương trình vốn được lập trình trong AI, vốn mang tính chủ quan.
Ông cho biết, một vấn đề khác là khi AI không thể cho chúng ta câu trả lời hoặc không biết câu trả lời, nó sẽ bắt đầu bịa ra một câu trả lời chỉ để bảo đảm rằng người đặt câu hỏi cảm thấy vui vẻ.
Những tiến bộ trong công nghệ này cũng đã tạo cơ hội cho những kẻ xấu tạo ra các sản phẩm “deepfake.” Một sản phẩm deepfake là một video do AI tạo ra, trong đó mô phỏng người thật và có thể giao tiếp giống như người thật.
Ông kể về một trường hợp ở Hồng Kông, trong đó, một nhân viên ngân hàng đã tưởng rằng mình đang tham gia một cuộc họp qua video với các đồng nghiệp trong công ty; hóa ra cuộc gọi này lại sử dụng công nghệ deepfake, và những kẻ xấu đã thuyết phục anh ấy chuyển cho chúng số tiền tương đương 25 triệu USD.
Toà Bạch Ốc
Ông Banafa cho biết ông đã gửi nhiều lá thư tới Tòa Bạch Ốc để bày tỏ sự lo ngại về AI.
Ông Banafa nói: “Một thông điệp rõ ràng mà tôi được phúc đáp cho tất cả những bức thư mà tôi gửi tới Toà Bạch Ốc là Hoa Kỳ sẽ không bao giờ chặn bánh xe công nghệ đang tiến lên này.” Ad
Ông cho biết Hoa Kỳ muốn trở thành quốc gia số một trong thế giới AI, và đi trước rất nhiều nước nên họ muốn duy trì vị trí dẫn đầu. Tuy nhiên, ông cho rằng điều này phải được đo lường dựa trên tác động của AI đối với con người, xã hội, và công ăn việc làm.
Trong lần liên lạc cuối cùng với Toà Bạch Ốc, ông đã nhận được một liên kết tới Bản kế hoạch cho Tuyên ngôn về Quyền của AI, do Văn phòng Chính sách Khoa học và Công nghệ của Toà Bạch Ốc xuất bản. Bản kế hoạch này nhằm trợ giúp cho việc phát triển các chính sách và thực thi bảo vệ dân quyền cũng như thúc đẩy các giá trị dân chủ trong việc xây dựng, khai triển, và quản trị các hệ thống tự động.
Về quy định, ông cho biết các thành viên Quốc Hội không cần phải hiểu AI hoặc hiểu sâu về thuật toán; mà đúng hơn, họ phải hiểu về những tác động của AI đối với xã hội, doanh nghiệp, và công nghệ.
Vào tháng Tư, chính phủ liên bang đã công bố thành lập Hội đồng An toàn và An ninh Trí tuệ Nhân tạo gồm 22 thành viên và do Bộ trưởng An ninh Nội địa đứng đầu. Hội đồng này bao gồm các nhà lãnh đạo từ chính phủ, khu vực tư nhân, học viện, và các tổ chức dân quyền. Ad
Ông Banafa cho rằng ba nhóm người có liên quan này rất quan trọng.
Ông chia sẻ: “Đó cũng sẽ là lời mà người dân muốn nói, ‘Chúng tôi lo ngại về sự riêng tư; chúng tôi lo ngại về an ninh; chúng tôi lo ngại về sự an toàn của mình.’”
Hội đồng này gồm có một số thành viên là Tổng giám đốc của các công ty như OpenAI, NVIDIA, AMD, Alphabet, Microsoft, Cisco, Amazon Web Services, Adobe, IBM, và Delta Air Lines. Các thành viên ban đầu còn có Thống đốc tiểu bang Maryland Wes Moore, Chủ tịch Hội nghị Lãnh đạo về Dân quyền và Nhân quyền, và đồng giám đốc Viện Trí tuệ nhân tạo Lấy Con Người Làm Trung tâm của Stanford.
Ông cho biết công việc của họ sẽ là đưa ra ý kiến chuyên môn và lời khuyên về quy định và kiện tụng cho Toà Bạch Ốc.
Tuệ Minh biên dịch