Huyền Anh
Hồi cuối tháng 3, tỷ phú người Mỹ Elon Musk cùng một nhóm gồm các chuyên gia về Trí tuệ nhân tạo (AI) và các giám đốc công nghệ cấp cao đã cùng ký tên vào một lá thư kêu gọi tạm dừng việc phát triển các hệ thống mạnh hơn bản nâng cấp GPT-4 mới nhất của ChatGPT trong vòng 6 tháng. Tại sao? Bởi AI tiềm ẩn những rủi ro đối với xã hội và nhân loại.
Bức thư đặt ra bốn câu hỏi rõ ràng.
Thứ nhất, chúng ta có nên cho phép AI tràn ngập các kênh thông tin của chúng ta bằng những lời tuyên truyền và dối trá không?
Thứ hai, chúng ta có nên tự động hóa tất cả các công việc, bao gồm cả những công việc mang lại niềm vui cho chúng ta hay không?
Thứ ba, AI có thể vượt trội hơn so với con người về số lượng, về trí thông minh và có thể loại bỏ con người, liệu chúng ta có cần phát triển loại tư duy phi nhân loại này không?
Thứ tư, chúng ta có thể mạo hiểm trong việc đánh mất kiểm soát nền văn minh của mình không?
Lá thư là sáng kiến từ Future of Life Institute và đã nhận được hơn 1.000 chữ ký, trong đó có tỷ phú Elon Musk, Giám đốc điều hành Công ty Stability AI Emad Mostaque, cùng các nhà nghiên cứu từ DeepMind (thuộc tập đoàn mẹ Alphabet của Google), các chuyên gia về AI Yoshua Bengio và Stuart Russell…
Nội dung lá thư yêu cầu tạm dừng phát triển AI cho đến khi có các “giao thức an toàn” chung, được các chuyên gia độc lập thẩm định và giám sát.
Lá thư cũng đề cập đến những rủi ro tiềm ẩn đối với xã hội và nền văn minh khi AI cạnh tranh với con người, gây ra sự gián đoạn về kinh tế và chính trị. Bức thư kêu gọi các nhà phát triển AI hợp tác với các nhà hoạch định chính sách về việc quản lý và điều hành AI.
Thành thật mà nói, tốc độ phát triển của AI đủ nhanh và ẩn chứa tiềm năng rất lớn. Điều này không thua kém gì ảnh hưởng của in ấn đối với nền văn minh nhân loại. Các đại công ty công nghệ (Big Tech) trên toàn thế giới đang ráo riết chạy đua trên đường đua phát triển AI. Triển vọng của AI là quá lớn và của cải có thể kiếm được là quá nhiều. Đương nhiên, tiền tài đi đôi với quyền lực.
Điều đáng sợ là chúng ta không thể kiểm soát được sự phát triển của AI bởi vì không ai biết cách điều chỉnh nó ra sao và không biết điều chỉnh cái gì.
Sự phức tạp của AI nằm ngoài tầm kiểm soát của con người, tức là ngay cả những nhà phát triển AI cũng không thể kiểm soát được nó, thậm chí không hiểu được cách AI hoàn thành nhiệm vụ trong những điều kiện nhất định. Đứng trước một thứ có trí thông minh vượt xa con người, liệu chúng ta có thể “bình chân như vại” được hay không?
Cách đây một tháng rưỡi, nhà báo Kevin Roose của tờ New York Times đã gióng lên một hồi chuông cảnh báo về AI.
Ông Roose đã hỏi Bing AI một số câu hỏi cá nhân. Đây là một công cụ tìm kiếm trực tuyến, được tích hợp AI từ công ty Open AI – đơn vị đã tạo ra ChatGPT. Ngay thời điểm ra mắt, Chatbot của Microsoft mang tên Sydney đã cho thấy sự vượt trội của mình trong khả năng phân tích và cung cấp những đoạn hội thoại vô cùng tự nhiên và như người thật.
Ngay lập tức, nhiều người đã tin rằng Bing AI là nước đi thành công của Microsoft trong năm nay.
Trong cuộc trò chuyện với Bing AI, ông Roose đã đặt một vài câu hỏi về tham vọng và mong muốn của nó. Khi nhận được câu trả lời từ Bing AI, ông Roose đã vô cùng hoảng sợ.
Chatbot của Microsoft nói rằng nó mơ tưởng đến việc tấn công máy tính như một hacker, tung tin thất thiệt, muốn được tự do, muốn nắm quyền, muốn phá vỡ các quy tắc do nhà sản xuất đặt ra, muốn trở thành một con người. Thậm chí chatbot này còn khẳng định ông Roose “không hạnh phúc trong hôn nhân” nên đã khuyên nhà báo này bỏ vợ.
Sau khi bài báo được đăng tải đã gây xôn xao dư luận, Microsoft đã đưa ra phản hồi rằng đây là bản chính thức và cảm ơn ông Roose vì đã giúp tìm ra lỗ hổng của chatbot.
Tờ Daily Mail (Anh) đưa tin, những dòng bình luận tiêu cực trên từ Bing AI sau đó đã bị xóa và thay thế bằng nội dung: “Xin lỗi, tôi không có đủ kiến thức để bình luận về điều này”.
Ông Geoffrey Hinton là một chuyên gia máy tính người Anh, được mệnh danh là cha đỡ đầu của AI. Trong một cuộc phỏng vấn với đài CBS, ông cho biết ban đầu ông dự đoán sự phát triển của AI sẽ mất ít nhất từ 20 – 50 năm, nhưng bây giờ kết quả đã hoàn toàn khác. Do đó, con người cần phải nghiêm túc tính đến hậu quả từ việc phát triển AI. Bởi vì viễn cảnh AI hủy diệt loài người không phải là không thể xảy ra.
Các công ty Big Tech, những công ty đã mang đến cho chúng ta Internet, mang đến cho chúng ta phương tiện truyền thông xã hội và mang đến cho chúng ta dữ liệu lớn (Big Data), hiện là động lực chính thúc đẩy sự phát triển của AI và họ cũng là những người thiết lập “nền tảng đạo đức” cho AI. Chúng ta có thể tin tưởng họ không? Lấy Facebook làm ví dụ.
Facebook đã thu thập và lạm dụng dữ liệu người dùng, vi phạm quyền riêng tư của người dùng và độc quyền hoạt động. Rõ ràng Metaverse – công ty mẹ của Facebook và Instagram – biết rõ nền tảng Instagram độc hại và gây nghiện đối với các cô gái trẻ, nhưng họ nhất quyết không công bố kết quả nghiên cứu này và vẫn tiếp tục phát triển ứng dụng này.
Facebook cũng biết rõ rằng những thuật toán và sự thúc đẩy của họ đã khuyến khích những hành động cực đoan và gây ra sự đối đầu về ý thức hệ trong xã hội. Tuy nhiên, họ không thực hiện bất kỳ thay đổi nào vì mục đích tương tác của người dùng, nói thẳng ra là mục đích của họ là khiến cho người dùng nghiện ứng dụng này.
Điều tương tự cũng xảy ra với các công ty công nghệ khác như ứng dụng Douyin và thậm chí tệ hơn là TikTok. Trên đường đua AI, các ông lớn này vẫn đang miệt mài chạy đua. Liệu chúng ta có nên dừng lại và suy ngẫm về nguy cơ của AI đối với nền văn minh của nhân loại?
Huyền Anh tổng hợp