Một nghiên cứu đăng hôm 22/6 trên tạp chí khoa học của MIT cho thấy, trong những nhân viên hợp đồng mà các hãng lớn đang bỏ các khoản tiền khổng lồ thuê nhằm giúp họ có số liệu đầu vào để đào tạo AI, có một tỷ lệ không nhỏ đang không làm việc theo kỳ vọng của ông chủ, mà là đang dùng AI để làm thay cho công việc của mình. Đó là vấn đề. Vì chúng ta vẫn hiểu AI hữu dụng cho người là vì chúng học từ người. Nhưng nếu AI học từ AI thì sao? Vòng lặp đệ quy này rồi sẽ đi đến đâu?
Vấn đề nhân viên dùng AI để trợ giúp công việc đã là điều mọi người đều hiểu. Để có được một bức tranh cụ thể, một nhóm nhà nghiên cứu của EPFL (Đại học Kỹ thuật Thụy sỹ) đã thử tới thị trường người lao động hợp đồng trên nền tảng Amazon Mechanical Turk —nơi mà các hãng lớn vẫn thuê người để đào tạo AI cho mình— và thuê 44 nhân viên. Sau đó yêu cầu làm việc cho một dự án đào tạo AI của nhóm.
Nghĩa là, đây là 1 thí nghiệm đúng như thực tế. Nhóm nghiên cứu dùng chương trình giám sát bàn phím của người lao động từ xa để kiểm tra xem họ đang thật sự làm việc hay là nhờ AI làm thay.
Kết quả là 33%–46% những gì mà AI của nhóm học từ những người lao động này thực ra là do AI khác —kiểu như ChatGPT— làm ra. Báo cáo này được đưa tin trên tạp chí của MIT (Đại học Kỹ thuật Massachusetts, một trong những cái nôi của giới khoa học kỹ thuật Mỹ). Nhóm nghiên cứu cho rằng con số này sẽ dần dần tăng theo thời gian khi mà năng lực của các AI trên thị trường ngày càng trở nên mạnh hơn.
Tạp chí Khoa học MIT từ năm 2019 đã đăng 1 báo cáo về các nhóm làm AI đang sử dụng thị trường người lao động hợp đồng qua mạng cho mục đích đào tạo AI của mình. Nhưng thời bấy giờ hiển nhiên người lao động sẽ thực sự làm việc, chứ không nhờ AI khác làm dùm. Nhưng năm nay, 2023, các AI (như ChatGPT) đã rất mạnh so với ngày xưa, và thế là như chúng ta thấy, hiện tượng AI học từ AI đã đang diễn ra.
“Vấn đề là khi bạn đang sử dụng số liệu từ các AI, thì bạn đang kế thừa các lỗi của AI kia — lỗi do thông tin sai, do mô hình chưa hoàn thiện, do thống kê thiên vị v.v.” như Ilia Shumailov của Đại học Oxford phân tích. Nếu một AI mắc lỗi ở đâu đó, và khi nó học thông tin từ người, thì người ta sẽ chỉ ra chỗ sai và nó có khả năng khắc phục. Nhưng nếu AI học lẫn nhau, thì một lỗi nhỏ có thể sẽ dẫn theo chuỗi các sai lầm lớn, rất khó xử lý. “Bạn muốn đảm bảo lỗi ở một mô hình AI này sẽ không dẫn đến lỗi của một mô hình AI khác? Hiện nay không có cách nào đơn giản để làm điều đó.”
Theo Robert West, một người trong nhóm nghiên cứu của EPFL nêu trên, thì có lẽ tương lai “chúng sẽ không hoàn toàn sụp đổ,” tức là ông tin rằng các nhà khoa học làm AI nhất định sẽ tìm ra cách giải quyết vấn đề vòng lặp này. “Tôi nghĩ cộng đồng AI sẽ có các điều tra chặt chẽ để tìm ra các khâu [đào tạo AI] nào dễ bị tự động hóa nhất và tìm cách ngăn chặn điều này.”
Nhật Tân