Lao Động Vô Hình Và Áp Lực Tầng Giữa Cuộc Đua AI

Góc Khuất Của Cuộc Đua AI: Những Lao Động Vô Hình Và Áp Lực Ở Tầng Giữa
Khi chúng ta nói về trí tuệ nhân tạo, hình ảnh hiện lên trong tâm trí thường là những dòng code phức tạp, những trung tâm dữ liệu khổng lồ và những thuật toán thông minh vượt trội. Thế giới trầm trồ trước tốc độ phát triển chóng mặt của các mô hình ngôn ngữ lớn, từ Gemini của Google đến GPT của OpenAI. Truyền thông gọi đây là kỷ nguyên vàng, một cuộc cách mạng công nghệ hứa hẹn thay đổi mọi mặt của đời sống. Nhưng đằng sau ánh hào quang của những sản phẩm AI ngày càng tinh vi là một thực tế ít được biết đến hơn: sự tồn tại của một lực lượng lao động đông đảo, những con người thầm lặng đang ngày đêm tinh chỉnh, sửa lỗi và định hình cho AI. Họ là những nhân viên tầng giữa trong chuỗi cung ứng AI, và câu chuyện của họ là một bức tranh phức tạp về áp lực, sự bấp bênh và những kỳ vọng tan vỡ ngay giữa tâm điểm của cơn sốt công nghệ.
Lời Mời Tuyển Dụng Mơ Hồ Và Sự Thật Bất Ngờ
Mùa xuân năm 2024, Rachael Sawyer, một chuyên viên viết tài liệu kỹ thuật, nhận được một lời mời làm việc hấp dẫn trên LinkedIn. Vị trí có tên gọi khá mơ hồ: nhà phân tích văn bản. Với kinh nghiệm của mình, Sawyer hình dung công việc sẽ xoay quanh việc viết lách, biên tập hoặc phân tích các nội dung kỹ thuật. Cô không thể ngờ rằng, ngay trong ngày làm việc đầu tiên, một thực tế hoàn toàn khác đã mở ra. Công việc thực chất của cô là đánh giá, thẩm định và điều chỉnh những nội dung do chính trí tuệ nhân tạo tạo ra.
Sawyer không phải là trường hợp cá biệt. Cô là một trong hàng nghìn nhân viên được Google ký hợp đồng thông qua GlobalLogic, một công ty con thuộc tập đoàn Hitachi của Nhật Bản. Nhiệm vụ của họ là trở thành tuyến phòng thủ đầu tiên, là những người giám sát chất lượng đầu ra cho các sản phẩm AI hàng đầu của Google, bao gồm chatbot chủ lực Gemini và tính năng tóm tắt kết quả tìm kiếm AI Overviews. Google không chỉ hợp tác với GlobalLogic mà còn với nhiều công ty trung gian khác như Accenture để cung cấp một đội ngũ nhân lực hùng hậu cho việc đánh giá này.
Vai trò của họ là vô cùng quan trọng. Alex, một chuyên viên đã làm công việc đánh giá đầu ra AI từ năm 2023, giải thích rằng họ chính là mắt xích không thể thiếu trong quá trình phát triển. Các kỹ sư phần mềm, vốn bận rộn với việc xử lý hàng triệu dòng code và xây dựng kiến trúc mô hình, không có đủ thời gian để tinh chỉnh từng chi tiết nhỏ và thu thập phản hồi cần thiết cho chatbot. Đội ngũ đánh giá giống như những người cứu hộ trên bãi biển, luôn túc trực để đảm bảo không có điều gì nguy hiểm hoặc sai sót lọt qua, bảo vệ người dùng khỏi những thông tin độc hại hoặc không chính xác.
Cuộc Đua AI Và Nhu Cầu Về Những Người Thầy Thầm Lặng
Trong năm qua, Google đã tăng tốc trở lại cuộc đua AI một cách mạnh mẽ, tung ra hàng loạt sản phẩm để cạnh tranh trực tiếp với ChatGPT của OpenAI. Mô hình lý luận tiên tiến nhất của hãng là Gemini 2.5 Pro, thậm chí còn được đánh giá cao hơn GPT-4o của đối thủ trên một số bảng xếp hạng hiệu suất. Mỗi mô hình mới ra đời đều đi kèm với lời hứa về độ chính xác cao hơn, khả năng suy luận tốt hơn và sự an toàn vượt trội.
Lời hứa đó đặt một gánh nặng khổng lồ lên vai đội ngũ đánh giá AI. Với mỗi phiên bản cập nhật, họ phải làm việc ngày đêm để kiểm tra hàng nghìn, hàng vạn phản hồi của AI, đảm bảo chúng an toàn và phù hợp với người dùng. Họ dạy cho chatbot cách trả lời thích hợp về vô số lĩnh vực, từ y học, kiến trúc, vật lý thiên văn cho đến những tình huống đời thường. Họ cũng là người sửa lỗi sai, phát hiện những thành kiến tiềm ẩn và ngăn chặn những kết quả đầu ra có thể gây hại. Về bản chất, họ chính là những người thầy đầu tiên của AI, dùng trí tuệ và sự nhạy cảm của con người để uốn nắn một cỗ máy học hỏi.
Để đáp ứng nhu cầu này, các công ty trung gian như GlobalLogic đã tuyển dụng một lực lượng lao động có trình độ cao. Nguồn tin từ Guardian cho biết, ban đầu, nhiều người được tuyển vào vị trí này là giáo viên. Sau đó, đội ngũ được mở rộng với các nhà văn, thạc sĩ mỹ thuật, thậm chí cả tiến sĩ vật lý. Họ là những người có nền tảng kiến thức chuyên sâu và khả năng ngôn ngữ tốt, lý tưởng cho việc đào tạo một AI phức tạp.
Những nhân viên như Sawyer chính là tầng giữa của chuỗi cung ứng AI toàn cầu. Họ có mức lương cao hơn những người làm công việc dán nhãn dữ liệu cơ bản ở các quốc gia châu Phi hay Nam Mỹ, nhưng lại thấp hơn rất nhiều so với các kỹ sư phần mềm đang thiết kế mô hình tại trụ sở chính ở Mountain View, Mỹ. Một người đánh giá tổng quát có mức lương khởi điểm khoảng 16 USD một giờ, trong khi một chuyên gia có kiến thức chuyên ngành sâu hơn nhận được khoảng 21 USD một giờ. Con số này, dù không thấp so với mặt bằng chung, nhưng lại quá khiêm tốn so với giá trị mà họ tạo ra và so với lợi nhuận khổng lồ của ngành công nghiệp tỷ đô này.
Khi cuộc đua AI trở nên khốc liệt, quy mô đội ngũ cũng phình to. Từ con số ban đầu chỉ khoảng 25 chuyên viên cấp cao vào năm 2023, GlobalLogic đã mở rộng đội ngũ này lên gần 2.000 người, phần lớn làm việc tại Mỹ và chịu trách nhiệm kiểm duyệt nội dung bằng tiếng Anh.
Áp Lực Vô Hình Và Sự Bào Mòn Tinh Thần
Đằng sau những con số tăng trưởng ấn tượng là một thực tại đầy áp lực và ngày càng trở nên chán nản. Mười chuyên viên đánh giá AI đã chia sẻ với Guardian về cảm giác bị cô lập, phải đối mặt với những thời hạn ngày càng gấp rút và một cảm giác bất an rằng họ đang góp phần đưa ra một sản phẩm chưa thực sự an toàn cho cộng đồng.
Một chuyên viên cho biết, khi mới bắt đầu, cô có khoảng 30 phút để hoàn thành mỗi nhiệm vụ. Nhưng chỉ sau sáu tháng, thời gian đó đã bị cắt giảm một nửa, chỉ còn 15 phút. Trong khoảng thời gian ngắn ngủi đó, cô phải đọc, xác thực và đánh giá một phản hồi của AI dài khoảng 500 từ, đôi khi còn nhiều hơn. Áp lực về thời gian khiến cô liên tục nghi ngờ về chất lượng công việc của chính mình và độ tin cậy của mô hình AI mà cô đang đánh giá. Liệu cô có bỏ sót một chi tiết sai lệch nào không? Liệu đánh giá của cô có quá vội vàng?
Câu chuyện của Rachael Sawyer còn phơi bày một khía cạnh đáng lo ngại hơn. Ban đầu, công việc của cô khá nhẹ nhàng, chủ yếu là phân tích các bản tóm tắt ghi chú cuộc họp do Gemini tạo ra hoặc đánh giá các đoạn phim ngắn do AI sản xuất. Tuy nhiên, dần dần, cô bắt đầu được giao các nhiệm vụ kiểm duyệt nội dung cực đoan. Cô phải xử lý các văn bản mang tính bạo lực và tình dục do Gemini vô tình tạo ra.
Sawyer đã rất sốc khi công việc của mình đột ngột chuyển hướng sang xử lý những nội dung gây khó chịu như vậy. Cô khẳng định rằng trong suốt quá trình tuyển dụng, không ai cảnh báo cô về khía cạnh này của công việc. Áp lực phải hoàn thành hàng chục nhiệm vụ tương tự mỗi ngày, với mỗi nhiệm vụ chỉ gói gọn trong 10 phút, đã đẩy cô vào một vòng xoáy của sự lo lắng và hoảng loạn. Điều đáng nói là cô hoàn toàn không nhận được bất kỳ sự hỗ trợ nào về sức khỏe tinh thần từ công ty.
Tương Lai Bấp Bênh Giữa Làn Sóng Bùng Nổ
Sự trớ trêu lớn nhất nằm ở chỗ, dù ngành công nghiệp AI đang bùng nổ với tốc độ chưa từng thấy, công việc của những chuyên viên đánh giá như Sawyer và Alex lại thiếu ổn định một cách đáng ngạc nhiên. Alex, dù đã làm việc từ năm 2023 và tham gia vào nhiều dự án đòi hỏi nỗ lực cao hơn, vẫn chưa được tăng lương một cách đáng kể. Cô may mắn hơn nhiều đồng nghiệp khi có được một vị trí toàn thời gian tại GlobalLogic, nhưng khoảng 80% nhân viên trong dự án của cô vẫn đang làm việc theo hợp đồng thời vụ, không có bất kỳ phúc lợi nào như bảo hiểm y tế hay ngày nghỉ được trả lương.
Sự bấp bênh này được thể hiện rõ nét qua các đợt sa thải. Từ đầu năm 2025, GlobalLogic đã tiến hành nhiều đợt cắt giảm nhân sự, khiến tổng số chuyên viên tổng quát và cấp cao giảm xuống chỉ còn khoảng 1.500 người. Andrew Lauzon là một nạn nhân của làn sóng này. Anh gia nhập GlobalLogic vào tháng 3 năm 2024 và nhận được thông báo sa thải chỉ vài tháng sau đó, vào ngày 15 tháng 8. Khi Lauzon hỏi lý do, câu trả lời anh nhận được chỉ là một lời giải thích ngắn gọn và vô cảm: dự án đang được giảm quy mô.
Lauzon chia sẻ sự thất vọng của mình với Wired, anh tự hỏi làm sao họ có thể cảm thấy an toàn trong nghề này khi biết rằng mình có thể bị cho nghỉ việc bất cứ lúc nào, không cần một lý do chính đáng.
Sự thất vọng không chỉ dừng lại ở điều kiện làm việc hay sự bấp bênh của công việc. Nhiều chuyên viên đánh giá đã mất niềm tin vào chính sản phẩm mà họ đang ngày đêm góp sức hoàn thiện. Họ biết rõ những lỗ hổng, những sai sót và những vấn đề tiềm ẩn trong quá trình phát triển. Vì vậy, trong cuộc sống cá nhân, họ chủ động tránh sử dụng các mô hình ngôn ngữ lớn hoặc tắt các tính năng tóm tắt bằng AI. Họ cũng không khuyến khích gia đình và bạn bè sử dụng chúng, vì họ hiểu rõ hơn ai hết rằng công nghệ này chưa hoàn hảo như những gì nó được quảng cáo.
Lời Kết: Phía Sau Biểu Tượng Lấp Lánh
Câu chuyện của những người như Rachael Sawyer, Alex và Andrew Lauzon vén lên một bức màn về sự thật phức tạp đằng sau cuộc cách mạng AI. Nó cho thấy rằng trí tuệ nhân tạo không phải là một phép màu tự thân vận động. Nó được xây dựng, đào tạo và hoàn thiện dựa trên trí tuệ và công sức của hàng nghìn con người.
Rachael Sawyer đã giải thích một cách sâu sắc. Mọi người cần biết rằng AI đang được quảng bá như một phép màu công nghệ, điều đó được thể hiện qua biểu tượng lấp lánh nhỏ bé bên cạnh mỗi phản hồi của AI. Nhưng sự thật không phải vậy. Nó được xây dựng trên mồ hôi của những con người đang lao động quá sức và bị trả lương thấp.
Khi chúng ta tiếp tục hưởng lợi từ sự tiện lợi mà AI mang lại, có lẽ đã đến lúc cần một cái nhìn toàn diện hơn, không chỉ về công nghệ mà còn về những con người đang vận hành nó. Câu chuyện của họ đặt ra những câu hỏi quan trọng về trách nhiệm của các tập đoàn công nghệ, về đạo đức lao động trong kỷ nguyên số và về cái giá thực sự của sự tiến bộ. Bởi lẽ, một cuộc cách mạng công nghệ chỉ thực sự có ý nghĩa khi nó không bỏ lại ai ở phía sau, đặc biệt là những người đã góp phần tạo nên nó.