Los trabajadores invisibles de la IA:

En la era de la inteligencia artificial, donde se habla de modelos súper avanzados y algoritmos que aprenden solos, poco se menciona a quienes están detrás del telón: miles de personas en el mundo que etiquetan datos, revisan contenidos, validan respuestas y moderan materiales para que los sistemas funcionen. Este es un trabajo esencial, pero con frecuencia caracterizado por explotación, salarios muy bajos y condiciones difíciles.
Las empresas grandes suelen delegar estas tareas a subcontratistas, lo que disminuye su responsabilidad directa ante condiciones laborales precarias.

Activistas y reportajes insisten en que la explotación laboral en IA es un problema estructural, no solo de unas pocas compañías.

¿Quiénes son y dónde están estos trabajadores?

  • En países como Kenia, Venezuela, India, Filipinas o China, se concentran plataformas de etiquetado de datos o moderación de contenidos para empresas de IA.
  • En Kenia, trabajadores de una empresa subcontratada para OpenAI ganaban menos de US $2 por hora revisando contenido altamente tóxico, sufriendo secuelas psicológicas.
  • En Venezuela, los salarios oscilan entre US $0,90 y US $2 por hora, mientras que en Estados Unidos podrían ganar entre US $10 y US $25 por la misma labor.
  • En China, estudiantes de formación vocacional trabajaban ocho horas al día, seis días a la semana, por entre 3.000 y 4.000 yuanes (≈US $409‑545) al mes, con parte del salario deducido por intermediarios o escuela.

Argentina en la cadena de la IA

  • Un estudio recogió datos de 220 trabajadores argentinos (2021‑22) dedicados a anotación y moderación de datos, indicando que, aunque muchos tenían buen nivel educativo, el trabajo está ligado a dificultades económicas y economía informal.
  • En Buenos Aires, algunos anotadores recibían alrededor de US $1,80 por hora, realizando tareas repetitivas y mentalmente demandantes.
  • Argentina, junto con México y Colombia, es considerada un hub global de anotación de datos para IA, con condiciones laborales muchas veces poco reguladas.
  • Se ofrecen trabajos remotos para “AI Trainer / Data Annotator” con pagos de hasta US $6 por hora, mostrando la disparidad con países del Norte global.

Las tareas más difíciles para moderar estas IAs

  • Revisión de contenido violento o sexualmente explícito: imágenes, videos y textos de abuso o violencia extrema.
  • Filtrado de desinformación: evaluar la veracidad de información contradictoria requiere concentración intensa y juicio crítico constante.
  • Anotación de emociones y contexto: enseñar a la IA a comprender sarcasmo, ironía y sutilezas del lenguaje humano es mentalmente agotador.
  • Moderación de comentarios tóxicos y discursos de odio: enfrentar insultos, amenazas y lenguaje violento día tras día genera alto estrés psicológico.
  • Clasificación de datos ambiguos: decidir cómo etiquetar información confusa o con múltiples interpretaciones demanda atención extrema y decisión rápida.

Principales problemas

  • Salarios bajos y sin protección laboral: muchos trabajadores son contratistas independientes, sin seguro ni derechos claros.
  • Impacto psicológico: exposición constante a contenido traumático puede derivar en estrés postraumático, ansiedad y depresión.
  • Desigualdad global: mientras los modelos de IA se desarrollan en países del Norte global, los trabajadores del Sur global, incluida Argentina, están más vulnerables.
  • Falta de transparencia y control: los trabajadores muchas veces desconocen cómo se usa su labor y no cuentan con mecanismos de apelación.

Datos destacados

  • Venezuela: salarios entre US $0,90 y US $2 por hora.
  • China: hasta 60 % de la plantilla de anotadores eran estudiantes, con salario bajo y sin elección real.
  • Argentina: salarios entre US $1,80 y US $6 por hora, según experiencia y plataforma.
  • Países involucrados: Uganda, Kenia, Venezuela, Colombia, India, Filipinas y Argentina, debido a menores costes y menor regulación.

¿Por qué ocurre?

Las empresas de IA manejan enormes volúmenes de datos y subcontratan mano de obra barata para limpiarlos y validarlos. La brecha ética surge porque, aunque la tecnología avanza rápidamente, los trabajadores que la posibilitan quedan invisibilizados y poco protegidos.

¿Qué se puede cambiar?

  • Mayor visibilidad y reconocimiento del trabajo de anotadores y moderadores.
  • Regulaciones internacionales que aseguren salario justo, protección laboral y salud mental.
  • Transparencia de las empresas sobre quién realiza el trabajo y en qué condiciones.
  • Formación y alternativas para que los trabajadores puedan ascender, evitando quedar atrapados en tareas repetitivas y mentalmente exigentes.

Empresas señaladas en informes recientes

  1. OpenAI
    • Trabajadores en Kenia y otros países han denunciado salarios extremadamente bajos (a veces menos de $2 USD/hora) y exposición a contenido gráfico o violento sin apoyo psicológico adecuado.
    • Estas tareas son esenciales para entrenar modelos como ChatGPT.
  2. Meta (Facebook, Instagram, WhatsApp)
    • Subcontrata moderadores de contenido en países como Filipinas, India y Kenia.
    • Trabajadores reportan estrés emocional intenso, falta de apoyo y bajos salarios para filtrar contenido explícito, violento o sensible.
  3. Amazon (Mechanical Turk y AWS)
    • Sus trabajadores de microtareas (MTurk) realizan etiquetado de datos para IA con pagos mínimos y condiciones inestables.
    • No hay beneficios ni seguridad laboral real.
  4. Appen y Sama (antes Samasource)
    • Empresas especializadas en “crowdsourcing” de datos para IA.
    • Denunciadas por pagos bajos, trabajo remoto precario y falta de protección para contenidos sensibles.
  5. Google (subcontratistas de moderación)
    • Aunque Google paga más que otros, los trabajadores subcontratados todavía enfrentan presión intensa, jornadas largas y exposición a contenido perturbador.

La verdadera pregunta no es si la IA acabará con el trabajo, sino si estaremos dispuestos a acabar con la precariedad que hoy la hace posible. Si queremos un futuro justo, la innovación tecnológica debe ir acompañada de transparencia empresarial, regulación política, protección laboral y reflexión ética colectiva. De lo contrario, lo que nos aguarda no es el paraíso tecnológico tantas veces prometido, sino una distopía levantada sobre los sacrificados de la inteligencia artificial.

Artículos Relacionados

https://theconversation.com/esclavismo-digital-la-cara-oculta-de-la-ia-266805

https://www-cbsnews-com.translate.goog/news/ai-work-kenya-exploitation-60-minutes

https://www.infobae.com/espana/2025/07/09/mas-de-340-moderadores-de-contenido-en-barcelona-demandan-a-meta-por-danos-psicologicos

Por UXII

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *