icon

Debaten crear un sindicato para los trabajadores de Inteligencia Artificial y otras tecnologías

"La salida de Timnit Gebru, de Google, expone una crisis en la inteligencia artificial", afirma una nota de la revista Wired. Gebru, ex investigadora de inteligencia artificial en Google, es una de las pocas mujeres negras en el campo. Todo indica que ella fue expulsada por un memorando que escribió pidiendo o la suspensión o la anulación de una tecnología de inteligencia artificial que consideró que vulneraba ciertos límites éticos. El debate emergente provoca interrogantes acerca de la inteligencia artificial si no tiene parámetros éticos. El artículo fue escrito por el sociólogo Alex Hanna -investigador científico principal del equipo de IA ética de Google- y Meredith Whittaker -profesora de investigación de Minderoo en NYU, que ayudó a liderar la organización laboral en Google-. Una propuesta central que realizan es la creación de un sindicato para los trabajadores de tecnología, abriendo un debate inédito, al menos en USA.

Timnit Gebru es una investigadora en la inteligencia artificial que en Google era un 'rara avis': mujer, negra e independiente.

Tawana Petty, directora de organización de Data for Black Lives, señala que estos sistemas se implementan de manera desproporcionada en vecindarios y ciudades predominantemente negros, mientras que las ciudades que han tenido éxito en prohibir y rechazar el uso del reconocimiento facial son predominantemente blancas.

Con la proliferación de la Inteligencia Artificial en la atención médica, la justicia penal y la educación, los investigadores y defensores están planteando preocupaciones urgentes. Estos sistemas toman determinaciones que moldean vidas directamente, al mismo tiempo que se insertan en organizaciones estructuradas para reforzar historias de discriminación racial.


"Este año ha tenido muchas cosas, entre ellas afirmaciones audaces de avances en inteligencia artificial. Los comentaristas de la industria especularon que el modelo de generación de lenguaje GPT-3 pudo haber logrado una "inteligencia general artificial", mientras que otros elogiaron el algoritmo de plegamiento de proteínas Alphafold, de DeepMind, la subsidiaria de Alphabet, y su capacidad para "transformar la biología". 

Si bien la base de tales afirmaciones es más tenue que los titulares efusivos, esto no ha hecho mucho para frenar el entusiasmo en la industria, cuyas ganancias y prestigio dependen de la proliferación de la IA.

Fue en este contexto que Google despidió a Timnit Gebr, nuestra querida amiga y colega, y líder en el campo de la inteligencia artificial. También es una de las pocas mujeres negras en la investigación de la inteligencia artificial y una defensora inquebrantable para atraer más BIPOC, mujeres y personas no occidentales al campo (N. de la R.: BIPOC es un acrónimo en inglés para Black, Native and People of Color, que se traduce como 'personas negras, indígenas y de color'). 

Muy raro

(...) Según Gebru, después de exigir que ella y sus colegas retiraran un trabajo de investigación crítico de sistemas de inteligencia artificial (rentables) a gran escala, Google Research le dijo a su equipo que había aceptado su renuncia, a pesar de que ella no había renunciado. (Google se negó a comentar sobre esta historia). 

El espantoso tratamiento de Google a Gebru expone una doble crisis en la investigación de la IA. 

El campo está dominado por una fuerza laboral de élite, principalmente hombres blancos, y está controlado y financiado principalmente por grandes actores de la industria: Microsoft, Facebook, Amazon, IBM y sí, Google. 

(...) Pero esta situación también ha dejado en claro que, por muy sinceras que parezcan las promesas de una empresa como Google, la investigación financiada por empresas nunca puede divorciarse de las realidades del poder y de los flujos de ingresos y capital.

Esto debería preocuparnos a todos. Con la proliferación de la IA en dominios como la atención médica, la justicia penal y la educación, los investigadores y defensores están planteando preocupaciones urgentes. Estos sistemas toman determinaciones que moldean vidas directamente, al mismo tiempo que se insertan en organizaciones estructuradas para reforzar historias de discriminación racial. (...)

Un ejemplo

Tomemos las tecnologías de reconocimiento facial, por ejemplo, que se ha demostrado que "reconocen" a las personas de piel más oscura con menos frecuencia que a las de piel más clara. Esto es alarmante. Pero estos "errores" no son los únicos problemas con el reconocimiento facial. 

Tawana Petty, directora de organización de Data for Black Lives, señala que estos sistemas se implementan de manera desproporcionada en vecindarios y ciudades predominantemente negros, mientras que las ciudades que han tenido éxito en prohibir y rechazar el uso del reconocimiento facial son predominantemente blancas.

(...) El tratamiento que Google dió a Gebru deja cada vez más claro dónde parecen estar las prioridades de la empresa cuando el trabajo crítico hace retroceder sus incentivos comerciales. Esto hace que sea casi imposible garantizar que los sistemas de inteligencia artificial rindan cuentas a las personas más vulnerables a sus daños.

Los controles de la industria se ven aún más comprometidos por los estrechos vínculos entre las empresas de tecnología y las instituciones académicas aparentemente independientes. Investigadores de corporaciones y academias publican artículos juntos y se codean en las mismas conferencias, y algunos investigadores incluso ocupan puestos concurrentes en empresas de tecnología y universidades. Esto desdibuja el límite entre la investigación académica y corporativa y oscurece los incentivos que respaldan dicho trabajo. 

También significa que los dos grupos se ven terriblemente similares: la investigación de IA en el mundo académico sufre los mismos problemas perniciosos de homogeneidad racial y de género que sus contrapartes corporativas. 

Además, los principales departamentos de informática aceptan grandes cantidades de la financiación de la investigación Big Tech. Solo tenemos que mirar a las grandes empresas tabacaleras y petroleras en busca de plantillas preocupantes que expongan cuánta influencia sobre la comprensión pública de problemas científicos complejos pueden ejercer las grandes empresas cuando la creación de conocimiento se deja en sus manos.

Buscando respuestas

El despido de Gebru sugiere que esta dinámica está funcionando una vez más. Empresas poderosas como Google tienen la capacidad de apropiarse, minimizar o silenciar las críticas a sus propios sistemas de inteligencia artificial a gran escala, sistemas que son el núcleo de sus fines de lucro. 

De hecho, según un informe reciente de Reuters, el liderazgo de Google llegó a instruir a los investigadores que "den un tono positivo" en el trabajo que examina tecnologías y cuestiones sensibles a los resultados de Google. El despido de Gebru también destaca el peligro al que se enfrenta el resto del público si permitimos que una cohorte de investigación homogénea y de élite, formada por personas con pocas probabilidades de experimentar los efectos negativos de la IA, impulse y dé forma a la investigación desde dentro de los entornos corporativos. (...)

A medida que el polvo comienza a asentarse tras el despido de Gebru, surge una pregunta: ¿Qué hacemos para impugnar estos incentivos y continuar el trabajo crítico sobre la IA en solidaridad con las personas que corren mayor riesgo de sufrir daños? A esa pregunta, tenemos algunas respuestas preliminares.

En primer lugar, los trabajadores de la tecnología necesitan un sindicato. Los trabajadores organizados son una palanca clave para el cambio y la responsabilidad, y una de las pocas fuerzas que han demostrado ser capaces de hacer retroceder a las grandes empresas. Esto es especialmente cierto en tecnología, dado que muchos trabajadores han buscado experiencia y no son fácilmente reemplazables, lo que les otorga una fuerza laboral significativa. 

Estas organizaciones pueden actuar como un freno a las represalias y la discriminación, y pueden ser una fuerza que rechace los usos moralmente reprobables de la tecnología. 

Solo mire la lucha de los trabajadores de Amazon contra el cambio climático o la resistencia de los empleados de Google a los usos militares de la IA, que cambiaron las políticas de la empresa y demostraron el poder de los trabajadores tecnológicos autoorganizados. 

Para ser eficaz aquí, una organización de este tipo debe basarse en el antirracismo y la solidaridad entre clases, tener una visión amplia de quién cuenta como trabajador tecnológico y trabajar para priorizar la protección y la elevación de los trabajadores tecnológicos de BIPOC en todos los ámbitos. 

También debería usar su fuerza colectiva para hacer retroceder la tecnología que lastima a las personas históricamente marginadas más allá de los límites de las grandes tecnologías, y alinearse con defensores y organizadores externos para garantizar esto. (...)

Una regulación

Finalmente, el campo de la IA necesita desesperadamente una regulación. Los gobiernos locales, estatales y federales deben intervenir y aprobar una legislación que 

** proteja la privacidad y garantice un consentimiento significativo en torno a la recopilación de datos y el uso de IA; 
** aumente las protecciones para los trabajadores, incluidas las protecciones para los denunciantes y las medidas para proteger mejor a los trabajadores de BIPOC y otras personas que sufren discriminación; y 
** garantice que los más vulnerables a los riesgos de los sistemas de IA puedan impugnar y rechazar su uso.

Esta crisis deja en claro que el ecosistema de investigación de IA actual, limitado como está por la influencia corporativa y dominado por un grupo privilegiado de investigadores, no es capaz de plantear y responder las preguntas más importantes para quienes soportan los daños de los sistemas de IA. 

La investigación con mentalidad pública y la creación de conocimiento no solo es importante por sí misma, sino que proporciona información esencial para quienes desarrollan estrategias sólidas para la supervisión democrática y la gobernanza de la IA, y para los movimientos sociales que pueden hacer retroceder la tecnología dañina y los eso. 

** Apoyar y proteger a los trabajadores tecnológicos organizados, 
** expandir el campo que examina la IA y 
** fomentar entornos de investigación inclusivos y con buenos recursos fuera de la sombra de la influencia corporativa 

son pasos esenciales para brindar el espacio para abordar estas preocupaciones urgentes. (...)".