Mujeres en IA: Chinasa T. Okolo investiga el impacto de la IA en el Sur Global

Para dar a las académicas enfocadas en IA y otras personas el merecido -y atrasado- tiempo en el centro de atención, TechCrunch ha estado publicando una serie de entrevistas centradas en mujeres destacadas que han contribuido a la revolución de la IA. Estamos publicando estas piezas a lo largo del año a medida que el auge de la IA continúa, destacando trabajos clave que a menudo pasan desapercibidos. Lee más perfiles aquí.

Chinasa T. Okolo es miembro del Instituto Brookings en el programa de Estudios de Gobernanza del Centro de Innovación Tecnológica. Antes de eso, formó parte del comité de ética e impacto social que ayudó a desarrollar la Estrategia Nacional de Inteligencia Artificial de Nigeria y ha sido asesora de políticas y ética de IA para diversas organizaciones, incluida la Agencia de Desarrollo de la Unión Africana y el Instituto de Inteligencia Artificial de Quebec. Recientemente obtuvo un doctorado en ciencias de la computación de la Universidad de Cornell, donde investigó cómo la IA impacta en el Sur Global.

Brevemente, ¿cómo empezaste en IA? ¿Qué te atrajo al campo?

Inicialmente me adentré en la IA porque vi cómo las técnicas computacionales podían avanzar en la investigación biomédica y democratizar el acceso a la atención médica para comunidades marginadas. Durante mi último año de pregrado [en Pomona College], comencé a investigar con un profesor de interacción humano-computadora, lo que me expuso a los desafíos de sesgo dentro de la IA. Durante mi doctorado, me interesé en comprender cómo estos problemas impactarían a las personas en el Sur Global, que representan la mayoría de la población mundial y a menudo son excluidos y subrepresentados en el desarrollo de IA.

¿De qué trabajo estás más orgullosa (en el campo de la IA)?

Estoy increíblemente orgullosa de mi trabajo con la Unión Africana (UA) en el desarrollo de la Estrategia Continental de la UA-AI para África, que tiene como objetivo ayudar a los estados miembros de la UA a prepararse para la adopción, desarrollo y gobernanza responsables de la IA. La redacción de la estrategia tomó más de 1.5 años y se lanzó a fines de febrero de 2024. Actualmente está en un período de retroalimentación abierta con el objetivo de ser adoptada formalmente por los estados miembros de la UA a principios de 2025.

Como nigerio-estadounidense de primera generación que creció en Kansas City, MO, y no salió de los Estados Unidos hasta estudiar en el extranjero durante el pregrado, siempre tuve como objetivo centrar mi carrera dentro de África. Participar en un trabajo tan impactante tan temprano en mi carrera me entusiasma para perseguir oportunidades similares para ayudar a dar forma a una gobernanza global de la IA inclusiva.

¿Cómo navegas por los desafíos de la industria tecnológica dominada por hombres y, por extensión, la industria de IA dominada por hombres?

Encontrar una comunidad con aquellos que comparten mis valores ha sido esencial para navegar por las industrias tecnológicas y de IA dominadas por hombres.

He tenido la suerte de ver muchos avances en IA responsable e investigaciones prominentes que exponen los daños de la IA lideradas por académicas negras como Timnit Gebru, Safiya Noble, Abeba Birhane, Ruha Benjamin, Joy Buolamwini y Deb Raji, muchas de las cuales he podido conectar en los últimos años.

Ver su liderazgo me ha motivado a continuar mi trabajo en este campo y me ha mostrado el valor de ir 'contra la corriente' para tener un impacto significativo.

¿Qué consejo darías a las mujeres que buscan ingresar al campo de la IA?

No te dejes intimidar por la falta de antecedentes técnicos. El campo de la IA es multidimensional y necesita experiencia de diversos dominios. Mi investigación ha sido influenciada en gran medida por sociólogos, antropólogos, científicos cognitivos, filósofos y otros dentro de las humanidades y ciencias sociales.

¿Cuáles son algunos de los problemas más acuciantes a los que se enfrenta la IA a medida que evoluciona?

Uno de los problemas más destacados será mejorar la representación equitativa de las culturas no occidentales en modelos de lenguaje y multimodales prominentes. La gran mayoría de los modelos de IA se entrenan en inglés y en datos que representan principalmente contextos occidentales, lo que deja fuera perspectivas valiosas de la mayoría del mundo.

Además, la carrera hacia la construcción de modelos más grandes llevará a una mayor agotamiento de los recursos naturales y mayores impactos en el cambio climático, que ya afecta de manera desproporcionada a los países del Sur Global.

¿Cuáles son algunos problemas de los que los usuarios de IA deberían ser conscientes?

Un número significativo de herramientas y sistemas de IA que se han puesto en funcionamiento público sobrestiman sus capacidades y simplemente no funcionan. Muchas tareas que las personas intentan realizar con IA podrían resolverse a través de algoritmos más simples o automatización básica.

Además, la IA generativa tiene la capacidad de exacerbar los daños observados en las primeras herramientas de IA. Durante años, hemos visto cómo estas herramientas muestran sesgos y conducen a decisiones dañinas contra comunidades vulnerables, lo que probablemente aumentará a medida que la IA generativa crezca en escala y alcance.

Sin embargo, capacitar a las personas con el conocimiento para comprender las limitaciones de la IA puede ayudar a mejorar la adopción y el uso responsables de estas herramientas. Mejorar la alfabetización en IA y datos dentro del público en general se volverá fundamental a medida que las herramientas de IA se integren rápidamente en la sociedad.

¿Cuál es la mejor manera de construir responsablemente la IA?

La mejor manera de construir responsablemente la IA es ser crítico con los casos de uso previstos y no previstos de estas herramientas. Las personas que construyen sistemas de IA tienen la responsabilidad de oponerse al uso de la IA en escenarios perjudiciales en la guerra y la policía, y deben buscar orientación externa si la IA es apropiada para otros casos de uso que puedan estar apuntando. Dado que la IA a menudo es un amplificador de las desigualdades sociales existentes, también es imperativo que los desarrolladores e investigadores tengan cautela en cómo construyen y curan conjuntos de datos que se utilizan para entrenar modelos de IA.

¿Cómo pueden los inversores impulsar mejor la IA responsable?

Muchos argumentan que el creciente interés de capitalistas de riesgo en 'sacar provecho' de la actual ola de IA ha acelerado el surgimiento del 'veneno de serpiente de IA', acuñado por Arvind Narayanan y Sayash Kapoor. Estoy de acuerdo con este sentimiento y creo que los inversores deben tomar posiciones de liderazgo, junto con académicos, partes interesadas de la sociedad civil y miembros de la industria, para abogar por el desarrollo responsable de la IA. Como inversor ángel yo misma, he visto muchas herramientas de IA dudosas en el mercado. Los inversores también deberían invertir en expertos en IA para evaluar empresas y solicitar auditorías externas de las herramientas demostradas en las presentaciones.

¿Hay algo más que te gustaría añadir?

Este 'verano de la IA' en curso ha llevado a una proliferación de 'expertos en IA' que a menudo desvían las importantes conversaciones sobre los riesgos y daños actuales de la IA y presentan información engañosa sobre las capacidades de las herramientas habilitadas por IA. Animo a aquellos interesados en educarse sobre la IA a ser críticos con estas voces y buscar fuentes confiables para aprender.