Para dar a las mujeres académicas enfocadas en AI y a otras el tiempo en el centro de atención que se merecen, y que se ha retrasado, TechCrunch ha estado publicando una serie de entrevistas centradas en mujeres destacadas que han contribuido a la revolución de AI. Estamos publicando estos artículos a lo largo del año a medida que continúa el auge de la AI, destacando trabajos clave que a menudo pasan desapercibidos. Lee más perfiles aquí.
Sarah Myers West es directora general del Instituto AI Now, un instituto de investigación estadounidense que estudia las implicaciones sociales de la IA y la investigación de políticas que abordan la concentración de poder en la industria tecnológica. Anteriormente se desempeñó como asesora principal en AI en la Comisión Federal de Comercio de EE. UU. y es científica investigadora visitante en la Universidad Northeastern, además de contribuir a la investigación en el Laboratorio de Ciudadanos y Tecnología de Cornell.
Brevemente, ¿cómo empezaste en AI? ¿Qué te atrajo del campo?
He pasado los últimos 15 años interrogando el papel de las empresas tecnológicas como actores políticos poderosos a medida que surgían en primera línea de la gobernanza internacional. Al principio de mi carrera, tuve una vista privilegiada observando cómo las empresas tecnológicas estadounidenses aparecían en todo el mundo de maneras que cambiaban el panorama político, en el sudeste asiático, China, Medio Oriente y en otros lugares, y escribí un libro profundizando en cómo el cabildeo y la regulación de la industria dieron forma a los orígenes del modelo comercial de vigilancia para internet a pesar de las tecnologías que ofrecían alternativas en teoría que en la práctica no se materializaron.
En muchos momentos de mi carrera, me he preguntado, '¿Por qué nos estamos atrincherando en esta visión muy distópica del futuro?' La respuesta tiene poco que ver con la tecnología en sí y mucho que ver con la política pública y la comercialización.
Ese ha sido mi proyecto desde entonces, tanto en mi carrera de investigación como ahora en mi trabajo de política como co-directora de AI Now. Si la IA es parte de la infraestructura de nuestras vidas diarias, necesitamos examinar críticamente las instituciones que la están produciendo y asegurarnos de que como sociedad haya suficiente fricción, ya sea a través de la regulación o de la organización, para asegurar que al final del día se satisfacen las necesidades del público, no las de las empresas tecnológicas.
¿De qué trabajo estás más orgullosa en el campo de la AI?
Estoy muy orgullosa del trabajo que hicimos en la FTC, que es la agencia gubernamental de EE. UU. que, entre otras cosas, se encuentra en primera línea de la aplicación regulatoria de la inteligencia artificial. Me encantaba ponerme manos a la obra y trabajar en casos. Pude usar mi formación metodológica como investigadora para participar en trabajos de investigación, ya que la herramienta básica es esencialmente la misma. Fue gratificante poder usar esas herramientas para responsabilizar directamente al poder, y ver cómo este trabajo tenía un impacto inmediato en el público, ya sea abordando cómo se utiliza la IA para devaluar a los trabajadores y aumentar los precios o combatiendo el comportamiento anticompetitivo de las grandes empresas tecnológicas.
Pudimos contar con un fantástico equipo de tecnólogos trabajando bajo la Oficina de Política Científica y Tecnológica de la Casa Blanca, y ha sido emocionante ver cómo el trabajo que hicimos allí tiene relevancia inmediata con la aparición de la IA generativa y la importancia de la infraestructura en la nube.
¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?
En primer lugar, las tecnologías de IA se utilizan ampliamente en contextos altamente sensibles, en hospitales, en escuelas, en fronteras, y así sucesivamente, pero siguen siendo insuficientemente probadas y validadas. Esta tecnología propensa a errores, y sabemos por investigaciones independientes que esos errores no se distribuyen de manera equitativa; perjudican de manera desproporcionada a las comunidades que han soportado durante mucho tiempo la discriminación. Deberíamos establecer un estándar mucho más alto. Pero aún más preocupante para mí es cómo las instituciones poderosas están utilizando la IA, ya sea que funcione o no, para justificar sus acciones, desde el uso de armamento contra civiles en Gaza hasta la privación de derechos de los trabajadores. Este es un problema no de la tecnología, sino del discurso: cómo orientamos nuestra cultura en torno a la tecnología y la idea de que si la IA está involucrada, ciertas elecciones o comportamientos se vuelven más 'objetivos' o de alguna manera pasan desapercibidos.
¿Cuál es la mejor manera de construir IA de manera responsable?
Siempre debemos partir de la pregunta: ¿Por qué construir IA en absoluto? ¿Qué justifica el uso de la inteligencia artificial, y la tecnología de AI es adecuada para ese propósito? A veces la respuesta es construir mejor, y en ese caso los desarrolladores deben garantizar el cumplimiento de la ley, documentar y validar de manera sólida sus sistemas, y hacer público y transparente lo que puedan, para que los investigadores independientes puedan hacer lo mismo. Pero otras veces la respuesta no es construir en absoluto: no necesitamos más armas o tecnología de vigilancia 'construidas de manera responsable'. El uso final es importante para esta pregunta, y es donde debemos comenzar.