Slack bajo ataque por política de entrenamiento AI astuta

En medio de problemas constantes en torno a cómo las grandes empresas de tecnología están utilizando los datos de individuos y empresas en el entrenamiento de servicios de AI, se está gestando una tormenta entre los usuarios de Slack molestos por cómo la plataforma de chat propiedad de Salesforce está avanzando con su visión de AI.

La compañía, al igual que muchas otras, está utilizando sus propios datos de usuario para entrenar algunos de sus nuevos servicios de AI. Pero resulta que si no quieres que Slack use tus datos, debes enviar un correo electrónico a la compañía para optar por no participar.

Y los términos de ese compromiso están escondidos en lo que parece ser una política de privacidad desactualizada y confusa a la que nadie estaba prestando atención. Ese fue el caso con Slack, hasta que una persona molesta publicó al respecto en un sitio comunitario muy popular entre los desarrolladores, y luego esa publicación se hizo viral... que es lo que sucedió aquí.

Todo comenzó anoche, cuando una nota en Hacker News planteó el problema de cómo Slack entrena sus servicios de AI, mediante un enlace directo a sus principios de privacidad, no se necesitaba ningún comentario adicional. Esa publicación inició una conversación más larga —y lo que parecía ser novedad para los usuarios actuales de Slack— que Slack elige a sus usuarios para participar por defecto en su entrenamiento de AI y que necesitas enviar un correo electrónico a una dirección específica para optar por no participar.

Ese hilo de Hacker News generó múltiples conversaciones y preguntas en otras plataformas: Existe un producto relativamente nuevo llamado 'Slack AI' que permite a los usuarios buscar respuestas y resumir hilos de conversación, entre otras cosas, pero ¿por qué no se menciona ni una vez por nombre en esa página de principios de privacidad de alguna manera, incluso para dejar claro si la política de privacidad se aplica a ella? ¿Y por qué Slack hace referencia tanto a 'modelos globales' como a 'modelos de AI'?

Entre las personas confundidas sobre dónde Slack está aplicando sus principios de privacidad de AI y las personas sorprendidas y molestas por la idea de enviar un correo electrónico para optar por no participar —en una empresa que hace mucho hincapié en promocionar que 'Tú controlas tus datos'— Slack no sale bien parada.

El impacto puede ser nuevo, pero los términos no lo son. Según páginas en el Archivo de Internet, los términos han sido aplicables desde al menos septiembre de 2023. (Le hemos pedido a la compañía que lo confirme.)

Según la política de privacidad, Slack está utilizando datos de clientes específicamente para entrenar 'modelos globales', que Slack utiliza para alimentar recomendaciones de canales y emojis y resultados de búsqueda. Slack nos dice que su uso de los datos tiene límites específicos.

'Slack tiene modelos de aprendizaje automático a nivel de plataforma para cosas como recomendaciones de canales y emojis y resultados de búsqueda. No construimos ni entrenamos estos modelos de tal manera que pudieran aprender, memorizar o ser capaces de reproducir alguna parte de los datos del cliente', dijo un portavoz de la compañía a TechCrunch. Sin embargo, la política no parece abordar el alcance general y los planes más amplios de la empresa para entrenar modelos de AI.

En sus términos, Slack dice que si los clientes deciden no participar en el entrenamiento de datos, seguirían beneficiándose de los 'modelos AI/ML entrenados globalmente' de la compañía. Pero nuevamente, en ese caso, no está claro por qué la empresa está utilizando datos de clientes en primer lugar para alimentar funciones como recomendaciones de emojis.

La compañía también dijo que no utiliza datos de clientes para entrenar Slack AI.

'Slack AI es un complemento adquirido por separado que utiliza Modelos de Lenguaje Grande (LLMs) pero no entrena esos LLMs con datos de clientes. Slack AI utiliza LLMs alojados directamente dentro de la infraestructura de AWS de Slack, por lo que los datos de clientes permanecen en la empresa y no se comparten con ningún proveedor de LLM. Esto garantiza que los datos de los clientes permanezcan bajo el control de esa organización y exclusivamente para el uso de esa organización', dijo un portavoz.

Es probable que algo de la confusión se aborde más pronto que tarde. En una respuesta a una crítica en Threads del ingeniero y escritor Gergely Orosz, el ingeniero de Slack Aaron Maurer admitió que la empresa necesita actualizar la página para reflejar 'cómo juegan estos principios de privacidad con Slack AI'.

Maurer agregó que estos términos se escribieron en un momento en el que la empresa no tenía Slack AI, y estas reglas reflejan el trabajo de la empresa en torno a la búsqueda y recomendaciones. Será interesante examinar los términos para futuras actualizaciones, dada la confusión en torno a lo que Slack está haciendo actualmente con su AI.

Los problemas en Slack son un recordatorio contundente de que, en el mundo vertiginoso del desarrollo de AI, la privacidad del usuario no debe ser una idea secundaria y los términos de servicio de una empresa deben indicar claramente cómo y cuándo se utiliza o no se utiliza datos.