La IA generativa inventa cosas. Puede ser sesgada. A veces arroja texto tóxico. Entonces, ¿puede ser 'segura'?
Rick Caccia, CEO de WitnessAI, cree que sí.
'Proteger los modelos de IA es un problema real, y es especialmente atractivo para los investigadores de IA, pero es diferente de asegurar su uso,' dijo Caccia, anteriormente vicepresidente senior de marketing en Palo Alto Networks, a TechCrunch en una entrevista. 'Lo veo como un auto deportivo: tener un motor más potente, es decir, un modelo, no te sirve de nada a menos que también tengas buenos frenos y dirección. Los controles son tan importantes para conducir rápido como el motor.'
Ciertamente existe una demanda de dichos controles entre las empresas, que, aunque cautelosamente optimistas sobre el potencial de aumento de productividad de la IA generativa, tienen inquietudes sobre las limitaciones de la tecnología.
El plan es destinar la inversión a hacer crecer al equipo de 18 personas de WitnessAI a 40 para finales de año. El crecimiento será clave para vencer a los rivales de WitnessAI en el incipiente espacio de soluciones de cumplimiento y gobernanza de modelos, no solo de gigantes tecnológicos como AWS, Google y Salesforce, sino también de startups como CalypsoAI.
'Hemos construido nuestro plan para llegar hasta 2026 incluso si no tuviéramos ventas, pero ya tenemos casi 20 veces la cantidad necesaria para alcanzar nuestros objetivos de ventas este año,' dijo Caccia. 'Esta es nuestra ronda de financiación inicial y lanzamiento al público, pero la habilitación y el uso seguro de la IA es un área nueva, y todas nuestras características se están desarrollando en este nuevo mercado.'
¡Estamos lanzando un boletín de IA! Regístrese aquí para empezar a recibirlo en su bandeja de entrada el 5 de junio.