Reddit está tomando una posición en contra de las empresas de IA, o al menos les está pidiendo que paguen.
A principios de esta semana, Reddit anunció que está cambiando su Protocolo de Exclusión de Robots, también conocido como su archivo robots.txt. Esta edición que suena aburrida es parte de una negociación/batalla más grande entre las empresas de IA que tienen hambre de contenido que pueden utilizar para entrenar sus modelos de lenguaje, y las empresas que realmente son dueñas del contenido.
“Robots.txt” es la forma en que los sitios web comunican a terceros cómo se puede rastrear un sitio web, siendo el ejemplo clásico los sitios web que permiten a Google rastrearlos para que puedan ser incluidos en los resultados de búsqueda.
En el caso de la IA, el intercambio de valor es mucho menos obvio. Cuando diriges un sitio web cuyo modelo de negocio implica atraer clics y atención, no hay mucho atractivo en permitir que las empresas de IA absorban tu contenido y luego no te envíen tráfico, y en algunos casos, directamente plagian tu trabajo.
Por lo tanto, al cambiar su archivo robots.txt, y también al continuar limitando la velocidad de acceso y bloqueando bots y rastreadores desconocidos, Reddit parece estar trabajando para prevenir las prácticas por las que empresas como Perplexity AI han sido criticadas.
Haz clic para aprender más, ¡y déjanos saber tu opinión en los comentarios!