Los chats de Claude ahora se usarán para el entrenamiento de IA, pero podrás escapar

Claude , uno de los chatbots de IA más populares y un posible candidato para que Apple mejore Siri, pronto empezará a guardar la transcripción de todos tus chats para entrenar a la IA. El cambio de política anunciado por Anthropic ya ha comenzado a notarse a los usuarios y les da hasta el 28 de septiembre para aceptar los términos.

¿Qué está cambiando?

Anthropic afirma que el registro de las interacciones de los usuarios con Claude y su herramienta Claude Code, enfocada en desarrolladores, se utilizará para entrenamiento, mejora de modelos y refuerzo de las medidas de seguridad. Hasta el momento, la empresa de IA no ha aprovechado los datos de los usuarios para el entrenamiento de IA.

“Al participar, nos ayudarás a mejorar la seguridad de los modelos, haciendo que nuestros sistemas de detección de contenido dañino sean más precisos y menos propensos a marcar conversaciones inofensivas”, afirma la empresa. El cambio de política no es obligatorio y los usuarios pueden optar por no aplicarlo.

Los usuarios verán una notificación sobre la política de uso de datos hasta el 28 de septiembre. La ventana emergente les permitirá desactivar fácilmente la opción "Puedes ayudar a mejorar a Claude" y guardar su preferencia pulsando el botón " Aceptar" . Después del 28 de septiembre, deberán cambiar manualmente su preferencia desde el panel de configuración de entrenamiento del modelo.

¿Cuál es el resultado final?

La política de entrenamiento actualizada solo cubre los chats nuevos con Claude o los que reanudes, pero no los antiguos. ¿A qué se debe esta reversión? El camino hacia la supremacía de la IA es bastante sencillo. Cuanto más material de entrenamiento tengas a tu disposición, mejor será el rendimiento del modelo de IA.

La industria ya se enfrenta a una escasez de datos, por lo que la decisión de Anthropic no sorprende. Si ya eres usuario de Claude, puedes darte de baja siguiendo esta ruta: Configuración > Privacidad > Ayuda para mejorar Claude .

La nueva política de datos de usuario de Anthropic cubre los planes Claude Free, Pro y Max. Sin embargo, no aplica a Claude for Work, Claude Gov, Claude for Education, al uso de APU ni a la conexión con plataformas de terceros como Vertex AI de Google y Amazon Bedrock.

Además, Anthropic también está cambiando sus normas de retención de datos. Ahora, la empresa puede conservar una copia de los datos de los usuarios hasta por cinco años. Los chats que los usuarios hayan eliminado manualmente no se utilizarán para el entrenamiento de IA.