Anthropic, una empresa líder en IA generativa y fundada por exinvestigadores de OpenAI, ha actualizado sus Términos de Servicio Comerciales, marcando una distinción clave respecto a competidores como OpenAI, Amazon y Meta. La firma se compromete a no utilizar los datos de sus clientes para entrenar su Modelo de Lenguaje de Gran Escala (LLM), protegiendo así la privacidad de los mismos.
Esta actualización refuerza el principio de Anthropic de que el cliente es propietario de todos los resultados generados por la IA, evitando disputas sobre propiedad intelectual. Además, la empresa se ha comprometido a defender a sus usuarios ante reclamaciones de derechos de autor relacionadas con contenidos generados por su LLM, Claude.
El modelo de negocio de Anthropic se centra en la ética y la transparencia, en un momento en que crece el escepticismo público sobre la ética de la IA generativa. Su enfoque en la privacidad y la propiedad de los datos podría otorgarle una ventaja competitiva.
Por otro lado, los LLM como GPT-4, LlaMa o Claude de Anthropic requieren de grandes volúmenes de datos textuales para su entrenamiento, lo cual plantea un debate ético. Empresas como Meta y Amazon utilizan datos de usuarios para entrenar sus modelos, generando controversia sobre la compensación a los usuarios por esta información vital.
Meta está entrenando su LLM LlaMA-3 con datos de usuarios y Amazon entrena su LLM para Alexa de manera similar, aunque ofrece la opción de no participar. Estas prácticas subrayan la importancia de las prácticas responsables de datos para ganar la confianza del público.
En resumen, Anthropic se posiciona como líder en la protección de la privacidad de los datos, en un tiempo donde el debate ético sobre la conveniencia de modelos más poderosos a costa de la información personal sigue vigente.
Fuente: Anthropic Says It Won’t Use Your Private Data to Train Its AI – Decrypt
Share this content:
Deja una respuesta