Microsoft ya tiene su punto de mira legal puesto en DeepSeek

DeepSeek AI ejecutándose en un iPhone.
La interfaz de chat de la página de inicio de DeepSeek AI. Nadeem Sarwar / Tendencias digitales

Microsoft, uno de los principales inversores en OpenAI, está explorando ahora si la empresa china DeepSeek utilizó métodos nefastos para entrenar sus modelos de razonamiento. Según Bloomberg Law, la compañía ahora cree que DeepSeek violó sus términos de servicio al utilizar su interfaz de programación de aplicaciones (API) para entrenar su modelo R1 recientemente anunciado.

La noticia llega poco después de que la IA de la Casa Blanca y el zar de las criptomonedas, David Sacks, dijeran a Fox News en una entrevista el martes que era "posible" que DeepSeek "robara propiedad intelectual de los Estados Unidos".

"Existe evidencia sustancial de que lo que DeepSeek hizo aquí fue destilar el conocimiento de los modelos de OpenAI", dijo Sacks al medio.

La industria de la IA ha estado entusiasmada con la capacidad de DeepSeek para entrenar modelos de IA de forma rápida y rentable en un año con sólo 5,6 millones de dólares. Existe una posibilidad subyacente de que la razón de la eficiencia de la empresa sea que haya utilizado el modelo de otra empresa como base.

Es posible que DeepSeek haya utilizado un proceso llamado destilación, que implica dos modelos con una dinámica profesor-alumno para que uno pueda recopilar información del otro. Por un lado, esto podría explicar los económicos costes operativos de la empresa y el uso de chips Nvidia H800 menos potentes. Es posible que DeepSeek ahora tenga que demostrar si tomó todas las acciones ilegales al desarrollar sus modelos.

Antes de este reciente desarrollo, los expertos de la industria especularon que DeepSeek probablemente utilizó ingeniería inversa para entrenar sus modelos. Este proceso analiza modelos para identificar sus patrones y sesgos para mejorar modelos futuros. La ingeniería inversa es una práctica común entre los desarrolladores de código abierto que se considera legal.

Los investigadores de seguridad sancionados por Microsoft ya han descubierto que DeepSeek pudo haber exhumado una cantidad considerable de código de la API de OpenAI durante el otoño de 2024. Microsoft supuestamente informó a OpenAI de la violación en ese momento. El modelo R1 se anunció la semana pasada, lo que atrajo la atención sobre la empresa china de inteligencia artificial y sus partes asociadas.

DeepSeek también ha sido elogiado como una aplicación de inteligencia artificial de código abierto que cualquiera puede desarrollar. De aquí proviene gran parte del entusiasmo que rodea a la plataforma, además de su comparación con las mejores herramientas como ChatGPT y Google Gemini. OpenAI no es un servicio de código abierto; sin embargo, cualquiera puede registrarse para acceder a su API. La compañía deja claro en sus términos de servicios que otras entidades no pueden utilizar los resultados para entrenar otros modelos de IA, señaló TechCrunch .

Un portavoz de OpenAI dijo a Reuters que, independientemente de las regulaciones, ahora es algo común que varias empresas internacionales intenten copiar modelos de empresas conocidas en los EE. UU.

“Tomamos contramedidas para proteger nuestra propiedad intelectual, incluido un proceso cuidadoso para determinar qué capacidades de frontera incluir en los modelos lanzados, y creemos que, a medida que avanzamos, es de vital importancia que trabajemos estrechamente con el gobierno de los EE. UU. para proteger mejor la propiedad intelectual. "Los modelos más capaces se deben a los esfuerzos de adversarios y competidores por adoptar la tecnología estadounidense", dijo el portavoz.