La guerra fría de la IA ha comenzado, pero ¿estamos perdiendo el punto?
En Resumen
La emergente “Guerra Fría de la IA”, resaltada por presuntos ataques de destilación a Claude LLM de Anthropic, subraya los riesgos crecientes para la propiedad intelectual, la seguridad nacional y el despliegue ético de la IA, al tiempo que provoca un debate sobre el desarrollo descentralizado versus el desarrollo aislado de la IA.
Era inevitable. Pero aun así, las primeras oleadas de la emergente "Guerra Fría de la IA" siguen siendo inquietantes, poniendo en tela de juicio las protecciones que las empresas tienen implementadas, nuestra capacidad para proteger la propiedad intelectual de forma fiable contra actores maliciosos y cómo esta guerra fría podría intensificarse. Sin embargo, sobre todo, debería impulsar un debate sobre cómo valoramos la IA, qué problemas queremos que resuelva y quién debería, en última instancia, controlar el mayor potencial revolucionario del mundo.
La Guerra Fría en acción
Entonces, ¿qué pasó exactamente? Según varios... (aqui)Anthropic AI reveló públicamente que había estado en el centro de una acción invasiva sostenida por parte de tres laboratorios chinos de IA: DeepSeek, Moonshot AI y MiniMax. En lugar de acceder directamente al centro de datos de Anthropic, estos laboratorios supuestamente crearon hordas de bots inteligentes que, en esencia, utilizaban el Claude LLM de Anthropic para extraer información que luego podían usar para mejorar sus propios modelos.
Más específicamente, las oleadas de ataques utilizaron una forma de espionaje llamada "destilación". En esencia, esto ocurre cuando una cuenta puede formular a un LLM como Claude muchas preguntas diferentes y específicas, y luego usar las respuestas para comprender mejor cómo funciona el modelo de IA. Esto permite al atacante actualizar sus propios modelos con esta nueva información. En el caso de estos ataques recientes, Anthropic declaró que el ataque fue masivo, abarcando más de 16 millones de intercambios entre más de 24 000 cuentas y Claude, registrando los resultados y desarrollando información clave sobre cómo piensa y se comporta el modelo. Según El anuncio de AnthropicTres empresas chinas estuvieron involucradas. Utilizando cuentas fraudulentas camufladas en servicios proxy, el objetivo aparente de las empresas era obtener el máximo conocimiento intelectual sobre Claude, especialmente en las áreas donde el modelo de IA es más sólido. DeepSeek se centró en áreas como la capacidad de razonamiento, las tareas de calificación con rúbricas y una mejor comprensión de cómo eludir la censura en temas política y socialmente sensibles. Moonshot AI se centró en el razonamiento agéntico, la codificación y los procesos de visión artificial. MiniMax se centró en la codificación agéntica de Claude, así como en el uso de herramientas por parte de los agentes de IA.
Para ser claros, las empresas chinas ya tienen prohibido usar Claude debido a diversos riesgos (la destilación es uno de ellos). Las empresas utilizaban proxies que operaban miles de cuentas de bots intercaladas con solicitudes de cuentas válidas, lo que dificultaba la detección de las numerosas cuentas de bots y hacía casi imposible cerrarlas todas, ya que no tenían un origen común evidente. Este fallo debería haber sido una sólida primera línea de defensa, pero en cambio fue fácilmente eludido. Si bien Claude ha anunciado contramedidas para este tipo de ataque, su eficacia aún no está demostrada.
¿Qué significa esto para la IA?
Lo irónico es que estas empresas no hackearon a Claude directamente. En cambio, crearon una gran cantidad de bots para usarlo eficazmente de forma específica. En cierto modo, estos bots jugaron a las "20 preguntas" con Claude, pero en lugar de adivinar la respuesta correcta, cada respuesta que daba Claude proporcionaba cada vez más información sobre su forma de pensar.
Ya sea violando un firewall o creando bots para interactuar con Claude según lo previsto, el resultado fue un robo de propiedad intelectual. En los diversos casos, las empresas infractoras probablemente pudieron obtener información valiosa sobre Claude, un modelo de IA increíblemente complejo. Esto podría brindar a un competidor la información suficiente para construir su propio modelo, evitando así las enormes tareas de búsqueda, organización y almacenamiento de los datos necesarios para entrenarlo. En cambio, estas empresas supuestamente obtuvieron la propiedad intelectual sin realizar ningún trabajo real.
Pero los riesgos van mucho más allá del robo de propiedad intelectual. Los modelos destilados pueden actuar como modelos correctamente entrenados la mayor parte del tiempo, pero un entrenamiento inadecuado crea importantes deficiencias en el razonamiento y el uso de herramientas de un modelo destilado. Puede construirse sin las salvaguardas necesarias, lo que podría revelar información confidencial, además de proporcionar información peligrosa a los usuarios, lo que les perjudicaría. Además, comprender cómo funciona un modelo como Claude podría generar riesgos para la seguridad nacional, ya que un actor malicioso podría alimentarlo con datos de entrenamiento de tal manera que se comportara de manera predecible, lo que le permitiría manipular los resultados. Dado que Anthropic y otros gigantes de la IA están negociando acuerdos con el Departamento de Defensa, esto tiene implicaciones preocupantes.
Aunque Anthropic ha anunciado que ha aprendido de esto, la Guerra Fría de la IA ha comenzado y solo puede intensificarse. Los actores maliciosos encontrarán la manera de evadir sus contramedidas, Anthropic responderá y la carrera armamentística continuará. En última instancia, esto crea vulnerabilidades para las empresas de IA que invierten en el entrenamiento correcto de modelos, pero también desalienta las grandes inversiones necesarias para ello si una empresa rival puede intervenir y aplicar ingeniería inversa a esa propiedad intelectual sin invertir el tiempo ni el dinero necesarios.
¿Se puede detener? ¿Debería?
Dada la naturaleza de este tipo de escaladas, es probable que esto se convierta en una realidad en la competencia global de la IA. Dicho esto, existen argumentos para eludir por completo la guerra fría de la IA. Los gigantes mundiales de la IA se centran en proteger su trabajo y en vigilar rigurosamente cualquier tipo de propiedad intelectual. Esto, naturalmente, coloca un poder masivo en manos de unos pocos, generando un desequilibrio masivo en la dinámica de poder global.
Una creciente alianza de actores de IA, llamada Alianza ASIHan sugerido que, en lugar de construir silos indefendibles de propiedad intelectual, quizás el mundo podría construir una IA aún más sólida mediante el uso de una IA abierta y descentralizada. La Alianza ASI trabaja para impulsar el desarrollo de la IA descentralizada, basándose en datos, análisis y herramientas (como los LLM centrados en el desarrollador y los marcos de agentes), y sostiene que la IA es una tecnología destinada a alcanzar el máximo éxito si sus capacidades están disponibles para todos. Esto contradice el proteccionismo de la propiedad intelectual, pero evita el deseo de las empresas de buscar formas de robar modelos, datos e innovación. Incluso una industria como la IA, si estuviera descentralizada y disponible para todos, crearía un entorno muy fértil para la innovación en protección y las inversiones que realmente pueden protegerse.
Conclusión
Antes de que la Guerra Fría de la IA siga intensificándose, deberíamos considerar no cómo fortalecer la protección de nuestra propia propiedad intelectual, sino cómo evitar la necesidad de innovaciones aisladas. La IA descentralizada podría convertirse en el futuro, ya que la propiedad intelectual de IA aislada se enfrenta a numerosas amenazas, creando una base estable para su posterior desarrollo, intercambio y generación de ingresos de una manera crucialmente diferente.
Renuncia de responsabilidad:
En línea con la Directrices del Proyecto Confianza, tenga en cuenta que la información proporcionada en esta página no pretende ser ni debe interpretarse como asesoramiento legal, fiscal, de inversión, financiero o de cualquier otro tipo. Es importante invertir sólo lo que pueda permitirse perder y buscar asesoramiento financiero independiente si tiene alguna duda. Para mayor información sugerimos consultar los términos y condiciones así como las páginas de ayuda y soporte proporcionadas por el emisor o anunciante. MetaversePost se compromete a brindar informes precisos e imparciales, pero las condiciones del mercado están sujetas a cambios sin previo aviso.
Sobre el autor
Gregory, un nómada digital procedente de Polonia, no sólo es un analista financiero sino también un valioso colaborador de varias revistas online. Con una gran experiencia en la industria financiera, sus conocimientos y conocimientos le han valido el reconocimiento en numerosas publicaciones. Utilizando su tiempo libre de manera efectiva, Gregory se dedica actualmente a escribir un libro sobre criptomonedas y blockchain.
Más artículos
Gregory, un nómada digital procedente de Polonia, no sólo es un analista financiero sino también un valioso colaborador de varias revistas online. Con una gran experiencia en la industria financiera, sus conocimientos y conocimientos le han valido el reconocimiento en numerosas publicaciones. Utilizando su tiempo libre de manera efectiva, Gregory se dedica actualmente a escribir un libro sobre criptomonedas y blockchain.



