Regular la inteligencia artificial: un primer paso en propiedad industrial, muchos pendientes por delante

Artículos1 de octubre de 2025
La inteligencia artificial pasa de lo experimental a lo legal: una reforma histórica sancionará los abusos y la competencia desleal generada por algoritmos.

La Presidencia de México envió al Senado una iniciativa que busca reformar 217 artículos de la Ley Federal de Protección a la Propiedad Industrial, adicionar 23 y derogar 6, con el fin de regular, por primera vez, los usos de la inteligencia artificial en este ámbito. La propuesta reconoce que la IA puede emplearse para generar contenido engañoso, replicar marcas, copiar diseños industriales o aprovechar secretos comerciales, y busca cerrar los vacíos legales que hoy permiten que estos abusos queden impunes. El proyecto plantea sanciones de carácter administrativo y otorga nuevas facultades al Instituto Mexicano de la Propiedad Industrial (IMPI) para asegurar productos relacionados con estas prácticas.


Entre las medidas propuestas destaca la idea de reforzar las facultades del Instituto Mexicano de la Propiedad Industrial (IMPI) para actuar de forma preventiva. El organismo podría asegurar productos que estén vinculados con violaciones cometidas mediante el uso de IA, lo que representa un paso importante en dar respuesta rápida a los titulares de los derechos. Con esto se dotaría al IMPI de herramientas ágiles que permitan proteger marcas, patentes y diseños en un ecosistema donde la velocidad a la que avanza la tecnología comienza a superar la capacidad de reacción de la ley.


El enfoque en infracciones administrativas —y no en delitos— tiene un matiz relevante. Este diseño busca procedimientos más ágiles y sanciones de carácter económico, lo que puede resultar más efectivo que llevar los casos a instancias penales que suelen ser más largas y complejas. Sin embargo, la iniciativa también plantea una pregunta técnica compleja: ¿cómo se acredita que una infracción fue cometida mediante IA y no por métodos convencionales? Un diseño industrial copiado con IA puede ser indistinguible de uno copiado manualmente. Una marca falsificada mediante generación algorítmica puede parecer idéntica a una creada por un diseñador humano.


El IMPI enfrentará desafíos probatorios inéditos. Determinar si un logo fue generado por Midjourney, si un diseño industrial proviene de entrenamiento no autorizado de modelos, o si una invención fue 'inspirada' por datasets protegidos, requerirá peritajes tecnológicos sofisticados que hoy no existen en el instituto. La reforma otorga facultades de aseguramiento cautelar, pero ¿qué asegurar cuando la infracción está en el código, en los datos de entrenamiento, o en los prompts utilizados? Los inspectores necesitarán acceso a logs de sistemas, metadatos de archivos, historiales de prompts y arquitecturas de modelos. El IMPI deberá desarrollar capacidades forenses digitales específicas para IA, algo que ningún organismo mexicano ha hecho aún.


Más complejo aún, ¿cómo distinguir entre similitud coincidental y violación intencional cuando los modelos de IA pueden generar outputs similares sin acceso directo a obras protegidas? La carga de la prueba se vuelve un laberinto técnico-jurídico.


Esta complejidad probatoria no es exclusiva de México; está apareciendo en todas partes. En Europa, el AI Act ya montó un andamiaje que obliga más cuando el riesgo es mayor —por ejemplo en biometría, infraestructura crítica, educación, empleo o acceso a servicios esenciales— y exige controles reforzados a quienes desarrollan y usan estos sistemas.[1] En Estados Unidos, sin una ley federal integral, la vía ha sido de lineamientos y casos: la USPTO publicó criterios de inventorship para invenciones asistidas por IA (la patente es posible si hay contribución humana significativa) y ha advertido a la práctica sobre divulgar el papel de la IA al presentar solicitudes; además, los tribunales y oficinas han reiterado que la “máquina” no puede figurar como inventor.[2] Al mismo tiempo, la autoridad de consumo ha empezado a sancionar usos engañosos, por ejemplo, en agosto de 2025, la FTC demandó a Air AI por promesas infladas sobre crecimiento e ingresos ligados a su tecnología.[3]


De estos frentes salen dos lecciones prácticas para nuestro contexto: primero, que los estándares probatorios están tendiendo a pedir trazabilidad y responsabilidad humana identificable (quién hizo qué y con qué datos); segundo, que la gobernanza interna empieza a mirarse con lupa. En la práctica, eso apunta a marcos como el AI Risk Management Framework del NIST —voluntario pero cada vez más citado— y a sistemas de gestión tipo ISO/IEC 42001, que ordenan políticas, controles y auditorías sobre el ciclo de vida de la IA.[4]


Con ese mapa, el IMPI no parte de cero: puede apoyarse en la clasificación europea para calibrar riesgo y en la experiencia estadounidense para perseguir prácticas engañosas, mientras el sector privado adopta metodologías de gestión y prueba interna que faciliten, llegado el caso, acreditar el origen y la licitud de sus modelos.


Por otro lado, en nuestro país, la Suprema Corte de Justicia de la Nación, en la sentencia del amparo directo 6/2025, resolvió que, bajo la legislación mexicana vigente, las obras generadas por inteligencia artificial no pueden ser registradas como obras protegidas por derechos de autor, ya que la autoría está reservada exclusivamente a personas físicas. El caso analizado versó sobre la negativa del Instituto Nacional del Derecho de Autor (INDAUTOR) a registrar una obra gráfica generada por IA, decisión que fue confirmada por el Tribunal Federal de Justicia Administrativa y, finalmente, por la SCJN. La Corte sostuvo que tanto la Ley Federal del Derecho de Autor como los tratados internacionales aplicables (incluido el Convenio de Berna) reconocen únicamente a los seres humanos como sujetos de derechos de autor, excluyendo expresamente a entes artificiales. Asimismo, la SCJN enfatizó que la creatividad, originalidad y derechos morales y patrimoniales sobre las obras son prerrogativas inherentes a la naturaleza humana, por lo que no es posible reconocer derechos intelectuales a sistemas de IA. 


La iniciativa del gobierno de México da un paso necesario y el timing es oportuno, pero también marca apenas el inicio de una conversación más compleja y que debe ser también mucho más amplia. La inteligencia artificial se ha convertido en un actor transversal porque no sólo toca el terreno de marcas o diseños, entra ya en materia de datos personales, de derechos de autor, de responsabilidades civiles y hasta de garantías procesales. Limitar la conversación a un solo capítulo de la ley sería quedarse corto frente a una tecnología que permea prácticamente todas las ramas del derecho por lo que ampliar la discusión se vuelve una necesidad práctica para que México cuente con un marco coherente y actualizado.


Punto obligado es preguntarnos ahora si el gobierno y sus instituciones están preparados para este reto. Porque regular la inteligencia artificial no se reduce a aprobar leyes. Implica dotar a las autoridades de capacidades técnicas para auditar algoritmos, analizar datasets y evaluar peritajes tecnológicos que hasta hace poco eran impensables en un procedimiento administrativo. El desafío no es menor. En un mundo donde la prueba puede estar en un log de sistema o en los metadatos de un archivo, las instituciones deberán alcanzar un nivel de sofisticación forense que hoy no parece estar a su alcance.


Por todo esto resulta indispensable llevar el tema a la palestra legislativa de forma amplia y urgente. México necesita discutir con seriedad qué quiere de la inteligencia artificial, cómo la va a supervisar y qué recursos va a destinar para ello. Sin esa “potencia técnica”, cualquier reforma corre el riesgo de ser más un obstáculo que una solución. Una ley sin capacidad de ejecución no da certeza; por el contrario, genera inseguridad jurídica y frena la innovación que busca proteger. La discusión pública debe reconocer este punto: regular sí, pero con bases sólidas y herramientas suficientes para que la norma no se convierta en letra muerta.


Para las empresas, este nuevo escenario envía la clara señal de que el uso de IA sin controles internos puede derivar en consecuencias jurídicas serias, generando una necesidad, no nada más de evitar controversias legales, sino también de construir políticas internas de gobernanza tecnológica que alineen la innovación con la ética en un marco legal. Los líderes empresariales tienen que anticiparse a los riesgos, establecer protocolos de transparencia en el uso de algoritmos y trabajar de la mano con sus asesores legales para blindar sus operaciones.


En este nuevo escenario, los países y las compañías que logren equilibrar la creatividad tecnológica con el respeto a la ley serán los que marquen la pauta. La regulación, con el debido soporte técnico y tecnológico,  será la base que otorgará confianza para que la inteligencia artificial se convierta en un motor legítimo de competitividad y desarrollo global.



[1] EU AI Act: first regulation on artificial intelligence. The use of artificial intelligence in the EU is regulated by the AI Act, the world’s first comprehensive AI law. Find out how it protects you. (https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence)

[2] Examination guidance; request for comments. Department of Commerce Patent and Trademark Office - United States Patent and Trademark Office, Department of Commerce. (https://www.federalregister.gov/documents/2024/02/13/2024-02623/inventorship-guidance-for-ai-assisted-inventions)

[3] FTC Sues to Stop Air AI from Using Deceptive Claims about Business Growth, Earnings Potential, and Refund Guarantees to Bilk Millions from Small Businesses (https://www.ftc.gov/news-events/news/press-releases/2025/08/ftc-sues-stop-air-ai-using-deceptive-claims-about-business-growth-earnings-potential-refund)

Una mujer de perfil con una proyección en su rostro y un fondo desenfocado que muestra un ambiente moderno.
  • Inteligencia Artificial
Descargar en pdf

Socios relacionados

ACTUALIDAD #ECIJA