• La Ley organiza los sistemas de IA en cuatro categorías: riesgo inaceptable, riesgo alto, riesgo limitado y riesgo mínimo.
  • La Ley de IA exige que se informe a los usuarios cuando interactúan con IA, especialmente en casos que involucran generación de contenido, procesamiento de datos biométricos o clasificación.
  • Las empresas que desarrollan o implementan sistemas de IA de alto riesgo deben implementar prácticas de gobernanza estrictas, incluidas evaluaciones de riesgos, mantenimiento de registros y registro de los sistemas de IA en una base de datos administrada por la UE.

 

Introducción

En un hito histórico, la Unión Europea (UE) aprobó recientemente la  Ley de IA , la primera regulación integral que rige el desarrollo y la implementación de la inteligencia artificial (IA). Esta legislación establece directrices claras para el uso de la IA, a la vez que busca proteger los derechos fundamentales. Para los actores clave de los sectores de la impresión y la digitalización de documentos, este cambio regulatorio presenta desafíos y oportunidades a medida que la IA se integra cada vez más en los flujos de trabajo de documentos, el reconocimiento de contenido y la automatización de datos. Este artículo presenta algunos aspectos destacados de la Ley de IA de la UE y explica por qué son importantes para su negocio.

Categorías de riesgo

La Ley clasifica los sistemas de IA en cuatro categorías: riesgo inaceptable, riesgo alto, riesgo limitado y riesgo mínimo. Aplicaciones como el reconocimiento facial, utilizado en la vigilancia pública, se consideran de «riesgo inaceptable», mientras que la IA en el procesamiento de documentos de RR. HH., los servicios financieros y el cumplimiento legal puede considerarse de «alto riesgo».

Esto es importante porque muchos flujos de trabajo de impresión e imágenes implican el procesamiento automatizado de documentos, la verificación de identidad y la extracción de datos. Estas funciones pueden clasificarse en categorías de alto riesgo, según el contexto. Las empresas actuales deben evaluar el cumplimiento normativo de sus soluciones y determinar qué sistemas requieren supervisión o certificación adicional.

Requisitos de transparencia

La Ley de IA exige que los usuarios sean conscientes de su interacción con la IA, especialmente en casos que impliquen la generación de contenido, el procesamiento o la clasificación de datos biométricos. Esto podría incluir la IA que genera texto automáticamente, resume contratos o utiliza el reconocimiento óptico de caracteres (OCR) combinado con la verificación de identidad.

Las soluciones que generan o manipulan documentos automáticamente deberán revelar claramente la participación de la IA. Si una plataforma ayuda a las organizaciones a clasificar, redactar o enrutar documentos confidenciales mediante IA, la transparencia para el usuario debe integrarse en la experiencia del usuario y en toda la documentación.

Obligaciones de los sistemas de alto riesgo

Las empresas que desarrollan o implementan sistemas de IA de alto riesgo deben implementar prácticas de gobernanza estrictas, que incluyen evaluaciones de riesgos, el mantenimiento de registros y el registro de los sistemas de IA en una base de datos gestionada por la UE. Las multas por incumplimiento son cuantiosas; pueden alcanzar hasta 35 millones de euros o el 7 % de los ingresos globales.

Si sus soluciones de impresión/imagen se utilizan en sectores regulados como la sanidad, las finanzas o los servicios públicos, podría estar sujeto a estos requisitos. El cumplimiento requerirá la colaboración entre los equipos técnico, legal y operativo, lo que también podría ser un factor diferenciador en licitaciones competitivas.

Un ejemplo del mundo real

Supongamos que un proveedor de servicios financieros utiliza OCR mejorado con IA para procesar contratos, facturas y documentos de cumplimiento escaneados. El sistema utiliza procesamiento de lenguaje natural para extraer cláusulas clave y detectar automáticamente posibles riesgos de incumplimiento. Este tipo de IA se considera de alto riesgo según la Ley de IA debido a su uso en la toma de decisiones financieras y el cumplimiento legal. Debe cumplir con las normas de transparencia, lo que significa que los usuarios deben saber que la IA revisa e interpreta sus documentos. Sin una supervisión y documentación adecuadas, la organización se arriesga a multas considerables por incumplimiento.

Desarrollos recientes y futuros

A continuación, se presenta un breve resumen de las actualizaciones recientes y de lo que se puede esperar de la Ley de IA de la UE durante los próximos dos años:

  • A principios de febrero de 2025, el primer conjunto de prácticas de IA prohibidas (como la puntuación social y la IA manipuladora) comenzaron a aplicarse.
  • En mayo de 2025, la UE publicó un Código de prácticas para herramientas de IA de propósito general, con orientación sobre transparencia, riesgo y derechos de autor.
  • El 2 de agosto de 2026 entrarán en vigor la mayoría de los requisitos principales para los sistemas de IA de alto riesgo, incluidas las normas de documentación, supervisión y registro.

La UE también está haciendo hincapié en la IA energéticamente eficiente y planteando preocupaciones sobre cómo las herramientas de IA utilizan contenido protegido por derechos de autor, lo que indica un impulso para un uso más responsable de la IA en todas las industrias.

El resultado final

La Ley de IA de la UE no es solo una obligación legal, sino una señal estratégica. Para las industrias de impresión e imagen de documentos, subraya la importancia de un diseño responsable de IA en la automatización, el reconocimiento de contenido y la transformación digital. Al alinearse proactivamente con estas normas, las empresas pueden fortalecer la confianza de los clientes, reducir los riesgos legales y mantenerse a la vanguardia en un mercado en rápida evolución. Ahora es el momento de auditar sus capacidades de IA, involucrar a equipos multifuncionales y comenzar a diseñar una hoja de ruta de IA que sea innovadora y cumpla con las normativas.

Como analista principal en Keypoint Intelligence, Lisa Brown ha desempeñado un papel crucial en la mejora del rendimiento de los clientes, liderando proyectos de investigación dentro del grupo de consultoría y contribuyendo al equipo de servicios de asesoría. Se dedica a comprender y abordar las necesidades de los clientes, desarrollando estrategias diseñadas para maximizar su potencial. Con más de una década de experiencia en el sector de la tecnología para el entorno laboral, la Sra. Brown se destaca por ofrecer información práctica que prepara a los clientes para el éxito.