{"id":1579,"date":"2025-07-15T16:59:24","date_gmt":"2025-07-15T16:59:24","guid":{"rendered":"https:\/\/noticieroaustral.com\/?p=1579"},"modified":"2025-07-15T16:59:24","modified_gmt":"2025-07-15T16:59:24","slug":"minsait-lanza-una-propuesta-integral-para-preparar-a-las-empresas-ante-la-ley-europea-de-inteligencia-artificial-la-razon","status":"publish","type":"post","link":"https:\/\/noticieroaustral.com\/?p=1579","title":{"rendered":"Minsait lanza una propuesta integral para preparar a las empresas ante la ley europea de Inteligencia Artificial \u2013 La Raz\u00f3n"},"content":{"rendered":"
\n<\/p>\n
<\/p>\n
Minsait, compa\u00f1\u00eda del grupo Indra, presenta AI ACTion, una propuesta a las organizaciones para que la adopci\u00f3n de la IA en sus operaciones y procesos cumpla con la legislaci\u00f3n europea sobre inteligencia artificial \u2013la conocida como AI Act<\/em>\u2013 sin perder capacidad innovadora.<\/p>\n Aprobada en marzo de 2024 y en vigor desde agosto de ese mismo a\u00f1o, la normativa aplicable en la UE \u2013tanto en compa\u00f1\u00edas europeas como en aquellas que operan en los Estados miembros\u2013 establece una serie de requisitos de obligado cumplimiento y aplicaci\u00f3n paulatina.<\/p>\n Desde el pasado mes de febrero y seg\u00fan la normativa, que contempla multas de hasta el 7% de los ingresos de las empresas infractoras, los sistemas de IA que utilizan algunas de las pr\u00e1cticas prohibidas por el reglamento europeo deb\u00edan caer en desuso y las compa\u00f1\u00edas han de contar con un plan de alfabetizaci\u00f3n y concienciaci\u00f3n. A partir de agosto, se aplicar\u00e1n las obligaciones para los sistemas de inteligencia artificial de prop\u00f3sito general como los modelos extensos de lenguaje (LLM), que tienen gran capacidad para imitar el razonamiento humano.<\/p>\n En agosto de 2026, con la exigencia de los requisitos correspondientes a algunos sistemas de alto riesgo \u2013aquellos que puedan representar una amenaza a la seguridad o los derechos humanos\u2013, concluir\u00e1 su implantaci\u00f3n y la AI Act<\/em> ser\u00e1 una realidad para todas las organizaciones, sectores de actividad y niveles de adopci\u00f3n y desarrollo de la inteligencia artificial.<\/p>\n En medio de este escenario, AI ACTion pretende guiar a las compa\u00f1\u00edas para entender el nivel de vulnerabilidad \u00e9tica de sus sistemas de IA, conocer las obligaciones legales que les corresponden y, especialmente, poder evolucionarlas a pr\u00e1cticas concretas dentro de la organizaci\u00f3n sin que represente una merma en su competitividad.<\/p>\n La metodolog\u00eda de Minsait consta de tres fases. La primera de ellas contempla el an\u00e1lisis individualizado de los sistemas de IA de los que dispone una compa\u00f1\u00eda o instituci\u00f3n, estudiando sus datos, t\u00e9cnicas, l\u00f3gicas, contexto e impacto, y asegurando que incluye toda la informaci\u00f3n que exige la normativa.<\/p>\n Este an\u00e1lisis permite al equipo de expertos en IA Responsable de Minsait cruzar la informaci\u00f3n obtenida sobre dichos activos con los niveles de riesgo contemplados en la legislaci\u00f3n europea a fin de establecer categor\u00edas basadas en el impacto del sistema de IA desde el punto de vista de la \u00e9tica y la responsabilidad.<\/p>\n A continuaci\u00f3n, la empresa que accede al servicio dispone de un itinerario de pr\u00e1cticas de cumplimiento en el uso de la inteligencia artificial dentro de su organizaci\u00f3n, incluidos controles rutinarios en materia de privacidad, gobierno del dato o transparencia. Estos itinerarios se concretan en acciones particulares que atienden a las especificidades de cada sistema IA, facilitando la implementaci\u00f3n de las pr\u00e1cticas exigidas por AI Act<\/em>.<\/p>\n En tercer lugar y considerando el trabajo previo, desde Minsait plantean a cada empresa la combinaci\u00f3n de componentes t\u00e9cnicos o herramientas que permitan incrementar la trazabilidad, pertinencia y facilidad de uso para todos los gestores de la IA dentro de la organizaci\u00f3n.<\/p>\n Por otra parte y como resultado de la alianza de Minsait con Adigital (Asociaci\u00f3n Espa\u00f1ola de la Econom\u00eda Digital), AI ACTion ofrece a las organizaciones la posibilidad de demostrar el cumplimiento de las obligaciones establecidas por la normativa europea a los sistemas de riesgo reducido y riesgo alto gracias al primer Certificado de Transparencia Algor\u00edtmica de Espa\u00f1a, dise\u00f1ado por Adigital y reconocido por la OCDE dentro de su cat\u00e1logo de herramientas confiables de inteligencia artificial. Asimismo, dentro del marco AI ACTion, Minsait y Adigital tambi\u00e9n han creado un Certificado de Neutralidad de reciente lanzamiento al mercado.<\/p>\n Obligaciones inminentes<\/strong><\/p>\n \u201cEl gran reto de las organizaciones es traducir la normativa a pr\u00e1cticas concretas, lo que requiere el apoyo de aceleradores, con los que ya contamos, y un cambio cultural\u201d, explica Leticia G\u00f3mez Rivero, responsable de Estrategia y Gobierno de IA en Minsait. \u201cPor eso es tan importante el trabajo que estamos desarrollando desde AI ACTtion y que tiene foco en tres elementos: estrategia, acciones y herramientas que sustenten las buenas pr\u00e1cticas\u201d, a\u00f1ade.<\/p>\n Por su parte, C\u00e9sar Tello, director general de Adigital, se\u00f1ala que \u201cla transparencia algor\u00edtmica es fundamental para construir confianza en los sistemas de IA. A trav\u00e9s del certificado que hemos desarrollado en Adigital, las empresas podr\u00e1n alinearse con los requisitos regulatorios, fortalecer su competitividad y operar de manera responsable y diferenciada en mercados con expectativas crecientes sobre transparencia y explicabilidad algor\u00edtmica\u201d.<\/p>\n<\/p>\n
<\/p>\n