Es innegable el rápido y profundo progreso que la Inteligencia Artificial nos ofrece. No obstante, se ha de expresar la preocupación que suscitan dichos sistemas, ostentando capacidades que podrían llegar a menoscabar elementos tales como la autonomía individual o las libertades fundamentales.
La IA no solo nos ofrece un gran potencial para mejorar la forma de vida de los individuos y aumentar la productividad de las organizaciones, sino que también nos traslada a un paradigma de riesgos que conllevan una importante responsabilidad. Así, se plantean desafíos en lo tocante con la ética, la gobernanza, el cumplimiento o incluso con cuestiones reputacionales. Aspectos que las organizaciones deben adoptar como premisa al planificar sus estrategias de IA.
Y, en aras de abordar la creciente demanda de desarrollar e implementar soluciones de IA que generen impactos positivos maximizando los beneficios y minimizando los riesgos, es esencial mantener un enfoque constante en la confianza y de seguridad jurídica, como pieza clave del desarrollo de esta nueva tecnología disruptiva. Utilizando las palabras del Tribunal Constitucional:
“la claridad y no la confusión normativa, se debe procurar que acerca de la materia sobre la que legisle sepan los operadores jurídicos y los ciudadanos a qué atenerse, y se debe huir de provocar situaciones objetivamente confusas (…). Hay que promover y buscar la certeza respecto a qué es Derecho y no provocar juegos y relaciones entre normas como consecuencia de las cuales se introducen perplejidades difícilmente salvables respecto a la previsibilidad de cuál sea el Derecho aplicable, cuáles las consecuencias derivadas de las normas vigentes, incluso cuáles sean estas.
(STC 46/90 de 15 de Marzo).
Al generar seguridad jurídica se crea confianza en los operadores económicos, dotándoles de perspectivas razonables de actuación, lo que los anima a seguir adelante con proyectos de esta naturaleza.
La ética es crucial en la IA responsable, y, en consecuencia, las soluciones deben ser abordadas desde el diseño y por defecto desde una perspectiva ética y transparente, incorporando desde el inicio la privacidad y la gobernanza efectiva de los datos. No obstante, la realidad revela que, para una gran parte del ecosistema de IA, estas cuestiones no ocupan un lugar prioritario.
Alcanzado el acuerdo sobre el Reglamento de Inteligencia Artificial, se logra un hito importante hacia la regulación de la IA. Y, aunque aún está pendiente de confirmación, esta normativa será de aplicación directa para todos los estados miembros, fundándose en un enfoque basado en el riesgo y estableciendo un régimen supervisor y sancionador. Las multas por incumplimiento podrían alcanzar hasta los 35 millones de euros o el 7% de facturación anual global del ejercicio anterior. Sin embargo, y con ocasión de la multitud de obligaciones que ofrece, cuenta con un periodo de adaptación significativo. Dada la premura con la que avanza la tecnología, es esencial que los actores involucrados comiencen sus procesos de implementación.
Asimismo, la Comisión Europea ha lanzado una iniciativa para fomentar la adecuación voluntaria de procesos y prácticas por parte de las empresas. Este pacto busca el compromiso anticipado de las empresas hacia la Ley de IA, reconociendo la urgencia y necesidad de aplicación. En este mismo contexto, el Consejo de Europa está elaborando un convenio enfocado al desarrollo, diseño y aplicación de sistemas de IA. Este convenio establecerá medidas como la rendición de cuentas y las responsabilidades derivadas de las actividades vinculadas con la IA.
Frente a los desafíos suscitados por la IA, así como la imperiosa necesidad de anticiparse a las exigencias normativas, se hace evidente la urgencia de adoptar una gestión especializada. Ante interrogantes como la responsabilidad en caso de decisiones incorrectas por parte de la IA o la necesidad de identificar y mitigar los sesgos, resulta esencial contar con sistemas de gestión de mejora continua específicos para la IA. Esto implica aspectos como la definición de marcos éticos, la determinación de principios y políticas internas, la evaluación de riesgos, la implementación de mecanismos de transparencia y responsabilidad, así como la formación en IA responsable. Las organizaciones pueden también apoyarse en normas como la reciente ISO/IEC 42001, que presenta el primer estándar certificable para el desarrollo y la implementación segura y fiable de la IA.
La IA responsable nos ofrece un horizonte prometedor, si bien es importante recordar que la toma de decisiones recae en nuestra responsabilidad. Los equipos de desarrollo de IA deben contar con profesionales que provengan del ámbito de las humanidades y del derecho para defender que los derechos de las personas sean la clave de bóveda de los algoritmos.
Un artículo de Gonzalo De Salas Claver (Abogado y Gerente de Derecho Digital en SIA) y Marta Tardío Tomeno (Abogada de Derecho Digital en SIA).
Peter Drucker dijo: “La cultura se come como desayuno a la estrategia”. La cultura traduce cualquier estrategia en acciones y comportamientos que producen los resultados, por lo que es innegable su impacto en cualquier transformación empresarial.
Durante los últimos meses se ha vivido una revolución más que evidente en el ámbito del procesamiento del lenguaje natural. Con asombro hemos visto cómo parece que una máquina es capaz de hablar con nosotros como si fuera un humano, logrando superar con creces el test de Turing.
Los procesos de negocio y de gestión TI se componen de dos elementos clave para su ejecución: la tecnología y las personas.
La inteligencia artificial está transformando el desarrollo de software a gran velocidad.