Políticas de uso -
Políticas de uso
Política de Seguridad de la Información para el Uso de Inteligencia Artificial
Nos basamos en la Política de Gobierno de Inteligencia Artificial, la Política Corporativa de Ética y Uso Responsable de IA.
¿Qué buscamos?
Garantizar la confidencialidad, integridad y disponibilidad de la información procesada por sistemas de IA, previniendo riesgos como el acceso no autorizado, la manipulación de datos o el mal uso de la tecnología.
¿A quién aplica?
A todos los colaboradores del Grupo Keralty y a terceros que utilicen, desarrollen o interactúen con herramientas basadas en IA.
Política corporativa de ética y uso responsable de la Inteligencia Artificial
Nuestro objetivo es garantizar que la IA se utilice de forma justa, transparente, responsable y con un impacto positivo para las personas y la sociedad.
¿A quién aplica?
A todas las soluciones de IA que sean diseñadas, desarrolladas, implementadas o adquiridas por Keralty, y a todos los empleados, proveedores, socios estratégicos y terceros involucrados en proyectos de inteligencia artificial, en todas las etapas del ciclo de vida de estos sistemas.
Política de Innovación y Gestión de Soluciones de Inteligencia Artificial
Nuestro compromiso es que cada solución de IA sea auditable, explicable y confiable, promoviendo una cultura de mejora continua y una gestión centralizada e integrada.
¿A quién aplica?
A todas las soluciones de IA, en cualquier fase de su ciclo de vida, y a todas las personas, equipos y aliados que participen en su diseño, desarrollo, implementación o uso dentro de la organización.
Política de Gobierno de Inteligencia Artificial
Su propósito es asegurar que la inteligencia artificial contribuya a mejorar los servicios, optimizar procesos y fortalecer la toma de decisiones, siempre en coherencia con nuestros valores corporativos y objetivos estratégicos.
¿Qué establece esta política?
- Principios de uso ético, transparente y responsable.
- Roles y responsabilidades claras en la gestión de IA.
- Procesos para auditorías periódicas y monitoreo de resultados.
- Mecanismos para alinear todas las iniciativas de IA con la visión estratégica de Keralty.
A todas las soluciones de IA y a todas las personas, equipos y terceros involucrados en su diseño, desarrollo, implementación y operación, durante todo el ciclo de vida de los sistemas.
Preguntas frecuentes
En Keralty, puedes esperar encontrar y usar diversas soluciones de IA diseñadas para optimizar procesos, mejorar servicios, apoyar la toma de decisiones informadas como son las herramientas de Gemini para Workspace. Estas soluciones se desarrollan o adquieren siguiendo estrictos lineamientos de calidad, seguridad y ética.
Sí, Keralty cuenta con un marco normativo robusto para el uso de la IA. Este incluye la 'Política Corporativa de Gobierno de IA en Keralty' (SIG-GD-CKE-PL09), la 'Política Corporativa de Ética y Uso Responsable de IA en Keralty' (SIG-GD-CKE-PL10), la 'Política Corporativa de Seguridad de Información para la IA' (SIG-GD-CKE-PL11) y la 'Política Corporativa de Innovación y Gestión de Soluciones de IA' (SIG-GD-CKE-PL12).
Keralty se rige por principios éticos fundamentales en el uso de la IA: Transparencia, Equidad y No Discriminación, Privacidad y Protección de Datos, Responsabilidad, Seguridad y Confiabilidad, e Impacto Social Positivo. Esto asegura que nuestras soluciones sean justas, comprensibles y beneficien a la sociedad.
La seguridad de la información es primordial. Keralty integra la seguridad y la privacidad desde el diseño de los sistemas de IA, aplicando principios de mínimo privilegio y necesidad de conocer. Se realizan evaluaciones de riesgo antes de usar cualquier sistema de IA y se cumplen con políticas de protección de datos, legislación vigente y estándares como ISO/IEC TR 24028:2021 e ISO 42001:2023. Además, se monitorean y gestionan los eventos e incidentes de seguridad.
Keralty se compromete a mitigar sesgos en los modelos de IA. Es obligatorio realizar pruebas de sesgo y equidad de los modelos operados o creados con IA en todas sus etapas (diseño, recolección de datos, implementación, evaluación). Los modelos son ajustados y revisados para evitar resultados discriminatorios o injustos, garantizando la equidad y no discriminación.
Sí. Keralty promueve la Transparencia Algorítmica, que es la capacidad de explicar y comprender cómo un sistema de IA toma decisiones. Los procesos, algoritmos y decisiones relacionadas con la IA deben documentarse de manera clara y accesible para que las partes interesadas puedan comprender cómo se toman las decisiones automatizadas.
La responsabilidad en la toma de decisiones relacionadas con la IA es claramente asignada a los responsables de cada área. Existe un comité de gobernanza de IA encargado de velar por el cumplimiento de las políticas y tomar decisiones clave. Keralty asume la responsabilidad de los resultados generados por los sistemas de IA y establece mecanismos para abordar posibles errores o impactos negativos.
Keralty busca promover un entorno de innovación continua y gestión centralizada de herramientas de IA. Esto incluye garantizar el acceso a datos relevantes y recursos tecnológicos, establecer entornos controlados para pruebas de concepto, fomentar la capacitación continua del personal, adoptar enfoques iterativos y ágiles, y promover la colaboración multidisciplinaria e interinstitucional.
Sí. Keralty se adhiere estrictamente a la 'Privacidad y Protección de Datos'. Los datos utilizados para entrenar y operar los modelos de IA son recogidos, procesados y almacenados de manera responsable, asegurando su calidad, precisión, seguridad y confidencialidad, y respetando siempre las normativas de protección de datos personales (como la Ley 1581 de 2012 en Colombia).
El desarrollo y uso de la IA son supervisados por varios roles y comités. El Comité de Seguimiento del Programa de IAs supervisa la implementación de la política y toma decisiones estratégicas. La Gerencia Corporativa de Seguridad de la Información y el Gerente de Datos y Analítica tienen responsabilidades clave en garantizar la seguridad, calidad y el uso responsable de la IA.