Políticas de Uso -
Políticas de uso
Política de Segurança da Informação para o Uso de Inteligência Artificial
Baseamo-nos na Política de Governança de Inteligência Artificial e na Política Corporativa de Ética e Uso Responsável da IA..
O que buscamos?
Garantir a confidencialidade, integridade e disponibilidade das informações processadas por sistemas de IA, prevenindo riscos como acesso não autorizado, manipulação de dados ou uso indevido da tecnologia.
A quem se aplica?
A todos os colaboradores do Grupo Keralty e a terceiros que utilizem, desenvolvam ou interajam com ferramentas baseadas em IA.
Política Corporativa de Ética e Uso Responsável da Inteligência Artificial
Nosso objetivo é garantir que a IA seja utilizada de forma justa, transparente, responsável e com impacto positivo para as pessoas e a sociedade.
A quem se aplica?
A todas as soluções de IA que sejam projetadas, desenvolvidas, implementadas ou adquiridas pela Keralty, e a todos os colaboradores, fornecedores, parceiros estratégicos e terceiros envolvidos em projetos de inteligência artificial, em todas as etapas do ciclo de vida desses sistemas.
Política de Inovação e Gestão de Soluções de Inteligência Artificial
Nosso compromisso é que cada solução de IA seja auditável, explicável e confiável, promovendo uma cultura de melhoria contínua e uma gestão centralizada e integrada.
A quem se aplica?
A todas as soluções de IA, em qualquer fase do seu ciclo de vida, e a todas as pessoas, equipes e parceiros que participem do seu desenho, desenvolvimento, implementação ou uso dentro da organização.
Política de Governança de Inteligência Artificial
Seu propósito é assegurar que a inteligência artificial contribua para a melhoria dos serviços, a otimização de processos e o fortalecimento da tomada de decisões — sempre em coerência com nossos valores corporativos e objetivos estratégicos.
O que esta política estabelece?
- Princípios de uso ético, transparente e responsável.
- Papéis e responsabilidades bem definidos na gestão da IA.
- Processos para auditorias periódicas e monitoramento de resultados.
- Mecanismos para alinhar todas as iniciativas de IA à visão estratégica da Keralty.
A todas as soluções de IA e a todas as pessoas, equipes e terceiros envolvidos em seu desenho, desenvolvimento, implementação e operação, durante todo o ciclo de vida dos sistemas.
Perguntas Frequentes
Na Keralty, você pode esperar encontrar e usar diversas soluções de IA projetadas para otimizar processos, melhorar serviços e apoiar a tomada de decisões informadas, como as ferramentas Gemini para Workspace. Essas soluções são desenvolvidas ou adquiridas seguindo rigorosas diretrizes de qualidade, segurança e ética.
Sim, a Keralty conta com um marco normativo robusto para o uso da IA. Este inclui a ‘Política Corporativa de Governança de IA na Keralty’ (SIG-GD-CKE-PL09), a ‘Política Corporativa de Ética e Uso Responsável de IA na Keralty’ (SIG-GD-CKE-PL10), a ‘Política Corporativa de Segurança da Informação para IA’ (SIG-GD-CKE-PL11) e a ‘Política Corporativa de Inovação e Gestão de Soluções de IA’ (SIG-GD-CKE-PL12).
A Keralty segue princípios éticos fundamentais no uso da IA: Transparência, Equidade e Não Discriminação, Privacidade e Proteção de Dados, Responsabilidade, Segurança e Confiabilidade, e Impacto Social Positivo. Isso garante que nossas soluções sejam justas, compreensíveis e benéficas para a sociedade.
A segurança da informação é uma prioridade fundamental. A Keralty integra segurança e privacidade desde a fase de concepção dos sistemas de IA, aplicando os princípios de menor privilégio e necessidade de conhecimento. São realizadas avaliações de risco antes do uso de qualquer sistema de IA, em conformidade com políticas de proteção de dados, legislação vigente e normas como ISO/IEC TR 24028:2021 e ISO 42001:2023. Além disso, os eventos e incidentes de segurança são monitorados e gerenciados continuamente.
A Keralty está comprometida em mitigar vieses nos modelos de IA. É obrigatório realizar testes de viés e equidade em todas as etapas dos modelos operados ou desenvolvidos com IA (projeto, coleta de dados, implementação, avaliação). Os modelos são ajustados e revisados para evitar resultados discriminatórios ou injustos, garantindo a equidade e a não discriminação.
Sim. A Keralty promove a Transparência Algorítmica, que é a capacidade de explicar e compreender como um sistema de IA toma decisões. Os processos, algoritmos e decisões relacionados à IA devem ser documentados de forma clara e acessível, para que as partes interessadas possam entender como as decisões automatizadas são tomadas.
A responsabilidade pelas decisões relacionadas à IA é claramente atribuída aos responsáveis de cada área. Existe um comitê de governança de IA encarregado de garantir o cumprimento das políticas e tomar decisões estratégicas. A Keralty assume a responsabilidade pelos resultados gerados pelos sistemas de IA e estabelece mecanismos para lidar com possíveis erros ou impactos negativos.
A Keralty busca promover um ambiente de inovação contínua e gestão centralizada das ferramentas de IA. Isso inclui garantir o acesso a dados relevantes e recursos tecnológicos, estabelecer ambientes controlados para testes de conceito, incentivar a capacitação contínua da equipe, adotar abordagens iterativas e ágeis, e promover a colaboração multidisciplinar e interinstitucional.
Sim. A Keralty adere estritamente aos princípios de Privacidade e Proteção de Dados. Os dados utilizados para treinar e operar os modelos de IA são coletados, processados e armazenados de forma responsável, garantindo sua qualidade, precisão, segurança e confidencialidade, sempre em conformidade com as normas de proteção de dados pessoais (como a Lei 1581 de 2012 na Colômbia).
O desenvolvimento e o uso da IA são supervisionados por diversos papéis e comitês. O Comitê de Acompanhamento do Programa de IAs supervisiona a implementação da política e toma decisões estratégicas. A Gerência Corporativa de Segurança da Informação e o Gerente de Dados e Análises têm responsabilidades-chave para garantir a segurança, a qualidade e o uso responsável da IA.