logo mentu -vb
  • Inicio
  • Acerca de
  • Productos
    • Matemáticas
    • Shaia
  • Contáctanos
  • Blog
  • ES
    • EN

Política de uso aceptable y desarrollo seguro de la IA

Objetivo.
Establecer los lineamientos, principios y procedimientos para el uso aceptable y el desarrollo responsable de la inteligencia artificial (IA) dentro de la organización. La política busca garantizar que el despliegue y la evolución de sistemas de IA se realicen de manera ética, transparente, segura y sostenible, alineándose con los valores y normativas nacionales e internacionales.
Alcance.
Esta política es de aplicación obligatoria para todos los empleados, contratistas, colaboradores y socios que participen en la utilización, desarrollo, implementación, mantenimiento y auditoría de sistemas de IA. Se extiende a todos los proyectos, productos y servicios que involucren la recolección, procesamiento o análisis de datos mediante técnicas de IA.
Principios éticos y de gobernanza.
Basados en el Marco Ético para la IA en Colombia[1] y en directrices de la Hoja de Ruta[2], los principios que rigen esta política son:
  • Transparencia y explicabilidad: Garantizar que los procesos, algoritmos y decisiones automatizadas sean comprensibles y comunicables tanto a usuarios internos como externos, sin comprometer la innovación o la propiedad intelectual.
  • Control humano: Asegurar que las decisiones críticas sean supervisadas y, en última instancia, aprobadas por personas, evitando la automatización total en contextos de alto riesgo. El flujo debe considerar Human-in-the-loop en todas sus fases.
  • Privacidad y protección de datos: Cumplir con la normativa vigente sobre tratamiento de datos personales, implementando mecanismos de anonimización y garantizando el consentimiento informado.
  • Seguridad y resiliencia: Desarrollar e implementar controles técnicos y organizativos que protejan la integridad, disponibilidad y confidencialidad de los sistemas de IA.
  • No Discriminación e inclusión: Prevenir sesgos y garantizar que los sistemas de IA promuevan la equidad, evitando cualquier forma de discriminación y favoreciendo la inclusión de grupos históricamente marginados.
  • Sostenibilidad y responsabilidad social: Asegurar que el desarrollo y uso de la IA contribuyan al bienestar social, económico y ambiental, priorizando soluciones que generen un beneficio colectivo.  
Uso aceptable de la IA.
  • La utilización de sistemas de IA deberá limitarse a fines que fortalezcan la productividad, la innovación y la toma de decisiones fundamentada en datos, respetando siempre los principios éticos definidos.
  • Las aplicaciones deben tener un reconocimiento en su capacidad para evitar o controlar la generación de respuestas maliciosas o muy sesgadas.
  • Se debe deshabilitar la opción de compartir información para entrenamiento de modelos, en caso de no disponerla verificar que los datos no se usen para entrenar el modelo. En caso tal de no disponer de estás opciones, evitar el uso de dicha aplicación. Está aplica para todas las áreas y formatos de trabajo de uso de la IA.
  • Su uso debe ser razonable, si el requerimiento se solventa fácilmente con una búsqueda en internet, priorizar este medio. Construir prompts con suficiente información para obtener la mejor respuesta con el menor número de iteraciones. 
  • En caso que la IA no considere la inclusión y diversidad considere técnicas de prompt que permitan obtener resultados más acordes. 
  • Queda estrictamente prohibido el uso de la IA para:
    • Realizar actividades ilegales, maliciosas o que vulneren derechos humanos.
    • Automatizar procesos críticos sin supervisión humana que pueda poner en riesgo la seguridad o la privacidad.
    • Manipular, discriminar o generar información engañosa que afecte negativamente a personas o comunidades.
Directrices para el desarrollo responsable de la IA.
El uso de estas herramientas debe estar guiado por los principios en sus diferentes etapas, procurando siempre el beneficio del usuario y la privacidad de sus datos.
  • El desarrollo de soluciones de IA debe incorporar desde su concepción etapas de evaluación ética, análisis de impacto (incluyendo análisis de sesgo y pruebas de robustez con humanos) y mecanismos de validación continua.
    • Se debe identificar qué tan variados y diversos son los resultados de la IA ante diferentes escenarios con respecto al objetivo a lograr.
    • No se debería disponer al usuario final productos que no cumplan con la calidad esperada.
  • Todo proyecto de IA deberá contar con una documentación completa que incluya:
    • La descripción del modelo (en caso de agentes y sistemas entrenados), algoritmos y datos utilizados. Para el caso de Mentu se alineará en los PRD (product requirements document).
    • Los procedimientos de validación y los mecanismos de control implementados.
    • Los criterios de evaluación y seguimiento para garantizar la transparencia , control y la trazabilidad de las decisiones automatizadas (si aplican).
    • Objetivo y justificación de la implementación.
    • La fuente de los datos en caso de realizar algún proceso de entrenamiento.
  • Se promoverá el uso de herramientas y metodologías de código abierto (mientras sean seguras), así como la adopción de estándares internacionales que faciliten la interoperabilidad, la seguridad y la gobernanza de la IA.
  • Se impulsará la formación de los equipos técnicos y de gestión en temas de ética, seguridad, privacidad y tendencias emergentes en IA, asegurando que el personal esté preparado para enfrentar nuevos desafíos.
    • Como lo puede ser OWASP AI top ten. Un registro que sobre las principales amenazas por áreas específicas el cual se actualiza anualmente.
  • Los productos desarrollados se probarán con personas en las diferentes fases y las decisiones automatizadas se valorarán igualmente.
  •  Priorizar el interés superior de niños y adolescentes. Evitar perfilamiento y garantizar consentimiento parental cuando haya datos personales de menores.
  • Formación continua y concientización sobre el uso seguro de la IA.
  • Los procesos de entrenamiento y adaptación de modelos deben realizarse con datos que no permitan la identificación de las personas y con fuentes de datos autorizados.
Roles y responsabilidades.
  • Alta dirección: Aprobar la política, asignar recursos y promover una cultura organizacional orientada a la innovación responsable.
  • Equipo de desarrollo y TI: Implementar y mantener los sistemas de IA conforme a los estándares técnicos y éticos definidos, así como las buenas prácticas.
  • Oficial de protección de datos: Supervisar el cumplimiento de los principios éticos, realizar evaluaciones de impacto y coordinar acciones de seguimiento ante desviaciones o incidentes. Se recomienda realizar este proceso con un equipo multidisciplinario.
  • Usuarios finales: Utilizar las soluciones de IA de manera responsable y reportar cualquier anomalía o comportamiento inesperado que pueda comprometer la seguridad, privacidad o equidad.
[1]Muñoz Rodríguez, V. M., & Londoño, C. C. (2021). Marco ético para la inteligencia artificial en Colombia (Versión 1). Departamento Administrativo de la Presidencia de la República.
[2]Ministerio de Ciencia, Tecnología e Innovación. (2024). Hoja de ruta para el desarrollo y aplicación de la inteligencia artificial en Colombia. Dirección de Desarrollo Tecnológico e Innovación.
footer-img
En Mentu creemos que la educación de calidad es un derecho universal. La tecnología, lejos de ser un obstáculo, es nuestra aliada para hacerla accesible a todos.
  • Inicio
  • Acerca de
  • Productos
    • Matemáticas
    • Shaia
  • Seguridad y Privacidad
  • Contáctanos
  • Blog

created with ♥︎ by Mentu.