Bogotá reglamenta el uso de IA en la administración: esto sí pueden hacer los funcionarios
La capital colombiana acaba de establecer reglas claras sobre cómo los funcionarios públicos pueden usar herramientas de inteligencia artificial en su trabajo diario. El marco normativo permite usar IA para tareas rutinarias como redactar textos o resumir información, pero prohíbe que la tecnología participe en decisiones administrativas o afecte derechos de los ciudadanos. La protección de datos sensibles y la transparencia son pilares fundamentales de estos lineamientos.
Bogotá acaba de poner orden en un tema que está revolucionando el sector público en todo el mundo: cómo los funcionarios deben usar la inteligencia artificial en su trabajo diario. A través del Acuerdo 003 de 2025 de la Comisión Distrital de Transformación Digital, la ciudad estableció reglas claras que definen qué pueden y qué no pueden hacer los servidores públicos con herramientas tipo ChatGPT. El objetivo es que la IA funcione como un asistente útil, nunca como un reemplazo de la responsabilidad humana ni como quien toma decisiones importantes.
El llamado Decálogo del Uso Cotidiano de IA en el Distrito es bastante práctico. Permite que los funcionarios utilicen estas herramientas para hacer más ágil su trabajo: redactar, resumir o corregir textos, organizar datos y clasificar información básica. También pueden usarlas para hacer cálculos simples, preparar insumos para informes y presentaciones, o buscar conceptos técnicos básicos. En otras palabras, todo lo que te ayuda a ser más productivo sin que la máquina sea quien decide o crea contenido importante.
Pero hay límites bien marcados. La inteligencia artificial está terminantemente prohibida para elaborar conceptos legales, dictámenes técnicos o para motivar actos administrativos que afecten a los ciudadanos. Tampoco puede usarse para asignar recursos públicos ni para reemplazar labores que requieren supervisión y evaluación de personas. La regla de oro es que "la IA no genera responsabilidad autónoma ni sustituye la responsabilidad funcional", según destaca el documento oficial de la Oficina Consejería Distrital de TIC.
Uno de los puntos más importantes tiene que ver con la protección de datos. Está absolutamente prohibido meter información personal, sensible o documentos clasificados en plataformas de IA públicas. Si una dependencia necesita usar estas herramientas con información restringida, debe obtener autorización técnica, usar entornos cerrados aprobados institucionalmente y aplicar protocolos de anonimización (es decir, remover los datos que identifiquen a las personas). En pocas palabras: los datos privados de los bogotanos no pueden salir por la puerta de atrás hacia sistemas de IA abiertos.
La transparencia es otro pilar fundamental de esta regulación. Si la IA tuvo un papel importante en la elaboración de un documento oficial, el funcionario debe dejarlo documentado en el expediente del proceso, especificando qué herramienta se usó, qué tipo de apoyo recibió y en qué medida intervino un humano en la decisión final. Cuando haya duda sobre la veracidad de lo que generó el algoritmo, el funcionario está obligado a verificar con fuentes oficiales y consultar con especialistas antes de validar cualquier contenido.
Aunque el decálogo no detalla un procedimiento disciplinario específico para quienes incumplan las reglas más allá de la responsabilidad funcional, la intención es clara: la IA en Bogotá debe ser una herramienta al servicio de la administración pública, no un atajo para evadir responsabilidades. El criterio humano sigue siendo el que manda.
Fuente original: Impacto TIC
