El interés por la Inteligencia Artificial y su regulación en Venezuela, promovió que el Ministerio del Poder Popular para Ciencia y Tecnología (Mincyt), a través de la Dirección General de Desarrollo y Aplicación de Inteligencia Artificial (DGDAIA), presentara oficialmente el Código de Ética para el Desarrollo y Aplicación Responsable de la Inteligencia Artificial (IA), un documento que fija la hoja de ruta para el uso, investigación y despliegue de sistemas de IA en el país.

El texto establece nueve principios fundamentales, centrándose en una IA humanista, que debe buscar al ser humano y prevenir cualquier forma de daño.

El principio, fundamental, incluye el respeto a la autonomía humana, la prevención del daño físico, mental o social, el respeto a los derechos humanos, la defensa de la democracia y el Estado de derecho, la contribución a la calidad de vida definida por las propias personas, y enfatiza que la IA no debe manipular, coaccionar ni imponer ideologías o estilos de vida.

El segundo principio es la Equidad, igualdad y no discriminación, centrado en que la IA debe ser justa e inclusiva, con especial protección a grupos vulnerables como mujeres, niños, adolescentes y minorías. Exige diversidad en equipos de desarrollo, perspectiva de género, la no homogeneización cultural, la no segmentación de la población en burbujas informativas y el fomento de sociedades pacíficas y justas.

La Responsabilidad ambiental es la tercera, que ve a la IA como una herramienta que puede ayudar a enfrentar la crisis climática, pero que también genera impactos significativos.

La Seguridad se aborda en tres niveles: protección de datos, seguridad del modelo frente a manipulación y seguridad de la infraestructura física y digital.

La Privacidad se define como un derecho fundamental. En este punto el Código exige consentimiento informado, transparencia sobre el uso de datos, minimización de datos recolectados, derecho a acceso, rectificación, cancelación y oposición y la protección de datos estructurados y no estructurados, incluidos biométricos y médicos.

El sexto principio establece que los sistemas de IA deben ser comprensibles, explicables y auditables. Se enfatiza la trazabilidad de decisiones, especialmente en sectores críticos como salud y justicia. Además, itegra a la contraloría social como mecanismo para que la ciudadanía supervise y cuestione el funcionamiento de estos sistemas.

El último principio impulsa la investigación de vanguardia, la formación de talento humano y la colaboración entre academia, industria y Gobierno, para llevar la excelencia y que se convierta en un impulso en la calidad científica, ética y compromiso con el desarrollo nacional.

El Código sostiene que estos nueve principios no son meras recomendaciones, sino imperativos prácticos que deben integrarse en cada etapa del desarrollo tecnológico.

Su implementación busca alinear la IA con derechos humanos, equidad, transparencia, sostenibilidad y soberanía nacional.

Leave a comment

Trending