Medellín, Colombia. 6 de abril, 2022.

Conversaciones para una Política de Inteligencia Artificial ética en Colombia


Por Santiago Uribe Sáenz

English Version

FERNANDO BOTERO, THE STREET, 2013, OIL ON CANVAS.
GALERIE GMURZYNSKA

Desde las redes sociales y los servicios de streaming, pasando por los puestos de control migratorio con biometría y hasta herramientas de diagnóstico médico y aplicaciones en nuestros teléfonos inteligentes, los algoritmos y los programas que hacen uso de sistemas de inteligencia artificial (IA) poseen tal capacidad cognitiva que en algunos aspectos supera nuestras capacidades humanas. El uso de estas tecnologías se ha vuelto indispensable y viene desde hace años transformando nuestras relaciones con la tecnología, gobiernos y ciudades. El potencial económico, de innovación, de desarrollo y de transformación del trabajo es tal que esta transformación digital ha sido llamada la Cuarta Revolución Industrial. Por ello, no sorprende que el mundo está mirando hacia la IA como una nueva frontera económica con el potencial de crecimiento económico para los países. En los últimos años las principales economías del mundo (Unión Europea, Estados Unidos, China, etc.) han desarrollado estrategias nacionales y planes para fomentar e innovar en IA. El potencial de beneficios es enorme.

La IA tiene el potencial de transformar la mayoría de sectores productivos de la economía, atraer inversión, generar empleos calificados, vender servicios a millones de personas y permitir el acceso a la información y a los beneficios de la tecnología. En Colombia, por ejemplo, los sistemas de vigilancia con biometría como el reconocimiento facial, han mejorado la seguridad en sitios públicos, y el servicio de control migratorio en los aeropuertos. Con motivo de la pandemia de Covid-19 en algunos países se implementaron sistemas de IA con biometría para detectar personas con síntomas de covid. Sin duda los beneficios son muchos pero no por ello exentos de riesgos.

Si bien los algoritmos que corren en programas de IA son eficientes procesando miles de variables y computando millones de datos, son también opacos por naturaleza en su funcionamiento. Es decir que es imposible para los usuarios e incluso para los programadores entender o tener explicaciones sobre el proceso empleado por el algoritmo en la toma de decisiones (¿por qué A y no B?). Por otra parte, las bases de datos que se usan para alimentar el programa corren el riesgo de estar incompletas y de tener sesgos ocultos, y por lo tanto se corre el riesgo de replicar y perpetuar sesgos y situaciones de discriminacion ya existentes entre ciertas poblaciones.

Desde el 2019 Colombia cuenta con una política pública de transformación digital e inteligencia artificial que busca crear las condiciones habilitantes para fomentar la inversión y el desarrollo de tecnologías digitales y la transformación digital. De igual manera, en el 2021 el gobierno elaboró el Marco Ético para la Inteligencia Artificial el cual cuenta con recomendaciones y herramientas para asegurar el uso ético de los algoritmos y mitigar así los riesgos asociados a su uso. Aún más, desde el 2021 se estableció la Misión de Expertos en Inteligencia Artificial con el mandato de formular recomendaciones sobre cómo debe Colombia fomentar e implementar la IA para el futuro del trabajo (empleo) y la protección al medio ambiente.

Pero la inteligencia artificial, en la teoría una herramienta infalible y agregadora de valor en la economía, no está libre de riesgos. Los posibles daños causados por decisiones algorítmicas incluyen, por ejemplo, prácticas de contratación discriminatorias y condenas sesgadas en procesos penales. Los gobiernos y las empresas deben ponderar los beneficios de usar la IA (por ejemplo, ganancias en eficiencia y productividad), frente a los riesgos de institucionalizar permanentemente procesos de toma de decisiones opacas que impiden un desarrollo inclusivo y socialmente consciente. A su vez, nos corresponde como ciudadanos exigir mecanismos institucionales y ciudadanos para fomentar el desarrollo y uso de tecnologías de IA con salvaguardas y correctivos que impidan o minimicen los daños en la sociedad.

Todos tenemos un interés legítimo en el uso ético y responsable de esta tecnología y somos partes interesadas. ¿Cómo podemos entonces exigir a los desarrolladores e implementadores responsabilidad social más allá de lo empresarial? Ante esta fuerza potencialmente transformadora, se requiere diálogo abierto y discusiones participativas donde los tomadores de decisiones consideren las preocupaciones de la ciudadanía.

Durante la primera versión de “Almuerzos Virtuales” organizado por el Instituto Edgelands, pudimos facilitar un espacio de diálogo y participación indispensable para discutir estos temas. Uno de nuestros objetivos en Edgelands es crear espacios de diálogo y construir puentes para acercar a las personas a las discusiones que se están dando en los círculos del poder y de las políticas públicas. Para ello tuvimos un diálogo directo y abierto con Sandra Cortesi, directora de la Mision de Expertos. Después de su intervención donde nos dio a conocer el mandato y trabajo de la misión, hubo espacio para que sectores de la sociedad civil y las universidades pudieran dar a conocer sus posiciones y nutrir así el diálogo y el trabajo de la misión. En Edgelands aspiramos a eso: fomentar el diálogo, facilitar el intercambio, la participación y las discusiones sobre temas que nos afectan.

Conversando sobre la inteligencia artificial en nuestro primer “Almuerzo Digital.”

Las nuevas tecnologías siempre han encontrado resistencia en la sociedad: la máquina de vapor, la electricidad, los computadores, y el internet fueron en su momento rechazadas de tajo, tildadas de tendencia pasajera, sus riesgos resaltados más que sus beneficios. Desconfiar de lo desconocido es natural. Más desafiante es abordar estas tecnologías con pensamiento crítico, entender sus dimensiones, ponderar sus costos y beneficios. Hacerlo en espacios como los que proponemos en Edgelands nos da la posibilidad de incidir en la toma de decisiones y asegurar que las tecnologías serán para beneficio y no harán daño. En la cacofonía de posiciones y argumentos, desde Edgelands queremos armonizar y recoger las opiniones informadas, basadas en ciencia,evidencia y socialmente responsables.

Fuentes

Kim, H., Giacomin, J., & Macredie, R. (2014). A qualitative study of stakeholders’ perspectives on the social network service environment. International Journal of Human-Computer Interaction, 30(12), 965-976.

O'Neil, C. (2017). Weapons of math destruction: How big data increases inequality and threatens democracy. Broadway Books.








edgelands.institute
rue de candolle, 20
1211 geneva 
switzerland


contacto
info@edgelands.institute