DF Lab Opinión / Ética en la Inteligencia Artificial: ¿buen negocio?

Por: Sofia Klapp, gerente de Estrategia & Transformación Digital de EY

Los beneficios económicos de la Inteligencia Artificial (IA) son indudables, así como el interés de las empresas por invertir e integrarlo a sus hojas de ruta e invertir en su desarrollo y adopción. Sin embargo, Gartner proyecta que para el 2022, el 85 % de los sistemas basados en IA presentará errores en sus resultados debido a sesgos de datos, algorítmicos o de los propios equipos de desarrollo.

Esta realidad nos lleva directamente a abordar el desafío de IA ética o confiable. Existen más de 100 declaraciones de principios éticos en el mundo, la gran mayoría enfatiza la importancia de desarrollar, implementar y mantener sistemas basados en IA que sean confiables, efectivos y seguros, permitiendo así respetar nuestros derechos fundamentales.

Si bien existe la percepción de que implementar estos principios puede resultar costoso, engorroso o incluso una barrera su innovación, no abordarlo puede ser un muy mal negocio. Globalmente los consumidores están expresando fuertes preocupaciones por los desafíos éticos que han ido emergiendo en los últimos años y que se traducen en falencias de los sistemas. Casos que lo demuestren abundan, desde un sistema de selección de personal que reforzaba la discriminación de género al recomendar más hombres que mujeres, hasta algoritmos de reconocimiento facial poco efectivos para identificar personas que no responden al fenotipo caucásico.

Estas preocupaciones están siendo tomadas muy en serio por legisladores en distintas partes del mundo, tal como lo demuestra un estudio realizado por EY en 55 países. El reporte reveló que mientras el sector privado tiende a priorizar los temas éticos más tradicionales y comúnmente regulados como ciberseguridad y privacidad, el sector público considera prioritarios los desafíos éticos emergentes y actualmente más controversiales de esta tecnología, como son la confiabilidad y control de sesgos, el nivel autonomía de los algoritmos versus el control humano y la necesidad de explicitar cómo los algoritmos toman las decisiones.

A esto se suma que la desconfianza de los usuarios frente a errores de estos sistemas es una barrera para su adopción. La AI ética va más allá de lo legal o responsabilidad social empresarial y persigue que el sistema efectivamente haga lo que debe hacer, que sea confiable en todo sentido.

Hay elementos iniciales para un abordaje ético. El primer paso es, sin duda, comprender que estos sistemas son creados, entrenados y usados bajo criterios humanos que no son imparciales, incluyen subjetividades y sesgos inconscientes. Además, es necesario considerar que los riesgos están presentes en todo el ciclo de vida de estos algoritmos: riesgos de diseño (asociados al alineamiento del desafío a resolver y las limitaciones de la IA), riesgos en los datos (protección de datos personales, datos sesgados e incluso no representativos para un entrenamiento efectivo), y riesgos algorítmicos (asociados al modelamiento, entrenamiento y validación).

Finalmente, estos sistemas no pueden pensarse como un producto terminado sin intervención humana. Si bien los sistemas basados en reglas pueden instalarse, configurarse e ignorarse durante años, los sistemas de IA necesitan ser reentrenados frente a nuevas evidencias o a la ocurrencia de cambios en el contexto en el cual operan, lo cual es esencialmente constante.